Caffe2-image-classification-using-pre-trained-model
事前学習済みモデルを使用した画像分類
このレッスンでは、事前に訓練されたモデルを使用して、特定の画像内のオブジェクトを検出する方法を学習します。 squeezenet 事前学習済みモジュールを使用して、特定の画像内のオブジェクトを非常に正確に検出および分類します。
新しい Juypter Notebook を開き、手順に従ってこの画像分類アプリケーションを開発します。
ライブラリのインポート
まず、以下のコードを使用して必要なパッケージをインポートします-
次に、いくつかの*変数*を設定します-
トレーニングに使用される画像は明らかにさまざまなサイズになります。 これらすべての画像は、正確なトレーニングのために固定サイズに変換する必要があります。 同様に、テスト環境と実稼働環境で予測するイメージも、トレーニング中に使用したものと同じサイズに変換する必要があります。 したがって、値 227 を持つ INPUT_IMAGE_SIZE という上記の変数を作成します。 したがって、すべての画像をサイズ 227x227 に変換してから、分類器で使用します。
また、値 128 を持つ mean という変数を宣言します。この変数は、後で分類結果を改善するために使用されます。
次に、画像を処理するための2つの関数を開発します。
画像処理
画像処理は2つのステップで構成されます。 1つ目は画像のサイズを変更することであり、2つ目は画像を中央でトリミングすることです。 これらの2つのステップでは、サイズ変更とトリミングのための2つの関数を作成します。
画像のサイズ変更
最初に、画像のサイズを変更する関数を作成します。 前述のように、画像のサイズを 227x227 に変更します。 だから私たちは次のように関数*リサイズ*を定義しましょう-
幅を高さで割ることにより、画像のアスペクト比を取得します。
アスペクト比が1より大きい場合、画像が広いこと、つまりランドスケープモードであることを示します。 私たちは今、次のコードを使用して画像の高さを調整し、サイズ変更された画像を返します-
アスペクト比が 1 未満の場合、*縦モード*を示します。 次のコードを使用して幅を調整します-
アスペクト比が 1 の場合、高さ/幅の調整は行われません。
完全な機能コードは、クイックリファレンスのために以下に示されています-
次に、画像の中心を切り取るための関数を作成します。
画像のトリミング
次のように crop_image 関数を宣言します-
私たちは次のステートメントを使用して画像の寸法を抽出します-
次の2行のコードを使用して、画像の新しい開始点を作成します-
最後に、新しい次元で画像オブジェクトを作成することにより、トリミングされた画像を返します-
クイックリファレンスのために、機能コード全体を以下に示します-
次に、これらの機能をテストするコードを作成します。
画像処理
まず、画像ファイルをプロジェクトディレクトリ内の images サブフォルダーにコピーします。 tree.jpg ファイルがプロジェクトにコピーされます。 次のPythonコードは画像を読み込み、コンソールに表示します-
出力は次のとおりです-
元の画像のサイズは 600 x 960 であることに注意してください。 このサイズを 227 x 227 の仕様に合わせて変更する必要があります。 以前に定義した* resize *関数を呼び出すと、このジョブが実行されます。
出力は以下のとおりです-
画像サイズは 227 x 363 になりました。 アルゴリズムへの最終フィードのために、これを 227 x 227 にトリミングする必要があります。 この目的のために、以前に定義されたクロップ関数を呼び出します。
以下は、コードの出力です-
この時点で、画像のサイズは 227 x 227 であり、さらに処理する準備ができています。 画像軸を交換して、3つの色を3つの異なるゾーンに抽出します。
以下が出力です-
最後の軸が配列の最初の次元になっていることに注意してください。 次のコードを使用して3つのチャネルをプロットします-
出力は以下のとおりです-
最後に、次の3行のコードを使用して、 Red Green Blue を* Blue Green Red(RGBからBGR)*に変換し、より良い結果を得るために平均値を削除し、バッチサイズ軸を追加するなど、画像に対していくつかの追加処理を行います-
この時点で、画像は* NCHW形式*であり、ネットワークに送信する準備ができています。 次に、事前に訓練されたモデルファイルを読み込み、予測のために上記の画像をそのファイルにフィードします。
処理されたイメージ内のオブジェクトの予測
最初に、Caffeの事前トレーニングモデルで定義された init および predict ネットワークのパスを設定します。
モデルファイルパスの設定
前の説明から、事前に訓練されたモデルはすべて models フォルダーにインストールされていることを思い出してください。 次のようにこのフォルダへのパスを設定します-
次のように、 squeezenet モデルの init_net protobufファイルへのパスを設定します-
同様に、次のように predict_net protobufへのパスを設定します-
診断目的で2つのパスを印刷します-
出力と一緒に上記のコードは、あなたのクイックリファレンスのためにここに与えられています-
出力は以下に記載されています-
次に、予測変数を作成します。
予測子の作成
私たちは次の2つのステートメントを使用してモデルファイルを読み取ります-
予測子は、2つのファイルへのポインターをパラメーターとして Predictor 関数に渡すことによって作成されます。
オブジェクトの予測
特定の画像内のオブジェクトを予測するのは簡単です。コマンドを1行実行するだけです。 特定の画像でオブジェクトを検出するために、 predictor オブジェクトで run メソッドを呼び出します。
予測結果は results オブジェクトで利用できるようになりました。これを読みやすくするために配列に変換します。
次のステートメントを使用して理解のために配列の次元を印刷します-
出力は次のようになります-
ここで不要な軸を削除します-
出力は次のとおりです-
ご覧のように、モデルはインデックス値 984 のオブジェクトを* 89%*の信頼度で予測しています。 984のインデックスは、検出されたオブジェクトの種類を理解する上であまり意味がありません。 インデックス値を使用して、オブジェクトの文字列化された名前を取得する必要があります。 モデルが認識するオブジェクトの種類とそれに対応するインデックス値は、githubリポジトリで利用できます。
ここで、984のインデックス値を持つオブジェクトの名前を取得する方法を確認します。
結果の文字列化
次のようにgithubリポジトリへのURLオブジェクトを作成します-
私たちはURLの内容を読みます-
応答には、すべてのコードとその説明のリストが含まれます。 応答のいくつかの行は、それが何を含むかを理解するために以下に示されています-
次のように for ループを使用して、配列全体を反復処理して984の目的のコードを見つけます-
あなたがコードを実行すると、次の出力が表示されます-
これで、別の画像でモデルを試すことができます。
別の画像を予測する
別の画像を予測するには、画像ファイルをプロジェクトディレクトリの images フォルダーにコピーするだけです。 これは、以前の tree.jpg ファイルが保存されているディレクトリです。 コード内の画像ファイルの名前を変更します。 以下に示すように、必要な変更は1つだけです
元の画像と予測結果を以下に示します-
出力は以下に記載されています-
ご覧のとおり、事前学習済みのモデルは、指定された画像内のオブジェクトを非常に正確に検出できます。
完全なソース
所定の画像内のオブジェクト検出に事前に訓練されたモデルを使用する上記のコードの完全なソースは、クイックリファレンスのためにここに記載されています-
この時点で、事前学習済みモデルを使用してデータセットの予測を行う方法がわかっています。
次は、 Caffe2 で*ニューラルネットワーク(NN)*アーキテクチャを定義し、データセットでトレーニングする方法を学習します。 ここで、単純な単一層NNを作成する方法を学習します。