Artificial-neural-network-kohonen-selforganizing-feature-maps

提供:Dev Guides
移動先:案内検索

Kohonenの自己組織化機能マップ

任意の次元のパターンがあると仮定しますが、1次元または2次元でそれらが必要です。 次に、特徴マッピングのプロセスは、広いパターン空間を典型的な特徴空間に変換するのに非常に役立ちます。 ここで、なぜ自己組織化機能マップが必要なのかという疑問が生じます。 その理由は、任意の次元を1次元または2次元に変換する機能に加えて、隣接トポロジを保持する機能も必要だからです。

Kohonen SOMの近隣トポロジ

さまざまなトポロジがありますが、次の2つのトポロジが最も使用されます-

長方形グリッドトポロジ

このトポロジには、距離2グリッドに24個のノード、距離1グリッドに16個のノード、距離0グリッドに8個のノードがあります。これは、各長方形グリッド間の差が8ノードであることを意味します。 勝利ユニットは#で示されます。

長方形

六角形のグリッドトポロジ

このトポロジには、距離2グリッドに18ノード、距離1グリッドに12ノード、距離0グリッドに6ノードがあります。つまり、各長方形グリッド間の差は6ノードです。 勝利ユニットは#で示されます。

六角形

建築

KSOMのアーキテクチャは、競合ネットワークのアーキテクチャに似ています。 前述の近隣スキームの助けを借りて、トレーニングはネットワークの拡張された領域で実行できます。

KSOM

トレーニングのアルゴリズム

  • ステップ1 *-重み、学習率*α*および近傍トポロジスキームを初期化します。
  • ステップ2 *-停止条件が真でない場合、ステップ3-9を続行します。

ステップ3 *-入力ベクトル *x ごとにステップ4-6を続けます。

ステップ4 *- *j = 1〜m のユークリッド距離の平方を計算する

D(j)\:= \:\ displaystyle \ sum \ limits _ \ {i = 1} ^ n \ displaystyle \ sum \ limits _ \ {j = 1} ^ m(x _ \ {i} \:-\: w _ \ {ij})^ 2

ステップ5 *- *D(j) が最小の勝者ユニット J を取得します。

  • ステップ6 *-次の関係により、勝利ユニットの新しい重量を計算します-

w _ \ {ij}(new)\:= \:w _ \ {ij}(old)\:+ \:\ alpha [x _ \ {i} \:-\:w _ \ {ij}(old)]

  • ステップ7 *-次の関係により学習率*α*を更新します-

\ alpha(t \:+ \:1)\:= \:0.5 \ alpha t

  • ステップ8 *-トポロジスキームの半径を小さくします。
  • ステップ9 *-ネットワークの停止条件を確認します。