Artificial-neural-network-basic-concepts

提供:Dev Guides
移動先:案内検索

人工ニューラルネットワーク-基本概念

ニューラルネットワークは並列コンピューティングデバイスであり、基本的には脳のコンピューターモデルを作成する試みです。 主な目的は、従来のシステムよりも高速にさまざまな計算タスクを実行するシステムを開発することです。 これらのタスクには、パターン認識と分類、近似、最適化、データクラスタリングが含まれます。

人工ニューラルネットワークとは

人工ニューラルネットワーク(ANN)は、その中心テーマが生物学的ニューラルネットワークの類推から借用された効率的なコンピューティングシステムです。 ANNは、「人工神経システム」または「並列分散処理システム」または「コネクショニストシステム」とも呼ばれます。ANNは、ユニット間の通信を可能にするために何らかのパターンで相互接続されたユニットの大規模なコレクションを取得します。 ノードまたはニューロンとも呼ばれるこれらのユニットは、並列で動作する単純なプロセッサです。

すべてのニューロンは、接続リンクを介して他のニューロンと接続されています。 各接続リンクは、入力信号に関する情報を持つ重みに関連付けられています。 これは、ニューロンが特定の問題を解決するための最も有用な情報です。これは、通常、伝達される信号が重みによって興奮または抑制されるためです。 各ニューロンには、活性化信号と呼ばれる内部状態があります。 入力信号とアクティベーションルールを組み合わせた後に生成される出力信号は、他のユニットに送信できます。

ANNの簡単な歴史

ANNの歴史は、次の3つの時代に分けることができます-

1940年代から1960年代のANN

この時代のいくつかの主要な開発は次のとおりです-

  • 1943 -神経ネットワークの概念は、生理学者のウォーレン・マカロックと数学者のウォルター・ピッツの研究から始まったと考えられていました。脳が機能する可能性があります。
  • 1949 -ドナルド・ヘッブの本「The Organization of Behavior」は、あるニューロンが別のニューロンによって繰り返し活性化されると、使用されるたびにその強度が増加するという事実を発表しました。
  • 1956 -連想メモリネットワークがTaylorによって導入されました。
  • 1958 -パー​​セプトロンという名前のマカロックおよびピッツニューロンモデルの学習方法は、Rosenblattによって発明されました。
  • 1960 -バーナード・ウィドローとマルシアン・ホフは「ADALINE」と「MADALINE」と呼ばれるモデルを開発しました。

1960年代から1980年代のANN

この時代のいくつかの主要な開発は次のとおりです-

  • 1961 -Rosenblattは失敗しましたが、多層ネットワークの「逆伝播」スキームを提案しました。
  • 1964 -テイラーは、出力ユニット間で抑制を伴う勝者テイクオール回路を構築しました。
  • 1969 -多層パーセプトロン(MLP)はMinskyとPapertによって発明されました。
  • 1971 -コホネンは連想記憶を開発しました。
  • 1976 -Stephen GrossbergとGail Carpenterは適応共鳴理論を開発しました。

1980年代から現在までのANN

この時代のいくつかの主要な開発は次のとおりです-

  • 1982 -主な開発は、ホップフィールドのエネルギーアプローチでした。
  • 1985 -ボルツマンマシンは、Ackley、Hinton、およびSejnowskiによって開発されました。
  • 1986 -ルーメルハート、ヒントン、およびウィリアムズは、一般化デルタルールを導入しました。
  • 1988 -KoskoはBinary Associative Memory(BAM)を開発し、ANNでファジーロジックの概念も提供しました。

歴史的レビューは、この分野で大きな進歩があったことを示しています。 ニューラルネットワークベースのチップが登場し、複雑な問題へのアプリケーションが開発されています。 確かに、今日はニューラルネットワークテクノロジーの移行期です。

生体ニューロン

神経細胞(ニューロン)は、情報を処理する特別な生体細胞です。 推定によれば、膨大な数のニューロンがあり、約10 ^ 11 ^個の相互接続があり、約10 ^ 15 ^個あります。

回路図

概略図

生物学的ニューロンの働き

上記の図に示されているように、典型的なニューロンは次の4つの部分で構成されており、その助けを借りてその動作を説明できます-

  • 樹状突起-それらは木のような枝であり、接続されている他のニューロンから情報を受け取る役割を果たします。 他の意味では、それらはニューロンの耳のようなものであると言えます。
  • Soma -ニューロンの細胞体であり、樹状突起から受け取った情報の処理を担当します。
  • 軸索-ニューロンが情報を送信するケーブルのようなものです。
  • シナプス-それは、軸索と他のニューロンの樹状突起との間の接続です。

ANNとBNN

人工ニューラルネットワーク(ANN)と生物学的ニューラルネットワーク(BNN)の違いを見る前に、これら2つの用語に基づいた類似点を見てみましょう。

Biological Neural Network (BNN) Artificial Neural Network (ANN)
Soma Node
Dendrites Input
Synapse Weights or Interconnections
Axon Output

次の表は、言及されているいくつかの基準に基づいたANNとBNNの比較を示しています。

Criteria BNN ANN
Processing Massively parallel, slow but superior than ANN Massively parallel, fast but inferior than BNN
Size 1011 neurons and 1015 interconnections 102 to 104 nodes (mainly depends on the type of application and network designer)
Learning They can tolerate ambiguity Very precise, structured and formatted data is required to tolerate ambiguity
Fault tolerance Performance degrades with even partial damage It is capable of robust performance, hence has the potential to be fault tolerant
Storage capacity Stores the information in the synapse Stores the information in continuous memory locations

人工ニューラルネットワークのモデル

次の図は、ANNの一般的なモデルとそれに続く処理を表しています。

モデル

人工ニューラルネットワークの上記の一般的なモデルでは、ネット入力は次のように計算できます-

y _ \ {in} \:= \:x _ \ {1} .w _ \ {1} \:+ \:x _ \ {2} .w _ \ {2} \:+ \:x _ \ {3}。 w _ \ {3} \:\ dotso \:x _ \ {m} .w _ \ {m}

つまり、ネット入力$ y _ \ {in} \:= \:\ sum_i ^ m \:x _ \ {i} .w _ \ {i} $

ネット入力にアクティベーション関数を適用することにより、出力を計算できます。

Y \:= \:F(y _ \ {in})

出力=関数(正味入力計算)