JPH06504636A - 神経回路網の訓練方法 - Google Patents

神経回路網の訓練方法

Info

Publication number
JPH06504636A
JPH06504636A JP3518192A JP51819291A JPH06504636A JP H06504636 A JPH06504636 A JP H06504636A JP 3518192 A JP3518192 A JP 3518192A JP 51819291 A JP51819291 A JP 51819291A JP H06504636 A JPH06504636 A JP H06504636A
Authority
JP
Japan
Prior art keywords
input
vector
network
training
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3518192A
Other languages
English (en)
Other versions
JP3290984B2 (ja
Inventor
ウッド、デイビッド・チャールズ
Original Assignee
ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー filed Critical ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Publication of JPH06504636A publication Critical patent/JPH06504636A/ja
Application granted granted Critical
Publication of JP3290984B2 publication Critical patent/JP3290984B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • G06N3/0675Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means using electro-optical, acousto-optical or opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B82NANOTECHNOLOGY
    • B82YSPECIFIC USES OR APPLICATIONS OF NANOSTRUCTURES; MEASUREMENT OR ANALYSIS OF NANOSTRUCTURES; MANUFACTURE OR TREATMENT OF NANOSTRUCTURES
    • B82Y20/00Nanooptics, e.g. quantum optics or photonic crystals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nanotechnology (AREA)
  • Chemical & Material Sciences (AREA)
  • Neurology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Computational Linguistics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 神経回路網の訓練方法 本発明は、入力ベクトルの入力用の入力と出力ベクトルの出力用の出力と、与え られた入力ベクトルの入力に応答して回路網により出力される出力ベクトルを決 定するための調節可能な応答決定手段とを有する神経回路網の訓練方法に関する 。
通常神経回路網は直列のノードと考えられ、各ノードはそのノードが結合される 他のノードの出力の関数である出力をノードに出力を与える。例えば特定のノー ドは、他のノードの出力の加重合計が設定されたしきい値を越えると第1のレベ ルで信号を出力し、他のノードの出力の加重合計がしきい値を越えないと第2の レベルで信号を出力する。異なったノードはノードに特定の加重およびしきい値 で他のノードの異なったセットからの出力を受信する。入力ベクトルは回路網の 入力を介してノードのセットに結合され、出力ベクトルは回路網の出力で生成さ れる。入力ベクトルへの神経回路網の応答は、この場合、このタイプの回路網用 の応答決定手段を集積して形成する加重としきい値により決定される。
神経回路網の他の装置は前述の加重およびしきい値技術と異なった技術を使用す るが、入力ベクトルに応答する特定の回路網により提供される出力ベクトルを決 定する応答決定手段を有する。
神経回路網の光装置の例は文献(N、 M、 Barnes、 P、 Beal e7. P。
McK*e、 A、 W、0’ Ne1ll、 M、^、 2. Re jmx n−Grteu、 E、 G、 5coff、 R,P、 ve bb、 D、 Woodによる“旧gh 5peed 0pto−El<c(r onic Ntural Ne1vork ” 、 Electronics  Le目ers 51990年7月19日、巻26、No、15.1110〜11 12頁)に記載されている。これは高い処理能力を与えるための並列処理と光相 互接続の可能性を開拓した。即ち神経回路網は供給された入力ベクトルに急速な 応答を有し、この入力ベクトルは報告された構造では毎秒10Mビットを超過す る速度でクロックされることができる。回路網はこの出願の図1で示されている 。2層の知覚回路網は入力流ASBの対の排他的オア(EXOR)の組合わせを 認識することができる。
基本的な動作は4×4の光検出器アレイ80の各行が行に入射した光強度の合計 に対応した電気信号を提供するマトリックスベクトル乗算を行うことである。
コンピュータ生成のホログラム100とレンズ102と104は変調器アレイ8 2のそれぞれの変調器に入射する単一のレーザ源106から直接強度コード化ビ ーム(図示せず)を生成する。
ビームの相対的な強度は変調器の数字により示されている。
これらの異なった強度のビームは、検出器の行により形成されるノードに対する 接続中の変調器の出力に供給される異なった加重を提供する。
信号はこの加重された合計がバイアス供給源86からの固定したバイアスまたは 他の加重された合計の1つに関する設定されたしきい値より上または下であるか によって前置増幅器84により次のレベルに通過するか或いはまたは通過されな い。
例えばソースアレイからのそれぞれのビームの強度をフィルタするための固定し たマスクの使用を含む強度のコード化された多数のビームが生成される方法が幾 つかある。
先神経コンピュータ用の本出願人(この出願の出願時には未公開)により発明さ れた加重の決定方法は多重量子ウェル(MQW)変調器に対する与えられた波長 で達成された変調の深さがデジタル駆動の電圧スイングだけではなく変調器を横 切って供給されるバイアスにも決定される事実に基づく。
N、 M、 Ba rnes、 P、 lea Iey、 、 M、 A、 2 . Re j++■−Greene、 E、 G、 5co■■A R,P 、Wrbbによる“16 Channel Parallel 0ptical  InterconnectDemonsltxtion wHh an 1n GaAs/InP MQW Modulator Arra7 ”(Elcct  Le目、26.1126〜1127頁、1990年)の図3を参照する。この 性質は、変調器がインまたはオフ状態のいずれであるかを決定するデジタル駆動 の電圧スイングが変更されなくても、変調の深さが調節可能であることを意味す る。ローパスフィルタを図1の回路に付加することにより、低速で変化する(1 0〜l00KHz)アナログバイアス電圧は高速の(約50Mhz)のデジタル データに重畳されることができる。信号の加重に対応する変調の深さは10〜1 00KHzの速度で変化されることができる。この低速変化の電圧レベルはコン ピュータ制御の下で標準的な低帯域幅アナログ駆動により設定される。多重ビー ムを生成するホログラムには予めプログラムされた加重のマトリックスによりビ ームを生成する必要はない。ビームの均一アレイは代りに使用されることができ 、加重は変調器の独立して調節可能なバイアス電圧により決定される。さらに加 重は神経回路網訓練位相期間中に調節されることができる。
光神経回路網のこの構成は神経回路網を通って高速デジタルデータを伝送する手 段を提供し、一方コンピュータ制御下でより遅い速度で加重を変化することがで きる。
特にデータ信号が外部的に生成され変調器/検出器アレイの積層体を照射して高 データ処理能力が達成される他の方法が存在する。変調器は独立して加重を調節 するようにアドレスされることができる。
しきい値レベルを決定するバイアス電圧もまたこれらの設計では同一の遅い時間 スケールで調節可能である。
既知の人力ベクトルのセット(訓練セット)に対応した所望の出力ベクトルのセ ット(ターゲットセット)が知られている場合には、応答決定手段の適切な構造 は回路網の管理された訓練により達成できる。即ち回路網は入力ベクトルの訓練 セットと、回路網からの実際の出力ベクトルと出力ベクトルのターゲットセット との間のエラー(例えば類似的に増加する)を減少するためのアルゴリズムによ り調節される応答決定手段を与えられる。
神経回路網の既知の訓練方法は、訓練セットからの各入力ベクトルを順番に回路 網に供給することを含む。回路網からの出力ベクトルと人力ベクトルに対するタ ーゲット出力ベクトルの類似性の測定が得られ、応答決定手段は少なくとも類似 性の測定にある程度依存する方法で調節される。このことは順番に訓練セットの 入力ベクトルで反復される。
このような訓練方式の例は文献(P、 D、 WlsscrmsnとT、Sch warjtの“Neuril Nenork Pa目2 ” 8294. IE EE Expert、巻3(1988年)、春、Nol、10〜15頁)に記載 されている。
神経回路網のこの訓練方法は、このような可変双安定変調器を使用する回路網お よび光強度が加重決定のために変化できる他の回路網に応用可能である。しかし ながら、このような光神経回路網に供給されるようなこのような訓練方法の特徴 は、所定の入力ベクトルに対して行うべき加重としきい値の変化の算出が次の入 力ベクトルが回路網に供給される前に完了しなければならないことである。即ち 回路網の高いデータ処理能力は、人力ベクトルが回路網に供給される速度が変化 の計算される比較的低速度に限定されるため訓練位相期間には利益はない。
D、 P、 Ca5asenIとE、 Bsrrllrdは文献”Ad++pt iye−CIusteriBOptical Neural Net”で入力を クラスに分けるためネットが訓練ベクトルの入力セットで訓練される神経回路網 方法と結合した集合および線形判別機能選択の認識技術のパターンを説明してい る。訓練アルゴリズムは回路網に順番に人力訓練ベクトルをそれぞれ入力するこ とを含み、それぞれが適切なりラスの中で最も活性な隠れたニューロンおよび他 のクラスの中の最も活性な隠れたニューロンを決定する。このことが−回行われ るとこれらの2つの隠れたニューロン用の加重ベクトルと入力ベクトルのベクト ル内積が計算され、パーセブトロンエラー関数が計算され、エラーのペナルティ が計算され、エラー関数に加えられる。セットの次の訓練ベクトルは人力され、 計算はこの次の入力ベクトルに対して反復される。
全ての訓練ベクトルが入力された後、全てのエラーとエラー勾配は累積され、ネ ットの加重は共役勾配アルゴリズムを使用して適合される。訓練ベクトルのセッ トは人力ベクトルの試験セットの適切な動作が得られるまで反復される。
この文献で説明されているように隠されたノードの加重と入力ベクトルの内部ベ クトル積は光学的に実行される。
Ca5ascnlその他諸々による訓練方法は決定される2つのクラスの最大と 、次がネットに入力可能になる前に1つの入力ベクトル用に計算されるエラー関 数とエラーペナルティを必要とするためにベクトル内積が電子ドメインではなく 光学的に、i速jご計算されるが、神経回路網の高データ処理能力を利用しない 。
本発明によると、入力ベクトルの入力用の入力と、出力ベクトルの出力用の出力 と、与えられた入力ベクトルの入力に応答して回路網により出力される出力ベク トルを決定するための調節可能な応答決定手段とを有する神経回路網の訓練方法 において、 一連の対応する出力ベクトルを得るため一連の人力ベクトルを回路網に入力し、 各出力ベクトルを各ターゲットベクトルと比較し、一連の出力ベクトル中の出力 ベクトルが各ターゲットベクトルと異なっている場合の平均数である平均不整合 値に依存して応答決定手段を調節することを含む。
与えられた一連の入力の出力セットとターゲットセット全体の平均不整合値を測 定し、それぞれのベクトルの対を比較した直後ではなく、このグローバル測定に 依存して応答決定手段を調節し、これらに基づくエラー関数を計算しないで応答 決定手段が調節される速度より高いデータ処理能力速度を有する神経回路網の強 化した訓練速度を提供する。これは入力ベクトルを低速の計算要素に依存する回 路網の比較的低速な加重調整速度に供給する速度を制限しないことにより訓練の 速度を高める。
便宜的に入力ベクトルの訓練セットのメンバーは反復して複数の一連の入力ベク トルを供給するために回路網に入力され、応答決定手段は各一連の平均不整合値 に応じて調節される。
訓練ベクトルのセットの非全般的な数に基づいて本発明の訓練方法によって調節 が行われ、即ちベクトルの訓練セットと非同期である。このことは訓練セットが 回路網に再供給される前に計算が完了するまで待つ必要なしに必要な調節が計算 されるような高速度で回路網の調節を許容する。
訓練方法の別の特別の利点は、収集が非常に困難であるかまたは高価であるデー タを含む入力ベクトルの小さい訓練セットがランダム雑音または歪みの付加によ り大きな訓練セ・ソトに容易に拡大されることである。ランダム付加は回路網内 のあらゆる場所のデータまたは加重およびしきい値に対して能にする。
本発明の訓練方法は、高データ処理能力速度を有する訓練神経回路網に適用され るとき特別な利点を有することが認められるが、それは他のハードウェア神経回 路網構造に適用されることができる。これはまたデータ処理能力速度が例えば加 重変化の計算が容易である加重更新速度と匹敵するシステムにも適用される。
前述の例で、加重、しきい値の応答決定手段について行われる調節を計算するの に使用されるアルゴリズムは不整合値を究局的に最小化しようとする任意の所望 のアルゴリズムでよい。
例えばS、 Kirkpxlric、 C,D、 Gel[t Jrl、 M、  P、 Vecchiによる’0pjia+1stljion b7 Simu l[ed Annuling’ 5cience、220,671〜680頁( 1983年)に記載されているシミュレートしたアニーリングアルゴリズムまた はそれらに関連するアルゴリズムは特に変形が不連続値のみを取るタイプの複雑 な問題のための全体的な最大値を発見するのに効率的である。しかしこれらの技 術は計算時間に関して非常に高価であり、従って現在広く使用されていない。非 常に高速のハードウェア発生によって、入力ベクトルのセットの計算時間は少な くなり、技術は実行可能になる。例えば回路網が50MHzの速度でデータを取 り、訓練セットが1000のメンバーを含むならば、出力ベクトルのセットとタ ーゲットセットの類似性のデータは50KHzの速度で集められ、それ故、原理 的に50.000の反復が毎秒行われ(加重およびしきい値の計算はこの速度で 行われることか可能であるものと仮定する)、各反復は出力ベクトルとターゲッ トベクトルのみの比較よりも1000の出力ベクトル全体の情報で計算される。
即ち、この訓練方法はこの実施例の回路網の訓練速度の潜在的に1000倍の増 加を提供する。
実際の増加は使用されるアルゴリズムに応じて決定される。
本発明の方法は添付図面を参照して実施例によって説明される。
図1は従来技術の光神経回路網の概略図である。
図2は非同期の訓練を提供する一般化した神経回路網に関する本発明の段階を示 す概略図である。
図3は本発明の訓練方法が適用可能である例示的な神経回路網の概略図である。
図4は本発明の方法により訓練された光神経回路網としての構成に適した神経回 路網回路網の構造の概略図である。
図5は特定の応答を有する訓練後の図4の訓練神経回路網の構造を具備する光神 経回路網の概略図である。
図6は図5の回路網の加重で得られた変調の深さのグラフである。
図7は図5で示された方向回路網のEX−ORおよび奇数−偶数のパリティ関数 を示している。
図1の神経回路網は既に説明した。
本発明による神経回路網の訓練方法を図2を参照して一般的な事項について説明 する。
特定の設備は以下の説明には重要ではないが、−膜化された神経回路網2は入力 4において入力ベクトル1.(i−1乃至n)のセットの1つを受け、出力6で 対応する出力ベクトル0.を提供する。入力ベクトル!、のセットの入力で得+ 1 られる出力ベクトル0.のセットは神経回路網2の応答決定手段(図示せず)に より決定される。応答決定手段は例えば内部ノード加重およびしきい値のような 回路網を特徴づける種々のパラメータを変化することにより調節可能であること が仮定される。この場合これらは制御バス10により神経回路網2と連結する制 御装置8により制御可能であり、それはハードウェア構成の神経回路網を制御す る一般的目的のコンビエータでもよく、或いは一般的目的のコンピュータのソフ トウェアシミュレーションのソフトウェアルーチンであってもよく、または光学 的に構成された神経回路網であってもよい。
神経回路網2が入力ベクトルのセットIlからI、のために訓練されることを考 慮すると、それは各所望の出力ベクトル01からOlを出力する。望ましい出力 ベクトルO1は神経回路網2の出力ベクトルのターゲットセットと訓練セット入 力ベクトル1.のターゲットセットを形成する。
直 入力ベクトルI、の訓練セットのメンバーは出力ポートロ! で対応する出力ベクトルのセット0′1乃至O′。を提供する神経回路網2の入 力ポート4に連続的に供給され、それらは訓練されていない回路網では通常ター ゲットセットO1からOのターゲットセットと同一ではない。
ターゲットセットの一連のベクトルO1と神経回路2からの各出力ベクトルO′ は出力ベクトルO′とターゲット出力ベクトル01との不整合の数のカウントを 維持するエラー記録器12に入力される。
このカウントは平均不整合値にしたがって神経回路網2のパラメータを調節する コンピュータ制御装置8に利用されており、平均不整合値は一連の出力ベクトル の出力ベクトルが各ターゲットベクトルと異なりでいる時の平均数である。この 調節は通常、ベクトルの訓練セットの入力と非同期的に為されており、即ち訓練 セットの全数の繰返しが回路網に入力される前に作られる。
訓練セットとターゲットセットはアルゴリズムが決定する限り反復的に神経回路 網2とエラー記録器12にそれぞれ供給される。
コンピュータが神経回路網パラメータに対する必要な変化を計算することが可能 な速度と比較して処理能力が非常に高い神経回路網である場合、一連の入力ベク トルに対する平均不整合値を見る方法は入力ベクトルの回路網への供給と計算と の間の同期を必要とすることなく訓練が大きな訓練セットで作動することを可能 にする。即ち本発明の訓練方法は回路網への所望の変化を計算することができる 速度でアルゴリズムを実行するコンピュータにより決定される平均不整合値を有 する非同期訓練を可能にし、一方訓練データと不整合値はハードウェアが許容す る高い処理能力速度で形成される。
本発明はハードウェアとして構成される神経回路網が適切にプログラムされた汎 用コンピュータであるか、その他の方法で構成される点が強調される。
図3を参照すると、第1、第2の層22.24をそれぞれ有する簡単な神経回路 網20の機能図を示しており、回路網20は本発明のコンピュータシミュレーシ ョンのモデルで使用されている。回路網20は3ビツト二進ワードの入力ベクト ル[a。
b、clを受信するための入力ボート26と、単一の二進ビットの出力ベクトル [d]が出力される出力ボート28とを具備している。
第1の層は4つのノード30.32.34.36から構成されている。
ノード30では入力ベクトル[a、b、clの個々のビットはそれぞれ加重w− 、w” 、w”3により加重される。加重された入力ビットは加算器38により 合計され、その出力はTIと表示されるしきい値試験を受け、これは合計がしき い値TIより下ならばゼロレベル信号を生成し、合計がしきい値Tlより上であ るならばルベル信号を生成する。
して構成される。これらのノードの加算器は同一であり、それぞれ標準38であ る。
しきい値T1、T2、T3、T4 (A、B、C,D)からの出力は単一のノー ドからなる第2の層24に入力される4ビツト入カベクトルを形成する。この第 2の層(またはノード)出力が神経回路網20の出力ベクトル[d]を構成する しきい値要素T5によりしきい値試験を受ける。
ツクパラメータである本発明の方法により訓練可能である。
例えば図1で示されているように神経回路網が光神経回路網として構成されてい ると、全てのビーム強度が正の値を有するとき負の加重を有することは不可能で ある。この制限に適合するための図3の神経回路網の変形は図4のしきい値およ び加重ブロックで示されており、図4では図3のノード30、32.34.36 の加算器からの出力A、B、C,Dのいくつかは他の出力に関してバイアスされ る。この場合比較器42.44.46はそれぞれしきい値要素48.50.52 に入力されるそれぞれの出力A−B、B−C,A−Cを形成する。図4の神経回 路網の残余は図3の回路網と同一である。
本発明の訓練方法を図4の神経回路網に適用するコンビニ5のステップで0.5 から1.5の11のレベルに限定される。
出力ベクトル[1]が生成されるとき、[0,1,0]を除いて全ての二進3ビ ツト入カベクトル[a、b、clに対する出力ベクトル[0]を生成するように 回路網は訓練された。
3つの二進入力データチャンネルの8つの可能な組合わせが存在する。これらの 8つの組合わせは閉ループの訓練セ・ソトとして人力される。ランダムで均一の 雑音は回路網の第1の層に対してしきい値要素T5の後で信号2に付加された。
ランダム雑音の付加は訓練データループの長さの増加を生成し、回路網は所望の 出力を与えるだけでなく雑音レベルに対して頑丈な出力を生成する加重およびし きい値レベルを発見しなければならない。数千のループ長は訓練方法のコンピュ ータシミュレーションで使用された。結果的な加重およびしきい値は図4で示さ れている。
他の構造は神経回路網の特定の設備に便利であるように訓練セットを拡張するた めに雑音を導入するのに使用されることができる。
訓練ループのエラーカウントを最小化するためシミュレートのアニーリングの形 態を使用して、解決策は8つの可能な入カバターンのうちの1または2つの要素 およびパリティチェックの認識を含む試みられたあらゆる論理または認識問題に 対して図4の回路網で発見される。アルゴリズムでは加重またはしきい値レベル と計算された訓練ループの新しいエラーカウントの1つに対する変化が提案され る。新しい平均不整合値が以前よりも低ければ変化が受けられる。新しい平均不 整合値がΔeの量だけ大きければ、変化はexp (−Δe/T)が偽の“温度 ”Tの領域0から1のランダムな数より小さいと受入れられる。はとんど全ての 提案した変化が受けられるように反復はTの大きさで開始する。Tは次第に冷却 され、即ち単調なとき減少され、その結果平均不整合値かを増加する変化が減少 された可能性で受けられ、回路網はエラーを最少化する構造にされる。反復は平 均不整合値が許容できる数に達したときに停止される。ランダムな雑音がシステ ムに付加されないときゼロエラーを与える多数の可能な構造が存在し、訓練方式 はすぐに解決策を発見する。雑音レベルが増加したとき、許容される解決策の数 は減少し、解決策を発見するのにより多くの反復が必要となる。多量の雑音の存 在で訓練された回路網はこのレベルまで雑音の付加に対して頑強になる。
図4の2層神経回路網のソフトウェアのシミュレーションは3ビツト入カデータ の認識または論理機能を行うように訓練されることが可能なことを示している。
しかしソフトウェアシミュレーションは非常に時間を消費し、各パターンの計算 時間に数時間を必要とする。
図5を参照すると、光神経回路網は本発明の訓練方法を試験的に示すように図4 の神経回路網として構成されている。
1.5μmレーザ40はこの場合、公称上等強度の光ビームの4X4アレイ(図 示せず)を生成するレンズ44により16通りの光相互連結を生成するコンピュ ータ生成2伎相ホログラム42を照射し、光ビームはレンズ45により高速5M O3回路46により駆動される多重量子ウェル(MQW)変調器の4X4の平面 アレイの各変調要素M1.に焦点を結ぶ。変調ビームはトランスインピーダンス 増幅器と比較器に出力を供給する検出器アレイ48の各検出器り3、に焦点を結 ぶ。リン化インジウJ ム検出器アレイは感度を改良するため多重量子ウェルの代りに使用された。
MQW変調器駆動回路は調節可能な相互接続強度または加重を提供する。これは MQW変調器からの変調の深さがaC結合データ信号と同様に装置を横切って供 給されるdcバイアスに決定されるため可能である。図6は5つの帯域コード化 された加重値と変調器の単一のリターン・ツーゼロ(RZ)変換への結果的な変 調の深さを示している。可変dcバイアスまたはしきい値は訓練可能なしきい値 機能を生成するため各比較器の変換入力に付加された。加重としきい値に対する アナログ電圧は両者とも8ビツトのデジタルアナログコンバータから得られる。
アナログ速度回路の時定数は結果的に25μsの最大固定時間となり、しきい値 回路は2μsの固定時間を有し、一方変調器、検出器、増幅器は40Mピッ)  / s RZで駆動されることができる。
から下への行を示す。1つの例示的な変調器M21と検出器り第1の3つの列の 変調器M2.と検出器り、は神経回路網40の第1の層を形成し、一方変調器M 、と検出器り、の第4の1」 列は神経回路網40の第2の層を形成する。
3つの高速二進入力チャンネル50.52.54が存在し、それぞれ独立した加 重変調器の4つの列に接続されている。各変調器わせて変調器駆動装置56によ り独立してアドレスされる。
検出器からの出力は行で合計されたり1.である。A、BSC。
1」 D出力の比較器から決定される4つの二進入力(A−D、B−CSA−C,D) はしきい値制御装置59によりセットされるバイアス電圧に対してしきい値と比 較される。これらは加重制御装置58により提供される変調器用の加重を変調器 駆動装置60と信号バス62により変調器アレイ46における第4の列の残って いる加重変調器に帰還される。4つの検出器64の第2の層からの出力は合計さ れ、出力68で回路網からの最終的な二進出力を与えるためしきい値6に対して 比較される。
ビームの異なった光強度と同様に加重がここでコード化されるとき、これらは正 の値を取らなければならない。
パターン発生器は必要な論理関数と一致したターゲット出カバターンと共に3ビ ツトワードの全ての数の入力の組合わせを連続して反復するように設定される。
訓練セットは8つの可能な組合わせの大きな倍数であるように配置された。この ことは、各組合わせを区別する能力と種々の雑音源の影響による能力の平均の低 下の両者を反映する不整合値を確実にする。選択された倍数は訓練時間の厳密な 妥協をすることなく合理的な統計上の平均不整合値を生成する必要性により決定 される。この特定の場合では、訓練データは約10.000ワード(試験パター ンの1.250反復)からなる各訓練サイクルで10Mビット/ s RZで回 路網に供給された。同一の“温度”tは減少される前に250のこのようなサイ クル(250加重/しきい値変化)で使用された。各Tの新しい値で回路網パラ メータは得られる最低のエラーカウントに関連してリセットされた。回路網は全 ての3ビット組合わせ関数を識別するように訓練され、特に2つの層の回路網を 必要とすることで知られる可成のEX−ORと奇数/偶数パリティ関数を再生し た。これらの関数は隠れた層のニューロンへのアクセスに依存しない手段の成功 を最も良く示す。図7は各パターンの訓練後の回路網の出力を示し、各入力ワー ドと比較されている。
訓練の実行の分析は単一ワードの識別は通常1,000サイクル(20秒)を必 要としないことを示している。EX−ORと奇数/偶数パリティ関数のようなよ り複雑な組合わせタスクは2層処理の必要性を反映する平均10.000サイク ルを必要とする。シミュレーション結果との直接的比較はハードウェアシステム の量および特性と人工(シミュレーション)雑音に高度に依存する訓練シイクル 数により非現実的なものとなる。
概念上ハードウェアからの計算とエラーカウントが理想的なシミュレーションと 比較してより複雑な関係を有する事実のために、ハードウェアがより訓練サイク ルを必要とすることが予測される。しかし高速ハードウェアの使用により得られ た内在的な蓄積を計算できる。神経回路網のシミュレーションは訓練セットの1 サイクルを処理するのに30秒を要し、一方ハードウエアは1ミリ秒を必要とし 、3つの残留した訓練領域で費やす時間より3万倍の高速はコンピュータ処理2 5%、コンピュータインターフェイス70%、光電子ハードウェア処理的5%の ように配分する。それ故より大きな訓練セット(より大きな回路網または雑音不 感性)を処理するのに十分な能力が存在する。ハードウェアとコンピュータの間 の通信に費やす時間の大部分は1つのみのメツセージが毎訓練サイクルにおいて 一方の方向で送信される必要があるとき基本的な問題ではない。それ故インター フェイスを組立てる目的により平均訓練時間を非常に減少することが可能である 。これらの試験は、解決空間が非常に粒状で隠れた層の監視が行われなくても敏 速に規則的に解決できることを示す。本発明による訓練方法は、ハードウェアの 性能が光パワーの費用を調整し、特に光神経回路網に供給されるとき訓練方法の 頑強さを示す光タイミング不整列等を導入することにより意図的に低下されたと きでも解決策を見付けることができることが認められる。
[dl ”−一一一一一″″−−−″″i−一−−″′″−−− = ===−’11  j 1 (I し241 ] 4゜ + w2 w、、 1 デジタルコード化加重 各加重コードに対して得られた変調の深さのグラフ時間tlJsl EX−ORおよび奇数/偶数パリティ関数の表示1、.1..1.1.N・ P CT/錦91101967

Claims (6)

    【特許請求の範囲】
  1. (1)入力ベクトルの入力用の入力と、出力ベクトルの出力用の出力と、与えら れた入力ベクトルの入力に応答して回路網により出力される出力ベクトルを決定 するための調節可能な応答決定手段とを有する神経回路網の訓練方法において、 一連の対応した出力ベクトルを得るように回路網に一連の入力ベクトルを入力し 、 各出力ベクトルを各ターゲットベクトルと比較し、一連の出力ベクトルの出力ベ クトルが各ターゲットベクトルと異なっている場合の平均数である平均不整合値 に応じて応答決定手段を調節することからなる神経回路網の訓練方法。
  2. (2)入力ベクトルの訓練セットのメンバーが複数の一連の入力ベクトルを提供 するように回路網に繰返し入力され、応答決定手段は各一連の平均不整合値によ って調節される請求項1記載の方法。
  3. (3)応答決定手段は、シミュレートされたアニールアルゴリズムに応じて調節 される請求項1または2項記載の方法。
  4. (4)次の一連の入力ベクトルに対する平均不整合値Δeの変化が負のとき、正 のとき、またはexp(−Δe/T)<rのとき応答決定手段への調節は維持さ れ、Tは定数であり、rは0から1の範囲のランダム数である請求項3記載の方 法。
  5. (5)訓練中、Tは単調に減少される請求項4記載の方法。
  6. (6)神経回路網が光神経回路網を有する請求項1乃至5のいずれか1光記載の 方法。
JP51819291A 1990-11-08 1991-11-08 神経回路網の訓練方法 Expired - Fee Related JP3290984B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB909024332A GB9024332D0 (en) 1990-11-08 1990-11-08 Method of training a neural network
GB9024332.0 1990-11-08
PCT/GB1991/001967 WO1992009044A1 (en) 1990-11-08 1991-11-08 Method of training a neural network

Publications (2)

Publication Number Publication Date
JPH06504636A true JPH06504636A (ja) 1994-05-26
JP3290984B2 JP3290984B2 (ja) 2002-06-10

Family

ID=10685082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51819291A Expired - Fee Related JP3290984B2 (ja) 1990-11-08 1991-11-08 神経回路網の訓練方法

Country Status (7)

Country Link
US (1) US5390285A (ja)
EP (1) EP0556254B1 (ja)
JP (1) JP3290984B2 (ja)
CA (1) CA2095720C (ja)
DE (1) DE69119604T2 (ja)
GB (1) GB9024332D0 (ja)
WO (1) WO1992009044A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087106A (ja) * 2017-11-08 2019-06-06 Kddi株式会社 学習用データの生成装置、判定装置及びプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69428495T2 (de) * 1993-11-26 2002-04-11 Koninkl Philips Electronics Nv Multimoden-Laser für ein optisches Informationsverarbeitungssystem, insbesondere für ein neuronales Netz
US5903884A (en) * 1995-08-08 1999-05-11 Apple Computer, Inc. Method for training a statistical classifier with reduced tendency for overfitting
CN1160801C (zh) 1995-11-06 2004-08-04 日亚化学工业株式会社 氮化物半导体器件
US5872975A (en) * 1996-06-05 1999-02-16 Lockheed Martin Corporation Automatic retargeting of processor modules in multiple processor systems
US6501857B1 (en) * 1999-07-20 2002-12-31 Craig Gotsman Method and system for detecting and classifying objects in an image
US20050149462A1 (en) * 1999-10-14 2005-07-07 The Salk Institute For Biological Studies System and method of separating signals
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US7130776B2 (en) * 2002-03-25 2006-10-31 Lockheed Martin Corporation Method and computer program product for producing a pattern recognition training set
US7082420B2 (en) * 2002-07-13 2006-07-25 James Ting-Ho Lo Convexification method of training neural networks and estimating regression models
US11222263B2 (en) 2016-07-28 2022-01-11 Samsung Electronics Co., Ltd. Neural network method and apparatus
US10565686B2 (en) 2017-06-12 2020-02-18 Nvidia Corporation Systems and methods for training neural networks for regression without ground truth training samples
US11244226B2 (en) 2017-06-12 2022-02-08 Nvidia Corporation Systems and methods for training neural networks with sparse data
CN110956259B (zh) * 2019-11-22 2023-05-12 联合微电子中心有限责任公司 一种基于正向传播的光子神经网络训练方法
CN111722923A (zh) * 2020-05-29 2020-09-29 浪潮电子信息产业股份有限公司 一种异构资源的调用方法、装置和计算机可读存储介质
CN112447188B (zh) * 2020-11-18 2023-10-20 中国人民解放军陆军工程大学 一种基于改进softmax函数的声学场景分类方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918618A (en) * 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US5099434A (en) * 1988-07-18 1992-03-24 Northrop Corporation Continuous-time optical neural network
US5004309A (en) * 1988-08-18 1991-04-02 Teledyne Brown Engineering Neural processor with holographic optical paths and nonlinear operating means
US4914603A (en) * 1988-12-14 1990-04-03 Gte Laboratories Incorporated Training neural networks
US5068801A (en) * 1989-11-06 1991-11-26 Teledyne Industries, Inc. Optical interconnector and highly interconnected, learning neural network incorporating optical interconnector therein

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087106A (ja) * 2017-11-08 2019-06-06 Kddi株式会社 学習用データの生成装置、判定装置及びプログラム

Also Published As

Publication number Publication date
EP0556254B1 (en) 1996-05-15
EP0556254A1 (en) 1993-08-25
DE69119604D1 (de) 1996-06-20
GB9024332D0 (en) 1990-12-19
WO1992009044A1 (en) 1992-05-29
US5390285A (en) 1995-02-14
CA2095720A1 (en) 1992-05-09
CA2095720C (en) 1999-02-16
JP3290984B2 (ja) 2002-06-10
DE69119604T2 (de) 1996-09-26

Similar Documents

Publication Publication Date Title
JPH06504636A (ja) 神経回路網の訓練方法
US10187171B2 (en) Method for free space optical communication utilizing patterned light and convolutional neural networks
Anand et al. An improved algorithm for neural network classification of imbalanced training sets
US5293456A (en) Object recognition system employing a sparse comparison neural network
Cao et al. Projective ART for clustering data sets in high dimensional spaces
US20080154815A1 (en) Optical processor for an artificial neural network
Toole et al. Photonic implementation of spike-timing-dependent plasticity and learning algorithms of biological neural systems
US5428466A (en) Neural networks
CN115545173A (zh) 用于信号处理的光调制神经元及全光衍射神经网络方法
CN111582468B (zh) 光电混合智能数据生成计算系统及方法
Ororbia et al. The predictive forward-forward algorithm
CN114970836A (zh) 蓄水池神经网络实现方法、系统、电子设备及存储介质
Ghahramani et al. Hierarchical non-linear factor analysis and topographic maps
Lee et al. Set-based meta-interpolation for few-task meta-learning
Zhao et al. On-chip reconfigurable optical neural networks
Mangal et al. Handwritten English vowels recognition using hybrid evolutionary feed-forward neural network
CN114970868A (zh) 空间并行的相干伊辛机及包含其的求解器
Margem et al. Reservoir Computing Based on Cellular Automata (ReCA) in Sequence Learning.
Zhang et al. A large-scale photonic CNN based on spike coding and temporal integration
JPH05101025A (ja) ニユーラルネツトワーク装置及びその実行方法
PRICOPE AN ANALYSIS ON VERY DEEP CONVOLUTIONAL NEURAL NETWORKS: PROBLEMS AND SOLUTIONS
Shih et al. Growth dynamics of cell assemblies
Bhusal Smart Quantum Technologies using Photons
Chen et al. Optimizing Supervised Learning of Deep Spiking Neural Network towards Memristor Crossbar Implementation
Tomberg et al. An effective training method for fully digital pulse-density modulated neural network architecture

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees