JPH03110614A - 光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システム - Google Patents
光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システムInfo
- Publication number
- JPH03110614A JPH03110614A JP1248334A JP24833489A JPH03110614A JP H03110614 A JPH03110614 A JP H03110614A JP 1248334 A JP1248334 A JP 1248334A JP 24833489 A JP24833489 A JP 24833489A JP H03110614 A JPH03110614 A JP H03110614A
- Authority
- JP
- Japan
- Prior art keywords
- calculator
- output
- pattern
- input pattern
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 16
- 239000011159 matrix material Substances 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 abstract description 28
- 239000010410 layer Substances 0.000 description 59
- 238000000034 method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 210000004027 cell Anatomy 0.000 description 7
- 239000013078 crystal Substances 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- KHMVXSQLPUNRCF-UHFFFAOYSA-N DL-Adalin Natural products C1CCC2CC(=O)CC1(CCCCC)N2 KHMVXSQLPUNRCF-UHFFFAOYSA-N 0.000 description 1
- 230000005697 Pockels effect Effects 0.000 description 1
- IOYNQIMAUDJVEI-BMVIKAAMSA-N Tepraloxydim Chemical group C1C(=O)C(C(=N/OC\C=C\Cl)/CC)=C(O)CC1C1CCOCC1 IOYNQIMAUDJVEI-BMVIKAAMSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
本発明は、光−電気ハイブリッド型多層ニューラル・ネ
ットワーク・システムに係り、特に、光の並列性を利用
して、学習及び想起のための演算時間を大幅に短縮する
ことが可能な、光−電気ハイブリッド型の多層ニューラ
ル・ネットワーク・システムに関するものである。
ットワーク・システムに係り、特に、光の並列性を利用
して、学習及び想起のための演算時間を大幅に短縮する
ことが可能な、光−電気ハイブリッド型の多層ニューラ
ル・ネットワーク・システムに関するものである。
近年、従来のフォノ・ノイマン型のコンピュータのアー
キテクチャとは違って、人間の脳の情報処理様式のモデ
ルであるニューラル・ネットワーク・モデルに基づいた
新しい処理アーキテクチャを実現しようとする研究が盛
んに行われている。 このニューラル・ネットワーク・モデルは、神経細胞モ
デルを基本単位とする大規模並列処理モデルであり、情
報処理機能を自律的に自己組織可能である点に特徴があ
る。 従って、このニューラル・ネットワーク・モデルの構造
を本質的に実現しようとする場合には、演算機構、ネッ
トワーク、入出力等、全ての処理機構に関して完全並列
処理を行う必要がある。 しかしながら、従来のコンピュータは、逐次処理に基本
をおいており、ニューラル・ネツトワ−りの元来持つ並
列性をうまく生かすのが難しいシステムであった。特に
、ニューロン数nの増加に関しては、計算量が02で増
大していくことになり、大規模ニューラル・ネットワー
クの実現は困難であった。 一方、前記完全並列処理を実現するべく、原理的に高い
空間的並列性を有する光を情報の媒体として利用する光
演算並びに光接続が注目されている。この光を用いる方
法によれば、大規模並列演算並びに高密度の並列接続が
実現可能であるため、ニューラル・ネットワーク・モデ
ルの大規模並列性を実現するのに効果的なハードウェア
として期待が持たれている。 ニューラル・ネットワーク・モデルの中でも、とりわけ
連想記憶モデルは、演算構造が均質な並列性を持つため
、光演算の特徴を生かして高密度の演算構造を実現でき
る可能性がある。 そこで発明者らは、1988年7月7日に開催された電
子情報通信学会や、特開昭64−78491.63−3
07437等で、光アソシアトロンと呼ぶ、学習様能を
導入した光連想記憶システムを提案している。この光ア
ソシアトロンは、空間光変調管のアナログの並列演算・
記憶機能を利用し、直交学習法を導入することにより、
適応性の高い連想記憶を光演算により実現したものであ
る。又、光アソシアトロン以外にも、光の持つ大規模並
列性を用いて連想記憶方式を実現しようとする例は多く
みられる(例えば特開平1−112225やホップフィ
ールドモデル)。 ここで、連想記憶方式とは、記憶装置にいくつものパタ
ーンを重複させて記憶させておき、必要なパターンの一
部分のみを演算装置に与えることによって、必要なパタ
ーンだけを記憶装置から分離して取り出すことのできる
一種の検索方式である。この連想記憶方式を採用するこ
とによって、従来のコンピュータが不得手である、曖昧
な入力からの連想処理が実現できると共に、演算時間の
大幅な短縮が可能となる。
キテクチャとは違って、人間の脳の情報処理様式のモデ
ルであるニューラル・ネットワーク・モデルに基づいた
新しい処理アーキテクチャを実現しようとする研究が盛
んに行われている。 このニューラル・ネットワーク・モデルは、神経細胞モ
デルを基本単位とする大規模並列処理モデルであり、情
報処理機能を自律的に自己組織可能である点に特徴があ
る。 従って、このニューラル・ネットワーク・モデルの構造
を本質的に実現しようとする場合には、演算機構、ネッ
トワーク、入出力等、全ての処理機構に関して完全並列
処理を行う必要がある。 しかしながら、従来のコンピュータは、逐次処理に基本
をおいており、ニューラル・ネツトワ−りの元来持つ並
列性をうまく生かすのが難しいシステムであった。特に
、ニューロン数nの増加に関しては、計算量が02で増
大していくことになり、大規模ニューラル・ネットワー
クの実現は困難であった。 一方、前記完全並列処理を実現するべく、原理的に高い
空間的並列性を有する光を情報の媒体として利用する光
演算並びに光接続が注目されている。この光を用いる方
法によれば、大規模並列演算並びに高密度の並列接続が
実現可能であるため、ニューラル・ネットワーク・モデ
ルの大規模並列性を実現するのに効果的なハードウェア
として期待が持たれている。 ニューラル・ネットワーク・モデルの中でも、とりわけ
連想記憶モデルは、演算構造が均質な並列性を持つため
、光演算の特徴を生かして高密度の演算構造を実現でき
る可能性がある。 そこで発明者らは、1988年7月7日に開催された電
子情報通信学会や、特開昭64−78491.63−3
07437等で、光アソシアトロンと呼ぶ、学習様能を
導入した光連想記憶システムを提案している。この光ア
ソシアトロンは、空間光変調管のアナログの並列演算・
記憶機能を利用し、直交学習法を導入することにより、
適応性の高い連想記憶を光演算により実現したものであ
る。又、光アソシアトロン以外にも、光の持つ大規模並
列性を用いて連想記憶方式を実現しようとする例は多く
みられる(例えば特開平1−112225やホップフィ
ールドモデル)。 ここで、連想記憶方式とは、記憶装置にいくつものパタ
ーンを重複させて記憶させておき、必要なパターンの一
部分のみを演算装置に与えることによって、必要なパタ
ーンだけを記憶装置から分離して取り出すことのできる
一種の検索方式である。この連想記憶方式を採用するこ
とによって、従来のコンピュータが不得手である、曖昧
な入力からの連想処理が実現できると共に、演算時間の
大幅な短縮が可能となる。
しかしながら、光演算をニューラル・ネットワ−りに用
いた従来のシステムは、いずれも、入力層と出力層が直
結され、中間層が存在しない、1層のニューラル・ネッ
トワーク・モデルを実現しているにとどまっていた。そ
のため、排他的論理和が処理できない等の限界が指摘さ
れており、これから、多層のニューラル・ネットワーク
への期待が集っていた。 本発明は、前記従来の課題を考慮してなされたもので、
光−電気ハイブリッド型の多層ニューラル・ネットワー
ク・システムを提供することを課題とする。
いた従来のシステムは、いずれも、入力層と出力層が直
結され、中間層が存在しない、1層のニューラル・ネッ
トワーク・モデルを実現しているにとどまっていた。そ
のため、排他的論理和が処理できない等の限界が指摘さ
れており、これから、多層のニューラル・ネットワーク
への期待が集っていた。 本発明は、前記従来の課題を考慮してなされたもので、
光−電気ハイブリッド型の多層ニューラル・ネットワー
ク・システムを提供することを課題とする。
本発明は、光−電気ハイブリッド型多層ニューラル・ネ
ットワーク・システムを、第1図(A)に示す如く、入
力パターンを、多重化して表示する第1の入力パターン
変換装置12と、該第1の入力パターン変換装置12及
び後出箱1の記憶行列演算器22からの信号のアダマー
ル積を光演算する第1の相関演算器14と、該第1の相
関演算器14出力の部分和を電気的に並列演算する第1
の部分和演算器16と、該第1の部分和演算器16から
の出力に対して出力関数を施して中間層出力パターンを
得る第1の出力関数演算器18と、該中間層出力パター
ンと入力パターン及び出力パターンよりエラー信号を計
算する第1のエラー信号演算器2oと、該第1のエラー
信号演算器20から表示される信号に従い、入力層−中
間層用の記憶行列を演算・保持する第1の記憶行列演算
器22と、前記入力パターン及び中間層出力パターンを
多重化して表示する第2の入力パターン変換装置32と
、該第2の入力パターン変換装@32及び後出箱2の記
憶行列演算器42からの信号のアダマール積を光演算す
る第2の相関演算器34と、該第2の相関演算器34出
力の部分和を電気的に並列演算する第2の部分和演算器
36と、該第2の部分和演算器36からの出力に対して
出力関数を施して出力パターンを得る第2の出力関数演
算器38と、該出力パターンと前記入力パターンを比較
してエラー信号を計算する第2のエラー信号演算器40
と、該第2のエラー信号演算器40から表示される信号
に従い、中間層−出力層用の記憶行列を演算・保持する
第2の記憶行列演算器42とを用いて構成することによ
り、前記課題を達成したものである。 本発明は、又、光−電気ハイブリッド型多層ニューラル
・ネットワーク・システムを、第1図(B)に示す如く
、入力パターン及び中間層出力パターンを多重化して表
示する入力パターン変換装置52と、該入力パターン変
換装置52及び後出記憶行列演算器62からの信号の7
ダマール積を光演算する相関演算器54と、該相関演算
器54出力の部分和を電気的に並列演算する部分和演算
器56と、該部分和演算器56からの出力に対して出力
関数を施して中間層及び出力層の出力パターンを得る出
力関数演算器58と、該出力関数演算器58から得られ
る出力パターンと入力パターンを比較してエラー信号を
計算するエラー信号演算器60と、該エラー信号演算器
60から表示される信号に従い、記憶行列を中間層用と
出力層用に分割して演算・保持する記憶行列演算器62
とを用いて構成することにより、前記課題を達成したも
のである。
ットワーク・システムを、第1図(A)に示す如く、入
力パターンを、多重化して表示する第1の入力パターン
変換装置12と、該第1の入力パターン変換装置12及
び後出箱1の記憶行列演算器22からの信号のアダマー
ル積を光演算する第1の相関演算器14と、該第1の相
関演算器14出力の部分和を電気的に並列演算する第1
の部分和演算器16と、該第1の部分和演算器16から
の出力に対して出力関数を施して中間層出力パターンを
得る第1の出力関数演算器18と、該中間層出力パター
ンと入力パターン及び出力パターンよりエラー信号を計
算する第1のエラー信号演算器2oと、該第1のエラー
信号演算器20から表示される信号に従い、入力層−中
間層用の記憶行列を演算・保持する第1の記憶行列演算
器22と、前記入力パターン及び中間層出力パターンを
多重化して表示する第2の入力パターン変換装置32と
、該第2の入力パターン変換装@32及び後出箱2の記
憶行列演算器42からの信号のアダマール積を光演算す
る第2の相関演算器34と、該第2の相関演算器34出
力の部分和を電気的に並列演算する第2の部分和演算器
36と、該第2の部分和演算器36からの出力に対して
出力関数を施して出力パターンを得る第2の出力関数演
算器38と、該出力パターンと前記入力パターンを比較
してエラー信号を計算する第2のエラー信号演算器40
と、該第2のエラー信号演算器40から表示される信号
に従い、中間層−出力層用の記憶行列を演算・保持する
第2の記憶行列演算器42とを用いて構成することによ
り、前記課題を達成したものである。 本発明は、又、光−電気ハイブリッド型多層ニューラル
・ネットワーク・システムを、第1図(B)に示す如く
、入力パターン及び中間層出力パターンを多重化して表
示する入力パターン変換装置52と、該入力パターン変
換装置52及び後出記憶行列演算器62からの信号の7
ダマール積を光演算する相関演算器54と、該相関演算
器54出力の部分和を電気的に並列演算する部分和演算
器56と、該部分和演算器56からの出力に対して出力
関数を施して中間層及び出力層の出力パターンを得る出
力関数演算器58と、該出力関数演算器58から得られ
る出力パターンと入力パターンを比較してエラー信号を
計算するエラー信号演算器60と、該エラー信号演算器
60から表示される信号に従い、記憶行列を中間層用と
出力層用に分割して演算・保持する記憶行列演算器62
とを用いて構成することにより、前記課題を達成したも
のである。
本発明は、例えば第2図に示すような入力層−中間層−
出力層から成る多層(第2図では2層)型ニューラル・
ネットワーク・システムを、光−電気ハイブリッド形式
で構成したものである。出力結果の誤りを逆に入力側に
送り、それを元にして入力信号の重み付は量の変更を繰
り返すことによって正解を出力するネットワークを形成
するバックプロパゲーションを始めとするニューラル・
ネットワーク・システムは、積和演算、出力関数演算等
の単純な演算から構成され、均質性の良い演算であるた
め光演算に相性が良く、連想、認識処理を可能とするこ
とができる。本発明においては、特に、均質性及び並列
性の高い積の部分の演算を並列的に行う相関演算器14
.34.54の周辺を光学システムとしたので、効率が
良く、光の並列性を利用することによって、学習及び想
起のための演算時間を大幅に短縮できる。又、光−電気
ハイブリッド方式を用いているので、全光方式に比べて
構成が容易である。 特に、光演算に際して、単層の光学系を分割して中間層
用と出力層用に割当てた場合には、簡単な光学系で多層
ニューラル・ネットワーク・システムを実現できる。
出力層から成る多層(第2図では2層)型ニューラル・
ネットワーク・システムを、光−電気ハイブリッド形式
で構成したものである。出力結果の誤りを逆に入力側に
送り、それを元にして入力信号の重み付は量の変更を繰
り返すことによって正解を出力するネットワークを形成
するバックプロパゲーションを始めとするニューラル・
ネットワーク・システムは、積和演算、出力関数演算等
の単純な演算から構成され、均質性の良い演算であるた
め光演算に相性が良く、連想、認識処理を可能とするこ
とができる。本発明においては、特に、均質性及び並列
性の高い積の部分の演算を並列的に行う相関演算器14
.34.54の周辺を光学システムとしたので、効率が
良く、光の並列性を利用することによって、学習及び想
起のための演算時間を大幅に短縮できる。又、光−電気
ハイブリッド方式を用いているので、全光方式に比べて
構成が容易である。 特に、光演算に際して、単層の光学系を分割して中間層
用と出力層用に割当てた場合には、簡単な光学系で多層
ニューラル・ネットワーク・システムを実現できる。
以下図面を参照して、バックプロパゲーションによって
学習が行われる多層ニューラル・ネットワーク・システ
ムに適用した、本発明の実施例を詳細に説明する。 本発明の第1実施例は、第3図に示す如く、第1図(A
)に示した前記第1の入力パターン変換装置12の一部
を構成する発光ダイオード(LED)アレイ70、レン
ズ72及び入力パターン変換用空間光変調管(MSLM
)74と、前記第1の記憶行列演算器22を構成するL
EDアレイ76、レンズ78及び記憶行列用MSLM8
0と、前記第1の相関演算器14を構成するレーザ光源
82、コリメータレンズ84、ハーフミラ−86,88
、検光子90.92及びフォトトランジスタ(PTR)
アレイ94と、前記第2の入力パターン変換装置32の
一部を構成するLEDアレイ100、レンズ102及び
入力パターン変換用MSLM104と、前記第2の記憶
行列演算器42を構成するLEDアレイ106、レンズ
108及び記憶行列用MSLM110と、前記第2の相
関演算器34を構成するレーザ光源112、コリメータ
レンズ114、ハーフミラ−116,118、検光子1
20,122及びPTRアレイ124と、前記第1及び
第2の部分和演算器16.36を構成する並列アナログ
電気回路130と、前記第1及び第2の出力関数演算器
18.38、第1及び第2のエラー信号演算器20.4
0.第1及び第2の記憶行列演算器22.42の一部、
及び、第1及び第2の入力パターン変換装置13.32
の一部(入力パターンの多重化部分)を構成すると共に
、各装置の制御を行うコンピュータ132と、から構成
されている。 前記MS LM 74.80.104.110は、例え
ば第4図に示す如く、レンズ(例えば72)を介して入
射される入力像を光電子像に変換するための光電陰極7
4Aと、該光電陰極74Aから放出される光電子像を増
倍するためのマイクロチャンネルプレート(MCP)7
4Bと、該MCP74Bで増倍された光電子を加速する
ためのメツシュ電極74Cと、該メツシュ電極74Cを
通過した電子によって、図の左側の電荷蓄積面74Dに
電荷パターンが形成される電気光学結晶74Eとから構
成されている。 このMSLM(例えば74)においては、入力像に応じ
て電気光学結晶74Eの電荷蓄積面74Dに電荷パター
ンが形成され、この電荷パターンに応じて電気光学結晶
74Eを横切る電界が変化し、ポッケルス効果によって
電気光学結晶74Eの屈折率が変化する。従って、直線
偏向のレーザ光を電気光学結晶74Eに図の右側から照
射すると、電荷蓄積面74Dからの反射光は、該電気光
学結晶74Eの複回折性により偏向状態が変化している
ので、検光子(例えば92)を通過させれば、入力像の
光強度に対応した光強度を持つ出力像が得られる。 このMSLMは、インコヒーレント光→コヒーレント光
変換機能や記憶機能に加えて、電荷を適当な条件で制御
することにより、加減算機能、実FRwI閾値動作機能
、AND演算機能等の優れた機能を有しており、この機
能を利用した光連想記憶装置が、例えば、特開昭63−
307437、特開昭64−78491等に開示されて
いる。 前記LEDアレイ70.76.100.106は、それ
ぞれ対応するMSLM74.80.104.110の光
電陰極74Aに入力パターン又は記憶行列を書込むため
のものである。 又、前記レーザ光源82.114は、それぞれMS L
M 74と80、又はMSLM104と110を並列的
に読み出すためのものであり、前記PTRアレイ94.
124は、その光演算結果を検出するためのものである
。 なお本実施例においては、コンピュータ132で電気的
に多重パターンを形成しているが、多重パターンを形成
する方法はこれに限定されず、例えば、レンズ72.7
8.102.108の代わりに回折格子等を用いて、こ
こで光学的に多重化することも可能である。 以下、第2図に示した如く、入力口細胞が2、中間層細
胞が2、出力層細胞が2のネットワークを例にとって、
本実施例の作用を説明する。 なお、学習入力パターンを(xol xl)、中間届出
力パターンを(UO,Ul)、想起比カバターンを(y
l、Vz)と表わしている。 1回の学習は、以下のように、 ■入力層−中間層の想起 ■中間層−出力層の想起 ■中間層−出力層の学習 ■入力層−中間層の学習 から構成される。 ■入力層−中間層の想起(第2図の想起1)第5図(A
)に示すような学習入力パターンX(Xol Xt)が
、コンピュータ132において、第5図(B)に示すよ
うに多重化されてLEDアレイ70に提示され、入力パ
ターン変換用MSLM74に書込まれる。このとき、記
憶行列用MSLM80には、コンピュータ132の出力
に応じて、第5図(C)に示すような入力層−中間層間
の重みWo + (0) 〜Wo 1(3) (学習
信号1)を示す記憶行列Mo1が提示されている。 想起過程では、まず入力パターン変換用MSLM74に
提示されている入力パターンX(XolXl)と、記憶
行列用MSLM80に提示されている重み(Wot(f
))を示す記憶行列Mo1を、レーザ光源84により光
学的に読み出すことによって、第5図(D)に示す如く
、各点毎のアダマール積が並列的に演算される。従って
、並列アナログ電気回路130でこれの部分和をとるこ
とによって、次式の演算を行う。 neto= WQ + (0)* XO+ WOl
(1)*x1 ・・・(1)n
ej+ ”” wo 1−(2)* Xo + Wo
1(3)*x1 ・・・(2)従
って、第5図(E)に示すような中間層出力Uは、次式
で表わされる。 UQ −f(nejo ) −(3)ul−f(
nett ) −(4)ここで、fは出力関数で
ある。この出力関数fは、例えば第6図に示すようなシ
グモイド関数や第7図に示すような閾値関数とされ、コ
ンピュータ132内で計算された結果、中間層出力U(
Uotut)を得ることができる。 ■中間層−出力層の想起(第2図の想起2)■で得られ
た中間層出力U(uo、ul)は、コンピュータ132
で多重化された後、LEDアレイ100に送られ、中間
層−出力層についても、■と同様の演算が行われる。即
ち、第5図(F)に示すような中間層出力U及び入力X
が、コンピュータ132によって多重化され、第5図(
G)に示すようなパターンがLEDアレイ100に提示
される。又、記憶行列用MSLM110には、第5図(
H)に示すような記憶行列M2(WO2、w12)が記
憶されている。これによって、次式の演算が行われて、
第5図(1)に示すようなPTRアレイ124上のパタ
ーンを経て、第5図(J)に示すような想起出力Y(Y
ol Vl)が得られる。 Vo= f(Wo 2 (0)* Xo+ Wo 2
(1)* X1+ V112 (0) * D。 + Ilh 2 (1)* It) ”(5)Vl
−f(Wo 2 (2)* Xo+ Wo 2 (3)
* X1+ W12 (2)* D。 + Wl 2 (3)* ut ) = (6)■
中間層−出力層の学習(第2図の学習1)学習は、前記
想起結果yを用いて、バックプOバゲーション方式によ
り、最終層(中間層−出力層)の重みから、順に修正を
行う。修正パターンは、次式によって表わされる。 dw(i)−a*Δ(i )* y(i ) −(
7)ここで、 Δ(i )−” (t(i ) −V(+ ) )*
f’ (net(i ) ) ・・・(8)t
(i ) :学習教師パターン y(i > :想起出力パターン a:学習ゲイン このエラー信号演算を前記コンピュータ132内で行い
、LEDアレイ106から修正信号dwを加減すること
によって、記憶行列用MSLM110に蓄積されている
記憶行列M O2% M 12の各要素(Woz(i)
、W12(i))を、次式のように修正する。 Wlz (i )−’1112 (f )+6w(i
)・・・(9)We 2 (i )−Wo 2 (i
)+6w(i )m (10)■入力層−中間層の学習
(第2の学習2)この入力層−中間層の学習は、次式で
表わされる。 dwo 1 (+ >−a*Δ(i )* V
(i )・−(11)ここで、 Δ(i )−If’ (net(i )* (Σ
(Δ (k )* ’1112 (k )))
”(12)Δ(k):中間層−出力層の修正信号 W12(k):中層層−出力層の重み これに従って、■と同様にして、記憶行列Me1(Wo
l (f ))が修正される。 複数のパターン対((Xo、 Xl)−(Vo、yl
)の一対が1パターン)に対して、■から■を繰返すこ
とによって、バックプロパゲーション方式の学習が進む
。このようにして学習された記憶行列Mo1を用いるこ
とによって、パターン認識や分類等の処理機能を実現す
ることができる。 次に、本発明の第2実施例を詳細に説明する。 この第2実施例は、第8図に示す如く、第1図(B)に
示した前記入力パターン変換装置52の一部を構成する
LEDアレイ150ルンズ152及び入力パターン変換
用MSLM154と、前記記憶行列演算器62を構成す
るLEDアレイ156、レンズ158及び記憶行列用M
SLM160と、前記相関演算器54を構成するレーザ
光源162、ハーフミラ−164,166、検光子16
8.170及びPTRアレイ172と、前記部分和演算
器56を構成する並列アナログ電気回路174と、前記
出力関数演算器58、エラー信号演算器60.記憶行列
演算器62の一部及び入力パターン変換装置52の一部
(入力パターンの多重化部分)を構成すると共に、各装
置の制御を行うコンピュータ176と、から構成されて
いる。 この第2実施例における光学システムの概要は第9図に
示す如くであり、記憶行列を4種の重み付け(wr→h
q”i→o1 Wh−4h(一般に0)Wh40:添字
1は入力層、hは中間層、Oは出力層を示す)に分割し
て使用している。即ち、本実施例においては、入力パタ
ーンを、第10図(A>に示す如く、上段の学習入力パ
ターンX(Xol Xt)と下段の中間届出力パターン
U(uo、ut)を合成したものとし、コンピュータ1
76において、第10図(B)に示す如く多重化してL
EDアレイ150に提示する。一方、記憶行列用のMS
LM160には、第10図(C)に示す如く、各層間の
重みが上下に分割されて提示されている。従って、PT
Rアレイ174上に得られるパターンは、第10図(D
)に示す如く、上段が中間層の7ダマール積、下段が出
力層のアダマール積となり、PTRアレイ174後で電
流和がとられた後、コンピュータ176による出力関数
演算を経て得られる出力は、第10図(E)に示す如く
、上段が中間層出力u1上下が想起出力yとなる。 本実施例においては、入力パターン及び中間届出力パタ
ーンや記憶行列を上下で分割して、それぞれ単一のMS
LM154.160に提示しているので、構成が簡略で
ある。 なお前記実施例においては、いずれも入力層細胞が2、
中間trim胞が2、出力層細胞が2のネットワークを
例にとって説明していたが、層数やそれぞれの層の細胞
数が増加した場合でも、記憶行列と入力の配置を調和さ
せることにより、演算速度の増加なしで対応が可能であ
る。 又、前記実施例においては、パックプロパゲーション方
式による学習が採用されていたが、本発明の対象となる
学習方式はこれに限定されない。 例えば、標本同士を互いに競合させることにより、標本
の中から1つを選択するカウンタープロパゲーションや
、閾値論理操作(ADAL INE)を複数用いたMA
DALINHに対しても対応可能である。特に、本実施
例においては、エラー信号の演算をコンピュータで行っ
ているので、コンピュータ内での変更によって容易に対
応できる。 又、前記実施例においては、いずれも、2次元の光メモ
リ、光演算器としてMSLMを用いていたが、記憶行列
のダイナミックレンジ及び線形性が連想能力に影響する
ため、特に線形性の良い2次元アナログ光デバイスが必
要である。 従って、MSLMを用いる場合には、学習出力パターン
tの設定に際して、複数の信号から形成される入力学習
パターン× (例えば、物体認識システムにおける多種
のセンサからの信号)に対して出力パターンtを設定す
る場合、各学習出力パターンtの平均値を記憶行列Mの
ダイナミックレンジの平均値に合せて設定することによ
り、記憶行列Mの飽和を少くすることが可能である。 又、学習開始時の記憶行列の初期値M(0)を、記憶行
列Mのダイナミックレンジの中心に持っていくことによ
り、記憶行列Mの飽和を少なくすることもできる。 又、MSLMは、入力−出力関数特性に、5in2の関
係を有する。しかしながら、学習においては、線形性の
高いほうが、収束時の歪みが少ないために都合がよい。 そこで、入力パターン表示用。 のMSLM74.104.154及び記憶行列用のMS
LM80,110.160の動作電圧(電気光学結晶へ
の印加電圧Vb)を、第11図に示す如く、ダイミック
レンジを最大とするための通常の設定電圧である(Vb
wl(消去時)、Vbe1(書込み時))の組合せから
、(Vbw2、Vbe2)の組み合せに変更して、線形
性の良い中心部を使用し、線形性の良い入出力特性を得
ることができる。 なお、光デバイスとしては、前記MSLMの他、液晶ラ
イトパルプLCLVやBSO光変調器PROM等を用い
ることが可能である。
学習が行われる多層ニューラル・ネットワーク・システ
ムに適用した、本発明の実施例を詳細に説明する。 本発明の第1実施例は、第3図に示す如く、第1図(A
)に示した前記第1の入力パターン変換装置12の一部
を構成する発光ダイオード(LED)アレイ70、レン
ズ72及び入力パターン変換用空間光変調管(MSLM
)74と、前記第1の記憶行列演算器22を構成するL
EDアレイ76、レンズ78及び記憶行列用MSLM8
0と、前記第1の相関演算器14を構成するレーザ光源
82、コリメータレンズ84、ハーフミラ−86,88
、検光子90.92及びフォトトランジスタ(PTR)
アレイ94と、前記第2の入力パターン変換装置32の
一部を構成するLEDアレイ100、レンズ102及び
入力パターン変換用MSLM104と、前記第2の記憶
行列演算器42を構成するLEDアレイ106、レンズ
108及び記憶行列用MSLM110と、前記第2の相
関演算器34を構成するレーザ光源112、コリメータ
レンズ114、ハーフミラ−116,118、検光子1
20,122及びPTRアレイ124と、前記第1及び
第2の部分和演算器16.36を構成する並列アナログ
電気回路130と、前記第1及び第2の出力関数演算器
18.38、第1及び第2のエラー信号演算器20.4
0.第1及び第2の記憶行列演算器22.42の一部、
及び、第1及び第2の入力パターン変換装置13.32
の一部(入力パターンの多重化部分)を構成すると共に
、各装置の制御を行うコンピュータ132と、から構成
されている。 前記MS LM 74.80.104.110は、例え
ば第4図に示す如く、レンズ(例えば72)を介して入
射される入力像を光電子像に変換するための光電陰極7
4Aと、該光電陰極74Aから放出される光電子像を増
倍するためのマイクロチャンネルプレート(MCP)7
4Bと、該MCP74Bで増倍された光電子を加速する
ためのメツシュ電極74Cと、該メツシュ電極74Cを
通過した電子によって、図の左側の電荷蓄積面74Dに
電荷パターンが形成される電気光学結晶74Eとから構
成されている。 このMSLM(例えば74)においては、入力像に応じ
て電気光学結晶74Eの電荷蓄積面74Dに電荷パター
ンが形成され、この電荷パターンに応じて電気光学結晶
74Eを横切る電界が変化し、ポッケルス効果によって
電気光学結晶74Eの屈折率が変化する。従って、直線
偏向のレーザ光を電気光学結晶74Eに図の右側から照
射すると、電荷蓄積面74Dからの反射光は、該電気光
学結晶74Eの複回折性により偏向状態が変化している
ので、検光子(例えば92)を通過させれば、入力像の
光強度に対応した光強度を持つ出力像が得られる。 このMSLMは、インコヒーレント光→コヒーレント光
変換機能や記憶機能に加えて、電荷を適当な条件で制御
することにより、加減算機能、実FRwI閾値動作機能
、AND演算機能等の優れた機能を有しており、この機
能を利用した光連想記憶装置が、例えば、特開昭63−
307437、特開昭64−78491等に開示されて
いる。 前記LEDアレイ70.76.100.106は、それ
ぞれ対応するMSLM74.80.104.110の光
電陰極74Aに入力パターン又は記憶行列を書込むため
のものである。 又、前記レーザ光源82.114は、それぞれMS L
M 74と80、又はMSLM104と110を並列的
に読み出すためのものであり、前記PTRアレイ94.
124は、その光演算結果を検出するためのものである
。 なお本実施例においては、コンピュータ132で電気的
に多重パターンを形成しているが、多重パターンを形成
する方法はこれに限定されず、例えば、レンズ72.7
8.102.108の代わりに回折格子等を用いて、こ
こで光学的に多重化することも可能である。 以下、第2図に示した如く、入力口細胞が2、中間層細
胞が2、出力層細胞が2のネットワークを例にとって、
本実施例の作用を説明する。 なお、学習入力パターンを(xol xl)、中間届出
力パターンを(UO,Ul)、想起比カバターンを(y
l、Vz)と表わしている。 1回の学習は、以下のように、 ■入力層−中間層の想起 ■中間層−出力層の想起 ■中間層−出力層の学習 ■入力層−中間層の学習 から構成される。 ■入力層−中間層の想起(第2図の想起1)第5図(A
)に示すような学習入力パターンX(Xol Xt)が
、コンピュータ132において、第5図(B)に示すよ
うに多重化されてLEDアレイ70に提示され、入力パ
ターン変換用MSLM74に書込まれる。このとき、記
憶行列用MSLM80には、コンピュータ132の出力
に応じて、第5図(C)に示すような入力層−中間層間
の重みWo + (0) 〜Wo 1(3) (学習
信号1)を示す記憶行列Mo1が提示されている。 想起過程では、まず入力パターン変換用MSLM74に
提示されている入力パターンX(XolXl)と、記憶
行列用MSLM80に提示されている重み(Wot(f
))を示す記憶行列Mo1を、レーザ光源84により光
学的に読み出すことによって、第5図(D)に示す如く
、各点毎のアダマール積が並列的に演算される。従って
、並列アナログ電気回路130でこれの部分和をとるこ
とによって、次式の演算を行う。 neto= WQ + (0)* XO+ WOl
(1)*x1 ・・・(1)n
ej+ ”” wo 1−(2)* Xo + Wo
1(3)*x1 ・・・(2)従
って、第5図(E)に示すような中間層出力Uは、次式
で表わされる。 UQ −f(nejo ) −(3)ul−f(
nett ) −(4)ここで、fは出力関数で
ある。この出力関数fは、例えば第6図に示すようなシ
グモイド関数や第7図に示すような閾値関数とされ、コ
ンピュータ132内で計算された結果、中間層出力U(
Uotut)を得ることができる。 ■中間層−出力層の想起(第2図の想起2)■で得られ
た中間層出力U(uo、ul)は、コンピュータ132
で多重化された後、LEDアレイ100に送られ、中間
層−出力層についても、■と同様の演算が行われる。即
ち、第5図(F)に示すような中間層出力U及び入力X
が、コンピュータ132によって多重化され、第5図(
G)に示すようなパターンがLEDアレイ100に提示
される。又、記憶行列用MSLM110には、第5図(
H)に示すような記憶行列M2(WO2、w12)が記
憶されている。これによって、次式の演算が行われて、
第5図(1)に示すようなPTRアレイ124上のパタ
ーンを経て、第5図(J)に示すような想起出力Y(Y
ol Vl)が得られる。 Vo= f(Wo 2 (0)* Xo+ Wo 2
(1)* X1+ V112 (0) * D。 + Ilh 2 (1)* It) ”(5)Vl
−f(Wo 2 (2)* Xo+ Wo 2 (3)
* X1+ W12 (2)* D。 + Wl 2 (3)* ut ) = (6)■
中間層−出力層の学習(第2図の学習1)学習は、前記
想起結果yを用いて、バックプOバゲーション方式によ
り、最終層(中間層−出力層)の重みから、順に修正を
行う。修正パターンは、次式によって表わされる。 dw(i)−a*Δ(i )* y(i ) −(
7)ここで、 Δ(i )−” (t(i ) −V(+ ) )*
f’ (net(i ) ) ・・・(8)t
(i ) :学習教師パターン y(i > :想起出力パターン a:学習ゲイン このエラー信号演算を前記コンピュータ132内で行い
、LEDアレイ106から修正信号dwを加減すること
によって、記憶行列用MSLM110に蓄積されている
記憶行列M O2% M 12の各要素(Woz(i)
、W12(i))を、次式のように修正する。 Wlz (i )−’1112 (f )+6w(i
)・・・(9)We 2 (i )−Wo 2 (i
)+6w(i )m (10)■入力層−中間層の学習
(第2の学習2)この入力層−中間層の学習は、次式で
表わされる。 dwo 1 (+ >−a*Δ(i )* V
(i )・−(11)ここで、 Δ(i )−If’ (net(i )* (Σ
(Δ (k )* ’1112 (k )))
”(12)Δ(k):中間層−出力層の修正信号 W12(k):中層層−出力層の重み これに従って、■と同様にして、記憶行列Me1(Wo
l (f ))が修正される。 複数のパターン対((Xo、 Xl)−(Vo、yl
)の一対が1パターン)に対して、■から■を繰返すこ
とによって、バックプロパゲーション方式の学習が進む
。このようにして学習された記憶行列Mo1を用いるこ
とによって、パターン認識や分類等の処理機能を実現す
ることができる。 次に、本発明の第2実施例を詳細に説明する。 この第2実施例は、第8図に示す如く、第1図(B)に
示した前記入力パターン変換装置52の一部を構成する
LEDアレイ150ルンズ152及び入力パターン変換
用MSLM154と、前記記憶行列演算器62を構成す
るLEDアレイ156、レンズ158及び記憶行列用M
SLM160と、前記相関演算器54を構成するレーザ
光源162、ハーフミラ−164,166、検光子16
8.170及びPTRアレイ172と、前記部分和演算
器56を構成する並列アナログ電気回路174と、前記
出力関数演算器58、エラー信号演算器60.記憶行列
演算器62の一部及び入力パターン変換装置52の一部
(入力パターンの多重化部分)を構成すると共に、各装
置の制御を行うコンピュータ176と、から構成されて
いる。 この第2実施例における光学システムの概要は第9図に
示す如くであり、記憶行列を4種の重み付け(wr→h
q”i→o1 Wh−4h(一般に0)Wh40:添字
1は入力層、hは中間層、Oは出力層を示す)に分割し
て使用している。即ち、本実施例においては、入力パタ
ーンを、第10図(A>に示す如く、上段の学習入力パ
ターンX(Xol Xt)と下段の中間届出力パターン
U(uo、ut)を合成したものとし、コンピュータ1
76において、第10図(B)に示す如く多重化してL
EDアレイ150に提示する。一方、記憶行列用のMS
LM160には、第10図(C)に示す如く、各層間の
重みが上下に分割されて提示されている。従って、PT
Rアレイ174上に得られるパターンは、第10図(D
)に示す如く、上段が中間層の7ダマール積、下段が出
力層のアダマール積となり、PTRアレイ174後で電
流和がとられた後、コンピュータ176による出力関数
演算を経て得られる出力は、第10図(E)に示す如く
、上段が中間層出力u1上下が想起出力yとなる。 本実施例においては、入力パターン及び中間届出力パタ
ーンや記憶行列を上下で分割して、それぞれ単一のMS
LM154.160に提示しているので、構成が簡略で
ある。 なお前記実施例においては、いずれも入力層細胞が2、
中間trim胞が2、出力層細胞が2のネットワークを
例にとって説明していたが、層数やそれぞれの層の細胞
数が増加した場合でも、記憶行列と入力の配置を調和さ
せることにより、演算速度の増加なしで対応が可能であ
る。 又、前記実施例においては、パックプロパゲーション方
式による学習が採用されていたが、本発明の対象となる
学習方式はこれに限定されない。 例えば、標本同士を互いに競合させることにより、標本
の中から1つを選択するカウンタープロパゲーションや
、閾値論理操作(ADAL INE)を複数用いたMA
DALINHに対しても対応可能である。特に、本実施
例においては、エラー信号の演算をコンピュータで行っ
ているので、コンピュータ内での変更によって容易に対
応できる。 又、前記実施例においては、いずれも、2次元の光メモ
リ、光演算器としてMSLMを用いていたが、記憶行列
のダイナミックレンジ及び線形性が連想能力に影響する
ため、特に線形性の良い2次元アナログ光デバイスが必
要である。 従って、MSLMを用いる場合には、学習出力パターン
tの設定に際して、複数の信号から形成される入力学習
パターン× (例えば、物体認識システムにおける多種
のセンサからの信号)に対して出力パターンtを設定す
る場合、各学習出力パターンtの平均値を記憶行列Mの
ダイナミックレンジの平均値に合せて設定することによ
り、記憶行列Mの飽和を少くすることが可能である。 又、学習開始時の記憶行列の初期値M(0)を、記憶行
列Mのダイナミックレンジの中心に持っていくことによ
り、記憶行列Mの飽和を少なくすることもできる。 又、MSLMは、入力−出力関数特性に、5in2の関
係を有する。しかしながら、学習においては、線形性の
高いほうが、収束時の歪みが少ないために都合がよい。 そこで、入力パターン表示用。 のMSLM74.104.154及び記憶行列用のMS
LM80,110.160の動作電圧(電気光学結晶へ
の印加電圧Vb)を、第11図に示す如く、ダイミック
レンジを最大とするための通常の設定電圧である(Vb
wl(消去時)、Vbe1(書込み時))の組合せから
、(Vbw2、Vbe2)の組み合せに変更して、線形
性の良い中心部を使用し、線形性の良い入出力特性を得
ることができる。 なお、光デバイスとしては、前記MSLMの他、液晶ラ
イトパルプLCLVやBSO光変調器PROM等を用い
ることが可能である。
第1図(A>、(B)は、本発明の基本的な構成を示す
ブロック線図、 第2図は、多層ネットワークシステムの基本構成を示す
ブロック線図、 第3図は、本発明の第1実施例の構成を示す光路図、 第4図は、第1実施例で用いられている空間光変調器の
基本的な構成を示す断面口、 第5図は、第1実施例の作用を説明するための線図、 第6図、第7図は、第1実施例で用いられている出力関
数の例を示す線図、 第8図は、本発明の第2実施例の構成を示す光路図、 第9図は、第2実施例における光学システムの基本構成
を示す斜視図、 第10図は、第2実施例の作用を説明するための線図、 第11図は、前記実施例の変形例における、線形性を重
視した空間光変調管の電圧設定例を示す線図である。 12.32.52・・・入力パターン変換装置、14.
34.54・・・相関演算器、 16.36.56・・・部分和演算器、18.38.5
8・・・出力関数演算器、20.40.60・・・エラ
ー信号演算器、22.42.62・・・記憶行列演算器
、70.76.100.106.150.156・・・
発光ダイオード(LED)アレイ、74.80.104
.110.154.160・・・空間光変調管(MSL
M5. 82.112.162、・・・レーザ光源、94.12
4.172 ・・・フォトトランジスタ(PTR)アレイ、130.
174−・・並列アナログ電気回路、132.176・
・・コンピュータ、 X・・・入力パターン、 U・・・中間履出力パターン、 U・・・想起比カバターン、 Mo t 、Mo 2、Mlz−記憶行列。
ブロック線図、 第2図は、多層ネットワークシステムの基本構成を示す
ブロック線図、 第3図は、本発明の第1実施例の構成を示す光路図、 第4図は、第1実施例で用いられている空間光変調器の
基本的な構成を示す断面口、 第5図は、第1実施例の作用を説明するための線図、 第6図、第7図は、第1実施例で用いられている出力関
数の例を示す線図、 第8図は、本発明の第2実施例の構成を示す光路図、 第9図は、第2実施例における光学システムの基本構成
を示す斜視図、 第10図は、第2実施例の作用を説明するための線図、 第11図は、前記実施例の変形例における、線形性を重
視した空間光変調管の電圧設定例を示す線図である。 12.32.52・・・入力パターン変換装置、14.
34.54・・・相関演算器、 16.36.56・・・部分和演算器、18.38.5
8・・・出力関数演算器、20.40.60・・・エラ
ー信号演算器、22.42.62・・・記憶行列演算器
、70.76.100.106.150.156・・・
発光ダイオード(LED)アレイ、74.80.104
.110.154.160・・・空間光変調管(MSL
M5. 82.112.162、・・・レーザ光源、94.12
4.172 ・・・フォトトランジスタ(PTR)アレイ、130.
174−・・並列アナログ電気回路、132.176・
・・コンピュータ、 X・・・入力パターン、 U・・・中間履出力パターン、 U・・・想起比カバターン、 Mo t 、Mo 2、Mlz−記憶行列。
Claims (2)
- (1)入力パターンを多重化して表示する第1の入力パ
ターン変換装置と、 該第1の入力パターン変換装置及び後出第1の記憶行列
演算器からの信号のアダマール積を光演算する第1の相
関演算器と、 該第1の相関演算器出力の部分和を電気的に並列演算す
る第1の部分和演算器と、 該第1の部分和演算器からの出力に対して出力関数を施
して中間層出力パターンを得る第1の出力関数演算器と
、 該中間層出力パターンと入力パターン及び後出出力パタ
ーンよりエラー信号を計算する第1のエラー信号演算器
と、 該第1のエラー信号演算器から表示される信号に従い、
入力層−中間層用の記憶行列を演算・保持する第1の記
憶行列演算器と、 前記入力パターン及び中間層出力パターンを多重化して
表示する第2の入力パターン変換装置と、該第2の入力
パターン変換装置及び後出第2の記憶行列演算器からの
信号のアダマール積を光演算する第2の相関演算器と、 該第2の相関演算器出力の部分和を電気的に並列演算す
る第2の部分和演算器と、 該第2の部分和演算器からの出力に対して出力関数を施
して出力パターンを得る第2の出力関数演算器と、 該出力パターンと前記入力パターンを比較してエラー信
号を計算する第2のエラー信号演算器と、該第2のエラ
ー信号演算器から表示される信号に従い、中間層−出力
層用の記憶行列を演算・保持する第2の記憶行列演算器
と、 を含むことを特徴とする光−電気ハイブリッド型多層ニ
ューラル・ネットワーク・システム。 - (2)入力パターン及び中間層出力パターンを多重化し
て表示する入力パターン変換装置と、該入力パターン変
換装置及び後出記憶行列演算器からの信号のアダマール
積を光演算する相関演算器と、 該相関演算器出力の部分和を電気的に並列演算する部分
和演算器と、 該部分和演算器からの出力に対して出力関数を施して中
間層及び出力層の出力パターンを得る出力関数演算器と
、 該出力関数演算器から得られる出力パターンと入力パタ
ーンを比較してエラー信号を計算するエラー信号演算器
と、 該エラー信号演算器から表示される信号に従い、記憶行
列を中間層用と出力層用に分割して演算・保持する記憶
行列演算器と、 を含むことを特徴とする光−電気ハイブリッド型多層ニ
ューラル・ネットワーク・システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1248334A JP2843066B2 (ja) | 1989-09-25 | 1989-09-25 | 光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1248334A JP2843066B2 (ja) | 1989-09-25 | 1989-09-25 | 光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03110614A true JPH03110614A (ja) | 1991-05-10 |
JP2843066B2 JP2843066B2 (ja) | 1999-01-06 |
Family
ID=17176542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1248334A Expired - Fee Related JP2843066B2 (ja) | 1989-09-25 | 1989-09-25 | 光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2843066B2 (ja) |
-
1989
- 1989-09-25 JP JP1248334A patent/JP2843066B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2843066B2 (ja) | 1999-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Farhat et al. | Optical implementation of the Hopfield model | |
JP3707804B2 (ja) | 光学情報処理装置 | |
Farhat | Optoelectronic neural networks and learning machines | |
Treleaven | Neurocomputers | |
US4849940A (en) | Optical neural net memory | |
CN114970836B (zh) | 蓄水池神经网络实现方法、系统、电子设备及存储介质 | |
US5220643A (en) | Monolithic neural network element | |
Collins et al. | Deformable mirror device spatial light modulators and their applicability to optical neural networks | |
Guest et al. | Designs and devices for optical bidirectional associative memories | |
JP2774331B2 (ja) | 全光型多層ニユーラル・ネツトワーク・システム | |
Athale et al. | Compact architectures for adaptive neural nets | |
JP2716796B2 (ja) | 光コンピユータ | |
JPH03110614A (ja) | 光―電気ハイブリツド型多層ニユーラル・ネツトワーク・システム | |
JP2648386B2 (ja) | 光ニューロコンピュータ | |
Kasama et al. | Experimental demonstration of optical three-layer neural network | |
Krasilenko et al. | Simulation of cells for signals intensity transformation in mixed image processors and activation functions of neurons in neural networks | |
Shortt et al. | Optical implementation of the Kak neural network | |
Liu et al. | Optical implementation of terminal-attractor-based associative memory | |
JPH05233859A (ja) | 光ニューラルネットワークシステム | |
Hirai | VLSI Neural Network Systems | |
JPH022537A (ja) | 光学習認識機械 | |
Ishikawa et al. | Experimental studies on adaptive optical associative memory | |
CATHEY et al. | Optical information processing systems | |
KR20240128233A (ko) | 어레이 내부로 연장되는 도파관을 포함하는 뉴로모픽 시스템 | |
JPH03121513A (ja) | 光演算装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |