JP2619575B2 - ニューラルネットワーク装置及びその実行方法 - Google Patents

ニューラルネットワーク装置及びその実行方法

Info

Publication number
JP2619575B2
JP2619575B2 JP3256520A JP25652091A JP2619575B2 JP 2619575 B2 JP2619575 B2 JP 2619575B2 JP 3256520 A JP3256520 A JP 3256520A JP 25652091 A JP25652091 A JP 25652091A JP 2619575 B2 JP2619575 B2 JP 2619575B2
Authority
JP
Japan
Prior art keywords
signal
learning
neural network
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3256520A
Other languages
English (en)
Other versions
JPH05101025A (ja
Inventor
晴義 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP3256520A priority Critical patent/JP2619575B2/ja
Publication of JPH05101025A publication Critical patent/JPH05101025A/ja
Application granted granted Critical
Publication of JP2619575B2 publication Critical patent/JP2619575B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、信号処理用のニューラ
ルネットワーク装置及びその実行方法に関するものであ
る。
【0002】
【従来の技術】光の並列性を用いて、画像についての学
習・連想・想起等のニューラルネットワーク(以下NN
と略す)の処理を高速に行なわせる光連想記憶装置がい
くつか提案されている。このようなものは、例えば光ア
ソシアトロンに関する特開昭64−78491(向坂)
で報告され、また、「光アソシアトロン」(石川、別冊
「数理科学」脳と情報、ニューロサイエンス、サイエン
ス社刊、pp.144-148)で報告されている。以上の報告で
は、光演算を用いてNNの基本演算が実現できることが
示されている。光NNでは、光の2次元並列性を用いる
ことにより、2次元パターンがそのままの形で高速に処
理できる特徴を持つ。
【0003】
【発明が解決しようとする課題】しかしながら、NNの
能力(学習、連想等)は、学習方法の選択、学習パラメ
ータの設定、ハードウェア(デバイス)の特性、入力パ
ターンの特性(直交性、ランダム性)等の多くの要素の
影響を受ける。例えば入力パターンの特性に注目した場
合、手書き文字等の実際のパターンの強度の総計(入力
面内の総和=ON/OFF比 = トータル・アクティビテ
ィ)は均一な値を持っていないため、そのままNNに入
力した場合には、正確な連想を行なうことができない。
例えば、“w”という文字と“i”という文字の処理を
比較した場合、“w”の方が総和が大きいため、出力値
が大きくなり誤認しやすい。つまり、総和の異なったパ
ターンを記憶させることは、雑音の原因になる。このこ
とは、例えば甘利による「神経回路網の数理」(産業図
書刊)に示されている。
【0004】このため、従来のNNでは連想等の処理能
力の向上を図ることが容易でなかった。本発明は、この
ような従来技術の欠点を解決することを課題としてい
る。
【0005】
【課題を解決するための手段】請求項1記載のニューラ
ルネットワーク装置は、学習用の入力信号をトータルア
クティビティが所定範囲内にある複数の2値要素からな
る複数の信号列として学習することによって得られた情
報を、2値要素からなる記憶行列として保存するメモリ
手段と、連想あるいは想起用の入力信号をトータルアク
ティビティが所定範囲内にある複数の2値要素からなる
信号列として、前記メモリ手段に保存されている前記記
憶行列に基づき処理することによって得られた情報を、
トータルアクティビティが所定範囲内にある複数の2値
要素からなる信号列に変換する出力規格化手段とを備え
るニューラルネットワーク装置。また、請求項2記載の
ニューラルネットワーク装置は、請求項1記載のニュー
ラルネットワーク装置の前記メモリ手段が、記憶行列の
保存を光学的に実行し、前記出力規格化手段が、信号列
への変換を光学的に実行することを特徴とする。また、
請求項3記載のニューラルネットワーク装置は、請求項
1記載のニューラルネットワーク装置に、更に、入力信
号の学習、連想あるいは想起のため、この入力信号をト
ータルアクティビティが所定範囲内にある複数の2値要
素からなる規格化信号に規格化し出力する入力規格化手
段を備えることを特徴とする。また、請求項4記載のニ
ューラルネットワーク装置は、請求項3記載のニューラ
ルネットワーク装置に、更に、前記入力規格化手段から
の信号列を用いて学習信号を形成する学習信号演算手段
を備えるとともに、該学習信号演算手段からの複数の学
習信号を積算して2値化することによって得られた記憶
行列をメモリ手段に保存させることを特徴とする。ま
た、請求項5記載のニューラルネットワーク装置は、請
求項4記載のニューラルネットワーク装置の前記学習信
号演算手段が、学習信号の形成を光学的に実行すること
を特徴とする。また、請求項6記載のニューラルネット
ワーク装置は、請求項3記載のニューラルネットワーク
装置に、更に、前記メモリ手段に保存された記憶行列と
前記入力規格化手段からの信号列との積を演算する積演
算手段と、該積演算手段からの出力に出力関数演算を施
す出力関数演算手段とを備えるとともに、該出力関数演
算手からの出力を出力規格化手段に入力することを特徴
とする。また、請求項7記載のニューラルネットワーク
装置は、請求項6記載のニューラルネットワーク装置の
前記積演算手段は、積の演算を光学的に実行し、前記出
力関数演算手段は、出力関数演算を光学的に実行するこ
とを特徴とする。
【0006】また、請求項8記載のニューラルネットワ
ークの実行方法は、学習用の入力信号をトータルアクテ
ィビティが所定範囲内にある複数の2値要素からなる複
数の信号列として学習することによって得られた情報
を、2値要素からなる記憶行列としてメモリ手段に保存
するステップと、連想あるいは想起用の入力信号をトー
タルアクティビティが所定範囲内にある複数の2値要素
からなる信号列として前記メモリ手段に保存されている
前記記憶行列に基づき処理することによって得られた情
報を、トータルアクティビティが所定範囲内にある複数
の2値要素からなる信号列に変換するステップとを備え
る。
【0007】
【作用】本発明によれば、トータルアクティビティに関
して規格化された学習用の信号列を学習した情報が2値
要素からなる記憶行列としてメモリ手段に保存されると
ともに、規格化された連想あるいは想起用の信号列を記
憶行列で処理した情報が規格化された信号列として出力
されるので、トータルアクティビティが低く一定に保た
れた信号列をすべて2値的に演算処理することができ、
連想、想起等の処理におけるエラーを減少させることが
でき、処理能力の向上を図ることができる。
【0008】
【実施例】以下、図1〜図8を参照しつつ、実施例の光
NN装置及びその実行方法を説明する。
【0009】図1は実施例のNN装置の基本構成を示す
図である。実施例のNN装置は、本体部分10と、この
入力段に接続された入力信号規格化装置20と、本体部
分10の出力段に接続された出力信号規格化装置30と
から構成される。入力信号規格化装置20は、複数の要
素からなるパターン状の入力信号x´を規格化し、その
トータルアクティビティがある範囲内に制御された複数
の要素列から成る(ベクトル状の)規格化信号xとして
出力する。出力信号規格化装置30も、入力信号規格化
装置20と同様の構成を有し、本体部分10の処理出力
yを規格化して出力信号y´を発生する。なお、トータ
ルアクティビティ(以下TA略す)とは、信号x、y´
等を構成する2値要素の総計(ON/OFF比)のことをい
う。本体部分10は、学習信号演算装置12と、記憶行
列2値化保持装置14と、ベクトルマトリックス演算装
置16と、出力関数演算装置18とを備える。学習信号
演算装置12は、入力信号規格化装置20からの規格化
信号xを用いて学習信号Xを形成する。記憶行列2値化
保持装置14は、学習信号演算装置12からの複数の学
習信号Xを積算して2値化して記憶行列Mを形成すると
ともにこれを保存する。ベクトルマトリックス演算装置
16は、記憶行列Mと入力信号規格化装置20からの規
格化信号xとの積Mxを演算する。出力関数演算装置1
8は、ベクトルマトリックス演算装置16から出力され
た積Mxに出力関数演算を施して処理出力y=f(M
x)を発生する。
【0010】図1のNN装置の動作を信号の流れに沿っ
て説明する。入力信号x´は、入力信号規格化装置20
により、スパースな2値パターンからなる規格化信号x
に規格化される。ここで、“スパースな2値パターンへ
の規格化”とは、得られた規格化信号xのTAを低い一
定値に設定することを意味する。この規格化信号xがN
N装置の本体部分10の入力となる。本体部分10の動
作は、学習と、連想・想起等の処理とにわけられる。こ
こでは、学習法として相関学習法を用いた場合を例にと
って説明する。
【0011】相関学習法は、以下の式で表される。
【0012】 Mn+1 =Mn +xxT ・・・・・・(学習) y=f(Mx)・・・・・・・・・(連想) ここで、Tは転置行列を表し、xxT は自己相関行列を
表す。また、Mの添字nは学習の度数を表す。ここで
は、記憶行列Mを2値化したものとして扱うので、上式
は以下のように書き直すことができる。
【0013】 Mn+1 =1{Mn +xxT }・・・(学習) ここで、関数1{z}は、z<TH(閾値)の条件で0
となり、z>=THの条件で1となる。
【0014】学習時には、学習用の入力信号x´を入力
信号規格化装置20で規格化信号xに変換する。学習信
号演算装置12は、規格化信号xの自己相関行列xxT
を計算し、これを学習信号Xとして記憶行列2値化保持
装置14に出力する。記憶行列2値化保持装置14は、
学習信号X=xxT を記憶行列Mn に加えるとともに、
これを関数1{z}で2値化する。この結果、記憶行列
n+1 が更新される。かかる更新はそれぞれの学習パタ
ーンすなわち入力信号x´に対して一度づつ行われる。
【0015】連想時には、連想あるいは想起用の入力信
号x´を入力信号規格化装置20で規格化信号xに変換
する。ベクトルマトリックス演算装置16は、記憶行列
Mと規格化信号xとのベクトルマトリックス演算を実行
する。出力関数演算装置18は、ベクトルマトリックス
演算の結果に、出力関数fの演算を施す。この処理出力
y=f(Mx)を出力段の出力信号規格化装置30に通
すことによって最終結果y´が得られる。
【0016】以上、相関学習法について説明したが、直
交学習法、BAck-PROPAGATION法等も学習時の演算方式を
変更することで適応させることができる。
【0017】図2は図1のNN装置を具体化した光NN
装置の構成図である。NN装置を以下のように光学部品
で構成した場合、高解像度の2値デバイスであるFLC
−SLMがそのまま利用できる点で装置の構成が容易に
なるとともに、演算時のノイズの影響も大幅に削減でき
る。図面中、SLMは空間光変調器を表し、SNUは信
号規格化ユニットを表わし、HRはハーフミラーまたは
ミラーを表し、Lはレンズまたはシリンドリカルレンズ
を表す。学習時には、入力信号規格化装置20と、学習
信号演算装置12と、記憶行列2値化保持装置14とが
動作する。連想処理時には、入力信号規格化装置20
と、記憶行列2値化保持装置14と、ベクトルマトリッ
クス演算装置16と、出力関数演算装置18と、出力信
号規格化装置30とを動作させる。
【0018】図3は、入力信号規格化装置20の具体的
作製例を示す。なお、出力信号規格化装置30も入力信
号規格化装置20と同様の構成とすることができる。こ
こでは、入力の空間光変調器(SLM)として反射型の
空間光変調管(MSLM)21aが用いられ、信号分離
器としてハーフミラー22が用いられている。なお、読
み出しレーザー用のハーフミラー21bはハーフミラー
22の図面右側に設けることもできる。入力光から分岐
された制御光は、ミラー23、レンズ24を介して受光
素子25に集光され、その光電変換出力はアンプ26で
増幅されてMSLM21aに与えられる。MSLMは閾
値演算モードで用いることにより任意の閾値レベルでの
画像演算が可能である。ここで、アンプ26のゲインは
設定値により調整され、MSLM21aの閾値レベルが
調整される。なお、レンズ24、受光素子25及びアン
プ26は信号規格化ユニットに対応する。
【0019】信号分離器は前述のハーフミラー22の他
にグレーティング、ホログラム素子等によって構成する
こともできる。入力のSLMとしては、閾値機能すなわ
ち2値化機能を持つものを利用する。2値化処理のでき
る空間光変調器としては、FLC−SLM(強誘電性液
晶−空間光変調器)や、MSLMなどがある。FLC−
SLMの場合、制御光を光検出器で電気信号に変え、こ
れによりFLC−SLMの駆動電圧を制御することによ
り、2値化する際のしきい値レベルを制御できる。この
とき、規格化のレベルは光検出器のゲインや感度等の動
作条件を設定することによって任意に変更できる。
【0020】入力信号の規格化を行なう際の、規格化レ
ベルの設定法について簡単に説明する。多値の信号要素
を処理する従来の光NN装置に使用される光デバイス
は、一般に表現できる値が有限である。つまり、飽和レ
ベルがあり、学習時に記憶行列が飽和レベルに達する
と、学習が進まなくなる。これを回避する方法として、
規格化のレベルを低く抑える方法があり、本実施例はこ
れを用いる光NN装置である。さらに、この方法によっ
て、連想能力および記憶パターン数が増大する効果が期
待できる。このことは、スパースコーディング法とし
て、甘利により紹介されている。
【0021】図4は、学習信号演算装置12の具体的作
製例を示す。学習信号演算装置12は、一対のシリンド
リカルレンズ12a、12bと、一対のSLM12c、
12dと、ローテータ12eとから構成される。規格化
信号xに変換された入射光は、ハーフミラーMRで一部
分岐されてローテータ12eに入射する。もとの入射光
と90°回転された入射光とは、ともにシリンドリカル
レンズ12a、12bで直交する方向に拡大されてSL
M12c、12dに入射する。各SLM12c、12d
の出力光は、ハーフミラーMRで重ね合わされて自己相
関信号xxT の行列を形成する。
【0022】図5は、記憶行列2値化保持装置14の具
体的作製例を示す。図5(a)は、第1の作製例を示
し、アナログの光メモリ機能を持ったSLM14aと、
2値化機能を持ったSLM14bとの組み合わせによっ
て構成される。アナログメモリ用のSLM14aには、
空間光変調管(MSLM)やDKDP、BSO結晶等を
用いたSLMが利用ができる。また、2値化用のSLM
14bには、閾値演算機能を持つMSLM等が利用でき
る。学習信号となる自己相関行列xxT は、アナログメ
モリ用のSLM14aにアナログ値ΣxxT として保存
される。これを2値化用のSLM14bにて1{Σxx
T }に2値化して保持する。2値化によって得られた記
憶行列Mは、アナログ値を用いた記憶行列よりも一般に
情報量が減少するとも考えられるが、以下に説明する実
験結果から、上記のスパースな2値パターンへの規格化
との組み合わせによって、連想光演算の高速性を維持し
たままで、エラーの少ない安定した学習、連想等を実行
できることが分かった。
【0023】図5(b)は、図5(a)の記憶行列2値
化保持装置の変形例を示し、これはアナログメモリ用の
MSLM214aと、2値化用のTN−SLM(ツイス
トネマチック結晶SLM)214bとの組み合わせによ
って構成される。まず、シャッターS1を開状態としシ
ャッターS2を閉状態として、アナログメモリ用のMS
LM214aにΣxxT を蓄積する。その後、シャッタ
ーS1を閉状態としシャッターS2を開状態として、M
SLM214aに蓄積されたΣxxT をTN−SLM2
14bで2値化し、得られた1{ΣxxT }を再びMS
LM214aに書き込む。
【0024】図5(c)は、図5(a)の記憶行列2値
化保持装置第2の別の変形例を示す。この場合、FLC
−SLM等の、2値メモリ特性を持ったSLM314を
利用しているので、単一のデバイスで記憶行列の2値化
保持が可能になる。つまり、学習信号となる自己相関行
列xxT がこのSLM314に書き込まれると同時に2
値化処理も行われることとなる。
【0025】図6は、ベクトルマトリックス演算装置1
6の具体的作製例を示す。このベクトルマトリックス演
算装置は、図4の学習信号演算装置12の一部を利用す
る。規格化信号xに変換された連想用の入射光は、シリ
ンドリカルレンズ12aとSLM12cとによって縦方
向に拡大された後、ハーフミラーMRで偏向され、さら
にもう一つハーフミラーMRで反射されて記憶行列2値
化保持装置の出力面に入射する。この出力面で記憶行列
Mと規格化信号xとの乗算が行われ、次にシリンドリカ
ルレンズ16aによって縮小されて横方向の和が算出さ
れる。つまり、図示のベクトルマトリックス演算装置で
は、記憶行列2値化保持装置の前・後段にシリンドリカ
ルレンズを直交して配置させる構成となっており、これ
によってMxの積和演算を行うことができる。
【0026】出力関数演算装置18の具体的作製例につ
いては図面を省略する。この出力関数演算装置は、閾値
関数やシグモイド関数に似た単一増加関数の入出力特性
を持ったSLMを用いることにより実現できる。こうし
たSLMとして、例えばMSLM、FLC−SLM等を
利用することができる。
【0027】以上の説明では、例として入力パターンを
ベクトルそのものとして扱ったが、空間コーディング法
(「光アソシアトロン」、石川、別冊「数理科学」脳と
情報、ニューロサイエンス、サイエンス社刊、pp.144-1
48)を用いることによって、2次元パターンを直接扱う
こともできる。
【0028】図7および図8は、シュミレーションの実
験結果を示す。図7が記憶行列として2値メモリを用い
た場合を示し、図8が記憶行列として多値メモリを用い
た場合を示す。ここでは、学習方法として既に述べた相
関学習法を用いている。グラフ中のパラメータはTAの
設定値(スパース度)を示し、その値を0.03、0.
05、0.07、0.1、0.2と変更した。グラフ中
の横軸はパターン数を示し、グラフ中の縦軸はパターン
を想起したときのエラーを示している。このエラーは、
1つの学習パターンからハミング距離が10だけ離れた
パターンを20パターン連想した場合のエラーを表して
いる。つまり、エラーが大きくなるほど連想能力が低い
ことになる。例えば、太線で示したTA=0.07の場
合で比較してみると、2値メモリの場合は170通りの
パターンまでほとんどエラー無く連想を行えるが、多値
メモリの場合は70通りのパターンを超えるとエラーが
生じる。このように、記憶行列として2値メモリを使用
することによって、連想能力が大幅に向上していること
が分かる。
【0029】図9〜図11は図2の光NN装置の光学部
品を電気回路に置換して同様のNN装置を構成した例を
示す。電気回路を用いたNN装置では、回路を簡略なも
のとすることができ、演算量の軽減を図ることができ
る。
【0030】図9は、入力信号規格化装置を構成する電
気回路の一例を示す。この入力信号規格化装置は、入力
信号x´を蓄えるメモリー、閾値演算を行う出力関数演
算装置、その総和を計算するためのカウンタ及び規格値
制御装置からなる。入力信号x´は、クロック信号によ
って順次メモリーから取り出され、出力関数演算装置に
より2値化される。2値化された出力の総和がカウンタ
で計算され、規格値制御装置によりこの総和の値と規格
化したい値との比較が行われる。この結果、出力関数演
算装置の閾値THが変更され、出力関数演算装置で入力
信号x´が再度規格化される。この操作を出力すなわち
規格化信号xの総和が規格値になるまで繰り返す。この
入力信号規格化装置は出力信号規格化装置にもそのまま
流用することができる。
【0031】図10は、学習信号演算装置および記憶行
列2値化保持装置を構成する電気回路の一例を示す。こ
の装置は、規格化信号xを保持する第1および第2のシ
フトレジスタ、記憶行列を保存するメモリ、アドレスカ
ウンタ等によって構成される。学習時には、規格化信号
xを第1および第2のシフトレジスタに入れ、その先頭
ビット同士のアンドをとる。この場合、第1のシフトレ
ジスタのみn分周されたクロックでシフトさせれば、x
T の演算が可能になる。この演算結果は1ビット単位
で記憶するメモリに加えられる。
【0032】図11は、ベクトルマトリックス演算装置
等を構成する電気回路の一例を示す。この装置は、規格
化信号xを保持するシフトレジスタ、カウンタ、アドレ
スカウンタ等によって構成される。想起時には、規格化
信号xをシフトレジスタに入れ、規格化信号xとメモリ
からの記憶行列Mの1ビットづつとのアンドをとり、そ
の結果をnクロック分だけカウンタにより積算する。こ
の結果を一旦適当なメモリに蓄えるなどした後、出力関
数演算回路で処理し、処理出力yを得る。この処理出力
yは、図9に示す入力信号規格化装置と同様の出力信号
規格化装置によって規格化され、出力信号y´が発生さ
れる。
【0033】
【発明の効果】以上のように本発明では、トータルアク
ティビティに関して規格化された信号列を学習した情報
が2値要素からなる記憶行列としてメモリ手段に保存さ
れるとともに、規格化された信号列としての入力を記憶
行列で処理した情報が規格化された信号列として出力さ
れるので、トータルアクティビティが低く一定に保たれ
た信号列をすべて2値的に演算処理することができ、連
想、想起等の処理におけるエラーを減少させることがで
き、処理能力の向上を図ることができる。
【図面の簡単な説明】
【図1】ニューラルネットワーク装置の基本構成図であ
る。
【図2】ニューラルネットワーク装置の具体的構成図で
ある。
【図3】信号規格化装置の構成例を示した図である。
【図4】学習信号演算装置の構成例を示した図である。
【図5】記憶行列2値化保持装置の構成例を示した図で
ある。
【図6】ベクトルマトリックス演算装置の構成例を示し
た図である。
【図7】2値メモリを用いた場合のシュミレーションの
実験結果を示す図である。
【図8】多値メモリを用いた場合のシュミレーションの
実験結果を示す図である。
【図9】電気回路を用いたニューラルネットワーク装置
を構成する入力信号規格化装置の回路図である。
【図10】電気回路を用いたニューラルネットワーク装
置を構成する記憶行列2値化保持装置等の回路図であ
る。
【図11】電気回路を用いたニューラルネットワーク装
置を構成するベクトルマトリックス演算装置等の回路図
である。
【符号の説明】
10…NN装置の本体部分 12…学習信号演算装置 14…記憶行列2値化保持装置 16…ベクトルマトリックス演算装置 18…出力関数演算装置 20…入力信号規格化装置 30…出力信号規格化装置
フロントページの続き (56)参考文献 特開 平2−227787(JP,A) IJCNN JUNE 18−22 1989 VOLUME II P II−465 〜II−471 KEN−ICHI KITAYAM A,HISAO YOSHINAGA, TSUTOMU HARA “EXPE RIMENTS OF LEARNIN G IN OPTICAL PERCE PTRON−LIKE AND MUL TILAYER NEURAL NET WORKS”OPT.LETT.VOL UME14,NO.4 P.202−204 1989 H YOAHINAGA,K KIT AYAMA,T HARA “ALL− OPTICAL ERROR−SIGN AL GENERATION FOR BACKPROPAGATION LE ARNING IN OPTICAL MULTILAYER NEURAL NETWORKS" コンピュータ・サイエンス誌 Bit 臨時増刊 VOL.21 NO.11 1989.9 甘利俊一・後藤英一 編「人 工ニューラルシステム」共立出版第148 頁乃至第165頁 久間和生「光ニューロ システム」 菊地豊彦著「入門 ニューロコンピュ ータ」オーム社(H2.1.20)第33頁 (特に図2・14)及び第53頁乃至第74頁

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 学習用の入力信号をトータルアクティビ
    ティが所定範囲内にある複数の2値要素からなる複数の
    信号列として学習することによって得られた情報を、2
    値要素からなる記憶行列として保存するメモリ手段と、 連想あるいは想起用の入力信号をトータルアクティビテ
    ィが所定範囲内にある複数の2値要素からなる信号列と
    して、前記メモリ手段に保存されている前記記憶行列に
    基づき処理することによって得られた情報を、トータル
    アクティビティが所定範囲内にある複数の2値要素から
    なる信号列に変換する出力規格化手段と、 を備えるニューラルネットワーク装置
  2. 【請求項2】 前記メモリ手段は、記憶行列の保存を光
    学的に実行し、前記出力規格化手段は、信号列への変換
    を光学的に実行することを特徴とする請求項1記載のニ
    ューラルネットワーク装置。
  3. 【請求項3】 入力信号の学習、連想あるいは想起のた
    め、この入力信号をトータルアクティビティが所定範囲
    内にある複数の2値要素からなる規格化信号に規格化し
    出力する入力規格化手段をさらに備えることを特徴とす
    る請求項1記載のニューラルネットワーク装置。
  4. 【請求項4】 前記入力規格化手段からの信号列を用い
    て学習信号を形成する学習信号演算手段をさらに備える
    とともに、該学習信号演算手段からの複数の学習信号を
    積算して2値化することによって得られた記憶行列をメ
    モリ手段に保存させることを特徴とする請求項3記載の
    ニューラルネットワーク装置。
  5. 【請求項5】 前記学習信号演算手段は、学習信号の形
    成を光学的に実行することを特徴とする請求項4記載の
    ニューラルネットワーク装置。
  6. 【請求項6】 前記メモリ手段に保存された記憶行列と
    前記入力規格化手段からの信号列との積を演算する積演
    算手段と、該積演算手段からの出力に出力関数演算を施
    す出力関数演算手段とをさらに備えるとともに、該出力
    関数演算手からの出力を出力規格化手段に入力すること
    を特徴とする請求項3記載のニューラルネットワーク装
    置。
  7. 【請求項7】 前記積演算手段は、積の演算を光学的に
    実行し、前記出力関数演算手段は、出力関数演算を光学
    的に実行することを特徴とする請求項6記載のニューラ
    ルネットワーク装置。
  8. 【請求項8】 学習用の入力信号をトータルアクティビ
    ティが所定範囲内にある複数の2値要素からなる複数の
    信号列として学習することによって得られた情報を、2
    値要素からなる記憶行列としてメモリ手段に保存するス
    テップと、 連想あるいは想起用の入力信号をトータルアクティビテ
    ィが所定範囲内にある複数の2値要素からなる信号列と
    して前記メモリ手段に保存されている前記記憶行列に基
    づき処理することによって得られた情報を、トータルア
    クティビティが所定範囲内にある複数の2値要素からな
    る信号列に変換するステップと、 を備えるニューラルネットワークの実行方法
JP3256520A 1991-10-03 1991-10-03 ニューラルネットワーク装置及びその実行方法 Expired - Fee Related JP2619575B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3256520A JP2619575B2 (ja) 1991-10-03 1991-10-03 ニューラルネットワーク装置及びその実行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3256520A JP2619575B2 (ja) 1991-10-03 1991-10-03 ニューラルネットワーク装置及びその実行方法

Publications (2)

Publication Number Publication Date
JPH05101025A JPH05101025A (ja) 1993-04-23
JP2619575B2 true JP2619575B2 (ja) 1997-06-11

Family

ID=17293773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3256520A Expired - Fee Related JP2619575B2 (ja) 1991-10-03 1991-10-03 ニューラルネットワーク装置及びその実行方法

Country Status (1)

Country Link
JP (1) JP2619575B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09230954A (ja) * 1996-02-28 1997-09-05 Olympus Optical Co Ltd ベクトル規格化装置
JP3625979B2 (ja) * 1997-02-28 2005-03-02 オリンパス株式会社 テレビカメラ装置
JP5213173B2 (ja) * 2008-09-29 2013-06-19 国立大学法人山口大学 スパースコーディングを用いた組織性状判別
WO2017141997A1 (ja) * 2016-02-15 2017-08-24 国立大学法人電気通信大学 特徴量変換モジュール、パターン識別装置、パターン識別方法、およびプログラム
CN109716362B (zh) 2016-07-21 2024-01-09 电装It研究所 神经网络装置、车辆控制系统、分解处理装置以及程序

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5689714A (en) * 1979-12-24 1981-07-21 Dainippon Printing Co Ltd Light information processing method and its device
JPS5932081A (ja) * 1982-08-13 1984-02-21 Omron Tateisi Electronics Co パタ−ン認識装置
JPS6378283A (ja) * 1986-09-22 1988-04-08 Photo Composing Mach Mfg Co Ltd パタ−ン認識方法および装置
JPH0624034B2 (ja) * 1987-08-18 1994-03-30 新技術事業団 光学的マッチド・フィルタ法及びそれに用いるマッチド・スペイシャル・フィルタ
JPH02227787A (ja) * 1989-03-01 1990-09-10 Hitachi Eng Co Ltd 画像パターン認識方法および装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
H YOAHINAGA,K KITAYAMA,T HARA "ALL−OPTICAL ERROR−SIGNAL GENERATION FOR BACKPROPAGATION LEARNING IN OPTICAL MULTILAYER NEURAL NETWORKS"
IJCNN JUNE 18−22 1989 VOLUME II P II−465〜II−471
KEN−ICHI KITAYAMA,HISAO YOSHINAGA,TSUTOMU HARA "EXPERIMENTS OF LEARNING IN OPTICAL PERCEPTRON−LIKE AND MULTILAYER NEURAL NETWORKS"OPT.LETT.VOLUME14,NO.4 P.202−204 1989
コンピュータ・サイエンス誌 Bit臨時増刊 VOL.21 NO.11 1989.9 甘利俊一・後藤英一 編「人工ニューラルシステム」共立出版第148頁乃至第165頁 久間和生「光ニューロシステム」
菊地豊彦著「入門 ニューロコンピュータ」オーム社(H2.1.20)第33頁(特に図2・14)及び第53頁乃至第74頁

Also Published As

Publication number Publication date
JPH05101025A (ja) 1993-04-23

Similar Documents

Publication Publication Date Title
Von Oswald et al. Transformers learn in-context by gradient descent
Ruehle Data science applications to string theory
Trabelsi et al. Deep complex networks
Owechko et al. Holographic associative memory with nonlinearities in the correlation domain
Hsu et al. Holographic implementation of a fully connected neural network
Millidge et al. Universal hopfield networks: A general framework for single-shot associative memory models
Bohra et al. Learning activation functions in deep (spline) neural networks
US5544280A (en) Unipolar terminal-attractor based neural associative memory with adaptive threshold
JP3290984B2 (ja) 神経回路網の訓練方法
Zheng et al. Training data reduction in deep neural networks with partial mutual information based feature selection and correlation matching based active learning
JP2619575B2 (ja) ニューラルネットワーク装置及びその実行方法
Roth et al. Training discrete-valued neural networks with sign activations using weight distributions
Velasco-Forero et al. Learnable empirical mode decomposition based on mathematical morphology
Paek et al. Holographic implementation of a learning machine based on a multicategory perceptron algorithm
Lo Functional model of biological neural networks
WO2020176994A1 (en) Legendre memory units in recurrent neural networks
Sherstinsky Deriving the recurrent neural network definition and RNN unrolling using signal processing
Melchior et al. Hebbian-descent
Carè et al. Regression
FR2681709A1 (fr) Procede de connexion interne pour reseaux de neurones.
Psaltis et al. IV Adaptive Multilayer Optical Networks
HERSHEY Exploring Neural Network Structure through Iterative Neural Networks: Connections to Dynamical Systems
Singh et al. Comprehensive Overview of Backpropagation Algorithm for Digital Image Denoising. Electronics 2022, 11, 1590
Ghahramani et al. Orthonormalization procedure for optical resonator neural networks
JPH04311254A (ja) ニューラル・ネットワーク及びその制御方法及びニューラル・ネットワーク用演算装置

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees