JPH04148212A - 光ニューラルプロセッサ - Google Patents

光ニューラルプロセッサ

Info

Publication number
JPH04148212A
JPH04148212A JP26998690A JP26998690A JPH04148212A JP H04148212 A JPH04148212 A JP H04148212A JP 26998690 A JP26998690 A JP 26998690A JP 26998690 A JP26998690 A JP 26998690A JP H04148212 A JPH04148212 A JP H04148212A
Authority
JP
Japan
Prior art keywords
optical
learning
output
signal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26998690A
Other languages
English (en)
Inventor
Wataru Kawakami
弥 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP26998690A priority Critical patent/JPH04148212A/ja
Publication of JPH04148212A publication Critical patent/JPH04148212A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、光学系および電気系の両方を利用して構成し
た光ニューラルプロセッサに関するものである。
[従来の技術] 脳の機能の一部をモデル化したニューラルネットは、現
在、様々な形のモデルか提案され、装置化されている。
モデルの一例としては、第6図(a)に示すような入力
層、中間層、出力層からなる3層構造のニューラルネッ
トがある。入力層に入力された信号は、中間層の各ニュ
ーロンに分配されて処理された後、出力層に出力される
。ニューロンは、第6図(b)に示すように、入力を加
算する加算器と、しきい値処理を行うリミタ−とからな
る。
ニューロンの動作を決める要因は、このリミタ−の持つ
非線形関数と、各層のニューロンを結ぶニューロンの重
みづけ、すなわち結合荷重である。
ニューラルネットに所望の動作をさせるためには、これ
らの要因を決定する必要がある。この要因決定のたぬの
方法が、1学習“と呼ばれるものである。学習は、ニュ
ーラルネットに、ある入カバターンを入力し、その時に
出力された出カバターンを、あるべき出カバターンに近
付けるように上記要因を修正することであり、この入出
カバターンを多数提示することによって、徐々に上記要
因を決定していくものである。
ニューラルネットを実現する手段としては、計算機上の
ソフトウェアにて計算機ンユミレーションによる方法か
ある。この方法は、種々の要因変化に伴うニューラルネ
ットの動作解析には威力を発揮するが、動作速度および
並列性の点では十分でない。
一方、ニューラルネットあるいはニューロンをハード的
に実現した物が、ニューラルプロセッサと呼ばれるもの
である。ニューラルプロセッサは、実時間処理に近い動
作速度が得られる点で、特に注目されている。
ニューラルプロセッサを構成する方法としては、大略、
全てを電気系で構成する方法、全てを光学系にて実現す
る方法、あるいは光学系と電気系とを組み合わせて構成
する方法がある。
全てを電気系で構成する方法としては、常置可能な数十
〜数百ニューロンのLSIがある。また、全てを光学系
で構成する方法としては、レンズおよび光学結晶を用い
て、ニューロンとシナプスと学習に必要が演算を、別々
の光学系で単独に構成した例がある。
[発明が解決しようとする課題] ところで、ある程度複雑な認識機能を備えたニューラル
プロセッサを構成するに当たって、数万個ないし数10
万個のニューロンを相互に接続することが必要である。
前記のように、ニューラルプロセッサの全てを電気系で
構成した場合、ニューロン間を接続する結合荷重を適宜
変えることのできるシナプスを実現するためには、膨大
な数の配線が必要となる。
そのため、配線による遅延時間や相互の電気的な干渉な
どの問題が生じ、並列性を上げることができないという
問題がある。また、並列度を向上するために、結合荷重
を固定したものもあるが、これでは、ニューラルプロセ
ッサ本来の特徴である学習機能および並列性を十分に活
かすことができないという問題がある。
本発明は、このような事情に鑑みてなされたものであっ
て、電気系および光学系の両方の特質を活かして構成し
、高速動作が可能でがっ十分な学習機能と並列性を備え
たニューラルプロセッサを提供することを目的としてい
る。
[課題を解決するための手段] 本発明では、ニューロンを電気系によって構成するとと
もに、シナプスを、各ニューロン間の結合荷重を可変可
能とする光学系によって構成し、かっこの結合荷重を決
定するための学習を行う手段を、光学系と積分手段によ
って構成したことを解決手段とした。
[作用コ 本発明の光ニューラルプロセッサによれば、各ニューロ
ン間の接続を行うシナプスを光学系によって構成したこ
とによって、電気系のみで構成した場合の種々の問題、
例えば配線に伴う遅延時間や電気的干渉などを解消し、
動作速度を向上させることができる。また、学習手段を
光学系と積分手段とによって構成したことによって、光
二二一うルプロセッサの本来の特徴である学習機能およ
び並列性を十分に発揮することかできる。
[実施例] 以下、実施例を示し、図面を参照して、本発明の光ニュ
ーラルプロセッサについて説明する。
第1図は、本発明の光ニューラルプロセッサの一実施例
を示す図である。この光ニューラルプロセッサは、学習
機能を実現する学習の過程と、想起機能を実現する想起
の過程を存している。学習の過程は、次の2つの過程(
a)、(b)から成る。
過程(a)は、次式に示すように、入力Viに対してニ
ューロンの出力Ojを計算する過程である。
0j=f(Σwij −Vi) (wijハシナプス荷重、fはニューロンのしきい関数
) この過程(a)は、積分器101と、この積分器101
に記憶されている荷重信号1011 (wiDを光信号
1021に変換するE10変換器102bと、この光信
号1021と入力+001に加えられた信号Viとを入
力して、これらの積wiコ・Viを光学的に計算し、光
信号1031として出力する光学乗算器103aと、光
信号1031 (vij・Vi)を入力してiについて
の加算Σwij−Viを行った後、電気信号+041と
して出力する加算機能を持つO/E変換器104aと、
その信号!041にしきい値処理を施して出力信号10
51(Oj)として出力するリミタ−105とを有して
いる。
また、ンナプス荷重を更新する過程(b)は、次式に示
すように、過程(a)の出力をもとに、ンナプス荷重を
更新する過程である。
v+j= 5コwijdt Δvij= (T j −Oj) ・V iこの過程(
b)は、教師人力1071に加えられた信号Tjを入力
して、出力電気信号1051(0コ)との差を計算し、
出力電気信号1061(TjOj)として出力する引算
器106と、この電気信号1061を光信号1023に
変換するE10変換器102aと、光信号1023に光
学的にVl・(Tj−Vj)の演算を施した後に光信号
1032として出力する光学乗算器103bと、信号1
032を電気信号1043に変換するO/E変換器+0
4bと、積分計算を施し゛で既に記憶されている荷重v
ijを更新する積分器+01とを有している。
一方、想起の過程は、入力+001には不完全な信号V
1であるVi’ を入力し、 0j=f(Σ窃iJ−■1′〕 を計算する過程である。
具体的には、前記過程(a)とほぼ同様の構成を有し、
積分器101に記憶されている荷重信号1011 (w
ij)を、E10変換器102bで光信号1021とし
た後、光学乗算器103によって光学的に入力vi′ 
との積 vij−Vi′ の演算を行い、その出力信号
1031(w1031(’ )を受けたO/E変換器1
04aによって、iについての加算Σwij−Vi′を
行って信号1041として出力し、さらにリミタ−10
5によってしきい値処理を施した後に、出力+02(O
j)として出力するというものである。
第2図に、この光ニューラルプロセッサの具体的な構成
例を示す。
図中符号20は、リミタ−105、引算器106、E1
0変換器102a、および加算機能を持つO/E変換器
104aを含む光電気回路である。
符号21は、光学乗算器103aおよびl03bを含む
光制御素子である。符号22は、E10変換器10°2
b、O/E変換器104bおよび積分器101を含む光
電気回路である。−例を挙げると、前記光電気回路20
および22は光電気集積回路によって、また光制御素子
22は液晶空間光変調器によってそれぞれ実現可能であ
る。
光電気回路20中のE10変換器102aはストライブ
状の発光素子、0/E変換器104aは加算機能を持つ
ストライブ状の受光素子である。
この光電気回路20は、これらE10変換器102aお
よびO/E変換器104aと、リミタ−105、引算器
+06を有する光0EICであり、出力1051を持つ
。光制御素子21は、入力1001に応じて、符号10
3で示されているストライブ部分の透過率か変化する透
過率可制御光学素子で、光学的に乗算を実現する光学乗
算器である。
光電気回路22中の0/E変換器104bは受光素子、
E10変換器+02bは発光素子である。
次に、第3図を示して、この先ニューラルプロセッサの
動作について説明する。
学旨時には、先に述べたようなニューロンの出力を計算
する過程(a)とノナブス荷重を更新する過程(b)を
交互に繰り返す。
ニューロンの出力を計算する過程(a)では、光電気回
路22に記憶されている荷重信号が、発光素子102b
によって光信号1021に変換され、光制御素子21に
よって、光学的にvij−Viの演算が行われ、光信号
1031とされる。光信号1031は、ストライブ状の
受光素子!04aによって受光され、同時に1について
の総和Σv1j−Viの演算が行なわれる。これは、光
電気回路20の内部にてしきい値処理され、出力105
+(Oj)として出力される。
過程(b)においては、教師入力1071に入力されf
コ教師信号Tjは、光電気回路20J)内部にて(Tj
−OJ)に変換され、ストライプ状発光素子102aに
よって光信号1023に変換される。
光信号1023は、光制御素子21によって、入力信号
Viとの積である信号1032(Vi・[Tj−Oj〕
)か光学的に計算される。信号1032は、光電気回路
22中の受光素子104bによって受光され、光電気回
路22内部の荷重か更新される。
このような動作が繰り返されることによって学習が進み
、Tj−Oj=0となるまで繰り返される。
また想起時には、光電気回路22に記憶されている荷重
信号が発光素子102bによって光信号1021に変換
され、光制御素子21によって不完全な入力Vi′ と
の積が光学的に計算されて、光信号1031が得られる
。光信号1031が、光電気回路20中のストライプ状
の受光素子104aによって受光され、同時にlについ
ての総和Σvij−V i′の演算が行なわれる。これ
か、光電気回路20内部においてしきい値処理され、出
力1051とされる。
第4図に学習時の動作例、第5図に想起時の動作例を説
明する概念図をそれぞれ示す。
学習時には、学習させたい入力401と出力402の組
を、それぞれ入力l001および教師人力1071に人
力することによって想起の動作を行う。学習の初期には
、出力403のような不完全な出力を得る。この不完全
な出力403と教師人力1071との差を、引算器10
6によって計算し、荷重を更新させる。この一連の操作
を、出力が403のように教師人力1071と同じにな
るまで続ける。これによって学習が完了するのである。
想起時には、先の学習によって学習させたパターンに近
いが不完全な入力501を人力する。すると、荷重に記
憶されているパターンと最も似ているパターンと組にな
って記憶されている出力502を、この想起過程によっ
て出力するのである。
[発明の効果] 以上説明したように、本発明の光ニューラルプロセッサ
によれば、各ニューロン間の接続を行うンナブスを光学
系によって構成したことによって、電気系のみで構成し
た場合の種々の問題、例えば配線に伴う遅延時間や電気
的干渉などを解消し、動作速度を向上させることができ
る。また、学習手段を光学系と積分手段とによって構成
したことによって、光ニューラルプロセッサの本来の特
徴である学習機能および並列性を十分に発揮することが
できる。
【図面の簡単な説明】
第1図は、本発明の光ニューラルプロセッサの一実施例
を示すブロック図、第2図はその具体的な構成を示す図
、第3図はその動作を説明する図、第4図は学習時の動
作を説明する概念図、第5図は想起時の動作を説明する
概念図であり、第6図は、従来のニューラルネットの一
例を示す概念図である。 20.22・・・・・・光電気回路(電気系)、21・
・・・光制御素子(光学系)、 101・・・・積分器(積分手段)、  2a 1 03a、1 04 a 1 05・・ 02b・・・発光素子(E10変換器)、03b・・・
光学乗算器、 04b・・・・・・受光素子(0/E変換器)、リミタ
−106・・・・・引算器。 入力 出力402 入力40 出力403 入力50 出力502 第6図 中間層 (b)ニューロン 0=f(>w+

Claims (1)

  1. 【特許請求の範囲】 入力の総和をとって非線形処理を施し出力するニューロ
    ンと、これらのニューロン間の接続を行うシナプスとを
    備えた光ニューラルプロセッサであって、 ニューロンを電気系によって構成するとともに、シナプ
    スを、各ニューロン間の結合荷重を可変可能とする光学
    系によって構成し、かつこの結合荷重を決定するための
    学習を行う手段を、光学系と積分手段によって構成した
    ことを特徴とする光ニューラルプロセッサ。
JP26998690A 1990-10-08 1990-10-08 光ニューラルプロセッサ Pending JPH04148212A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26998690A JPH04148212A (ja) 1990-10-08 1990-10-08 光ニューラルプロセッサ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26998690A JPH04148212A (ja) 1990-10-08 1990-10-08 光ニューラルプロセッサ

Publications (1)

Publication Number Publication Date
JPH04148212A true JPH04148212A (ja) 1992-05-21

Family

ID=17479980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26998690A Pending JPH04148212A (ja) 1990-10-08 1990-10-08 光ニューラルプロセッサ

Country Status (1)

Country Link
JP (1) JPH04148212A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
WO2022134391A1 (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
US6456989B1 (en) Neuro-fuzzy-integrated data processing system
US4914603A (en) Training neural networks
US4912647A (en) Neural network training tool
Nakatsuji et al. Development of a self-organizing traffic control system using neural network models
CN109784485B (zh) 一种光学神经网络处理器及其计算方法
EP0591415A1 (en) Sparse comparison neural network
JP2747104B2 (ja) ニューラルネットワーク
Tawel Does the neuron" Learn" like the synapse?
JPH04148212A (ja) 光ニューラルプロセッサ
US4912653A (en) Trainable neural network
Weitzenfeld et al. A concurrent object-oriented framework for the simulation of neural networks
JPH076146A (ja) 並列データ処理システム
Madey et al. Integration of neurocomputing and system simulation for modeling continuous improvement systems in manufacturing
US5438645A (en) Neural network which uses a monitor
CN112926738A (zh) 一种神经网络自适应输出层的设计方法、设备及存储介质
JPH0473724A (ja) 光ニューラルプロセッサ
US5440671A (en) Neural net model and neural net optimizing method and system for realizing the same
JPH05197705A (ja) ニューラルネットワークの学習システム
Wan et al. Introducing cost-sensitive neural networks
JPH04291662A (ja) 階層ネットワーク構成演算素子
KR20190125694A (ko) 학습 및 추론 장치 및 그 방법
Geidarov Experiment for Creating a Neural Network with Weights Determined by the Potential of a Simulated Electrostatic Field
Kane et al. Extraction of semantic rules from trained multilayer neural networks
Zhang et al. Neuron-adaptive higher order neural network group models