JP2690755B2 - Optical neural network - Google Patents

Optical neural network

Info

Publication number
JP2690755B2
JP2690755B2 JP63255979A JP25597988A JP2690755B2 JP 2690755 B2 JP2690755 B2 JP 2690755B2 JP 63255979 A JP63255979 A JP 63255979A JP 25597988 A JP25597988 A JP 25597988A JP 2690755 B2 JP2690755 B2 JP 2690755B2
Authority
JP
Japan
Prior art keywords
optical
signal
neuron model
neural network
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63255979A
Other languages
Japanese (ja)
Other versions
JPH02105212A (en
Inventor
重史 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63255979A priority Critical patent/JP2690755B2/en
Publication of JPH02105212A publication Critical patent/JPH02105212A/en
Application granted granted Critical
Publication of JP2690755B2 publication Critical patent/JP2690755B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概要〕 受信光周波数と合致した場合に、発振を強める光ニュ
ーロチップを基本として構成した光ニューラルネットワ
ークに関し、 受信光周波数あるいは発光、受光タイミング等が合致
した場合に発振を強めるという光ニューロンモデルを用
いてニューロンモデル間の配線を必要とせず、光通信で
任意のネットワークを構築することを目的とし、 光ニューロンモデルを基本として構成されるニューラ
ルネットワークにおいて、各光ニューロンモデルは複数
の光情報を有する光信号を時分割的あるいは空間分割的
に入力し、あらかじめ該光ニューロンモデルに割り当て
られている光情報に対応した光情報を有する光信号の出
力を大きくし、前記割り当てられている光情報とは異な
る光情報を有する光信号の出力を小さくして時分割的あ
るいは空間分割的に出力することによりネットワークを
順次形成するように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Outline] The present invention relates to an optical neural network based on an optical neurochip that enhances oscillation when the received optical frequency matches, and oscillates when the received optical frequency or light emission, light receiving timing, etc. match. In order to build an arbitrary network by optical communication without using the wiring between neuron models by using the optical neuron model that enhances the optical neuron model, in the neural network constructed based on the optical neuron model, each optical neuron model Input an optical signal having a plurality of optical information in a time-divisional or space-divisional manner, increase the output of an optical signal having optical information corresponding to the optical information previously assigned to the optical neuron model, The output of the optical signal that has different optical information from the existing optical information is reduced. Then, the network is sequentially formed by outputting in a time-divisional or space-divisional manner.

〔産業上の利用分野〕[Industrial applications]

本発明は、記憶されている完全情報に近い不完全情報
が入力された場合でも発火する連想型ネットワークに係
り、更に詳しくは受信光周波数と合致した場合に、発振
を強める光ニューロチップを基本として構成した光ニュ
ーラルネットワークに関する。
The present invention relates to an associative network that fires even when incomplete information close to stored complete information is input, and more specifically, it is based on an optical neurochip that enhances oscillation when the received optical frequency matches. It relates to a constructed optical neural network.

ノイマン型の逐次計算機を基本とした並列処理計算機
の限界及びプログラムによって処理内容を決定していく
ためにソフトウェアが多量に必要であるという危機に対
応するためにノイマン型の計算機とは処理方法がまった
く異なるニューロコンピュータが注目されてきた。ニュ
ーロコンピュータを構成するネットワークはニューラル
ネットワークと呼ばれている。ニューロコンピュータで
はニューラルネットワーク上で入力した情報を元に自分
自身でネットワークの構造を変え、入力情報に適したネ
ットワークをいわば自己組織化するという方式に基づく
ものである。このニューロコンピュータは、プログラム
の危機を打開するため、学習により処理決定を自分自身
で形成し、さらにあいまい性を伴う情報が入力された場
合にそれを学習時に記憶された情報を基に復元すること
により、人間に近い連想や認識を超並列処理に従って実
行するもので、いわば次世代の計算機アーキテクチャの
基本となるものである。このようなニューラルネットワ
ークを物理的な装置を用いて構成することの必要性が高
まってきた。
In order to cope with the limit of parallel processing computers based on Neumann type sequential computers and the crisis that a large amount of software is required to determine the processing contents by programs, Neumann type computers have completely no processing method. Different neurocomputers have received attention. The network that constitutes the neurocomputer is called a neural network. The neurocomputer is based on the method of changing the structure of the network by itself based on the information input on the neural network and, so to speak, self-organizing the network suitable for the input information. In order to break the risk of the program, this neurocomputer makes processing decisions by learning, and when information with ambiguity is input, it is restored based on the information stored at the time of learning. By this, it performs associative and recognition similar to human beings according to massively parallel processing, which is the basis of the next-generation computer architecture. There is a growing need to construct such neural networks using physical devices.

〔従来の技術〕[Conventional technology]

従来、この種のニューラルネットワークは電子回路、
特にアナログ回路を基本として構成され、ネットワーク
を構成するための基本回路は形式ニューロンモデルを基
本とする。この形式ニューロンモデルは複数の入力と1
本の出力を有し、各入力信号の電圧に重みをかけた信号
をすべえ加え、これと記憶してある閾値との差を求め、
その差が正であれば出力信号を強め、負であれば、出力
の信号を弱める働きをするものである。従来では、かか
る形式ニューロンモデルを演算増幅器等の基本回路を用
いて構成し、相互に結合することによりニューラルネッ
トワークを構成していた。このようなニューラルネット
ワークでは学習時に各ニューロンモデルを接続する結合
の重み係数を可変にするために、重みをディジタル化し
たり、重みの値が可変となるMOSトランジスタを使用し
たり、或いは各ニューロンモデル間結合の有無をスイッ
チを用いて構成していた。すなわち従来のネットワーク
では集積回路上に予め配線しておき、その配線上の重み
を可変にすることにより自己組織化していた。
Traditionally, this kind of neural network is an electronic circuit,
In particular, it is constructed based on an analog circuit, and the basic circuit for constructing a network is based on a formal neuron model. This formal neuron model has multiple inputs and 1
With a book output, add all the signals weighted to the voltage of each input signal, and find the difference between this and the stored threshold value,
If the difference is positive, the output signal is strengthened, and if the difference is negative, the output signal is weakened. Conventionally, such a formal neuron model is constructed by using a basic circuit such as an operational amplifier and is connected to each other to construct a neural network. In such a neural network, in order to make the weighting coefficient of the connection that connects each neuron model variable at the time of learning, the weights are digitized, MOS transistors whose weights are variable are used, or between the neuron models. The presence or absence of coupling was configured using a switch. That is, in the conventional network, wiring is performed in advance on the integrated circuit, and the weight on the wiring is made variable to perform self-organization.

従来のニューラルネットワークを構成する方式として
はホップフィールド型とバックプロパゲーション型等が
考えられている。ホップフィールド型のニューラルネッ
トワークは、微分変数を積分器で積分し、その値を量子
化した出力をフィールドバックして出力変数を形成し、
この出力変数を接続部において複数相互に結合させ、そ
の結合点における重み係数をかけて総和をとり各ニュー
ロンの微分変数とするものである。このネットワークで
は、エネルギー関数が最小になる方向に制御されるた
め、複数の極小点における出力パターンに近づくことに
より連想動作を可能とするものである。
Hopfield type, backpropagation type, and the like are considered as methods for forming a conventional neural network. A Hopfield neural network integrates a differential variable with an integrator, field-quantizes the value of the output, and forms an output variable.
A plurality of these output variables are connected to each other at the connecting portion, the weighting factors at the connecting points are multiplied, and the sum is taken as the differential variable of each neuron. In this network, the energy function is controlled so as to be minimized, so that the associative operation is enabled by approaching the output patterns at a plurality of local minimum points.

一方、バックプロパゲーションによる多層型のニュー
ラルネットは、複数の形式ニューロンモデルからなる層
を多層に並べ、入力層に与えられたパターンに対して出
力層から得られる出力パターンを教師信号に近づくよう
に、各信号間の重み係数を学習時に決めておくもので、
連想時では与えられた不完全情報を学習時に決められた
重み係数に対応する内部パターンとのマッチングを行っ
て完全情報に復元させるものである。
On the other hand, in a multilayer neural network based on backpropagation, layers of multiple formal neuron models are arranged in multiple layers so that the output pattern obtained from the output layer approaches the teacher signal with respect to the pattern given to the input layer. , The weighting factor between each signal is decided at the time of learning,
At the time of association, the given incomplete information is matched with the internal pattern corresponding to the weighting coefficient determined at the time of learning to restore the complete information.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

従って、これら従来のニューラルネットワークでは、
形式ニューロンモデル間の配線が予め集積回路上で構成
され、配線上にある物理的な素子の値を内部的な電圧等
によって可変することによってネットワークを自己組織
化するものである。そのため、連想や認識の応用に対し
て任意の目的にあった学習を行うためには、ホップフィ
ールド型の接続部においては、各ニューロン同士が結合
する完全グラフ構造にしておく必要があり、多層型のニ
ューラルネットワークでは次段の層と後段の層との間の
結合は、前段の1つのニューロンが後段のニューロンの
すべてに配線されたものである。従って、この従来法で
は配線量が極めて多く、大きなニューラルネットワーク
を構築することが難しいという欠点を有する。
Therefore, in these conventional neural networks,
The wiring between the formal neuron models is preconfigured on the integrated circuit, and the network is self-organized by changing the value of the physical element on the wiring by an internal voltage or the like. Therefore, in order to carry out learning for any purpose for the application of association and recognition, it is necessary to have a complete graph structure in which each neuron is connected in the Hopfield type connection part. In the neural network, the connection between the next layer and the subsequent layer is such that one neuron in the previous stage is wired to all neurons in the subsequent stage. Therefore, this conventional method has a drawback that the amount of wiring is extremely large and it is difficult to construct a large neural network.

本発明は受信光周波数あるいは発光、受光タイミング
等が合致した場合に発振を強めるという光ニューロンモ
デルを用いてニューロンモデル間の配線を必要とせず、
光通信で任意のネットワークを構築することを目的とす
る。
The present invention does not require wiring between neuron models by using an optical neuron model in which oscillation is enhanced when received light frequency or light emission, light reception timing, etc. are matched,
The purpose is to build an arbitrary network by optical communication.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明の原理図である。 FIG. 1 is a diagram illustrating the principle of the present invention.

各光ニューロンモデル1の入力手段3は複数の光情
報、例えば、光周波数、発光強度、発光タイミングを有
する光信号を時分割的、光周波数分割あるいは空間分割
的に受信光7として入力し、電子処理手段5で電気信号
として処理する。
The input means 3 of each optical neuron model 1 inputs a plurality of optical information, for example, an optical signal having an optical frequency, an emission intensity, and an emission timing as a reception light 7 in a time division manner, an optical frequency division manner, or a space division manner, The processing means 5 processes it as an electric signal.

記憶手段2はあらかじめ該光ニューロンモデル1に割
り当てられている光情報に対応した光情報を記憶する。
The storage means 2 stores the optical information corresponding to the optical information assigned to the optical neuron model 1 in advance.

連想伝達手段4は電子処理手段5の出力を受け、光信
号を他の光情報を有する光信号と識別可能にして例えば
記憶手段2に記憶された光周波数と合致した受信光の周
波数の発振を高め、他の周波数の発振を弱めることによ
り時分割的あるいは空間分割的に第1の光出力6あるい
は第2の光出力として出力することによりネットワーク
を順次形成することを特徴とする。
The associative transmission means 4 receives the output of the electronic processing means 5, makes the optical signal distinguishable from the optical signal having other optical information, and oscillates the frequency of the received light that matches the optical frequency stored in the storage means 2, for example. It is characterized in that the networks are sequentially formed by increasing the frequency and weakening the oscillation of other frequencies to output as the first optical output 6 or the second optical output in a time division or space division manner.

〔作用〕[Action]

本発明の光ニューラルネットワークでは、発光周波
数、発光強度、発光タイミング等の情報を記憶し、1つ
の光ニューロンモデルで受信した受信光周波数と合致す
る発光周波数が記憶されていた場合に、当該周波数での
発振を強め、合致しない周波数が受信された場合にはそ
の発振を弱める機能を有し、これらの機能をもった光ニ
ューロンモデルを複数相互に光結合することにより任意
に自己組織化することが可能となる。
In the optical neural network of the present invention, information such as the light emission frequency, the light emission intensity, and the light emission timing is stored, and when the light emission frequency that matches the received light frequency received by one optical neuron model is stored, It has the function of increasing the oscillation of the optical neuron and weakening the oscillation when a non-matching frequency is received. By optically coupling a plurality of optical neuron models having these functions with each other, self-organization can be arbitrarily performed. It will be possible.

〔実施例〕〔Example〕

次に本発明の実施例を図面を参照して説明する。第2
図は本発明の光時分割多重化方式に基づく光ニューロン
モデルによる光ニューラルネットワークの構成の実施例
図である。同図において、第1図と同じものは同じ記号
で示した。同図において、11は光ニューロチップ、12は
発光周波数、発光強度、発光タイミング等を記憶する電
子記憶制御部、13は他のニューロンモデルから受信した
受信光を検知する光検知器、14は光周波数f1からfxまで
走査を行い、受信光周波数とある範囲内で合致した場合
にそこでの発振を強め、合致しない周波数での発振を弱
める周波数可変LD型の連想伝送部である。15は受信した
受信光周波数をある周波数範囲に帯域制限するための電
子帯域通過フィルタである。この光ニューロンモデルに
おいては、光検知器13において受信した受信光周波数を
有する光をある中間周波数の電子信号、すなわちヘテロ
ダイン受信信号に変換し、また、この受信信号を電子帯
域通過フィルタ15に入力する。そして、ある周波数範囲
内に帯域制限して電子記憶制御部12にその信号を与え、
電子記憶制御部12に記憶されている発光周波数、発光強
度、或いは発光タイミング等のマッチングを行う。ま
た、周波数可変LD部14から周波数の異なる光を光検知器
13に与え、そこで受信光7の受信光周波数との差により
ヘテロダイン受信信号に変換してからマッチングを行う
方式や、光検知器13ではただ光周波数を電子信号に変換
するのみとし、その変換後に、電子記憶制御部12内の記
憶周波数と比較し、合致した信号周波数情報を周波数可
変LD部14に与える方式を用いてもよい。もしマッチする
周波数があるならば、周波数可変LD部14では、その受信
光周波数に対応する周波数で発振を強め、もし合致しな
い周波数であれば、その周波数の発振を弱める。すなわ
ち、周波数可変LD部14では、これらの光周波数f1〜fx
での発振の強弱をもった光を第1の光出力16として他の
ニューロチップに時分割的に出力する。そのため、この
タイプの光ニューロンモデルを用いたニューラルネット
ワークでは前段の光ニューロンモデルから後段の光ニュ
ーロンモデルへの光ネットワークはf1〜fxまでの周波数
が時分割多重化された形で出力され、各周波数fiが各ニ
ューロンモデルにおいて連想される項目に対応すること
になる。例えば、このニューロンモデルにおいて、特定
の周波数fiにおいて、そのfiとほぼ等しい受信周波数が
受信光7として入力された場合に、このニューロンモデ
ルからそのfiを持った光周波数のみが強い発振となり、
他の周波数の光の発振は弱められる。従って、このニュ
ーロンモデルはfiに対応する項目を連想していることに
なる。例えば、fiが「青」という色に対応する項目を連
想するものであれば、その青という項目に対応するfi
光周波数で発振が強められ、次段の光ニューロンモデル
にその光が伝送される。この光の伝送は空間上を直進
し、無配線の空間を直進するため、いわば目的とする光
ニューロンモデルに直接伝送することが可能となり、結
果として、全体のニューラルネットワークは目的にあっ
たネットワークに自己組織化されることになる。
Next, an embodiment of the present invention will be described with reference to the drawings. Second
The figure is an embodiment of the configuration of an optical neural network based on an optical neuron model based on the optical time division multiplexing system of the present invention. In the figure, the same parts as those in FIG. 1 are indicated by the same symbols. In the figure, 11 is an optical neurochip, 12 is an electronic memory control unit that stores the emission frequency, emission intensity, emission timing, etc., 13 is a photodetector that detects the received light received from another neuron model, and 14 is an optical detector. It is a variable-frequency LD-type associative transmission unit that scans from frequencies f 1 to f x , enhances oscillation at the received optical frequency when it matches within a certain range, and weakens oscillation at frequencies that do not match. Reference numeral 15 is an electronic bandpass filter for band-limiting the received optical frequency of reception. In this optical neuron model, light having the received optical frequency received by the photodetector 13 is converted into an electronic signal of a certain intermediate frequency, that is, a heterodyne received signal, and this received signal is input to the electronic bandpass filter 15. . Then, the signal is given to the electronic storage control unit 12 by band limiting within a certain frequency range,
Matching of the light emission frequency, the light emission intensity, the light emission timing, etc. stored in the electronic memory control unit 12 is performed. In addition, the variable frequency LD section 14 detects the light of different frequencies
13 and the matching is performed after converting to a heterodyne reception signal by the difference between the reception light frequency of the reception light 7 and the photodetector 13, and only the optical frequency is converted to an electronic signal, and after that conversion It is also possible to use a method of comparing the stored frequency in the electronic storage control unit 12 and giving the matched signal frequency information to the frequency variable LD unit 14. If there is a matching frequency, the frequency variable LD section 14 intensifies the oscillation at the frequency corresponding to the received optical frequency, and if the frequency does not match, weakens the oscillation at that frequency. That is, the variable frequency LD section 14 outputs the light having the oscillation intensity up to the optical frequencies f 1 to f x as the first optical output 16 to other neurochips in a time division manner. Therefore, in a neural network using this type of optical neuron model, the optical network from the optical neuron model in the previous stage to the optical neuron model in the subsequent stage is output in a form in which the frequencies from f 1 to f x are time-division multiplexed, Each frequency f i corresponds to an item associated with each neuron model. For example, in this neuron model, at a specific frequency f i , when a reception frequency almost equal to that f i is input as the received light 7, only the optical frequency having that f i from this neuron model becomes strong oscillation. ,
Oscillations of light of other frequencies are weakened. Therefore, this neuron model is associated with the item corresponding to f i . For example, if f i is associated with the item corresponding to the color “blue”, the oscillation is strengthened at the optical frequency of f i corresponding to the item blue, and the light is transmitted to the next-stage optical neuron model. Is transmitted. This light transmission goes straight in the space and straight in the unwired space, so it can be directly transmitted to the desired optical neuron model, and as a result, the whole neural network becomes a network suitable for the purpose. It will be self-organized.

第3図は本発明の空間多重化方式に基づく光ニューロ
ンモデルを基本とした光ニューラルネットワークの構成
の実施例図である。同図において、13は光を受信する光
検知器、15は受信した光周波数を帯域制限する電子帯域
通過フィルタ、12は発振周波数、発光強度、発光タイミ
ング等を記憶する電子記憶制御部、14′は受信光周波数
とある範囲内で合致した場合にその周波数の光の発振を
強め、合致しない周波数の光の発振を弱める機能を有
し、複数のレーザダイオード(LDS)がらなり、それら
から発生する光周波数f1〜fxを同時に多重化して伝送す
る連想伝送部である。
FIG. 3 is an embodiment diagram of the configuration of an optical neural network based on the optical neuron model based on the spatial multiplexing system of the present invention. In the figure, 13 is a photodetector for receiving light, 15 is an electronic bandpass filter for band limiting the received optical frequency, 12 is an electronic storage controller for storing oscillation frequency, emission intensity, emission timing, etc., 14 ' Has a function to increase the oscillation of light of the frequency when it matches with the received optical frequency within a certain range and weaken the oscillation of light of the frequency that does not match, and it is generated from multiple laser diodes (LDS). An associative transmission unit that simultaneously multiplexes and transmits optical frequencies f 1 to f x .

同一時間に複数の周波数を多重するという意味で時間
多重と言うことも可能である。
It can also be referred to as time multiplexing in the sense that multiple frequencies are multiplexed at the same time.

この方式では、ニューロン数に比較して少ない光周波
数多重数で足る。f1〜fMまでの周波数でf1から優先して
使用していく(第1の光出力すなわち下り方向)。発火
ニューロンからの光信号によりネットワークの光結合強
度(正or負)を決め、ネットワークを組織化する。
In this method, a smaller number of optical frequency multiplexes is sufficient than the number of neurons. The frequencies f 1 to f M are used with priority from f 1 (first optical output, that is, the downstream direction). The optical signal from the firing neuron determines the optical coupling strength (positive or negative) of the network and organizes the network.

第2の光出力すなわち上がり方向(フィードバック)
では、逆にfMの使用頻度を高め、f1では、頻度を最も低
くし、クロストークの減少を図る。その他は下り方向と
同様に機能する。
Second light output, that is, rising direction (feedback)
On the contrary, the frequency of use of f M is increased, and the frequency is reduced to the minimum at f 1 , to reduce crosstalk. Others function similarly to the downstream direction.

第2図の時分割多重化方式では、発振の強弱のある各
周波数の光を逐次に伝送する時分割多重化方式である
が、第3図の空間多重化方式ではこれらの発振の強弱の
ある周波数のすべての光を同時に伝送するもので、いわ
ば、同時に多数の他の光ニューロンモデルと通信でき、
複雑なニューラルネットワークが構成可能となる。
The time-division multiplexing method of FIG. 2 is a time-division multiplexing method in which light of each frequency having oscillation strength is sequentially transmitted, but the spatial multiplexing method of FIG. 3 has these oscillation strengths. It transmits all the light of a frequency at the same time, so to speak, it can communicate with many other optical neuron models at the same time.
Complex neural networks can be constructed.

第4図は本発明の光ニューロンモデルを相互に結合す
る導波型ネットワークの概念図である。同図において○
印は第2図又は第3図の光ニューロンモデルであり、例
えば送信においは、周波数可変型のレーザを用い、受信
する場合には周波数選択受光素子とゲート素子から構成
されるものを用いたもの、8は光伝送路の範囲を限定す
る導波プレート、9は光路である。本導波型ネットワー
クでは導波プレート8の左側にある層内の光ニューロン
モデルと導波プレートの右端にある層内の光ニューロン
モデル間を任意の光路で形成することが可能となる。
FIG. 4 is a conceptual diagram of a waveguide network in which the optical neuron models of the present invention are mutually coupled. In the figure
The mark indicates the optical neuron model shown in FIG. 2 or FIG. 3. For example, in the case of transmission, a variable frequency laser is used, and in the case of reception, one using a frequency selective light receiving element and a gate element is used. , 8 are waveguide plates that limit the range of the optical transmission path, and 9 is an optical path. In the present waveguide network, it is possible to form an arbitrary optical path between the optical neuron model in the layer on the left side of the waveguide plate 8 and the optical neuron model in the layer on the right end of the waveguide plate.

第5図は本発明による空間分配型ネットワークの構成
の概念図である。同図において○印は第2図又は第3図
のニューロンモデルで、この場合の光デバイスは送信デ
バイスに対しては面発光型の周波数可変レーザが用いら
れ、受信デバイスには面受光型の周波数選択受光素子が
用いられる。左側にある前段の層内の光ニューロンモデ
ルから右側にある次段の層内の光ニューロンモデルへの
光通信が矢印に示される光路10に従い、いわば、3次元
的な空間領域で光路が形成されるため、複雑なネットワ
ークを構築することが可能となる。
FIG. 5 is a conceptual diagram of the configuration of the space distribution type network according to the present invention. In the figure, the circles indicate the neuron model of FIG. 2 or 3, and in this case, the optical device uses a surface emitting type frequency tunable laser for the transmitting device and a surface receiving type of frequency for the receiving device. A selective light receiving element is used. Optical communication from the optical neuron model in the previous layer on the left side to the optical neuron model in the next layer on the right side follows the optical path 10 indicated by the arrow, so to speak, the optical path is formed in a three-dimensional spatial region. Therefore, it is possible to build a complicated network.

第6図は本発明のファイバ型ネットワークの構成の概
念図である。同図において○印は第2図又は第3図の本
発明の光ニューロンモデルで、21は光分配器、また22は
実線は光ファイバである。この本発明ファイバ型ネット
ワークは多層型のニューラルネットワークを構築するも
ので、更に光ファイバを用いるため、予め定めた目的指
向型の光配線構造となる。各光ニューロンモデルから送
信された光は光分配器21を介して次段の光ニューロンモ
デルに伝送され、さらに光分配器間では光ファイバを用
いて伝送されるため、空間上の光の干渉は全くなく、従
って、極めて信頼性の高いネットワークを構築すること
が可能となる。
FIG. 6 is a conceptual diagram of the configuration of the fiber type network of the present invention. In the figure, the mark ◯ is the optical neuron model of the present invention shown in FIG. 2 or 3, 21 is an optical distributor, and 22 is an optical fiber. This fiber type network of the present invention constructs a multilayer neural network, and further uses an optical fiber, so that it has a predetermined purpose-oriented optical wiring structure. The light transmitted from each optical neuron model is transmitted to the next-stage optical neuron model via the optical distributor 21, and is further transmitted between the optical distributors using the optical fiber, so that the interference of the light in space is prevented. There is none, and thus it is possible to construct a network with extremely high reliability.

本発明は、このように、受信光周波数とある範囲内で
合致した場合にそこでの発振を強め、合致しない周波数
での発振を弱めることにより、連想機能を有するもの
で、このような機能を有する光ニューロンモデルを種々
のネットワーク上に設置し、例えば多層型のニューラル
ネットワークを構築し、自己組織化することを可能とす
る。
As described above, the present invention has an associative function by strengthening the oscillation at the received light frequency within a certain range and weakening the oscillation at the non-matching frequency, and has such a function. The optical neuron model can be installed on various networks, and for example, a multilayer neural network can be constructed and self-organized.

第7図は本発明の光ニューロンモデルを基本としたニ
ューラルネットワークの具体的な実施例を示す。ここで
は、各ニューロンモデルは第3図の空間多重化方式に基
づくものが使用されているものとする。同図において、
x1〜xnは入力信号、x1〜xnが記述された○印は入力層の
ニューロンモデル、f1〜fpで示されている○印は中間層
のニューロンモデル、S1〜Smで示されている○印は出力
層の光ニューロンモデルである。入力層に入力される入
力信号x1〜xnは例えば「食い欠けのリンゴで虫つきのリ
ンゴである」という項目に対応するパターンとする。
FIG. 7 shows a concrete example of a neural network based on the optical neuron model of the present invention. Here, it is assumed that each neuron model is based on the spatial multiplexing method shown in FIG. In the figure,
x 1 to x n are input signals, x marks describing x 1 to x n are input layer neuron models, f 1 to f p are circle marks, middle layer neuron models, S 1 to S The circles indicated by m are optical neuron models in the output layer. The input signals x 1 to x n input to the input layer have a pattern corresponding to, for example, an item of “a bitter apple and an insect apple”.

入力層にある各光ニューロンモデルは入力情報の特徴
を抽出、又は連想するもので、入力信号x1〜xnへの各入
力信号ごと、すなわち入力の特定の情報毎に発火するも
のである。例えば23は○、□、△等の「型」を連想する
ニューロンモデルで、24は赤、グリーン、ブルー等の
「色」を検出するもの、25は大、中、小の「大きさ」を
連想するもの、26は線分の「傾き」を連想するもの、27
は「遠近」を連想するもの、28は空間的な「視野方向」
を連想するもの、29は「好き嫌い」を連想するものであ
る。これらの入力層における各ニューロンモデルでは入
力された入力情報の合致の大きさに比例して光結合の度
合いを強めたり、入力情報を光周波数f1〜fpの光の周波
数に順々に割り当て、1つの共通項は1つの光周波数を
用いる。また、与えられたx1〜xnの入力に対して、それ
に対応するn個の光ニューロンモデルがその情報に対応
して光変調を行うものであってもよい。いずれにしろ、
入力情報の特徴を各光ニューロンモデルで抽出し、その
特徴に対応する光を伝送するものである。例えば、最初
の光ニューロンモデル13においては、x1が入力された時
にはそれに対応する周波数はf1(x1)として発振が強め
られ、その他の入力x2〜xnに対応する周波数f1(x2)・
・・・,f1(xn)は弱い励振として伝送される。他の入
力層の場合も同様である。中間層にあるP個の光ニュー
ロンモデルでは、入力層の光ニューロンモデルからf
1(x1),f1(x2)・・・等の励振の強度の異なる光を受
信し、これらの信号の主要な情報をf1(x2)等として、
入力層の光ニューロンモデルに返し、さらにこれによ
り、f1(x2)等の共通情報、すなわち、x1の「型」を表
す周波数f1が励起され、さらにx2の特定の「色」を持っ
た項目とのANDとする共通情報として、f1(x2)のみが
励起され、これがフィルタリングされた情報f1(x1,x2,
x3・・・・xn)として収集される。すなわち、x1とx2
共通情報として「型」が丸くて「色」がグリーンである
という共通情報がf1の光ニューロンモデルから励振され
る。これが出力層のニューロンモデルに与えられる。出
力層の各ニューロンモデルでは、中間層のニューロンモ
デル群より与えられた共通情報としてのf1(x1,x2・・
・xn)、f2(x1,x2・・・xn)、・・、fp(x1,x2,・・
・xn)等で示される共通情報群のANDがさらにとられ、
その結果が記憶されている記憶情報と照合され、肯定、
否定等を判断することになる。これらの記憶された概念
は各出力層のS1〜Snのニューロン内にある。すなわち、
出力層のSiにおいては教師信号がSiであり、fi(x1,x2,
x3,・・・xp)とこの教師信号Siとの最小2乗誤差が計
算され、その差がもっとも小さいSiが連想されたものと
して発火され、それが行動制御となる。
Each optical neuron model in the input layer extracts or associates the characteristics of the input information, and is fired for each input signal to the input signals x 1 to x n , that is, for each specific information of the input. For example, 23 is a neuron model that is associated with “types” such as ○, □, and Δ, 24 is for detecting “color” such as red, green, and blue, and 25 is for “size” of large, medium, and small. 26 is associated with the "inclination" of the line segment, 27
Is associated with "perspective", 28 is spatial "view direction"
29 is associated with "like and dislike". In each neuron model in these input layers, the degree of optical coupling is increased in proportion to the size of the match of the input information input, and the input information is assigned to the optical frequencies f 1 to f p in order. One common term uses one optical frequency. In addition, for a given input of x 1 to x n , n optical neuron models corresponding thereto may perform optical modulation corresponding to the information. in any case,
The feature of the input information is extracted by each optical neuron model, and the light corresponding to the feature is transmitted. For example, in the first optical neuron model 13, a frequency corresponding thereto when x 1 is input, the oscillation is strengthened as f 1 (x 1), the frequency f 1 corresponding to the other input x 2 ~x n ( x 2 ) ・
..., f 1 (x n ) is transmitted as a weak excitation. The same applies to other input layers. In the P optical neuron model in the intermediate layer, f from the optical neuron model in the input layer
1 (x 1 ), f 1 (x 2 ), etc. are received, and light with different intensity of excitation is received, and the main information of these signals is f 1 (x 2 ) etc.,
It is returned to the optical neuron model of the input layer, which in turn excites common information such as f 1 (x 2 ), that is, the frequency f 1 that represents the “type” of x 1 and also the specific “color” of x 2. As the common information to be ANDed with the item with, only f 1 (x 2 ) is excited, and this is filtered information f 1 (x 1 , x 2 ,
x 3 ... x n ). That is, as the common information of x 1 and x 2, the common information that the “type” is round and the “color” is green is excited from the optical neuron model of f 1 . This is given to the neuron model in the output layer. In each neuron model of the output layer, f 1 (x 1 , x 2 ...
・ X n ), f 2 (x 1 ,, x 2 ... x n ), ・ ・, f p (x 1 ,, x 2 , ・ ・
・ And the common information group shown by x n ) etc. is further taken,
The result is collated with the stored information, affirmative,
Negatives will be judged. These stored concepts are in the S 1 -S n neurons of each output layer. That is,
In S i of the output layer, the teacher signal is S i , and f i (x 1 , x 2 ,
x 3, ··· x p) and the minimum squared error between the teacher signal S i is calculated, the difference is ignited as smallest S i is associative, so that it behavior control.

このようなネットワークにおいて、連想するべきサブ
ネットワークは特徴注目点数だけ作られ、このサブネッ
トワークの総数がP個であるとし、これらとf1〜fpの光
周波数が割り合てられる。学習時には入力情報の目立っ
た特徴を中心に組立られ、自己組織化される。例えば図
では文型の入力情報x1の色として赤が目立つ場合には、
x2のニューロンでは、RGBの中で「赤」に対応して光変
調がなされ、光周波数として割り当てられる。この光周
波数はf1〜fpの順に選択され、f1(x2)の周波数が励振
される。これが中間層のニューロンでf1(x2)の信号が
増幅され、周囲に分配され放送されることになる。その
ため、入力情報は赤色フィルタで振るいにかけされ、さ
らに共通項、f1(x2)に関する関係のある型、例えば丸
印のf1(x1)や、その視方向情報f1(x6)等が同じ周波
数f1で放送され、これが中間層の特定の少数の光ニュー
ロンモデルでまとめられ、ここからf1(x1,x2,x3,・・
・xn)の情報として出力層のニューロンに伝送される。
同様にして、f2で発光するニューロンはその光周波数f2
を用いて、別の目立った情報を抽出する。この場合、リ
ンゴの食い欠けの部分を示す情報であるとすれば、この
型は入力層でf1(x1)として発光する。そして中間層の
ニューロンがf2(x1)で強調発光し、さらにフィルタリ
ングされて共通の情報に注目して内容がf2でまとめられ
f2で励振される。このことで着目していた特徴が抽出さ
れ、中間層のニューロンではf2(x1,x2,・・・xn)とな
って出力層のニューロンに伝達される。f1,f2と同様に
して、fpまでの特徴がそれぞれ第7図のネットワーク上
に形成される。さらに、相関情報の場合には、f1(x1,
・・・xn)とf2(x1・・・・xn)を合わせたものとして
統合される。そして、出力相では、同一の概念Siを有す
るニューロンモデルが発火し、情報の概念を次々に洗い
出して出力することになる。出力層のニューロンモデル
の入力情報の集合は、 Σ(fi(x1,x2・・・xp)) で表現される。また、教師信号は記憶された概念の情報
として Si=Si(x1,x2,・・・xn) とする。前記入力情報の集合は記憶している情報、Si
比較され、 が計算される。ここで1( )は量子化関数である。
In such a network, sub-networks to be associated are created by the number of characteristic points of interest, the total number of sub-networks is P, and these are divided by the optical frequencies f 1 to f p . At the time of learning, it is assembled around the salient features of the input information and self-organized. For example, in the figure, if red is noticeable as the color of sentence pattern input information x 1 ,
In the x 2 neuron, light modulation is performed corresponding to “red” in RGB and assigned as an optical frequency. This optical frequency is selected in the order of f 1 to f p , and the frequency of f 1 (x 2 ) is excited. This means that the neuron in the middle layer amplifies the f 1 (x 2 ) signal and distributes it to the surroundings for broadcasting. Therefore, the input information is filtered by a red filter, and the related terms related to the common term, f 1 (x 2 ), such as the circled f 1 (x 1 ), and its viewing direction information f 1 (x 6 ), Etc. are broadcast at the same frequency f 1 , which is summarized by a specific small number of optical neuron models in the middle layer, from which f 1 (x 1 , x 2 , x 3 , ...
Xn ) information is transmitted to the neurons in the output layer.
Similarly, neurons emitting at f 2 is the optical frequency f 2
To extract another salient information. In this case, if the information is the information indicating the biting part of the apple, this pattern emits as f 1 (x 1 ) in the input layer. Then, neurons in the middle layer emit light with emphasis at f 2 (x 1 ), and are further filtered to focus on the common information and summarize the contents at f 2.
Excited at f 2 . This causes the feature of interest to be extracted and transmitted to the neurons in the output layer as f 2 (x 1 , x 2 , ... x n ) in the neurons in the intermediate layer. Similar to f 1 and f 2 , features up to f p are formed on the network of FIG. 7, respectively. Further, in the case of correlation information, f 1 (x 1 ,
... x n ) and f 2 (x 1 ... x n ) are combined. Then, in the output phase, the neuron models having the same concept S i are fired, and the concept of information is sequentially extracted and output. The set of input information of the neuron model in the output layer is represented by Σ (f i (x 1 , x 2 ... x p )). Further, the teacher signal is S i = S i (x 1 , x 2 , ... x n ) as stored concept information. The set of input information is compared to stored information, S i , Is calculated. Here, 1 () is a quantization function.

DiはSiとの照合の結果であり、例えば1(x)をxが
正ならば1、0ならば0、負であるならば、−1を出力
する量子化関数とすれば、Diが1であれば肯定、−1で
あれば否定を表することになる。例えば D1=1(Σf1(x1,・・xn)−S1)よりリンゴ D2=1(Σf1(x1,・・xn)−S2)より食い欠け D3=1(Σf1(x1,・・xn)−S3)より虫 となる。
D i is the result of collation with S i . For example, if 1 (x) is a quantization function that outputs 1 if x is positive, 0 if 0, and -1 if negative, then D i If i is 1, it means positive, and if -1, it means negative. For example D 1 = 1 (Σf 1 ( x 1, ·· x n) -S 1) from apple D 2 = 1 (Σf 1 ( x 1, ·· x n) -S 2) from eating chipping D 3 = 1 It becomes an insect from (Σf 1 (x 1 , ··· x n ) −S 3 ).

さらにこれらのAND情報の相関は、他のニューロンモ
デルの共通性に対する連想により、「虫がつき食い欠け
のあるリンゴ」としてその出力ニューロンモデルから対
応する光周波数の光信号が出力される。
Further, the correlation of these AND information is that the output neuron model outputs an optical signal of the corresponding optical frequency as "apple with insect bite and lack of bite" due to the association with the commonality of other neuron models.

このような多層型のニューラルネットワークは第2図
の時分割多重化方式の光ニューロンモデルを用いて構成
することもでき、この場合には時間的に周波数f1〜fp
切り換えることになる。従って、P個のネットワークを
時分割にて構成することになり、さらに入力層、中間
層、出力層のニューロンモデル群はそれぞれ時分割切り
換え方式によるフレームメモリの機能が必要となる。
Such a multilayer neural network can be constructed by using the optical neuron model of the time division multiplexing system shown in FIG. 2, and in this case, the frequencies f 1 to f p are switched over time. Therefore, the P networks are configured by time division, and the neuron model groups of the input layer, the intermediate layer, and the output layer need the function of the frame memory by the time division switching method.

〔発明の効果〕〔The invention's effect〕

本発明によれば、あらかじめ配線を施す必要なしにニ
ューラルネットワークを効率的に構成できる。
According to the present invention, a neural network can be efficiently constructed without the need for wiring in advance.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の原理ブロック図、 第2図は本発明の光時分割多重化方式に基づく光ニュー
ロンモデルによる光ニューラルネットワークの構成の実
施例を示すブロック図、 第3図は本発明の空間多重化方式に基づく光ニューロン
モデルを基本とした光ニューラルネットワークの構成の
実施例を示すブロック図、 第4図は本発明の光ニューロンモデルを相互に結合する
導波型ネットワークの概念図、 第5図は本発明による空間分配型ネットワークの構成の
概念図、 第6図は本発明のファイバ型ネットワークの構成の概念
図、 第7図は本発明の光ニューロンモデルを基本としたニュ
ーラルネットワークの具体的な実施例の説明図である。 1……光ニューロンモデル、 2……記憶手段、 3……入力手段、 4……連想伝送手段、 5……電子処理手段、 6……第1光出力、 2……受信光.
FIG. 1 is a block diagram showing the principle of the present invention, FIG. 2 is a block diagram showing an embodiment of the configuration of an optical neural network by an optical neuron model based on the optical time division multiplexing system of the present invention, and FIG. FIG. 4 is a block diagram showing an embodiment of the configuration of an optical neural network based on an optical neuron model based on the spatial multiplexing method. FIG. 4 is a conceptual diagram of a waveguide network for mutually connecting optical neuron models of the present invention. FIG. 5 is a conceptual diagram of the configuration of the spatial distribution type network according to the present invention, FIG. 6 is a conceptual diagram of the configuration of the fiber type network of the present invention, and FIG. 7 is a concrete example of a neural network based on the optical neuron model of the present invention. It is an explanatory view of a typical example. 1 ... Optical neuron model, 2 ... Storage means, 3 ... Input means, 4 ... Associative transmission means, 5 ... Electronic processing means, 6 ... First optical output, 2 ... Received light.

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】光ニューロンモデル(1)を基本として構
成されるニューラルネットワークにおいて、 各光ニューロンモデル(1)は複数の光情報を有する光
信号を時分割的あるいは空間分割的に入力し(3)、 あらかじめ該光ニューロンモデル(1)に割り当てられ
ている光情報(2)に対応した光情報を有する光信号の
出力を大きくし、前記割り当てられている光情報(2)
とは異なる光情報を有する光信号の出力を小さくして時
分割的あるいは空間分割的に出力する(4)ことにより
ネットワークを順次構成することを特徴とする光ニュー
ラルネットワーク。
1. In a neural network constructed on the basis of an optical neuron model (1), each optical neuron model (1) inputs an optical signal having a plurality of optical information in a time division or space division manner (3 ), Increasing the output of an optical signal having optical information corresponding to the optical information (2) assigned to the optical neuron model (1) in advance, and assigning the assigned optical information (2)
An optical neural network characterized in that the network is sequentially constructed by reducing the output of an optical signal having optical information different from that of (4) and outputting in a time-divisional or space-divisional manner (4).
【請求項2】光ニューロンモデル(1)を基本とする光
ニューラルネットワークにおいて、 前記光ニューロンモデルは受信した受信光(7)を検知
し、電子信号に変換する入力手段と、 学習時にあらかじめ連想するべき項目に対応する光情報
を、記憶信号として記憶する記憶手段(2)と、 連想時に前記電子信号と前記記憶信号を比較し合致した
記憶信号に対応する周波数の発振を強め他の周波数での
発振を弱めて形成される光を出力する連想伝送手段
(4)とを有することを特徴とする光ニューラルネット
ワーク。
2. An optical neural network based on an optical neuron model (1), wherein said optical neuron model detects the received light (7) received and converts it into an electronic signal, and associates it beforehand during learning. A storage means (2) for storing optical information corresponding to an item to be stored as a storage signal, and the electronic signal and the storage signal are compared at the time of association to enhance oscillation of a frequency corresponding to the matched storage signal, An optical neural network having an associative transmission means (4) for weakening oscillation and outputting light formed.
【請求項3】光ニューロンモデル(1)を基本とする光
ニューラルネットワークにおいて、 前記光ニューロンモデルは受信した受信光(7)を検知
し、時分割的に走査される光周波数から光ヘテロダイン
方式により電子信号に変換する入力手段(3)と、 前記電子信号から所望の処理信号を得る電子処理手段
(5)と、 学習時にあらかじめ連想するべき項目に対応する光情報
を記憶信号として記憶する記憶手段(2)と、 連想時に前記電子信号と前記記憶信号を比較し合致した
記憶信号に対応する光周波数の発振を強め他の周波数で
の発振を弱めて形成される光を時分割的に出力するとと
もに前記入力手段に時分割的に送出する連想伝送手段
(4)とを有することを特徴とする光ニューラルネット
ワーク。
3. An optical neural network based on an optical neuron model (1), wherein the optical neuron model detects received light (7) received, and uses an optical heterodyne method from optical frequencies scanned in a time division manner. An input means (3) for converting into an electronic signal, an electronic processing means (5) for obtaining a desired processed signal from the electronic signal, and a storage means for storing optical information corresponding to an item to be associated beforehand in learning as a storage signal. (2) When associatively, the electronic signal and the stored signal are compared, and the oscillation of the optical frequency corresponding to the matched stored signal is strengthened and the oscillation at another frequency is weakened, and the formed light is output in a time division manner. And an associative transmission means (4) for sending to the input means in a time division manner.
【請求項4】光ニューロンモデル(1)を基本とする光
ニューラルネットワークにおいて、 前記光ニューロンモデルは受信した受信光(7)を検知
し、空間的に走査される光周波数から光ヘテロダイン方
式により電子信号に変換する入力手段(3)と、 前記電子信号から所望の処理信号を得る処理手段(5)
と、 学習時にあらかじめ連想するべき項目に対応する光情報
を記憶信号として記憶する記憶手段(2)と、 連想時に前記電子信号と前記記憶信号を比較し合致した
記憶信号に対応する周波数の発振を強め他の周波数での
発振を弱めて形成される光を空間分割的で出力するとと
もに前記入力手段に空間分割的に送出する連想伝送手段
(4)とを有することを特徴とする光ニューラルネット
ワーク。
4. An optical neural network based on an optical neuron model (1), wherein the optical neuron model detects received light (7) received, and electronically uses an optical heterodyne method from a spatially scanned optical frequency. Input means (3) for converting into a signal, and processing means (5) for obtaining a desired processed signal from the electronic signal
A storage means (2) for storing, as a storage signal, optical information corresponding to an item to be associated in advance during learning; and an oscillation of a frequency corresponding to the matched storage signal by comparing the electronic signal with the storage signal during association. An optical neural network, comprising: associative transmission means (4) for outputting light formed by strengthening and weakening oscillations at other frequencies in a space-division manner and sending it to the input means in a space-division manner.
JP63255979A 1988-10-13 1988-10-13 Optical neural network Expired - Lifetime JP2690755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63255979A JP2690755B2 (en) 1988-10-13 1988-10-13 Optical neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63255979A JP2690755B2 (en) 1988-10-13 1988-10-13 Optical neural network

Publications (2)

Publication Number Publication Date
JPH02105212A JPH02105212A (en) 1990-04-17
JP2690755B2 true JP2690755B2 (en) 1997-12-17

Family

ID=17286222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63255979A Expired - Lifetime JP2690755B2 (en) 1988-10-13 1988-10-13 Optical neural network

Country Status (1)

Country Link
JP (1) JP2690755B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020189741A1 (en) * 2019-03-20 2020-09-24

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H.J.Gaultield著,Optical Algebraic Processing Architectures and Algorithms,Vol.456,p2−p14,SPIE

Also Published As

Publication number Publication date
JPH02105212A (en) 1990-04-17

Similar Documents

Publication Publication Date Title
US5704016A (en) Temporal learning neural network
CN114595773B (en) Multi-source heterogeneous twin data fusion method and system based on factory production process
Casasent et al. Adaptive-clustering optical neural net
GB2245401A (en) Neural network signal processor
CA2412963A1 (en) Apparatus for generating sequences of elements
US5257342A (en) Learning method for a data processing system with neighborhoods
Tan et al. Efficient identification of RBF neural net models for nonlinear discrete-time multivariable dynamical systems
JP2690755B2 (en) Optical neural network
US5220642A (en) Optical neurocomputer with dynamic weight matrix
Pierre et al. An artificial neural network approach for routing in distributed computer networks
Tsinas et al. A combined neural and genetic learning algorithm
JPH06295351A (en) Neural network having lateral mutual connection
JPH0581227A (en) Neuron system network signal processor and method of processing signal
Zhao et al. Auxiliary Fault Location on Commercial Equipment Based on Supervised Machine Learning
Maren A logical topology of neural networks
EP0310003B1 (en) Element checking system for use in forward inference system
US5418886A (en) Knowledge information processing system including two associative memory groups each including a plurality of associated memory units
Chaudhuri et al. Neural networks for data fusion
SIMPSON Neural network paradigms
JPH096881A (en) Neural network
JPH0830708A (en) Neural function element
Hoffmann Evolutionary learning of mobile robot behaviors
JPH05242063A (en) Neural network system
Liu et al. A global optimized neuro-fuzzy system using artificial bee colony evolutionary algorithm
Galushkin et al. Neural network expert system