JPH04246766A - Neural network - Google Patents

Neural network

Info

Publication number
JPH04246766A
JPH04246766A JP3031352A JP3135291A JPH04246766A JP H04246766 A JPH04246766 A JP H04246766A JP 3031352 A JP3031352 A JP 3031352A JP 3135291 A JP3135291 A JP 3135291A JP H04246766 A JPH04246766 A JP H04246766A
Authority
JP
Japan
Prior art keywords
neuron
complex number
neural network
neurons
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3031352A
Other languages
Japanese (ja)
Other versions
JPH07111714B2 (en
Inventor
Toru Nitta
徹 新田
Tatsumi Furuya
古谷 立美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP3031352A priority Critical patent/JPH07111714B2/en
Publication of JPH04246766A publication Critical patent/JPH04246766A/en
Publication of JPH07111714B2 publication Critical patent/JPH07111714B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To set the complex number as a processing object by a simple circuit configuration by providing an arithmetic means for executing an arithmetic processing related to the complex number instead of a neuron. CONSTITUTION:A neural network 1 inputs a complex number being a component of a complex number pattern of an inputted recognition object to neurons 11-1n. The neurons 11-1n transmit the inputted complex number and a real part of a parameter managed by each one to an arithmetic means 2. The arithmetic means 2 calculates a complex number outputted to the neuron of the downstream side from an imaginary part of the stored parameter, the real part of the parameter obtained from each neuron, and a complex pattern. Subsequently, a result of calculation is transmitted to the neurons 11-1n. The neurons 11-1n output the complex number obtained from the arithmetic means 2 in accordance with coupling between the neurons to other neuron.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はニューラルネットワーク
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to neural networks.

【0002】0002

【従来の技術】ニューラルネットワークは数値計算やパ
ターン認識のために複数の学習機能を有するニューロン
をネットワーク的に接続した回路である。各ニューロン
は他のニューロンから出力された信号を入力し、ニュー
ロン内において、入力信号の示す数値情報を予め定めら
れた演算式に代入し、上記演算式の演算結果を信号出力
する。演算式は変数部および定数から構成され、変数部
に上記入力信号の示す数値情報が代入される。定数部は
重み係数やしきい値に用いられ予め学習により決定され
る。具体的には、予め、任意のパターン情報をいくつか
ニューラルネットワークに与え、ニューラルネットワー
クの出力信号パターンが所望のものとなるように各ニュ
ーロンの演算式における定数部の値を学習により決定す
る。
2. Description of the Related Art A neural network is a circuit in which neurons having a plurality of learning functions are connected in a network manner for numerical calculation and pattern recognition. Each neuron receives signals output from other neurons, substitutes numerical information indicated by the input signal into a predetermined arithmetic expression within the neuron, and outputs the result of the arithmetic expression as a signal. The arithmetic expression is composed of a variable part and a constant, and numerical information indicated by the input signal is substituted into the variable part. The constant part is used for weighting coefficients and threshold values and is determined in advance by learning. Specifically, some arbitrary pattern information is given to the neural network in advance, and the value of the constant part in the arithmetic expression of each neuron is determined by learning so that the output signal pattern of the neural network becomes a desired one.

【0003】このようなニューラルネットワークにはニ
ューロンを階層状に接続した階層型ニューラルネットワ
ークや特定のニューラルネットワークを相互に接続した
相互結合型ニューラルネットワークが知られている。
[0003] As such neural networks, a hierarchical neural network in which neurons are connected in a hierarchical manner and a mutually coupled neural network in which specific neural networks are interconnected are known.

【0004】従来、この種のニューラルネットワークに
おいては、処理される信号パターンは実数から成るもの
であった。
Conventionally, in this type of neural network, the signal patterns processed were made up of real numbers.

【0005】たとえば、階層型ニューラルネットワーク
については、Rumelhart,D.E.;Para
llel  Distributed  Proces
sing,Chap.8,Vol.1,The  MI
T  Press,1986.(甘利俊一  監修:P
DPモデル  認知科学とニューロ回路網の探索、第8
章、産業図書、1989)、相互結合型ニューラルネッ
トワークについては、Hopfield,J.J.:N
eural  network  and  phys
icalsystems  with  emerge
nt  collectivecomputation
al  abilities,Proc.Natl.A
cad.Sci.USA,vol.79,1982.が
ある。
For example, regarding hierarchical neural networks, Rumelhart, D. E. ;Para
llel Distributed Processes
sing, Chap. 8, Vol. 1.The MI
T Press, 1986. (Supervised by Shunichi Amari: P
DP Model: Exploration of Cognitive Science and Neuronal Networks, Part 8
Chapter, Sangyo Tosho, 1989); Hopfield, J. J. :N
ural network and phys
ical systems with emerge
nt collective computation
al abilities, Proc. Natl. A
cad. Sci. USA, vol. 79, 1982. There is.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
ニューラルネットワークでは、ニューロンの実行する演
算は実数を演算対象としているので、複素数演算(ベク
トル演算とも呼ばれる)すなわち、実数部と虚数部のよ
うに2種以上の数値情報からなる入力パターンに対して
ニューロンが演算処理を施すことができない。その結果
、従来のニューラルネットワークでは複素数で表わされ
るパターン情報を処理対象とすることができないという
解決すべき課題があった。
[Problems to be Solved by the Invention] However, in conventional neural networks, the operations performed by neurons are based on real numbers, so complex number operations (also called vector operations), that is, two Neurons cannot perform arithmetic processing on input patterns consisting of more than one type of numerical information. As a result, there has been a problem that conventional neural networks cannot process pattern information represented by complex numbers.

【0007】そこで、本発明の目的は、このような点に
鑑みて、簡単な回路構成で複素数を処理対象とすること
ができるニューラルネットワークを提供することにある
SUMMARY OF THE INVENTION In view of the above, an object of the present invention is to provide a neural network that can process complex numbers with a simple circuit configuration.

【0008】[0008]

【課題を解決するための手段】このような目的を達成す
るために、本発明は、学習機能を有する複数のニューロ
ンをネットワーク的に接続したニューラルネットワーク
において、入力のパターンが複素数で表わされる場合に
、前記ニューロンの各々に代り、複素数についての演算
処理を実行する演算手段を具えたことを特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a neural network in which a plurality of neurons having a learning function are connected in a network manner, when an input pattern is represented by a complex number. , the apparatus is characterized in that, in place of each of the neurons, an arithmetic means for performing arithmetic processing on complex numbers is provided.

【0009】本発明は、学習機能を有する複数のニュー
ロンをネットワーク的に接続したニューラルネットワー
クにおいて、前記ニューロンの各々は、当該ニューロン
に信号形態で入力される複素数を実数部と虚数部に分離
する分離手段と、当該分離された実数部および虚数部に
ついてそれぞれ予め定められた演算式に従って演算処理
を実行する複数の演算処理手段と、当該複数の演算処理
手段により実行された演算処理の結果を複素数に合成す
る合成手段とを具えたことを特徴とする。
The present invention provides a neural network in which a plurality of neurons having a learning function are connected like a network, in which each of the neurons has a separation function that separates a complex number inputted to the neuron in the form of a signal into a real part and an imaginary part. means, a plurality of arithmetic processing means for performing arithmetic processing according to predetermined arithmetic expressions for the separated real part and imaginary part, and converting the result of the arithmetic processing performed by the plurality of arithmetic processing means into a complex number. It is characterized by comprising a synthesis means for synthesizing.

【0010】0010

【作用】本発明では、従来のニューラルネットワークを
用いることができるように各ニューロンに代り複素数の
演算を専用の演算処理たとえばコンピュータ等の計算機
により実行する。さらに、複素数の演算を行う場合に実
数部と虚数部とを別個に分離して実行することが可能な
点に着目し、各ニューロンにおいて複素数演算ができる
ように、入力信号の表わす複素数を実数部と虚数部に分
離して、各演算手段において別個の演算を行い、その演
算結果を合成する。
In the present invention, complex number operations are executed by a dedicated arithmetic processing device such as a computer instead of each neuron so that a conventional neural network can be used. Furthermore, when performing complex number operations, we focused on the fact that the real and imaginary parts can be separated and executed separately. and the imaginary part, separate calculations are performed in each calculation means, and the results of the calculations are combined.

【0011】[0011]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0012】図1は本発明実施例の基本構成を示す。FIG. 1 shows the basic configuration of an embodiment of the present invention.

【0013】図1において、ニューラルネットワーク1
内において、複数のニューロン11〜1nがネットワー
ク的に接続されている。各ニューロンは学習機能を有す
る従来のニューロンを用いることができる。ただし従来
のニューロンは実数の演算しか実行できないので、本実
施例では複素数の演算が可能な演算手段2により、ニュ
ーロンの実行すべき複素数についての演算処理を実行す
る。
In FIG. 1, neural network 1
Inside, a plurality of neurons 11 to 1n are connected like a network. Each neuron can be a conventional neuron with a learning function. However, since a conventional neuron can only perform calculations on real numbers, in this embodiment, the calculation means 2 capable of calculating complex numbers executes the calculation processing on complex numbers that the neuron should perform.

【0014】以下、本発明実施例の動作説明を図2のフ
ローチャートに従って説明する。
The operation of the embodiment of the present invention will be explained below with reference to the flowchart shown in FIG.

【0015】まず、ステップ21において、ニューラル
ネットワーク1に1つの学習パターンが入力される。こ
こで、学習パターンとは、入力学習パターンと出力学習
パターンとから成るものであり、出力学習パターンは、
入力学習パターンがニューラルネットワーク1に入力さ
れた場合、ニューラルネットワーク1に出力して欲しい
パターンをあらわすものである。入力学習パターンおよ
び出力学習パターンは複素数パターンであるとする。複
素数パターンとは、複素数から成るパターンのことであ
り、パターンとは数値を構成要素とするベクトルである
。例えば、(a1…an)は複素数パターンである(但
し、aiは複素数)。さらに、ステップ21においては
、ニューラルネットワーク1が入力学習パターンの構成
要素である複素数を各ニューロン11,…,ニューロン
1nに入力するとともに、出力学習パターンを記憶して
おく。次に、ステップ22において、各ニューロン11
,…,ニューロン1nは入力された複素数と各自が管理
している重み係数やしきい値のパラメータの実部を演算
手段2に伝える。このとき、演算手段2は記憶している
パラメータの虚部と各ニューロン11,…,ニューロン
1nから得た複素数とパラメータの実部から各ニューロ
ン11,…,ニューロン1nが出力する複素数を予め定
められた演算により算出し、各ニューロン11,…,ニ
ューロン1nに伝える。各ニューロン11,…,ニュー
ロン1nは演算手段2から得た複素数を他のニューロン
11,…,ニューロン1nにニューロン間の結合に従っ
て出力する。下流側のニューロンは上流側のニューロン
から入力された複素数と各自が管理しているパラメータ
の実部を演算手段2に伝える。演算手段2は記憶してい
るパラメータの虚部と各ニューロン11,…,ニューロ
ン1nから得た複素数とパラメータの実部から各ニュー
ロン11,…,ニューロン1nが出力する複素数を算出
し、さらに下流の各ニューロンに伝える。このニューロ
ン間のやりとりを複数回(この場合、k回とする)繰り
返す。次に、ステップ23において、ニューラルネット
ワーク1に入力される学習パターンがこれ以上無いと判
定した場合は、ステップ24に進み、学習パターンが有
る場合はステップ21に戻る。ステップ24において、
全てのニューロンの出力値が確定した段階でニューラル
ネットワーク1は記憶していた出力学習パターンと各ニ
ューロン11,…,ニューロン1nの出力値を演算手段
2に伝える。演算手段2は、得た出力学習パターンと各
ニューロン11,…,ニューロン1nの出力値との誤差
を求め、ニューラルネットワーク1に伝える。 このとき、ニューラルネットワーク1は得られた誤差が
予め定めたしきい値より小さいときに学習完了と判定す
る。学習完了の場合はステップ26に進む。学習完了で
ない場合は、ステップ25において、誤差および各ニュ
ーロン11,…,ニューロン1nが記憶しているパラメ
ータの実部をニューラルネットワーク1が演算手段2に
伝える。このとき、演算手段2は得られた誤差と各ニュ
ーロン11,…,ニューロン1nが記憶しているパラメ
ータの実部と、演算手段2自身が記憶しているパラメー
タの虚部とからパラメータの新しい値を決め、演算手段
2自身が記憶しているパラメータの虚部を更新するとと
もに、パラメータの実部の新しい値を各ニューロン11
,…,ニューロン1nに伝える。各ニューロン11,…
,ニューロン1nは得られたパラメータの実部の新しい
値によりパラメータの実部を更新する。その後、ステッ
プ21に戻る。
First, in step 21, one learning pattern is input to the neural network 1. Here, the learning pattern consists of an input learning pattern and an output learning pattern, and the output learning pattern is
When an input learning pattern is input to the neural network 1, it represents a pattern that is desired to be output from the neural network 1. It is assumed that the input learning pattern and the output learning pattern are complex number patterns. A complex number pattern is a pattern made of complex numbers, and a pattern is a vector whose constituent elements are numerical values. For example, (a1...an) is a complex number pattern (however, ai is a complex number). Furthermore, in step 21, the neural network 1 inputs complex numbers that are constituent elements of the input learning pattern to each neuron 11, . . . , neuron 1n, and stores the output learning pattern. Next, in step 22, each neuron 11
,..., the neurons 1n transmit the input complex numbers and the real parts of weighting coefficients and threshold parameters managed by each neuron to the calculation means 2. At this time, the calculation means 2 predetermines the complex numbers output by each neuron 11,..., neuron 1n from the imaginary part of the stored parameter, the complex number obtained from each neuron 11,..., neuron 1n, and the real part of the parameter. , and is transmitted to each neuron 11, . . . , neuron 1n. Each neuron 11, . . . , neuron 1n outputs the complex number obtained from the calculation means 2 to other neurons 11, . The neurons on the downstream side transmit the complex numbers input from the neurons on the upstream side and the real parts of the parameters managed by each neuron to the calculation means 2. The calculation means 2 calculates the complex numbers output by each neuron 11,..., neuron 1n from the imaginary part of the stored parameter, the complex number obtained from each neuron 11,..., neuron 1n, and the real part of the parameter, and further calculates the complex number output by each neuron 11,..., neuron 1n. tell each neuron. This interaction between neurons is repeated multiple times (k times in this case). Next, in step 23, if it is determined that there are no more learning patterns to be input to the neural network 1, the process proceeds to step 24, and if there are learning patterns, the process returns to step 21. In step 24,
When the output values of all neurons are determined, the neural network 1 transmits the stored output learning pattern and the output values of each neuron 11, . . . , neuron 1n to the calculation means 2. The calculation means 2 calculates the error between the obtained output learning pattern and the output value of each neuron 11, . . . , neuron 1n, and transmits it to the neural network 1. At this time, the neural network 1 determines that learning is complete when the obtained error is smaller than a predetermined threshold. If learning is completed, proceed to step 26. If the learning is not completed, in step 25, the neural network 1 transmits the error and the real part of the parameters stored in each neuron 11, . . . , neuron 1n to the calculation means 2. At this time, the calculation means 2 uses the obtained error, the real part of the parameter stored in each neuron 11,..., neuron 1n, and the imaginary part of the parameter stored in the calculation means 2 itself to create a new value for the parameter. is determined, the imaginary part of the parameter stored in the calculation means 2 itself is updated, and the new value of the real part of the parameter is sent to each neuron 11.
,..., is transmitted to neuron 1n. Each neuron 11,...
, neuron 1n updates the real part of the parameter with the obtained new value of the real part of the parameter. After that, the process returns to step 21.

【0016】ステップ26においては、ニューラルネッ
トワーク1に入力学習パターンと同じであるとは限らな
い1つの複素数パターンが入力される。このとき、ニュ
ーラルネットワーク1は入力された認識対象の複素数パ
ターンの構成要素である複素数をニューロン11,…,
ニューロン1nに入力する。次に、ステップ27におい
て、ニューロン11,…,ニューロン1nは、入力され
た複素数と各自が管理しているパラメータの実部を演算
手段2に伝える。演算手段2は記憶しているパラメータ
の虚部,パラメータの実部および複素数パターンから下
流側のニューロンに出力する複素数を算出し、算出結果
を下流側の各ニューロンに伝える。この処理を繰り返す
ことにより、みかけ上はニューロンが複素数の演算を行
ったようにしてニューラルネットワーク1から出力値を
出力する。次に、ステップ28において、ニューラルネ
ットワーク1に入力される他の複素数パターンが無い場
合は処理を終了し、他の複素数パターンが有る場合はス
テップ26に戻る。
In step 26, one complex pattern, which is not necessarily the same as the input learning pattern, is input to the neural network 1. At this time, the neural network 1 converts the complex numbers that are the constituent elements of the input complex number pattern to be recognized into the neurons 11,...,
Input to neuron 1n. Next, at step 27, the neurons 11, . The calculation means 2 calculates a complex number to be output to the neurons on the downstream side from the stored imaginary part of the parameter, the real part of the parameter, and the complex number pattern, and transmits the calculation result to each neuron on the downstream side. By repeating this process, the neural network 1 outputs an output value as if the neuron were performing complex number calculations. Next, in step 28, if there is no other complex number pattern to be input to the neural network 1, the process ends, and if there is another complex number pattern, the process returns to step 26.

【0017】以下、具体例を示す。ここでは、図3に示
すニューラルネットワークを用いる。図3のニューラル
ネットワークは図1のニューラルネットワークを制限し
たものであり、いわゆる、階層型ニューラルネットワー
クと呼ばれるものになっている。ニューロン間の結合が
一方向になっていたり、結合が全く無くなっていたりす
る。これは、情報の流れが一方向であったり、両方向と
もに情報の流れが無いことを意味する。これは次のよう
に考えればよい。すなわち、情報の流れが無いことは、
演算手段2がそのニューロン間の結合に従った出力値と
して、0を与えたことに対応する。その結果として、情
報の流れが一方向になったり、両方向ともに無くなった
りするのである。また、ニューラルネットワーク31に
入力される複素数パターン(入力学習パターンも含む)
は、1つの要素を除いてすべて0であるとする(例えば
、(a0…0))。そして、その0でない複素数はニュ
ーロン311に入力されるものとする。また、ニューラ
ルネットワーク31が出力する複素数パターンは一般に
複数個の複素数から成り立っているが、ここでは、それ
らのうち、ニューロン31nに対応する複素数にだけ注
目するものとする。これらにより、ニューラルネットワ
ーク31は、1つの複素数を入力し、1つの複素数を出
力するものであることになる。また、前述の図2を使っ
た説明ではニューラルネットワークの出力値を得るため
にニューロン間のやりとりがk回繰り返されていたが、
ここではそれを2回する。従来のニューラルネットワー
クとの比較を行うために、図4に示すニューラルネット
ワーク41を用いる。図4に示すニューラルネットーワ
ク41は、演算手段を持たない従来の実数パターンを扱
うニューラルネットワークであり、2入力2出力のニュ
ーラルネットワークであると考えることができる。 つまり、ニューロン411とニューロン412が入力用
ニューロンであり、ニューロン41(n−1)とニュー
ロン41nが出力用ニューロンである。1つの複素数の
実部をニューロン411に入力し、その虚部をニューロ
ン412に入力し、ニューロン41(n−1)から1つ
の複素数の実部を出力し、ニューロン41nからその虚
部を出力しようとするものである。一般に、複素数は2
次元x−y平面上のある1点を表現している。つまり、
複素数の実部がx軸座標に対応し、虚部がy軸座標に対
応する。そこで、図5における黒丸(入力学習パターン
)および白丸(出力学習パターン)の点をあらわす複素
数を1つの学習パターンとした。なお、図5において、
Reは実部、Imは虚部をあらわしており、図6,7に
おけるReおよびImについても同じである。たとえば
、0.0+1.0iの点を入力学習パターンとし、それ
に対応する出力学習パターンを−1.0+0.0iとす
る。0.0+1.0iを原点を中心にして正の方向(反
時計回り)に90度回転させた点が−1.0+0.0i
に対応する。つまり、この学習パターンは原点を中心と
した点の回転をあらわしている。そのような点の組を1
1個用意しておくというわけである。また、入力パター
ンとして、図5における黒三角の点をあらわす複素数を
与えた。そのような点を7個用意するのである。このよ
うな学習パターンおよび入力パターンを図3および図4
に示すニューラルネットワークにそれぞれ与え、図2に
示したフローチャートおよび従来の学習方法に従って処
理させた結果が図5における黒四角と白四角にあらわす
点である。黒四角の点が従来のニューラルネットワーク
による出力パターンであり、白四角の点が本ニューラル
ネットワークによる出力パターンである。ちなみに、白
三角に示す点は、入力パターン(黒三角の点)を原点を
中心に正の方向に90度回転させた点である。白四角の
点は入力学習パターン(黒三角の点)を原点を中心にし
て正の方向にほぼ90度回転させた点となっているが、
黒四角の点はそうはならず出力学習パターン(白丸の点
)に近い点となっている。つまり、従来のニューラルネ
ットワークでは不可能であった回転角度の記憶が本ニュ
ーラルネットワークでは可能であるということである。 同様にして、原点からの距離に関する点の1/2縮小に
ついて行った結果が図6である。学習パターンは、たと
えば、入力学習パターン1.0+1.0iに対して出力
学習パターンとして0.5+0.5iを対応させている
。平行移動に関して行った結果が図7である。 その学習パターンは、たとえば、0.0+1.0iとい
う入力学習パターンに対して、0.5+0.5iという
出力学習パターンを対応させている。共に、従来のニュ
ーラルネットワークでは不可能であったことが本ニュー
ラルネットワークでは可能であることをよく示している
A specific example will be shown below. Here, a neural network shown in FIG. 3 is used. The neural network shown in FIG. 3 is a limited version of the neural network shown in FIG. 1, and is a so-called hierarchical neural network. Connections between neurons may be unidirectional, or there may be no connections at all. This means that information flows in one direction, or that there is no information flow in both directions. This can be thought of as follows. In other words, there is no flow of information,
This corresponds to the fact that the calculation means 2 gives 0 as the output value according to the connections between the neurons. As a result, information flows in one direction or in both directions. Also, complex number patterns input to the neural network 31 (including input learning patterns)
Assume that all except one element are 0 (for example, (a0...0)). It is assumed that the non-zero complex number is input to the neuron 311. Further, although the complex number pattern output by the neural network 31 is generally made up of a plurality of complex numbers, here, we will focus only on the complex number corresponding to the neuron 31n. Accordingly, the neural network 31 inputs one complex number and outputs one complex number. Also, in the explanation using Figure 2 above, the exchange between neurons was repeated k times to obtain the output value of the neural network, but
We'll do it twice here. In order to make a comparison with a conventional neural network, a neural network 41 shown in FIG. 4 is used. The neural network 41 shown in FIG. 4 is a conventional neural network that does not have arithmetic means and handles real number patterns, and can be considered to be a two-input, two-output neural network. That is, neuron 411 and neuron 412 are input neurons, and neuron 41 (n-1) and neuron 41n are output neurons. Let's input the real part of one complex number to neuron 411, input its imaginary part to neuron 412, output the real part of one complex number from neuron 41(n-1), and output its imaginary part from neuron 41n. That is. Generally, a complex number is 2
It represents a certain point on the dimensional x-y plane. In other words,
The real part of a complex number corresponds to the x-axis coordinate, and the imaginary part corresponds to the y-axis coordinate. Therefore, the complex numbers representing the black circles (input learning pattern) and white circles (output learning pattern) in FIG. 5 were defined as one learning pattern. In addition, in FIG.
Re represents the real part and Im represents the imaginary part, and the same applies to Re and Im in FIGS. 6 and 7. For example, assume that the point 0.0+1.0i is an input learning pattern, and the corresponding output learning pattern is -1.0+0.0i. The point obtained by rotating 0.0+1.0i 90 degrees in the positive direction (counterclockwise) around the origin is -1.0+0.0i
corresponds to In other words, this learning pattern represents the rotation of a point around the origin. A set of such points is 1
This means that you should have one ready. Furthermore, complex numbers representing the black triangular points in FIG. 5 were given as input patterns. Prepare seven such points. Such learning patterns and input patterns are shown in Figures 3 and 4.
The points shown in the black squares and white squares in FIG. 5 are the results obtained by applying the signals to the neural network shown in FIG. 2 and processing them according to the flowchart shown in FIG. The black square points are the output patterns of the conventional neural network, and the white square points are the output patterns of the present neural network. Incidentally, the points indicated by white triangles are points obtained by rotating the input pattern (black triangular points) by 90 degrees in the positive direction around the origin. The white square points are the points obtained by rotating the input learning pattern (black triangular points) approximately 90 degrees in the positive direction around the origin.
This is not the case with the black square points, which are close to the output learning pattern (white circle points). In other words, this neural network can memorize rotation angles, which is impossible with conventional neural networks. Similarly, FIG. 6 shows the results of 1/2 reduction of the points with respect to the distance from the origin. For example, the learning pattern is such that an input learning pattern 1.0+1.0i corresponds to an output learning pattern 0.5+0.5i. FIG. 7 shows the results regarding parallel movement. For example, the learning pattern is such that an input learning pattern of 0.0+1.0i corresponds to an output learning pattern of 0.5+0.5i. Both clearly demonstrate that this neural network can do things that were impossible with conventional neural networks.

【0018】このようなニューラルネットワークの動作
をより判りやすくするために、図8のニューラルネット
ワークにおいて実行した複素数の計算例を説明する。
In order to make the operation of such a neural network easier to understand, an example of calculation of complex numbers executed in the neural network shown in FIG. 8 will be explained.

【0019】学習段階で各ニューロンが現在持っている
パラメータの実部は次のとおりとする。
The real parts of the parameters that each neuron currently has at the learning stage are as follows.

【0020】 第1ニューロン:パラメータは持っていない第2ニュー
ロン:パラメータは持っていない第3ニューロン:       Re[w31]=0.3,Re[w32]
=0.7,Re[θ3 ]=0.2    第4ニュー
ロン:Re[v43]=0.4,Re[γ4 ]=0.
9    第5ニューロン:Re[v53]=0.6,
Re[γ5 ]=0.8演算手段が記憶しているパラメ
ータの虚部は次のとおりとする。
[0020] First neuron: has no parameters. Second neuron: has no parameters. Third neuron: Re[w31]=0.3, Re[w32]
=0.7, Re[θ3]=0.2 Fourth neuron: Re[v43]=0.4, Re[γ4]=0.
9 5th neuron: Re[v53]=0.6,
Re[γ5]=0.8 The imaginary parts of the parameters stored in the calculation means are as follows.

【0021】     Im[w31]=0.2,Im[w32]=0
.4,Im[θ3 ]=0.9           
                     …第3ニ
ューロンのパラメータに対応する    Im[v43
]=0.7,Im[γ4 ]=0.1        
                        …
第4ニューロンのパラメータに対応する    Im[
v53]=0.3,Im[γ5 ]=0.6     
                         
  …第5ニューロンのパラメータに対応するここで、
Re[z],Im[z]は、それぞれ、複素数Zの実部
,虚部を表わす。vij,wijはニューロン間のいわ
ゆる結合の重み、γi ,θi は各ニューロンが持つ
、いわゆる閾値を表わす。
Im[w31]=0.2, Im[w32]=0
.. 4, Im[θ3]=0.9
...Im[v43 corresponding to the parameter of the third neuron
]=0.7, Im[γ4 ]=0.1

Im[ corresponding to the parameters of the fourth neuron
v53]=0.3, Im[γ5]=0.6

…corresponding to the parameters of the fifth neuron, where:
Re[z] and Im[z] represent the real part and imaginary part of the complex number Z, respectively. vij and wij represent so-called connection weights between neurons, and γi and θi represent so-called threshold values possessed by each neuron.

【0022】このような状態で学習パターン{(0.1
+0.5i,1.0i),(1.0,0.2+0.7i
)}がニューラルネットワークに入力される。出力学習
パターンはニューラルネットワークが覚えておく。一方
、入力学習パターンは、第1,第2ニューロンに入力さ
れる。つまり、0.1+0.5iは第1ニューロンに、
1.0iは第2ニューロンに入力される。第1ニューロ
ンは、入力された複素数0.1+0.5iと、第1ニュ
ーロンが持っているパラメータの実部(この場合は持っ
ていないが、適当なパラメータがあるとしても構わない
)を演算手段に伝える。演算手段は与えられた複素数0
.1+0.5iとパラメータの実部と、パラメータの虚
部(この場合、持ってないが、適当な値があるとしても
構わない)とから第1ニューロンの出力値を0.1+0
.5iに決める(0.1+0.5iは第1ニューロンに
入力された複素数そのものである。つまり、第1ニュー
ロンは入力された複素数をそのまま出力するというもの
であるが、演算手段を介すとして表現するとこのように
なる)。0.1+0.5iを第1ニューロンに伝え、第
1ニューロンは0.1+0.5iを第3ニューロンに向
けて出力する(ニューロン間の結合が第3ニューロンに
向けてしかないので、他のニューロンへ出力しない)。 第2ニューロンも、上述と同様にして、入力された複素
数1.0iをそのまま第3ニューロンに向けてだけ出力
する。第3ニューロンには、複素数0.1+0.5iと
1.0iが入力されることになる。第3ニューロンは、
この0.1+0.5iと1.0iと、パラメータの実部
Re[w31],Re[w32],Re[θ3 ]とを
演算手段に伝える。演算手段は管理手段が管理している
パラメータの虚部Im[w31],Im[w32],I
m[θ3 ](第3ニューロンに対応するもののみ)を
使って第3ニューロンが出力する複素数を次の式に従っ
て決める。
In this state, the learning pattern {(0.1
+0.5i, 1.0i), (1.0, 0.2+0.7i
)} is input to the neural network. The neural network remembers the output learning pattern. On the other hand, the input learning pattern is input to the first and second neurons. In other words, 0.1+0.5i is for the first neuron,
1.0i is input to the second neuron. The first neuron uses the input complex number 0.1+0.5i and the real part of the parameter that the first neuron has (in this case, it does not have it, but it does not matter if it has an appropriate parameter) as a calculation means. tell. The calculation means is the given complex number 0
.. The output value of the first neuron is 0.1+0 from 1+0.5i, the real part of the parameter, and the imaginary part of the parameter (in this case, you don't have it, but it doesn't matter if you have an appropriate value).
.. 5i (0.1+0.5i is the complex number itself input to the first neuron. In other words, the first neuron outputs the input complex number as it is, but if we express it as passing through a calculation means, It will look like this). 0.1+0.5i is transmitted to the first neuron, and the first neuron outputs 0.1+0.5i toward the third neuron (the connection between neurons is only toward the third neuron, so it is transmitted to other neurons. (no output). Similarly to the above, the second neuron outputs the input complex number 1.0i as is only to the third neuron. The complex numbers 0.1+0.5i and 1.0i will be input to the third neuron. The third neuron is
These 0.1+0.5i and 1.0i and the real parts Re[w31], Re[w32], and Re[θ3] of the parameters are transmitted to the calculation means. The calculation means calculates the imaginary parts Im[w31], Im[w32], I of the parameters managed by the management means.
Using m[θ3] (only the one corresponding to the third neuron), the complex number output by the third neuron is determined according to the following formula.

【0023】[0023]

【数1】[Math 1]

【0024】[0024]

【数2】           z=(Re[w31]+iIm[
w31])(0.1+0.5i)          
    +(Re[w32]+iIm[w32])1.
0i              +(Re[θ3 ]
+iIm[θ3 ])            =w3
1(0.1+0.5i)+w321.0i+θ3    数1,2に従って具体的に計算すると、z=−0.
27+1.77iであるので、 f(z)=0.43+0.85i となる。
[Formula 2] z=(Re[w31]+iIm[
w31]) (0.1+0.5i)
+(Re[w32]+iIm[w32])1.
0i + (Re[θ3]
+iIm[θ3]) =w3
1(0.1+0.5i)+w321.0i+θ3 When specifically calculated according to Equations 1 and 2, z=-0.
27+1.77i, so f(z)=0.43+0.85i.

【0025】この0.43+0.85iを第3ニューロ
ンに伝える。第3ニューロンはこの複素数をニューロン
間の結合に従って出力する。この場合、ニューロン間の
結合は、第4,第5ニューロンへ向けてのものしかない
ので、第4ニューロンおよび第5ニューロンに向けて0
.43+0.85iを出力する。このため、第4,第5
ニューロンには複素数0.43+0.85iが入力され
ることになる。
This 0.43+0.85i is transmitted to the third neuron. The third neuron outputs this complex number according to the connections between neurons. In this case, the connections between neurons are only to the 4th and 5th neurons, so there is no connection between the 4th and 5th neurons.
.. Outputs 43+0.85i. For this reason, the fourth and fifth
The complex number 0.43+0.85i will be input to the neuron.

【0026】第4ニューロンは入力された複素数0.4
3+0.85iとパラメータの実部Re[v43],R
e[γ4 ]を演算手段に伝える。演算手段は、記憶し
ているパラメータの虚部Im[v43],Im[γ4 
]を使って、数1に従って、第4ニューロンが出力する
複素数を決める。この場合、数2に対応するものは、
The fourth neuron receives the input complex number 0.4
3+0.85i and the real part of the parameter Re[v43], R
e[γ4 ] is transmitted to the calculation means. The calculation means calculates the imaginary parts of the stored parameters Im[v43], Im[γ4
] to determine the complex number output by the fourth neuron according to Equation 1. In this case, the number corresponding to number 2 is


0027】
[
0027

【数3】           z=(Re[v43]+iIm[
v43])(0.43+0.85i)        
      +(Re[γ4 ]+iIm[γ4 ])
            =v43(0.43+0.8
5i)+γ4  である。具体的に計算すると、z=0.48+0.74
iとなるので、f(z)=0.62+0.68iとなる
[Formula 3] z=(Re[v43]+iIm[
v43]) (0.43+0.85i)
+(Re[γ4]+iIm[γ4])
=v43(0.43+0.8
5i)+γ4. Specifically calculated, z=0.48+0.74
i, so f(z)=0.62+0.68i.

【0028】演算手段は0.62+0.68iを第4ニ
ューロンに伝え、第4ニューロンは出力値として0.6
2+0.68iを持つことになる。第5ニューロンも上
述と同様にして処理される。つまり、入力された複素数
0.43+0.85iとパラメータの実部Re[v53
],Re[γ5 ]を演算手段に伝える。演算手段は、
記憶しているパラメータの虚部Im[v53],Im[
γ5 ]を使って、数1に従って第5ニューロンが出力
する複素数を決める。この場合、数2に対応するものは
The calculation means transmits 0.62+0.68i to the fourth neuron, and the fourth neuron outputs 0.6
It will have 2+0.68i. The fifth neuron is also processed in the same manner as described above. In other words, the input complex number 0.43+0.85i and the real part Re[v53
], Re[γ5 ] to the calculation means. The calculation means are
The imaginary parts of the stored parameters Im[v53], Im[
γ5] to determine the complex number output by the fifth neuron according to Equation 1. In this case, the corresponding number 2 is

【0029】[0029]

【数4】           z=(Re[v53]+iIm[
v53])(0.43+0.85i)        
      +(Re[γ5 ]+iIm[γ5 ])
            =v53(0.43+0.8
5)i+γ5  である。具体的に計算すると、z=0.8+1.24i
となるので、f(z)=0.69+0.76iとなる。
[Formula 4] z=(Re[v53]+iIm[
v53]) (0.43+0.85i)
+(Re[γ5]+iIm[γ5])
=v53(0.43+0.8
5) i+γ5. Specifically calculated, z=0.8+1.24i
Therefore, f(z)=0.69+0.76i.

【0030】演算手段は、0.69+0.76iを第5
ニューロンに伝え、第5ニューロンは出力値として、0
.69+0.76iを持つことになる。
[0030] The calculation means calculates 0.69+0.76i as the fifth
The fifth neuron outputs 0 as the output value.
.. It will have 69+0.76i.

【0031】以上により、第4,第5ニューロンの出力
値は、それぞれ、0.62+0.68i,0.69+0
.76iとなった。そこで、ニューラルネットワークは
この2つの複素数と出力学習パターン(1.0  0.
2+0.7i)とを演算手段に伝える。演算手段は、出
力学習パターンと2つの複素数との間の誤差1を次の式
に従って求める。
From the above, the output values of the fourth and fifth neurons are 0.62+0.68i and 0.69+0, respectively.
.. It became 76i. Therefore, the neural network uses these two complex numbers and the output learning pattern (1.0 0.
2+0.7i) to the calculation means. The calculation means calculates the error 1 between the output learning pattern and the two complex numbers according to the following equation.

【0032】[0032]

【数5】δk =Tk−Ok  (k=4,5)但し、
kはニューロン番号、Tkはニューロンkに対する出力
学習パターンの対応する要素、Okはニューロンkの出
力値 具体的に計算すると、δ4 =0.38−0.68i,
δ5=−0.49−0.06iとなる。次に、誤差2を
次の式に従って求める。
[Equation 5] δk = Tk - Ok (k = 4, 5) However,
k is the neuron number, Tk is the corresponding element of the output learning pattern for neuron k, and Ok is the output value of neuron k. Specifically, δ4 = 0.38-0.68i,
δ5=-0.49-0.06i. Next, the error 2 is determined according to the following formula.

【0033】[0033]

【数6】[Math 6]

【0034】具体的に計算すると、E=0.84となる
。この誤差1および誤差2をニューラルネットワークに
伝える。ニューラルネットワークは誤差2  E=0.
84を見て、たとえば、しきい値0.5より大きいか否
かで学習完了か否かを判断する。この場合、0.84>
0.5なので、学習未完了と判断する。このとき、ニュ
ーラルネットワークは、誤差1(δ4 およびδ5 )
と、第3〜第5ニューロンが持っているパラメータの実
部のすべてを演算手段に伝える。演算手段は次の式に従
ってパラメータの新しい値を決める。
When specifically calculated, E=0.84. This error 1 and error 2 are transmitted to the neural network. Neural network has an error of 2 E=0.
84, and determines whether learning is complete based on whether or not the value is greater than a threshold value of 0.5, for example. In this case, 0.84>
Since it is 0.5, it is determined that learning is not completed. At this time, the neural network has an error of 1 (δ4 and δ5)
and transmits all the real parts of the parameters possessed by the third to fifth neurons to the calculation means. The calculation means determines the new value of the parameter according to the following formula.

【0035】[0035]

【数7】           vkj(new) =vkj(o
ld) +ΔHj(γk(new)−γk(old))
[Formula 7] vkj (new) = vkj (o
ld) +ΔHj(γk(new)−γk(old))

【0036】[0036]

【数8】   γ(new) =γ(old) +ε{Re[δk
 ](1−Re[Ok])Re[Ok]       
     +iIm[δk ](1−Im[Ok])I
m[Ok]}
[Formula 8] γ(new) = γ(old) +ε{Re[δk
](1-Re[Ok])Re[Ok]
+iIm[δk] (1-Im[Ok])I
m[Ok]}

【0037】[0037]

【数9】           wji(new) =wji(o
ld) +ΔIi (θj(new)−θj(old)
[Formula 9] wji(new) = wji(o
ld) +ΔIi (θj(new)−θj(old)
)

【0038】[0038]

【数10】[Math. 10]

【0039】ここで、Δはこの記号に続く複素数の共役
複素数, εは十分小さい適当な整数(たとえば、ε=0.5),
Iiはニューロンiへの入力(i=1,2),Hjはニ
ューロンjの出力値(j=3),Okはニューロンkの
出力値(k=4,5)。
Here, Δ is the conjugate complex number of the complex number following this symbol, ε is a sufficiently small appropriate integer (for example, ε=0.5),
Ii is the input to neuron i (i=1, 2), Hj is the output value of neuron j (j=3), and Ok is the output value of neuron k (k=4, 5).

【0040】演算手段は、数7〜10により求めた新し
いパラメータの虚部の値で虚部の値を更新するとともに
、その実部をニューラルネットワークに伝える。ニュー
ラルネットワークは各ニューロンの持っているパラメー
タの実部の値を与えらた値で更新する。その後、一番始
めに入力した学習パターンをニューラルネットワークに
入力し、同様のことを繰り返す。そして、その学習パタ
ーンに対する学習が終了したら他の学習パターンに対し
ても同様のことを行う。
The calculation means updates the imaginary part value with the imaginary part value of the new parameter obtained by equations 7 to 10, and transmits the real part to the neural network. The neural network updates the real part of the parameter of each neuron with the given value. After that, the learning pattern input at the beginning is input into the neural network, and the same process is repeated. Then, when learning for that learning pattern is completed, the same process is performed for other learning patterns.

【0041】次に、第2実施例における複素数の情報処
理が可能なニューラルネットワークについて説明する。
Next, a neural network capable of processing complex number information in a second embodiment will be explained.

【0042】本例ではネットワーク接続するニューロン
自体を複素数の演算が可能なようにしている。このニュ
ーロンの回路構成を図9に示す。図9において、分離回
路1Aは上流側のニューロンまたは入力パターンの複素
数信号から実数部および虚数部を分離する。演算回路1
Bは分離回路1Aにおいて分離された実数部を予め定め
られた演算式(第1実施例の数1,2における分離実数
部関連についての演算式)を実行する。演算回路1Cは
分離回路1Aにおいて分離された虚数部について予め定
められた演算式(第1実施例における数1,2)におけ
る分離虚数部に関連する演算式を実行する。合成回路1
Dは演算回路1B,1Cの演算結果を合成することによ
り複素数を作成し、信号出力する。このような構成とす
ることにより、入力された2種の数値情報からなる複素
数についての複素数計算が演算回路1B,1Cにより分
割して行われる。
In this example, the neurons connected to the network are themselves capable of performing complex number operations. The circuit configuration of this neuron is shown in FIG. In FIG. 9, a separation circuit 1A separates a real part and an imaginary part from a complex signal of an upstream neuron or an input pattern. Arithmetic circuit 1
B executes a predetermined arithmetic expression (the arithmetic expression related to the separated real part in Equations 1 and 2 of the first embodiment) on the real part separated in the separation circuit 1A. The arithmetic circuit 1C executes an arithmetic expression related to the separated imaginary part in a predetermined arithmetic expression (Equations 1 and 2 in the first embodiment) for the imaginary part separated in the separation circuit 1A. Synthesis circuit 1
D creates a complex number by combining the calculation results of the calculation circuits 1B and 1C, and outputs a signal. With such a configuration, complex number calculations for complex numbers made up of two types of input numerical information are divided and performed by the arithmetic circuits 1B and 1C.

【0043】学習処理を行う場合は入力学習パターンに
対するニューラルネットワークからの出力パターンが出
力学習パターンにほぼ一致するように、演算回路1B,
1Cの数式上のパラメータを可変設定することは第1実
施例と同様である。なお、このようなニューロンをコン
ピュータにより実現する場合のコンピュータの処理手順
を参考のために図10に示しておく。
When performing learning processing, the arithmetic circuits 1B,
Variable setting of the parameters on the formula of 1C is the same as in the first embodiment. Incidentally, a computer processing procedure when such a neuron is realized by a computer is shown in FIG. 10 for reference.

【0044】本実施例の他に次の例が挙げられる。In addition to this embodiment, the following examples can be given.

【0045】1)第1実施例および第2実施例のニュー
ラルネットワークはアナログ回路およびデジタル回路の
いずれの場合でも実現可能である。また、第1実施例の
場合は従来のアナログ構成のニューラルネットワークと
デジタル処理を行うコンピュータ等の演算手段との接続
が可能である。なお、この場合、ニューラルネットワー
クと演算手段との間の情報交換を実行する際にアナログ
−デジタル相互変換を行うことは言うまでもない。
1) The neural networks of the first and second embodiments can be implemented using either analog circuits or digital circuits. Further, in the case of the first embodiment, it is possible to connect a conventional analog-configured neural network with arithmetic means such as a computer that performs digital processing. In this case, it goes without saying that analog-to-digital conversion is performed when exchanging information between the neural network and the calculation means.

【0046】2)アナログ信号で複素数を表わす場合、
たとえばアナログ信号の電圧値で実数を表わし、電流値
で虚数を表わすことが考えられる。また、デジタル信号
で複素数を表わす場合は複数のデジタル信号線を実数部
用と虚数部用に専用的に割当てるとよい。
2) When representing a complex number with an analog signal,
For example, it is conceivable that the voltage value of an analog signal represents a real number, and the current value represents an imaginary number. Further, when a complex number is represented by a digital signal, it is preferable to allocate a plurality of digital signal lines exclusively for the real part and the imaginary part.

【0047】3)ニューラルネットワークにおいて複素
数を用いて実行する情報処理としては本実施例のような
ベクトルの回転処理等の演算処理の他、ベクトルのパタ
ーン認識を実行することも可能である。
3) As information processing performed using complex numbers in a neural network, in addition to arithmetic processing such as vector rotation processing as in this embodiment, it is also possible to perform vector pattern recognition.

【0048】[0048]

【発明の効果】以上、説明したように、本発明によれば
、複素数を処理対象とすることができるので、従来装置
では実現できなかったベクトル計算やベクトルに関連す
るパターン認識が可能となり、ニューラルネットワーク
の利用分野が広がるという効果が得られる。
[Effects of the Invention] As explained above, according to the present invention, since complex numbers can be processed, vector calculations and pattern recognition related to vectors, which could not be realized with conventional devices, are possible, and the neural This has the effect of expanding the field of use of the network.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明実施例の基本構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing the basic configuration of an embodiment of the present invention.

【図2】本発明実施例のニューラルネットワークの処理
手順を示すフローチャートである。
FIG. 2 is a flowchart showing the processing procedure of the neural network according to the embodiment of the present invention.

【図3】本発明実施例におけるニューロンの接続例を示
す構成図である。
FIG. 3 is a configuration diagram showing an example of neuron connections in the embodiment of the present invention.

【図4】本発明実施例におけるニューロンの接続例を示
す構成図である。
FIG. 4 is a configuration diagram showing an example of neuron connections in the embodiment of the present invention.

【図5】本発明実施例のニューラルネットワークの入力
パターンと出力パターンの関係を示す説明図である。
FIG. 5 is an explanatory diagram showing the relationship between input patterns and output patterns of the neural network according to the embodiment of the present invention.

【図6】本発明実施例のニューラルネットワークの入力
パターンと出力パターンの関係を示す説明図である。
FIG. 6 is an explanatory diagram showing the relationship between input patterns and output patterns of the neural network according to the embodiment of the present invention.

【図7】本発明実施例のニューラルネットワークの入力
パターンと出力パターンの関係を示す説明図である。
FIG. 7 is an explanatory diagram showing the relationship between input patterns and output patterns of the neural network according to the embodiment of the present invention.

【図8】本発明実施例におけるニューロンの接続例を示
す構成図である。
FIG. 8 is a configuration diagram showing an example of neuron connections in the embodiment of the present invention.

【図9】本発明第2実施例におけるニューロンの回路構
成を示すブロック図である。
FIG. 9 is a block diagram showing the circuit configuration of a neuron in a second embodiment of the present invention.

【図10】図9のニューロンの実行する演算処理をコン
ピュータにおいて実現するための処理手順を示すフロー
チャートである。
FIG. 10 is a flowchart showing a processing procedure for implementing the arithmetic processing performed by the neuron in FIG. 9 on a computer.

【符号の説明】[Explanation of symbols]

1,31,41  ニューラルネットワーク1A  分
離回路 1B  演算回路 1C  演算回路 1D  合成回路 11〜1n  ニューロン 311〜31n  ニューロン 411〜41n  ニューロン
1, 31, 41 Neural network 1A Separation circuit 1B Arithmetic circuit 1C Arithmetic circuit 1D Synthesizing circuit 11-1n Neuron 311-31n Neuron 411-41n Neuron

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  学習機能を有する複数のニューロンを
ネットワーク的に接続したニューラルネットワークにお
いて、入力のパターンが複素数で表わされる場合に、前
記ニューロンの各々に代り、複素数についての演算処理
を実行する演算手段を具えたことを特徴とするニューラ
ルネットワーク。
1. In a neural network in which a plurality of neurons having a learning function are connected in a network manner, when an input pattern is represented by a complex number, an arithmetic means for performing arithmetic processing on the complex number in place of each of the neurons. A neural network characterized by the following.
【請求項2】  学習機能を有する複数のニューロンを
ネットワーク的に接続したニューラルネットワークにお
いて、前記ニューロンの各々は、当該ニューロンに信号
形態で入力される複素数を実数部と虚数部に分離する分
離手段と、当該分離された実数部および虚数部について
それぞれ予め定められた演算式に従って演算処理を実行
する複数の演算処理手段と、当該複数の演算処理手段に
より実行された演算処理の結果を複素数に合成する合成
手段とを具えたことを特徴とするニューラルネットワー
ク。
2. In a neural network in which a plurality of neurons having a learning function are connected in a network manner, each of the neurons is provided with separating means for separating a complex number inputted to the neuron in the form of a signal into a real part and an imaginary part. , a plurality of arithmetic processing means that perform arithmetic processing according to predetermined arithmetic expressions for the separated real part and imaginary part, respectively, and combine the results of the arithmetic processing performed by the plurality of arithmetic processing means into a complex number. A neural network characterized by comprising a synthesis means.
JP3031352A 1991-02-01 1991-02-01 Neural network and signal processing method thereof Expired - Lifetime JPH07111714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3031352A JPH07111714B2 (en) 1991-02-01 1991-02-01 Neural network and signal processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3031352A JPH07111714B2 (en) 1991-02-01 1991-02-01 Neural network and signal processing method thereof

Publications (2)

Publication Number Publication Date
JPH04246766A true JPH04246766A (en) 1992-09-02
JPH07111714B2 JPH07111714B2 (en) 1995-11-29

Family

ID=12328838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3031352A Expired - Lifetime JPH07111714B2 (en) 1991-02-01 1991-02-01 Neural network and signal processing method thereof

Country Status (1)

Country Link
JP (1) JPH07111714B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142278A (en) * 2017-02-28 2018-09-13 国立大学法人電気通信大学 Encoding apparatus, encoding method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142278A (en) * 2017-02-28 2018-09-13 国立大学法人電気通信大学 Encoding apparatus, encoding method, and program

Also Published As

Publication number Publication date
JPH07111714B2 (en) 1995-11-29

Similar Documents

Publication Publication Date Title
Wu et al. Adaptive antisynchronization of multilayer reaction–diffusion neural networks
US5107454A (en) Pattern associative memory system
Atiya Learning on a general network
Gorinevsky et al. Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example
Precup et al. Evolving fuzzy models for prosthetic hand myoelectric-based control using weighted recursive least squares algorithm for identification
Xiong et al. Multilayered sampled-data iterative learning tracking for discrete systems with cooperative–antagonistic interactions
Pauli et al. Lipschitz-bounded 1D convolutional neural networks using the Cayley transform and the controllability Gramian
EP0444878B1 (en) Neural network
Cordova et al. Haar wavelet neural networks for nonlinear system identification
Deb et al. SVM-based tree-type neural networks as a critic in adaptive critic designs for control
JPH04246766A (en) Neural network
Morozov Neuro-fuzzy approach for the calibration of high-precision embedded systems
JPH0520294A (en) Neural network type information processor
EP0567983B1 (en) Learning type waveform recognizer
Savković-Stevanović A neural network model for analysis and optimization of processes
JPH0535710A (en) Learning method/device for neural network
Chen et al. Analysis of decision boundaries generated by constructive neural network learning algorithms
Hadjiprocopis et al. Feed forward neural network entities
Messaoud et al. Fuzzy supervision for a multi-model generalized predictive control based on performances index
JPH0644207A (en) Neural network and its constituting method
MATHIA GREY-BOX SYSTEM IDENTIFICATION WITH VARIABLE-STRUCTURE NEURAL NETWORKS
Pican et al. How OWE architectures encode contextual effects in artificial neural networks
Hoffmann Connectionist functionality and the emergent network behavior
Bass et al. A modified radial basis function network for system identification
Smith et al. Evolutionary Learning of Recurrent Networks by Successive Orthogonal Inverse Approximations

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term