JPH0683791A - Neural network using chaos oscillator coupling system as element - Google Patents

Neural network using chaos oscillator coupling system as element

Info

Publication number
JPH0683791A
JPH0683791A JP2419035A JP41903590A JPH0683791A JP H0683791 A JPH0683791 A JP H0683791A JP 2419035 A JP2419035 A JP 2419035A JP 41903590 A JP41903590 A JP 41903590A JP H0683791 A JPH0683791 A JP H0683791A
Authority
JP
Japan
Prior art keywords
neural network
elements
chaos
oscillators
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2419035A
Other languages
Japanese (ja)
Inventor
Masayoshi Inoue
政義 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2419035A priority Critical patent/JPH0683791A/en
Priority to PCT/JP1991/001748 priority patent/WO1992011599A1/en
Publication of JPH0683791A publication Critical patent/JPH0683791A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0418Architecture, e.g. interconnection topology using chaos or fractal principles

Abstract

PURPOSE:To attain rapid and high level information processing by simultaneously and determinatively changing all elements. CONSTITUTION:A neural network is constituted by combining plural elements each of which is coupled with plural chaos oscillators. Although no probability process such as the generation of a random number is used, functions similar to that of a Boltzmann machine can be obtained by using the chaos oscillators. Consequently graphic recognition or an optimizing problem, etc., causing the enormous increase of the number of combinations which is a weak point of a convensional electronic computer can rapidly be solved in parallelly dispersed processing of high level.

Description

【発明の詳細な説明】 (産業上の利用分野)本発明は、物理学の分野で最近発
見されたカオス運動(文献1を参照)をニューラル・ネ
ットワーク(文献1,2,3,4を参照)に応用したも
のである。カオス運動は乱雑性と規則性を合わせ持って
いる。この特徴を、カオス振動子を複数個結合させるこ
とにより巧みに利用して素子を作った。従来のニューラ
ル・ネットワークの素子をこのカオス素子で置き換える
だけでよい。従来のニューラル・ネットワークを利用す
るノウ・ハウ(例えば素子間の結合のさせかた)は全て
この新しいニューラル・ネットワークにも利用できる。
カオスを利用したことにより、確率的過程(例えば乱数
発生)を一切用いていないにも関わらず、ボルツマン・
マシン(文献2,3,4を参照)と同様の働きをさせる
ことができる。従来の電子計算機が不得意な問題であ
る、図形認識や組合せの数が膨大になる最適化問題など
を高度並列分散的に高速に解く事ができる。 (従来の技術)従来のニューラル・ネットワークである
ホップフィルド・モデル(文献2,3,4を参照)では
稼働するとき1個の素子を確率的に選びルールに従って
状態を変化させている。これは並列処理ではないので処
理速度が遅く、また同時に1個しか変化させないのでハ
ミング距離が2以上の離れた状態へは移れない。この事
より、小さな局所ミニマムからさえ抜け出すことができ
ず、大局的なミニマムを捜さなければならない最適化問
題に用いる事ができない。これを避けるためにボルツマ
ン・マシンによる焼き鈍し法(文献2,4を参照)を用
いるが、この方法は一般に解を得るのに極めて長い時間
を要する。また、カオスのアトラクタ−(文献1を参
照)をメモリー(文献1を参照)に応用したものがある
が未だ理論的可能性の段階であり、本発明と原理も目的
も全く異なるものである。カオスをニューラル・ネット
ワークに応用する試みもなされている(文献3を参
照)。しかしこの試みも実用に耐えるところまでに到っ
ていない。またこれまでのカオスを利用したニューラル
・ネットワークに於いては、1個のカオス振動子を1個
のニューロン(素子)に対応させている。ところが、本
発明に於いては複数個のカオス振動子が互いに結合した
系を1個のニューロン(素子)に対応させており、この
事が従来のカオスニューラル・ネットワークと根本的に
異なるところである。複数のカオス振動子を結合させた
事により、多様な運動状態が出現する。例えば、振動子
間の同調、非同調という2個の運動状態が表れるので、
これを記号化することにより2値をとれるデジタル素子
にする事もできる。これは今までにない全く新しい考案
である。たんなる乱雑な振動子では、同調状態は表れな
い。カオス振動子を用いたが故にカオスに内在する規則
性によって同調状態が可能になった。また、カオスのも
つ乱雑性によって自ら、最適解を捜すことができる。こ
の様に、本発明ではカオスがもつ規則性と乱雑性という
両側面を見事に巧みに利用している。また、全素子を同
時に変化させる事ができることも注目すべき利点であ
り、従来のノイマン型電子計算機にない完全並列処理が
できるという画期的な長所もある。 (発明が解決しようとする課題)したがって、高速に良
い解を求める為に焼き鈍しの方法や素子の多値化などの
研究が盛んになされているが、未だ良い方法が発明され
ていない。しかし現代のノイマン型電子計算機が不得意
な問題を高速に解くための新しい情報処理装置の開発は
強く要望されている。本発明は全く新しい原理(カオス
振動子結合系の同調状態)を用いてこの要望にこたえる
ものであり、高度な情報処理方法の新しい幕開けになる
ものである。 (課題を解決するための手段)本発明は、従来のニュー
ラル・ネットワークの欠点を除いて、確率を用いる事が
なくまた全ての素子を同時に決定論的に変化させる事に
より高速に高度な情報処理を行なうことができる事を特
徴とする。 (作用と実施例)次に、本発明の作用と実験結果を例を
あげて説明する。簡単のため素子は2個のカオス振動子
から成るとする。またパーソナル・コンピュータを用い
てシュミレートするため、この素子の運動は次の式で表
わされるとする(文献1,5を参照)。 上式に於いて、x(i)(n)はi番目の素子の内部に
ある第1振動子の時刻nに於ける値であり,y
(i)(n)はi番目の素子の内部にある第2振動子の
時刻n於ける値である。時刻n+1に於けるそれぞれに
対応する値はx(i)(n+1)とy(i)(n+1)
で表わした。また、D(n)はi番目の素子の内部に
ある2個の振動子間の時刻n に於ける結合定数である
(文献5を参照)。G{x(n)}とG{y
(n)}はそれぞれ第1振動子と第2振動子の写像関数
であり以下の実施例に於いては、ロジスティック写像
(文献1を参照)を用いる。則ち、 とする。写像パラメータA(≦4)とA(≦4)は
一般に4に近い値をとらせる。このカオス振動子結台系
の素子としての状態をきめるために,次式で定義される
(i)(n)を導入する。 ここでは、この素子を2値のデジタル素子にする。デジ
タル化にさいしては、カオス振動子結合系の同調状態を
利用して、同調状態を(1)にし非同調状態を(0)に
する。則ち、i番目の素子の時刻nに於ける状態値u
(i)(n)を次の式できめる。 ここでεは同調判定パラメータであり一般に零に近い値
を与える。このパラメータεの値を0にとり写像パラメ
ータの値をA=Aにすると u(i)(n)=1は
i番目の素子の内部にある2個の振動子が完全に同調し
ている事をしめしている。しかし、運動方程式の対称性
から,A=Aにとると,いちど同調してしまうと結
合定数が小さくなっても同調状態がはずれなくなる。こ
れを避けるために小さなノイズを入れれば良いが、カオ
スに内在する乱雑性を利用すれば簡単に解決する。それ
をするには,ただAとAの値を僅かに異なるように
すればよい。式(6)のパラメータεはボルツマン・マ
シンに於ける温度に対応しており、ε(<<1)の値を
大きくとると高い温度に対応する運動をするようになり
小さな局所ミニマムから抜け出すことができる。また、
とAの差が大きい時も高い温度に対応するので、
同調判定パラメータεと写像パラメータ(A、A
の値を種々に選ぶことにより多様な運動をさせることが
できる。例えば、これらのパラメータの値を時間的に変
化させる事により焼き鈍しと同様な効果をあげることが
できる。パラメータの選び方は解く問題に応じて適切に
行なうと良い。上記の様にして作成された素子を結合さ
せてネットワークを構成する。問題は素子間の結合を如
何にして素子内部の結合定数に取り入れるかであり、こ
れは以下の様にする。則ち、素子iとkの間の結合定数
をWik,素子iへのネットワークの外部からの入力を
、素子iのしきい値をθとするとき、素子iの時
刻nに於ける振動子間の結合定数D(n)次式で与え
るとする。 結合定数D(n)が負になると振動子が崩壊すること
があるのでそれを上式(9)によって防いでいる。ホッ
プフィルド・モデルの状態変化規則(文献2の21頁を
参照)に於いては、(8)式右辺が正のとき素子の状態
を(1)としまた負のときは状態を(0)に変化させる
様にしている。本発明の素子をこれに合わせる為に,し
きい値θを外力と素子間結合がないとき2個の振動子
が同調を起こす臨界値にとればよい。この様にすれば、
従来のニューラル・ネットワークで用いられているノウ
・ハウを本発明のニューラル・ネットワークにも用いる
事ができる。また、この臨界値は写像関数の最大リヤプ
ノフ指数に等しい(文献5を参照)。以下の計算ではA
=4且つAはAに極めて近い値をとらせるので、 とする。以上の様に構成されたニューラル・ネットワー
クの計算上の流れを復習する。初期時刻n=0に全ての
振動子の座標(x(i)(0),y(i)(0))を与
えるとこれより(5)式からz(i)(0)が求まり、
このz(i)(0)から(6)と(7)式を用いて素子
の状態u(i)(0)がきまる。 振動子間の結合定数
はu(i)(0)を用いて(8)と(9)式から定ま
る。この様にして初期状態の諸種の値は全てきまる。こ
れらのn=0の値から(1)と(2)式より時刻n=1
の振動子の座標(x(i)(1),y(i)(1))が
定まる。以下同様にして任意の時刻に於ける全ての素子
の状態が並列的に確率を用いることがなく決定論的にき
まる。次に、本発明のニューラル・ネットワークをパソ
コン(PC−9801RA)に数値演算プロセッサー8
0387を登載したものでシミュレートした簡単な例を
しめす。 例1。 図形の自己想起的な連想記憶 (文字認識)ニューラル・ネットワークによる自己想起
的な連想記憶を、本発明のニューラル・ネットワークを
用いて行なってみる(文献2の22−23頁を参照)。
ネットワークは、64個の素子からなっているとする。
それらの素子は図1のように8×8の正方形に並べられ
ている。素子は2値をとれるので白丸は(0)を黒丸は
(1)を表わすとする。この白丸と黒丸で図形を表現す
ることにし、記憶させたいパターンをネットワークに埋
め込む。そのためには、素子間結合定数wikを、 と選ぶ(文献2を参照)。ここでαは記憶させたいパ
ターンの状態を表わしている。実施にあたって、諸種の
パラメータの値は次の様に選んだ。写像パラメータは、 ここでAの値はもう少し小さくとってもよい、例えば
=3.999とすることもできる。同調判定パラメ
ータは、 とした。図1から図4にあるパターンの下の値はその状
態のエネルギー値である(文献2を参照)。また、各図
の1段と4段のパターンは埋め込んだパターンであり、
この例では図から分かるように英大文字のL,O,V,
Eの4個をこのネットワークは記憶している。乱れた
L,O,V,Eのパターンから正しいL,O,V,Eを
想起(回復)する様子が4個のパターンの下の段に示さ
れている。離散時間nが1だけ増加するごとにパターン
が表示されている、時間は右に向かって進んでいるとし
ている。図1の最初の例では乱れたLから出発 (n=
0)して4回の遷移で正しいLを想起している。また、
この時、1回の遷移に要した計算時間は約0.3秒であ
った。このような働きがあるので、ニューラル・ネット
ワークを文字認識に用いる事もできる(文献6を参
照)。 例2。 巡回セールスマン問題 (組合せ最適化問題)次に組合せ最適化問題として有名
な巡回セールスマン問題(TSP)を本発明のニューラ
ル・ネットワークを用いて解く。計算にあたっては、例
1の場合と同様にパソコン上でシミュレートする。TS
P問題とは、N個の都市をそれぞれ1度おとずれ、最後
に出発点に戻るとし、このような経路のうちで最短にな
るものを求める問題である。この問題をニューラル・ネ
ットワークを用いて解く方法、例えば素子間の結合定数
の与え方や正方形に並べた素子の各行、各列の意味はホ
ップフィールドと同様にする(文献2の119頁を参
照)。則ち、各行が一つの都市に対応し、各列が訪問す
る順番を表わすとする。このときi行k列の素子の状態
をuikで表わす。そして、uikとunmとの間の結
合定数をwik nmで表わすことにする。また、都市
iと都市nの距離をdinとする。こうすると、素子間
の結台定数wik nmと外部入力Sikは次式で与え
るとよい。 ただし、δinはクロネッカーのデルタ、則ち ここでは、N=10 の場合に就いて解くことにする。
実施にあたって、諸種のパラメータの値は次の様に選ん
だ。写像パラメータは、 同調パラメータは、後で示す例では とした。ただし、一般にはε=0.0015くらいが良
い。各都市(C〜C10)のX座標とY座標は以下の
ように与えられているとした。 また、係数AとBは、次のようにとった。 A=5,B=0.5 (20) 上のパラメータの値はD(n)が約1から10くらい
になるようにとると良い。但し、AとBの比A/Bは約
10くらいが良い。計算の実行にあり、まず100回の
遷移で打ち切り、そこで再びランダムな初期条件を与え
なおし再スタートさせた。これはボルツマン・マシンに
よる焼き鈍しの方法に対応している。この過程を何回か
繰り返しその中で最良の解を残す事にした。なお、1回
の遷移に要した時間は約0.87秒であった。得られ
た、結果を図5に示してある。図の下の値は距離を表わ
している。また、この解を得るのに913回の遷移を要
した。以上、2例を示したが、他に多くの応用が考えら
れる。ニューラル・ネットワークを用いるとき、まず与
えられた問題に応じて、適当な素子間結合をきめる。こ
のように設定したニューラル・ネットワークを稼働さす
ことによって所期の情報処理を行なう。また、素子間結
合を学習によって変化させれば学習する情報処理装置に
なる。更に、本発明のニューラル・ネットワークをいく
つか結合させて高度な情報処理をさせる事もできる。実
施例では行なわなかったが、問題によっては素子内部の
振動子間の結合定数として次式の様な記憶効果を入れた
(n)を用いてもよい。 ただし、ここでmは記憶の長さを表わし,rは記憶の減
衰率を表わしている。また、初期には過去がないから。 とする。この記憶効果は一般に入れる必要はない。上に
述べた実施例の素子は、2個のカオス振動子を結合させ
た系から成っており、系の同調状態と非同調状態を用い
て2値のデジタル素子として機能するように設計されて
いる。ところで、3個のカオス振動子から成る素子で
は、非同調状態は(0)、部分同調状態は(1)、完全
同調状態は(2)とする3値デジタル素子にする事がで
きる。以下、同様である。ところで、実施例の(6)、
(7)式の様なデジタル化をしなければカオス振動子結
合系をアナログ素子とし用いる事もできる。 (発明の効果)上に示したように、このニューラル・ネ
ットワークは従来のニューラル・ネットワークと同様に
用いることができ、その性能は従来のものより格段に優
れている。素子にカオス振動子結合系を用いているの
で、完全並列かつ決定論的なニューラル・ネットワーク
である。完全並列であるために高速でありまた決定論的
でありながらカオスを用いているためにボルツマン・マ
シン的な動きもできる。また、実施例2の様に2値のデ
ジタル素子を用いてもTSP問題を解くことができる。
一般に、デジタル素子を用いてTSP問題を解く事は極
めて困難であり、ホップフィルドとタンクはアナログ化
して初めてTSP問題を解く事ができた(文献7を参
照)。本発明の素子は2値のデジタル素子にすることが
できるのでハード化が容易である。これは、製品化する
とき極めて重要な長所になる。 文献 (1) 合原一幸 編著 1990。 カオス。 サイエンス社。 (2) 麻生英樹 1988。ニューラルネッ トワーク情報処理。産業図書。 (3) 合原一幸 1988。ニューラルコン ピュータ。東京電気大学出版局。 (4) 中野 馨 編著 1990。ニューロ コンピュータの基礎。コロナ社。 (5) Yamada,T.,and Fujisak
a H.1983.Stability Theory
of Synchronized Motion i
n Coupled−Oscillator Syst
ems.II.Prog. Theor.Physic
s 70,1240−1248. (6) 前田民雄 1990。ニューロシミュレーショ
ンによる文字認識。山海堂。 (7) Hopfield J.J.and Tank
D.W.1985.”Neural”Computa
ion of Decisionsin Optimi
zation Problems. Biol.Cyb
ern.52,141−152.
DETAILED DESCRIPTION OF THE INVENTION (Industrial field of application) The present invention refers to a neural network (see References 1, 2, 3, 4) for chaotic motions (see Reference 1) recently discovered in the field of physics. ) Is applied to. The chaotic movement has both randomness and regularity. An element was made by skillfully utilizing this feature by combining a plurality of chaotic oscillators. It is only necessary to replace the elements of the conventional neural network with this chaotic element. All the know-hows that utilize conventional neural networks (eg how to connect elements) can also be used for this new neural network.
Due to the use of chaos, Boltzmann, despite not using any stochastic process (for example, random number generation)
It can function like a machine (see References 2, 3 and 4). It is possible to solve problems such as optimization problems such as figure recognition and huge number of combinations, which are not good at conventional electronic computers, in a highly parallel and distributed manner at high speed. (Prior Art) In the conventional Hopfield model which is a neural network (see References 2, 3 and 4), one element is stochastically selected and its state is changed according to a rule. Since this is not parallel processing, the processing speed is slow, and since only one is changed at the same time, it is not possible to move to a state where the Hamming distance is 2 or more. Because of this, we can't even get out of small local minimums, and we can't use them for optimization problems where we need to find a global minimum. To avoid this, the Boltzmann machine annealing method (see References 2 and 4) is used, but this method generally requires an extremely long time to obtain a solution. Further, there is a method in which a chaotic attractor (see Reference 1) is applied to a memory (see Reference 1), but this is still at the theoretical stage, and the principle and purpose of the present invention are completely different. Attempts have also been made to apply chaos to neural networks (see Reference 3). However, this attempt has not reached the point where it can be put to practical use. In the conventional neural networks using chaos, one chaotic oscillator corresponds to one neuron (element). However, in the present invention, a system in which a plurality of chaotic oscillators are coupled to each other corresponds to one neuron (element), which is fundamentally different from the conventional chaotic neural network. Various motion states appear by combining multiple chaotic oscillators. For example, since two motion states of tuning and non-tuning between oscillators appear,
It is also possible to make a binary digital element by symbolizing this. This is a completely new idea that has never existed. A tuned state does not appear in a simple oscillator. Since a chaotic oscillator was used, the tuning state became possible due to the regularity inherent in chaos. In addition, the randomness of chaos allows one to search for an optimal solution. Thus, in the present invention, both sides of regularity and randomness of chaos are skillfully used. Also, it is an advantage to be noted that all elements can be changed at the same time, and there is an epoch-making advantage that complete parallel processing which is not possible in the conventional Neumann type computer can be performed. (Problems to be solved by the invention) Therefore, researches such as annealing method and multi-valued element have been actively conducted in order to obtain a good solution at high speed, but no good method has been invented yet. However, there is a strong demand for the development of a new information processing device for solving problems that modern Neumann computers are not good at at high speed. The present invention meets this demand by using a completely new principle (tuned state of a chaotic oscillator coupled system), and opens a new high-level information processing method. (Means for Solving the Problems) Except for the drawbacks of conventional neural networks, the present invention does not use probabilities and changes all elements at the same time in a deterministic manner to achieve high-speed, high-performance information processing. It is characterized by being able to do. (Operation and Examples) Next, the operation of the present invention and the experimental results will be described with reference to examples. For simplicity, the element is assumed to consist of two chaotic oscillators. Also, since the simulation is performed using a personal computer, the movement of this element is represented by the following equation (see References 1 and 5). In the above equation, x (i) (n) is the value at the time n of the first oscillator inside the i-th element, and y
(I) (n) is the value at the time n of the second vibrator inside the i-th element. The corresponding values at time n + 1 are x (i) (n + 1) and y (i) (n + 1), respectively.
Expressed as Further, D i (n) is a coupling constant between two transducers inside the i-th element at time n (see Reference 5). G X {x (n)} and G Y {y
(N)} are mapping functions of the first oscillator and the second oscillator, respectively, and a logistic map (see Reference 1) is used in the following embodiments. In other words, And The mapping parameters A X (≦ 4) and A Y (≦ 4) generally have values close to 4. In order to determine the state of this chaotic oscillator binding system element, z (i) (n) defined by the following equation is introduced. Here, this element is a binary digital element. In digitization, the tuning state of the chaotic oscillator coupling system is used to set the tuning state to (1) and the non-tuning state to (0). That is, the state value u of the i-th element at time n
(I) (n) can be obtained by the following formula. Here, ε is a tuning determination parameter and generally gives a value close to zero. When the value of this parameter ε is set to 0 and the value of the mapping parameter is set to A X = A Y , u (i) (n) = 1 indicates that the two oscillators inside the i-th element are perfectly synchronized. I'm telling you. However, because of the symmetry of the equation of motion, once A X = A Y , once tuning is performed, the tuning state does not deviate even if the coupling constant becomes small. A small amount of noise can be added to avoid this, but it is easy to solve by using the randomness inherent in chaos. To do that, just make the values of A X and A Y slightly different. The parameter ε in equation (6) corresponds to the temperature in the Boltzmann machine, and if the value of ε (<< 1) is large, the motion corresponding to the high temperature will occur and it will escape from the small local minimum. You can Also,
Since it corresponds to a high temperature even when the difference between A X and A Y is large,
Tuning determination parameter ε and mapping parameter (A X, A Y)
Various exercises can be performed by selecting various values of. For example, the same effect as annealing can be obtained by changing the values of these parameters with time. It is advisable to select parameters appropriately according to the problem to be solved. The elements formed as described above are combined to form a network. The problem is how to incorporate the coupling between elements into the coupling constant inside the element, which is as follows. That is, when the coupling constant between the elements i and k is W ik , the input to the element i from the outside of the network is S i , and the threshold of the element i is θ i , at the time n of the element i. The coupling constant D i (n) between the oscillators is given by the following equation. Since the oscillator may collapse when the coupling constant D i (n) becomes negative, this is prevented by the above equation (9). According to the state change rule of the Hopfield model (see page 21 of Reference 2), the element state is set to (1) when the right side of equation (8) is positive, and the state is set to (0) when it is negative. I am trying to change it. In order to adjust the element of the present invention to this, the threshold value θ i may be set to a critical value at which the two oscillators tune when there is no external force and inter-element coupling. If you do this,
The know-how used in conventional neural networks can also be used in the neural networks of the present invention. Moreover, this critical value is equal to the maximum Lyapunov exponent of the mapping function (see Reference 5). In the calculation below, A
Since X = 4 and A Y takes a value very close to A X , And Review the computational flow of the neural network configured as above. When the coordinates (x (i) (0), y (i) (0)) of all the oscillators are given at the initial time n = 0, z (i) (0) is obtained from the equation (5) from this.
The state u (i) (0) of the device is determined by using the expressions (6) and (7) from z (i) (0). The coupling constant between the oscillators is determined from equations (8) and (9) using u (i) (0). In this way, the various values in the initial state are all determined. From these values of n = 0, time n = 1 from the equations (1) and (2).
The coordinates (x (i) (1), y (i) (1)) of the oscillator are determined. Similarly, the states of all elements at an arbitrary time are determined deterministically in parallel without using probabilities. Next, the neural network of the present invention is connected to a personal computer (PC-9801RA) by a numerical processor 8.
Here is a simple example that is simulated by listing 0387. Example 1. Self-associative Associative Memory of Characters (Character Recognition) Self-associative associative memory using a neural network will be performed using the neural network of the present invention (see pages 22-23 of Reference 2).
The network consists of 64 elements.
The elements are arranged in an 8 × 8 square as shown in FIG. Since the element can take two values, a white circle represents (0) and a black circle represents (1). The white circle and the black circle are used to represent the figure, and the pattern to be stored is embedded in the network. To that end, the inter-element coupling constant w ik is (See reference 2). Here, α s represents the state of the pattern to be stored. In the implementation, the values of various parameters were selected as follows. The mapping parameters are Here, the value of A Y may be a little smaller, for example, A Y = 3.999. The tuning determination parameter is And The values under the patterns in FIGS. 1 to 4 are the energy values of the state (see Reference 2). Also, the 1st and 4th patterns in each figure are embedded patterns,
In this example, as you can see from the figure, capital letters L, O, V,
This network remembers four E's. The manner of recalling (restoring) the correct L, O, V, and E from the disordered L, O, V, and E patterns is shown in the lower row of the four patterns. The pattern is displayed each time the discrete time n increases by 1, and it is assumed that the time advances to the right. In the first example of FIG. 1, the disordered L starts (n =
0), and recalls the correct L in four transitions. Also,
At this time, the calculation time required for one transition was about 0.3 seconds. Because of this function, a neural network can be used for character recognition (see Reference 6). Example 2. Traveling Salesman Problem (Combination Optimization Problem) Next, the traveling salesman problem (TSP), which is a well-known combinatorial optimization problem, is solved using the neural network of the present invention. In the calculation, the simulation is performed on the personal computer as in the case of Example 1. TS
The P problem is a problem of finding the shortest of such routes, assuming that each of the N cities is once visited and finally returned to the starting point. A method of solving this problem using a neural network, for example, how to give a coupling constant between elements and each row and column of the elements arranged in a square have the same meaning as Hopfield (see page 119 of Reference 2). . That is, each row corresponds to one city, and each column represents the order of visit. At this time, the state of the element on the i-th row and the k-th column is represented by u ik . Then, the coupling constant between u ik and u nm is represented by w ik nm . In addition, the distance between city i and city n is d in . In this case, the binding constant w ik nm between the elements and the external input S ik may be given by the following expressions. Where δ in is Kronecker's delta, that is, Here, the solution will be made for N = 10.
In the implementation, the values of various parameters were selected as follows. The mapping parameters are The tuning parameters are And However, generally, ε = 0.0015 is preferable. It is assumed that the X coordinate and the Y coordinate of each city (C 1 to C 10 ) are given as follows. Further, the coefficients A and B were taken as follows. A = 5, B = 0.5 (20) The values of the above parameters may be set so that D i (n) is about 1 to 10. However, the ratio A / B of A and B is preferably about 10. In the execution of the calculation, it was first aborted at 100 transitions, and then random initial conditions were given again and restarted. This corresponds to the method of annealing with a Boltzmann machine. This process was repeated several times and the best solution was left. The time required for one transition was about 0.87 seconds. The results obtained are shown in FIG. The value at the bottom of the figure represents the distance. Also, 913 transitions were required to obtain this solution. Although two examples have been shown above, many other applications are possible. When using a neural network, first the appropriate interelement coupling is determined according to the given problem. The intended information processing is performed by operating the neural network set in this way. Further, if the coupling between elements is changed by learning, the information processing apparatus becomes a learning device. Furthermore, it is possible to combine several neural networks of the present invention for advanced information processing. Although not performed in the embodiment, D i (n) M including a memory effect as shown in the following equation may be used as the coupling constant between the oscillators inside the element depending on the problem. Here, m represents the length of memory and r represents the decay rate of memory. Also, there is no past in the early days. And This memory effect generally need not be included. The element of the above-mentioned embodiment is composed of a system in which two chaotic oscillators are coupled, and is designed to function as a binary digital element by using the tuned state and the non-tuned state of the system. There is. By the way, an element composed of three chaotic oscillators can be a ternary digital element in which the non-tuned state is (0), the partially tuned state is (1), and the fully tuned state is (2). The same applies hereinafter. By the way, (6) of the embodiment,
The chaotic oscillator coupling system can also be used as an analog element if it is not digitized as in equation (7). (Effect of the Invention) As shown above, this neural network can be used in the same manner as the conventional neural network, and its performance is far superior to the conventional one. It is a fully parallel and deterministic neural network because it uses a chaotic oscillator coupling system for its elements. Since it is completely parallel, it is fast and deterministic, but it can also perform Boltzmann machine-like movements because it uses chaos. Also, the TSP problem can be solved by using a binary digital element as in the second embodiment.
In general, it is extremely difficult to solve the TSP problem using a digital element, and it was possible to solve the TSP problem only after the Hopfield and the tank were analogized (see Reference 7). Since the device of the present invention can be a binary digital device, it is easy to implement hardware. This is a very important advantage when commercialized. Reference (1) Kazuyuki Aihara Ed., 1990. chaos. Science company. (2) Hideki Aso 1988. Neural network information processing. Industrial books. (3) Kazuyuki Aihara 1988. Neural computer. Tokyo Denki University Press. (4) Edited by Kaoru Nakano, 1990. Basics of neurocomputers. Corona Company. (5) Yamada, T. et al. , And Fujisaki
a H. 1983. Stability Theory
of Synchronized Motion i
n Coupled-Oscillator System
ems. II. Prog. Theor. Physic
s 70,1240-1248. (6) Tamio Maeda 1990. Character recognition by neuro simulation. Sankaido. (7) Hopfield J. J. and Tank
D. W. 1985. "Neural" Computa
ion of Decisions Optimize
zation Problems. Biol. Cyb
ern. 52, 141-152.

【図面の簡単な説明】 第1図はパターンLの想起過程を示した図 第2図はパターンOの想起過程を示した図 第3図はパターンVの想起過程を示した図 第4図はパターンEの想起過程を示した図 第5図は巡回セールスマン問題を解いて得られた順路を
示した図
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a recall process of a pattern L. FIG. 2 is a diagram showing a recall process of a pattern O. FIG. 3 is a diagram showing a recall process of a pattern V. FIG. Fig. 5 shows the process of recalling pattern E. Fig. 5 shows the route obtained by solving the traveling salesman problem.

Claims (1)

【特許請求の範囲】 (イ)複数個のカオス振動子を結合させた系を素子とす
る。 (ロ)この素子を複数個互いに結合させる。 以上の如く構成された、ニューラル・ネットワーク。
(A) An element is a system in which a plurality of chaotic oscillators are coupled. (B) A plurality of these elements are combined with each other. The neural network configured as described above.
JP2419035A 1990-12-25 1990-12-25 Neural network using chaos oscillator coupling system as element Pending JPH0683791A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2419035A JPH0683791A (en) 1990-12-25 1990-12-25 Neural network using chaos oscillator coupling system as element
PCT/JP1991/001748 WO1992011599A1 (en) 1990-12-25 1991-12-20 Neural network using chaos vibrator coupling system as element thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2419035A JPH0683791A (en) 1990-12-25 1990-12-25 Neural network using chaos oscillator coupling system as element

Publications (1)

Publication Number Publication Date
JPH0683791A true JPH0683791A (en) 1994-03-25

Family

ID=18526762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2419035A Pending JPH0683791A (en) 1990-12-25 1990-12-25 Neural network using chaos oscillator coupling system as element

Country Status (2)

Country Link
JP (1) JPH0683791A (en)
WO (1) WO1992011599A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046715A (en) * 2018-09-14 2020-03-26 株式会社東芝 Computing apparatus, computation program, storage medium, and computation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6211981A (en) * 1985-07-10 1987-01-20 Hitachi Ltd Chaos computer
JP3205873B2 (en) * 1987-12-03 2001-09-04 一幸 合原 Chaos network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046715A (en) * 2018-09-14 2020-03-26 株式会社東芝 Computing apparatus, computation program, storage medium, and computation method

Also Published As

Publication number Publication date
WO1992011599A1 (en) 1992-07-09

Similar Documents

Publication Publication Date Title
Caterini et al. Deep neural networks in a mathematical framework
Gallicchio et al. Deep randomized neural networks
US20200387820A1 (en) Unified nonlinear modeling approach for machine learning and artificial intelligence (attractor assisted ai)
Fister et al. Bat algorithm: Recent advances
s Geszti Physical models of neural networks
Wang et al. Evolutionary learning of BMF fuzzy-neural networks using a reduced-form genetic algorithm
Cagnoni et al. Genetic and evolutionary computation for image processing and analysis
Wang et al. Qualitative analysis and control of complex neural networks with delays
Saadatmand-Tarzjan et al. A novel constructive-optimizer neural network for the traveling salesman problem
Ngom et al. STRIP-a strip-based neural-network growth algorithm for learning multiple-valued functions
Liu et al. Granular computing classification algorithms based on distance measures between granules from the view of set
JPH0683791A (en) Neural network using chaos oscillator coupling system as element
Li et al. ANN: a heuristic search algorithm based on artificial neural networks
Nowshin et al. Recent advances in reservoir computing with a focus on electronic reservoirs
Starke et al. Dynamical system approaches to combinatorial optimization
Nyman et al. Marginal and simultaneous predictive classification using stratified graphical models
Zak An unpredictable-dynamics approach to neural intelligence
Dogaru et al. Mutations of the" Game of Life": A generalized cellular automata perspective of complex adaptive systems
Wang et al. Introduction to neural networks
Bandman Cellular-Neural computations. Formal model and possible applications
Davis et al. Selecting continuous life-like cellular automata for halting unpredictability: evolving for abiogenesis
Rajauria et al. Estimation of one-dimensional discrete-time quantum walk parameters by using machine learning algorithms
Ahmetoğlu et al. Convolutional soft decision trees
Braspenning Neural cognodynamics
Musikawan et al. Improved convex incremental extreme learning machine based on ridgelet and PSO algorithm