JPH07200512A - 最適化問題解決装置 - Google Patents
最適化問題解決装置Info
- Publication number
- JPH07200512A JPH07200512A JP5252406A JP25240693A JPH07200512A JP H07200512 A JPH07200512 A JP H07200512A JP 5252406 A JP5252406 A JP 5252406A JP 25240693 A JP25240693 A JP 25240693A JP H07200512 A JPH07200512 A JP H07200512A
- Authority
- JP
- Japan
- Prior art keywords
- optimization problem
- output
- cost
- neuron
- problem solving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】 (修正有)
【目的】 種々のコスト関数を有する最適化問題に適用
することができ、かつ事前にシナプス結合荷重を決定す
る必要のない最適化問題解決装置。 【構成】 相互結合型ニューラルネットワークと、与え
られた最適化問題についてのコスト演算式を演算するコ
スト演算部とを備え、初期状態において各ニューロンの
他のニューロンからの結合荷重と各ニューロンの出力と
を任意に設定し、少なくとも1つのニューロンについて
ネット演算し、ネット演算後の各ニューロンの出力を前
記コスト演算部に送ってコストを計算すると共に、ネッ
ト演算前のコストとの差ΔCOSTを相互結合型ニューラル
ネットワークにフィードバックし、ΔCOSTに基づいてネ
ット演算されたニューロンの結合荷重を修正しつつ相互
結合型ニューラルネットワークの状態を遷移させるステ
ップを繰り返し、所定条件が満たされたときに遷移ステ
ップを終了して各ニューロンの出力を最適化問題の解と
する。
することができ、かつ事前にシナプス結合荷重を決定す
る必要のない最適化問題解決装置。 【構成】 相互結合型ニューラルネットワークと、与え
られた最適化問題についてのコスト演算式を演算するコ
スト演算部とを備え、初期状態において各ニューロンの
他のニューロンからの結合荷重と各ニューロンの出力と
を任意に設定し、少なくとも1つのニューロンについて
ネット演算し、ネット演算後の各ニューロンの出力を前
記コスト演算部に送ってコストを計算すると共に、ネッ
ト演算前のコストとの差ΔCOSTを相互結合型ニューラル
ネットワークにフィードバックし、ΔCOSTに基づいてネ
ット演算されたニューロンの結合荷重を修正しつつ相互
結合型ニューラルネットワークの状態を遷移させるステ
ップを繰り返し、所定条件が満たされたときに遷移ステ
ップを終了して各ニューロンの出力を最適化問題の解と
する。
Description
【0001】
【産業上の利用分野】この発明は、相互結合型ニューラ
ルネットワークを利用した最適化問題解決装置に関し、
より詳細には、各ニューロンのシナプス結合荷重をフィ
ードバックにより自動的に変更しつつ、すなわち、提示
された問題に適合するようネットワークを自己組織化し
つつ作動する装置、および、この処理をソフトウェア的
に実行する方法に関する。
ルネットワークを利用した最適化問題解決装置に関し、
より詳細には、各ニューロンのシナプス結合荷重をフィ
ードバックにより自動的に変更しつつ、すなわち、提示
された問題に適合するようネットワークを自己組織化し
つつ作動する装置、および、この処理をソフトウェア的
に実行する方法に関する。
【0002】
【従来の技術】従来の代表的な相互結合型ニューラルネ
ットワークとしては、ホップフィールドモデルが知られ
ている。このモデルは、図16に示すように並列した複
数のニューロンの出力を自己を除く他のニューロンの入
力として相互に結合して構成されている。
ットワークとしては、ホップフィールドモデルが知られ
ている。このモデルは、図16に示すように並列した複
数のニューロンの出力を自己を除く他のニューロンの入
力として相互に結合して構成されている。
【0003】i番目のニューロンの出力をxi、i番目
のニューロンに入力されるj番目のニューロンの出力の
シナプス結合荷重をωij、i番目のニューロンの閾値を
θiとすると、シナプス結合が対称的(ωij=ωji)であ
れば、ホップフィールドのニューラルネットワークのエ
ネルギーEは、以下の式(1)で表される。
のニューロンに入力されるj番目のニューロンの出力の
シナプス結合荷重をωij、i番目のニューロンの閾値を
θiとすると、シナプス結合が対称的(ωij=ωji)であ
れば、ホップフィールドのニューラルネットワークのエ
ネルギーEは、以下の式(1)で表される。
【0004】
【数1】 E=-(1/2)Σωijxixj − Σθixi + G …(1)
【0005】ここで、Gはコスト関数の逆関数の積分項
目であり、ニューロンの出力が0または1に限られる離
散モデルにおいては0となる。
目であり、ニューロンの出力が0または1に限られる離
散モデルにおいては0となる。
【0006】なお、この明細書では、最適化問題の解の
組から所定の関数によって得られる結果をコストと定義
する。ここでは、経済的な費用という意味のみでなく、
解決すべき問題の評価基準として、リスク、時間等の概
念も含む意味で用いられている。
組から所定の関数によって得られる結果をコストと定義
する。ここでは、経済的な費用という意味のみでなく、
解決すべき問題の評価基準として、リスク、時間等の概
念も含む意味で用いられている。
【0007】このようなホップフィールドタイプのニュ
ーラルネットワークを利用して最適化問題を解く場合に
は、最適化問題を解くためのコスト関数Fを設定し、こ
れに基づいてエネルギーEがコスト関数Fに一致するよ
うに全てのニューロンにおける結合荷重ωijを決定して
おき、その後、各ニューロンに初期値を与えてニューラ
ルネットワークを作動させる。
ーラルネットワークを利用して最適化問題を解く場合に
は、最適化問題を解くためのコスト関数Fを設定し、こ
れに基づいてエネルギーEがコスト関数Fに一致するよ
うに全てのニューロンにおける結合荷重ωijを決定して
おき、その後、各ニューロンに初期値を与えてニューラ
ルネットワークを作動させる。
【0008】任意な初期値を与えられたニューラルネッ
トワークは、モンテカルロ法によるマルコフ遷移を繰返
す。所定回数の遷移の繰返しにより出力が安定して収束
した時点での各ニューロンの出力が、最適化問題の解と
なる。
トワークは、モンテカルロ法によるマルコフ遷移を繰返
す。所定回数の遷移の繰返しにより出力が安定して収束
した時点での各ニューロンの出力が、最適化問題の解と
なる。
【0009】
【発明が解決しようとする課題】しかしながら、上述し
た従来のホップフィールドモデルを利用して最適化問題
を解く場合には、シナプス結合荷重をホップフィールド
エネルギー式がコスト関数Fに一致するよう2次式同士
の当てはめ問題を予め解いておかねばならず、変数の数
が多くなるに従ってニューラルネットワークを作動させ
る前段階での準備が幾何級数的に増大する。すなわち、
従来のモデルでは、ニューラルネットワークのエネルギ
ー式にコスト関数Fを当てはめるように結合荷重を設定
した後、マルコフ遷移を実行して最適解を求めている
が、この当てはめに相当な手間がかかるという問題があ
る。
た従来のホップフィールドモデルを利用して最適化問題
を解く場合には、シナプス結合荷重をホップフィールド
エネルギー式がコスト関数Fに一致するよう2次式同士
の当てはめ問題を予め解いておかねばならず、変数の数
が多くなるに従ってニューラルネットワークを作動させ
る前段階での準備が幾何級数的に増大する。すなわち、
従来のモデルでは、ニューラルネットワークのエネルギ
ー式にコスト関数Fを当てはめるように結合荷重を設定
した後、マルコフ遷移を実行して最適解を求めている
が、この当てはめに相当な手間がかかるという問題があ
る。
【0010】また、ホップフィールドモデルによって解
ける最適化問題は、コスト関数Fが微分可能で、次数も
2次までである。現実的な最適化問題には、微分できな
い離散的なコスト関数を用いるもの、3次以上の次数を
持つものが多く、したがって、従来のモデルでは適用で
きる範囲がきわめて限られるという問題もあった。
ける最適化問題は、コスト関数Fが微分可能で、次数も
2次までである。現実的な最適化問題には、微分できな
い離散的なコスト関数を用いるもの、3次以上の次数を
持つものが多く、したがって、従来のモデルでは適用で
きる範囲がきわめて限られるという問題もあった。
【0011】さらに、ホップフィールドモデルでは、マ
ルコフ遷移の実行中に最初に到達した極小ポイント(ロ
ーカルミニマム)で停止するため、最小コストに相当す
る最小ポイントまでに極小点のないスタートポイントを
選択した場合にのみ最小値を得ることができる。このロ
ーカルミニマム問題は、ホップフィールドモデルの致命
的な欠点であり、これを避けるために確率遷移を導入す
る方法等が採用されている。
ルコフ遷移の実行中に最初に到達した極小ポイント(ロ
ーカルミニマム)で停止するため、最小コストに相当す
る最小ポイントまでに極小点のないスタートポイントを
選択した場合にのみ最小値を得ることができる。このロ
ーカルミニマム問題は、ホップフィールドモデルの致命
的な欠点であり、これを避けるために確率遷移を導入す
る方法等が採用されている。
【0012】
【発明の目的】この発明は、上述した従来技術の課題に
鑑みてなされたものであり、従来のモデルが適用できな
かった種々のコスト関数を有する最適化問題に適用する
ことができ、かつ、事前にシナプス結合荷重を決定する
必要のない最適化問題解決装置を提供することを目的と
する。
鑑みてなされたものであり、従来のモデルが適用できな
かった種々のコスト関数を有する最適化問題に適用する
ことができ、かつ、事前にシナプス結合荷重を決定する
必要のない最適化問題解決装置を提供することを目的と
する。
【0013】
【課題を解決するための手段】この発明にかかる最適化
問題解決装置は、上記の目的を達成させるため、一のニ
ューロンの出力が他のニューロンへの入力となる複数の
ニューロンにより構成される相互結合型ニューラルネッ
トワークと、与えられた最適化問題についてのコスト演
算式に各ニューロンの出力を変数として代入してコスト
を演算するコスト演算部とを備え、初期状態において各
ニューロンの他のニューロンからの結合荷重と各ニュー
ロンの出力とを任意に設定し、少なくとも1つのニュー
ロンについてネット演算し、ネット演算後の各ニューロ
ンの出力を前記コスト演算部に送ってコストを計算する
と共に、ネット演算前のコストとの差ΔCOSTを相互結合
型ニューラルネットワークにフィードバックし、ΔCOST
に基づいてネット演算されたニューロンの結合荷重を修
正しつつ相互結合型ニューラルネットワークの状態を遷
移させるステップを繰り返し、所定条件が満たされたと
きに遷移ステップを終了して各ニューロンの出力を最適
化問題の解とすることを特徴とする。
問題解決装置は、上記の目的を達成させるため、一のニ
ューロンの出力が他のニューロンへの入力となる複数の
ニューロンにより構成される相互結合型ニューラルネッ
トワークと、与えられた最適化問題についてのコスト演
算式に各ニューロンの出力を変数として代入してコスト
を演算するコスト演算部とを備え、初期状態において各
ニューロンの他のニューロンからの結合荷重と各ニュー
ロンの出力とを任意に設定し、少なくとも1つのニュー
ロンについてネット演算し、ネット演算後の各ニューロ
ンの出力を前記コスト演算部に送ってコストを計算する
と共に、ネット演算前のコストとの差ΔCOSTを相互結合
型ニューラルネットワークにフィードバックし、ΔCOST
に基づいてネット演算されたニューロンの結合荷重を修
正しつつ相互結合型ニューラルネットワークの状態を遷
移させるステップを繰り返し、所定条件が満たされたと
きに遷移ステップを終了して各ニューロンの出力を最適
化問題の解とすることを特徴とする。
【0014】
【実施例】以下、この発明にかかる最適化問題解決装置
の実施例を説明する。
の実施例を説明する。
【0015】図1は、この発明にかかる最適化問題解決
装置の概略を示す説明図である。この装置は、一のニュ
ーロンの出力が他のニューロンへの入力となるi個のニ
ューロンN1、N2、…Niにより構成される自己組織型
相互結合ニューラルネットワーク(Self Organic Interc
onnected Neural Network、以下略してSOINNと記
載する)と、与えられた最適化問題についてのコスト演
算式に各ニューロンの出力を変数として代入してコスト
を演算するコスト演算部CULとを備えている。コスト
演算部CULは、一般の汎用コンピュータを用いること
ができる。
装置の概略を示す説明図である。この装置は、一のニュ
ーロンの出力が他のニューロンへの入力となるi個のニ
ューロンN1、N2、…Niにより構成される自己組織型
相互結合ニューラルネットワーク(Self Organic Interc
onnected Neural Network、以下略してSOINNと記
載する)と、与えられた最適化問題についてのコスト演
算式に各ニューロンの出力を変数として代入してコスト
を演算するコスト演算部CULとを備えている。コスト
演算部CULは、一般の汎用コンピュータを用いること
ができる。
【0016】i番目のニューロンNiは、以下の式(2)に
示すとおり、自己以外のj番目のニューロンNjの出力
xjとその出力のi番目のニューロンNiへの結合荷重ω
ijとの積の総和を求め、これに閾値θiを加えた結果を
ニューロンのネット値netiとしている。
示すとおり、自己以外のj番目のニューロンNjの出力
xjとその出力のi番目のニューロンNiへの結合荷重ω
ijとの積の総和を求め、これに閾値θiを加えた結果を
ニューロンのネット値netiとしている。
【0017】
【数2】neti=Σωijxj + θi …(2)
【0018】また、各ニューロンの出力は、離散値モデ
ルの場合にはneti≧0の場合にはxi=1、neti
<0の場合にはxi=0となり、連続値モデルの場合に
はnetiの値に応じて0≦xi≦1の範囲で変化する。
ルの場合にはneti≧0の場合にはxi=1、neti
<0の場合にはxi=0となり、連続値モデルの場合に
はnetiの値に応じて0≦xi≦1の範囲で変化する。
【0019】ニューラルネットワークにおいて、全ての
ニューロンの出力値の組をその時点におけるそのネット
ワークの状態と定義する。ニューラルネットワークの動
作を調べることは、状態の時間的変化、すなわち状態遷
移を追跡することにほかならない。この状態遷移がなく
なったとき、あるいは、所定の振幅内に収束したとき、
ニューラルネットワークは平衡点に達したとみなすこと
ができる。ネットワークの状態は、変化し続ける(発
散、振動)か、平衡点に達する(収束)かのいずれかであ
る。
ニューロンの出力値の組をその時点におけるそのネット
ワークの状態と定義する。ニューラルネットワークの動
作を調べることは、状態の時間的変化、すなわち状態遷
移を追跡することにほかならない。この状態遷移がなく
なったとき、あるいは、所定の振幅内に収束したとき、
ニューラルネットワークは平衡点に達したとみなすこと
ができる。ネットワークの状態は、変化し続ける(発
散、振動)か、平衡点に達する(収束)かのいずれかであ
る。
【0020】この発明の装置では、初期状態において各
ニューロンの他のニューロンからの結合荷重ωijと各ニ
ューロンの出力xiとを任意に設定する。そして、少な
くとも1つのニューロンについてネット演算し、ネット
演算後の各ニューロンの出力をコスト演算部CULに送
ってコストを計算すると共に、ネット演算前のコストと
の差ΔCOSTをSOINNにフィードバックする。SOI
NNは、ΔCOSTに基づいてネット演算されたニューロン
の結合荷重ωijを修正しつつ状態遷移のステップを繰り
返し、所定条件が満たされたときに遷移ステップを終了
し、その際の各ニューロンの出力を最適化問題の解とす
る。
ニューロンの他のニューロンからの結合荷重ωijと各ニ
ューロンの出力xiとを任意に設定する。そして、少な
くとも1つのニューロンについてネット演算し、ネット
演算後の各ニューロンの出力をコスト演算部CULに送
ってコストを計算すると共に、ネット演算前のコストと
の差ΔCOSTをSOINNにフィードバックする。SOI
NNは、ΔCOSTに基づいてネット演算されたニューロン
の結合荷重ωijを修正しつつ状態遷移のステップを繰り
返し、所定条件が満たされたときに遷移ステップを終了
し、その際の各ニューロンの出力を最適化問題の解とす
る。
【0021】遷移ステップ終了の条件としては、SOI
NNの出力が一定の安定状態となったとき、遷移ステッ
プが所定の回数繰り返されたとき、遷移ステップの開始
からの時間が所定の時間を経過したとき、そして、出力
されたコスト値が予め定められた基準のコスト値より小
さくなった場合などを設定することができる。これらの
条件は、単独で設定してもよいし、複数設定しておいて
その中の一つが満たされたとき、あるいは全部が満たさ
れたときを遷移ステップの終了としてもよい。
NNの出力が一定の安定状態となったとき、遷移ステッ
プが所定の回数繰り返されたとき、遷移ステップの開始
からの時間が所定の時間を経過したとき、そして、出力
されたコスト値が予め定められた基準のコスト値より小
さくなった場合などを設定することができる。これらの
条件は、単独で設定してもよいし、複数設定しておいて
その中の一つが満たされたとき、あるいは全部が満たさ
れたときを遷移ステップの終了としてもよい。
【0022】コスト関数の計算をニューラルネットワー
ク外の演算部CULで計算し、ニューラルネットワーク
に対してはコストの変動値のみをフィードバックするこ
とにより、当てはめ問題を解かずに作動させることがで
き、かつ、複雑なコスト関数を持つ最適化問題に対して
も柔軟に対応できる装置を提供することができる。
ク外の演算部CULで計算し、ニューラルネットワーク
に対してはコストの変動値のみをフィードバックするこ
とにより、当てはめ問題を解かずに作動させることがで
き、かつ、複雑なコスト関数を持つ最適化問題に対して
も柔軟に対応できる装置を提供することができる。
【0023】ホップフィールドのエネルギー式に当ては
められたニューロンは、その状態遷移において必ず実際
のエネルギーの減少を伴う。ホップフィールドエネルギ
ー式に対する当てはめ問題を全く解かず、初期状態にお
いて任意にωijを与えられた相互結合ニューラルネット
ワークが、マルコフ遷移動作を行なう状態において、ニ
ューロンNiの演算の結果の出力Viが変化した場合を考
える。
められたニューロンは、その状態遷移において必ず実際
のエネルギーの減少を伴う。ホップフィールドエネルギ
ー式に対する当てはめ問題を全く解かず、初期状態にお
いて任意にωijを与えられた相互結合ニューラルネット
ワークが、マルコフ遷移動作を行なう状態において、ニ
ューロンNiの演算の結果の出力Viが変化した場合を考
える。
【0024】ここではニューラルネットワークを構成す
る各ニューロンが離散的な入出力特性を持つ場合、すな
わち、出力が0,1となるようなモデルを例にして説明
する。ニューロンの出力状態遷移により変化するニュー
ラルネットワーク上のエネルギーの変化量ΔEnetを、
その状態遷移が必ずエネルギー減少を伴うことが既に明
確であるという理由から、以下の式(3)で定義する。
る各ニューロンが離散的な入出力特性を持つ場合、すな
わち、出力が0,1となるようなモデルを例にして説明
する。ニューロンの出力状態遷移により変化するニュー
ラルネットワーク上のエネルギーの変化量ΔEnetを、
その状態遷移が必ずエネルギー減少を伴うことが既に明
確であるという理由から、以下の式(3)で定義する。
【0025】
【数3】 ΔEnet=−(Vi(t+1)−Vi(t))・neti …(3)
【0026】Vi(t)は、時間tにおけるi番目のニュー
ロンの出力xiである。上記のエネルギー変動式で定義
されるΔEnetは、ニューロンの出力に変化があったと
きに必ず負の値となる。なぜなら、Viが0から1へ変
化した場合、(Vi(t+1)−Vi(t))は+1、netiの
値は正となり、ΔEnetは負となる。反対に、Viが1か
ら0へ変化した場合、(Vi(t+1)−Vi(t))は−1、n
etiの値は負となり、ΔEnetはこの場合も負となる。
ロンの出力xiである。上記のエネルギー変動式で定義
されるΔEnetは、ニューロンの出力に変化があったと
きに必ず負の値となる。なぜなら、Viが0から1へ変
化した場合、(Vi(t+1)−Vi(t))は+1、netiの
値は正となり、ΔEnetは負となる。反対に、Viが1か
ら0へ変化した場合、(Vi(t+1)−Vi(t))は−1、n
etiの値は負となり、ΔEnetはこの場合も負となる。
【0027】したがって、式(3)が成り立つ限り、マル
コフ遷移によるネットエネルギー極小状態への収束が保
証される。なお、式(3)はホップフィールドエネルギー
式から導かれるエネルギー変動式と同様であるが、ホッ
プフィールドのエネルギー式に限られるものではない。
また、エネルギー変動式は、必ずしも上記の式(3)に限
られず、式(4)に一般化して示すように状態の変化が常
にエネルギーの減少を伴うことが保証されれば他の式で
あってもよい。ここで、Sgn(x)はxの符号を取り出す
関数である。
コフ遷移によるネットエネルギー極小状態への収束が保
証される。なお、式(3)はホップフィールドエネルギー
式から導かれるエネルギー変動式と同様であるが、ホッ
プフィールドのエネルギー式に限られるものではない。
また、エネルギー変動式は、必ずしも上記の式(3)に限
られず、式(4)に一般化して示すように状態の変化が常
にエネルギーの減少を伴うことが保証されれば他の式で
あってもよい。ここで、Sgn(x)はxの符号を取り出す
関数である。
【0028】
【数4】 ΔEnet=−λ(Vi(t+1)−Vi(t))・neti …(4) ただし、λ=Sgn{(Vi(t+1)−Vi(t))・neti}
【0029】ネットエネルギーの極小状態への収束を、
コストの極小状態への収束と同義にするためには、ΔE
net=ΔCOSTとなるように、あるいは、ネットエネルギ
ーがコストそのものになるようニューラルネットワーク
を自己組織化すればよいこととなる。
コストの極小状態への収束と同義にするためには、ΔE
net=ΔCOSTとなるように、あるいは、ネットエネルギ
ーがコストそのものになるようニューラルネットワーク
を自己組織化すればよいこととなる。
【0030】式(3)の両辺を(Vi(t+1)−Vi(t))で割
ると式(5)が得られるが、ΔEnet=ΔCOSTを成立させる
ためには、出力変動のあったニューロンのネット値ne
tiは式(6)を満たすことが要求され、したがって、自己
組織化の過程におけるニューロンのネット値netiに
対する教師信号Tは、以下の式(7)で表されることとな
る。
ると式(5)が得られるが、ΔEnet=ΔCOSTを成立させる
ためには、出力変動のあったニューロンのネット値ne
tiは式(6)を満たすことが要求され、したがって、自己
組織化の過程におけるニューロンのネット値netiに
対する教師信号Tは、以下の式(7)で表されることとな
る。
【0031】
【数5】 −ΔEnet/(Vi(t+1)−Vi(t))=neti …(5) −ΔCOST/(Vi(t+1)−Vi(t))=neti …(6) T=−ΔCOST/(Vi(t+1)−Vi(t)) …(7)
【0032】なお、離散モデルの場合、出力変動があっ
た場合の(Vi(t+1)−Vi(t))は1、−1の区間定数で
あるため、式(6)の右辺はΔCOSTに符号がついたものと
考えることができる。
た場合の(Vi(t+1)−Vi(t))は1、−1の区間定数で
あるため、式(6)の右辺はΔCOSTに符号がついたものと
考えることができる。
【0033】従来、フィードフォワード型ニューラルネ
ットワークにおける学習法則として、バックプロパゲー
ションの手法が知られている。この手法は、ニューロン
の実際の出力と、外部から与えられた理想的な出力であ
る教師信号との二乗誤差を最小にしようとするもので、
結合荷重の変更式に出力の微分項目が入るため、ニュー
ロンの出力関数が微分可能でないと適用することができ
ない。また、従来の学習では、教師信号となる望まれる
出力があらかじめ明かでなければならず、未知の問題を
解く場合には適用することができない。
ットワークにおける学習法則として、バックプロパゲー
ションの手法が知られている。この手法は、ニューロン
の実際の出力と、外部から与えられた理想的な出力であ
る教師信号との二乗誤差を最小にしようとするもので、
結合荷重の変更式に出力の微分項目が入るため、ニュー
ロンの出力関数が微分可能でないと適用することができ
ない。また、従来の学習では、教師信号となる望まれる
出力があらかじめ明かでなければならず、未知の問題を
解く場合には適用することができない。
【0034】実施例の方法は、相互結合型ニューラルネ
ットワークにシナプス結合荷重を変更する学習法則を適
用した点で新規であると共に、ニューロンの出力に対し
てでなく、ニューロンのネット値に対する教師信号を与
える点で、従来のバックプロパゲーションとは異なる。
すなわち、本実施例の方法の場合、ニューロンの出力が
微分不可能な離散的な関数であっても、適用することが
できる。
ットワークにシナプス結合荷重を変更する学習法則を適
用した点で新規であると共に、ニューロンの出力に対し
てでなく、ニューロンのネット値に対する教師信号を与
える点で、従来のバックプロパゲーションとは異なる。
すなわち、本実施例の方法の場合、ニューロンの出力が
微分不可能な離散的な関数であっても、適用することが
できる。
【0035】また、この実施例の方法では、結合荷重を
コスト演算部からのフィードバックを利用して変更し、
相互結合型ニューラルネットワークを問題に合わせて自
己組織化することにより、未知の問題についても適用す
ることができる。
コスト演算部からのフィードバックを利用して変更し、
相互結合型ニューラルネットワークを問題に合わせて自
己組織化することにより、未知の問題についても適用す
ることができる。
【0036】教師信号Tが決定されれば、netiの値
に対する修正は式(8)に示す一般的な二乗誤差修正が考
えられる。ある結合荷重ωijを変化させたときの誤差E
rroriのωijによる微分値は、式(9)で表され、荷重変更
の係数をηとしてωijの変化分Δωijを式(10)で定義す
ると、この式は式(7)(8)により式(11)のように表現する
ことができる。また、ニューロンNiの閾値θiは、結合
荷重をωn+1として常に1が入力されるシナプス結合と
考えることができるため、その変化分Δθiは、式(12)
により表される。
に対する修正は式(8)に示す一般的な二乗誤差修正が考
えられる。ある結合荷重ωijを変化させたときの誤差E
rroriのωijによる微分値は、式(9)で表され、荷重変更
の係数をηとしてωijの変化分Δωijを式(10)で定義す
ると、この式は式(7)(8)により式(11)のように表現する
ことができる。また、ニューロンNiの閾値θiは、結合
荷重をωn+1として常に1が入力されるシナプス結合と
考えることができるため、その変化分Δθiは、式(12)
により表される。
【0037】
【数6】
【0038】出力Viが変化したときにはコスト演算部
で算出されるコストも変化する。上記の式は、このコス
トの変化がマイナスとなるよう結合荷重ωijを変更する
ことを意味する。なお、係数ηは、0≦η≦1の定数で
ある。これが過大であると出力が振動し、過小であると
自己組織化の速度が遅くなる。
で算出されるコストも変化する。上記の式は、このコス
トの変化がマイナスとなるよう結合荷重ωijを変更する
ことを意味する。なお、係数ηは、0≦η≦1の定数で
ある。これが過大であると出力が振動し、過小であると
自己組織化の速度が遅くなる。
【0039】なお、図1においては、SOINN部分が
ハードウェア的に構成される前提で説明を進めたが、S
OINNとコスト演算部とを全て汎用コンピュータ上の
ソフトウェアとして構成することもできる。
ハードウェア的に構成される前提で説明を進めたが、S
OINNとコスト演算部とを全て汎用コンピュータ上の
ソフトウェアとして構成することもできる。
【0040】その場合には、複数の入力に対してそれぞ
れ結合荷重を掛け合わせる複数の乗算ステップと、乗算
結果の和を求める加算ステップと、加算結果を因数とし
て所定の演算結果を出力する関数ステップとから成る演
算ステップ組を複数組用意する。この演算ステップ組
は、図1における各ニューロンに対応する。これらの演
算ステップ組は、各演算ステップ組の出力が他の演算ス
テップ組の乗算ステップの入力とされるよう構成され
る。
れ結合荷重を掛け合わせる複数の乗算ステップと、乗算
結果の和を求める加算ステップと、加算結果を因数とし
て所定の演算結果を出力する関数ステップとから成る演
算ステップ組を複数組用意する。この演算ステップ組
は、図1における各ニューロンに対応する。これらの演
算ステップ組は、各演算ステップ組の出力が他の演算ス
テップ組の乗算ステップの入力とされるよう構成され
る。
【0041】また、与えられた最適化問題についてのコ
スト演算式に前記各演算ステップ組の出力を変数として
代入してコストを演算するコスト演算ステップと、演算
前後のコストの差ΔCOSTを求めるコスト変動演算ステッ
プと、ΔCOSTに基づいて演算された演算ステップ組の乗
算式の結合荷重を修正する修正ステップとを備える。
スト演算式に前記各演算ステップ組の出力を変数として
代入してコストを演算するコスト演算ステップと、演算
前後のコストの差ΔCOSTを求めるコスト変動演算ステッ
プと、ΔCOSTに基づいて演算された演算ステップ組の乗
算式の結合荷重を修正する修正ステップとを備える。
【0042】初期状態において各組の出力と各乗算式の
結合荷重とを任意に設定し、一の演算ステップ組の乗
算、加算、関数ステップを実行して更新された出力を他
の演算ステップ組に入力し、順次他の演算ステップ組の
演算を実行する。
結合荷重とを任意に設定し、一の演算ステップ組の乗
算、加算、関数ステップを実行して更新された出力を他
の演算ステップ組に入力し、順次他の演算ステップ組の
演算を実行する。
【0043】所定条件が満たされるまで演算ステップ
組、コスト演算ステップ、コスト変動演算ステップ、修
正ステップを繰返し実行し、所定条件を満たした後に各
ステップを終了し、各演算ステップ組の出力を最適化問
題の解として出力する。
組、コスト演算ステップ、コスト変動演算ステップ、修
正ステップを繰返し実行し、所定条件を満たした後に各
ステップを終了し、各演算ステップ組の出力を最適化問
題の解として出力する。
【0044】ここでも、終了のための所定条件には、各
関数ステップの出力の安定、繰返しの回数、経過時間、
演算されたコスト値等を用いることができる。
関数ステップの出力の安定、繰返しの回数、経過時間、
演算されたコスト値等を用いることができる。
【0045】図2は、上述した実施例の最適化問題解決
装置の処理手順を示すフローチャートである。ステップ
1(S1)において最適化問題のコスト関数に含まれるパ
ラメータの数nを設定し、ステップ2(S2)でSOIN
Nにn個のニューロンを用意する。ステップ3(S3)で
は、乱数を発生してSOINNの初期状態として結合荷
重ωijと各ニューロンの出力Viを決定する。ここで、
ωijは、例えば−0.3≦ωij≦0.3の範囲の実数、
Viは1か0のいずれかの値として任意に決定される。
装置の処理手順を示すフローチャートである。ステップ
1(S1)において最適化問題のコスト関数に含まれるパ
ラメータの数nを設定し、ステップ2(S2)でSOIN
Nにn個のニューロンを用意する。ステップ3(S3)で
は、乱数を発生してSOINNの初期状態として結合荷
重ωijと各ニューロンの出力Viを決定する。ここで、
ωijは、例えば−0.3≦ωij≦0.3の範囲の実数、
Viは1か0のいずれかの値として任意に決定される。
【0046】ステップ4(S4)では、任意に決定された
各出力、結合荷重に基づいてコスト演算部で初期状態に
おけるコストを演算する。
各出力、結合荷重に基づいてコスト演算部で初期状態に
おけるコストを演算する。
【0047】ステップ5(S5)では、1つのニューロン
iを選択してその出力をVi(t)として保持しておき、ス
テップ6(S6)において前述の式(2)で示したネット演算
により新たなネット値netiを求め、ステップ7(S7)
においてニューロンiの出力Vi(t+1)を求める。
iを選択してその出力をVi(t)として保持しておき、ス
テップ6(S6)において前述の式(2)で示したネット演算
により新たなネット値netiを求め、ステップ7(S7)
においてニューロンiの出力Vi(t+1)を求める。
【0048】そして、ステップ8(S8)において、演算
前の出力Vi(t)と演算後の出力Vi(t+1)との差ΔViが
0か±1かを判断し、0であればステップ9(S9)にお
いて次のニューロンを選択し、再びステップ5からの処
理を繰り返す。
前の出力Vi(t)と演算後の出力Vi(t+1)との差ΔViが
0か±1かを判断し、0であればステップ9(S9)にお
いて次のニューロンを選択し、再びステップ5からの処
理を繰り返す。
【0049】ΔViが±1である場合には、ステップ1
0(S10)において各ニューロンの出力を用いてコスト演
算部でコストCOSTとコスト変動ΔCOSTとを計算し、得ら
れたコストが現在までの最小コストより小さいか否かを
ステップ11(S11)において判断する。コストが最小コ
ストより小さい場合には、ステップ12(S12)において
最小コストをそのコストに置き換え、ステップ13(S1
3)で最小コストが予め定められた終了条件コストより小
さいと判断された場合には、ステップ14(S14)で各ニ
ューロンの出力Viを最適化問題の解として出力し、処
理を終了する。
0(S10)において各ニューロンの出力を用いてコスト演
算部でコストCOSTとコスト変動ΔCOSTとを計算し、得ら
れたコストが現在までの最小コストより小さいか否かを
ステップ11(S11)において判断する。コストが最小コ
ストより小さい場合には、ステップ12(S12)において
最小コストをそのコストに置き換え、ステップ13(S1
3)で最小コストが予め定められた終了条件コストより小
さいと判断された場合には、ステップ14(S14)で各ニ
ューロンの出力Viを最適化問題の解として出力し、処
理を終了する。
【0050】ステップ11でコストが最小コストより大
きいと判断された場合、あるいは、ステップ13で最小
コストが終了条件コストより大きい場合には、ステップ
15(S15)においてコスト変動に基づき式(7)に従って
教師信号Tiを求め、ステップ16(S16)で式(8)により
二乗誤差修正法による誤差Erroriを求める。
きいと判断された場合、あるいは、ステップ13で最小
コストが終了条件コストより大きい場合には、ステップ
15(S15)においてコスト変動に基づき式(7)に従って
教師信号Tiを求め、ステップ16(S16)で式(8)により
二乗誤差修正法による誤差Erroriを求める。
【0051】誤差Erroriの値が所定回数連続して0と
なれば、ステップ17(S17)で収束条件を満たすものと
判断され、ステップ14を介して処理を終了する。
なれば、ステップ17(S17)で収束条件を満たすものと
判断され、ステップ14を介して処理を終了する。
【0052】誤差Erroriの値が0とならない場合に
は、ステップ18(S18)において式(11)(12)により求め
られたΔωij、Δθiにより結合荷重ωij、θiを変更す
る。
は、ステップ18(S18)において式(11)(12)により求め
られたΔωij、Δθiにより結合荷重ωij、θiを変更す
る。
【0053】さらに、ステップ19(S19)で繰返し回数
が予定の終了回数に達した場合には、ステップ14を介
して処理を終了し、達しない場合にはステップ9で次ニ
ューロンを選択してステップ5の処理に戻る。
が予定の終了回数に達した場合には、ステップ14を介
して処理を終了し、達しない場合にはステップ9で次ニ
ューロンを選択してステップ5の処理に戻る。
【0054】ステップ5からステップ18までの処理を
繰返してニューロン毎に順番にネット演算と結合荷重の
修正とを繰返し、いずれかの終了条件が満たされたとき
にステップ14(S14)で各ニューロンの出力を最適化問
題の解として取り出す。結合荷重の変更による自己組織
化は、各ニューロンに対して1回づつ順次実行するのみ
でなく、1つのニューロンに対して複数回実行した後に
次のニューロンに移ってもよい。
繰返してニューロン毎に順番にネット演算と結合荷重の
修正とを繰返し、いずれかの終了条件が満たされたとき
にステップ14(S14)で各ニューロンの出力を最適化問
題の解として取り出す。結合荷重の変更による自己組織
化は、各ニューロンに対して1回づつ順次実行するのみ
でなく、1つのニューロンに対して複数回実行した後に
次のニューロンに移ってもよい。
【0055】なお、図2のフローチャートでは、終了条
件としてコスト、収束、回数をオア条件で設定している
が、これらはいずれか一つを設けてもよいし、アンド条
件としてもよい。また、処理開始からの経過時間を終了
条件としてもよい。
件としてコスト、収束、回数をオア条件で設定している
が、これらはいずれか一つを設けてもよいし、アンド条
件としてもよい。また、処理開始からの経過時間を終了
条件としてもよい。
【0056】ネットワークの状態間の関係は、ハミング
距離として定義される。現在の状態を起点と考えると、
単一のニューロンの出力のみが変化した状態はハミング
距離1である。
距離として定義される。現在の状態を起点と考えると、
単一のニューロンの出力のみが変化した状態はハミング
距離1である。
【0057】上記のように一つづつニューロンを選択し
てネット演算する場合には、ネットワークの次の状態
は、現状を維持したままであるか、ネット演算の対象と
なっているニューロンの出力のみが反転した状態、すな
わちハミング距離1の状態へ遷移するかのいずれかであ
る。
てネット演算する場合には、ネットワークの次の状態
は、現状を維持したままであるか、ネット演算の対象と
なっているニューロンの出力のみが反転した状態、すな
わちハミング距離1の状態へ遷移するかのいずれかであ
る。
【0058】図3は、ネットワークの状態遷移の様子を
摸式的に示し、図2のフローチャートに対応している。
ネットワークが図3の「1」の状態から「2」の状態へ
と遷移したとする。ネットワークの次の状態はステップ
7における判断がΔVi=0のときには「2」に留ま
り、ΔVi=±1のときには「3」へ遷移する。
摸式的に示し、図2のフローチャートに対応している。
ネットワークが図3の「1」の状態から「2」の状態へ
と遷移したとする。ネットワークの次の状態はステップ
7における判断がΔVi=0のときには「2」に留ま
り、ΔVi=±1のときには「3」へ遷移する。
【0059】ここでニューロンの数を3としてそれぞれ
N1,N2,N3で表す。状態「2」からニューロンN1の
出力が変化した状態が「3」、N2、N3の出力が変化し
た状態がそれぞれ「4」,「5」である。ニューロンの
出力が以下の表の左欄に示したように変化すると、状態
はそれぞれ表の右欄に示したように遷移する。遷移の経
路は、図3中では太線で示しており、遷移しない破線で
示した経路については何等変化がない。
N1,N2,N3で表す。状態「2」からニューロンN1の
出力が変化した状態が「3」、N2、N3の出力が変化し
た状態がそれぞれ「4」,「5」である。ニューロンの
出力が以下の表の左欄に示したように変化すると、状態
はそれぞれ表の右欄に示したように遷移する。遷移の経
路は、図3中では太線で示しており、遷移しない破線で
示した経路については何等変化がない。
【0060】
【表1】 ニューロン出力 状態 N1 N2 N3 0 1 0 2 0 1 1 5 0 1 0 8 0 1 1 11 1 1 1 12 1 1 0 17
【0061】なお、結合荷重の学習による変更は、上記
のフローチャートに示されるように出力変化があった場
合のみでなく、自己組織化のスピードを速めるために
は、ニューロンの出力の変化の有無とは無関係に、出力
が変化した場合のΔEnetiとΔCOSTとを想定して実行し
てもよい。
のフローチャートに示されるように出力変化があった場
合のみでなく、自己組織化のスピードを速めるために
は、ニューロンの出力の変化の有無とは無関係に、出力
が変化した場合のΔEnetiとΔCOSTとを想定して実行し
てもよい。
【0062】図4は、自己組織化のスピードを早めるた
めにニューロンの出力変化の有無にかかわり無く、出力
変化があったものと仮定してΔCOSTを計算し、これに基
づいて自己組織化を行なう場合の処理を示すフローチャ
ートである。図4のフローチャートは、ほとんどのステ
ップが図2で示したものと同様であるため、異なるステ
ップのみ説明する。
めにニューロンの出力変化の有無にかかわり無く、出力
変化があったものと仮定してΔCOSTを計算し、これに基
づいて自己組織化を行なう場合の処理を示すフローチャ
ートである。図4のフローチャートは、ほとんどのステ
ップが図2で示したものと同様であるため、異なるステ
ップのみ説明する。
【0063】ステップ8(S8)においてΔViが±1であ
ったとき、すなわち、ニューロンの出力が変化したとき
には、図2の例と同様にステップ10(S10)に進んでΔ
COSTを計算する。ΔViが0であった場合、すなわちニ
ューロンの出力変動がなかった場合には、ステップ20
(S20)においてV'i(t+1)としてVi(t+1)の逆の出力、
0であったら1、1であったら0を定義する。そして、
これを用いて状態は遷移させないままΔVi(=±1)を
求め、ステップ10においてΔCOSTを求める。
ったとき、すなわち、ニューロンの出力が変化したとき
には、図2の例と同様にステップ10(S10)に進んでΔ
COSTを計算する。ΔViが0であった場合、すなわちニ
ューロンの出力変動がなかった場合には、ステップ20
(S20)においてV'i(t+1)としてVi(t+1)の逆の出力、
0であったら1、1であったら0を定義する。そして、
これを用いて状態は遷移させないままΔVi(=±1)を
求め、ステップ10においてΔCOSTを求める。
【0064】図5は、ネットワークの状態遷移の様子を
摸式的に示し、図4のフローチャートに対応している。
遷移の様子は図3の例と同様であるが、図5の場合には
実際に遷移しない場合であっても、例えば実際に遷移す
る状態「2」と「5」との経路のみでなく、状態「2」
と「3」、「2」と「4」との経路についても結合荷重
を変更し、自己組織化を行なっている。
摸式的に示し、図4のフローチャートに対応している。
遷移の様子は図3の例と同様であるが、図5の場合には
実際に遷移しない場合であっても、例えば実際に遷移す
る状態「2」と「5」との経路のみでなく、状態「2」
と「3」、「2」と「4」との経路についても結合荷重
を変更し、自己組織化を行なっている。
【0065】図6のフローチャートは、図4の例と同様
にニューロンの出力変化の有無にかかわり無く自己組織
化を進めると共に、ローカルミニマム対策として確率的
遷移を加えた例を示す。後述するようにこの発明の最適
化問題解決装置は、比較的ローカルミニマムに強いとい
う特性を有しているが、場合によっては有効解とならな
いローカルミニマムに捉えられて有効な解が得られない
ことも考えられる。そこで、図6の例では、確率的な遷
移により強制的に状態を変化させ、ローカルミニマムに
捉えられた場合にもそこから脱出できるよう構成してい
る。
にニューロンの出力変化の有無にかかわり無く自己組織
化を進めると共に、ローカルミニマム対策として確率的
遷移を加えた例を示す。後述するようにこの発明の最適
化問題解決装置は、比較的ローカルミニマムに強いとい
う特性を有しているが、場合によっては有効解とならな
いローカルミニマムに捉えられて有効な解が得られない
ことも考えられる。そこで、図6の例では、確率的な遷
移により強制的に状態を変化させ、ローカルミニマムに
捉えられた場合にもそこから脱出できるよう構成してい
る。
【0066】ステップ6(S6)におけるネット演算の結
果に基づき、ステップ21(S21)においてY=1/(1
+exp(-neti/τ))の式によりYを求めると共に、0−1
区間内の乱数Rを求め、ステップ22(S22)において出
力Vi(t+1)をY≧Rであれば1、Y<Rであれば0とし
て決定する。τは時定数である。その後の処理は、図4
の例と同様である。
果に基づき、ステップ21(S21)においてY=1/(1
+exp(-neti/τ))の式によりYを求めると共に、0−1
区間内の乱数Rを求め、ステップ22(S22)において出
力Vi(t+1)をY≧Rであれば1、Y<Rであれば0とし
て決定する。τは時定数である。その後の処理は、図4
の例と同様である。
【0067】このように、離散的な入出力特性を有する
ニューロンにより構成される相互結合型ニューラルネッ
トワークにおいては、確率的に出力を遷移させる操作が
ローカルミニマムからの脱出に有効である。また、連続
的な入出力特性を有するニューロンにより構成される相
互結合型ニューラルネットワークにおいては、連続出力
に対して確率的な揺らぎとして乱数を対応させる操作に
より効果的にローカルミニマムから脱出できる。
ニューロンにより構成される相互結合型ニューラルネッ
トワークにおいては、確率的に出力を遷移させる操作が
ローカルミニマムからの脱出に有効である。また、連続
的な入出力特性を有するニューロンにより構成される相
互結合型ニューラルネットワークにおいては、連続出力
に対して確率的な揺らぎとして乱数を対応させる操作に
より効果的にローカルミニマムから脱出できる。
【0068】なお、図2〜図6の例では、ニューロンを
含めて装置全体をソフト的に構成して実行することを前
提としているため、各ニューロンが非同期的に作動する
こと、すなわち1つのニューロンについて計算を行なっ
ている間、他のニューロンの出力は一定に保たれること
を前提としているが、ハード的にニューロンを構成して
ネットワークを構築した場合には、それぞれ単一のニュ
ーロン毎に作動させずに、いくつかのニューロンを並列
で作動させることも可能である。
含めて装置全体をソフト的に構成して実行することを前
提としているため、各ニューロンが非同期的に作動する
こと、すなわち1つのニューロンについて計算を行なっ
ている間、他のニューロンの出力は一定に保たれること
を前提としているが、ハード的にニューロンを構成して
ネットワークを構築した場合には、それぞれ単一のニュ
ーロン毎に作動させずに、いくつかのニューロンを並列
で作動させることも可能である。
【0069】以上の説明から明らかなように、実施例の
装置は自己組織型相互結合ニューラルネットワークSO
INNのマルコフ遷移と自己組織化とを同時に進行させ
ている。初期状態で任意に結合荷重を与えられたネット
ワークエネルギー分布は、コスト関数の分布とはまった
く相関がない。自己組織化をしつつ実行されるマルコフ
遷移により、ネットワークは、それがマッピングしてい
るルート近傍の局所的な分布をコスト関数の対応する局
所的な分布にあわせながらより低いネットワークエネル
ギーを求めて遷移する。
装置は自己組織型相互結合ニューラルネットワークSO
INNのマルコフ遷移と自己組織化とを同時に進行させ
ている。初期状態で任意に結合荷重を与えられたネット
ワークエネルギー分布は、コスト関数の分布とはまった
く相関がない。自己組織化をしつつ実行されるマルコフ
遷移により、ネットワークは、それがマッピングしてい
るルート近傍の局所的な分布をコスト関数の対応する局
所的な分布にあわせながらより低いネットワークエネル
ギーを求めて遷移する。
【0070】この遷移の際に、従来のホップフィールド
モデルのネットワークが微小な極小点にも収束してしま
うのと比較して、実施例の自己組織型ネットワークは、
例え確率遷移を導入しなかったとしても、多少の極小点
(ローカルミニマム)には捉られ難い。
モデルのネットワークが微小な極小点にも収束してしま
うのと比較して、実施例の自己組織型ネットワークは、
例え確率遷移を導入しなかったとしても、多少の極小点
(ローカルミニマム)には捉られ難い。
【0071】コスト変動値ΔCOSTを教師信号とした誤差
信号Errorの値は、自己組織化が進むにつれて次第に小
さくなり、このことは結合荷重の修正量を次第に減少さ
せることになる。これは、一種のアニーリング作用と同
様の効果を持ち、初期段階では修正量を大きくして微小
な極小値に捉えられることなく大きな極小値を求め、コ
スト変動とネットエネルギー変動とのある程度の整合が
とれた段階では、修正量を小さくして正確に極小値を求
めることとなる。
信号Errorの値は、自己組織化が進むにつれて次第に小
さくなり、このことは結合荷重の修正量を次第に減少さ
せることになる。これは、一種のアニーリング作用と同
様の効果を持ち、初期段階では修正量を大きくして微小
な極小値に捉えられることなく大きな極小値を求め、コ
スト変動とネットエネルギー変動とのある程度の整合が
とれた段階では、修正量を小さくして正確に極小値を求
めることとなる。
【0072】また、従来のホップフィールドモデルはコ
スト関数全体をネットエネルギー式に当てはめていた
が、本来、最適化問題を解く上で充分な有効ミニマム、
あるいはグローバルミニマムに達するためには、コスト
関数のマップ全体に対して整合をとる必要はない。
スト関数全体をネットエネルギー式に当てはめていた
が、本来、最適化問題を解く上で充分な有効ミニマム、
あるいはグローバルミニマムに達するためには、コスト
関数のマップ全体に対して整合をとる必要はない。
【0073】実施例の自己組織型ネットワークでは、マ
ルコフ遷移により通過するルートの近傍のみをマッピン
グするためにコスト関数の一部に対してのみネットエネ
ルギーの整合をとっており、コスト関数全体を記述する
ネットエネルギー式の存在が必要でなく、基本的には計
算可能なコスト関数のほとんどに適用することができ
る。したがって、実施例の装置では、複雑な当てはめ問
題を解く必要がない上、ホップフィールドモデルが適用
できないコスト関数にも適用することができる。
ルコフ遷移により通過するルートの近傍のみをマッピン
グするためにコスト関数の一部に対してのみネットエネ
ルギーの整合をとっており、コスト関数全体を記述する
ネットエネルギー式の存在が必要でなく、基本的には計
算可能なコスト関数のほとんどに適用することができ
る。したがって、実施例の装置では、複雑な当てはめ問
題を解く必要がない上、ホップフィールドモデルが適用
できないコスト関数にも適用することができる。
【0074】次に、この発明の最適化問題解決装置を巡
回セールスマン問題に適用した例を示す。巡回セールス
マン問題は、解析的な解法が存在せずに全ての組み合せ
を調べなければならないNP完全最適化問題としてよく
知られている。この問題は、N個の都市の間の距離が与
えられたときに、全ての都市を通る最短距離の経路を求
める問題である。
回セールスマン問題に適用した例を示す。巡回セールス
マン問題は、解析的な解法が存在せずに全ての組み合せ
を調べなければならないNP完全最適化問題としてよく
知られている。この問題は、N個の都市の間の距離が与
えられたときに、全ての都市を通る最短距離の経路を求
める問題である。
【0075】従来のホップフィールドモデルを利用する
と、ニューラルネットワークのエネルギー関数を問題と
一致するように結合荷重を予め設計して与え、最短距離
を求める計算をニューラルネットワークを用いて行なっ
ていた。
と、ニューラルネットワークのエネルギー関数を問題と
一致するように結合荷重を予め設計して与え、最短距離
を求める計算をニューラルネットワークを用いて行なっ
ていた。
【0076】実施例の装置では、ニューロンがN×Nの
正方行列として配置されたニューラルネットワークを構
成する。各行(A〜J)は都市を表し、各列(1〜10)は
都市を訪れる順番を表すものとする。例えば、B行の2
列のニューロンの出力が1であるときには、都市Bを2
番目に訪れたことを意味する。このように構成すると、
各行に1個、各列に1個のニューロンの出力のみが1と
なり、他のニューロンの出力は0とならなければなら
ず、その解が順路を構成することとなる。順路を構成し
たときのエネルギーが最小値となるようにエネルギー関
数E1を次式のように定義する。
正方行列として配置されたニューラルネットワークを構
成する。各行(A〜J)は都市を表し、各列(1〜10)は
都市を訪れる順番を表すものとする。例えば、B行の2
列のニューロンの出力が1であるときには、都市Bを2
番目に訪れたことを意味する。このように構成すると、
各行に1個、各列に1個のニューロンの出力のみが1と
なり、他のニューロンの出力は0とならなければなら
ず、その解が順路を構成することとなる。順路を構成し
たときのエネルギーが最小値となるようにエネルギー関
数E1を次式のように定義する。
【0077】
【数7】
【0078】また、この他に、距離を最短にするという
条件を次式のエネルギー関数E2に持たせる。
条件を次式のエネルギー関数E2に持たせる。
【0079】
【数8】
【0080】巡回セールスマン問題を解く場合の最終的
なエネルギーEは、E=AE1+BE2で表される。ここ
でA,Bは任意の定数であるが、Eの最小状態が問題の
最適解を表すように決定する必要がある。
なエネルギーEは、E=AE1+BE2で表される。ここ
でA,Bは任意の定数であるが、Eの最小状態が問題の
最適解を表すように決定する必要がある。
【0081】図7〜図9は、上記の巡回セールスマン問
題を図4に示したフローチャートの方法で解いた場合の
コスト値(図7縦軸)、最小コスト値(図8縦軸)、平均誤
差(図9縦軸)を示すグラフである。各図の横軸は全ての
ニューロンについて一回づつネット演算が実行された時
を1巡とする巡数(ニューロンの数に等しい)を示す。ま
た、平均誤差は、1巡の誤差Erroriの合計をニューロ
ンの数で割った値を示す。
題を図4に示したフローチャートの方法で解いた場合の
コスト値(図7縦軸)、最小コスト値(図8縦軸)、平均誤
差(図9縦軸)を示すグラフである。各図の横軸は全ての
ニューロンについて一回づつネット演算が実行された時
を1巡とする巡数(ニューロンの数に等しい)を示す。ま
た、平均誤差は、1巡の誤差Erroriの合計をニューロ
ンの数で割った値を示す。
【0082】図10〜図12は、上記の巡回セールスマ
ン問題を図6に示したフローチャートの方法で解いた場
合のコスト値(図10縦軸)、最小コスト値(図11縦
軸)、平均誤差(図12縦軸)を示すグラフである。各図
の横軸は巡数を示す。
ン問題を図6に示したフローチャートの方法で解いた場
合のコスト値(図10縦軸)、最小コスト値(図11縦
軸)、平均誤差(図12縦軸)を示すグラフである。各図
の横軸は巡数を示す。
【0083】次に、上記実施例の最適化問題解決装置を
ポートフォリオ問題に適用した実施例を従来例との比較
において説明する。
ポートフォリオ問題に適用した実施例を従来例との比較
において説明する。
【0084】ポートフォリオ問題は、投資の分散化によ
りリスクをなるべく小さくしようとする問題であり、1
952年にマコービッツ教授により理論化された。同理
論は、2次計画法として問題が定式化されたが、NP完
全な問題であり、現実的な投資対象数を考えると、計画
法を合理的な時間内で解く方法がなかった。
りリスクをなるべく小さくしようとする問題であり、1
952年にマコービッツ教授により理論化された。同理
論は、2次計画法として問題が定式化されたが、NP完
全な問題であり、現実的な投資対象数を考えると、計画
法を合理的な時間内で解く方法がなかった。
【0085】ポートフォリオ理論式は、以下の定義で表
される。
される。
【0086】
【数9】
【0087】リスクをできるだけ少なく、かつ期待収益
率ができるだけ多くなる投資率ベクトル(x1,x2,……
xn)を得ることが目的となる。ポートフォリオ問題を連
続値モデルのホップフィールドエネルギー式(前記の式
(1))に当てはめることには困難があるため、一般的には
離散値モデルのエネルギー式への適用となる。離散値モ
デルにおいては、各ニューロンの出力は2値となるた
め、投資率という連続値は基本的に扱えず、銘柄選択ポ
ートフォリオ(均等投資ポートフォリオ)という簡易的な
適用となる。
率ができるだけ多くなる投資率ベクトル(x1,x2,……
xn)を得ることが目的となる。ポートフォリオ問題を連
続値モデルのホップフィールドエネルギー式(前記の式
(1))に当てはめることには困難があるため、一般的には
離散値モデルのエネルギー式への適用となる。離散値モ
デルにおいては、各ニューロンの出力は2値となるた
め、投資率という連続値は基本的に扱えず、銘柄選択ポ
ートフォリオ(均等投資ポートフォリオ)という簡易的な
適用となる。
【0088】さらに、ホップフィールドエネルギー式に
適用可能なように、以下のような拘束条件を付加した。
適用可能なように、以下のような拘束条件を付加した。
【0089】1.選択銘柄数指定条件 xi=1,0であるため投資総額規格化条件Σxi=1は
実現できないため、Σxi=S(Sは1からnの自然数)
で置き換える。均等投資であるため、この条件はポート
フォリオを構成する銘柄数を指定したこととなる。
実現できないため、Σxi=S(Sは1からnの自然数)
で置き換える。均等投資であるため、この条件はポート
フォリオを構成する銘柄数を指定したこととなる。
【0090】2.期待収益率指定条件 Σμixi=G (Gは指定期待収益率)、ポートフォリオ
選択において、この拘束条件は通常使用される。期待収
益率一定のもとでリスクを最小化する問題となる。
選択において、この拘束条件は通常使用される。期待収
益率一定のもとでリスクを最小化する問題となる。
【0091】以上の拘束条件を加え、銘柄選択ポートフ
ォリオ問題は以下の式(13)のように記述できる。また、
この式をホップフィールドエネルギー式に当てはめる形
式に変換すると、式(14)の通りとなり、全体のエネルギ
ーEは式(16)、ホップフィールドエネルギー式に当ては
めたωij、θiはそれぞれ式(17)の通りとなる。式(16)
の1/2{α2(SG)2+α3S2}は単にエネルギーオフセ
ットとなり、無視できる。
ォリオ問題は以下の式(13)のように記述できる。また、
この式をホップフィールドエネルギー式に当てはめる形
式に変換すると、式(14)の通りとなり、全体のエネルギ
ーEは式(16)、ホップフィールドエネルギー式に当ては
めたωij、θiはそれぞれ式(17)の通りとなる。式(16)
の1/2{α2(SG)2+α3S2}は単にエネルギーオフセ
ットとなり、無視できる。
【0092】
【数10】
【0093】上記のように式化した銘柄選択ポートフォ
リオ問題に対し、実際の50銘柄の東証株価データを使
用し、ホップフィールドモデルとこの発明の自己組織型
相互結合ニューラルネットワークとの両者についてソフ
トウェアを作成して比較実験を行なった。ホップフィー
ルドモデルにおけるエネルギー式と、自己組織型相互結
合ニューラルネットワークにおけるコスト式とは、ラグ
ランジェ乗数値まで含めて完全に同一とした。
リオ問題に対し、実際の50銘柄の東証株価データを使
用し、ホップフィールドモデルとこの発明の自己組織型
相互結合ニューラルネットワークとの両者についてソフ
トウェアを作成して比較実験を行なった。ホップフィー
ルドモデルにおけるエネルギー式と、自己組織型相互結
合ニューラルネットワークにおけるコスト式とは、ラグ
ランジェ乗数値まで含めて完全に同一とした。
【0094】ホップフィールドモデル、SOINNとも
初期のニューラルネットワーク出力状態は、ランダムな
確率で1または0を与え、マルコフ遷移が停止、あるい
は収束するまで動作させ、収束時点のミニマムエネルギ
ー(ミニマムコスト)、収束までの繰返し回数、結果(選
択されたポートフォリオのリスク値、期待収益率、選択
証券数)を記録した。
初期のニューラルネットワーク出力状態は、ランダムな
確率で1または0を与え、マルコフ遷移が停止、あるい
は収束するまで動作させ、収束時点のミニマムエネルギ
ー(ミニマムコスト)、収束までの繰返し回数、結果(選
択されたポートフォリオのリスク値、期待収益率、選択
証券数)を記録した。
【0095】実験において使用した各定数は、エネルギ
ー(コスト)関数のラグランジェ乗数α1=0.000
1,α2=0.005,α3=0.08、SOINNの自
己組織化のためのフィードバック定数η=0.005、
指定期待収益率G=4%、指定選択証券数S=15、全
銘柄数n=50である。
ー(コスト)関数のラグランジェ乗数α1=0.000
1,α2=0.005,α3=0.08、SOINNの自
己組織化のためのフィードバック定数η=0.005、
指定期待収益率G=4%、指定選択証券数S=15、全
銘柄数n=50である。
【0096】ホップフィールドモデルにおいては、順次
乱数によって出力決定するニューロンを選択し、全ニュ
ーロン数に該当する50回の出力決定を繰返し回数1回
とした。また、SOINNにおいては先頭のニューロン
から順番に出力決定し、全ニューロンに対する操作50
回を繰返し回数1回とした。表2は、乱数系を変えた各
100回づつの実験による平均値を示す。
乱数によって出力決定するニューロンを選択し、全ニュ
ーロン数に該当する50回の出力決定を繰返し回数1回
とした。また、SOINNにおいては先頭のニューロン
から順番に出力決定し、全ニューロンに対する操作50
回を繰返し回数1回とした。表2は、乱数系を変えた各
100回づつの実験による平均値を示す。
【0097】
【表2】 ホップフィールドモデル SOINN ミニマムエネルギー 1.020269 ミニマムコスト 0.846400 収束回数 3.67 28.92 学習収束回数 −−− 58.4 リスク値 92.1686 75.9212 期待収益率 3.95918 4.00722 選択証券数 13.83 14.71
【0098】なお、収束回数は、出力が変化しなくなっ
た繰返し回数、SOINNでの学習収束回数は、出力が
安定した後、式(18)に示すTotal Errorが0.2以下
になるまでの繰返し回数とした。
た繰返し回数、SOINNでの学習収束回数は、出力が
安定した後、式(18)に示すTotal Errorが0.2以下
になるまでの繰返し回数とした。
【0099】
【数11】
【0100】SOINNにおいては、1つの繰返し期間
中に出力変化がなかったとしても、自己組織化によるニ
ューラルネットワークの結合荷重の変化がまだ活性であ
れば、さらに後の繰返し回数で出力変化が起こり得るた
め、Error値によるフィードバック量が充分に小さくな
って初めて安定収束と判断できる。安定収束時のコスト
は、安定収束時までに出現したミニマムコストにほとん
どの場合一致した。
中に出力変化がなかったとしても、自己組織化によるニ
ューラルネットワークの結合荷重の変化がまだ活性であ
れば、さらに後の繰返し回数で出力変化が起こり得るた
め、Error値によるフィードバック量が充分に小さくな
って初めて安定収束と判断できる。安定収束時のコスト
は、安定収束時までに出現したミニマムコストにほとん
どの場合一致した。
【0101】表2の結果で示されるとおり、ニューロン
の出力決定に確率動作を含まないホップフィールドモデ
ルは、すぐにローカルミニマムに捉えられてしまい、マ
ルコフ遷移が終了するまでの繰返し回数が平均3.67
回と少なく、収束までのミニマムエネルギー値も1.0
20269と概して高い。
の出力決定に確率動作を含まないホップフィールドモデ
ルは、すぐにローカルミニマムに捉えられてしまい、マ
ルコフ遷移が終了するまでの繰返し回数が平均3.67
回と少なく、収束までのミニマムエネルギー値も1.0
20269と概して高い。
【0102】一方、SOINNは、平均収束回数が2
8.9回と比較的多く、かつ、平均して0.84640
0と比較的低いコスト値まで収束している。SOINN
は自己組織化で結合荷重を変化させつつより低いコスト
を探してゆくため、ローカルミニマムに対しては比較的
強いという特性を有している。
8.9回と比較的多く、かつ、平均して0.84640
0と比較的低いコスト値まで収束している。SOINN
は自己組織化で結合荷重を変化させつつより低いコスト
を探してゆくため、ローカルミニマムに対しては比較的
強いという特性を有している。
【0103】なお、図13は、それぞれ100回の実験
で得られたミニマムエネルギー値の出現ヒストグラムで
ある。
で得られたミニマムエネルギー値の出現ヒストグラムで
ある。
【0104】上記のホップフィールドモデルのローカル
ミニマム問題を解決するためには、一般的にニューロン
の出力決定に確率動作を加えてボルツマンマシンとした
ものが使用される。一方、SOINNに対しても確率動
作を加えることが可能であり、繰返しの回数を増加させ
ることによりローカルミニマムからより低いコスト状態
への遷移を可能とする。
ミニマム問題を解決するためには、一般的にニューロン
の出力決定に確率動作を加えてボルツマンマシンとした
ものが使用される。一方、SOINNに対しても確率動
作を加えることが可能であり、繰返しの回数を増加させ
ることによりローカルミニマムからより低いコスト状態
への遷移を可能とする。
【0105】前述のポートフォリオ問題に対し、ボルツ
マンマシンと確率動作を付加したSOINNとの両者を
適用した結果を以下に比較する。
マンマシンと確率動作を付加したSOINNとの両者を
適用した結果を以下に比較する。
【0106】確率動作による出力決定は、両方法共に、
RND≦1/(1+e(-neti/T))の場合にVi=1、そう
でない場合にVi=0とする。ここでRNDは、0≦R
ND≦1の範囲でランダムに定められる乱数である。実
験に使用した時定数Tの値は、ボルツマンマシンで0.
2、SOINNで0.05とした。両方法でのTの違い
は、エネルギー式の当てはめで算出されるボルツマンマ
シンの各ニューロンの結合荷重に対し、自己組織化で生
成されるSOINNのニューロンの結合荷重の絶対値が
小さく、両方法の平均的なnet値にかなり差があるた
めである。ほぼ同条件の確率動作を与えるために、両方
法の平均的な(net/T)が一致するようにTの値を選
択している。
RND≦1/(1+e(-neti/T))の場合にVi=1、そう
でない場合にVi=0とする。ここでRNDは、0≦R
ND≦1の範囲でランダムに定められる乱数である。実
験に使用した時定数Tの値は、ボルツマンマシンで0.
2、SOINNで0.05とした。両方法でのTの違い
は、エネルギー式の当てはめで算出されるボルツマンマ
シンの各ニューロンの結合荷重に対し、自己組織化で生
成されるSOINNのニューロンの結合荷重の絶対値が
小さく、両方法の平均的なnet値にかなり差があるた
めである。ほぼ同条件の確率動作を与えるために、両方
法の平均的な(net/T)が一致するようにTの値を選
択している。
【0107】図14は、繰返しを500回実行したとき
のミニマムエネルギー(コスト)の変化の経緯を示し、表
3は、繰返し回数500回で達した平均ミニマムエネル
ギー(コスト)、平均リスク値、平均期待収益率、平均選
択証券数を示す。
のミニマムエネルギー(コスト)の変化の経緯を示し、表
3は、繰返し回数500回で達した平均ミニマムエネル
ギー(コスト)、平均リスク値、平均期待収益率、平均選
択証券数を示す。
【0108】
【表3】 ボルツマンマシン SOINN ミニマムエネルギー 0.8380 ミニマムコスト 0.6921 リスク値 74.9209 61.7913 期待収益率 3.9576 3.9952 選択証券数 14.00 14.81
【0109】ボルツマンマシンに関しては乱数系を変え
た12回の実験、SOINNに関しては同様に乱数系を
変えた10回の実験を行ない、その平均値をプロットし
ている。
た12回の実験、SOINNに関しては同様に乱数系を
変えた10回の実験を行ない、その平均値をプロットし
ている。
【0110】ボルツマンマシンは、ホップフィールドモ
デルの平均収束エネルギー値を平均10回未満の繰返し
回数で下回り、繰返し回数500回で達した平均ミニマ
ムエネルギー値は0.8380であった。確率動作の導
入によるローカルミニマム対策が有効に機能しているこ
とが理解できる。
デルの平均収束エネルギー値を平均10回未満の繰返し
回数で下回り、繰返し回数500回で達した平均ミニマ
ムエネルギー値は0.8380であった。確率動作の導
入によるローカルミニマム対策が有効に機能しているこ
とが理解できる。
【0111】一方、SOINNの達成した平均ミニマム
コストはさらに低く、繰返し回数20回での平均ミニマ
ムコストが0.8221でボルツマンマシンが500回
で達成している解を20回未満の繰返しで達成している
ことを示す。SOINNの500回での平均ミニマムコ
ストは0.6921であり、確率動作を加えないSOI
NNの平均収束コスト0.846400より低く、SO
INNにおいても確率動作の付加がローカルミニマム対
策として有効に機能していることが理解できる。
コストはさらに低く、繰返し回数20回での平均ミニマ
ムコストが0.8221でボルツマンマシンが500回
で達成している解を20回未満の繰返しで達成している
ことを示す。SOINNの500回での平均ミニマムコ
ストは0.6921であり、確率動作を加えないSOI
NNの平均収束コスト0.846400より低く、SO
INNにおいても確率動作の付加がローカルミニマム対
策として有効に機能していることが理解できる。
【0112】最後に、実施例の最適化問題解決装置を従
来のホップフィールドモデルで解けない問題に適用した
例について説明する。
来のホップフィールドモデルで解けない問題に適用した
例について説明する。
【0113】ポートフォリオ問題で、上述のように選択
銘柄数を指定することは一般的ではない。ここでは、よ
り実際の運用に適したリスク値指定方法を用いることに
する。この方法の命題は、「ポートフォリオを構成する
銘柄数がフリーで、指定したリスク値を持ち、できるだ
け期待収益率の高いポートフォリオを選択する」という
こととなる。この問題のコスト関数は以下の式(19)に示
すとおりである。
銘柄数を指定することは一般的ではない。ここでは、よ
り実際の運用に適したリスク値指定方法を用いることに
する。この方法の命題は、「ポートフォリオを構成する
銘柄数がフリーで、指定したリスク値を持ち、できるだ
け期待収益率の高いポートフォリオを選択する」という
こととなる。この問題のコスト関数は以下の式(19)に示
すとおりである。
【0114】
【数12】
【0115】このようなコスト関数については、従来の
単一な2次形式のエネルギー式には全く当てはめが不可
能である。この実験では、上記の2番目の実験と同様に
SOINNの出力に確率動作を付加する形で実行した。
単一な2次形式のエネルギー式には全く当てはめが不可
能である。この実験では、上記の2番目の実験と同様に
SOINNの出力に確率動作を付加する形で実行した。
【0116】実験に使用した定数は、α=0.01、β
=0.5、フィードバック定数η=0.005、時定数
T=0.05、指定リスク値R=55である。使用した
株価データは、前記の例と同一である。
=0.5、フィードバック定数η=0.005、時定数
T=0.05、指定リスク値R=55である。使用した
株価データは、前記の例と同一である。
【0117】図15は、SOINNによる収束過程をラ
ンダムな選択による収束過程との比較で示した。ランダ
ムな選択は、順次ニューロンの出力を乱数により決定
し、計算したコストがそれまでのミニマムコストより小
さい場合にミニマムコストを更新する方式とした。実験
では、全ニューロンに対する一巡の出力決定を1回とし
て500回繰り返し、ランダム方式の方は100回、S
OINNの方は20回の実験の平均値をプロットした。
ンダムな選択による収束過程との比較で示した。ランダ
ムな選択は、順次ニューロンの出力を乱数により決定
し、計算したコストがそれまでのミニマムコストより小
さい場合にミニマムコストを更新する方式とした。実験
では、全ニューロンに対する一巡の出力決定を1回とし
て500回繰り返し、ランダム方式の方は100回、S
OINNの方は20回の実験の平均値をプロットした。
【0118】ランダム方式と比較し、SOINNがきわ
めて早く有効解を得ていることが明確に理解できる。こ
の実験によると、SOINNの平均ミニマムコストは
0.−1.0330、平均期待収益率4.2604、平
均選択証券数17.65である。ランダム方式の場合の
平均ミニマムコストは−0.3339となった。
めて早く有効解を得ていることが明確に理解できる。こ
の実験によると、SOINNの平均ミニマムコストは
0.−1.0330、平均期待収益率4.2604、平
均選択証券数17.65である。ランダム方式の場合の
平均ミニマムコストは−0.3339となった。
【0119】
【発明の効果】以上説明したように、この発明によれ
ば、コスト関数の計算をニューラルネットワーク外の演
算部で計算し、ニューラルネットワークに対してはコス
トの変動値のみをフィードバックすることにより、当て
はめ問題を解かずに作動させることができ、かつ、複雑
なコスト関数を持つ最適化問題に対しても柔軟に対応で
きる装置を提供することができる。
ば、コスト関数の計算をニューラルネットワーク外の演
算部で計算し、ニューラルネットワークに対してはコス
トの変動値のみをフィードバックすることにより、当て
はめ問題を解かずに作動させることができ、かつ、複雑
なコスト関数を持つ最適化問題に対しても柔軟に対応で
きる装置を提供することができる。
【図1】 この発明の実施例にかかる最適化問題解決装
置の概念図である。
置の概念図である。
【図2】 実施例の装置の処理過程を示すフローチャー
トである。
トである。
【図3】 図2に示した方法によるネットワークの状態
遷移の様子を示す説明図である。
遷移の様子を示す説明図である。
【図4】 実施例の装置の他の方法による処理過程を示
すフローチャートである。
すフローチャートである。
【図5】 図4に示した方法によるネットワークの状態
遷移の様子を示す説明図である。
遷移の様子を示す説明図である。
【図6】 実施例の装置のさらに他の方法による処理過
程を示すフローチャートである。
程を示すフローチャートである。
【図7】 巡回セールスマン問題を図4の方法により解
いた場合のコスト値の変化を示すグラフである。
いた場合のコスト値の変化を示すグラフである。
【図8】 巡回セールスマン問題を図4の方法により解
いた場合の最小コスト値の変化を示すグラフである。
いた場合の最小コスト値の変化を示すグラフである。
【図9】 巡回セールスマン問題を図4の方法により解
いた場合の平均誤差の変化を示すグラフである。
いた場合の平均誤差の変化を示すグラフである。
【図10】 巡回セールスマン問題を図6の方法により
解いた場合のコスト値の変化を示すグラフである。
解いた場合のコスト値の変化を示すグラフである。
【図11】 巡回セールスマン問題を図6の方法により
解いた場合の最小コスト値の変化を示すグラフである。
解いた場合の最小コスト値の変化を示すグラフである。
【図12】 巡回セールスマン問題を図6の方法により
解いた場合の平均誤差の変化を示すグラフである。
解いた場合の平均誤差の変化を示すグラフである。
【図13】 実施例の装置をポートフォリオ問題に適用
した場合のミニマムコストのヒストグラムをホップフィ
ールドモデルとの比較で示したグラフである。
した場合のミニマムコストのヒストグラムをホップフィ
ールドモデルとの比較で示したグラフである。
【図14】 実施例の装置に確率的動作を加えた場合の
収束過程をボルツマンマシンとの比較において示すグラ
フである。
収束過程をボルツマンマシンとの比較において示すグラ
フである。
【図15】 実施例の装置によりリスク指定方法のポー
トフォリオ問題を解く際の収束過程をランダムなネット
ワークによる収束との比較において示すグラフである。
トフォリオ問題を解く際の収束過程をランダムなネット
ワークによる収束との比較において示すグラフである。
【図16】 従来のホップフィールドモデルのニューラ
ルネットワークの概念図である。
ルネットワークの概念図である。
SOINN…自己組織型相互結合ニューラルネットワー
ク CUL…コスト演算部
ク CUL…コスト演算部
Claims (24)
- 【請求項1】 一のニューロンの出力が他のニューロン
への入力となる複数のニューロンにより構成される相互
結合型ニューラルネットワークと、与えられた最適化問
題についてのコスト演算式に前記各ニューロンの出力を
変数として代入してコストを演算するコスト演算部とを
備え、 初期状態において前記各ニューロンの他のニューロンか
らの結合荷重と各ニューロンの出力とを任意に設定し、 少なくとも1つのニューロンについてネット演算し、ネ
ット演算後の各ニューロンの出力を前記コスト演算部に
送ってコストを計算すると共に、ネット演算前のコスト
との差ΔCOSTを前記相互結合型ニューラルネットワーク
にフィードバックし、前記ΔCOSTに基づいてネット演算
されたニューロンの結合荷重を修正しつつ前記相互結合
型ニューラルネットワークの状態を遷移させるステップ
を繰り返し、所定条件を満たしたときに前記遷移ステッ
プを終了し、前記各ニューロンの出力を前記最適化問題
の解とすることを特徴とする最適化問題解決装置。 - 【請求項2】 前記各ニューロンは離散的入出力特性を
有し、各ニューロンのネット値が0以上のときに該ニュ
ーロンの出力を1とし、ネット値が0未満のときに出力
を0とすることを特徴とする請求項1に記載の最適化問
題解決装置。 - 【請求項3】 前記各ニューロンの出力に確率的遷移を
与えることを特徴とする請求項2に記載の最適化問題解
決装置。 - 【請求項4】 前記各ニューロンは連続的入出力特性を
有し、各ニューロンのネット値に対応する連続値を出力
することを特徴とする請求項1に記載の最適化問題解決
装置。 - 【請求項5】 前記各ニューロンの出力に確率的なゆら
ぎを与えることを特徴とする請求項4に記載の最適化問
題解決装置。 - 【請求項6】 前記遷移ステップを終了させる所定条件
は、前記相互結合型ニューラルネットワークの出力が安
定したときに満たされることを特徴とする請求項1に記
載の最適化問題解決装置。 - 【請求項7】 前記遷移ステップを終了させる所定条件
は、前記遷移ステップの回数が所定回数に達したときに
満たされることを特徴とする請求項1に記載の最適化問
題解決装置。 - 【請求項8】 前記遷移ステップを終了させる所定条件
は、前記遷移ステップの開始から所定時間が経過したと
きに満たされることを特徴とする請求項1に記載の最適
化問題解決装置。 - 【請求項9】 前記遷移ステップを終了させる所定条件
は、前記コスト演算部により演算されたコスト値が所定
値より低くなったときに満たされることを特徴とする請
求項1に記載の最適化問題解決装置。 - 【請求項10】 前記相互結合型ニューラルネットワー
クは、前記ΔCOSTを近傍近似して遷移することを特徴と
する請求項1に記載の最適化問題解決装置。 - 【請求項11】 前記相互結合型ニューラルネットワー
クは、前記ΔCOSTをニューラルネットワークエネルギー
で近似して遷移することを特徴とする請求項1に記載の
最適化問題解決装置。 - 【請求項12】 前記相互結合型ニューラルネットワー
クは、前記ΔCOSTを2次関数で近似して遷移することを
特徴とする請求項1に記載の最適化問題解決装置。 - 【請求項13】 複数の入力に対してそれぞれ結合荷重
を掛け合わせる複数の乗算ステップと、乗算結果の和を
求める加算ステップと、加算結果を因数として所定の演
算結果を出力する関数ステップとから成る演算ステップ
組を複数組有すると共に、 これらの演算ステップ組は、各演算ステップ組の出力
が、他の演算ステップ組の乗算ステップの入力とされる
よう構成され、 さらに、与えられた最適化問題についてのコスト演算式
に前記各演算ステップ組の出力を変数として代入してコ
ストを演算するコスト演算ステップと、 演算の実行毎に各演算ステップ組の出力を用いて前記コ
スト演算ステップにおいてコストを計算すると共に、演
算前のコストとの差ΔCOSTを求めるコスト変動演算ステ
ップと、、 前記ΔCOSTに基づいて再演算された演算ステップ組の乗
算式の結合荷重を修正する修正ステップとを備え、 初期状態において各組の出力と各乗算式の結合荷重とを
任意に設定し、 一の演算ステップ組の乗算、加算、関数ステップを実行
して更新された出力を他の演算ステップ組に入力し、順
次他の演算ステップ組の演算を実行し、 所定条件が満たされるまで前記演算ステップ組、コスト
演算ステップ、コスト変動演算ステップ、修正ステップ
を繰返し実行し、前記所定条件を満たした後に上記各ス
テップを終了し、前記各演算ステップ組の出力を前記最
適化問題の解とすることを特徴とする最適化問題解決方
法。 - 【請求項14】 前記関数ステップは離散的入出力特性
を有し、前記加算ステップの出力が負であるときに0、
正であるときに1を出力することを特徴とする請求項1
3に記載の最適化問題解決方法。 - 【請求項15】 前記各関数ステップの出力に確率的遷
移を与えることを特徴とする請求項14に記載の最適化
問題解決方法。 - 【請求項16】 前記関数ステップは連続的入出力特性
を有し、前記加算ステップの出力値に対応する連続値を
出力することを特徴とする請求項13に記載の最適化問
題解決方法。 - 【請求項17】 前記関数ステップの出力に確率的なゆ
らぎを与えることを特徴とする請求項16に記載の最適
化問題解決方法。 - 【請求項18】 前記各ステップを終了させる所定条件
は、前記各演算ステップ組の出力が安定したときに満た
されることを特徴とする請求項13に記載の最適化問題
解決方法。 - 【請求項19】 前記各ステップを終了させる所定条件
は、前記演算ステップ組の繰返し回数が所定回数に達し
たときに満たされることを特徴とする請求項13に記載
の最適化問題解決方法。 - 【請求項20】 前記各ステップを終了させる所定条件
は、演算の開始から所定時間が経過したときに満たされ
ることを特徴とする請求項13に記載の最適化問題解決
方法。 - 【請求項21】 前記各ステップを終了させる所定条件
は、前記コスト演算ステップにより演算されたコスト値
が所定値より低くなったときに満たされることを特徴と
する請求項13に記載の最適化問題解決方法。 - 【請求項22】 前記演算ステップ組は、前記ΔCOSTを
近傍近似して遷移することを特徴とする請求項13に記
載の最適化問題解決方法。 - 【請求項23】 前記演算ステップ組は、前記ΔCOSTを
ニューラルネットワークエネルギーで近似して遷移する
ことを特徴とする請求項13に記載の最適化問題解決方
法。 - 【請求項24】 前記演算ステップ組は、前記ΔCOSTを
2次関数で近似して遷移することを特徴とする請求項1
3に記載の最適化問題解決方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5252406A JPH07200512A (ja) | 1993-09-13 | 1993-09-13 | 最適化問題解決装置 |
US08/278,232 US5581659A (en) | 1993-09-13 | 1994-07-21 | System for solving an adaptation problem by adjusting weights of a neural network based on changes in a cost function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5252406A JPH07200512A (ja) | 1993-09-13 | 1993-09-13 | 最適化問題解決装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07200512A true JPH07200512A (ja) | 1995-08-04 |
Family
ID=17236904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5252406A Pending JPH07200512A (ja) | 1993-09-13 | 1993-09-13 | 最適化問題解決装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5581659A (ja) |
JP (1) | JPH07200512A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049945A (ja) * | 2015-09-04 | 2017-03-09 | 株式会社東芝 | 信号発生装置および伝送装置 |
JP2017224227A (ja) * | 2016-06-17 | 2017-12-21 | 富士通株式会社 | 情報処理装置、イジング装置及び情報処理装置の制御方法 |
JP2022512460A (ja) * | 2019-02-28 | 2022-02-03 | ディープキューブ リミテッド | ニューラルネットワークにおける複数の経路の部分活性化 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7216113B1 (en) * | 2000-03-24 | 2007-05-08 | Symyx Technologies, Inc. | Remote Execution of Materials Library Designs |
JP6212312B2 (ja) * | 2012-08-13 | 2017-10-11 | パナソニック株式会社 | 物体内部推定装置およびその方法 |
US10140981B1 (en) * | 2014-06-10 | 2018-11-27 | Amazon Technologies, Inc. | Dynamic arc weights in speech recognition models |
US10152968B1 (en) * | 2015-06-26 | 2018-12-11 | Iconics, Inc. | Systems and methods for speech-based monitoring and/or control of automation devices |
US10235994B2 (en) * | 2016-03-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Modular deep learning model |
US10650806B2 (en) * | 2018-04-23 | 2020-05-12 | Cerence Operating Company | System and method for discriminative training of regression deep neural networks |
US11586900B2 (en) | 2020-04-20 | 2023-02-21 | Macronix International Co., Ltd. | Training algorithm in artificial neural network (ANN) incorporating non-ideal memory device behavior |
US20210383200A1 (en) | 2020-06-05 | 2021-12-09 | PassiveLogic, Inc. | Neural Network Methods for Defining System Topology |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4660166A (en) * | 1985-01-22 | 1987-04-21 | Bell Telephone Laboratories, Incorporated | Electronic network for collective decision based on large number of connections between signals |
US4744028A (en) * | 1985-04-19 | 1988-05-10 | American Telephone And Telegraph Company, At&T Bell Laboratories | Methods and apparatus for efficient resource allocation |
US4719591A (en) * | 1985-11-07 | 1988-01-12 | American Telephone And Telegraph Company, At&T Bell Labs. | Optimization network for the decomposition of signals |
US5113367A (en) * | 1989-07-03 | 1992-05-12 | The United States Of America As Represented By The Secretary Of The Navy | Cross entropy deconvolver circuit adaptable to changing convolution functions |
JPH03167655A (ja) * | 1989-11-28 | 1991-07-19 | Toshiba Corp | ニューラルネットワーク |
JP2809791B2 (ja) * | 1990-02-27 | 1998-10-15 | 株式会社東芝 | モジュール割当方法 |
JPH03288285A (ja) * | 1990-04-04 | 1991-12-18 | Takayama:Kk | データ処理装置の学習方法 |
JPH04130968A (ja) * | 1990-09-21 | 1992-05-01 | Toshiba Corp | ニューラルネットワークを用いた配線方式 |
JP2806093B2 (ja) * | 1991-08-30 | 1998-09-30 | 日本電気株式会社 | ロード・ストア処理装置 |
-
1993
- 1993-09-13 JP JP5252406A patent/JPH07200512A/ja active Pending
-
1994
- 1994-07-21 US US08/278,232 patent/US5581659A/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049945A (ja) * | 2015-09-04 | 2017-03-09 | 株式会社東芝 | 信号発生装置および伝送装置 |
JP2017224227A (ja) * | 2016-06-17 | 2017-12-21 | 富士通株式会社 | 情報処理装置、イジング装置及び情報処理装置の制御方法 |
US10970361B2 (en) | 2016-06-17 | 2021-04-06 | Fujitsu Limited | Information processing apparatus, ising device, and information processing apparatus control method |
JP2022512460A (ja) * | 2019-02-28 | 2022-02-03 | ディープキューブ リミテッド | ニューラルネットワークにおける複数の経路の部分活性化 |
Also Published As
Publication number | Publication date |
---|---|
US5581659A (en) | 1996-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Okada et al. | Path integral networks: End-to-end differentiable optimal control | |
Chow et al. | A recurrent neural-network-based real-time learning control strategy applying to nonlinear systems with unknown dynamics | |
US20220326664A1 (en) | Improved machine learning for technical systems | |
Yuan et al. | Persistency of excitation and performance of deterministic learning | |
Huang et al. | Orthogonal least squares algorithm for training cascade neural networks | |
JPH07200512A (ja) | 最適化問題解決装置 | |
CN114118375A (zh) | 一种基于时序图Transformer的连续动态网络表征学习方法 | |
Bajaria et al. | Self-triggered control of probabilistic Boolean control networks: A reinforcement learning approach | |
CN115022231B (zh) | 一种基于深度强化学习的最优路径规划的方法和系统 | |
CN112699594A (zh) | 多智能体系统的二分共识控制律确定方法、装置、设备及存储介质 | |
Huang et al. | Regret theory-based multivariate fusion prediction system and its application to interest rate estimation in multi-scale information systems | |
CN114817571A (zh) | 基于动态知识图谱的成果被引用量预测方法、介质及设备 | |
Syberfeldt et al. | Multi-objective evolutionary simulation-optimisation of a real-world manufacturing problem | |
Spall | Developments in stochastic optimization algorithms with gradient approximations based on function measurements | |
EP3477493A1 (en) | Machine learning system | |
Guzman et al. | Adaptive model predictive control by learning classifiers | |
CN115150335A (zh) | 一种基于深度强化学习的最优流量分割的方法和系统 | |
Amin et al. | System identification via artificial neural networks-applications to on-line aircraft parameter estimation | |
Daoui | Solving Finite-Horizon Discounted Non-Stationary MDPS | |
US12055934B2 (en) | Machine learning for trajectory planning | |
Barbieri et al. | DEVS Modeling and Simulation of Financial Leverage Effect Based on Markov Decision Process | |
Lin et al. | Predicting solutions of the stochastic fractional order dynamical system using machine learning | |
Xie et al. | Data-driven based method for power system time-varying composite load modeling | |
Dogra et al. | Local error quantification for neural network differential equation solvers | |
Moura et al. | Introduction to Reinforcement Learning A Short Course |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040203 |