JP2635443B2 - 多ソースデータ統合用の神経ネットワークを学習させる方法 - Google Patents
多ソースデータ統合用の神経ネットワークを学習させる方法Info
- Publication number
- JP2635443B2 JP2635443B2 JP2512241A JP51224190A JP2635443B2 JP 2635443 B2 JP2635443 B2 JP 2635443B2 JP 2512241 A JP2512241 A JP 2512241A JP 51224190 A JP51224190 A JP 51224190A JP 2635443 B2 JP2635443 B2 JP 2635443B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- output
- neurons
- target
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Testing Or Calibration Of Command Recording Devices (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 発明の背景 1.発明の技術分野 この発明は情報プロセッサ、とくに、割り付け(assi
gnment)問題を解く神経ネットワークを学習させる方法
に関する。
gnment)問題を解く神経ネットワークを学習させる方法
に関する。
2.検討 強制割り付け問題(constrained assignment problem
s)のような最適化の問題は一般的なデジタルコンピュ
ータにとって最も難しい問題である。なぜならば、割り
付けの問題は単一解により解くことができず、最適な解
答であると考えられる解の範囲が存在し得るからであ
る。しばしば、その処理技術は、1つの実在(エンティ
ティ)が選択され、1つと他の唯一の実在に割り付けが
されて、ある意味で全ての実在についての全割り付けが
最適となるように強制するようなやり方を必要とする。
例えば、個々の“コスト”が各実在から実在へのマッピ
ングに割り付けられる場合、この問題は全コストを最小
にするものの1つになる。
s)のような最適化の問題は一般的なデジタルコンピュ
ータにとって最も難しい問題である。なぜならば、割り
付けの問題は単一解により解くことができず、最適な解
答であると考えられる解の範囲が存在し得るからであ
る。しばしば、その処理技術は、1つの実在(エンティ
ティ)が選択され、1つと他の唯一の実在に割り付けが
されて、ある意味で全ての実在についての全割り付けが
最適となるように強制するようなやり方を必要とする。
例えば、個々の“コスト”が各実在から実在へのマッピ
ングに割り付けられる場合、この問題は全コストを最小
にするものの1つになる。
割り付け問題の例としては、観測点と軌跡とを最適適
合させる問題(Optimumplot−to−track correlation p
rocessing)、旅行するセールスマンの問題(Traveling
salesman problem)、最適な資源の割り付け、コンピ
ュータによるトモグラフィ(tomography)、音波及び超
音波マルチビームトラッキング、核物質トラッキング、
複数のセンサにより検出される角度のみの対象(受動的
オブジェクト)について、複数のセンサのデータ・フュ
ージョン(データ・フュージョン(データ統合)とデゴ
ースティングあるいはデゴーストとは同義であり、ゴー
スト除去と呼ぶ)などが挙げられる。ゴースト除去の問
題はとくに興味深い。この問題は、対象物が複数のセン
サから生じる角度のみが関係するデータから検出される
ときに常に発生する。例えばそのセンサは、レーダ、赤
外線、光、又は他のタイプのセンサである。このような
場合、単一のセンサが、方向線(line−of−bearing)
上にあるターゲット(目標)の角度(方位)による測定
値を提供する。2個以上のセンサを用いて、位置は2つ
の方向線の交点として決定される。しかし、複数のター
ゲットでは、複数の方向線が両方のセンサに検出され
る。ラインは交差し、ターゲットが実際にはないところ
に交点が発生する。これらの交点はゴーストと呼ばれ
る。
合させる問題(Optimumplot−to−track correlation p
rocessing)、旅行するセールスマンの問題(Traveling
salesman problem)、最適な資源の割り付け、コンピ
ュータによるトモグラフィ(tomography)、音波及び超
音波マルチビームトラッキング、核物質トラッキング、
複数のセンサにより検出される角度のみの対象(受動的
オブジェクト)について、複数のセンサのデータ・フュ
ージョン(データ・フュージョン(データ統合)とデゴ
ースティングあるいはデゴーストとは同義であり、ゴー
スト除去と呼ぶ)などが挙げられる。ゴースト除去の問
題はとくに興味深い。この問題は、対象物が複数のセン
サから生じる角度のみが関係するデータから検出される
ときに常に発生する。例えばそのセンサは、レーダ、赤
外線、光、又は他のタイプのセンサである。このような
場合、単一のセンサが、方向線(line−of−bearing)
上にあるターゲット(目標)の角度(方位)による測定
値を提供する。2個以上のセンサを用いて、位置は2つ
の方向線の交点として決定される。しかし、複数のター
ゲットでは、複数の方向線が両方のセンサに検出され
る。ラインは交差し、ターゲットが実際にはないところ
に交点が発生する。これらの交点はゴーストと呼ばれ
る。
問題の厳しさを示すために、2つのセンサによって10
個のターゲットが観測されるとすると、100個までの交
点が形成されることになる。ターゲットが10個だけのと
きは、90個の交点がゴーストであることになる。50個の
ターゲットでは2,500個の交点があり、2,450個のゴース
トを生じる。センサには他に使用できる情報がないの
で、ターゲットをさらに区別することはできない。
個のターゲットが観測されるとすると、100個までの交
点が形成されることになる。ターゲットが10個だけのと
きは、90個の交点がゴーストであることになる。50個の
ターゲットでは2,500個の交点があり、2,450個のゴース
トを生じる。センサには他に使用できる情報がないの
で、ターゲットをさらに区別することはできない。
第3のセンサを追加することにより、3つの方向線の
交点、即ち三重交点によりターゲットを発見できるの
で、曖昧さを解決することができる。しかし、不正確な
測定値により、真のターゲットに一致する3つの方向線
は1点で交差せず、三角領域を定義する。問題は第1
に、三角領域がターゲットとして十分に小さいかどうか
を判断し、次に、交点がターゲットの数よりも多くある
グループ内のゴーストから真のターゲットを選り分ける
ことである。一般にターゲットはより小さい領域を有す
るが、単に最も小さい領域をとっても、ゴーストが選択
されないことの確証とはならない。
交点、即ち三重交点によりターゲットを発見できるの
で、曖昧さを解決することができる。しかし、不正確な
測定値により、真のターゲットに一致する3つの方向線
は1点で交差せず、三角領域を定義する。問題は第1
に、三角領域がターゲットとして十分に小さいかどうか
を判断し、次に、交点がターゲットの数よりも多くある
グループ内のゴーストから真のターゲットを選り分ける
ことである。一般にターゲットはより小さい領域を有す
るが、単に最も小さい領域をとっても、ゴーストが選択
されないことの確証とはならない。
ゴースト除去問題のような割り付け問題に関する以前
の方法には、多目的コンピュータのソフトウェアによる
解決を強調するものがあった。割り付け問題に対するソ
フトウェア解による1つの欠点は、それらは広範なアル
ゴリズムの展開や膨大なコンピュータの能力を必要と
し、角度だけのターゲット位置の問題のようなリアルタ
イム、又はリアルタイムに近い問題に対して非常に処理
速度が遅い。なぜならば、ゴースト除去問題は非決定論
的多項式の完全(non−deterministic polynomial comp
lete:NP−完全)クラスの問題であるからであり、従来
の技術に対して要求されるコンピュータの能力は、ター
ゲットの数の関数として指数関数的に増加するのであ
る。その結果、この問題は“順列組合わせ論的爆発”即
ち、考えられる解の数における指数関数的膨張を生じ
る。したがって、デゴースティング問題を解決するには
改良されたアレイ状及び並列処理プロセッサを使用して
も、従来の解では実際的なサイズのリアルタイム問題を
扱うのは非常に難しい。例えば、3つのセンサに関する
ゴースト除去問題の一般解は、15個までのターゲットに
ついては十分に高速であるが、それを超えると指数関数
的にコンピュータの処理能力の限界になってしまう。30
個程度のターゲットの数に対して、整数のプログラム技
術を用いる代表的なソフトウェアによれば、VAXと同程
度のCPUによる数年間の処理時間が必要となる。
の方法には、多目的コンピュータのソフトウェアによる
解決を強調するものがあった。割り付け問題に対するソ
フトウェア解による1つの欠点は、それらは広範なアル
ゴリズムの展開や膨大なコンピュータの能力を必要と
し、角度だけのターゲット位置の問題のようなリアルタ
イム、又はリアルタイムに近い問題に対して非常に処理
速度が遅い。なぜならば、ゴースト除去問題は非決定論
的多項式の完全(non−deterministic polynomial comp
lete:NP−完全)クラスの問題であるからであり、従来
の技術に対して要求されるコンピュータの能力は、ター
ゲットの数の関数として指数関数的に増加するのであ
る。その結果、この問題は“順列組合わせ論的爆発”即
ち、考えられる解の数における指数関数的膨張を生じ
る。したがって、デゴースティング問題を解決するには
改良されたアレイ状及び並列処理プロセッサを使用して
も、従来の解では実際的なサイズのリアルタイム問題を
扱うのは非常に難しい。例えば、3つのセンサに関する
ゴースト除去問題の一般解は、15個までのターゲットに
ついては十分に高速であるが、それを超えると指数関数
的にコンピュータの処理能力の限界になってしまう。30
個程度のターゲットの数に対して、整数のプログラム技
術を用いる代表的なソフトウェアによれば、VAXと同程
度のCPUによる数年間の処理時間が必要となる。
神経ネットワーク(neural networks:ニューラル網)
を使用して割り付け問題を解く方法が提案されている。
このようなシステムは、その高度な内部接続による構造
や、データに適合する能力及び自己学習を展開する能力
の生体的ネットワークとの類似性によって神経ネットワ
ークと呼ばれる。神経ネットワークの重要な利点は、ネ
ットワークはその問題を解くことを学習することがで
き、複雑なアルゴリズムを展開する必要がないことであ
る。例えば、J.Hopfieldによる米国特許番号4,660,166
では、“旅行するセールスマン”の問題を解くのにある
種の神経ネットワークが用いられる。模擬実験的アニー
リング(simulated annealing)として知られる神経ネ
ットワーク技術を使用することを提案する者もいる。S.
Kirkpatrick,Gelatt及びVecchiによる、“模擬実験的ア
ニーリングによる最適化(“Optimization by Simulate
d Annealing"220Science,p.671−680,1983)を参照。し
かし、この方法を使用するアルゴリズムは、研究はされ
ているが、出願人の知る限りにおいて実質的に働く構造
はまだ実現されていない。また、米国特許番号4,660,16
6に述べられているような神経ネットは、ある程度複雑
なリアルタイムの応用について十分に高速なものではな
い。最近の結果によれば、Hopfieldネットによりアクセ
スできる問題のサイズには厳しい制限がされている。例
えば、“旅行するセールスマン”の問題では、30以上の
町では成功しないことが発見された。また、応用に関す
るある種の制約を実施する。即ちある種の最適化技術を
使用する神経ネットワークもある。結果的にこの技術は
非常に複雑となり、他の制限を生じる。なぜならば、そ
の制限は最初に知られていなければならず、そしてネッ
トワークはこれらの制限を学習するように構成されなけ
ればならないからである。
を使用して割り付け問題を解く方法が提案されている。
このようなシステムは、その高度な内部接続による構造
や、データに適合する能力及び自己学習を展開する能力
の生体的ネットワークとの類似性によって神経ネットワ
ークと呼ばれる。神経ネットワークの重要な利点は、ネ
ットワークはその問題を解くことを学習することがで
き、複雑なアルゴリズムを展開する必要がないことであ
る。例えば、J.Hopfieldによる米国特許番号4,660,166
では、“旅行するセールスマン”の問題を解くのにある
種の神経ネットワークが用いられる。模擬実験的アニー
リング(simulated annealing)として知られる神経ネ
ットワーク技術を使用することを提案する者もいる。S.
Kirkpatrick,Gelatt及びVecchiによる、“模擬実験的ア
ニーリングによる最適化(“Optimization by Simulate
d Annealing"220Science,p.671−680,1983)を参照。し
かし、この方法を使用するアルゴリズムは、研究はされ
ているが、出願人の知る限りにおいて実質的に働く構造
はまだ実現されていない。また、米国特許番号4,660,16
6に述べられているような神経ネットは、ある程度複雑
なリアルタイムの応用について十分に高速なものではな
い。最近の結果によれば、Hopfieldネットによりアクセ
スできる問題のサイズには厳しい制限がされている。例
えば、“旅行するセールスマン”の問題では、30以上の
町では成功しないことが発見された。また、応用に関す
るある種の制約を実施する。即ちある種の最適化技術を
使用する神経ネットワークもある。結果的にこの技術は
非常に複雑となり、他の制限を生じる。なぜならば、そ
の制限は最初に知られていなければならず、そしてネッ
トワークはこれらの制限を学習するように構成されなけ
ればならないからである。
したがって、現実的なサイズの制限された割り付け問
題をリアルタイムで解くために必要な処理時間を短縮す
る情報処理装置を提供することが望まれている。
題をリアルタイムで解くために必要な処理時間を短縮す
る情報処理装置を提供することが望まれている。
また、広範なアルゴリズムの展開を必要とすることな
く、そのような問題を解くことができる情報処理装置を
提供することが望まれている。
く、そのような問題を解くことができる情報処理装置を
提供することが望まれている。
更に、複雑な制限がなく、最適化技術を使用しないで
割り付け問題を解く情報処理装置を提供することが望ま
れている。
割り付け問題を解く情報処理装置を提供することが望ま
れている。
発明の要約 この発明の方法によれば、神経ネットワークは、少な
くとも3セットの入力を同時に受信するように適合され
ている。入力の3以上のセット(組)は、3セット以上
のニューロン(neurons)にそれぞれ向けられる。この
神経ネットワークは、3セット以上の中の1つのセット
における入力の再配列である出力を発生するのに適合し
ている。この出力を入力の1つのセットに関係付けする
ことにより、割り付け問題に対する1つの解が得られ
る。この解により、1つ以上の入力の追加のグループの
関係付けができる。ネットワークは、出力ニューロンに
提供された3つ以上のセットの中の1つのセットの再配
列から成る多数の既知の解を提供することにより学習す
ることができる。
くとも3セットの入力を同時に受信するように適合され
ている。入力の3以上のセット(組)は、3セット以上
のニューロン(neurons)にそれぞれ向けられる。この
神経ネットワークは、3セット以上の中の1つのセット
における入力の再配列である出力を発生するのに適合し
ている。この出力を入力の1つのセットに関係付けする
ことにより、割り付け問題に対する1つの解が得られ
る。この解により、1つ以上の入力の追加のグループの
関係付けができる。ネットワークは、出力ニューロンに
提供された3つ以上のセットの中の1つのセットの再配
列から成る多数の既知の解を提供することにより学習す
ることができる。
図面の簡単な説明 図1は3つのセンサからの角度のみのデータに関する
代表的なデゴースティング問題の図; 図2はこの発明による、これらセンサからの入力を受
信するのに適した神経ネットワークを示す図; 図3は3つのセンサからの入力を受信するのに適した
神経ネットを示す図であり、ターゲットの数は入力の数
より少ない。
代表的なデゴースティング問題の図; 図2はこの発明による、これらセンサからの入力を受
信するのに適した神経ネットワークを示す図; 図3は3つのセンサからの入力を受信するのに適した
神経ネットを示す図であり、ターゲットの数は入力の数
より少ない。
図4は従来の神経ネットワークを示す図。
実施例の詳細な説明 この発明によれば、神経ネットワークを用いて強制割
り付け問題を解くための方法及びその装置が提供され
る。解が導かれた割り付け問題を例を用いて、神経ネッ
トワークは新しい問題を解くために学習する(traine
d)。解かれる特定の問題の制限は明確にはされない
が、その代りネットワークの学習を通して推測される。
この発明では、分析する人即ちアルゴリズムを展開する
人にとって明確でない本質的な構造が特定の問題の各々
に存在すると仮定する。この発明は神経ネットワークの
学習する能力を利用して、この特徴的な構造を識別して
抜き出し、そして内部接続に示されるこの構造を継続的
に使用して、ネットワークに提供された任意の新たな構
成の割り付け問題を一般化して解くようにする。
り付け問題を解くための方法及びその装置が提供され
る。解が導かれた割り付け問題を例を用いて、神経ネッ
トワークは新しい問題を解くために学習する(traine
d)。解かれる特定の問題の制限は明確にはされない
が、その代りネットワークの学習を通して推測される。
この発明では、分析する人即ちアルゴリズムを展開する
人にとって明確でない本質的な構造が特定の問題の各々
に存在すると仮定する。この発明は神経ネットワークの
学習する能力を利用して、この特徴的な構造を識別して
抜き出し、そして内部接続に示されるこの構造を継続的
に使用して、ネットワークに提供された任意の新たな構
成の割り付け問題を一般化して解くようにする。
好適実施によれば、この発明による方法は、センサか
らの角度のみのデータをゴーストを除去する問題に適用
される。ゴースト除去問題はこの発明の技術を利用した
1つの例として提供されるが、様々な異なるタイプの問
題をこの発明を用いて解くことができる。図1におい
て、センサから角度のみのデータが得られるというシナ
リオ(scenario)が示されている。これらのセンサ10,1
2及び14はセンサに対するターゲット(目標)の角度を
各々検出できるが、ターゲットまでの距離に関する情報
を提供することはできない。したがって、第1のターゲ
ット16は、第1センサ10から所定の基準点に対してある
角度を有することがすでに判明している。同様に、第2
のターゲット18及び第3のターゲット20は第1センサ10
から各々第2及び第3の角度を有することがすでに判明
している。追加のセンサ12,14を使用して、センサと検
出されたターゲットとを接続する走査ライン22が交差す
る点を発見することにより、3つのターゲット16,18及
び20の位置を検出することが望まれる。
らの角度のみのデータをゴーストを除去する問題に適用
される。ゴースト除去問題はこの発明の技術を利用した
1つの例として提供されるが、様々な異なるタイプの問
題をこの発明を用いて解くことができる。図1におい
て、センサから角度のみのデータが得られるというシナ
リオ(scenario)が示されている。これらのセンサ10,1
2及び14はセンサに対するターゲット(目標)の角度を
各々検出できるが、ターゲットまでの距離に関する情報
を提供することはできない。したがって、第1のターゲ
ット16は、第1センサ10から所定の基準点に対してある
角度を有することがすでに判明している。同様に、第2
のターゲット18及び第3のターゲット20は第1センサ10
から各々第2及び第3の角度を有することがすでに判明
している。追加のセンサ12,14を使用して、センサと検
出されたターゲットとを接続する走査ライン22が交差す
る点を発見することにより、3つのターゲット16,18及
び20の位置を検出することが望まれる。
とくに、ターゲット16,18及び20は、第1センサ10、
第2センサ12及び第3センサ14の各々からの走査ライン
22が交差する点に各々あると仮定する。しかしほとんど
の場合、走査ライン22は複数の三重交点を有する。例え
ば、2つの三重交点が、第3センサ14とターゲット16と
を接続する走査ライン22の上に生じる。余分の三重交点
24は、その点にターゲットがないことからゴーストと呼
ばれる。ゴースト除去問題は真のターゲットとゴースト
とを区別することである。
第2センサ12及び第3センサ14の各々からの走査ライン
22が交差する点に各々あると仮定する。しかしほとんど
の場合、走査ライン22は複数の三重交点を有する。例え
ば、2つの三重交点が、第3センサ14とターゲット16と
を接続する走査ライン22の上に生じる。余分の三重交点
24は、その点にターゲットがないことからゴーストと呼
ばれる。ゴースト除去問題は真のターゲットとゴースト
とを区別することである。
図2において、この発明による多重ソースデータ統合
(Multi−Source Data Fusion)に適するプロセッサ30
は、図1に示される3つのセンサのゴースト除去問題を
解くことができる。この発明によれば、多重ソースデー
タ統合(ゴースト除去)に適するプロセッサ30は複数の
個々のプロセッサ即ちニューロン32を具備し、神経ネッ
トワークとして一般に知られる方法で構成される。とく
に、個々のニューロン32は相互接続強度を学習処理のと
きに変えることができるように相互接続される。
(Multi−Source Data Fusion)に適するプロセッサ30
は、図1に示される3つのセンサのゴースト除去問題を
解くことができる。この発明によれば、多重ソースデー
タ統合(ゴースト除去)に適するプロセッサ30は複数の
個々のプロセッサ即ちニューロン32を具備し、神経ネッ
トワークとして一般に知られる方法で構成される。とく
に、個々のニューロン32は相互接続強度を学習処理のと
きに変えることができるように相互接続される。
特定の相互接続方法及び適用される学習アルゴリズム
は、あらゆる神経ネットワーク技術にしたがって、多層
パーセプトロン(Multilayer Perceptron)に限らず、
ボルツマン装置(Boltzman machine)、逆伝播(counte
rpropagation)、ホップフィールドネット(Hopfield N
et)、ハミングネット(Hamming Net)などを含むこと
ができる。これらを認知形式のネットワークと呼ぶこと
とする。採用される神経ネットワーク構造及び学習アル
ゴリズムは、管理されないネットに反して、管理される
クラスのネットに属すると同時に、管理されないネット
にも適用できる。
は、あらゆる神経ネットワーク技術にしたがって、多層
パーセプトロン(Multilayer Perceptron)に限らず、
ボルツマン装置(Boltzman machine)、逆伝播(counte
rpropagation)、ホップフィールドネット(Hopfield N
et)、ハミングネット(Hamming Net)などを含むこと
ができる。これらを認知形式のネットワークと呼ぶこと
とする。採用される神経ネットワーク構造及び学習アル
ゴリズムは、管理されないネットに反して、管理される
クラスのネットに属すると同時に、管理されないネット
にも適用できる。
非限定的な好ましい実施例として、適合性(アダプテ
ィブ)プロセッサ30は、図4に示される多層パーセプト
ロンとして知られる神経ネットワークを使用する。多層
パーセプトロン34の機能は、それに関する学習アルゴリ
ズムと同様に、「誤差逆伝搬(backward error propaga
tion)」として知られており、以下の文献に掲載されて
いる:Rumelhart,Hinton,and Williams“Learning Inter
nal Representations By Error Propagation",in D.E.R
umelhart and J.L.McClelland(EDS.),Parallel Distr
ibuted Processing;Explorations in Microstructure o
f Cognition.Vol.1 Foundations,M.I.T.Press(1986)
は、この明細書において参照されている。
ィブ)プロセッサ30は、図4に示される多層パーセプト
ロンとして知られる神経ネットワークを使用する。多層
パーセプトロン34の機能は、それに関する学習アルゴリ
ズムと同様に、「誤差逆伝搬(backward error propaga
tion)」として知られており、以下の文献に掲載されて
いる:Rumelhart,Hinton,and Williams“Learning Inter
nal Representations By Error Propagation",in D.E.R
umelhart and J.L.McClelland(EDS.),Parallel Distr
ibuted Processing;Explorations in Microstructure o
f Cognition.Vol.1 Foundations,M.I.T.Press(1986)
は、この明細書において参照されている。
一般に、多層認知形式の神経ネットワーク、例えば多
層パーセプトロン34は処理ユニット即ち3つのタイプの
ニューロンから成り、入力ニューロン36と、内部ニュー
ロン38と、出力ニューロン40とにより構成される。ニュ
ーロン36,38及び40はそれぞれ同様のプロセッサを具備
し、そのプロセッサは入力を受信し、かつ、例えばS字
形非線形ロジック(sigmoid logistic nonlinearity)
のような入力のある関数である出力を発生する。更に、
各ニューロン36,38及び40は隣接する層内のあらゆるニ
ューロンにシナプシス状の接続42によって接続される。
シナプシス状の接続42は重み付けされた接続であり、各
ニューロン36,38,40の間の接続強度を増加又は減少する
ことができる。誤差逆伝搬技術に従う学習処理の間に学
習入力が入力ニューロン36に供給され、出力ニューロン
40で出力が発生する。所望出力44が次に出力ニューロン
40に供給され、所望出力と実際の出力との差が検出され
る。この差に基づくエラー信号はニューロン36,38及び4
0に使用され、重み付けされたシナプシス状の接続42の
強度はエラーを減少する方向に変化する。このエラー信
号は次にニューロンの次の層、例えば内部の層38に伝搬
する。学習が繰り返された後、所望の出力が学習入力に
応答して発生する。神経ネットワーク34は一度学習する
と入力が不完全な、即ち所望の入力から変化した形態を
有する場合でも所望の出力の発生に使用することができ
る。
層パーセプトロン34は処理ユニット即ち3つのタイプの
ニューロンから成り、入力ニューロン36と、内部ニュー
ロン38と、出力ニューロン40とにより構成される。ニュ
ーロン36,38及び40はそれぞれ同様のプロセッサを具備
し、そのプロセッサは入力を受信し、かつ、例えばS字
形非線形ロジック(sigmoid logistic nonlinearity)
のような入力のある関数である出力を発生する。更に、
各ニューロン36,38及び40は隣接する層内のあらゆるニ
ューロンにシナプシス状の接続42によって接続される。
シナプシス状の接続42は重み付けされた接続であり、各
ニューロン36,38,40の間の接続強度を増加又は減少する
ことができる。誤差逆伝搬技術に従う学習処理の間に学
習入力が入力ニューロン36に供給され、出力ニューロン
40で出力が発生する。所望出力44が次に出力ニューロン
40に供給され、所望出力と実際の出力との差が検出され
る。この差に基づくエラー信号はニューロン36,38及び4
0に使用され、重み付けされたシナプシス状の接続42の
強度はエラーを減少する方向に変化する。このエラー信
号は次にニューロンの次の層、例えば内部の層38に伝搬
する。学習が繰り返された後、所望の出力が学習入力に
応答して発生する。神経ネットワーク34は一度学習する
と入力が不完全な、即ち所望の入力から変化した形態を
有する場合でも所望の出力の発生に使用することができ
る。
図2において、適合性プロセッサ30は神経ネットワー
ク30を含み、神経ネットワーク30は以下に説明される修
正を施された図4に示されるような多層パーセプトロン
を具備することができる。適合性プロセッサ30におい
て、入力ニューロンは3つのグループに分割される。第
1のグループのニューロン44は第1センサ10からの入力
に対応する。第2のグループのニューロン46は第2セン
サ12からの入力を受信する。第3のグループのニューロ
ン48は第3センサ14から入力を受信する。したがって、
各グループ44,46及び48内のニューロンの数は3つのセ
ンサ10,12及び14からの入力角の数と同一である。適合
性プロセッサ30の内部ニューロン50はあらゆる数のニュ
ーロンを具備することができ、多重の内部層を具備する
ことができる。また、図4に示されるようなシナプシス
状の接続42は簡便のために図2には示されていない。し
かし、従来の多層パーセプトロンの場合のように、適合
性プロセッサ30の各層内の各ニューロンは隣接するあら
する層内のあらゆるニューロンに接続することができ
る。
ク30を含み、神経ネットワーク30は以下に説明される修
正を施された図4に示されるような多層パーセプトロン
を具備することができる。適合性プロセッサ30におい
て、入力ニューロンは3つのグループに分割される。第
1のグループのニューロン44は第1センサ10からの入力
に対応する。第2のグループのニューロン46は第2セン
サ12からの入力を受信する。第3のグループのニューロ
ン48は第3センサ14から入力を受信する。したがって、
各グループ44,46及び48内のニューロンの数は3つのセ
ンサ10,12及び14からの入力角の数と同一である。適合
性プロセッサ30の内部ニューロン50はあらゆる数のニュ
ーロンを具備することができ、多重の内部層を具備する
ことができる。また、図4に示されるようなシナプシス
状の接続42は簡便のために図2には示されていない。し
かし、従来の多層パーセプトロンの場合のように、適合
性プロセッサ30の各層内の各ニューロンは隣接するあら
する層内のあらゆるニューロンに接続することができ
る。
また、適合性プロセッサ30は出力ニューロン52の層を
含み、出力ニューロン52は第2センサ12からのセンサ入
力に対応する出力を発生するのに使用することができ
る。したがって、出力ニューロン52の数は、好適実施例
において、第2グループ46内の入力ニューロンの数に一
致する。留意したいのは、適合性プロセッサ30の好適実
施例において、出力ニューロン52は第2センサニューロ
ン46と相関関係を有するが、この発明によれば、異なる
グループの入力センサが選択され、出力ニューロンと相
関関係をもつことができるということである。
含み、出力ニューロン52は第2センサ12からのセンサ入
力に対応する出力を発生するのに使用することができ
る。したがって、出力ニューロン52の数は、好適実施例
において、第2グループ46内の入力ニューロンの数に一
致する。留意したいのは、適合性プロセッサ30の好適実
施例において、出力ニューロン52は第2センサニューロ
ン46と相関関係を有するが、この発明によれば、異なる
グループの入力センサが選択され、出力ニューロンと相
関関係をもつことができるということである。
図2は各センサからのセンサ角を示す一連のグラフを
含み、とくに第1センサのグラフ54は増加する順番に配
置された第1センサの角度を示すグラフである。傾斜ラ
イン56は、角度がグラフ54上にプロットされる点を単に
結ぶことにより得られる。ライン56は簡便のために直線
で示されるが、このラインは角度の配置により任意の形
状にすることができる。また、第1センサ10からの角度
はX[1,j]として定義され、これは第1センサ10から
測定してセンサ1により検出されるj番目のターゲット
に対する角度を示す。同様に、X[2,j]は第2センサ
により検出されたj番目の角度を識別する。第1グルー
プ内の5個の角度及び5個の入力ニューロン44は、第1
センサが5個の対象物を検出したことを示す。同様に、
第2センサ12及び第3センサ14も5個の対象物を検出し
ており、その角度はグラフ55及び59にそれぞれ示され
る。適合性プロセッサ30は多数又は少数のセンサ角を処
理することができ、又は、3個以上のセンサを処理する
ことができる。唯一の制限は使用される入力ニューロン
の数である。第1センサに関するグラフ54において、垂
直軸は−1〜+1である。センサ角は任意の範囲をとる
ことができるが、それらは一般的な正規化技術を用いて
−1から+1の間にある相対値に正規化されたものであ
る。これは入力ニューロン44が受入れる値の範囲を制限
する。同様に、第2センサ12及び第3センサ14の角度も
正規化されている。
含み、とくに第1センサのグラフ54は増加する順番に配
置された第1センサの角度を示すグラフである。傾斜ラ
イン56は、角度がグラフ54上にプロットされる点を単に
結ぶことにより得られる。ライン56は簡便のために直線
で示されるが、このラインは角度の配置により任意の形
状にすることができる。また、第1センサ10からの角度
はX[1,j]として定義され、これは第1センサ10から
測定してセンサ1により検出されるj番目のターゲット
に対する角度を示す。同様に、X[2,j]は第2センサ
により検出されたj番目の角度を識別する。第1グルー
プ内の5個の角度及び5個の入力ニューロン44は、第1
センサが5個の対象物を検出したことを示す。同様に、
第2センサ12及び第3センサ14も5個の対象物を検出し
ており、その角度はグラフ55及び59にそれぞれ示され
る。適合性プロセッサ30は多数又は少数のセンサ角を処
理することができ、又は、3個以上のセンサを処理する
ことができる。唯一の制限は使用される入力ニューロン
の数である。第1センサに関するグラフ54において、垂
直軸は−1〜+1である。センサ角は任意の範囲をとる
ことができるが、それらは一般的な正規化技術を用いて
−1から+1の間にある相対値に正規化されたものであ
る。これは入力ニューロン44が受入れる値の範囲を制限
する。同様に、第2センサ12及び第3センサ14の角度も
正規化されている。
適合性プロセッサ30の学習を開始するために、全ての
センサ角がニューロン44,46,48に供給される。図2のセ
ンサ角は、小さい角度から大きい角度へと順番に配置さ
れて傾斜曲線56を形成しているが、センサ角は任意の順
番にすることができる。入力ニューロン44,46,48は入力
に対してある種の変換機能を実行し、信号を内部ニュー
ロン50に伝送する。図4に示されるシナプシス状の接続
42のような相互接続が用いられる。同様に、内部ニュー
ロン50は入力層から受信した入力に対して変換機能を実
行し、シナプシス状の接続42を介して信号を出力ニュー
ロン52へ伝送する。次に、出力ニューロン52は出力を発
生する。誤差逆伝搬学習アルゴリズムに従い、入力ニュ
ーロン44はすでに検出されたターゲットに関する3個の
センサからの角度より成る学習入力が供給される。出力
ニューロン52には学習入力A[2,j]が供給される。A
[2,j]は、再配列された第2センサ12からの正規化さ
れた角度を具備する。即ち、角度が第1センサの角度の
順番と同じ順番に再配列されることを除けば、学習入力
A[2,j]は、入力ニューロン46に提供される第2セン
サからの学習角度と同一の角度を含む。第1センサの入
力角は最も小さい角度から大きい角度への増加する順番
に配列されることが想起される。したがって、A[2,
j]内の第1の角度(58)は特定のターゲットが第2セ
ンサから検出されるときの角度である。入力ニューロン
60に供給された第1センサの第1角度は、同一のターゲ
ットがセンサ10から検出されるときの角度を示す。同様
に、A[2,j]内の第2角度(62)は第2のターゲット
が第2センサ12により検出されるときの角度を示す。第
2入力ニューロン64に供給された第1センサの第2角度
は、第2のターゲットが第1センサにより検出されたと
きの角度を示す。A[2,j]内の他の角度は、同様に第
1センサ10内の次に続く角度に対応する。
センサ角がニューロン44,46,48に供給される。図2のセ
ンサ角は、小さい角度から大きい角度へと順番に配置さ
れて傾斜曲線56を形成しているが、センサ角は任意の順
番にすることができる。入力ニューロン44,46,48は入力
に対してある種の変換機能を実行し、信号を内部ニュー
ロン50に伝送する。図4に示されるシナプシス状の接続
42のような相互接続が用いられる。同様に、内部ニュー
ロン50は入力層から受信した入力に対して変換機能を実
行し、シナプシス状の接続42を介して信号を出力ニュー
ロン52へ伝送する。次に、出力ニューロン52は出力を発
生する。誤差逆伝搬学習アルゴリズムに従い、入力ニュ
ーロン44はすでに検出されたターゲットに関する3個の
センサからの角度より成る学習入力が供給される。出力
ニューロン52には学習入力A[2,j]が供給される。A
[2,j]は、再配列された第2センサ12からの正規化さ
れた角度を具備する。即ち、角度が第1センサの角度の
順番と同じ順番に再配列されることを除けば、学習入力
A[2,j]は、入力ニューロン46に提供される第2セン
サからの学習角度と同一の角度を含む。第1センサの入
力角は最も小さい角度から大きい角度への増加する順番
に配列されることが想起される。したがって、A[2,
j]内の第1の角度(58)は特定のターゲットが第2セ
ンサから検出されるときの角度である。入力ニューロン
60に供給された第1センサの第1角度は、同一のターゲ
ットがセンサ10から検出されるときの角度を示す。同様
に、A[2,j]内の第2角度(62)は第2のターゲット
が第2センサ12により検出されるときの角度を示す。第
2入力ニューロン64に供給された第1センサの第2角度
は、第2のターゲットが第1センサにより検出されたと
きの角度を示す。A[2,j]内の他の角度は、同様に第
1センサ10内の次に続く角度に対応する。
適合性プロセッサ30は、第2センサの角度A[2,j]
の特定の再構成により学習をする。なぜならば、このよ
うな出力により、真のターゲットの識別が可能となり、
かつゴーストを取り除くことができるからである。即
ち、センサの中の2つのセンサのみらの対応する角度を
相関させることによってゴースト除去問題を解決するこ
とができることは、当業者に高く評価されているところ
であろう。
の特定の再構成により学習をする。なぜならば、このよ
うな出力により、真のターゲットの識別が可能となり、
かつゴーストを取り除くことができるからである。即
ち、センサの中の2つのセンサのみらの対応する角度を
相関させることによってゴースト除去問題を解決するこ
とができることは、当業者に高く評価されているところ
であろう。
好適実施例によれば、適合性プロセッサ30はエラー・
バック・プロパゲーション(誤差逆伝搬)技術を、ネッ
トワークを学習させるために使用する。とくに、出力ニ
ューロン52は各ニューロン52の実際の出力と所望出力A
[2,j]との間の差を検出する。この差は次の層のニュ
ーロン50と出力ニューロン52との間の重みを調整するの
に使用される。同様に、このエラー信号は入力ニュート
ン44,46,48に達する最後の層のシナプシス状の接続まで
ネートワークにわたる重みを調節する。この学習処理は
3つのセンサから同一の入力を再び供給し、かつネット
ワークが所望出力A[2,j]により再び学習することに
よって繰り返される。学習処理は実際の出力が最終的に
所望出力A[2,j]の所望範囲内に入るまで繰り返され
る。
バック・プロパゲーション(誤差逆伝搬)技術を、ネッ
トワークを学習させるために使用する。とくに、出力ニ
ューロン52は各ニューロン52の実際の出力と所望出力A
[2,j]との間の差を検出する。この差は次の層のニュ
ーロン50と出力ニューロン52との間の重みを調整するの
に使用される。同様に、このエラー信号は入力ニュート
ン44,46,48に達する最後の層のシナプシス状の接続まで
ネートワークにわたる重みを調節する。この学習処理は
3つのセンサから同一の入力を再び供給し、かつネット
ワークが所望出力A[2,j]により再び学習することに
よって繰り返される。学習処理は実際の出力が最終的に
所望出力A[2,j]の所望範囲内に入るまで繰り返され
る。
適合性プロセッサ30は一度学習すると入力角の新しい
セットx[1,j],x[2,j],x[3,j]に応答してグラフ6
5に示される出力y[2,j]を発生する。ここで与えられ
たセンサ内のどのセンサがもう1つのセンサからの角度
と相関するかは分かっていない。学習をした適合性プロ
セッサ30の実際の出力と出力y[2,j]は、ネットA
[2,j]を学習するのに使用された所望出力と同様に、
第2センサ12の角度配列から成り、出力y[2,j]内の
第1の角度66が第2センサによりターゲットが検出され
た点を示すようにし、同時に入力ニューロン60に提供さ
れた角度で同一のターゲットが第1センサにより検出さ
れるようにする。このようにして、ターゲットの位置が
判断できるように2つのセンサからの全ての角度は相関
される。出力ニューロンの連続する出力値はセンサ1の
角度に正確に相関するために使用されるか、又はセンサ
2の実際の角度に最適適合するかし、この出力値は次に
センサ1と相関するのに用いられる。
セットx[1,j],x[2,j],x[3,j]に応答してグラフ6
5に示される出力y[2,j]を発生する。ここで与えられ
たセンサ内のどのセンサがもう1つのセンサからの角度
と相関するかは分かっていない。学習をした適合性プロ
セッサ30の実際の出力と出力y[2,j]は、ネットA
[2,j]を学習するのに使用された所望出力と同様に、
第2センサ12の角度配列から成り、出力y[2,j]内の
第1の角度66が第2センサによりターゲットが検出され
た点を示すようにし、同時に入力ニューロン60に提供さ
れた角度で同一のターゲットが第1センサにより検出さ
れるようにする。このようにして、ターゲットの位置が
判断できるように2つのセンサからの全ての角度は相関
される。出力ニューロンの連続する出力値はセンサ1の
角度に正確に相関するために使用されるか、又はセンサ
2の実際の角度に最適適合するかし、この出力値は次に
センサ1と相関するのに用いられる。
更に、適合性プロセッサ30は新しいシナリオで更に学
習される。即ち、新しい角度の組(セット)は同一の数
及び同一のセンサ位置に関するものであり、この角度の
新しいセットを入力ニューロン44,46,48に再び提供する
ことができ、また適合性プロセッサ30は検出された既知
のターゲットの異なるセットについて、所望出力A[2,
j]の新しいセットにより学習することができる。適合
性プロセッサ30が学習する異なるシナリオの数は、問題
の性質、センサとターゲットの数、所望する精度などの
要因の数に依存する。全ての学習が一度完了すると、全
ての情報が適合性プロセッサ30に使用できるようにな
り、適合性プロセッサはその内部接続を介して学習して
いない新しいケースに普遍的に適合できるアルゴリズム
を実施するようになる。適合性プロセッサ30に現在実施
されている所定のセンサ位置に関する問題に特有の構造
が存在すると考えられる。したがって、ここで適合性プ
ロセッサは真のターゲットを識別でき、それによりゴー
ストを取り除くことができる。
習される。即ち、新しい角度の組(セット)は同一の数
及び同一のセンサ位置に関するものであり、この角度の
新しいセットを入力ニューロン44,46,48に再び提供する
ことができ、また適合性プロセッサ30は検出された既知
のターゲットの異なるセットについて、所望出力A[2,
j]の新しいセットにより学習することができる。適合
性プロセッサ30が学習する異なるシナリオの数は、問題
の性質、センサとターゲットの数、所望する精度などの
要因の数に依存する。全ての学習が一度完了すると、全
ての情報が適合性プロセッサ30に使用できるようにな
り、適合性プロセッサはその内部接続を介して学習して
いない新しいケースに普遍的に適合できるアルゴリズム
を実施するようになる。適合性プロセッサ30に現在実施
されている所定のセンサ位置に関する問題に特有の構造
が存在すると考えられる。したがって、ここで適合性プ
ロセッサは真のターゲットを識別でき、それによりゴー
ストを取り除くことができる。
図2は、第1センサ10と相関する角度のセットを生成
するために適合性プロセッサ30が学習されているのを示
しているが、適合性プロセッサは、第3セサ14または他
の追加のセンサと相関する角度のセットを生成するため
に容易に学習することができ、同様に容易に採用するこ
とができることが理解されよう。
するために適合性プロセッサ30が学習されているのを示
しているが、適合性プロセッサは、第3セサ14または他
の追加のセンサと相関する角度のセットを生成するため
に容易に学習することができ、同様に容易に採用するこ
とができることが理解されよう。
一度学習すると、適合性プロセッサ30は3個のセンサ
10,12,14からのセンサ角の新しいセットを受けることが
できる。学習処理の間、センサ角は最少から最大という
順番、又は学習中に使用した他の順番と同じ順番で配列
されなければならない。適合性プロセッサ30の出力は第
2セサ12の角度y[2,j]のセットを具備し、このセッ
トは第1センサ10の角度と相関をもつ。即ち第1の出力
角は第1センサの第1角度に整合することができ、第2
の出力角は第1センサの第2角度に整合することができ
る。この整合、つまり相関はターゲットの実際の位置に
対する交点を生成し、それにより割り受け問題が解かれ
ることになる。前述のように、出力ニューロンの連続的
な出力値を正確に使用して、第1センサ即ちセンサ1の
角度に相関をもたせること、又は第2センサ即ちセンサ
2の実際の角度に最も整合させることのいずれかが可能
であり、この出力値は次に第1センサ即ちセンサ1と相
関をもたせるのに使用されることになる。
10,12,14からのセンサ角の新しいセットを受けることが
できる。学習処理の間、センサ角は最少から最大という
順番、又は学習中に使用した他の順番と同じ順番で配列
されなければならない。適合性プロセッサ30の出力は第
2セサ12の角度y[2,j]のセットを具備し、このセッ
トは第1センサ10の角度と相関をもつ。即ち第1の出力
角は第1センサの第1角度に整合することができ、第2
の出力角は第1センサの第2角度に整合することができ
る。この整合、つまり相関はターゲットの実際の位置に
対する交点を生成し、それにより割り受け問題が解かれ
ることになる。前述のように、出力ニューロンの連続的
な出力値を正確に使用して、第1センサ即ちセンサ1の
角度に相関をもたせること、又は第2センサ即ちセンサ
2の実際の角度に最も整合させることのいずれかが可能
であり、この出力値は次に第1センサ即ちセンサ1と相
関をもたせるのに使用されることになる。
以上の例において、3つのグループ44,46,48の各々中
の入力ニューロンの数は、角度の数及び各センサに対し
て検出されるターゲットの数に一致した。図3は各入力
ニューロン44,46,48の数が3個の入力センサからの入力
角の数より大きい場合を示している。図3に示される技
術を用いて適合性プロセッサ30を使用して異なる数のタ
ーゲット及びセンサ角を有する問題を解くことができ
る。図3に示されるように、適合性プロセッサ30は各セ
ンサについて5個の入力ニューロンを有し、各センサに
ついて3つの角度のみが存在する問題を解くのに使用す
ることができる。これを達成するために、最初の2つの
入力は−1に設定され、残りの角度はゼロと1の間であ
るように正規化される。同様に、学習入力A[2,j]は
最初の2つの角度を−1に設定する。適合性プロセッサ
は次に図2に関連して説明したように学習される。この
ようにして、多ソースデータ統合用の適合性プロセッサ
30は、各センサからの角度の数が各入力グループ44,46,
48内の入力ニューロンの数と同じ、又はそれより少ない
様々な問題に使用することができる。
の入力ニューロンの数は、角度の数及び各センサに対し
て検出されるターゲットの数に一致した。図3は各入力
ニューロン44,46,48の数が3個の入力センサからの入力
角の数より大きい場合を示している。図3に示される技
術を用いて適合性プロセッサ30を使用して異なる数のタ
ーゲット及びセンサ角を有する問題を解くことができ
る。図3に示されるように、適合性プロセッサ30は各セ
ンサについて5個の入力ニューロンを有し、各センサに
ついて3つの角度のみが存在する問題を解くのに使用す
ることができる。これを達成するために、最初の2つの
入力は−1に設定され、残りの角度はゼロと1の間であ
るように正規化される。同様に、学習入力A[2,j]は
最初の2つの角度を−1に設定する。適合性プロセッサ
は次に図2に関連して説明したように学習される。この
ようにして、多ソースデータ統合用の適合性プロセッサ
30は、各センサからの角度の数が各入力グループ44,46,
48内の入力ニューロンの数と同じ、又はそれより少ない
様々な問題に使用することができる。
所定の適合性プロセッサ30が特定クラスの問題を解く
ことを一度学習すると、シナプシス状の接続42内の重み
の値はこれら固定値に設定された重みを有する追加のプ
ロセッサに伝送することができる。このようにして、無
制限な数の学習されたプロセッサを学習処理を繰り返す
ことなく再生することができる。
ことを一度学習すると、シナプシス状の接続42内の重み
の値はこれら固定値に設定された重みを有する追加のプ
ロセッサに伝送することができる。このようにして、無
制限な数の学習されたプロセッサを学習処理を繰り返す
ことなく再生することができる。
以上の説明により、この発明は、制限された割り付け
問題に限らず、広範囲で様々な応用に使用することがで
きる多ソースデータ統合用適合性プロセッサを提供する
ことが当業者には理解される。本明細書、図面、及び次
に示す請求の範囲により、この発明の様々な利点が当業
者に理解されるものである。
問題に限らず、広範囲で様々な応用に使用することがで
きる多ソースデータ統合用適合性プロセッサを提供する
ことが当業者には理解される。本明細書、図面、及び次
に示す請求の範囲により、この発明の様々な利点が当業
者に理解されるものである。
フロントページの続き (56)参考文献 IEEE First Intern ational Conference on Neural Network s San Diego,CCA.U S,21−24,June 1987 Page s407−416H.Bourlard他「M ultilayer perceptr ons and automatic speech recognitio n」 IEEE Internationa l Conference on Ne ural Networks San Diego,CA.US 24−27 Ju ly1988 Pages473−480 F. F.Castelaz「Neural networks in defens e applications」 IEEE Internationa l Joint Conference on Neural Network s June 18−22 1989 Robe rt H.Baran「A Colle ctive Computation Approach to Automa tic Target Recogni tion」 PagesI−39〜I−44
Claims (3)
- 【請求項1】目標からの目標角度データのゴースト除去
用の神経ネットワークプロセッサを用意するために多層
認知形式の神経ネットワークを学習させる方法であっ
て、該目標は各検出されるターゲットに関する目標角度
データを用意する複数のセンサによって検出され、該神
経ネットワークは第1の層を形成する複数の入力ニュー
ロンを含み、入力ニューロンの数は、少なくともセンサ
の数と該センサによって検出されるべき目標の最大数と
を加えた数に等しく、少なくとも1つの層の入力ニュー
ロンと、出力層を形成する複数の出力ニューロンとがあ
って、各ニューロンは重み付けされたシナプシス接続に
よって隣接したニューロンの層内のすべてのニューロン
と接続されており、該シナプシス接続は個々のニューロ
ンの間の接続強度を増したり減じたりすることができ、
かつ次の段階で成る多層パーセプトロン形式の神経ネッ
トワークを学習させる方法: (a)各センサに関して、該センサからのどのような目
標角度データでも受領するために複数の入力ニューロン
を指定して、各センサに対して指定された該入力ニュー
ロンの数は少なくとも該センサによって検出されるべき
該目標の最大数と同じとなるようにする段階と; (b)目標の既知の組に関して、各目標が各センサに対
する既知の目標角度を有し、該各既知の目標角度と関連
する信号を該センサの各々に対して指定された入力ニュ
ーロンに加えて、ここで出力ニューロンが最初の出力を
作り出すようにする段階と; (c)該センサの選ばれた1つに関して、複数の該出力
ニューロンを指定して該選ばれたセンサに対して指定さ
れた入力ニューロンと対応するようにし、かつ選ばれた
センサに対する該既知の目標角度と関連する該信号を指
定の出力ニューロンに加えて指定の出力信号を送出し
て、最初の出力と指定の出力信号との差を用いて神経ネ
ットワーク全体で重みを適合させて調整された出力信号
を送出するようにする段階と; (d)調整された出力信号が所望の出力信号に対応する
まで(a)から(c)の段階を繰り返す段階。 - 【請求項2】さらに、(e)少なくとも1の追加の既知
の目標の組のために(a)から(c)の段階を繰返す段
階を含む請求項1記載の神経ネットワークを学習させる
方法。 - 【請求項3】段階(b)において、目標の既知の組に対
して、各目標がそれぞれのセンサに対して既知の目標角
度を有し、該既知の目標角度に関係する正規化した信号
を該センサの適当な1つのための指定された入力ニュー
ロンに加えて、出力ニューロンが最初の出力を作り出す
こととすることを特徴とする請求項1記載の神経ネット
ワークを学習させる方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US39268389A | 1989-08-11 | 1989-08-11 | |
US392,683 | 1989-08-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04501329A JPH04501329A (ja) | 1992-03-05 |
JP2635443B2 true JP2635443B2 (ja) | 1997-07-30 |
Family
ID=23551592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2512241A Expired - Lifetime JP2635443B2 (ja) | 1989-08-11 | 1990-08-09 | 多ソースデータ統合用の神経ネットワークを学習させる方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0438577A1 (ja) |
JP (1) | JP2635443B2 (ja) |
WO (1) | WO1991002321A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063752B (zh) * | 2018-07-17 | 2022-06-17 | 华北水利水电大学 | 基于神经网络的多源高维多尺度实时数据流的分拣方法 |
-
1990
- 1990-08-09 JP JP2512241A patent/JP2635443B2/ja not_active Expired - Lifetime
- 1990-08-09 WO PCT/US1990/004482 patent/WO1991002321A1/en not_active Application Discontinuation
- 1990-08-09 EP EP90912737A patent/EP0438577A1/en not_active Withdrawn
Non-Patent Citations (3)
Title |
---|
IEEE First International Conference on Neural Networks San Diego,CCA.US,21−24,June 1987 Pages407−416H.Bourlard他「Multilayer perceptrons and automatic speech recognition」 |
IEEE International Conference on Neural Networks San Diego,CA.US 24−27 July1988 Pages473−480 F.F.Castelaz「Neural networks in defense applications」 |
IEEE International Joint Conference on Neural Networks June 18−22 1989 Robert H.Baran「A Collective Computation Approach to Automatic Target Recognition」 PagesI−39〜I−44 |
Also Published As
Publication number | Publication date |
---|---|
WO1991002321A1 (en) | 1991-02-21 |
JPH04501329A (ja) | 1992-03-05 |
EP0438577A1 (en) | 1991-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5276770A (en) | Training of neural network for multi-source data fusion | |
Zupan | Introduction to artificial neural network (ANN) methods: what they are and how to use them | |
US5155801A (en) | Clustered neural networks | |
US5136687A (en) | Categorization automata employing neuronal group selection with reentry | |
Buscema et al. | Artificial neural networks | |
US7788196B2 (en) | Artificial neural network | |
Derks et al. | Robustness analysis of radial base function and multi-layered feed-forward neural network models | |
EP0393541A2 (en) | Clustering and association processor | |
Yoshimura et al. | New regularization by transformation for neural network based inverse analyses and its application to structure identification | |
WO1991002323A1 (en) | Adaptive network for classifying time-varying data | |
Grant et al. | The use of neural techniques in PIV and PTV | |
Santos et al. | Perception maps for the local navigation of a mobile robot: a neural network approach | |
Brozović et al. | Mechanism of gain modulation at single neuron and network levels | |
JP2635443B2 (ja) | 多ソースデータ統合用の神経ネットワークを学習させる方法 | |
US4982439A (en) | Fine-grained microstructure processor | |
US5454064A (en) | System for correlating object reports utilizing connectionist architecture | |
Miller et al. | Office of Naval Research contributions to neural networks and signal processing in oceanic engineering | |
Damarla et al. | A self-learning neural net for ultrasonic signal analysis | |
Chaudhuri et al. | Neural networks for data fusion | |
Fukumi et al. | Rotation-invariant neural pattern recognition systems with application to coin recognition | |
US20220309326A1 (en) | Learning method of neural network and neural processor | |
Chakraborty et al. | Layered fractal neural net: computational performance as a classifier | |
Apte et al. | Development of back propagation neutral network model for ectracting the feature from a satellite image using curvelet transform | |
PANDYA et al. | A stochastic parallel algorithm for supervised learning in neural networks | |
Wysoski et al. | Biologically realistic neural networks and adaptive visual information processing |