JPH05502531A - 神経ネットワーク - Google Patents

神経ネットワーク

Info

Publication number
JPH05502531A
JPH05502531A JP3501348A JP50134891A JPH05502531A JP H05502531 A JPH05502531 A JP H05502531A JP 3501348 A JP3501348 A JP 3501348A JP 50134891 A JP50134891 A JP 50134891A JP H05502531 A JPH05502531 A JP H05502531A
Authority
JP
Japan
Prior art keywords
input
output
network
node
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3501348A
Other languages
English (en)
Inventor
ナイチンゲール、チャールズ
ウィアード、ペーター・ジョセフ
Original Assignee
ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー filed Critical ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Publication of JPH05502531A publication Critical patent/JPH05502531A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Character Discrimination (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 神経ネットワーク 本発明は(人工的な)神経ネットワーク(換言すると、複数の簡単な相互接続さ れた神経プロセッサを含むまたはエミュレートする並列処理装置またはこの種の 並列処理をエミュレートするように構成された装置)、特にそれに限定されない が、音声認識、文章・音声変換、母言語翻訳およびビデオスクリーン認識のよう なパターン認識問題におけるそれらの使用に関する。
図1を参照すると、技術的に知られている1つのタイプの一般化された神経ネッ トは入力データシーケンスが入力手段(示されていない)から供給される複数の 入力ノードla。
lb、lcおよび入力データシーケンスが予め定められた基準を満足させた(例 えば、特定のワードまたはシーケンスが認識されたか、或は特定の対象に対応し た画像が認識された)ことを示す各ネット出力信号をそれぞれ生成する複数の出 力ノード2a、2b、2cを含む。各出力ノードは上方の層(出力層)において ノードに入力を提供するように加重係数によってノードの出力をスケールする加 重3a乃至31を含む対応した接続によって下方の層(入力層)において1つ以 上のノードに接続される。各ノード出力はまた一般に非直線(圧縮)段(示され ていない)を含む。
多数のこのようなネットにおいて、下方の層から入力を受け、上方の層のための 出力を発生する別の中間的な内部または“隠蔽“層が含まれる。一般にノードの 出力は加重された入力の関数であり、典型的に関数は上記された後続的な非直線 圧縮を有するこれらの入力の合計である。このようなネットの1例は良く知られ た多層パーセプトロン(MLP)である。
このようなネットは、予め定められた基準を満足させるために知られている訓練 データシーケンスを入力し、ネット出力がこのような基準の所望の表示に近似す るまで層を接続する加重値を反復的に修正することによって訓練位相において訓 練される。訓練データの範囲で訓練しているため、このような訓練されたネット ワークは種々の処理および認識作業を実行するためにリアルワールドデータで動 作できることが認められている。
近年の神経ネットにおける関心の復活以来、処理があいまいさがなく並列で分配 され(Rumelhart 1986 [8]) 、信号処理(例えばL7nc h & Rayn!r 1989 ) 、パターン認識(例えばEutchiD son & Welsh 1989 ) (Woodland & Sm7jh e 1990) およびロボット制御(例えばSa!rens & 5oque t 1989 )における問題を解決するのに申し分なく適していることが最近 判明したネットが非常に注目されている。また信号処理として理解されることが できない問題に対しである注意が払われ、特に母言語に神経ネットワークを適用 する種々の方法が種々の文献例えば(Rumelhart 1986 [9]) および(McCIelland & Kawamo+o 1986)から近年の 論文および報告(Sharkey 1989) 。
(Weber 1989)および(Jagot++ & laiubowij! 1989)において説明されている。これらの場合における困難な問題はネット に入力を与える方法である。テキストのような制限されていないデータがこれら の種類の神経ネットによって処理されるべきである場合、それは例えばCRum elha口氏他1986 [10])に示されたような文字またはマイクロ特性 等のある組の低レベル特徴として入力されなければならず、1或は全体的なワー ドまたは大きな特徴が使用された場合、入力ノードの数は非常に大きくなければ ならない。後者の場合においてもまた各ワードは局部的に蓄積されるため、並列 分配処理の純粋概念からのある後退は許容されなければならない。
換言すると、典型的に非常に少ないノード(その場合、ネットワークは選択され た特徴が不適切ならば、良好に訓練されていない)を使用するか、または非常に 多数のもの(その場合、ネットワークは簡単な検索蓄積部として動作する傾向さ れることであり、これは結果的に遅く労力を要する可能性connee+1on isj network ’″、神経ネットワークに関するIEEE国際会議の 議事録で公表、サンティエゴ、 1988年6月24乃至カニニットおよび隠蔽 ユニットが存在するある種の多層PPである。対応したメモリユニットは各隠蔽 ユニットと関連している。各メモリユニットはその関連した隠蔽ユニットの各状 態の一時的な複写を行い、その後火のサイクルで隠蔽ユニットにこの複写を供給 する(システムが次の刺激を処理したとき)。
メモリユニットは情報を一時的に蓄積するだけである。メモリユニットに蓄積さ れた情報はここで特定された“新しい特徴″に対応するように現れない。メモリ ユニットに蓄積された情報は任意の方法で入力層を修正するために使用されなT encrio氏他は、同じ会議の別の論文のI+ 235乃至+1242頁にお いてスペイン語および英語に適用されたNETトークシステムを論じている。そ の論文の5.2章において、彼等は異なる数の隠蔽ユニットを有するネットワー クを使用する効果を論じている。驚くべきことではないが、ネットワークが少数 だけでなく非常に多数の隠蔽ユニットを有する場合(訓練パターンが存在してい るのと同じ多数の隠蔽ユニットが少なくとも存在している)、後方伝播アルゴリ ズムにおける動作の劇的な変化が生じる。多数の隠蔽ユニットによりネットワー クはもちろん効果的に検索表であるものとして動作することができる。最適な数 の隠蔽ユニットが存在すること、または特定のネットワーク中の隠蔽ユニット数 が劇的にまたは任意の別の方法で変化されることは示唆されていない。
論文(”Automatic generation of 1nternal  +epresen4a+1ons in a probabilistic  artificial neural network ” 。
”NCu+al Networks from Models to Appl icatioms ”掲載。
1、D、S、E、T Paris 1989. 178乃至186頁)において Ekeberg氏は最初に単層フィードバックPPタイプネットワークであるも のに層および特徴を付加することを考慮している。高レベル特徴コードは同時入 カニニット活動の適切な組合せのためのものである。高レベル特徴は分離層中に 存在しており、入力/出力層との接続を介して通信する。最初に、内部層は各内 /外ユニットに対して1つのユニットを含み、すなわち内部コードは最初に外部 と同じである。訓練中、内部層は入力/出力層において高次の共同活動を符号化 するユニットと既存のユニットを置換することによって徐々に変形される。
Ek!bprg氏は適切な内部ユニットがどのように選択されるかを説明してい る。彼は最高の相互依存性を備えた2つの内部ユニットを選択し、3つ以上の特 定のものとそれらを置換し、古いもののうちの2つがあるならば1つはアクチブ であり、1つだけがアクチブであるならば他のものはそれぞれアクチブである。
このような置換の後、サンプルパターンは関連した新しい確率の評価を得るため に再度走査される。3つの内部ユニットによって2つの内部ユニットを置換する このプロセスは、タスクが解決されるまで反復される。最悪の場合、有効な規則 性が検出されない場合、個々の訓練パターンに対応したいわゆる“グランドマザ ーセル”が発達する。したがって、ネットワークはもちろん非常にメモリ集中的 である実効的に検索表であるものに成長する。しかしながら、Ekebe+g氏 は通常の場合において成功的な表示がもっと速く現れることを述べている。
Ekeberg氏は通常のケースに対してユニットの置換を制限する確率および 需要のどちらも示唆していない。Ekeberg氏はまた“グランドマザーセル ”の生成が“通常の場合の”特徴の劣化を伴ってまたはそれを伴わずに限定また は阻止されることができるか否か、またはその方法に関して述べていない。
欧州特許第0327817号明細書において、訓練中接続加重が予め定められた 固定された最大および最小値間で調節される関連したパターン変換システムが示 されている。最大および最小値は、簡単な回路が使用されることができるために それらの間で予め固定され小さい範囲だけによることが好ましくい。加重がその 予め定められた最大または最小に達した場合、それは飽和したという。加重修正 関数は単調に減少する関数である。高レベル特徴から得られる新しい特徴に応答 するように内部ノードを付加するか、或は入力層を修正することは示唆されてい ない。
本発明の第1の観点によると、本発明は、入力信号を受信する入力手段と、対応 したノード出力を発生するために予め定められた特徴の前記信号中の発生に応答 する入力層手段と、少なくとも1つの出力を生成するために前記ノード出力の発 生に応答し、各出力が対応した加重値によって加重される複数のこのようなノー ド出力の関数である出力層手段とを含んでいる人工神経ネットワークであって、 入力層が応答する前記予め定められた特徴に対応しない入力信号から得られたデ ータを蓄積する手段と、蓄積されたデータから得られ、それに対応した新しい特 徴に応答するように前記入力手段を変化する手段によって特徴付けられる訓練可 能な人工神経ネットワークを提供する。
生成するネットは、好ましくは長い訓練プログラムで困難な訓練タスクを処理す るために予備メモリ、(またはノード)を使用する。それはそうでも、使用され るメモリは制限が新しいノードを生成するネット傾向に与えられることが好まし いため余り過度ではない。
本発明のその他の観点および実施例は添付された請求の範囲に記載され、または 以下説明される。
以下、添付図面を参照して実施例により本発明を説明する。
図1は一般的な(従来技術の)神経ネットを概略的に示す。
図2a乃至図2dは訓練の連続段階中の本発明の1観点によるネットの構造を概 略的に示す。
図3は神経ネットの一般的な(従来技術の)出力または中間ノードを概略的に示 す。
図4は図2a乃至図2dのネットを訓練する方法を概略的に示す。
図5は本発明の1観点による加重修正関数を概略的に示す。
図6は文法的に検査するための本発明の実施例を概略的に示す。
図7aおよび図7bは訓練の連続的な段階中の本発明の別の観点によるネットを 示す。
図8は1つの問題を解決するために訓練されたこの実施例によるネットを示す。
図9は排他的オア論理関数を実行するために訓練されたこの実施例によるネット を示す。
表1は図8に対する接続加重を示す。
表2は図9に対する接続加重を示す。
表3は排他的オア入力が与えられたときの図9におけるクラスタセルの励起に対 する式を示す。
表4は排他的オア入力に対する図9の励起およびネット出力を示す。
図面を参照すると、簡単な例においてネットがその訓練位相を開始したとき、そ れは任意の入力に応答して点火するただ1つの出力ノードを構成する。それが新 しく良く知られていない入力を受信すると、ネットは入力データにおいて認めら れる特徴にそれぞれ応答した新しいノードを必要に応じて例示する。したがって 、本発明の簡単な形態がある時間の間ランした後、それは図2aに示されるよう に1組の接続によって出力ノードの単一層に接続された入力ノードの層を構成す る。入力から出力への接続は全ての入力/出力対の間にはなく、各接続は加重を 所有する。入力信号は例えばテキスト、スピーチまたはビデオデータを含む。入 力がテキストエンティティを構成する例において、ワードが最低レベル特徴とし て検出された場合、完全な訓練位相入力データシーケンスは句または文であるこ とができる。入力中の各ノードは前にネットに与えられる入力シーケンスのある 特徴に対応しくすなわち、応答して出力を生成する)、これらの低レベル特徴の いくつかを含む新しい入力データシーケンスが与えられた場合、これらのノート は励起される。したがって、入力に含まれた知られていない低レベル特徴を表し た任意のデータはネットのaカの決定において役割りを果たさない。しかしなか ら、このようなデータは接続加重修正の後続サイクル期間中短い用語メモリ中に 保持され、新しい入力ノードを形成するように最終的にある適切な出力にZず接 続される。各出力ノードは、励起が式1で与えられる図3に示されるように典型 的な神経プロセッサである。
このような非直線付勢関数はここでは現れないが、最も強い点火8カセルを除い た全てを切離すように自動的に設定し、同じ関数を満足する概念上のしきい値動 作か発生することを保証する競争アルゴリズムか現れる(しかしながら、非直線 関数は使用されることができる)。
アルゴリズムは、以下に説明される図4に示されたフロー図に後続することによ って簡単な単相モードで作用する。
図4を参照すると、アルゴリズムは次のように作用する準備上 相互作用サイク ルの位置6において、システムは開始状態であり、利用者は1.2または3を介 する処理の選択を有する。
質問 相互作用サイクルの位置1において、ネット構造は図2aに示されたよう なものであると仮定する。
る。管理プログラム、すなわち利用者はネットが正しいまだ新しい入力は入力層 、例えばa2、a4およびa6においてセルのいくつかを励起するネットに与え られ、2つの新しいセルa8およびa9を例示する(すなわち、特徴データを蓄 積することによって生成する)。全体入力データシーケンスを一緒に蓄積するセ ル(a2、a4、a6、a8およびa9)は現在の短い用語メモリ(CSTM) としてネットにおいて知られており、RAMで構成されることが都合がよい。
出力層(bl、b3およびb4)中のいくつかのセルは、適切な既存の相互接続 (例えば、a2−b3.a4−b4.a6−blおよびa6−b3)を介して入 力セルの点火によって励起される。出力層はその1つのセル中で競争学習時にク ラスタのように正確に動作しくRumplhxrt & 2ipse+ 198 6 )、その地金てを占有し、それ自身を除く全ての出力を阻止する。
(原理的にはこれは出力層を阻止接続部と完全に接続し、単一のセルだけが点火 状態であるときにネットを安定させるためにあるフィードバックシステムを使用 することによって行なわれることができる。実際には、これは厄介であり、構成 の簡単化およびネット特徴の理解のいずれにも貢献しないため、最も強く点火す るセルを示した簡単な全体関数が簡明化のために与えられる)。この例を示すの はblであるとする。
このセルは点火し、ネットにおいである動作を生成する。この作用は通常出力を プリントすることを意味するが、等しく別のことになってもよい。既知の競争学 習アルゴリズムとは異なり、この段階には加重修正はない。プログラムは位置6 に戻る。ネットの管理上の観点はこの段階で動作に移行されh 1 のよ う  に始イヒ六 わ ス−は正しくない応答を形成したかを決定する。応答か正しい 場合、ネットは修正されないでいるか、或はそれは“報酬を与えられる” (す なわちこの応答を助長するように修正される)かのいずれかであることが可能で ある。応答が正しくないと考えられた場合、ネットは処罰され、ここで処罰は所 定の入力に対して確実性の低い正しくない応答を形成する加重修正プロセスであ る。応答が正しくも、また正しくなくもないと考えられた場合、ネットは修正さ れずに放置されることができ、別の入力が試みられることができる。
報酬:位置2において、ネットは図2bの例に示されており、正しい応答を出力 している。利用者はネットに報酬を与え、接続は以下の方法で修正される: 信号を伝送しない励起された出力ノードへの接続は例えばal−blで弱くされ る。
新しく例示されたノードへの接続は例えばa8−bl、a9−blで形成される 。
信号を伝送する励起された出力ノードへの接続はa6−blで強化される。
他の接続は不変である。
その後アルゴリズムは6に戻る。
処罰:相互作用サイクルにおける位置3において、図2Cに示されたようなネッ トは正しくない応答を生成するため、利用者はネットを処罰し、接続は次のよう に修正される。
信号を伝送しない励起された出力ノードへの接続はal−信号を伝送する励起さ れた出力ノードへの接続はa5−blのように弱くされる。
他の接続は不変である。
その後サイクルは位置5に進む。
準備2:この段において、位置4に進むか、或は位置6に戻るかのいずれかが可 能である。
教示:位置4において、利用者は学習すべきネットに予測された出力を与える: 例えばb3は図2dに示されたような予期された出力であると仮定する。
教示は上記の報酬の場合ののように進み、全C3TM入力セルと例えばa4−b 3. a8−b3. a9−b3. a6−b3に既に存在しない予測出力セル との間に接続を形成する。
所定のセルに対する他の接続は例えばa7−b3で弱くされる。その後、プログ ラムは位置6に戻される。
加重修正 加重を変化する方法は、競争学習において行われたようにネットの既存の傾向を 補強する方法で接続部を強化する代りに、工程が所望された応答だけが強化され 、所望しない応答が弱くされるように制御されることを除き、競争学習(Rum eIha目& 2ips!r 1989 )において使用された方法の修正であ る。
競争学習において、加重を正規化することは通常であるが、しかしDTNでは式 2に示されるような異なる方法が適合される。
ここで6++1は強化を生じさせ、δ=−1は弱くさせる。
μは最大値の位置を支配する。
図5は強化および弱化に対するこの加重修正関数のグラフを示す。この加重修正 関数の効果は、最初に例示された加重か変化し易いとき(加重が関数の最小値の 近くにあるため)であるが、多数の弱化または強化が強度を発生したときに飽和 する傾向かあり、容易に増加または減少しないことである。
これは加重か優勢になり過ぎることを阻止するが、加重が一定に強化される場合 、それは容易に弱くされないことを保証する。したがって、学習しないことは可 能であるが困難である。この加重修正方法はまた既知のタイプの神経ネットワー ク、例えばMLPネットワークに適用可能である。
現状では、上記されたネットは有効な関連を可能にし、最初にシーン理解プログ ラムにおいて上から下への文脈として使用された。例えば船および水が検出され たシーンにおいて、シーンのタイプの候補(例えば港)全体はネットを使用して 決定されることかでき、垂直および斜めの線を含む任意の大きい対象物は下から 上へのプロセスを使用して試験される候補クレーンになることができる。ネット はこの段階において入力の構造の意味を持たないため、それは例えば(ボート、 水、クレーン)と(クレーン、ボート、水)とを区別する二とができない。これ は文脈をめる目的に関する限り決定的な欠点ではないか、制限された領域変換の ような別の実験的な適用に対しては、(ロンドンからハワイまでの次の列車の何 時か)と(ハワイからロンドンまでの次の列車の何時か)を区別できないことは 許容されないであろう。
したがって、言語処理および類似の順序依存入力データに対する実施例において 、ネットは順序依存性を保持する手段を必要とする。
1実施例において、このフレキシビリティはそれぞれ1つ以上の特徴に応答する 新しい入力ノードを生成することによって達成される。したがって、一連の訓練 データが入力されたとき、それは入力バッファに一時的に蓄積される。簡単に実 施例のように、既知の特徴(例えば1文のワード)はある入力ノードを点火させ 、新しい特徴に応答するある新しいノードが上記に論じられたように生成される ことができる。その後、本発明のこの実施例において順序情報は入力データシー ケンス中の複数の特徴にそれぞれ応答する別の新しいノードを形成することによ って獲得され、複数の各特徴は連続したシーケンスであることが好ましい。
例えば、訓練データシーケンスが文である場合、この実施例はプレターミナル( またはワード)の連続した対、3つの組のもの、4つの組のもの等を形成し、入 力ノードにこれらの各々を蓄積することによって順序情報を得る。
例えば、文’1azycats 5leep in the hot sun” において、見”、”5leep in the”等;4つのもの”Ia!yca rsい用語メモリ中に蓄積されることができ、対応したノードはいくつかまたは 全てに対するいくつかに対して形成されてもよい。このようなノードは、訓練中 に後続的に遭遇されない場合はネットから除去されることか好ましい。
図6は、所定の文が文法的であるか否かを決定する問題に関する訓練後のこの実 施例によるネットの一部分を示す。
(典型的な場合、文法問題に関する訓練後に入力層に30または40個のノード 、或は言語翻訳問題に関する訓練後に数十個のノードが存在することができる。
) 訓練中のこの実施例の動作のアルゴリズムまたはノードは以下文法的な問題を例 として概略的に説明される。訓練ファイルはプレターミナルの1組の正または負 の文を構成し、各々がその正しい分類イエスまたはノーによって後続される(プ ログラム中の“所望の応答”)。文の1つの表示は後続する一連の動作(“主サ イクル″)になる:(1)訓練データ(文)ストリングはファイルから読取られ る。
(2)全ての可能な3つの組のものは短い用語(管理プログラムまたは利用者に よって限定された最小と最大の3つの組のものの長さの間)蓄積部において生成 される。
(3)これら3つの組のもののいくつかは入力層への内蔵のために選択される。
選択は以下詳細に論じられるが、本質的に疑似ランダムである:選択の確率は、 以下論じられるいくつかの要因および3つの組のものの長さに依存する(3つの 組のものが長くなるとそれたけ選択される傾向が少なくなる)。
(4)生成された3つの組のもののどれかに整合する各人力ノードは付勢(すな わち点火)され、出力ノードの付勢はアクチブ人力ノードの単純な加重合計によ って計算される。
(5)3つの組のもの全てはステップ3で選択され、新しいノードを形成するた めに入力層に付加される(それらがまだ与えられていない場合)。
(6)入力層は非常の“有効”でない(すなわち先行したサイクルに対して希に しか付勢されない)ノードを除去される。
(7)最もアクチブな出力ノードが発見され、“現在の出力勝者”と表わされる 。
(8)所望の応答はファイルから読取られる。これは現在の出力勝者と同じであ る場合、後者はただ“所望の応答ノード”と示されたほうがよい。それが同じで ない場合、このノードは出力層に付加され、それがまだ存在しない場合には、そ れは“所望の応答ノード“として表される。
(9)リンクは必要ならば全てのアクチブな入力ノード(付加されたものを含む )と所望の応答ノードとの間に生成される。
(10)リンクの加重は(例えばμ=1で)上記された学習方法にしたがって調 節される。
さらに文が訓練中に与えられると、入力層は最初に成長し、次にノードが付加さ れるのと同じ速さで失われるダイナミックな平衡の状態に達する。訓練型は、動 作が満足できると判断されるまで全訓練セット時間を幾度もランするだけの“ブ ルートカ”、または完全な訓練セットからの文が現在の訓練セット上の動作が満 足させられたときに現在の訓練セットに付加されるだけである“インクレメント 的”のいずれかであることができる。“満足できる”とは試験セット上の動作へ の参照により実験的に発見されることである。これは著しく急速な訓練および試 験セット上のほとんど劣化されない機能を与えたため、それは通常訓練セット上 の100%ではなく90%の性能を要求することが最良であると認められている 。
上記のように、訓練は“ブルー)・力”または“インクレメント的”である。ブ ルートカ訓練は、訓練セット全体を通じて反復的に循環するだけの訓練神経ネッ ト(特にMLP)の標準モードである。これはMLPに対して完全に良好に作用 するようであるが、小型寸法より大きい訓練セントを持つこの実施例に対して全 く作用しない(差は使用される異なる加重調節方法に結合されると考えられる) 。40個のストリングの訓練セットでさえもブルート力訓練を使用して容易に常 に学習されることはできない。
したがって、ネットワークが訓練データシーケンスの最初のセットに関して訓練 される“インクレメント的”訓練方法を使用することが好ましく、訓練が終了し た後にのみ、セットは拡張される。訓練データシーケンスは一時に1つ、または いくつかのシーケンスのステップでセットに付加されてもよい。ネットは訓練デ ータシーケンスセットの各拡張の後保持する。一般に、インクレメント的ステッ プ寸法が大きくなると、それだけ訓練セットの学習のために要求される表示の合 計数は小さくなるが、ステップ寸法が大きくされ過ぎた場合、学習は再度遅くな る。最適ステップ寸法はデータ依存性であるため試行およびエラーによって発見 されなければならない。
インクレメント的訓練方法はまた本発明の別の実施例、および別のタイプの神経 ネットワーク(例えばMLPネットワーク)に対して適用可能であるが、上記の 加重調節方法と組合わせて使用されることが好ましい。
ステップ3において上記で論じられたように、これが実行された場合には、多数 の領域において人力ノード数が実際の計算にとって大きくなり過ぎるため、入力 データシーケンスの3つの組のもの全てが常に蓄積されることはない。蓄積のた めに3つの組のもののい(つかだけを選択するある手段が要求される。最も簡単 な解決方法は訓練中に遭遇された3つの組のものの全ての第2または全ての第3 のものを蓄積することであるが、しかしこれは通常かなり不完全な基準である。
したがって、可能性のある蓄積方法は以下示されるように訓練中に変化する確率 により開発された。
入力層中に長さnの3つの組のものを含む確率はp(以下に示される全体的変数 )およびnに依存する。ここで、この実施例は簡単な累乗の法則を使用する:長 さnの3つの組のものを含む確率はp”である。したがって、p−0,8ならば 、シングルトンを発生する確率は(1,8であり、対を生成する確率は0.8’  = 0.64であり、3つの組のものを生成する確率は0、8’ =0.51 2である。さらに精巧な確率分布は考慮されることができる。累乗の法則の背後 の合理性は、長い3つのものはある意味でさらに“特別化”され、所望の出力ノ ードを選択するために短いものほど全体に有効ではない。
文法および翻訳上の簡単な問題に対して、佳0に固定されたpを維持すること、 すなわち3つの組のものの最大の長さまで訓練中に遭遇された3つの紹のもの全 てを蓄積することが最も簡単であることが認められた。これは最大長、例えば3 まで1つだけ蓄積された短い3つの組のものに限り計算上適切である。この方法 の利点は、非常に有効な3つの組のものが偶然廃棄されることを心配する必要が ないことである。
しかしながら、確率上の蓄積は、3つの組のものをもっと含んでいる大きいデー タセットを学習するために要求される。
pはまた全体的なネットパラメータに依存する。第1のこのようなパラメータは “自己満足”と呼ばれる。自己満足は正しい答えの現在のシーケンスの長さに関 連している。ネットか正しく応答している場合、多数の新しいノードを付加する ことは望まれない。この全体的な原理はまた本発明の全ての他の実施例に対して 適用可能である。この実施例において、自己満足は正しいシーケンスが長さにお いて成長したときpを指数関数的に低下させ、その後間違った答えが生成された ときに元の値に戻る。
“経験”と呼ばれる別のパラメータは入力層中のノードの合計数に関連している 。ネットがすでに大きい場合、制限なしにノードを付加することは望まれず、そ のため経験は入力ノート数に関して指数関数的にpを低下させる。自己満足はネ ットがインクレメント的訓練中に非常に大きいデータセットの部分にさらされる 状況において有効であり、これは特に問題のある領域において非常に高い1ノベ ルでネットを動作させるのにすてに十分であった。そのアイディアとは、データ セットの残りかもっと多くの余分な入力ノードの付加を生じさせることによって 入力層を“妨害”しないことである。しかしなから、多くの型式の状況において 訓練しているデータセットは基本的に“自己満足”を利用するのに十分なほど大 きくない。“経験”の使用は、ネットが既に大きく成長しており、したがって3 つの組のものの蓄積の可能性を小さくするが、しかし依然として訓練セットを学 習していない場合に潜在的に問題を生じる可能性が高い。このような場合、それ は訓練セットを学習しない。したがって、pが経験により非常に遅く低下するこ とだけを保証することが重要である。
前述したように、本発明のこの実施例は言語処理問題(それはまた特徴順序依存 性を有する別のタイプのデータに対して使用されてもよいカリにおいて有効であ り、例えば熟語集タイプの言語翻訳装置を訓練するために使用されてもよい。
翻訳に対するこのような神経ネットアプローチの利点は、ネットが適切なデータ 収集方法により基本言語と目的言語の両方を話す人によって訓練され、言語熟練 者による熟練したプログラミングを必要としないことである。例えば和英コンテ キストのような多数の翻訳問題に多数のリソースを費やすことが経済的である場 合、満足できる精密な伝統的な言語翻訳アルゴリズムを構成することは実現可能 である。経済的に微力な少数グループによって話される言語が関連している場合 、翻訳家を補助する神経ネットワークの使用が有益である。
もちろん、任意のこのようなネットは深刻な誤りを回避することができるため、 目標言語だけでなく基本言語における意図された出力層を生成する。
各符号(一定した符号セラl−)に絶対的な位置を関連させることができる入力 にある順序情報を与える別の簡単な方法を以下に示す。
例えば、多数の入力LOOLLOLLが入力された場合、ネットはそれらをLl  02 03 L4 L5 06 L7 L8に変換し、したがって単一の2進 入力(10011011)として処理することができるブリプロセッサを含んで いた。
これは、固定された長さの入力を考慮することを意味しているため、ネットに概 念上の柔軟性をなくす欠点を有するが、しかしそれはもっとフレキシブルな順序 導入方法が好ましいのだが、例えば多層バーセラトロンはど剛性ではない。
上記のタイプの入力層の使用は、ある種の問題に対して効果的であることが認め られる。より高レベルの問題に対して、入力および出力層の間におけるノードの 隠蔽層または中間層の使用は効果的な解決方法であることが多い。これは通常の 種類のものであるが、本発明の別の実施例によるネットワークは矛盾した入力で あるように単層ネットに現れたものと対抗するように(付加的な)内部ノード( すなわち中間層において)を生成する付加的な能力を有1−でいる。このような ノードがあまり頻繁に生成された場合、並びに単層ネットが十分訓練が与えられ か否かに対処した場合、ネットは非常に多数の不必要な内部ノードで直ぐに満た され、生成されたものはただ非常に大きいメモリと等価である。他方、このよう なセル生成が通常複合データ処理するのに必要な時にだけ行われた場合、このよ うな能力を備えたネットは過度に大量のメモリを使用せずに難解な問題を学習す ることができる。以下、このような余分なノードが分離的に、しかし適切に導入 されるメカニズムを論じる。
上記の“自己満足”パラメータに等価な全体的パラメータが使用される(以下、 自己満足パラメータのこの変形は“セル生成励起”または“CCE”と称される 。)CCEは、ネットワークが質問の数に比較されて訓練中に歴史的に受取った 処罰の数と便利に関連している。ネットワークが多数の正しい答えを与え、した がって少数の処罰を受取った場合、ネットワークは低いCCEを有し、任意の新 しいセルを生成または例示するとは考えられない。多数の処罰を受取った場合、 ネットワークは高い値のCCEで励起状態となり、新しいセルを例示する。
図7は、2つの出力ノードCR(正しい応答)およびIR(正しくない応答)を 含むこの実施例によるネットワークの一部分を示し、入力層は3つの入力ノード al、a2.a3並びに各加重(示されていない)を介して3つの入力ノードに および出力ノードの1つにそれぞれ接続された2つの中間層ノードCRIおよび CR2を含む。一般に、いくつかの中間層ノードが1つの出力層ノードに接続さ れることができる。
共通の出力ノードに接続された中間ノードのグループは“クラスタ”と呼ばれる 。短い用語メモリ中に保持された入力信号がal、a2およびa3が゛応答する 3つの特徴を含んでいる場合、正しい応答はセルCRIに対して点火されるべき であり、出力セルCRをトリガーするが、これはその場合ではなく、代りにIR Iが点火され、正しくない応答IRをトリガーすると仮定する。管理プログラム はネットを処罰し、接続部は図5を参照して上記に示されたアルゴリズムにした がって変化される。その後、ネットは、出力CRが正しいことを“通知”され、 次の試験が発生する。出力決定の時(この例において、1つだけ存在するため、 それはCRIのものである)にCRに接続されたクラスタにおけるそれらのノー ドの最高出力はIRIのものである勝者励起のものと比較される。その後、以下 の論理ステップが行われる:励起(CRI、)<T、(励起IRI)であって、 T−T(CCE、別のパラメータ*)ならば、新しいセルCR2は例示され、C Rに接続され、図7bに示されるように適切な接続が形成されるため、CR2は CRを点火させることによって正しい応答を与える。
セル生成しきい値(CCT)と呼ばれる別のパラメータ*は、それが適用される 特定のクラスタの寸法を増大することを要求され、その出力クラスタにおけるセ ルの数に関連する励起のレベルを支配する。クラスタが大きい場合、それは新し いセルの生成に抵抗する。これは、ネットが大きいクラスタにおいてセルを余り 容易に例示しないため、経済的な利用に対する自然な傾向であることを意味する 。1例において、上記のネットワークはmuLISPを使用してIBM ATで シミュレートされた。2種類の入力はネットワーク:英語の文および文節並びに 2進入力に関して試験された。
英語の文および文節 ネットワークは、訓練入力からの偏差が許容可能な大きい範囲の入力に正しく応 答することを学習することができ、さらに小さいが重要な入力への変化が正しく 翻訳された。良好な訓練されたネットの簡単な例は図8に示されている。文節は ネットが以下の応答のセットを学習するように教育された:″What is  7our name ?:”−Tan1a″=Whaj is 7our si @ter’s name ?: ’ −”Gina”“What is 7ou r 7ounger 5ister’s name ?: ” −”Dolo+ es ”What is 7our job ?: ”−Gipa7 ”図6の ネットに対する加重値は表工に示されている。この容易な入力のセットによりク ラスタは形成されず、中間層は1組の単一セルであることに留意すべきである。
“What’5your name ?”または”Wh[job do 7ou  do 7”のような小さい変形を持つ入力はもちろん正しく翻訳される。
ネットのいくつかの変形は後続的に教えずに処罰を行う。
このような場合、例えば入力“What 目your name ?”に対して “Lixxie”と応答するようにネットを教えることができる。別の訓練期間 は応答“Elixabeth”を教えることができる。ネットがその名前を提供 するように反復的に要求され、答え“Elixabelh ”が与えられたとき に処罰された場合、正しい応答は教えられていないにもかかわらず、それは必ず その前の名前”Lixxie”に戻る。
要約すると、ネットワーク訓練は誘雷を蓄積し、入力中の重要ではない変形が正 しく無視される一方で、重要な変形は正しく翻訳されるように語索における項目 間の関係を構成することができる。ネットワークは入力ワードの適度に大きい語 雷(約400)を学習した後でさえ、任意の入力に対して迅速に応答した。
2進入力 排他的オア問題 図9は、排他的オア問題を解決するように教えられたネットを示す。4つの入力 Ll、L2.01および02は、例えば入力(Ll 02)がIOを表すように 、上記の例(LOOLLOl、L)に示されたように論理人力111001およ び00を発生するように使用される。(この表示は、数学的な2進入力が所望さ れた場合は、2つの人力セルの予備層によりもつと神経らしくされることができ る)。この場合、加重は表11に与えられ、出力を計算する式は表111に与え られ、排他的オア関数に対して式を計算する結果は表IVに与えられる。この場 合、2つのセルの2つのクラスタはそれぞれ中間層において形成され間に重複は ないため、実際に2つ完全に独立したサブネットることが認められるであろう。
この場合、排他的オア問題は単層のネットだけが使用された場合、必然的に発生 しなければならない後方および前方探索を阻止するこれら4つの中間セルを例示 し、排他的オア問題を解決する後方伝播による多層P P (ML P) (R umelha目、 1linton & Williams 1986)によっ て要求される数千の反復の必要性をなくすことによって解決される。処理時間の 減少はメモリの増加との交換において実現されることが理解できる。実際に、3 つの内部ノードはこの問題を解決するのに適切であることが多い。それより多い 5つの不良訓練による別の極端な状態は明らかな冗長により例示される。したが って、このようにして浪費された再生利用されたメモリに対するアルゴリズムは 望ましい(しかし必要ではない)。排他的オア問題を解決するために非常に多数 のセルを使用することは一見して反生産的であり、単にメモリとして入力および 出力だけを蓄積したほうがよい。
事実、特徴がそのパワーを与えるこの方法で蓄積する値がある場合を決定するこ とはネットの性能である。以下に示されるように、かなり大きい入カバターンを 含むいくつかの問題は明らかにそれらに含まれる排他的オア問題を有している。
このような場合、多数のへカソードは存在しているが、4つの中間ノードだけが 形成されるため、解決方法は全てのパターンの認識を可能にするように生成され た少数の記憶された場合を構成し、これはメモリの非常に効率的な使用方法であ る。
図8および図9の2つのネットは入力および出力のセットこれは、表■1に示さ れた訓練セットにより明らかに認めらを形成する同じネットの一部分である。同 じネットがある別の論理関数を解く訓練をすることを望む場合、例えば(LiO 2)だけを入力する代わりに訓練中に入力(排他的オアLIL2)が使用されて もよく、この入力は排他的オア出力と関連される。その後、例えばオア関数は適 切な出力と共に(オアLl 02)のような入力を使用することによって訓練さ れることができる。この方法は、ネットが利用者の希望にしたがって異なる方法 で入力を処理することを学習することを可能にする。
パリティ問題 示されたネットワークは、8人力状態の表示の3乃至7つの完全なサイクルの間 のいずれかにおいて同じ方法で訓練された場合、第3位のパリティ問題を解決す ることができる。
ビデオ画像におけるしみ発見 0および1の各列が2次元入カバターンと考えられる表■の形態における入力を 使用して、ネットワークはクラスタまたはじみがほぼ北、南、東または西である かを決定するように訓練され、訓練の成功的な結果が示されている。
潜在する排他的オア ネットワークはまたパターン認識問題を解決するように排他的オア問題を解決す る能力を生成することができ、ここで2次元空間中の分離領域は16個のディメ ンション空間に隠蔽されている。
れる。下方の2つのエントリイは正しく識別された雑音パターンを示す。この場 合、4つの内部ノードは復号的な訓練セットと対抗するように例示されるが、全 ての後続的な入力は内部ノードを増加せずに正しい出力を生成するようにこれら 練するようにプログラムされることが訓練中必要である。
その代わりとして、本発明は並列ハードウェア機能(並列プログラム分枝のよう な)を順次実行するようにプログラムされた計算装置(マイクロプロセッサ、ま たは好ましくはDSP装置)として構成されてもよい。
最後に、本発明にしたがって訓練されたネットワークは、熟語集翻訳のような特 定の適用のために訓練手段を持たない訓練装置として市販されることができるこ とは明らかである。
このような装置は一般にそれらが本発明を使用して訓練され、したがって構造に おいて既知のネットワークに似ていないという事実を反映する1例えば訓練の最 後に例示されるノードはまばらに接続される。
参考文献 (11ALII!n、j、(19871Natural Lartruage  Underztar+ding、(19871California: Ben lamil/Cui’rJnln(15゜(21A1onso+ ;、 A、  ar65cnneider、 ’r、(19B9) Machine Tran slationrech/lotogy: on the way to ry tarket tnCroriuCllo/I−、Internation≠■ journal of Computer Appl上Caセ1ons in  Technoj、ogy、2 op 186−190゜[31Hutchins on、 P、、A、 and WelStl、 W、J、 (1989) Co rnparrson of Neu窒≠■ Networks and ConveruIonal Techniques  for Feryrure Location in F≠モ奄=I Irnagej、 Firs: IEE I;Iternatlonal Co nference on ArjlflClal Neur≠■ Nets、Lor+ion 16−La 0cセover !989゜+(eu ral Mete、 Washxr+gvon、 June 19−22゜[5 ] Lynch、M、R,and Rayner、P、J、f19B9) Th e Propertles andlmprernenration of t he Non−Linear Veclor 5pace Connecrio nist Moр■戟B First IEE International Converence o n Artificial Neural Nets。
London La−180ctober 1989゜(6] McClell aroj、D、E、anci Kawamot+、A、H,(1986) Me chanisms ofSer+tence ?rocess1r+g: As signing Roles to Con5tituents ofSent enC2S、 ParallelDIstriouted Processin g、2 McC1ellan6゜J−L、anc R印e1harZr D、E −(Eds、) Cai’1DrlC]qe+ Massachusets:  MITPress。
[7] +orton K、 Coulston、 M ar6 Gerrih y、 G (1989) Translation Er+■撃窒唐■ to French Lrmrred Domajn TraAslatio/ lusrng Dynamic Topology NetF!eoort 5 cr arxtxsn Te1eC:Om C0NNEX project。
[8] Rumelhart、o、:、andMcC!eLland、J、L、 (1986) Parallel DistributedProcessin g、 Ca1TLC1rlOq2+ aassachusets: MIT P ress。
[9] Rumelhart、 D、E、and と口CLeuanl:i、; 、L、 (1986) On Learning tnePast Tsnse s of Engl土sh VerDs、 Parallel DistrIb uted Processing、 Q McC1ellanc、J−L、ar、dFlumeiharj、D:E−(E ds、l Cambrlage。
Massacnusevs: HIT Press。
[101Rumelhart、D、E、、Smoier+5icy、P、、Mc Clelland、J−L、ar6 Hinton。
G、E、 (19日51 Schemaヒa and 5equtnt1ai  T+10ugJ1ヒ processes in pvpmo6els、 Pa rallel Distributed Processing、 2 McC lellanci、 l〕、L、己n■ Rumelhart、 D、E、 (Eds、) Carl+Oridge、  Massaciuseセs: HIT Press。
[Ll] Rumelhar:=、D、三、anci Zioser D、09 86) Feature Discovery byCOmpetij二ve  Learn上ng 、 Farallel Distribuled Proc essing、 lMCC1f!11anc、J、L、ano iltumel hart、D、E、(Eds、) Cambrxage。
Massachusats: HIT Press。
[12] Rumelhar−、D、E、、 Hin=on、 G、E、 an d Williams、 R,J、 (19臼6)L、=arning Int ernal Representaヒ10715. Parallel Dis tributedProcessing、2 McClellanci、J−L 、and Rumelhart、D、E、(IJs、)Camirri6ge、 釉5sachvse[s二 HIT Press。
1ユ3]’ 5aerensr M、and 5ooe=、 A、+ (198 9) A Neural Co/1trorler Fir唐■ IEE International Conference on Arti ficial Neural Nets、Lonclon16−18 0cセo ber 19B9゜1i4] 5harKey、 s、三、(ユ9Ei9) A  ?’V:? LE!arnin9 ADprOaCn to Na:ural Lanqvaqe、 1veurat comput=g JJ&c=tecr ures ヱ、 ALexancier (E6.l。
Loncicn : にcaan−paae。
(45] 5LOCunL j、 1L9S9) A 5urvey OE M aCMne Trar+5laticn: itE′!:、1StOr y+  ’+’arrer、Z Sf、eeuS + anOFuヒure ?rO5p eCtS” r’4acfnn■ Translatjon 5ysten:s J、 SlO:um+ (三6. I Ca!TCrlO+Je、 三r+glanビニ++++++2+ +++ +−++7 、−++5(ユl Weber、 S、H,(!9B9) 、’、  Connecrionist Modei o;’ Conceprutrt ;rprfj+’!!!、!i7*’i、 Tn:arna:*+naZ ’S 二n−:S二Ferenr、? :曹 Neural r+■狽刀B 讐asIILnqZs7.r June La−22゜[ニア! Woocil ar、c、 p、c、 こn(i Smyth、 S、G、 (!990) 、 ’、n ExperimentalComparjson o、f Conne cflonjst and ConventionalClassificat ion Sys狽■高刀@(1/1 \’arural Data、 To appear in 5peeci a nd COmJnun工Cation −5pec1alrssue on N eurosoe2ci。
]二:i W、、、:、?、呂119:’l−i!”、9aie、C,ano  MarSn R(ユ9E’9) A Higher 0rd■■ Dvnarnjc Topology Neural 八’et and it s AppHeation to r+arural La獅■浮≠■■ りroolerns、 TO’De p=:’−二5fie6、’hot is  your name 5ister jobs youngerO]0φ 1 1 Lφ 要約す 報酬、処罰、および教示によって訓練中入力層および中間層の両者において生成 される神経ネットであり、これは、音声および母国語処理、ビデオ認識、および 簡単な論理機能において適用可能な問題を長い訓練時間にわたって必要とするこ とをなくすためにメモリについての少量の増加を使用することができる。
国際調査報告 1M16Mm1ePal A峠h+am+ N・ PCT/GB 901020 06国際調査報告 GB 9002006 S^ 42958

Claims (27)

    【特許請求の範囲】
  1. (1)入力信号を受信する入力手段と、対応したノード出力を発生するために予 め定められた特徴の前記信号中の発生に応答する入力層手段と、少なくとも1つ の出力を生成するために前記ノード出力の発注に応答し、各ネット出力が対応し た加重値によって加重される複数のこのようなノード出力に依存している出力層 手段とを含んでいる人工神経ネットワークにおいて、 入力層が応答する前記予め定められた特徴に対応しない入力信号から得られたデ ータを蓄積する手段と、蓄積されたデータから得られ、それに対応した新しい特 徴に応答するように前記入力層手段を変化する手段とを具備することを特徴とす る訓練可能な人工神経ネットワーク
  2. (2)前記変化手段は入力層が応答する複数の前記予め定められた特徴を含む予 め定められたシーケンスの前記信号中の発生に応答してノード出力を生成するよ うに前記入力手段を変化させるように構成される請求項1記載のネットワーク。
  3. (3)前記シーケンスは前記入力信号において隣接して発生する特徴を含む請求 項2記載のネットワーク。
  4. (4)前記変化手段は予め定められた数より少ない前記特徴を含むシーケンスに 応答してノード出力を生成するように前記入力層手段を変化させるように構成さ れる請求項2または3記載のネットワーク。
  5. (5)前記変化手段は前記入力信号中に発生する特徴のシーケンスからサブセッ トのシーケンスを選択し、そのように選択されている所定のシーケンスの確率が シーケンス長の増加と共に減少する前記サブセットに対応した出力ノード信号を 生成するように前記入力層手段を変化させる請求項2または3記載のネットワー ク。
  6. (6)前記入力手段はさらに予め定められたデータのシーケンスに前記入力信号 を分割し、入力層手段が符号に対応した特徴に応答するそのデータの識別子およ びシーケンス中の位置を表す符号を各データに割当てる手段を含んでいる請求項 1記載のネットワーク。
  7. (7)可変基準に依存して前記変化手段を阻止する制御手段を含んでいる請求項 1乃至6のいずれか1項記載のネットワーク。
  8. (8)対応したノード出力を発生するために予め定められた特徴またはその組合 わせの前記信号中の発生に応答する入力層手段と、少なくとも1つの中間出力を 生成するために前記ノード出力の発生に応答し、各中間出力が対応した加重値に よって加重される複数のこのようなノード出力または中間出力の関数である中間 層手段と、少なくとも1つのそのような中間出力に応答して出力を生成する出力 手段とを具備している人工神経ネットワークにおいて、 加重されたノード出力または中間出力の新しい組合わせにそれぞれ対応する付加 的な中間出力を発生するように前記中間層手段を変化させる手段と、可変基準に したがって前記変化させる手段を阻止する制御手段とを具備していることを特徴 とする訓練可能な人工神経ネットワーク。
  9. (9)このような基準の1つはノードまたは中間出力の数に関連している請求項 7記載のネットワーク。
  10. (10)基準は、所定の出力手段出力が応答し、それによって各所定の出力手段 出力が予め定められた数以上の中間出力に応答しないように制限される中間出力 の数に関連している請求項9記載のネットワーク。
  11. (11)請求項1乃至6のいずれか1項に従属された場合、基準は入力層手段が 予め定められた数以上のこのようなノード出力を生成しないように現在のノード 出力数に関連している請求項9記載のネットワーク。
  12. (12)このような基準の1つはネットワークの最近の歴史的特徴に関連してお り、良好な歴史的特徴は前記変化手段を阻止する傾向を有する請求項7乃至11 のいずれか1項記載のネットワーク。
  13. (13)比較的長い間隔にわたって入力データ中に生じない特徴に前記入力層手 段が応答できないように入力層手段を変化する手段を含んでいる請求項1乃至1 2のいずれか1項記載のネットワーク。
  14. (14)比較的多数のネット出力が依存する入力ノード出力は前記依存の程度を 対応的に弱くするように加重される請求項1乃至13のいずれか1項記載のネッ トワーク。
  15. (15)入力層は前記特徴を蓄積する蓄積部を含み、蓄積するための手段は前記 データを一時的に蓄積する蓄積部を含み、前記ネットワークは蓄積されたプログ ラム制御下で動作するデジタルコンピュータを含んでいる請求項1乃至7または 9乃至14のいずれか1項記載のネットワーク。
  16. (16)各層手段は少なくとも1つの入力および出力をそれぞれ含む複数のノー ドと、各入力に依存してノード出力信号を生成する手段とを含んでいる請求項1 乃至15のいずれか1項記載のネットワーク。
  17. (17)ノード出力信号を生成するために入力データにおける各予め定められた 特徴の発生にそれぞれ応答する複数の入力ノードに対応する入力層と、それに依 存する少なくとも1つの出力ノード信号を生成する出力手段とを具備している人 工神経ネットワークの訓練方法において、入力層に入力として訓練データを供給 し、前記予め定められた特徴に対応しない前記訓練データのデータを(少なくと も一時的に)蓄積し、前記出力ノード信号を検出し、予め定められた成功の基準 に合致しない場合には、前記蓄積されたデータに対応した特徴に応答する少なく とも1つの付加的な入力ノードに対応するように前記入力層を修正するステップ を含んでいる人工神経ネットワークを訓練する方法。
  18. (18)入力層、出力層および中間層を含み、少なくとも1つの別の中間ノード を提供するように中間層を修正するステップを含んでいる人工神経ネットワーク の訓練方法。
  19. (19)訓練データを入力し、ネットワーク出力に無関係に加重値を調節するス テップを含む複数の加重値によって限定された人工神経ネットワークの訓練方法 において、所定の加重値が調節される量は、大きい加重値で量がゼロに向かうが 、しかし低い加重値に対して大きいようにその現在の値に依存し、それによって 同じ方向における頻繁な調節後に反対方向における調節は僅かな影響しか及ぼさ ないことを特徴とする人工神経ネットワークの訓練方法。
  20. (20)各加重Woldは次のインクレメントΔ=μδWold/1+(μδW old)4によって調節され、ここでμは定数であり、δは±1である請求項1 9記載の方法。
  21. (21)複数の訓練データシーケンスをそれぞれ入力し、それぞれに対して所望 の応答を近似させるようにネットワークのパラメータを調節する神経ネットワー クの訓練方法において、前記複数のシーケンスの各サブセットを反復的に入力し 、前記パラメータを調節し、予め定められた訓練特性基準が満たされた後、前記 サブセットの寸法を増加し、第1のステップを反復するステップを含んでいるこ とを特徴とする神経ネットワークの訓練方法。
  22. (22)請求項17乃至20のいずれか1項記載の方法によって訓練されたネッ トワーク。
  23. (23)ビデオ画像の特徴を認識するように訓練された請求項22記載のネット ワーク。
  24. (24)プーリン論理動作を実行するように訓練された請求項22記載のネット ワーク。
  25. (25)入力テキストデータを認識するように訓練された請求項22記載のネッ トワーク。
  26. (26)言語翻訳を実行するように訓練された請求項25記載のネットワーク。
  27. (27)入力テキストが文法的か否かを示すように訓練された請求項25記載の ネットワーク。
JP3501348A 1989-12-22 1990-12-21 神経ネットワーク Pending JPH05502531A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB8929146.2 1989-12-22
GB898929146A GB8929146D0 (en) 1989-12-22 1989-12-22 Neural networks

Publications (1)

Publication Number Publication Date
JPH05502531A true JPH05502531A (ja) 1993-04-28

Family

ID=10668476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3501348A Pending JPH05502531A (ja) 1989-12-22 1990-12-21 神経ネットワーク

Country Status (8)

Country Link
US (1) US5627942A (ja)
EP (1) EP0506730B1 (ja)
JP (1) JPH05502531A (ja)
AU (1) AU6911191A (ja)
CA (1) CA2070677C (ja)
DE (1) DE69033358T2 (ja)
GB (1) GB8929146D0 (ja)
WO (1) WO1991010196A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5588091A (en) * 1989-05-17 1996-12-24 Environmental Research Institute Of Michigan Dynamically stable associative learning neural network system
US5822742A (en) * 1989-05-17 1998-10-13 The United States Of America As Represented By The Secretary Of Health & Human Services Dynamically stable associative learning neural network system
AU4240393A (en) * 1992-05-13 1993-12-13 Environmental Research Institute Of Michigan Dynamically stable associative learning neural network system
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
US5950162A (en) * 1996-10-30 1999-09-07 Motorola, Inc. Method, device and system for generating segment durations in a text-to-speech system
US6347310B1 (en) * 1998-05-11 2002-02-12 Torrent Systems, Inc. Computer system and process for training of analytical models using large data sets
US6178402B1 (en) 1999-04-29 2001-01-23 Motorola, Inc. Method, apparatus and system for generating acoustic parameters in a text-to-speech system using a neural network
US6623728B2 (en) 2000-06-30 2003-09-23 Unilever Home & Personal Care Usa Division Of Conopco, Inc. Cosmetic skin care compositions and containing gum mastic
WO2002015125A2 (en) * 2000-08-16 2002-02-21 Research Foundation Of State University Of New York Neural network device for evolving appropriate connections
US20040233233A1 (en) * 2003-05-21 2004-11-25 Salkind Carole T. System and method for embedding interactive items in video and playing same in an interactive environment
MY138544A (en) 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
US7310442B2 (en) * 2003-07-02 2007-12-18 Lockheed Martin Corporation Scene analysis surveillance system
US20060245641A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation Extracting data from semi-structured information utilizing a discriminative context free grammar
US8509563B2 (en) * 2006-02-02 2013-08-13 Microsoft Corporation Generation of documents from images
US8494857B2 (en) 2009-01-06 2013-07-23 Regents Of The University Of Minnesota Automatic measurement of speech fluency
US20140046891A1 (en) * 2012-01-25 2014-02-13 Sarah Banas Sapient or Sentient Artificial Intelligence
US9576593B2 (en) 2012-03-15 2017-02-21 Regents Of The University Of Minnesota Automated verbal fluency assessment
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US10423727B1 (en) 2018-01-11 2019-09-24 Wells Fargo Bank, N.A. Systems and methods for processing nuances in natural language

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57168133A (en) * 1981-04-10 1982-10-16 Ricoh Elemex Corp Pressure wave sensor
US4686764A (en) * 1986-04-22 1987-08-18 Motorola, Inc. Membrane protected pressure sensor
JPS6335247A (ja) * 1986-07-31 1988-02-15 ティーディーケイ株式会社 人工歯根用インプラント

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8720387D0 (en) * 1987-08-28 1987-10-07 British Telecomm Matching vectors
EP0327817B1 (en) * 1988-01-11 1996-08-28 Yozan Inc. Associative pattern conversion system and adaptation method thereof
US4979126A (en) * 1988-03-30 1990-12-18 Ai Ware Incorporated Neural network with non-linear transformations
JPH087789B2 (ja) * 1988-08-15 1996-01-29 工業技術院長 パターン連想記憶方法および装置
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool
US5046020A (en) * 1988-12-16 1991-09-03 E. I. Du Pont De Nemours And Company Distributed parallel processing network wherein the connection weights are generated using stiff differential equations
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
US4974169A (en) * 1989-01-18 1990-11-27 Grumman Aerospace Corporation Neural network with memory cycling
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
US5140530A (en) * 1989-03-28 1992-08-18 Honeywell Inc. Genetic algorithm synthesis of neural networks
US5119469A (en) * 1989-05-17 1992-06-02 United States Of America Neural network with weight adjustment based on prior history of input signals
US5339818A (en) * 1989-09-20 1994-08-23 University Of Utah Research Foundation Method for determining blood pressure utilizing a neural network
US5327541A (en) * 1989-10-13 1994-07-05 Texas Instruments Inc. Global rotation of data in synchronous vector processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57168133A (en) * 1981-04-10 1982-10-16 Ricoh Elemex Corp Pressure wave sensor
US4686764A (en) * 1986-04-22 1987-08-18 Motorola, Inc. Membrane protected pressure sensor
JPS6335247A (ja) * 1986-07-31 1988-02-15 ティーディーケイ株式会社 人工歯根用インプラント

Also Published As

Publication number Publication date
US5627942A (en) 1997-05-06
GB8929146D0 (en) 1990-02-28
CA2070677C (en) 1998-05-26
CA2070677A1 (en) 1991-06-23
EP0506730B1 (en) 1999-11-17
AU6911191A (en) 1991-07-24
WO1991010196A1 (en) 1991-07-11
DE69033358T2 (de) 2000-06-08
DE69033358D1 (de) 1999-12-23
EP0506730A1 (en) 1992-10-07

Similar Documents

Publication Publication Date Title
JPH05502531A (ja) 神経ネットワーク
Robinson et al. The utility driven dynamic error propagation network
US5095443A (en) Plural neural network system having a successive approximation learning method
Glasspool Competitive queuing and the articulatory loop
JP2016139176A (ja) 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム
CN112257864B (zh) 一种用于解决灾难性遗忘问题的终生学习方法
KR102344678B1 (ko) 스파이킹 신경망의 학습 장치
JP2907486B2 (ja) ニューラルネットワーク装置
CN115292551A (zh) 事件因果关系识别模型的识别方法、设备及存储介质
KR102419338B1 (ko) 스파이킹 신경망 학습 장치 및 방법
CN112989804A (zh) 一种基于堆叠多头特征抽取器的实体消歧方法
JP2897220B2 (ja) 信号処理装置
CN112509559A (zh) 音频识别方法、模型训练方法、装置、设备及存储介质
KR20210137663A (ko) 스파이킹 신경망 학습 장치 및 방법
JP2021057710A5 (ja)
JPH07109609B2 (ja) 神経回路の時系列学習方法
US6931383B2 (en) Methods and apparatus for communicating information in a supervised learning system
US20220237412A1 (en) Method for modelling synthetic data in generative adversarial networks
JP3126762B2 (ja) ニューラルネットワーク
Born et al. Designing neural networks by adaptively building blocks in cascades
JP2000298661A (ja) ニューラルネットワーク装置
JPH02219167A (ja) データ処理装置の学習処理方式
JPH05101209A (ja) 階層型ニユーラルネツトワークの学習方法
CN117744793A (zh) 多模态知识图谱训练和预测方法及装置
CN117474807A (zh) 一种图像修复方法、装置、设备及存储介质