JP5430597B2 - 学習および表現の機能を有するニューラルネットワーク - Google Patents

学習および表現の機能を有するニューラルネットワーク Download PDF

Info

Publication number
JP5430597B2
JP5430597B2 JP2011067438A JP2011067438A JP5430597B2 JP 5430597 B2 JP5430597 B2 JP 5430597B2 JP 2011067438 A JP2011067438 A JP 2011067438A JP 2011067438 A JP2011067438 A JP 2011067438A JP 5430597 B2 JP5430597 B2 JP 5430597B2
Authority
JP
Japan
Prior art keywords
neuron
neurons
neural network
structural
represented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011067438A
Other languages
English (en)
Other versions
JP2011150721A (ja
Inventor
ロバート, ジョージ ハーカス,
Original Assignee
ニューラマティックス エスディーエヌ.ビーエイチディー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニューラマティックス エスディーエヌ.ビーエイチディー. filed Critical ニューラマティックス エスディーエヌ.ビーエイチディー.
Publication of JP2011150721A publication Critical patent/JP2011150721A/ja
Application granted granted Critical
Publication of JP5430597B2 publication Critical patent/JP5430597B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Description

本発明は、ニューラルネットワークに関し、特に、時間、空間、強度、規模、および相対位置を含む1つまたは複数の特性に基づくニューラルネットワークに関するが、それのみには限定されず、学習、知識取得、発見、データマイニング、および表現のうちの1つまたは複数に適用可能である。
従来のニューラルネットワークは、一般に、ヘブ学習(Hebbian learning)の単一解釈に基づく。この基本的なヘブ概念は、「同時発火するニューロン同士が結合する」と述べられることが多い。事実上の解釈によれば、「結合」は、2つのニューロンをつなぐシナプスによってもたらされる。シナプスの後のニューロンと同時に発火するシナプスの前のニューロン、またはシナプスの前のニューロンと同時に発火するシナプスの後のニューロンの重要度/確率を反映するようにシナプスの結合強度が修正または重み付けされる。
この概念を用いて、いくつかの入力ニューロンをいくつかの出力ニューロンにシナプスを介して関連付けるニューラルネットワークが開発されてきた。入力ニューロンは入力状態を定義し、出力ニューロンは、望ましい出力状態を定義する。
したがって、従来のニューラルネットワークのほとんどすべてが、3つの層(入力ニューロン層、隠れニューロン層、および出力ニューロン層)の概念に基づいている。図1および2は、従来のニューラルネットワークを示す図である。
そのようなニューラルネットワークのトレーニングは、その最も基本的な形式においては、特定の入力状態を入力ニューロンすべてに与え、その入力状態を表す特定の出力ニューロンを選択し、隠れ層においてシナプスの強度または重みを調節することによって行われる。すなわち、トレーニングは、望ましい出力を認識しているという前提で実施される。トレーニングが完了した後は、様々な入力状態を与えることは、様々な信頼レベルで活性化された様々な出力ニューロンをもたらす。したがって、入力イベントの認識は、元のトレーニング状態と現在の入力状態とがどの程度一致するかに依存する。
そのようなニューラルネットワークは、一般に、望ましい出力ニューロンの数や、望ましい結果の精度に応じて、何百あるいは何千もの異なる入力状態による大規模な反復トレーニングを必要とする。この結果として得られる実際のネットワークは、1000万の相互結合シナプスまたはシナプスを表す重みを有する、わずか1万程度の入出力ニューロンの組み合わせの規模である(現在あるニューラルネットワークは、1012個のニューロンと1016個のシナプス結合とを有する人間の脳の規模と比較すると非常に小さい)。
さらに、従来のネットワークは、あらかじめ定義された出力ニューロンを生成することを前提とするトレーニングをした後に、入力として用いられたトレーニングセットとよく似た入力を認識することが可能である。従来のニューラルネットワークは、望ましい目標が出力ニューロンによって表されている、事前の想定を用いてトレーニングされるように、独立した学習を行うことができない。従来のニューラルネットワークは、出力層の任意の出力ニューロンの刺激に基づいて入力状態を表現または再現することができない。
従来のニューラルネットワークは、独立した入力状態をネットワークに与えられることを前提にトレーニングされており、その場合、トレーニングの順序は一般に重要ではない。大規模な反復トレーニングが完了すると、出力ニューロンは、入力状態がネットワークに与えられる順序にあまり依存しなくなる。従来のニューラルネットワークは、現在の入力状態に完全に基づく出力を提供する。入力状態が与えられる順序は、ネットワークの、入力状態を認識する機能と関係がない。
従来のニューラルネットワークは、以下に示す問題点の一部またはすべてを有する可能性がある。
1.所定のまたは所望の出力目標に基づく事前トレーニングが必要である、すなわち、学習しない。
2.トレーニングで用いられた入力状態とよく似た入力状態(オブジェクト)しか認識できない。
3.計算が高度であるため、低速である。
4.計算上の制約から、比較的少数のニューロンしか表すことができない。
6.別のオブジェクトを認識するためには再トレーニングが必要である。
7.出力ニューロンに刺激を与えて入力オブジェクトを表現または再現することができない。
8.すべての入力ニューロンが同時に刺激されることが前提である。
9.創造的でなく、イベントを表現または再現することができない。トレーニングで用いられたイベントしか識別/認識できない。
10.同時に発火するか、短い間隔で連続して発火するニューロンがシナプスでリンクされることを前提としているが、個々のニューロン、またはニューロンの発火順序を識別しない。
11.隠れ層の各ニューロンが複数の入力ニューロンからの入力を同時に受信する可能性がある。
第1の態様によれば、複数のニューロンを含み、この複数のニューロンのうちの任意の1つが、自分自身、または、その複数のニューロンのうちの他の任意のニューロンと、複数のニューロンのうちの更に別のニューロンとの活性結合を介して結び付くことが可能であるニューラルネットワークが提供される。このプロセスを学習と称する。
第2の態様によれば、複数の要素ニューロンと任意のペアのニューロン間の関連付けを表す複数の構造ニューロンとを含み、そのニューロンのペアは、両方とも要素ニューロン、両方とも構造ニューロン、1つが構造ニューロンで1つが要素ニューロン、および1つが要素ニューロンで1つが構造ニューロンのペアからなる群から選択されるニューラルネットワークが提供される。
各構造ニューロンは、ニューロンのペアによって表される結合された情報または記憶を表すことが可能である。構造ニューロンを形成するために結合されたニューロンのペアを再現するプロセスを、表現と称する。各構造ニューロンは、2つのニューロンからのみ入力を受信することが可能である。
ニューラルネットワーク構造のルートレベルにおいて、複数の要素ニューロンを表すことが可能であり、各要素ニューロンは、要素刺激、定義済み要素パターン、および定義済み要素データ要素のうちの少なくとも1つを表すことが可能である。各要素ニューロンは、処理される情報の基本入力刺激および出力刺激の一方または両方を表すことが可能である。各要素ニューロンは、感覚ニューロン、運動ニューロン、皮質内ニューロン、および皮質間ニューロンからなる群から選択される脳内ニューロンの等価物であることが可能である。ニューロンによって表される情報は記憶であることが可能であり、処理は学習または表現であることが可能である。
複数のニューロン関連付けは、複数のより深いニューラルレベルで表されることが可能である。複数のより深いレベルのレベル数は、処理または表現される記憶またはパターンの範囲によって決定可能である(ただし、記憶は複数の要素ニューロンを表す)。この記憶を表すために必要な要素ニューロンおよび構造ニューロンの数は、処理される記憶の性質によって決定可能である。
第3の態様によれば、関連付けによってリンクされた複数のニューロンを含み、同じか、より深い、ニューラルネットワークのレベルにあるニューロンのすべての関連付けが表現可能であるニューラルネットワークが提供される。
第4の態様によれば、複数のニューロンを含み、配列のなかの一意にアドレス指定が可能なノードによって各ニューロンが表されるニューラルネットワークが提供される。
第5の態様によれば、複数のニューロンを含み、配列のなかの単一ノードによって各ニューロンの全体が表されるニューラルネットワークが提供される。
第6の態様によれば、配列を成す複数のノードを含み、配列内の各ノードはポインタを含むニューラルネットワークが提供される。各ポインタは、配列内の特定ノードの一意アドレスを表す、ノードのデータ要素であって、各アドレスは、複数のニューロンのうちのニューロンを表す。各ポインタは、シナプス結合を表す。
第7の態様では、配列を成す複数のニューロンを含むニューラルネットワークが提供され、アレイの各ノードには、表現し、記憶を学習するポインタが含まれる。
最後から2番目の態様は、複数のニューロンを含み、各ニューロンは配列を成すノードによって表され、各ノードは複数のポインタを有し、各ノード内の各ポインタは特定かつ固有の機能を有するニューラルネットワークを提供する。ポインタが要素レベルまたはルートレベルのニューロン内で要素刺激の値を表すことが可能な場合を除き、各ポインタは別のニューロンのアドレスを含む。必要とされるポインタの数は、ニューラルネットワークによって実行される機能によって異なることが可能である。学習および表現の機能を実行するニューラルネットワークの場合、必要なポインタの数は4以上であると考えられる。
このように、複数のニューロンの中の各ニューロンは、その複数のニューロンを表す配列の中の、同サイズのノードによって表されることが可能である。各ノードは一定数のポインタを格納する。
ニューロンを表すために用いられる配列の中のノードは、ポインタ以外に、各ニューロンの特性に関連する付加データ要素を保持することも可能である。各ニューロンの活性化の頻度、その関連付けの強度、その他を表すためにデータ要素を定義することが可能である。
本発明はさらに、上述の方法を実施するために1つまたは複数の機能を1つまたは複数のプロセッサに実行させるように構成されたコンピュータプログラムコードを含む、コンピュータで使用可能な媒体にまで拡張される。
最後の態様では、双方向性を有し、ノードが入力から導出または作成される順方向と、入力がノードから導出される逆方向とで動作可能なニューラルネットワークが提供される。順方向は学習であり、逆方向は表現である。
ニューラルネットワークは、株価動向の監視および予測、インターネットの監視、インターネットのセキュリティ、コンピュータウィルスおよびスパムの検出、データ圧縮、音声およびテキスト内の句の認識、音声およびテキスト内の節の認識、盗用の検出、バイオインフォマティクス(生物情報学)、視覚認識、オントロジのセマンティクス解析および表現、ロボット工学などのうちの1つ以上に用いられる。
従来のニューラルネットワーク構造を示す図である。 別の従来のニューラルネットワーク構造を示す図である。 2つのニューロンとシナプスとの間の既存の関係を示す図である。 本発明による、3つのニューロンの間の関係を示す図である。 本発明の処理フローを示すフローチャートである。 ニューロンとポインタ/リンクとの間の関係を示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 関連付けを説明する、イベントのシーケンスを示す図である。 学習プロセスのフローチャートである。 マッチングプロセスのフローチャートである。 学習プロセスの間のニューロン作成のフローチャートである。 ニューロンの表現プロセスのフローチャートである。
本発明の理解および実務への応用が容易になるように、以下、本発明の、限定的でない例に過ぎない、好ましい実施形態について、添付図面を参照しながら説明する。
好ましい態様によれば、本発明は、ニューラルネットワークと、そのようなニューラルネットワークをニューロンの関連付けによって構築する方法とを提供する。ニューロンの関連付けは、記憶を形成するために、時間、空間、強度、規模、および相対位置のうちの少なくとも1つを含む特性に基づく。記憶は、(要素ニューロンによって表される)入力刺激または(要素ニューロンによって表される)出力アクションの一方または両方によって自然に構成される。
本発明はさらに、複数の要素刺激を表す、構造ニューロンによって表される記憶のうちの1つ以上の記憶の再現および表現の一方または両方を可能にする。ニューラルネットワークは、学習したもの以外の新しいアクションやアイデアを表現することができる可能性を有しており、そのように創造性を発揮することが可能である。入力刺激としては、聴覚、視覚、触覚、その他の刺激のうちの1つ以上のものが考えられる。出力刺激としては、移動、運動、音声、その他の刺激のうちの1つ以上のものが考えられ、それぞれは、しかるべき要素ニューロンによって定義される。
従来のニューラルネットワークは、同時に活性化している2つのニューロン(ニューロンAおよびB)が、それらの間に活性シナプス結合を作成するか、既存のシナプス結合を強化するという前提に基づいている。これを図3に示す。図3は、2つのニューロンと1つのシナプスとを示している。
本発明の一態様によれば、2つのニューロンを刺激または活性化すると、別の第3のニューロン(関連付けニューロン)を介して、それらの間に関連付けが作成される。これを図4に示す。図4は、3つのニューロン41、42、および43と、2つのシナプス44および45とを示している。便宜上、この基本的なニューラル構造を、本明細書を通して、「ニューロンアセンブリ」と称する。ニューロン41、42、および43は、時間、空間、強度、規模、および相対位置のうちの少なくとも1つを含む、最も近い特性に基づいて、互いに関連付けられることが可能である。ニューロン43は、このニューラル構造において、ニューロン41、42の両方よりレベルが深くなる。ニューロン41、42は、そのニューラル構造の同じレベルであっても、異なるレベルであってもよい。ニューラルネットワーク構造におけるニューロンの深さまたはレベルは、そのニューロンが表す要素ニューロンを表現するために必要なステップ数に基づく。
ニューラル構造はニューロンを含み、その各ニューロンは、データ、イベント、オブジェクト、概念、またはアクションの記憶を表す。各ニューロンによって表される情報のタイプは様々であり、ニューラルネットワークを構成する(感覚および/または運動ニューロン刺激を表す)要素ニューロンによって異なる。要素刺激は、各ニューラルネットワーク構造のルートレベルで保持される要素ニューロン内でのみ表される。より深い(後続)レベルのニューロン(構造ニューロン)は、他のニューロンの関連付けだけを表し、自身では、感覚刺激、運動刺激、要素刺激などの値を格納しない。
ニューラル構造内の各ニューロンは、2つのニューロンだけの関連付けを表すことが可能である。その一つが起動ニューロンであって、もう一つが被関連付けニューロンである。しかし、各ニューロンは、関連付けニューロンを介して、無限の数の関連付けに、起動ニューロンおよび/または被関連付けニューロンとして参加することが可能である。起動ニューロン41は、ニューロン43のような後続ニューロンを任意の数だけ有することが可能である。ここでは、ニューロン41の後続ニューロンは、ニューロン41を起動ニューロンとする関連付けニューロン(43)である。もう一つのニューロン42は、先行ニューロンを任意の数だけ有することが可能である。ニューロン42の先行ニューロンは、ニューロン42を被関連付けニューロンとする関連付けニューロン(43)である。したがって、ニューロン43は、関連付けニューロンとも、ニューロン41の後続ニューロンとも、ニューロン42の先行ニューロンともいえる。
関連付けは、要素ニューロン41、42のうちの起動ニューロンである方によって行われ、一方は被関連付けニューロンである。ニューロン41を起動ニューロンとし、ニューロン42を被関連付けニューロンとすると、ニューロン41が活性化または発火したときに、関連付けニューロン43が増強される。ニューロン41の発火と同時に、またはニューロン41の発火に続いて、ニューロン42が活性化または発火しても、関連付けニューロン43は増強される。それによってニューロン43は活性化したと見なされる。関連付けニューロン43が存在しなかった場合(すなわち、起動ニューロン41と被関連付けニューロン42とを関連付けるニューロンが存在しなかった場合)は、関連付けニューロン43が作成されてから活性化される。存在していた場合は、活性化されるだけである。ニューロン41および42の近接活性化または近接発火が行われると、関連付けニューロン43が活性化し、ニューロン41とニューロン43との間、およびニューロン42とニューロン43との間で活性結合の作成、または既存のシナプス結合の強化が行われる。関連付けニューロン43は、他の2つのニューロン41、42から学習したことの総和を表す。この総和は、記憶トレース、2つのニューロンの経験の組み合わせ、イベントのシーケンス、イベントの近接度などのうちの1つ以上を含むことが可能である。いったん関連付けニューロンが活性化するか作成されて所望の記憶またはイベントが表された場合、その所望の記憶またはイベントは別のニューロンで再作成される必要がない。
近接度、近接活性化または近接発火の定義は、各ニューラルネットワークの動作規則によって設定される。近接度(「ΔP」)は、レベル内及びレベル間で変動する可能性があり、表される要素ニューロンのタイプに応じて変動する可能性がある。ニューラルネットワーク内で深いレベルにあるニューロンほど、近接している可能性が低いため、ΔPは大きくなる可能性がある。ΔPが時間または時間的イベントを表している場合、ΔPは、ゼロ、数ミリ秒、あるいは数秒の短さの場合もあれば、数分、数時間、数日、あるいは数週間の長さの場合もある。現実世界では同時に発生したイベントであっても、シナプス活性化または発火の時間の違いや、樹木状発火経路の長さの違いに基づいて時間的に表される可能性がある。さらに、ニューラル構造によって表される記憶またはイベントの処理要件によっても変わる可能性がある。ΔPはまた、オブジェクト間またはイベント間の空間関係を表すことも可能であり、脳内のニューロンのトポロジ的な空間関係を表すことも可能である。
本発明によるニューラルネットワークは、以下の2つの基本要素からなる。
1.要素ニューロン。これは、要素刺激、感覚ニューロンまたは運動ニューロン、または必要に応じてそのような要素データを表すことが可能である。これらは、ニューラルネットワークを構築する基になる要素ニューロンまたはルートニューロンである。表される経験、イベントまたは情報のタイプに応じて、様々なタイプの要素ニューロンを定義することが可能である。たとえば、聴覚皮質を表す場合、要素ニューロンは、個々の異なる音を表すことになりうる。要素ニューロンは、いくつかの異なるタイプの要素ニューロンを組み込むことが可能である。そのようなものとしては、たとえば、音のエネルギーまたは音の強度(ボリューム)を表すセットや、音の周波数を表す別のセットなどがある。
においと味を表す場合は、味覚用の要素ニューロンのセットと、嗅覚用の別のセットとを用いることが可能である。
視覚の場合は、神経節細胞によって表されるように、色付円錐体、桿状体、エッジ、コントラスト、動きなどを表す要素ニューロンのセットを用いるか、または特に、光受容器ニューロンを表す要素ニューロンのセットを用いることが可能である。
皮膚受容器の場合は、接触−機械的受容器ニューロン、温度−熱受容器ニューロン、痛み−侵害受容器ニューロンなどに対応する要素ニューロンを用いることが可能である。運動は、動きを引き起こす、様々なタイプの運動ニューロンによって表されることが可能である。
感覚ニューロンが活性化または発火すると、感覚ニューロンは、特定の場所の特定の細胞または感覚器官から特定の形のエネルギーを受け取ったことを、シナプスまたは神経細胞を介して脳の様々な領域に伝える。すべての感覚ニューロンが、同様の中央処理メカニズムを有する。運動ニューロンが脳内で活性化または発火すると、運動ニューロンは、身体の特定の場所で筋肉の収縮を引き起こして、動きを発生させる。感覚ニューロンがイベントを検出すると、感覚ニューロンはそのデータを脳に送り、脳のニューラル構造内でそのデータが処理される。
人工の要素ニューロンも定義可能である。たとえば、ニューラル構造を用いて英語のテキストを処理する場合は、英字と句読点とを表す要素ニューロンのセットを定義することが可能である。中国語の場合は、各漢字、および漢字のサブセットに対して要素ニューロンを定義することが可能である。ニューラル構造を用いてタンパク質配列を処理する場合は、20種類のアミノ酸、またはそのサブセットを表すように要素ニューロンを定義することが可能である。発話の場合は、音素その他に対応する音を発生させる様々な筋肉収縮を引き起こすように、様々な運動ニューロンを定義することが可能である。
要素ニューロンは、起動ニューロンおよび被関連付けニューロンになることはできるが、関連付けニューロンになることはできない。
2.構造ニューロン。これはニューラル構造を表す。ニューラル構造は、図4に示すように、他のニューロンの関連付けを表すニューロンからなる。他のニューロンは、感覚ニューロンであっても、運動ニューロンであっても、他の構造ニューロンであってもよい。このように、ニューラル構造は、大きくなって、より多くの情報を表すことが可能である。
構造ニューロンを用いて、要素ニューロンの様々なセットを表す、構造ニューロン間の関連付けの形成を行うことも可能である。たとえば、英字要素ニューロンの関連付けによって表された英単語「ball」(ボール)と、視覚要素ニューロンの関連付けによって表された形状「ball」との間に関連付けを形成することが可能である。このようにして、異なる皮質、又は異なるニューラルネットワークにまたがる、情報の関連付けを可能にするニューラルネットワークを構築することが可能である。形状「ball」と、運動ニューロンの関連付けによって表される、発声される単語「ball」との間に別の関連付けを存在させることによって、音素ニューロンによる音「ball」の発生を可能にすることができる。
構造ニューロンは、時間、空間、強度、規模、相対位置などの特性に基づいて相互に関連付けられる。ニューラル構造によって発話を表す場合の関連付けは、発話表現に用いられる音素、単語、句、節などのシーケンスを表す時間的性質の関連付けになる。同様に、テキストを処理する場合や本を読む場合の個々の文字の処理は、単語、句、節などを構築する時間的性質の処理であろう。また、脳内の多数のニューロンは、空間的または局所解剖学的に系統立てられている。たとえば、視覚、聴覚、触覚、痛覚などに対応するニューロンはそうである。そういうものとして空間特性を表すニューラル構造を構築することが可能である。たとえば、視覚的光景を表すニューラル構造を形成する場合は、近接度、近くのオブジェクトと遠くのオブジェクト、または高いオブジェクトと低いオブジェクトに基づいて、エッジ、線、曲線、オブジェクトまたはパターンを表すニューロンを、画素を表す要素ニューロンを線または曲線に関連付けるニューラル構造に関連付けることができる。これにより、環境の3次元マップが構築される。
同じニューラル構造を用いて、空間および時間で定義される4つの次元の任意のいずれかにある情報を表すことが可能である。
上述のように、空間ニューラル構造によって表される形状「ball」は、時間ニューラル構造によって表される、発声される単語「ball」に関連付けられることが可能である。
構造ニューロンは、関連付けニューロンである。また、構造ニューロンは、起動ニューロンおよび被関連付けニューロンの一方または両方になることも可能である。
ニューラル構造内で関連付けのルートレベルにある要素ニューロンを組み合わせると、皮質(ニューロンアセンブリ)内で特定の要素機能または特性を表す構造ニューロンの作成が可能になる。ニューラル構造は、ニューラル構造内での動的な関連付けによる、機能の組み合わせの表現を可能にする。感覚ニューロンによって誘起される、新皮質内の神経(ニューラル)作用は、常に脳内の様々な領域に分散される。感覚系では、脳の様々な領域が、同じ入力刺激の様々な態様(空間/時間/強度/規模/相対位置)を処理することが可能である。提案するニューラル構造は、首尾一貫した概念/知覚認識および挙動を表すための領域内ニューラル関連付けを可能にする。ニューラル構造内での関連付け(皮質間の関連付け)のレベルが深いほど、より複雑な情報または挙動を表すことが可能になる。
ニューロンは、その機能、特性、レベル、性質などに応じて、編成、分類、または命名されることが可能である。ニューロンは、特定の次元について定義されることも可能である。特定の次元とは、時間、距離、空間、長さ、高さ、ピッチ、振幅、または他の任意の定義可能な特性である。
その特定の次元において、任意の2つのニューロンを、それらの相対的な、または関連する事象、位置、規模並びに大きさによって区別することが可能である。この相対的な位置づけは、ΔPで表される。
ニューラルネットワークを構築するための基本となる要素は、相対位置によって関連付けられた任意の2つの活性ニューロンAおよびBに対して、シナプスを介してニューロンAおよびBの両方と結合されている第3のニューロンCが存在することである。そのようなニューロンが存在しない場合は、そのようなニューロンとその結合とを作成することが可能である。したがって、ニューロンCは、ニューロンAとニューロンBとを、それらの相対位置を維持しながら互いに関連付ける。AとBとは、それらの相対位置において隣接または連続することが可能であるが、必須ではない。したがって、ニューロンCは、イベントを表す任意の2つのニューロンAおよびBを関連付けることが可能であり、それらのイベントは、同時であっても、隣接していても、連続であっても、隣接していなくても、非連続であっても、部分的に重なっていてもよい。
関連付けの論理は、活性化または発火した任意の2つの活性ニューロンAおよびBについて、それらの一方が起動ニューロンになるというものである。第3のニューロンCは、起動ニューロンと第2のニューロンとを、それらの活性化または発火の順序を維持しながら関連付ける。したがって、ニューロンCは、起動ニューロンのイベントとそれに続く第2のニューロンのイベントとの結合イベントを表す。この新しいニューロンCは、その後、他のニューロンとの結合に参加(して新しい関連付けを作成)することが可能であり、さらに同様のことを続けることが可能である。
新しいニューロンを作成する場合の基本ルールは、ニューロンAが活性化または発火し、それと同時に、またはそれに続いてニューロンBが活性化または発火した場合に、新しいニューロンCが構築され、場合によって活性化または発火して、ニューロンAとニューロンBとの関連付け(すなわち、時間または空間におけるイベントABの関連付け)を表すことが可能であるということである。先行のイベントまたは関連付けによってニューロンCが既に存在している場合、ニューロンCは同様に、さらに再活性化または再発火して、後続の、既存または新しい活性化に参加することが可能になり、それによって、新しい関連付けを形成することが可能になる。これによって、無限の数の関連付けおよび/または関係を有するニューラルネットワークを構築することが可能になる。
新しいニューラルネットワークを作成する基本フローを表すフローチャートを図5に示す。この好ましい実施例は、要素イベントの単純なシーケンスを処理する場合の処理ステップとモデルの適用とを示している。
図5では、まず、50で、ニューラルネットワークまたはニューラルネットワークを表す配列を初期設定する。51で、各要素ニューロンのタイプまたはカテゴリを定義する。これらは、たとえば、テキスト、視覚、ピッチ、色、エッジ、音、体積、味覚、臭覚、色付円錐体、桿状体、痛覚、コントラスト、動き、筋肉の動き、神経節細胞、光受容器、触覚、機械的受容器、温度、熱受容器、侵害受容器、運動、言語、文字、字、単語などに関連することが可能である。
52で、要素ニューロンを定義/プログラム/入力する。「その要素ニューロンは既に存在しているか?」という質問を行う(53)。定義済み要素ニューロンの各定義済みタイプについて表される値の1つ1つについて、すべての要素ニューロンを作成して、それらをルートニューロンに後続ニューロンのリストとして添付しなければならない。ルートニューロンは、ニューラルネットワークを表す配列の中のノード0によって表される。質問への答えがNO(いいえ)の場合は、新しい要素ニューロンを作成し(54)、処理を(52)に戻す。YES(はい)の場合は、55に進む。55で、ニューロンを関連付けるルールを定義する。あるいは、学習プロセス中に新しい要素ニューロンが発生すれば、そのときにその要素ニューロンを定義することも可能である。
次に、第1の(または次の起動)ニューロンを見つける(56)。このニューロンをニューロンAとする。次に、後続のニューロン(ニューロンB)を見つける(57)。ニューロンAとニューロンBとの関連付けが既に存在する場合(58)は、処理を56に戻す。存在しない場合は、ニューロンAとニューロンBとの関連付けまたは組み合わせを表すものとしてニューロンCを作成し(59)、処理を56に戻す。このプロセスでは、ニューロンCを関連付けニューロンとすることが可能である。
図8は、図5のステップ56〜59をより詳細に示したフローチャートである。ここでのニューラル処理または学習は、要素ニューロンイベントのパターンまたはシーケンスで表される経験である。
ステップ81で、イベントのパターンまたはシーケンスの最初の要素イベントにイベントポインタを設定する。ステップ82で、合致するニューロンを見つける。この合致するニューロンは、ニューラルネットワークにおいて、イベントポインタによって示されているイベントのパターンまたはシーケンスの、先頭イベント(または先頭の一連のイベント)と合致するニューロン(記憶)である。この合致するニューロンを、起動ニューロン(ニューロンA)と定義する。次に、ニューラルネットワークに関する定義済みルールに従って、次のイベントを示すよう、イベントポインタを更新する。
次に、ステップ83で、別の合致するニューロンを見つける。このニューロン(記憶)も、イベントのパターンまたはシーケンスにおいて、イベントポインタによって示されている1つまたは複数のイベントに対応する。この、もう1つの合致するニューロンを、被関連付けニューロン(ニューロンB)と定義する。次に、ニューラルネットワークに関する定義済みルールに従って、次のイベントを示すよう、イベントポインタを更新する。このようにして、反対の任意のルールを仮定して、新しい関連付けニューロンまたは関連付けが常に作成される。一般には、ニューロンCは、まだ存在していない可能性がある。存在していたとすれば、ステップ82で合致している。
1つのパスの処理が完了した後、必要であれば、同じデータまたはイベントシーケンスを再度処理して、それに応じてニューラルネットワーク構造を拡張することが可能である。
次に、ステップ84で、これまで使用されていなかった別のニューロンを見つける。これを、ステップ85で、関連付けニューロン(ニューロンC)として作成する。86で、処理中のイベントのパターンまたはシーケンスの中のイベントがなくなるまで、ステップ82〜85の処理を繰り返す。
図9は、図8の、合致するニューロンを見つける処理ステップ82および83をより詳細に示したものである。
ステップ91で、ルートニューロンを示すことにより、合致するニューロンへのポインタをゼロに設定する。合致するニューロンの各後続ニューロン(ステップ92)について、その後続ニューロンの完全な表現と、処理中のイベントのパターンまたはシーケンスにおける、次の、1つまたは複数のイベント、並びにシーケンスとが合致するかどうかを調べて判定する。合致する場合は、ステップ93に進む。ステップ93では、合致するニューロンへのポインタを、その、イベントのパターンまたはシーケンスと合致する後続ニューロンを示すように設定する。さらに、イベントポインタを、イベントのパターンまたはシーケンスの、まだ合致していない残りのものを示すように調節することも可能である。次に、処理をステップ92に戻して続行する。ステップ92の結果、合致しない場合、ステップ94で、合致するニューロンへのポインタを、最後に合致したニューロンを示すところまで戻して、ステップ95で処理を終了する。
図10は、図8の、関連付けニューロンを作成するステップ85の処理をより詳細に示したものである。ステップ101で、関連付けニューロンの、起動ニューロンへのポインタを、起動ニューロンへのポイントに設定し、ステップ102で、関連付けニューロンの、被関連付けニューロンへのポインタを被関連付けニューロンに設定する。関連付けニューロンが(活性化したばかり、または作成されたばかりで)後続ニューロンを持たないので、その、後続ニューロンへのポインタをゼロに設定する(ステップ103)。次に、関連付けニューロンの、次のニューロンへのポインタを、起動ニューロンの、後続ニューロンへのポインタと同じに設定する。最後に、ステップ105で、起動ニューロンの、後続ニューロンへのポインタを、関連付けニューロンを示すように設定する。これによって、関連付けニューロンが、起動ニューロンの後続ニューロンのリストの最初のエントリになる。
共通の特性を表す要素ニューロンのグループを、皮質に編成することが可能である。したがって、第1の視覚特性に関連するニューロンのグループ(たとえば、色に関するニューロンのグループ)と、第2の視覚特性(たとえば、形状)に関連する第2のグループと、第3の視覚特性(たとえば、大きさ)に関連する第3のグループと、その他のグループとを含む視覚皮質を有することが可能である。あるニューラルネットワークにあって、個々のパターンまたはイベントを表す構造ニューロンが、別のニューラルネットワークでは要素ニューロンであることが可能である。複数のニューラルネットワーク(およびそれらの中のニューロン)によって表しうる複数の皮質を連結し、関連付けて、統合学習環境だけでなく、インテリジェントに動作する能力も提供することが可能な統合「頭脳」を形成することが可能である。
従来のニューラルネットワークは、一般に一方向である。これは、ある特定の入力に対して出力が導出可能であることを意味する。しかしながら、それらのニューラルネットワークは、逆方向に動作することができない。すなわち、与えられた出力から、入力を導出することは不可能である。
本発明は、任意のニューロンの構築につながる、イベントのシーケンスを表現することを可能にする、「表現」の機能を提供する。表現の意義は、表現によって、イベントの完全なシーケンスが単一ニューロンによって表されることが可能になること、および、その単一ニューロンを活性化することによってそのシーケンスが再現可能であって、その関連付けを表すニューロンが、作成されたときと同じ相対位置または順序にある起動ニューロンと被関連付けニューロンであることなどである。このように、完全な経験または記憶(イベントのシーケンス)を表す単一ニューロンを表現して経験を再現することが可能である。
表現機能は、ニューラル構造内のニューロンごとに、起動ニューロンへのポインタと被関連付けニューロンへのポインタの形で実装される。
表現を図11に示す。表現が必要になると、まず、ステップ111で、表現されるニューロンの、起動ニューロンへのポインタがゼロに等しいかどうかを調べる。YESであれば、表現されるニューロンは要素ニューロンに間違いなく、処理をステップ114に戻す。ステップ114では、表現は、要素ニューロンを表すための、被関連付けニューロンに格納されている要素イベントまたは要素値の活性化である。値がゼロでない場合は、ステップ112を開始する。ステップ112では、表現されるニューロンの、起動ニューロンへのポインタによって示されるニューロンを表現する。ステップ113では、表現されるニューロンの、被関連付けニューロンへのポインタによって示されるニューロンを表現する。記憶を表すすべての要素ニューロンが表現されるまで、これを続ける。
ネットワーク内の各ニューロンは、アドレス指定可能なノード配列においてその場所が識別されるアドレスを有する。ノード配列では、各ノードが単一ニューロンを表している。ニューロンへのポインタはすべて、ニューロン配列内の単一ニューロンを表すノードのアドレスを参照する。アドレスまたはポインタのビットサイズは、ニューラルネットワークを表す配列において表すことが可能なニューロンの最大数に影響を及ぼす。たとえば、ポインタのアドレスサイズが32ビットの場合は、232(4,294,967,296)個のニューロンからなるニューラルネットワークを構築することが可能である。
各ニューロンは、従来の配列または構造の単一固定長ノードによって表される。配列に格納可能なニューロンの数は、以下のように、使用可能な総記憶領域(内部および/または外部)と、ポインタアドレスアーキテクチャとに依存する。
(a)16ビットのポインタアドレスアーキテクチャは、216個のニューロンまで可能である。これは、6.4×10個のニューロンである。
(b)32ビットのポインタアドレスアーキテクチャは、232個のニューロンまで可能である。これは、4.1×10個のニューロンである。
(c)48ビットのポインタアドレスアーキテクチャは、248個のニューロンまで可能である。これは、2.7×1014個のニューロンである。
(d)64ビットのポインタアドレスアーキテクチャは、264個のニューロンまで可能である。これは、1.8×1019個のニューロンである。
人間の脳は約1012個のニューロンを有するので、48ビットのポインタアドレスアーキテクチャは、100人分の脳の容量に匹敵するといえる。最新のコンピュータは64ビットアドレッシングをサポートしているので、1019個のニューロンからなるニューラル構造を表現する容量を有することが可能である。これは、一千万人の脳が連結されたサイズに匹敵する。
ニューラルネットワークを表現するために、ノードは、最低でも4個のポインタからなる。各ポインタは、別のニューロンのアドレスを含む。上述のように、アドレスサイズを32ビットにすると、最大232(40億)個のニューロンからなるニューラルネットワークの構築が可能になる。
図6に示すように、各ニューロンは、最も基本的な実装の場合で、4個のポインタ/リンク(P、P、P、およびP)で表されることが可能である。各ポインタは、別のニューロンのアドレスまたは場所へのリンクである。一般に、ニューロンは4個のポインタを有する。これは、表現機能を有するインテリジェントなニューラルネットワークを作成するために必要な最小限の個数である。ただし、ニューロンは、さらなる機能を提供するために、5個以上のポインタを有することが可能である。たとえば、起動ニューロンAと被関連付けニューロンBとの関連付けを表現するためにニューロンCを作成する場合は、以下のポインタがニューロンCに必要である。
P1−起動ニューロン(すなわち、ニューロンA)へのポインタ
P2−関連付けの形成に参加する他方のニューロン(すなわち、ニューロンB)へのポインタ
P3−ニューロンCを起動ニューロンとする、より深いレベルのニューロンのリストへのポインタ(LsC)(ニューロンCの、後続ニューロンへのポインタ)
P4−ニューロンAを起動ニューロンとする、次のニューロンへのポインタ(LA)(ニューロンAの「次の後続ニューロンへの」ポインタ)
必要であれば、被関連付けニューロンの先行ニューロンの情報を与えるために、さらなるポインタをニューロンCについて定義することも可能である。たとえば、以下のポインタを定義することが可能である。
P5−ニューロンCを被関連付けニューロンとする、より深いレベルのニューロンのリストへのポインタ(LpC)(先行ニューロンへのポインタ)
P6−ニューロンBを被関連付けニューロンとする、リスト内の次のニューロンへのポインタ(LB)(「次の先行ニューロンへの」ポインタ)
より深いレベルのニューロンは、イベントの複雑なシーケンスを表すことが可能である。各構造ニューロンは少なくとも1つの起動ニューロンと1つの被関連付けニューロンとを有するので、レベル10の単一ニューロンは、最大210(1024)個の要素イベントのシーケンスを表すことが可能である。ニューロンが同じレベルのニューロンとだけ関連付けられることが可能であるというのは、必要条件ではない。
したがって、イベントの新しいシーケンスを格納する場合は、イベントストリーム内の既存のイベントシーケンスを表す既存ニューロンを識別して、新しいニューロンを構築することによってそれらを互いに関連付けることだけが必要である。たとえば、それぞれが1,024個のイベントと512個のイベントである2つのイベントシーケンスがある場合は、1,536個のイベントのイベントシーケンスを表す、単一の新しいニューロンを構築することが可能である。このようにして、ニューラルネットワーク内で、新しいシーケンス/イベント情報を無駄なく表すことが可能である。
これを図7に示す。図7は、「The cat sat on the mat.(その猫はマットの上でうずくまっていた。)」という文についてのテキスト処理および学習から導出される可能なニューラルネットワークを示す図である。矢印線は、起動ニューロンと関連付けニューロンとの結合を示し、丸印線は、被関連付けニューロンと関連付けニューロンとの結合を示す。
図7(a)では、レベル0にある第1の要素ニューロン701と第2の要素ニューロン702とが、文字「T」および「H」を認識または表し、これらが関連付けられ、レベル1の関連付けニューロン711によって表される文字結合「TH」が形成される。
図7(b)は、文字「E」を認識する第3の要素ニューロン703と、スペース「^」を認識する第4の要素ニューロン704とを示す。これら2つが互いに関連付けられて、レベル1の関連付けニューロン712によって表される結合「E^」が形成される。レベル1の構造ニューロン711および712が関連付けられて、関連付けニューロン721によって表される、識別可能な単語「THE^」が形成される。
図7(c)、(d)、および(e)では、レベル0にある次の2つの要素ニューロン705および706がそれぞれ文字「C」および「A」を認識し、それらが関連付けられて、レベル1の関連付けニューロン713によって表される文字結合「CA」が形成される。
文字「T」および「^」については、ニューロン701がニューロン704と関連付けられ、結合「T^」を表す関連付けニューロン714がレベル1に作成される。次にニューロン714および713が関連付けられ、関連付けニューロン722がレベル2に作成され、それによって、識別可能な単語「CAT^」が形成される(図7(e))。次に、ニューロン721および722が関連付けられ、その結果として、レベル3の関連付けニューロン731において、句「THE^CAT^」が形成されることが可能である(図7(f)および7(g))。
単語「SAT^」については、図7(h)に示すように、ニューロン707が文字「S」を認識し、ニューロン706と関連付けられ、結果として、レベル1の関連付けニューロン715において、文字結合「SA」がを形成される。レベル1においてニューロン715がニューロン714と関連付けられ(「T^」)、その結果として、レベル2の関連付けニューロン723において、識別可能な単語「SAT^」が形成される。
図7(i)および7(j)では、ニューロン708および709がそれぞれ文字「O」および「N」を認識し、それらが関連付けられて、レベル1にある関連付けニューロン716によって表される文字結合(および単語)「ON」が形成される。ニューロン716がニューロン704と関連付けられ、結果として、レベル2の関連付けニューロン724において、識別可能な単語「ON^」が形成される。レベル2のニューロン723がニューロン724と関連付けられ、結果として、レベル3の関連付けニューロン732において、句「SAT^ON」が形成される。レベル3のニューロン731および732が関連付けられ、結果として、レベル4のニューロン741において、句「THE^CAT^SAT^ON^」が形成される。
図7(k)および7(l)では、ニューロン7010が文字「M」を認識し、ニューロン706と関連付けられ、結果として、レベル1のニューロン717において、文字結合「MA」が形成される。ニューロン717はニューロン712と関連付けられ(「T^」)、結果として、ニューロン725において、識別可能な単語「MAT^」が形成される。ニューロン721がニューロン725と関連付けられ(「THE^」)、結果として、ニューロン733において、句「THE^MAT^」が形成される。
ニューロン741および733が関連付けられ、結果として、レベル5のニューロン751において、文「THE^CAT^SAT^ON^THE^MAT」が形成されることが可能である。各関連付けニューロンが、多くても1つの起動ニューロンと1つの被関連付けニューロンしか有しないことは明らかである。ただし、ニューロンは、後続ニューロンと先行ニューロンとを複数有することが可能である。たとえば、要素ニューロン701「T」は、「TH」(711)を表す後続ニューロンと、「T^」(714)を表す後続ニューロンとを有する。要素ニューロン706「A」は、「CA」(713)、「SA」(715)、および「MA」(717)を表す3つの先行ニューロンを有する。
図7(m)に示した文を拡張するために、レベル0のニューロン7011が文字「D」を認識する。ニューロン7011は、ニューロン704と関連付けられ、結果として、ニューロン719において、結合「D^」を形成する。ニューロン706が、ニューロン709と関連付けられ、結果として、ニューロン720において、結合「AN」を形成する。ニューロン720は、ニューロン719と関連付けられ、結果として、ニューロン726において、結合「AND^」を形成する。ニューロン733が、ニューロン726と関連付けられ、結果として、ニューロン742において、結合「THE^MAT^AND^」を形成する。ニューロン741および742が関連付けられ、結果として、ニューロン752において、句「THE^CAT^SAT^ON^THE^MAT^AND^」を表す結合が形成されることが可能である。
図7(n)では、レベル0において、各要素ニューロンが1文字しか表していないことを示している。レベル1の各ニューロンは、2文字の関連付けを表す。レベル2の各ニューロンは、最大4文字の関連付けを表すことが可能である。レベル3の各ニューロンは、最大8文字の関連付けを表すことが可能である。レベル4の各ニューロンは、最大16文字の関連付けを表すことが可能である。レベル5の各ニューロンは、最大32文字の関連付けを表すことが可能である。レベル6以降もレベルごとに2倍になり、レベル10では、各ニューロンが最大1,024文字の関連付けを表すことが可能である。さらに、レベル20では、各ニューロンが最大1,048,576個の要素イベントの関連付けを表すことが可能である。
自明であるように、テキスト認識では、必要な要素ニューロンの数はごく限られている。以下に示すそれぞれに対して、1つの要素ニューロンが必要である。
1.アルファベットの大文字の26個の文字。
2.アルファベットの小文字の26個の文字。
3.10個の数字
4.標準的な英数字キーボードにおける32個の区切り文字および同様の文字
5.必要になる可能性がある、他の任意の特殊文字(たとえば、ギリシャ文字など)
必要な構造ニューロンの数と必要な構造ニューロンのレベルの数とは、学習プロセス中で、ニューラルネットワークを用いる結果として増大する可能性がある。テキスト認識の例で言えば、関連する文書の数、関連する学習イベントの規模、文書内の言語の使用状況、および単語、句、節、文、段落、章、巻などの最大限の数が、結果として得られるニューラルネットワーク構造の規模に影響を及ぼす。たとえば、テキスト認識に本発明を用いて、ウィリアムシェークスピアの全戯曲を記録したとして、1つ目の戯曲を記録し終わった時点で特定の数「N1」の構造ニューロンがあるとする。その同じニューラルネットワークで2つ目の戯曲を記録した場合、必要なニューロンの総数は、それぞれの戯曲を単独処理した場合に必要なニューロン数の単純な算術和にはならないであろう。1つ目の戯曲のために作成されたニューロン以外に、2つ目の戯曲を処理するために必要になったニューロンだけがN1に追加され、増補された総数N2が与えられる。既に存在していた文字、単語、句、節、文などに対応するニューロンは追加されないが、それらの新しい関連付けが追加される。3つ目の戯曲が記録されると、新たに必要になったニューロンが同様に追加され、N3が与えられる。
最後の戯曲が記録された時点では、必要なニューロンの数の増加は多くはないであろう。主な増加は、ニューロン構造のより深いレベルでのもので、そこでは新しい関連付けが追加される。最も深いレベルは、全戯曲をまるごと表すのに必要なすべての関連付けを有する単一ニューロンであろう。
各レベルの各ニューロンは、任意のレベルの他の任意のニューロンと関連付けられて、第3のニューロンにおいて結果を与えることが可能なので、利用できる潜在的な順列および組み合わせの数は非常に大きくなる。
図7での考察から、ニューロン751において結果「THE^CAT^SAT^ON^THE^MAT」を与えるために用いることが可能な結合は様々に存在する。たとえば、レベル1では、図示されたように、以下の結合が記録される。
「TH」、「E^」、「CA」、「T^」、「SA」、「ON」、および「MA」
その他の結合も可能である。たとえば、次の結合が可能である。
「TH」、「HE」、「E^」、「CA」、「AT」、「T^」、「ON」、「N^」、および「MA」
この後に、レベル2の可能な結合のさらなる範囲が続くことが可能である。ニューラルネットワークを使用することの所望の目的にあったルールを採用して、結合を低減または削除することによって、効率を高めることが可能である。
レベル10のニューロンについて考えると、レベル10のニューロンは、最大1,024個の要素イベントのシーケンスを表すことが可能である。その1つ目の要素は、要素レベルまたはルートレベルへのポインタに従うことによって表現可能である。これによって、相対的に迅速な表現が可能になる。
要素ニューロンは、学習に関してと、表現時の両方で頻繁に活性化されうる。純粋なバイナリ実装の場合は、単一のレベル1ニューロンによって、2つの要素ニューロンまたはルートレベルニューロンを表現するか関連付けることが可能である。レベル2ニューロンによって、2つのレベル1ニューロンを表現するか関連付けることが可能である。それ以上のレベルについても同様である。1,024個の要素イベントのシーケンスが活性化し、これらがネットワークによって学習/表現される場合は、各レベルにおいて、以下の数のニューロンが処理され、
1,024 レベル0
512 レベル1
256 レベル2
128 レベル3
64 レベル4
32 レベル5
16 レベル6
8 レベル7
4 レベル8
2 レベル9
1 レベル10
要素イベントの全シーケンスが表される。
ルートレベルにおいてニューロンの発火の基本的な時間間隔が1ミリ秒であったとすると、レベル10ニューロンは、1024ミリ秒ごとに一度(あるいは1秒ごとに一度)だけ活性化または発火することになる。したがって、ニューラル構造を表す配列が、識別可能な記憶ブロック/領域の組み合わせとして表された場合は、深いレベルのニューロンほど、学習および表現の性能に影響を及ぼすことなく、より低速の記憶領域に格納されることが可能である。
好ましいニューラルネットワーク構造では、要素ニューロンは、ニューラルネットワーク構造のルートニューロンを、自身の起動ニューロンとする。これによって、要素ニューロンをあらかじめ定義しなくても、無限の数の要素ニューロンを稼働中に作成することが可能になる。あるいは、構造内の所定のニューラル記憶領域に要素ニューロンを割り当てることが可能であり、これによって、各要素ニューロンを直接アドレス指定すること(たとえば、ASCIIテキスト文字の場合は8ビット)、256個の要素ニューロンアドレスをあらかじめ割り当てること(0〜255)、および最初の構造ニューロンのアドレスをアドレス256に置くことが可能である。
好ましくは、任意の時点でニューラル構造の任意の場所に新しい要素ニューロンを追加して、完全な柔軟性を与えることが可能である。あらかじめ定義された領域を要素ニューロンに用いる場合は、ルートニューロンに添付された、後続ニューロンのリストを検索する必要がないので処理がより高速になりうる。
要素ニューロンは、ゼロに設定された、すなわち、(存在しようがしまいが)ルートニューロンを示している、起動ニューロンへのポインタと、その要素ニューロンによって表される要素イベントの値に設定された、被関連付けニューロンへのポインタとによって表されることが可能である。要素ニューロンは、その起動ニューロンの値が常にゼロなので、常に容易に特定または識別されることが可能である。したがって、ニューロンを表現する際には、いつ要素ニューロンに到達したかが容易にわかる。それは、起動ニューロンの値がゼロで、ルートニューロンを示しているからである。提供されているニューラルネットワークの本質に影響を及ぼすことなく、要素ニューロンの定義に別の方法を用いてもよい。
好ましくは、起動ニューロンの新しい後続ニューロンが、リストの最前部に単純に追加される。したがって、それらは、起動ニューロンに直接添付される。このようにして、最新の記憶トレースが容易に表現される。
ただし、後続ニューロンのリストを維持するために、様々なオプションが利用可能である。ニューラル構造は、ニューラルネットワーク構造の機能を追加するために、ユーザが選択する任意の方法でこの機能が使用されることを可能にする。たとえば、新しい関連付けニューロンをリストの末尾に追加することが可能である。あるいは、リストを番号順、アルファベット順などで維持することが可能である。同様に、頻繁にアクセスされるニューロンをリストの前方、または最前部に移して、常に、より新しく活性化された記憶ほど、よりアクセスしやすいようにすることが可能である。これは、古い記憶ほど、リストの後方に置かれ、表現を経験する可能性が低いという意味でもある。
このように、必要に応じて、シナプス結合の強度を表す重みを用いることなく、リストの順序を用いて、起動ニューロンの後続ニューロンの相対シナプス強度または活性化レベルを表すことが可能である。
任意のニューロンによって表される記憶は、単純に、起動ニューロンへのポインタによって表されるニューロンを表現して関連付けニューロンへのポインタによって表されるニューロンを表現することによって表現されることが可能である。起動ニューロンへのポインタがゼロの場合は、要素ニューロンの要素値を表現することが可能である。ゼロでない場合は、起動ニューロンへのポインタについて処理を繰り返すことが可能である。すなわち、要素ニューロンの、起動ニューロンへのポインタ、要素ニューロンの、被関連付けニューロンへのポインタなどを表現することが可能である。このように、部分を順序よく表現することによって任意のニューロンを完全に表現することが可能である。
学習した知識を表すニューラルネットワーク構造を作成することが可能である。たとえば、以下のテキスト文を入力するとする。
LUCY^IS^CRYING^UNDER^THE^TABLE^.
JOHN^IS^PLAYING^IN^THE^PARK^.
PETER^IS^READING^IN^THE^CHAIR^.
MARY^IS^SLEEPING^UNDER^THE^TREE^.
JOHN^IS^RUNNING^IN^THE^RACE^.
PETER^IS^PLAYING^ON^THE^SWING^.
MARY^IS^TALKING^ON^THE^PHONE^.
以下の句または記憶を表すニューロンを作成することが可能である。
IS CRYING
IS RUNNING
IS READING
IS SLEEPING
IS PLAYING
IS TALKING
このケースでは、「IS^」は、後続ニューロンを6個有する。
同様に、以下の句または記憶を作成することが可能である。
UNDER THE TABLE
UNDER THE TREE
IN THE PARK
IN THE CHAIR
IN THE RACE
ON THE SWING
ON THE PHONE
したがって、LUCYはIS CRYINGに関連付けられるが、ISは、異なる6個の動作に関連付けられる。ISの代替後続ニューロンの表現を変更することによって、以下のように、最大6個の異なる句/節を表現することが可能である。
LUCY IS CRYING
LUCY IS RUNNING
LUCY IS READING
LUCY IS SLEEPING
LUCY IS PLAYING
LUCY IS TALKING
1つ目の句だけが学習されているが(ニューラルネットワークに入力されているが)、JOHN、PETER、MARYなどについても同じことを行うことが可能である。
実際には、構造「** IS」および「IS **」に基づいて新しい表現を生成することが可能である。すなわち、以下のとおりである。
LUCY IS IS CRYING
JOHN IS IS RUNNING
MARY IS IS READING
LUCY IS IS SLEEPING
PETER IS IS PLAYING
IS TALKING
したがって、すべてが構文として正しく、意味論的にも正しい30(5×6)個の句/節を作成または表現することが可能である。以下も同様である。
ON THE THE TABLE
IN THE THE PARK
UNDER THE THE CHAIR
THE TREE
THE RACE
THE SWING
THE PHONE
これらは、すべてが構文としては正しいが、意味論的にはすべてが正しいとは言えない性質の21(3×7)個の句/節を生成する可能性を与える。
これら2つのセットを結合すると、次の構造になる。
{*} IS {*} (*) THE {*}.
これにより、わずか7個の入力文の学習で、{5}IS{6}*{3}THE{7}の表現、すなわち、5×6×3×7=630個の可能な表現が与えられる。したがって、このニューラルモデルによって、記憶のニューラル構造の学習および構築が可能になり、さらに、それらのニューロンまたは記憶を、ユーザが定義したプロセスに従って結合して、新しい表現または動作を作成することが可能になる。脳は、以前に学習したことを用いて、構文として可能な新しい概念または提案を探求することが可能である。何百万個ものニューロンがあれば、何十億もの、構文として正しい文を表現することが可能である。つまり、ニューラルネットワーク構造は、創造的な表現のための理想的な方法を与える。
前述のニューラルネットワークを用いることによって、以下に述べるようなシステムが可能である。
・学習が可能である。
・表現機能がある。
・データではなく関連付けを格納する。
・コンピュータのメモリおよびストレージの空間を効率よく使用する。
・計算効率がよい。
したがって、ニューラルネットワークは、関連付けのパターンの中のパターンを認識することが可能である。そうしたことから、ニューラルネットワークは、たとえば、株価動向の監視および予測、インターネットの監視、セキュリティ、コンピュータウィルスの検出、音声およびテキスト内の句の認識、音声およびテキスト内の節の認識、盗用の検出、データ圧縮など、様々な産業で役立ちうる。
前述の、ニューラルネットワークの構造およびプロセスは、ソフトウェアまたはハードウェアの形で実装されることが可能である。ハードウェアで実装する場合は、チップの一部、専用チップの全部、またはチップの配列として実装することが可能であり、そのすべてが要素ニューロンおよび/または構造ニューロンである。要素ニューロンおよび構造ニューロンは、チップの一部であるか、専用ニューロンのメモリ配列にあることが可能である。すべてのニューロンが存在しているので、データの1つ目のパス上で、1つ目の要素ニューロンがデータの1つ目の要素を学習する。たとえば、図7の例の大文字Tである。その次の要素ニューロンは、その次の、データの要素を学習する。図7の例をまた用いると、小文字の「h」である。以降も同様である。要素ニューロンと、ニューラルネットワークのより低いレベルにあるニューロンとは、より深いレベルで関連付けを作成するためにより頻繁に活性化するので、最大性能を得るためには、より高いプロセッサ速度が必要になりうる。深いレベルにあるニューロンほど、活性化する頻度が低く、したがって、より低いプロセッサ速度で記憶装置に格納されることが可能である。
したがって、感覚ニューロン、運動ニューロン、およびシナプス結合を含む、ニューロンの概念に基づいて、ニューラルネットワークが提供される。脳内の各ニューロンは、配列内またはメモリ内の単一ノードによって、単純な様式で表されることが可能である。ニューロンは、配列内またはメモリ内の固定長ノードである。各シナプス結合は、各ノード内で、他のニューロンへのポインタによって表されることが可能である。配列内のニューラルノードは、データ配列内の他のニューロンへのポインタだけで排他的に構成されることが可能である。ただし、運動ニューロンまたは感覚ニューロンは、外部環境と対話するための感覚値または運動値を含む。各ニューロンは、他のニューロンとの結合を含む。ニューロンは、処理を支援すること、関連付けを作成するルールにおいて用いられること、および表現のために、必要に応じて、たとえば、学習中の活性化の頻度、後続ニューロンの数、先行ニューロンの数など、他の情報も保持することが可能である。
感覚ニューロンまたは運動ニューロンに対応する要素ニューロンは、外部入力装置や外部出力装置とのインターフェースおよび対話のために定義されることが可能である。
ニューラルネットワークは、ニューラル構造の作成およびニューラル結合の横断についての適切なルールにより、ニューロンおよびシナプス結合に基づいて、表され、構築されることが可能である。ニューラルネットワークは、ニューロン間に関連付けを作成することによって学習する。どのニューロンについても、その表現が再現および表現されることが可能であり、他のニューロンとの、複数の関連付けの探求と、その関連付けの順列とが、再現または表現されることが可能である。ニューロンは記憶を表すことが可能であり、記憶は、ニューロンの表現として定義される。
外部感覚ニューロンイベントの経験と接したり、それを学習したり処理したりすることと、入力された経験の記憶を作成することとは、ニューロンによって、およびニューロン間の新しい結合によって表される。
外部運動ニューロンイベントのアクティビティと接したり、それを学習したり表したりすることと、出力されたアクションの記憶を作成することとは、新しいニューロンによって、およびニューロン間の新しい結合によって表される。
ニューラルネットワークは、学習することが可能であり、記憶を表現または再現することが可能であり、外部環境と対話したり外部環境に対して自身を表現したりすることが可能であり、考えること(前述のように、代替ニューロン関連付けを探求することとして定義されるプロセス)と自身を創造的に表現することとが可能である。
本発明はさらに、先述の方法を実施するために1つまたは複数の機能を1つまたは複数のプロセッサに実行させるようにカスタマイズされたコンピュータプログラムコードまたは専用に構築されたデジタルプロセッサチップを含む、コンピュータで使用可能な媒体にまで拡張される。
ここまで、本発明の好ましい実施形態について説明してきたが、当業者であれば、本発明から逸脱することなく、設計、構造、または動作の細部において様々な変形や修正が可能である。

Claims (10)

  1. 複数の要素ニューロンと、任意のペアのニューロン間の関連付けを表す複数の構造ニューロンとを含むニューラルネットワークであって、前記ニューロンのペアが、両方とも要素ニューロン、両方とも構造ニューロン、1つが構造ニューロンで1つが要素ニューロン、および1つが要素ニューロンで1つが構造ニューロンのペアからなる群から選択され、複数のニューロンそれぞれが、メモリを有するプロセッサであると共に配列をなし、すべての要素ニューロンが、それぞれの要素値を格納して出力することによってそれぞれの要素値を表現することが可能であり、すべての構造ニューロンが、ニューロンのペアを示す情報を格納して出力することによって関連付けられるニューロンのペアを表現することが可能であるニューラルネットワーク。
  2. 前記複数の要素ニューロンが前記ニューラルネットワークのルートレベルにおいて表され、各要素ニューロンが、要素刺激と、定義済みパターンと、定義済みデータ要素とのうちの少なくとも1つを表し、各要素刺激が、基本入力刺激と、処理中の情報の出力刺激とのうちの少なくとも1つを表すためのものである、請求項1に記載のニューラルネットワーク。
  3. 各要素ニューロンが、感覚ニューロンと運動ニューロンとからなる群から選択される、請求項1または2に記載のニューラルネットワーク。
  4. 前記処理中の情報が記憶を表す、請求項2に記載のニューラルネットワーク。
  5. 前記処理が、学習と表現とのうちの少なくとも1つである、請求項2〜4のいずれか一項に記載のニューラルネットワーク。
  6. 前記複数のニューロン関連付けが、複数の、関連付けられるニューロンのニューラルレベルよりもより深いニューラルレベルにおいて表される、請求項1〜5のいずれか一項に記載のニューラルネットワーク。
  7. 前記複数の、より深いレベルのレベル数が、処理または表現される記憶またはパターンの範囲によって決まり、記憶が複数の要素ニューロンを表す、請求項6に記載のニューラルネットワーク。
  8. 前記記憶を表すために必要な要素ニューロンおよび構造ニューロンの数が、処理される前記記憶の性質によって決まる、請求項7に記載のニューラルネットワーク。
  9. 前記複数の構造ニューロンのうちの任意の1つの構造ニューロンと、前記複数のニューロンのうちの別の構造ニューロンとが、前記複数の構造ニューロンのうちのさらに別の構造ニューロンとの活性結合を介して関連付けられることが可能である、請求項1〜8のいずれか一項に記載のニューラルネットワーク。
  10. 前記さらに別の構造ニューロンが、前記構造ニューロンと前記別の構造ニューロンとの両方より深いレベルにある、請求項9に記載のニューラルネットワーク。
JP2011067438A 2003-06-26 2011-03-25 学習および表現の機能を有するニューラルネットワーク Active JP5430597B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
MYPI20032400A MY138544A (en) 2003-06-26 2003-06-26 Neural networks with learning and expression capability
MYPI20032400 2003-06-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006516581A Division JP4943146B2 (ja) 2003-06-26 2004-06-21 学習および表現の機能を有するニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2011150721A JP2011150721A (ja) 2011-08-04
JP5430597B2 true JP5430597B2 (ja) 2014-03-05

Family

ID=33536493

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2006516581A Expired - Fee Related JP4943146B2 (ja) 2003-06-26 2004-06-21 学習および表現の機能を有するニューラルネットワーク
JP2009253296A Active JP5165664B2 (ja) 2003-06-26 2009-11-04 学習および表現の機能を有するニューラルネットワーク
JP2011067438A Active JP5430597B2 (ja) 2003-06-26 2011-03-25 学習および表現の機能を有するニューラルネットワーク

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2006516581A Expired - Fee Related JP4943146B2 (ja) 2003-06-26 2004-06-21 学習および表現の機能を有するニューラルネットワーク
JP2009253296A Active JP5165664B2 (ja) 2003-06-26 2009-11-04 学習および表現の機能を有するニューラルネットワーク

Country Status (9)

Country Link
US (2) US7412426B2 (ja)
EP (6) EP2472445B1 (ja)
JP (3) JP4943146B2 (ja)
CN (2) CN101470813B (ja)
AU (2) AU2004250403C1 (ja)
IL (2) IL172201A (ja)
MY (1) MY138544A (ja)
SG (1) SG153700A1 (ja)
WO (1) WO2004114145A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
MY138544A (en) * 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US7475072B1 (en) 2005-09-26 2009-01-06 Quintura, Inc. Context-based search visualization and context management using neural networks
US7620607B1 (en) 2005-09-26 2009-11-17 Quintura Inc. System and method for using a bidirectional neural network to identify sentences for use as document annotations
US7437370B1 (en) * 2007-02-19 2008-10-14 Quintura, Inc. Search engine graphical interface using maps and images
US8112372B2 (en) * 2007-11-20 2012-02-07 Christopher D. Fiorello Prediction by single neurons and networks
US8725667B2 (en) * 2008-03-08 2014-05-13 Tokyo Electron Limited Method and system for detection of tool performance degradation and mismatch
US8190543B2 (en) 2008-03-08 2012-05-29 Tokyo Electron Limited Autonomous biologically based learning tool
US8396582B2 (en) 2008-03-08 2013-03-12 Tokyo Electron Limited Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool
US8180754B1 (en) * 2008-04-01 2012-05-15 Dranias Development Llc Semantic neural network for aggregating query searches
US8219539B2 (en) * 2009-04-07 2012-07-10 Microsoft Corporation Search queries with shifting intent
JP5844286B2 (ja) 2010-02-05 2016-01-13 エコール・ポリテクニーク・フェデラル・ドゥ・ローザンヌ (ウ・ペ・エフ・エル)Ecole Polytechnique Federalede Lausanne (Epfl) ニューラルネットワークの組織化
US9189745B2 (en) 2010-03-15 2015-11-17 Numenta, Inc. Temporal memory using sparse distributed representation
US11651277B2 (en) 2010-03-15 2023-05-16 Numenta, Inc. Sparse distributed representation for networked processing in predictive system
US8676734B2 (en) * 2010-07-07 2014-03-18 Qualcomm, Incorporated Methods and systems for replaceable synaptic weight storage in neuro-processors
US20130346150A1 (en) * 2012-06-21 2013-12-26 Data Ventures, Inc. System, method, and computer program product for forecasting sales
CN104541306B (zh) * 2013-08-02 2019-10-25 索美智能有限公司 神经行为动画系统
US20150206050A1 (en) * 2014-01-23 2015-07-23 Qualcomm Incorporated Configuring neural network for low spiking rate
US9484022B2 (en) * 2014-05-23 2016-11-01 Google Inc. Training multiple neural networks with different accuracy
KR102445468B1 (ko) 2014-09-26 2022-09-19 삼성전자주식회사 부스트 풀링 뉴럴 네트워크 기반의 데이터 분류 장치 및 그 데이터 분류 장치를 위한 뉴럴 네트워크 학습 방법
CN105894086A (zh) * 2014-12-23 2016-08-24 中国传媒大学 一种大规模大脑模拟中神经元链接的表示方法
CN106485319B (zh) * 2015-10-08 2019-02-12 上海兆芯集成电路有限公司 具有神经处理单元可动态配置以执行多种数据尺寸的神经网络单元
CN106372721B (zh) * 2016-08-29 2018-08-21 中国传媒大学 大规模神经网络的3d可视化方法
US11615285B2 (en) * 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
CN108009636B (zh) * 2017-11-16 2021-12-07 华南师范大学 深度学习神经网络进化方法、装置、介质和计算机设备
US11468024B2 (en) * 2018-03-27 2022-10-11 Sap Se Structural data matching using neural network encoders
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
RU2699396C1 (ru) * 2018-11-19 2019-09-05 Общество С Ограниченной Ответственностью "Инвек" Нейронная сеть для интерпретирования предложений на естественном языке
US11551093B2 (en) * 2019-01-22 2023-01-10 Adobe Inc. Resource-aware training for neural networks
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11681922B2 (en) 2019-11-26 2023-06-20 Numenta, Inc. Performing inference and training using sparse neural network
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US11816553B2 (en) 2019-12-11 2023-11-14 Inait Sa Output from a recurrent neural network
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11568267B2 (en) 2020-03-12 2023-01-31 International Business Machines Corporation Inducing creativity in an artificial neural network
CN117688969A (zh) * 2022-09-02 2024-03-12 深圳忆海原识科技有限公司 端口模型对象组织方法、系统、平台、智能装置及介质

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634236B2 (ja) 1985-11-02 1994-05-02 日本放送協会 階層型情報処理方法
CA1294119C (en) 1985-11-04 1992-01-14 The Procter & Gamble Company Absorbent article having an expanding overwrap
DE3853488T2 (de) 1987-01-20 1995-11-09 At & T Corp Assoziatives Rechnernetzwerk.
US5093899A (en) 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
JP2703010B2 (ja) * 1988-12-23 1998-01-26 株式会社日立製作所 ニユーラルネツト信号処理プロセツサ
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
GB8929146D0 (en) 1989-12-22 1990-02-28 British Telecomm Neural networks
JPH03288258A (ja) 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
JPH03288285A (ja) 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
DE69120854T2 (de) 1990-04-24 1996-11-21 Yozan Inc Lernverfahren fÜr Datenverarbeitungssystem
KR950001601B1 (ko) * 1990-07-09 1995-02-27 니폰 덴신 덴와 가부시끼가시야 뉴-럴 네트워크 회로
US5182794A (en) * 1990-07-12 1993-01-26 Allen-Bradley Company, Inc. Recurrent neural networks teaching system
US5065040A (en) * 1990-08-03 1991-11-12 Motorola Inc. Reverse flow neuron
US5671335A (en) * 1991-05-23 1997-09-23 Allen-Bradley Company, Inc. Process optimization using a neural network
JPH07120348B2 (ja) * 1991-12-16 1995-12-20 株式会社ジーデイーエス 空間情報の再配置装置
JPH05274288A (ja) * 1992-03-26 1993-10-22 Sony Corp 学習機能を有する外部信号処理装置
US5438629A (en) 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
DE69328596T2 (de) 1992-08-11 2001-01-04 Hitachi Europ Ltd Optimierung eines Neuralnetzwerks mit Vorwärtskopplung
JP2737583B2 (ja) 1992-11-26 1998-04-08 松下電器産業株式会社 ニューラルネットワーク回路
GB9226192D0 (en) * 1992-12-16 1993-02-10 Univ London Neural network architecture
DE69314293T2 (de) 1992-12-16 1998-04-02 Koninkl Philips Electronics Nv Neuronalanlage und -Bauverfahren
DE4307026C2 (de) * 1993-03-05 1995-08-03 Siemens Ag Speicherorientiertes neuronales Netz
DE4307027C2 (de) * 1993-03-05 1995-07-20 Siemens Ag Speicherorientiertes neuronales Netz
US5446829A (en) * 1993-06-24 1995-08-29 The United States Of America As Represented By The Department Of Health And Human Services Artificial network for temporal sequence processing
JPH07129535A (ja) * 1993-11-08 1995-05-19 Mitsubishi Electric Corp 学習制御方法
US5712953A (en) 1995-06-28 1998-01-27 Electronic Data Systems Corporation System and method for classification of audio or audio/video signals based on musical content
US5845271A (en) * 1996-01-26 1998-12-01 Thaler; Stephen L. Non-algorithmically implemented artificial neural networks and components thereof
EP0892956A4 (en) * 1996-02-09 2002-07-24 Sarnoff Corp METHOD AND APPARATUS FOR FORMING A NEURONAL NETWORK FOR THE DETECTION AND CLASSIFICATION OF OBJECTS WITH UNCERTAINED TRAINING DATA
JPH09231189A (ja) * 1996-02-26 1997-09-05 Fuji Xerox Co Ltd 連想記憶装置および連想記憶方法
US6324532B1 (en) 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
US6052679A (en) * 1997-09-11 2000-04-18 International Business Machines Corporation Artificial neural networks including Boolean-complete compartments
US6195622B1 (en) 1998-01-15 2001-02-27 Microsoft Corporation Methods and apparatus for building attribute transition probability models for use in pre-fetching resources
US6826556B1 (en) * 1998-10-02 2004-11-30 Ncr Corporation Techniques for deploying analytic models in a parallel
US6442286B1 (en) * 1998-12-22 2002-08-27 Stmicroelectronics, Inc. High security flash memory and method
US6456993B1 (en) 1999-02-09 2002-09-24 At&T Corp. Alternating tree-based classifiers and methods for learning them
EP1073012A1 (en) * 1999-07-30 2001-01-31 Eidgenössische Technische Hochschule Zürich A method and circuit for neuron-like processing of data
US6751343B1 (en) 1999-09-20 2004-06-15 Ut-Battelle, Llc Method for indexing and retrieving manufacturing-specific digital imagery based on image content
US6468069B2 (en) 1999-10-25 2002-10-22 Jerome H. Lemelson Automatically optimized combustion control
US6581049B1 (en) * 1999-11-08 2003-06-17 Saffron Technology, Inc. Artificial neurons including power series of weights and counts that represent prior and next association
MXPA02009001A (es) * 2000-03-16 2004-10-15 Yuan Yan Chen Aparato y metodo para analisis confuso de evidencia.
NZ503882A (en) 2000-04-10 2002-11-26 Univ Otago Artificial intelligence system comprising a neural network with an adaptive component arranged to aggregate rule nodes
US7080053B2 (en) 2000-08-16 2006-07-18 Research Foundation Of State University Of New York Neural network device for evolving appropriate connections
ES2169009B1 (es) 2000-12-14 2003-11-01 Alma Bioinformatics S L Algoritmo auto-organizativo de datos de expresion genica
US6801655B2 (en) * 2001-05-10 2004-10-05 The United States Of America As Represented By The Secretary Of The Navy Spatial image processor
US7095875B2 (en) * 2001-05-15 2006-08-22 Lockheed Martin Corporation Method and system for address result arbitration
JP2004538582A (ja) * 2001-08-10 2004-12-24 サフロン・テクノロジー,インコーポレイテッド 最大射影を規定する重みを含む人工ニューロン
CN100390774C (zh) * 2001-11-16 2008-05-28 陈垣洋 带有监督和非监督簇分析的似真神经网络
DE10201018B4 (de) * 2002-01-11 2004-08-05 Eads Deutschland Gmbh Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
US7364846B2 (en) * 2002-10-11 2008-04-29 Molecular Devices Corporation Gene expression profiling from FFPE samples
MY138544A (en) * 2003-06-26 2009-06-30 Neuramatix Sdn Bhd Neural networks with learning and expression capability
JP3987013B2 (ja) 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US20060184462A1 (en) 2004-12-10 2006-08-17 Hawkins Jeffrey C Methods, architecture, and apparatus for implementing machine intelligence and hierarchical memory systems
US7454435B2 (en) * 2005-05-03 2008-11-18 Microsoft Corporation Systems and methods for granular changes within a data storage system
US7739208B2 (en) 2005-06-06 2010-06-15 Numenta, Inc. Trainable hierarchical memory system and method

Also Published As

Publication number Publication date
AU2009202547B2 (en) 2010-11-25
IL195610A0 (en) 2009-09-01
EP2472441A2 (en) 2012-07-04
JP2011150721A (ja) 2011-08-04
EP2472444A2 (en) 2012-07-04
JP5165664B2 (ja) 2013-03-21
AU2004250403B2 (en) 2009-08-13
US20090119236A1 (en) 2009-05-07
EP1639494A4 (en) 2009-05-06
EP2472445A2 (en) 2012-07-04
EP2472441A3 (en) 2013-02-27
AU2004250403C1 (en) 2010-01-14
AU2004250403A1 (en) 2004-12-29
AU2009202547A1 (en) 2009-07-16
IL172201A (en) 2011-02-28
WO2004114145A1 (en) 2004-12-29
EP2472442A2 (en) 2012-07-04
CN101470813B (zh) 2011-11-16
CN1826594A (zh) 2006-08-30
SG153700A1 (en) 2009-07-29
EP2472444B1 (en) 2017-11-22
IL172201A0 (en) 2006-04-10
EP2472445A3 (en) 2013-03-06
US7778946B2 (en) 2010-08-17
JP2010092491A (ja) 2010-04-22
EP2472442B1 (en) 2017-11-29
MY138544A (en) 2009-06-30
EP2472443A2 (en) 2012-07-04
EP2472443A3 (en) 2013-03-06
EP2472445B1 (en) 2017-08-16
IL195610A (en) 2011-11-30
US7412426B2 (en) 2008-08-12
EP2472442A3 (en) 2013-02-27
EP1639494B1 (en) 2017-09-27
CN100576197C (zh) 2009-12-30
JP2007520780A (ja) 2007-07-26
EP2472441B1 (en) 2017-08-16
EP1639494A1 (en) 2006-03-29
US20060149692A1 (en) 2006-07-06
CN101470813A (zh) 2009-07-01
EP2472444A3 (en) 2013-02-27
JP4943146B2 (ja) 2012-05-30

Similar Documents

Publication Publication Date Title
JP5430597B2 (ja) 学習および表現の機能を有するニューラルネットワーク
Tienson Introduction to connectionism
CN110413755A (zh) 一种问答库的扩充方法、装置及服务器、存储介质
Singh et al. Artificial intelligence, cognitive robotics and nature of consciousness
Flusberg et al. Connectionism and the emergence of mind
Oudeyer The self-organization of combinatoriality and phonotactics in vocalization systems
Gong et al. Computational modeling on language emergence: A coevolution model of lexicon, syntax and social structure
Bouissac Syntactic iconicity and connectionist models of language and cognition
Yanagawa From Bacteria, a Consideration of the Evolution of Neural Network
Lisovskaya et al. Processing of Neural System Information with the Use of Artificial Spiking Neural Networks
Abidi Neural networks and child language development: a simulation using a modular neural network architecture
Routh Cortical thought theory: a working model of the human Gestalt mechanism
Hawkins An Investigation of Adaptive Behavior Towards a Theory of Neocortical Function
Dorffner A sub-symbolic connectionist model of basic language functions
Donaldson Predictive learning and cognitive momentum: a foundation for intelligent, autonomous systems
Veale et al. Semantic memory in a computer: A synthetic model proposal
Molnar The Replicator Theory of Knowledge: A Restatement and Extension
Cubitt ACKNOWLED (, EMEN Supernatural futures Theses on digital aesthetics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130604

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5430597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250