JP5256215B2 - 情報を選択するための方法 - Google Patents

情報を選択するための方法 Download PDF

Info

Publication number
JP5256215B2
JP5256215B2 JP2009550734A JP2009550734A JP5256215B2 JP 5256215 B2 JP5256215 B2 JP 5256215B2 JP 2009550734 A JP2009550734 A JP 2009550734A JP 2009550734 A JP2009550734 A JP 2009550734A JP 5256215 B2 JP5256215 B2 JP 5256215B2
Authority
JP
Japan
Prior art keywords
information
feature
input
context
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009550734A
Other languages
English (en)
Other versions
JP2010519642A (ja
Inventor
ハッリ・ヴァルポラ
アンッティ・イリ−クレコラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrobotics Oy
Original Assignee
Zenrobotics Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrobotics Oy filed Critical Zenrobotics Oy
Publication of JP2010519642A publication Critical patent/JP2010519642A/ja
Application granted granted Critical
Publication of JP5256215B2 publication Critical patent/JP5256215B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Description

本発明の目的は、例えば制御、パターン認識、または予測のために適した方法であって、情報の集積化および選択ならびにその表現の学習に使用される方法である。
コンピュータビジョンや自律ロボットの制御などといった多数の用途において、入力信号または観察データ中の情報を取り扱う必要があり、この目的のために、いくつかの異なる種類の方法が開発されている。
例えば、そのようないくつかの方法が、機械学習および統計分析において提示されており、情報の表現を学習するために使用することができ、換言すると、情報の表現を定めるパラメータの適応が、観察データにもとづいて行われる。適応の目的は、多くの場合、例えばパターン認識、制御、または相応の活動に使用することができる有用な特徴を観察から見つけることにある。例えば、独立成分分析が、観察データから入力信号を記述する特徴を発見するために使用される。これらの方法の多くにおいては、情報処理ユニットが、入力ベクトルにもとづいて、入力ベクトルの特性を記述する特徴ベクトルを形成することが一般的であり、特徴ベクトルの構成要素の意味、すなわち特徴が、適応の結果として変化する。カルマン(Kalman)フィルタの状態ベクトルを、特徴ベクトルと考えることができるため、状態ベクトルが、入力ベクトル内の情報を記述する。
これら上述の方法の多くは、確率が確信の程度を記述し、ベイズ規則が異なるソースからの情報をどのように集積化するかを指定するベイズ統計に照らして解釈することが可能である。例えば、状態ベクトルの値がカルマンフィルタの場合において計算されるとき、観察信号から得られる情報および状態ベクトルの以前の値が組み合わせられる。ベイズ統計に関しては、以前の状態ベクトルを使用することによって計算される事前分布および観察信号にもとづいて計算される尤度が、種々の状態ベクトル値の確率を記述する状態ベクトルの事後分布へと組み合わせられる。事後分布は、カルマンフィルタの場合には、ガウス分布に従い、事後平均および共分散によって表わされる。他のいくつかの方法では、事後不確実性がまったく表現されないが、それでもなお、これらの方法を、ベイズ法の近似と解釈することができる。
これらの方法において、特徴ベクトルの値が観察信号を記述するが、情報が先行の情報から集積化もされていることに、注目する価値がある。
パターン認識は、パターンを認識するモデルまたはシステムを生成することを目的とする情報にもとづく機械学習の一部である。パターン認識は、例えば情報技術およびロボット工学に適用されるが、医療技術および人間−コンピュータの相互作用の研究にも適用される。パターン認識システムは、測定、前処理、特徴抽出、および分類という4つの工程を有するプロセスとして定義される。
第1の工程において、必要とされるデータが、主として物理的変数の測定および得られたアナロジカルデータのデジタル形式への変換によって取得される。第2の工程において、データが、多くの場合、フィルタ処理や主成分分析などといったさまざまな種類のデジタル信号処理方法を使用して前処理される。第3の工程において、前処理済みの測定データが、特徴空間へと写像される。この工程において、データが情報へと変換されると見ることができる。第4の工程において、特徴空間へと写像されたサンプルが、分類器を使用することによって2つ以上のカテゴリへと分類される。
手書き文字の認識など、難しいパターン認識のタスクにおいては、特徴ベクトルの処理が階層的に組織化され、多くの場合、複数の処理ユニットが各レベルに存在し、それらが階層の下位のレベルのユニットの一部から入力として特徴ベクトルを得るようなやり方で、階層的に組織化される。そのようなシステムにおいては、処理ユニットが、コンテクストとして、上位のユニットから特徴を得ることができ、おそらくは同じレベルのユニットからも特徴を得ることができる。階層を使用する利点は、接続の数を少なく保ったままで、大量の入力信号からの情報をなんとか集積化できる点にある。そのような階層モデルの古典的な例が、FukushimaによるNeocognitron(Fukushima、1980)である。
多数の用途において、観察データが、使用されている処理ユニットが表現できるよりも多くの統計的構造を含んでいる状況に直面する。そのような場合、タスクにとって有用な情報を選択する必要がある。モデルの適応を行って、タスクにとって有用な情報がモデルによって表現される特徴に記述されるようにすることが、しばしば必要になる。
いくつかの場合には、機械学習法である教師あり学習が、有用な特徴の制御された選択に適している。制御された学習は、統計における回帰に相当する。回帰の目標は、或る1つの入力ベクトルから、目標ベクトルと呼ばれる別のベクトルへの写像を発見することにある。入力ベクトルから目標ベクトルへの写像がいくつかの工程にて行われる場合、中間的結果を、とくにはモデルの構造が中間的結果の次元が入力および目標ベクトルの次元よりも小さいようなやり方で選択される場合に、特徴ベクトルと解釈することができる(Hecht−Nielsen、1993)。最も単純な事例では、2つの連続的な線形写像を使用することができ、結果は、正準相関分析と基本的に同じである。上述の教師あり学習法が使用される特徴ベクトルが、入力ベクトルに直接依存するが、教示の際には、特徴が目標ベクトルからの情報を可能な限り多く含むようなやり方で表現が修正されるため、入力ベクトルを、一次入力と解釈することができ、目標ベクトルを、コンテクストと解釈することができる。
これらの方法における問題は、多段階の写像の教師あり学習のために莫大な量の観察データが必要であり、多数の日常的問題の学習が、実用にならないほど遅くなり、あるいは適切な観察データがない場合に、不可能になる点にある。典型的には、この問題の解決が、例えば上述の独立成分分析など、いくつかの教師あり学習法を前処理として使用することによって、試みられている。そのような解決策における問題は、教師あり学習が、観察データを記述することだけを目的としており、タスクにとって有用な情報の選択を試みない点にある。提示された1つの解決策は、例えば時間変化しない特徴を発見することである。しかしながら、これは、多くの場合、潜在的に有用な特徴の組を充分な程度にまで制限することがなく、他方では、偶然に時間不変になることがない有用な情報が、失われる可能性がある。
基本的には、問題は、ベイズ統計的推測にもとづく方法(刊行物WO2006063291およびUS2007005531に記載の階層的一次記憶など)が、確信度および観察を強調する現象を表わすことができるが、有用な情報の選択が、本質的に、決定理論的問題である点にある。確信度に加え、決定理論のいわゆる効用(ユーティリティ)を考慮することが重要である。特徴の確率が、その特徴が観察中に存在するか否かという疑問に答えるが、既存の特徴が存在する場合に得られる効用も、考慮する必要がある。
統計的推測のみを使用する方法は、有用な情報を動的に選択しなければならない状況にとくに適していない。例えばロボットの手の把持の制御など、多くの日常的問題において、現在のタスクに関係する情報を選択できることが重要であり、センサ(カメラ、マイクロホン、など)によってもたらされるすべての情報に代えて、有用な情報(例えば、手の位置、対象物の場所および形状、ならびに手と物体との間に存在しうる障害物)のみが表現されるならば、制御の問題が大幅に容易になる。
人間および他の哺乳類の大脳皮質は、上述の種類の問題を解決することができる。大脳皮質は、感覚によってもたらされる莫大な量の情報を集積化し、タスクに不可欠な部分を選択し(選択的注意、動的選択)、その表現をさまざまな種類のタスクにとって有用な方向に修正する(学習、パラメータの修正)ことができる。したがって、この明細書に記載される方法に類似する多数の方法の開発が、人間および他の哺乳類の大脳皮質の機能に着想を得ている。
選択的注意は、いくつかの情報処理ユニットで構成されるシステムにおいて、各ユニットが、自身の表わす情報を他のユニットが当該ユニットにどの情報を伝達するかをコンテクストとして選択する場合に、生じることが示されている(例えば、UsherおよびNiebur、1996)。選択的注意は、ユニットが、自身の一次入力から、コンテクストに適合する情報を選択しようとする場合に生じる。さらに、注意の対象を変化させることが通常は有用であることから、同じ事物への注意の集中が長くなりすぎないようにする機構が必要とされる。この目的のために、多数の方法が存在している(例えば、Lankheet、2006)。
人間における選択的注意が、特徴間の学習関連付け(Kruschke、2001)ならびに表現の学習の指導において、中心的な役割を果たすことが知られている。しかしながら、以前のモデルにおいては、これがまったく実装されておらず、あるいは注意の対象が、何らかのやり方で前もって決定されている。WaltherおよびKoch(2006)は、後者の方法を使用している。彼らのモデルは、新たな種類の対象に適合することができず、注意および学習が、前もって設定されるいわゆるプロト対象についてのそのような基準を満たす対象についてしか、機能しない。
いわゆる主成分分析(PCA)の目的は、中心的特徴の多次元データを重要性を失うことなく表現することができる成分を発見することにある。主成分分析は、入力データの成分をそれらの固有値に応じて順序付ける。
主成分分析の後で、どれを重要性が低いとして破棄できるかを選択する必要がある。なぜならば、この方法は、いかなる成分も自動的には破棄せず、発見された成分を重要性の順序に設定するだけであるからである。主成分分析は、パターン認識および信号処理における最も中心的な方法の1つである。
DecoおよびRollsによる記事「A neurodynamical cortical model of visual attention and invariant object recognition」、Vision Research 44(2004)621−642に提示されている方法においては、動的選択が、コンテクストにもとづいて行われる。プレアクティベーションが、「一次入力」のみにもとづいて特徴について計算される。その後に、コンテクストから予測される特徴のプレアクティベーションが強められる。最後に、最強のアクティベーションが選択される。このようにして、コンテクストが、表現のためにどの特徴が選択されるかを左右する。しかしながら、Wallis、Rolls、およびFoeldiakによって提示されたパラメータの適応のために、別個の方法が使用されている。この方法においては、真のコンテクストは使用されない(G.Wallis、E.T.Rolls、およびP.Foeldiakの「Learning invariant responses to the natural transformations of objects」、International Joint Conference on Neural Networks、2:1087−1090、1993)。したがって、RollsおよびDecoの記事においては、最初にパラメータの適応が、或る1つの方法によって行われ、次いで得られたパラメータが、コンテクストから作成された予測にもとづく特徴情報の動的選択において使用されている。
正準相関分析は、パラメータの適応においてコンテクストを考慮するが、情報が動的に選択されるわけではない。
以下の刊行物が、上述のものに加えて、従来技術として提示される。
K.Fukushima、「Neocognitron:A self−organizing neural network model for a mechanism of pattern recognition unaffected by shift in position」、Biological Cybernetics、36:193−202、1980。 R.Hecht−Nielsen、「Replicator neural networks for universal optimal source coding」、Science、269:1860−1863、1995。 J.K.Kruschke、「Toward a unified model of attention in associative learning」、Journal of Mathematical Psychology 45:812−863、2001。 M.J.M.Lankheet、「Unraveling adaptation and mutual inhibition in perceptual rivalry」、Journal of Vision、6:304−310、2006。 M.UsherおよびE.Niebur、「Modeling the temporal dynamics of IT neurons in visual search:A mechanism for top−down selective attention」、Journal of cognitive neuroscience、8:311−327、1996。 G.Wallis、E.T.Rolls、およびP.Foeldiak、「Learning invariant responses to the natural transformations of objects」、International Joint Conference on Neural Networks、2:1087−1090、1993。Wallis、Rolls、およびFoeldiakは、パラメータの適応を行っているが、生成された特徴の時間不変性を適応のための基準として使用している。したがって、コンテクストはまったく使用されていない。 D.WaltherおよびC.Koch、「Modeling attention to salient proto−objects」、Neural Networks、19:1395−1407、2006。
特徴の学習およびそれらの動的選択は、別々のプロセスであるため、選択的注意によって得られた情報を、学習において使用することができない。
本出願の方法の目的は、特徴を定めるパラメータの適応を特徴情報の動的選択に組み合わせ、タスクにとって有用な特徴の学習および選択の両方を行うようにすることにある。
本発明の情報処理方法は、主として請求項1の特徴付け部分によって特徴付けられる。
本発明の方法においては、情報が処理ユニットにおいて選択される。得るべき最終結果は、タスクの実行に使用する最終的な特徴情報で構成される。この方法においては、処理ユニットの入力情報が、入力情報からタスクにとって有用な情報を発見するために処理される。入力情報は、一次入力とタスクを実行するための一般的情報を表わすコンテクストとで構成される。入力情報の特性を表わす特徴情報が、入力情報から形成される。特徴情報の値が、それらの効用にもとづいてさらに処理される。この方法は、最終結果についての仮の予測が、第1のパラメータによって入力情報の第1の組のコンテクストから形成されること、および入力情報の組の第1の一次入力が、第2のパラメータにもとづいて計算結果を形成することによって前処理されることを、主な特徴とする。上述の工程において得られた情報の効用が、得られた予測および計算結果を、有用な特徴が予測にもとづいて計算結果から選択されるようなやり方で組み合わせることによって評価され、すなわち特徴情報が、有用な特性を強め、他の特性を弱めることによって形成される。次いで、第2のパラメータが、一次入力データを前処理する工程において評価の工程において得られた特徴情報に対応する計算結果が初めからもたらされるように修正される。その後に、入力情報および一次入力の組の次のコンテクストおよび一次入力が、処理のために取り入れられ、上述の工程が、最終的な特徴情報を得るために、入力情報の組のそれぞれの構成員について繰り返される。
本発明の好ましい実施形態が、従属請求項に提示されている。
そのような1つの実施形態においては、第1のパラメータも、特徴情報に対応する計算結果を与えただろうと考えられるようなやり方で修正される。
以下では、特許請求の範囲および明細書におけるいくつかの用語を、特許請求の範囲の理解を容易にするために説明する。
本明細書において、一次入力は、特徴が主として記述する情報であり、コンテクストは、特徴ベクトルの形成を監督すべく他のやり方で使用される他の補助的情報で構成される。
本発明において、特徴情報は、主として数値またはスカラとして、すなわち大小の数字として、提示されると考えられる。アクティベーションという用語が、特徴の数値の同義語である。アクティベーション関数という用語が、ニューラルネットワークにおいて使用される。これは、特徴の値がどのように入力ベクトルおよびパラメータから計算されるかを示す。アクティベーションという用語の使用は、一般に、本明細書のとおり、ゼロレベルが、特徴によって記述される現象が入力ベクトル中に存在しないことを意味するデフォルト値であるという仮定を含む。ゼロでない値は、特徴によって記述される現象が入力ベクトル中に存在することを意味し、より強力またはより高確率であるほど、特徴の数値が大きくなる。特徴情報は、本発明において、効用にもとづいて選択される。情報の選択は、この方法が特徴の表示の効用が小さいと考える場合に、特徴の値をゼロレベルにより近く変えることによって実現される。
入力情報の組が、いくつかの入力情報(例えば、いくつかの連続するカメラ画像および感覚データ)で構成され、入力情報は、いくつかの数値で構成される。組の構成員は、組における1つの構成要素を意味する。
相関は、確率計算および統計において使用される用語である。これは、2つの変数の間の依存関係を記述する。より正確には、2つのランダム変数の線形依存性の数値指標である。2つの独立変数の間には相関が存在しない。2つのベクトルの間の相関は、相関行列であり、その要素が、ベクトルの要素間の相関を記述する。統計学において、相関ならびに平均値は、常に或るグループについて定められる。本明細書においては、相関が、入力情報の組またはそこから計算された結果について計算される。
非相関化は、ベクトルが、最終結果として得られるベクトルの要素の相互の相関が可能な限り少なくなるようなパラメータ行列によって乗算される計算工程である。非相関化に使用されるパラメータ行列は、後に処理されるベクトルにもはや相関が存在しないようなやり方で、観察される相関にもとづいて、新たなベクトルを処理する際に修正される。
平均アクティベーションレベルは、実際には、平均値と同じことである。本発明の詳細な説明においては、後で提示される実例において、適応プリプロセッサによって生成された未だ最終的な特徴ベクトル(特徴情報)ではないベクトルについて、プレアクティベーションという用語が使用される。
注意が学習を強調するという事実は、学習の対象を変更するだけでなく、学習そのものをより効率的にする。他の対象を注意によって破棄できる場合、残りの情報から対象物の特性を学習することができる。WalterおよびKochのモデルが、注意が本出願の方法の場合と同じやり方で適応的でないにせよ、同じ現象にもとづいている。彼らのモデルにおいては、前処理段階として機能するにすぎない。対象の選択は、対象そのものが学習される前は完璧に機能することはできないが、学習を、不完全な情報によってすでにバイアスすることができる。しかしながら、平均では、バイアスは正しい方向に進む。
学習が一緒に現れる対象によって妨げられるとき、学習および注意を組み合わせることが学習を加速させる。既存のシステムにおいては、教示の工程において使用される観察データの対象をあらかじめ選択するために、かなりの量の手作業が必要とされている。
本出願の方法は、この工程を自動化し、手作業の必要性を減らすだけでなく、この方法の自律的学習も可能にし、そのようにして、この方法を例えば自律ロボットにおいて使用できるようにする。主たる請求項の土台は、有用な情報の動的な選択およびパラメータの適応の両方においてコンテクストが考慮されることにある。これまでに、入力情報が2つの種類の入力、すなわち一次入力およびコンテクストで構成される方法が提示されているが、それらにおいては、コンテクストが効果的に利用されてはいない。
正準相関分析が、パラメータが適応されるときにコンテクストを考慮するが、コンテクストにもとづいて動的に特徴を選択するわけではない。さらに、Wallis、Rolls、およびFoeldiakが、パラメータを適応させているが、コンテクストはまったく使用されていない(G.Wallis、E.T.Rolls、およびP.Foeldiakの「Learning invariant responses to the natural transformations of objects」、International Joint Conference on Neural Networks、2:1087−1090、1993)。これまでに公知のいわゆる主成分分析が、単に一次入力の値を適応させる一方で、記事「A neurodynamical cortical model of visual attention and invariant object recognition」、Vision Research 44(2004)621−642においてDecoおよびRollsによって提示された方法においては、動的な選択が、実際にコンテクストにもとづいて実行されているが、この記事においては、パラメータの適応が或る1つの方法を使用することによって最初に行われ、得られたパラメータが、コンテクストから得られる予測にもとづいて特徴情報を動的に選択するために使用される方法が提示されている。最初に、特徴のプレアクティベーションが、一次入力にもとづいて計算される。次いで、コンテクストから予測された特徴のプレアクティベーションが強められる。最後に、最強のアクティベーションが選択される。このようにして、コンテクストが、どの特徴が表現のために選択されるかを左右するが、どの特徴がパラメータの適応のために選択されるかを左右することはない。
本発明の方法においては、コンテクストにもとづく動的な選択およびコンテクストにもとづくパラメータの適応の両方が実行される。
本発明の方法は、1つまたは複数の処理ユニットにおいて実行可能である。後者の場合には、処理ユニットが、それらの生み出す特徴情報をコンテクストとして互いに共有するように接続される。
処理ユニットは、協働または単独で働くことができ、互いに並列または階層的に接続することができる。ユニットが、それらの特徴ベクトルがコンテクストとして他のユニットへと仲介されるようなやり方で互いに接続され、それらユニットのそれぞれが、コンテクストにコヒーレントな情報を表わすことを目的としている場合、選択的注意に相当する動的な情報選択プロセスがシステムに出現する。コヒーレンスに加え、特徴の効用を、新規性値に従って評価することができる。ユニットの先の状態またはコンテクストから予測できない特徴は、予測できる特徴よりも価値がある。特徴の長く続くアクティベーションが、効用を減少させる場合、注意の対象が、たとえ入力が不変であっても変化する。
特定の種類の階層構造においては、コンテクスト情報の一部が、一次入力の予測において、この部分がいくつかのグループへの強制的な分割なしで完全に支配的であるように良好であってよい。パラメータが、特徴情報がコンテクストを予測できるようなやり方で適応させられるとき、特徴情報が、コンテクスト情報のこの部分のみの予測において良好であるようなやり方で選択される。しかしながら、一部のコンテクスト情報の予測がきわめて重要である状況がしばしば存在する。例えば、ロボットの場合には、モータの制御信号がそのような重要情報であるが、カメラ画像に見られる特徴の予測においては、まったく良好でない。コンテクスト情報をグループへと分割し、各グループを一次入力の情報を予測するように強いることによって、その内容が一次入力により近い情報だけでなく、コンテクスト情報の各グループを記述する情報を発見できることを保証できる。
とくには学習において、すなわちパラメータが修正されるときに、予測されなかった特徴の効用の評価を、この特徴の予測されなかったアクティベーション(ゼロ以外の数)がコンテクストの予測を助ける場合に、増加させることができる。
注意は、通常は最高の効用を有する情報に集中し、したがって、情報の表現が、不可欠な事物が強調されるような方向、またはそれらが長時間動作においてより良好な分解能を有するような方向に、適応させられる。
システム(5および6)の動作の進行の評価を、効用の評価の基礎となるコンテクストに含めることができる。処理ユニットが、効用によって制御される特徴ベクトルのアクティベーションについての決定を行うとき、アクティベーションを、何らかの制御システムの入力として間接的に使用できるだけでなく、例えば自律ロボットを制御するモータへと指令および制御信号を与えるために直接使用することも可能である。そのような構造は、そのアクティベーションが脊髄の運動ニューロンを直接制御する人間の大脳皮質に類似している。
以下では、これらの方法のいくつかの異なる実施形態の実施例、それらの挙動、および用途が提示される。これらの例は、本方法の理解を容易にするために提示されるが、本方法を実行するための必須のやり方というわけではない。以下の図が、これらの実施例の説明において助けとして使用される。
本発明の考え方を理論的に示している概略図である。 本発明の考え方を理論的に示している概略図である。 複数の処理ユニットが本発明の方法を実行するために使用されている実施形態を示している。 処理ユニットが階層的に接続された実施形態を示している。 コンテクストがシステムの外部から与えられる典型的な実施形態を示している。 コンテクストがシステムの内部でも与えられる典型的な用途を示している。 処理ユニットの典型的な実施形態を示している。 ベクトルのアクティベーションを演算に関して効率的なやり方でスパース化するアルゴリズムの流れの仕組みを示している。 情報の集積化および選択のシミュレーション結果を示している。 不変性の学習からのシミュレーション結果を示している。 選択の変化からのシミュレーション結果を示している。
本発明の方法においては、処理ユニットが、それを使用することによって例えばロボットの制御または疾病の診断などといった特定のタスクのために可能な限り最良の最終結果が得られるような情報を、既存の入力情報から選択するように教示される。効用が最大になっているとき、すなわち特定のタスクが可能な限り最良なやり方で実行されているとき、正しい情報が入力情報から選択されている。
本発明の基本的な考え方は、一次入力を記述する特徴のアクティベーション(数値)を計算するとき、およびパラメータを修正するときに、特徴が観察中に存在する確率を考慮するだけでなく、存在する特徴の表現の効用も考慮することにある。基本的な原理が、図1および2に示されている。この方法において使用される処理ユニットのそれぞれを、特徴の確率(1および3)ならびに効用(2および4)を評価すると解釈することができる。決定理論によれば、特徴の表現の効用は、それらを乗じることによって得られる。図1は、主たる請求項のステップcに相当し、図2が、主たる請求項のステップdに相当する。
すなわち、本発明の方法の基本的な考え方は、統計情報および効用の使用を説明している図1および2の理論的仕組みのとおり提示される。これらを、2つの決定プロセス、すなわち表現(アクティベーション)の選択およびパラメータの適応において、異なるやり方で使用することができる。
いくつかのユニットがこの方法において使用される場合、それら処理ユニットの相互接続のやり方が、本発明がどのように機能するかを左右する。それらが、図3のように互いにコンテクストを与え合うように設定される場合(請求項16)、それらは、本発明の方法を使用することによって、それらの一次入力の間の接続を効率的に発見する。
ユニットが図4に示されるように階層的に接続(請求項15および17)される方法においては、さらにユニットが、より上位のレベルにおいて、ネットワークの入力から抜粋特徴を発見することができる。さらに、処理ユニットが、それら自身へと過去の時点からのコンテクストを与えることができる。このやり方で、例えばゆっくりと変化する特徴など、処理ユニットの自身の特徴の例えばゆっくりした内部力学も発見することができる。
多数の処理ユニットを備えるシステムが使用される場合、以下の原理に従うことが好ましい。すなわち、階層的な処理ユニットが使用される場合には、階層においてより上位にある処理ユニットほど、より広い領域からの入力を受け取るようなアーキテクチャを使用することが好ましい。これにより、大域的特徴を、ネットワーク入力の小さな部分を記述するだけではない上位レベルへと進展させることができる。また、特徴を不変にするために、いくつかの処理ユニットにおいて次元の削減を使用することが好ましい。これは、情報の一部がフィルタ処理によって除かれるため、不変性を生じさせる。次元の削減は、別途の処理ユニットにおいて実行でき、あるいはこの次元の削減を他の処理に加えて含むことができる処理ユニットに或る種のプリプロセッサを備えることによって実行できる。
種々の有用な特徴の学習は、一次入力が処理ユニットへの供給前に白色化される場合に、より高速であり、容易にされる(請求項13)。ここで、白色化は、すべての要素の分散の非相関化および正規化を意味する。正規化および非相関化は、一次入力に適切な白色化行列を掛けることによって達成される。少なくともシステム全体のうちの最下位レベルの一次入力について、白色化を使用することが好ましい。
図7が、処理ユニットの典型的な実施形態を示している。ネットワークが機能しているとき、ネットワークのアクティベーションが、情報がネットワークのすべての部分から集積するための時間を有した状態へと実質的に収束したと見なすことができる時点で、図7に示した適応工程を実行することが好ましい。これは、ネットワークのすべての処理ユニットが、実際に何らかの順序で数回繰り返されたことを意味し、その後で、処理ユニットについて、結果としてのベクトルによって適応が行われる。更新する順序は、例えば処理ユニットが階層のレベルに従った順序で運転されるような順序であってよい。各レベル内では、無作為な順序が使用される。この種の適応は、異なる特徴の識別能力およびコンテクストに関する特徴の学習を向上させる。適応がそれぞれの更新の後で実行される場合、コンテクスト情報を集積させる充分な時間が存在しないと考えられ、全体的注意が、上手く現れるための充分な時間を有さないと考えられ、この理由で、異なる種類の特徴がアクティベーションにおいて混合される。図7の実施形態においては、特徴表現を選択するためのプロセスおよび特徴の適応のプロセスが、図1のように異なる効用モデルを使用する。換言すると、特徴が、全体的注意とコヒーレントである場合にのみ、適応の効用を有する。
代わりに、コヒーレンスを得る目的において、表現効用も別に存在する。さらに、確率モデルも別個であってよい。情報の瞬時の表現においては、現在および過去の情報のみを使用することができ、代わりに、パラメータの適応が行われるとき、たとえ適応がリアルタイムよりも少し遅れて行われてもそれほど致命的でないため、将来の情報も同様に使用することができる。
図7は、処理ユニットの考えられる一実施形態を示しており、この実施形態が、本明細書に記載される実施例において使用される。一部のモジュールを横切って描かれている破線の矢印は、この場合には常に特徴ベクトル(44)、すなわち特徴情報である矢印に含まれている情報によるこのモジュールへのパラメータの教示を意味している。この実施形態においては、特徴の確率および効用が、個々には明示的に取り扱われず、代わりに両者が、プレアクティベーション(15)および予測(16)の両者において混合される。一次入力(8)が、主たる請求項のステップa)に従って、適応プリプロセッサ(10)へと案内される。これは、最終的な特徴ベクトル(44)と同じ次元のベクトルであるプレアクティベーション(15)への写像である。本明細書に提示される実施例では、適応プリプロセッサ(10)が、線形写像Wx(請求項4)であり、Wが、重み行列と呼ばれるパラメータ行列であり、列ベクトルxが、一次入力(8)である。適応プリプロセッサ(10)のパラメータWが、重み行列Wの修正が積yx’に直接比例するように、最終的な特徴ベクトル(44)のヘビッシュ学習(Hebbish learning)を使用して、主たる請求項のステップd)において教示(適応、修正)され、ここで列ベクトルyは、特徴ベクトル(44)であり、x’は、ベクトルxの転置である。修正の後で常に、重み行列Wの行を単位ベクトルへと正規化することが好ましい。また、適応プリプロセッサ(10)において、センシテーション特性を使用することが好ましい。これは、プレアクティベーション(15)の各要素が、何らかのセンシテーションパラメータg_iによって乗算されることを意味し、その目的は、それぞれの特徴ベクトル(44)の平均を、一式の入力情報において一定にすることにある。表記g_iは、ベクトルgのi番目の要素を意味する。適応プリプロセッサ(10)が、このアクティベーションレベルを測定し、すべての平均アクティベーションレベルが同じレベルになるように、値g_iをゆっくりと増加または減少させる(請求項14)。これは、ネットワーク全体の情報表示能力を向上させる。すべての特徴が使用され、特徴ベクトルのすべての要素がほぼ常に不活発になる(ゼロに近づく)状況が、回避される。
予測器(11)が、コンテクスト(9)にもとづいて、主たる請求項のステップa)において予測(16)を計算する。予測器(11)のパラメータが、請求項2に述べられているように、予測器のコンテクストの入力(9)にもとづいて計算される予測(16)が前よりもプレアクティベーション(15)に近くなるようなやり方で、修正される。予測器は、ここ(請求項4)で使用されている線形予測器や、多層パーセプトロンなど、教師あり学習を使用する任意の種類の方法であってよい。
予測のアクティベーションとの組み合わせ(12)は、以下のやり方(主たる請求項のステップc))で実行される。第1に、プレアクティベーション(15)および予測(16)のすべての負の要素が、存在するのであれば、値ゼロへと設定される。その後に、予測ベクトルのすべての要素が、最大でも1であることが保証される。いくつかの値がより大きい場合には、予測ベクトルが、この数によって除算される。これにより、コンテクストを互いに与え合う2つの処理ユニットが、限界なくお互いのアクティベーションを強め合うことが防止される。
その後に、組み合わせ(47)が、式y_comb=y_pre×m(1+y_pred)によって得られ、y_combが、組み合わせ(47)であり、y_preが、プレアクティベーション(15)であり、mが、変調係数であって、例えばm=1であり、y_predが、予測(16)である。この式は、コンテクストによって与えられた予測(16)が、アクティベーションを生成できないが、プレアクティベーション(15)のアクティブ要素を強化できるようにする。
これにより、ネットワークによって提示される特徴、すなわち値がゼロでない特徴が、常に一次入力(8)に存在する。
特徴の非相関化(13)は、互いに相関しており、特定の瞬間において同時にアクティブであるようなアクティベーションを少なくすることを意味する(請求項5)。これは、2つの効果を有している。一方では、適応プリプロセッサ(10)がすべての要素が同じ特徴を記述するという状況に陥る危険を少なくする。他方では、非相関の特徴の選択はより容易であり、特徴が次の処理ユニットのレベルへと供給されたとき、そのようなレベルでの処理がより容易である。共通のアクティベーションが相関する特徴から引き算されるとき、その後は、どの特徴が実際に一次入力に存在するかを理解することがより容易である。非相関化は、本明細書で使用されるすべての実施形態において、式y=x−Axによって実行され、yは、非相関化されたアクティベーションベクトル(48)であり、xは、組み合わせ(47)であり、Aは、非相関化行列である。行列Aは、例えば最終的な特徴ベクトル(44)によって適応させられる。Aの対角線要素は、ベクトルの要素が自身を妨げることがないように、ゼロに保たれる。Aの残りの要素A_ijは、特徴ベクトル(44)の要素iの要素jへの推定された相関である。
請求項6のスパース化(14)が、特徴ベクトルの少数の要素のみがゼロ以外であるようなやり方で、アクティブな特徴を切り詰める。本明細書に提示される実施形態においては、スパース化が、図8のアルゴリズムによって実行される。特徴ベクトルy(列ベクトル)について、スパース化指標s=−SUM(y)/SQRT(N×y’y)が使用され、SUMは、ベクトルの要素の合計であり、SQRTは、平方根であり、Nは、ベクトルの要素の数であり、×は、乗算を意味している。このようにして、異なる長さのベクトルのスパース化指標が、比較可能になる。さらに、定数によるベクトルのすべての要素の拡大縮小(スケーリング)は、スパース化指標を変化させない。スパース化対象のベクトルが、スパース化指標が所定のしきい値を超える限りにおいて、繰り返し更新される。このしきい値は、ネットワークの定義段階において決定された定数である。本明細書に記載の実施形態において、この限界は、定義者が充分にスパースであると考えるベクトルを形成し、このベクトルについてスパース化指標を計算することによって達成される。要素のうちの5%が値1を有し、残りの要素が値0を有しているベクトルが、本明細書の実施形態において使用される。スパース化対象のベクトルxの更新ルールは、以下のとおりである。第1に、x<−x−a×MAX(x)が計算され、ここで<−は、代入演算を意味し、mは、間隔[0,1]内の何らかの定数であり、MAXは、ベクトルの最大値を返す。その後に、ゼロよりも小さいすべての値が、ゼロへと変換される。ベクトルが充分にスパースであるとき、それは、ゼロでない要素を含んでいるならば、MAX(元のベクトル)/MAX(新しいベクトル)という数によって乗算される。最後に、得られたベクトルが、特徴ベクトル(44)として設定される。
図7の場合には、効用が、暗黙のうちに評価される(請求項9および11)。効用は、この実施形態において、特徴情報の助けによってコンテクストを予測する能力が有用であるようなやり方で定められる。図7は、予測がコンテクストから作成される実例を示しており、この予測が、一次入力から計算されるプレアクティベーションに組み合わせられる。図7に示したステップ(11)〜(14)が、効用の評価に関係する。
試験結果
図9が、本発明の方法を使用することによる情報の集積化および選択のシミュレーション結果を示している。この特定の実施例においては、図7の実施形態の処理ユニットを2段階の階層にて含んでいるネットワークを使用した(請求項17)。第1の階層が、30の特徴の12の処理ユニットを有している。これらを、いかなる直接的なコンテクストの接続ももたない2つの領域へと分割した。これらの領域からの結果を、30の特徴の4つの処理ユニットを有している第2の階層への一次入力として供給した(請求項15)。第2の階層において、すべての処理ユニットが、他のすべてのユニットからコンテクストを取得し、さらに、下位の階層のすべての処理ユニットへとコンテクストを供給した(請求項16)。ネットワークを、入力が常に雑音のない入力ベクトルで構成されるよう、30の入力ベクトルで教示した。このようにして、それぞれの処理ユニットが自身の一式の入力情報を有し、その構成員(入力情報の要素)は、一次入力およびコンテクストで構成されている。第1の階層の処理ユニットへの一次入力は、前記30の入力ベクトルで構成され、第2の階層の処理ユニットへの一次入力は、第1の階層によって生成された特徴ベクトルで構成されている。すべての処理ユニットへのコンテクストは、第2の階層によって生成された特徴ベクトルで構成されている。
ネットワークの教示の前に、線形写像のパラメータが、無作為に初期化される。教示が進むにつれ、主たる請求項のステップa)〜e)が、入力情報の組の各要素について繰り返される。教示の最終結果は、ネットワークがコヒーレントな情報を選択できるようなやり方でパラメータが変化したことである。
教示の後で、所与の入力が2つの元の入力ベクトルの組み合わせである場合に、どのようにネットワークが機能するかを調べた。入力情報の組への新たな入力を追加し、それらにもとづき、新たな特徴情報の値を計算した。ここで、ネットワークの異なる領域に名前を付ける。ネットワークの第1の階層の2つの異なる領域が、Y11およびY12であり、第2の階層が、Y2である。元の入力ベクトルの中から2つの入力ベクトルを無作為に選択し、AおよびBと名付ける。供給すべき新たな入力ベクトルが、領域Y11に供給されようとするベクトルの部分が、ベクトル0.5×A+0.5×Bの対応する部分であるように、ネットワークにおいて形成される。
領域Y12へと供給されるベクトルの残りの半分は、ベクトルa×A+(1−a)×Bの対応する部分である。ここで、混合割合「a」は、値0から値1まで連続的に変えられる。この種の入力は、ネットワークがその入力についてすべてを表わさず、入力ベクトル内の或る対象のみを記述するようなやり方で特徴を選択するという結果をもたらす。「a」がゼロに近いとき、たとえ入力がAをBと同程度に含んでいても、主としてBのみが、領域Y11における表現として選択される。
これを、図9のグラフから見て取ることができる。これら3つの異なるグラフは、ネットワークの3つの異なる領域に対応している。すべての曲線は、特徴ベクトルまたは入力ベクトルについて、さまざまな混合割合「a」の値の対応するモデルベクトルとのスカラ積を示している。すべてのグラフにおいて、x座標は「a」を有し、y座標は、間隔[−1,1]へと正規化されたスカラ積の値を有している。参照番号17および18は、領域Y11の入力ベクトルの入力ベクトルAおよびBの対応する部分とのスカラ積である。これらは、混合関係がこの入力に影響を有さないため、一定である。同様に、参照番号21および22は、領域Y12の入力の入力ベクトルAおよびBの対応する部分とのスカラ積である。残りの曲線は、種々の領域からの特徴ベクトルのモデル特徴ベクトルとのスカラ積である。例えば、入力ベクトルAに対応するモデル特徴ベクトルは、入力ベクトルAをネットワークへの入力として、種々の領域において選択された特徴ベクトルを意味する。参照番号19および20は、領域Y11の特徴ベクトルのAおよびBに対応するモデルベクトルとのスカラ積である。参照番号23および24は、領域Y12の同様のスカラ積である。参照番号25および26は、領域Y2の同様のスカラ積である。
これらのグラフは、情報の集積化および情報の選択の両方のためのネットワークの能力を示している。領域Y12のグラフに目を向ける。混合割合「a」が増やされるとき、特徴ベクトルは、入力ベクトルよりも速く変化する。これらの曲線は、最初はかなり水平であるが、「a」が値0.5に近づくとき、急激に上昇する。これが、選択が生じるときである。Bがもはや表現されず、代わりに、Aの表現が始まる。処理ユニットが、非線形に機能する。この現象は、より上位の領域Y2を調べると、さらに強力である。これは、自身の一次入力を、或る程度の非線形選択がすでに行われているより下位の領域から受け取る。領域Y2は、この選択をさらにより強化し、これを、「a」の値が0.5の辺りにある時の曲線(25および26)のより鋭い上昇および下降として見て取ることができる。情報集積化特性を、領域Y11のグラフに見て取ることができる。この領域は、常に一定の一次入力を受け取っているが、領域Y2からのコンテクストが変化する。この結果として、他の領域など、異なるaの値において特徴の表現について異なる決定を行う。aの値が小さいと、領域Y11は、Bを表わすための決定を行い、値が大きいと、Aを表わす。
この実施例は、瞬間的なコヒーレンスを異なる種類の入力を処理するネットワーク部分の間で達成できることを示している。これを、全体的注意と名付けることもできる。例えば、図6の応用において、ロボットの視覚およびモータの処理を協働させることができる。ロボットが何らかの特定のモータ制御を実行するとき、ネットワークの視覚部分が、制御のために有用なビデオ画像からの特徴を正確に処理する。ネットワークの入力には、ネットワークによって提示される特徴ベクトルよりも多くの情報が存在しているため、ネットワークが、提示情報の効用についてアクティブな決定を行う。例えば、先のシミュレーションにおいて混合割合「a」が値0.5に近い場合、ネットワークは、対象AおよびBのうちの一方を強調し、他方を弱める。処理ユニットは、この実施形態において情報表現の効用という考え方を明示的には有していないが、それは、ネットワークの機能に暗黙のうちに表わされている。個々の処理ユニットが、全ネットワークへのコヒーレントな表現が形成されるよう、そのコンテクストに表わされる同じ特徴を表わすことが、より有用である。
図10は、適切な方法を使用してネットワークにおいて不変性を学習するための能力についてのシミュレーション結果を示している。204次元のベクトルが、ネットワークへの入力として与えられ、それらは、9の別個の部分から連結されている。さらに、5つの異なる対象が、それらのそれぞれが自身の特徴部分を有し、それらの特徴部分で対象全体が構成されるように、定められている。各対象は、各部分のための無作為なモデルベクトルの大きなグループを有しており、それらの部分の或る組み合わせが、1つの対象を表わすために常に選択されている。1つの物体は、すべての組み合わせが考慮されるとき、数十万の異なるインスタンス化を有している。2つの無作為な対象のいくつかのインスタンス化ベクトルの重み付きの合計が、ネットワークへの入力として常に与えられる。一方の対象の重みが1であり、他方の対象の重みは、間隔[0,1]に一様に分布したランダム変数である。ネットワークは、コンテクストにもとづいて処理ユニットの学習および選択を重み付けることができる場合、外部の教師信号なしで、そのようなデータから種々の対象の分類を独立に学習する可能性を有する。
ここで使用したネットワークは、6つの階層を有しており、2つ毎の階層が、次元削減層であり、2つごとの階層が、収束層である。後者は、下位の階層の2つ以上の処理ユニットから入力を受け取るような処理ユニットからなる層という意味である。すべての分類からの20の異なる種類のインスタンス化が入力としてネットワークへと与えられたとき、ネットワークによって学習された分類を、最上位の階層、すなわち6番目の階層の特徴ベクトルを調べることによって検査した。組み合わせ特徴ベクトルが、6番目の階層のこれらの特徴ベクトルから形成され、この組み合わせ特徴ベクトルが、異なる分類に対応する5つの線形分類器へと供給された。これらのベクトルが、単位ベクトルへと正規化され、その後に、スカラ積が、これら5つの分類のそれぞれからの1つの対応するランダム特徴ベクトルについて計算された。
図10は、これらのスカラ積を示している。スカラ積の値が、y座標上にあり、x座標上のそれぞれの値は、ネットワークへと供給された1つの入力ベクトルを示している。最初の20は、分類1からの無作為のインスタンス化であり、21〜40は、同様に分類2からのものであり、41〜60は、分類3からのものであり、61〜80は、分類4からのものであり、81〜100は、分類5からのものである。曲線(35)は、入力ベクトル1に対応する組み合わせ特徴ベクトルとの100の組み合わせ特徴ベクトルのすべてのスカラ積を示している。同様に、曲線(36、37、38、および39)は、それぞれ分類2、3、4、および5のそれぞれに対応する1つの組み合わせ特徴ベクトルとの100の組み合わせ特徴ベクトルのすべてのスカラ積を示している。不変性が、ほぼ同じ特徴ベクトルがすべてのインスタンスから生成されるようなやり方で、これらの結果において生じている。分類3の学習が、種々のインスタンス化の約半分だけが比較のインスタンス化と同様の特徴ベクトルを生じさせているため、最も悪い。元の特徴ベクトルの互いのスカラ積は、無作為に形成されたモデルベクトルおよび各分類に対応するインスタンス化の大きな量ゆえ、平均でゼロに近かった。
これらのシミュレーション結果は、我々の方法を使用するネットワークが、同じ対象のまったく異なるインスタンス化を一緒に分類するために、効率的に学習することを示している。このやり方で、ネットワークは、種々の視認角度から画像化された対象の不変の表現を学習することができ、あるいは多関節のロボットを制御するときに、アクチュエータの種々の位置において同じ最終結果を達成する種々の制御信号を学習することができる。
図11は、注意の対象の変化についてのシミュレーション結果を示している。ここでは、図10のシミュレーションと同じネットワークを使用したが、長時間にわたってすでにオンであり、かつコンテクストが変化していない場合に予測を減少させる疲労特性を、すべてのコンテクスト予測器へと追加で加えた。より正確には、ゼロよりも小さい値がゼロによって置き換えられ、結果が、高域通過フィルタで処理された。これは、近接過去においてアクティブであった特徴からの表現の効用の低減(請求項18)に、暗黙裏に相当する。図11に示されている曲線において、x座標は、繰り返し数を有しており、y座標は、特定の時間の瞬間における5つの異なる分類器のアクティベーションを有している。分類器は、5つの異なる分類のためのネットワークの6番目の階層からの最適線形分類器である。上方のグラフにおいて、分類1および2のインスタンス化されたベクトルの合計が、入力として与えられている。
インスタンス化は、分類3の特徴的な特徴を可能な限り思い出すように選択されている。曲線(55、56、27、28、および29)は、この順で、分類1、3、2、4、および5の分類器のアクティベーションである。
グラフは、ネットワークが、注意が他の対象へと移されるまで、しばらくのあいだ或る1つの物体を常に示していることを示している。ネットワークが画像を処理する場合、これは、注意が異なる対象の間で変化するという状況に相当している。さらに、注意を、対象の全体と対象の各部分との間で変化させることができる。ネットワークの全体的注意の対象は、例えば、最初は椅子であって、その後に椅子の脚のうちの1つへと移動することができる。
図11の下方の図は、入力が対象1のインスタンス化ベクトルで構成される場合の同じネットワークを有している(しかしながら、種々の分類の下位レベルの特徴が互いに部分的に重なり合っており、入力が対象1のみで構成されていると言うことはできない)。曲線(30、31、32、33、および34)は、この順で、それぞれ分類1、3、2、4、および5の分類器アクティベーションのアクティベーションである。この場合、注意は、対象3への短いジャンプを除き、ほぼ常に対象1に集中されている。予測器の疲労がより強くされる場合、そのようなジャンプが、あきらかにより頻繁に行われると考えられる。これは、ネットワークが入力を可能な限り多くの態様から解釈しようとする状況に類似している。この実施例も、ネットワークが表わしている情報の効用をどのように暗黙裏に取り扱うかを示している。何らかの対象が充分に長く表わされている場合、その表現は、おそらくはもはや当初ほどには有用でなく、ネットワークが注意の対象を変更する。
上述のシミュレーションは、我々の方法を使用するネットワークが、多次元のデータからの不変の分類の学習を、たとえそれらの分類が教示の状況において明示的に命名されておらず、種々の分類のインスタンス化が別個に入力として与えられていなくても、実行できることを示している。さらに、このネットワークは、注意の対象についての全体的決定を行うことができる。この決定のために、すべての入力からの情報が集積化される。
実施例1および2
処理ユニットを1つしか持たないシステムであっても、実際の用途において有用であり得る。そのようなシステムが、図5に記載されている。システムは、所与の疾病の進行を可能な限り早期に予測できるような特徴を、患者の測定および症状データから発見しようと試みる(請求項8)。他方で、疾病そのものの進行によって左右される可能性があり、したがって疾病そのものの進行を左右することができる特徴を、この方法によって見つけることも可能である。処理ユニット7が、患者のデータを一次入力8として取得する。このデータを、例えば血液の値および他の測定パラメータならびに患者によって述べられる症状および医師によって把握される症状で構成することができる。以前に患者において観察された疾病についての情報が、コンテクスト9として与えられる。
処理ユニット8は、種々の特徴について静的な情報を生成するだけではない。加えて、それぞれの時刻において患者の疾病に最も関係する特徴を選択することを学習する。
我々の方法の第2の実施形態は、ロボットの制御システムである(請求項7)。
この実施形態が、図6に示されている。システムへの一次入力8が、ビデオ画像で構成され、コンテクストが、システムのモータの制御信号で構成される。この制御信号は、視覚システム53の特徴ベクトル44を入力として使用する何らかの外部モジュールによって生成される。処理ユニットの階層53は、図4のものと同じ種類であるが、より多くの処理ユニットを有している。この実施例においては、4つの階層が使用され、その半分が、次元削減階層である。
図4のネットワークなど、視覚システム53は、自身へと内部的にコンテクストを与える。このように、ネットワークは、ビデオ画像から連続的なコヒーレント全体を学習する。さらに、注意が、その中の全体へと払われる。視覚システム53は、制御信号9をコンテクストとして取得するとき、ロボットの調節へと接続された視覚的特徴を表わすための学習を行う。例えば、遠方の物体がフィルタによって除かれ、ロボットのアクチュエータの近傍にある物体が表現される。請求項19によれば、新しい情報のみが、視覚システム53において表現される。例えば、ロボットが自身のアクチュエータのうちのいくつかを動かすとき、動くアクチュエータをビデオ画像8において見て取ることができ、したがってそれ以上視覚システム53において表わす必要がないと予測することができる。代わりに、効用のより大きい何らかの他の情報がそこに表わされる。
さらに、請求項20の特徴が使用され、視覚システムに、制御のために次の時刻に照らして重要な目標を表現させる。例えば、ロボットのアクチュエータが壁に向かって動いている場合、視覚システム53は、制動行為および他の調節行為の到来を予測することができる。今や、壁および動いているアクチュエータが、最良のやり方でなすべき調節を予測する因子であり、視覚システム53によって表わされるべく選択される。その結果、外部のコントローラが、衝突の前に前もって反応することができる。
請求項21の特徴は、全システムの動作の成功についての全体的評価54を得るための外部のモジュールを、システムへと追加する。このスカラ評価は、システムが上手く機能しているときに視覚システム53の学習を高め、性能が良好でない場合に学習を少なくするために使用される。このやり方で、システムは、その表現が良好な性能につながるような特徴を、さらに強く表現するように学習する。
実施例1のさらなる詳細
患者の診断のための補助システム
この実施例においては、診断を促進するような特徴が、患者データから選択される。
入力データに含まれる一次入力は、患者の測定結果および患者において観察された症状で構成される。
測定結果は、血液の値(数百)および遺伝子チップで測定された遺伝子発現活動(数千)を含む。血液の値は、血液中の天然物質、免疫学的指標、および外部物質の濃度を含む。症状は、値ゼロおよび1で記述される。患者が所与の症状を有する場合、これに対応する要素が、値1に設定され、そうでない場合にはゼロである。
1つの処理ユニットが、この用途において使用される。処理ユニットは、診断の助けとして使用される前に学習セットによる学習が行われ、すなわちパラメータが修正されるため、一次入力から直接に診断を行うことはできない。
患者データおよび患者群からのコンテクストからなる上述の入力が、学習データの組として使用される。より多くの学習データが存在するほど、より良好に処理ユニットを学習させることができる。通常は、少なくとも10人の患者のデータが必要とされるが、数千の患者からのデータも使用することができる。
学習の開始前に、処理ユニットのパラメータが、無作為な値で初期化される。学習の結果として、処理ユニットのパラメータが、処理ユニットが患者データから診断に照らして有用な特徴情報を生成するようなやり方で、修正される。学習の後で、本発明を、例えば健康センターの医師のための助けとして使用することができる。
そのようでないと述べない限り、処理ユニットは、図9のシミュレーションのとおりに機能する。或る患者の入力データが処理ユニットへと与えられたとき、さらに詳しく後述される以下の工程が実行される。
1.一次入力の前処理(主たる請求項のステップb)
診断を促進するような特徴のプレアクティベーションが、入力データから計算される。これは、パラメータ化関数によって実行され、そのパラメータは、1つの診断の実行の間は一定であるが、新たな診断に関連して常に修正(改善)される。より有用な情報が、パラメータによって一次入力から形成される。パラメータは、それぞれの診断の後で、この関数(プレアクティベーション)が最後(主たる請求項のステップd)に得られる種類の特徴情報をすでに元から与えるような関数となるようなパラメータに修正される。その結果、処理ユニットによって表わされる特徴が、可能な限り有用になるように次第に変化する。
2.最終的な特徴アクティベーションについての仮の予測が、コンテクストから形成される(主たる請求項のステップa)。
プレアクティベーションの予測が、コンテクストから計算される(ここで、予測は、将来についての予測を指さず、回帰を指す)。これは、パラメータ化関数によって実行され、そのパラメータは、1つの診断の実行の間は一定であるが、新たな診断に関連して常に修正(改善)される。
3.予測が、予測された特徴が強められ、他の特徴が弱められるように、プレアクティベーションに組み合わせられる(主たる請求項のステップc)。
4.この段階において、特徴が、好ましくは非相関化され、換言すると、特徴の相違が強調され、類似性が弱められる(請求項5)。最終的な特徴アクティベーション、すなわち最終的な特徴情報が、上述の工程の後で最もアクティブな特徴を選択することによって得られる(請求項6)。
最初に、プレアクティベーションの予測が、コンテクストから計算される。上述のように、1000のプレアクティベーションが存在し、コンテクストベクトルの長さは、500である。予測のy_predの計算のために我々が使用したパラメータ化関数は、1000×500のサイズの行列W_predのすべての要素が修正可能なパラメータである行列乗算である。予測が、y_pred=W_pred×zとして計算され、zは、コンテクストベクトルである。たとえ患者の実際の血液レベルを、患者の診断による疾病履歴から正確に予測できなくても、これは、タスクに応じた効用を特徴の選択において使用することが望まれる場合に、不可欠な工程である。しかしながら、或る血液の値が他よりもおそらくは高いことを、患者の疾病履歴から予測することが可能である。この予測により、血液の値からの特徴の選択を案内することが可能である。
さらに詳しくは、入力情報の前処理が、以下のやり方で行われる。入力情報は、4000という長さを有するベクトルである。それについて、無作為な投影によって非線形の展開が実行され、20000という長さのベクトルが得られる。これは、処理ユニットの生成段階において、20000×4000というサイズの行列A_rpおよび20000という長さのベクトルbが、が無作為に形成されていることを意味する。非線形の展開x_nlが、式x_nl=tanh(A_rp×x+b)によって4000という長さの入力情報ベクトルから計算され、tanhは、双極正接であり、「×」は乗算を意味する。この前処理の結果は、線形成分を真の特徴成分として使用できるというものであるが、それらは、4000次元空間の他用途な非線形の特徴に対応する。これは、有用な特徴の発見をより効果的にする。さらに、新しいベクトルx_nlの相関構造が球形にされ、これは、ベクトルの要素間に存在する相関が可能な限り少なく、要素の分散が値1に近いことを意味する。これは、白色化行列A_whによって左側から乗算を行うことによって実行される。この行列の構成員は、実際の学習の開始前に設定される。白色行列は、広く使用されている方法である主成分分析白色化によって設定される。この相関構造の球形化は、使用されたときに入力のアクティベーションの大きさが学習される特徴の種類を決定せず、代わりに有用な特徴を学習できるという理由で、有用である。
以下で、診断を促進する特徴のプレアクティベーションが、入力情報から計算される。今や、入力情報に20000の要素が存在しており、我々は、1000の特徴要素を使用する。したがって、我々は、1000の異なる特徴についてアクティベーションを計算している。我々は、パラメータ化関数として行列の乗算を使用し、1000×20000というサイズの行列Wのすべての構成員が、修正可能なパラメータである。プレアクティベーションy_preが、y_pre=W×x_whを計算することによって得られ、x_whは、相関構造が球形化されたx_nlである。
その後に、予測が、予測された特徴が強められ、残りの特徴が弱められるように、プレアクティベーションに組み合わせられる。組み合わせy_comb=y_pre×(1+y_pred)が計算され、ベクトルの間の乗算が、要素ごとに実行される。組み合わせのこのやり方の結果は、コンテクストに一致する特徴が強められるというものである。しかしながら、予測のみでは、新たなアクティベーションを形成することができず、既存のプレアクティベーションを強めるだけしかできない。
すべての特徴が患者データについての異なる事物を表わすようにするために、非相関化が行われる。非相関化は、y_combを左側から行列A_decで乗算することによって実行される。この行列の構成員が、他の修正可能なパラメータと同じ工程で修正される。
スパース化
最終的な特徴アクティベーションyが、上述の工程の後で最もアクティブな特徴を選択することによって得られる。これは、図8の説明に関して述べたやり方で実行される。ここで必要とされるスパース化のしきい値が、初めに、処理ユニットの学習を開始させる前に、一定の値へと設定される。これは、スパース度の指標が、図8の説明に従ってスパースモデルベクトルについて計算されるように実行される。このモデルベクトルは、処理ユニットの特徴ベクトルと同じ次元を有しており、モデルベクトルの要素の5%(切り上げによる)が、値1に設定されている一方で、残りの要素の値は、ゼロである。このモデルのスパース度が、スパース度のしきい値として設定される。
最終的な特徴が計算されたとき、処理ユニットが学習させられ、すなわちパラメータW、W_pred、およびA_decが修正される。
プレアクティベーションを形成するための関数のパラメータWは、この関数が最後に得られる値により近い特徴アクティベーションをすでに元から生成するように修正される。このやり方で、処理ユニットによって表現される特徴が、可能な限り有用になるように修正される。パラメータは、a×y×x_wh^Tが行列Wへと加えられるように修正され、「a」は、学習率であり、^Tは、転置を意味する。学習率は、a=0.00001である。最後に、行列Wの行が、単位長さを有するように正規化される。
コンテクストからプレアクティベーションを予測する関数のパラメータは、この患者の特徴のプレアクティベーションをすでに元からよりよく予測するように修正される。パラメータは、a_pred×y_pre×z^Tが行列W_predにおいて加えられるように修正され、学習率は、a_pred=0.001である。非相関化パラメータは、a_dec×(−y×y^T−A_dec)が行列において加えられるように修正され、その後に、行列の対角線要素が1に設定される。学習率は、a_dec=0.01である。
この後で、学習データ内の次の患者の患者データが処理され、対応する入力情報が形成される。この方法が、すべての学習データが処理されるまで、工程1から繰り返される。その後で、処理ユニットは、新たな患者データの分析に使用されるべく準備ができた状態となる。新たな患者データの分析は、学習データを処理するときと同じ工程に従って実行される。しかしながら、必要であれば、修正を阻止することができる。なぜならば、健康センターにおいて処理されるべき患者データが、学習データとして使用されるべく選択された材料ほどに信頼できるのかどうか、定かではないからである。
処理の結果、システムは、患者の測定結果を診断のために役立つ形態になるように処理する。さらに、この莫大な量のデータから、患者の疾病履歴に照らして最も不可欠である特徴を選択する。その結果、それらは、診断すべき新たな疾病に照らしても、最も不可欠である可能性が高い。処理ユニットが、コンテクストによって与えられる予測を特徴のプレアクティベーションに組み合わせる場合、種々の特徴の表現の効用が、特徴を選択するときに最終的な効用に照らして考慮される。
実施例2のさらなる詳細
ロボットのための視覚システム
この実施例では、処理ユニットの学習が、ロボットのモータの適切な制御を可能にするようなデータをロボットのビデオカメラデータから選択するために行われる。
ロボットが複雑な環境で働くとき、視覚システムは、ロボットが避けなければならない障害物、ロボットの移動に影響を及ぼす地形、ロボットによって操作される対象物および対象物の位置を、カメラ画像から識別しなければならない。
このために、多数の処理ユニットが階層にて使用される。第1の階層のユニットが、ビデオカメラ画像(一次入力)の種々の部分を入力情報として受け取る。それらは、制御信号および階層の他の処理ユニットからの特徴を、コンテクストとして受け取る。上位の階層の処理ユニットは、同じコンテクストを取得するが、それらが取得する一次入力データは、下位の階層の処理ユニットによって選択された特徴で構成される。下位の階層が、カメラ画像内の単純な局所形態に相当する特徴を選択する。上位の階層によって選択される特徴は、カメラ画像内の複雑な物体および他の構造体に相当する。
特徴は、静的なだけでなく、物体の動きおよび物体間の相互作用も記述する。これは、第1には、3つの後続する時点からの一次入力を最下位の階層へと与えることによって達成され、第2には、現時点ならびに先の2秒および将来の2秒の両方からのコンテクストを与えることによって達成される。現在のコンテクストが、患者データの用途の場合と同じやり方で使用される。次いで、近接過去のコンテクストが、請求項19によるやり方で使用される。過去のコンテクストが現在の特徴を予測できる場合、それらを表わす効用が、減少させられる。近接未来のコンテクストは、請求項20によるやり方で使用される。このコンテクストは、処理ユニットがその特徴を計算するときは使用されないが、主たる請求項のステップdにおいて使用される。将来のコンテクストが現在の特徴を予測できる場合、それらは、パラメータ修正工程において他よりも重み付けされる。
ロボットの制御システムの実現は、現実には、直接的に生のカメラ画像によるのではなく、このような特徴によって可能である。請求項19および20による効用の計算が、システムを、常に新規な情報を表わすように試みさせる。さらに、そのような情報にもとづき、ロボットのモータのための未来の制御信号を予測することができる。そのような特徴は、制御信号が選択されるタスクにおいて有用である。
この実施例においては、物体を操作する目的の手を有している車輪上のロボットが使用される。手は、2つの関節と、手を閉じることによって把持を可能にするアクチュエータとを有している。両方の関節が、2つのモータを有しており、把持具が、1つのモータを有している。さらに、両方の車輪が1つのモータを有している。ビデオカメラが、ロボットの本体の前部に位置している。手の動きと一緒に動くことはない。100×100というサイズ、すなわち10000ピクセルの画像が、このビデオカメラから得られる。フレームレートは、1秒に付き10枚の画像である。ロボットの制御信号は、階層の上位レベルの処理ユニットによって生成される特徴情報と必要とされる他の情報(関節および把持手の位置、それらに作用している力、および動作の目標)とを入力として受け取る別の制御ユニットにて生成される。制御ユニットは、自身の入手するフィードバックから、(いわゆる小脳学習を使用して)所定の反射によって学習を行う(我々は、一般的に使用されている方法であるSARSA学習を使用した)。制御ユニットが、受け取った情報にもとづいてタスクを実行するためにふさわしい制御信号を生成できることが、本発明に照らして必須である。モータのすべての制御信号が、すべての処理ユニットへとコンテクストとして与えられる。
処理ユニットを備える4つの階層が存在する。それらのうちの第1は、3つの連続する時点からの静止フレームを取得する。それは、このやり方で動的な特徴を学習する。第1の階層は、10×10の処理ユニットを有しており、そのそれぞれが、元の画像の10×10ピクセルのサイズを有する部分を、入力情報として取得する。各ユニットは、当然ながら、画像の別の部分を取得する。第1の階層のユニットは、800の特徴を計算する。第2の階層も、10×10のユニットを有しており、そのそれぞれが、下位の階層の1つのユニットによって計算された特徴を、入力情報として取得する。第2の階層の各ユニットは、150の特徴を計算する。第3の階層は、5×5のユニットを有しており、そのそれぞれが、第2の階層の4つのユニットからの特徴を、入力情報として取得する。第3の階層の各ユニットは、1000の特徴を計算する。第4の階層も、5×5のユニットを有しており、そのそれぞれが、下位の階層の1つのユニットからの特徴を、入力情報として取得する。第4の階層の各ユニットは、100の特徴を計算する。
第2および第4の階層は、多数の特徴からそれよりも少ない数の特徴を計算する。すなわち、次元の削減を実行する。これは、これらのユニットの一般化を強いるため、有用である。モータの制御に無関係な特徴が除かれ、残りの特徴が有用であり、一般化されている。
システムがロボットのための制御システムの一部として使用される前に、学習セットによって学習が行われ、すなわちパラメータが変更される。最初に、すべてのパラメータが無作為に初期化される。スパース化のしきい値が、患者の診断の用途の場合と同じやり方で、スパースモデルベクトルによって初期化される。学習データが、いかなる自動制御システムも使用せずにロボットを手動で制御することによって取得され、単純な自動制御シリーズによって制御することによって取得される。このやり方で、得られる学習データは、ロボットによって収集されたカメラ画像およびモータの同時の制御信号の両者によって構成される。システムがロボットのための制御システムの一部として使用されるとき、このパラメータの修正が続けられる。
それぞれの処理ユニットは、請求項18〜21による前処理およびコンテクストの使用を除き、患者の診断のための補助システムの場合と同様に、個々に機能する。処理されるデータは、当然ながら異なるが、動作の機構は、具体的に述べられる例外がなければ、同じである。
この用途においては、多数の処理ユニットが使用されるため、それらのそれぞれによって生成される特徴(特徴情報)が、それぞれの3つ組静止フレームについて多数回計算され、パラメータの修正は、全システムがすべての特徴を計算し終えるまで実行されない。この繰り返しは、以下のやり方で実行される。第1に、階層の最も下位の処理ユニットが、それらの特徴(特徴情報)を計算する。次いで、計算が、階層の上部へと一階層ごとに進められる。この後で、計算が、上方から下方へと逆順で進められる。この繰り返しは、個々の処理ユニットが特徴を選択するときに、残りのユニットの入力およびコンテクスト情報が変化するために必要である。この階層における上向きおよび下向きの繰り返しが、それぞれの3つ組静止フレームについて2回実行される。次いで、すべての処理ユニットが、自身が計算した特徴をそれらのコンテクストに一致するように修正する時間を有する。
個々の処理ユニットは、以下のやり方で特徴を計算する。
1.一次入力情報が前処理される(主たる請求項のステップb)。
患者の診断の用途において行われたのと同様に、第1の階層の入力情報が白色化される。しかしながら、特徴の非相関化がそれらを充分に非相関にするため、上位の階層の入力を白色化する必要はない。特徴のプレアクティベーションが、一次入力から計算される。これは、パラメータ化関数によって実行され、そのパラメータは、1つの3つ組カメラ画像の処理の間は一定である。患者の診断の用途の場合と同様に、行列の乗算が、ここでも使用される。第1の階層において、800×100というサイズの特徴行列が使用され、第2の階層では、150×800というサイズであり、第3の階層においては、1000×600というサイズであり、第4の階層においては、100×1000というサイズである。
2.最終的な特徴アクティベーションについての仮の予測が、コンテクストから形成される(主たる請求項のステップa)。
プレアクティベーションについての3つの異なる予測が、コンテクストから計算される。y_pred1が、過去のコンテクストから計算され、y_pred2が、現在のコンテクストから、y_pred3が、未来のコンテクストから計算される。これらのうちの最後の1つは、後まで計算されず、パラメータの修正の工程において使用される。ユニットがその特徴を時々刻々と計算するとき、最初の2つの予測のみが使用される。予測は、パラメータ化関数によって計算され、そのパラメータは、1つの3つ組カメラ画像の処理の間は一定であるが、新たなそれぞれの3つ組画像に関連して常に修正(改善)される。患者の診断の実施例の場合と同様に、線形回帰がここでも使用され、すなわち予測が、コンテクストベクトルを行列W_pred1、W_pred2、およびW_pred3で乗算することによって得られる。初めに、コンテクストベクトルz1、z2、およびz3が、同じ階層のすべてのユニットによって表わされる特徴を有している。次に、このユニットが自身の特徴を与えた上位の階層の処理ユニットの特徴が存在し、最後に、モータのための7つの制御信号が存在する。現時点のコンテクストz2において、これらが1回生じる一方で、これらが、2秒のコンテクストz1およびz3においては20回生じる(1秒につき10枚の画像が2秒間)。したがって、最も下位の階層の行列W_pred2のサイズは、800×79357であり、第2の階層のそれのサイズは、150×15857であり、第3の階層のそれのサイズは、1000×24107であり、第4の階層のそれのサイズは、100×2407である。対応する行列W_pred1およびW_pred3においては、20倍も多い列が存在するが、そのほかの点では同じ形態を有している。
3.予測が、予測された特徴が強められ、他の特徴が弱められるように、プレアクティベーションに組み合わせられる(主たる請求項のステップc)。患者の診断の実施例の場合には、式y_comb=y_pre×(1+y_pred2)が使用されると考えられるが、この用途においては、予測可能な特徴の表現の効用を減らすために、古いコンテクストにもとづいて作成された予測y_pred1が含まれなければならない。この目的のため、式y_comb=y_pre×(1+y_pred2−0.2×y_pred1)が使用される。
4.この工程において、特徴が、好ましくは非相関化され、すなわち特徴の間の相違が強調され、それらの類似性が弱められる(請求項5)。最終的な特徴アクティベーション、すなわち最終的な特徴情報が、上述の工程の後で最もアクティブな特徴を選択することによって得られる(請求項6)。
繰り返しの終わりにおいて、次の3つ組画像の処理(主たる請求項のステップe)が始まる前に、すべてのユニットのパラメータが、現在の特徴アクティベーションによって修正される(主たる請求項のステップd)。これは、各ユニットについて、患者の診断の用途とほぼ同じやり方で行われるが、プレアクティベーションの計算において、未来のコンテクストによって与えられる予測が、使用すべきパラメータの修正において考慮される。患者の診断の用途においては、行列a×y×x^Tが行列Wへと加えられると考えられるが、この用途においては、行列a×(y+0.2×y_pred3)×x^Tが加えられる。
請求項21に効果は、制御ユニットによって使用されるフィードバック信号にもとづいて上位の階層の処理ユニットによって使用される学習率「a」を修正することによって得られる。したがって、フィードバック信号は、SARSA法によって使用されるいわゆるTD信号(時間差信号)と同じである。ここで使用される方法においては、フィードバック信号が、常に0と1との間である。階層の最上位において使用される学習率は、0.00001の代わりに、値(1+d)×0.00001である。
この処理すべての結果として、階層において、最下位の階層から最上位の階層へと徐々により複雑であってロボットの制御タスクに関してより有用であるような特徴が作り出される。それぞれの処理ユニットが、自身のコンテクストデータを自身の特徴アクティベーションおよび特徴の選択に組み合わせるときに、効用を考慮する。
別の実施形態
上述の実施形態に加えて、本発明の基本的考え方は、別のさまざまなやり方においても実行可能である。上述の実施形態においては、処理ユニットが別々であり、表現の選択および特徴の非相関化が、処理ユニットの内部においてのみ実行されていた。代案として、処理ユニットの境界がより柔軟であってよい。例えば、非相関化を、連続的な値の近傍がそれぞれの特徴要素について定められるように実行することができる。最も近い特徴要素が、大きな近傍重み付けを得、より離れていると、より小さな値を得、最も離れていると、まったく近傍に属さないと考えられる。また、表現特徴および適応特徴の選択を、状況に応じてより局所的な選択またはより広い選択を動的に可能にするようなアルゴリズムで実行することが可能である。
処理ユニットを、プログラムによって実行でき、あるいは例えばこの方法に専用化されたプロセッサで実行することができる。したがって、実施形態は、いかなる物理的な具現化にも限定されない。また、特徴のアクティベーションを、数字以外の他のやり方で表わすことができる。それらを、例えば電圧値と同様の専用化された回路の連続値で表わすことができる。
とくには、特徴の表現から得られる効用の基準が、用途に大きく依存する。コンテクストのための新規性、コヒーレンス、および関連性は、きわめて一般的に使用されており、本明細書において提示されている。さらに、そのような方法を、コンテクストが2つの異なるやり方で使用されるように使用することができる。一方では、一次入力にどの特徴が存在するかの評価を改善するために統計的に使用でき、他方では、どの特徴が表現のために有用かの評価に使用することができる。

Claims (12)

  1. 処理ユニットにおいて情報を選択し、タスクを実行するために使用される特徴情報を最終結果として得るために、処理ユニットへの入力データを、一次入力と実行すべきタスクに関する一般的情報を表わしているコンテクストとで構成される入力情報からタスクに照らして有用な情報を発見する目的で処理して、入力情報の特徴を表わす特徴情報を入力情報から形成し、特徴情報の値をその効用にもとづいてさらに処理する方法であって、
    a)第1のパラメータおよびパラメータ化関数によって、入力情報の組のうちの第1のコンテクストから、予測が形成され、
    b)第2のパラメータおよびパラメータ化関数によって、入力情報の組のうちの第1の一次入力から、プレアクティベーションが形成され、
    c)ステップa)において形成される予測にもとづき、予測される特徴が予測されない特徴よりも高い効用を有すると考えるやり方で効用を評価し、評価による効用が高い特徴を強める一方で、他の特徴を弱めることによって、プレアクティベーションから特徴情報が形成され、
    d)第2のパラメータが、ステップb)で使用されたならばステップc)の特徴情報に対応する計算結果を与えるであろうやり方で修正され、
    e)ステップa)〜d)が、入力情報の組のそれぞれの要素について繰り返される
    ことを特徴とする方法。
  2. ステップd)において、第1のパラメータも、ステップa)で使用されたならばステップb)のプレアクティベーションまたはステップc)の特徴情報に対応する計算結果を与えるであろうやり方で修正されることを特徴とする請求項1に記載の方法。
  3. 情報が、種々の値の数字として数値の形態で表わされ、該数字が、特定の特徴を記述していることを特徴とする請求項1または2に記載の方法。
  4. ステップc)において得られた特徴情報が、改善された特徴情報を得るべく情報を構成している値の相違を強調するために、特徴情報の値から相関を取り除くことによって非相関化されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  5. 特徴情報が、ロボットのための制御信号を生成するために使用され、
    一次入力が、環境およびロボットのセンサによって測定されるロボットの状態についての情報で構成され、コンテクストが、ロボットのモータの制御信号など、ロボットの制御部へと直接に接続された信号で構成されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  6. 特徴情報が、疾病の診断に使用され、
    一次入力が、患者の測定値および症状データで構成され、コンテクストが、患者において観察された疾病についての情報で構成されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  7. 1つ以上の種類の入力が、部分的または完全に白色化されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  8. 特徴情報の数字が、入力情報の組において対応するキャラクタを記述している各数字の平均がほぼ同じになるように敏感化されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  9. 複数の処理ユニットを、処理ユニットが自身の形成した特徴情報を処理ユニットの一次入力として相互に届けるように接続することによって、複数の処理ユニットにおいて実行されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  10. 複数の処理ユニットを、処理ユニットが自身の形成した特徴情報をコンテクストとして相互に届けるように接続することによって、複数の処理ユニットにおいて実行されることを特徴とする請求項1〜のいずれか一項に記載の方法。
  11. 処理ユニットが、階層的なやり方で接続されることを特徴とする請求項10に記載の方法。
  12. ステップc)において処理ユニット全体の特徴の効用を評価するときに、処理ユニットによって表わされる特徴の効用についての評価が、外部のモジュールによって与えられ、コンテクストとして考慮されることを特徴とする請求項1〜11のいずれか一項に記載の方法。
JP2009550734A 2007-02-23 2008-02-22 情報を選択するための方法 Expired - Fee Related JP5256215B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20070159 2007-02-23
FI20070159A FI20070159A0 (fi) 2007-02-23 2007-02-23 Menetelmä informaation integrointiin, valintaan ja esityksen oppimiseen
PCT/FI2008/000031 WO2008102052A2 (en) 2007-02-23 2008-02-22 Method for selecting information

Publications (2)

Publication Number Publication Date
JP2010519642A JP2010519642A (ja) 2010-06-03
JP5256215B2 true JP5256215B2 (ja) 2013-08-07

Family

ID=37832204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009550734A Expired - Fee Related JP5256215B2 (ja) 2007-02-23 2008-02-22 情報を選択するための方法

Country Status (9)

Country Link
US (1) US8332336B2 (ja)
EP (1) EP2126801B1 (ja)
JP (1) JP5256215B2 (ja)
DK (1) DK2126801T3 (ja)
ES (1) ES2429214T3 (ja)
FI (1) FI20070159A0 (ja)
PL (1) PL2126801T3 (ja)
PT (1) PT2126801E (ja)
WO (1) WO2008102052A2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011085819A1 (en) * 2010-01-15 2011-07-21 Zenrobotics Ltd. A machine-learning system and a method for determining different operating points in such a system
FR2962823B1 (fr) * 2010-07-13 2012-08-17 Ensuite Inf Processeur d'analyse situationnelle
US8838147B2 (en) * 2011-08-31 2014-09-16 Nokia Corporation Method and apparatus for determining environmental context utilizing features obtained by multiple radio receivers
US9367811B2 (en) * 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
US10469398B2 (en) 2014-03-04 2019-11-05 International Business Machines Corporation Selecting forecasting model complexity using eigenvalues
US11720795B2 (en) 2014-11-26 2023-08-08 Canary Capital Llc Neural network structure and a method thereto
JP6280997B1 (ja) * 2016-10-31 2018-02-14 株式会社Preferred Networks 疾患の罹患判定装置、疾患の罹患判定方法、疾患の特徴抽出装置及び疾患の特徴抽出方法
CN106780662B (zh) * 2016-11-16 2020-09-18 北京旷视科技有限公司 人脸图像生成方法、装置及设备
CN106780658B (zh) 2016-11-16 2021-03-09 北京旷视科技有限公司 人脸特征添加方法、装置及设备
US10645100B1 (en) * 2016-11-21 2020-05-05 Alert Logic, Inc. Systems and methods for attacker temporal behavior fingerprinting and grouping with spectrum interpretation and deep learning
SE543130C2 (en) 2018-04-22 2020-10-13 Zenrobotics Oy A waste sorting robot gripper
SE543177C2 (en) 2018-04-22 2020-10-20 Zenrobotics Oy Waste sorting gantry robot comprising an integrated chute and maintenance door
SE544741C2 (en) 2018-05-11 2022-11-01 Genie Ind Bv Waste Sorting Gantry Robot and associated method
CN110135427B (zh) * 2019-04-11 2021-07-27 北京百度网讯科技有限公司 用于识别图像中的字符的方法、装置、设备和介质
SE2030325A1 (en) * 2020-10-28 2021-12-21 Zenrobotics Oy Waste sorting robot and method for detecting faults
SE544457C2 (en) * 2020-10-28 2022-06-07 Zenrobotics Oy Waste sorting robot and method for cleaning a waste sorting robot
SE2130289A1 (en) 2021-10-26 2023-04-27 Mp Zenrobotics Oy Waste Sorting Robot
SE2130349A1 (en) 2021-12-09 2023-06-10 Mp Zenrobotics Oy Waste sorting robot and external cleaning apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002061678A2 (en) * 2001-01-31 2002-08-08 Prediction Dynamics Limited Feature selection for neural networks
EP1359481A4 (en) * 2001-02-05 2006-04-12 Honda Motor Co Ltd AGENT LEARNING DEVICE, METHOD AND PROGRAM
US6963870B2 (en) 2002-05-14 2005-11-08 Microsoft Corporation System and method for processing a large data set using a prediction model having a feature selection capability
JP4442119B2 (ja) * 2003-06-06 2010-03-31 オムロン株式会社 画像認識装置および画像認識方法、並びに、画像認識装置のティーチング装置およびティーチング方法
US20060224532A1 (en) 2005-03-09 2006-10-05 Case Western Reserve University Iterative feature weighting with neural networks

Also Published As

Publication number Publication date
PT2126801E (pt) 2013-07-10
WO2008102052A2 (en) 2008-08-28
PL2126801T3 (pl) 2013-11-29
US20100088259A1 (en) 2010-04-08
EP2126801B1 (en) 2013-04-03
FI20070159A0 (fi) 2007-02-23
WO2008102052B1 (en) 2008-12-24
ES2429214T3 (es) 2013-11-13
DK2126801T3 (da) 2013-06-24
JP2010519642A (ja) 2010-06-03
US8332336B2 (en) 2012-12-11
WO2008102052A3 (en) 2008-10-30
EP2126801A2 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
JP5256215B2 (ja) 情報を選択するための方法
Manuelli et al. Keypoints into the future: Self-supervised correspondence in model-based reinforcement learning
Sancaktar et al. End-to-end pixel-based deep active inference for body perception and action
Sigaud et al. On-line regression algorithms for learning mechanical models of robots: a survey
Razmjooy et al. A hybrid neural network Imperialist Competitive Algorithm for skin color segmentation
US20130325774A1 (en) Learning stochastic apparatus and methods
Faubel et al. Learning to recognize objects on the fly: a neurally based dynamic field approach
Kubota Computational intelligence for structured learning of a partner robot based on imitation
US8332070B2 (en) Learning and use of schemata in robotic devices
Nishide et al. Tool–body assimilation of humanoid robot using a neurodynamical system
Rezende et al. Causally correct partial models for reinforcement learning
Gharaee Hierarchical growing grid networks for skeleton based action recognition
Gepperth Efficient online bootstrapping of sensory representations
Amezcua et al. New classification method based on modular neural networks with the LVQ algorithm and type-2 fuzzy logic
Laferrière et al. Deep Koopman representation for control over images (dkrci)
Ogawa et al. Infusing common-sensical prior knowledge into topological representations of learning robots
Jitviriya et al. Behavior selection system based on emotional variations
Zhong et al. Encoding longer-term contextual multi-modal information in a predictive coding model
Amezcua et al. A new classification method based on LVQ neural networks and Fuzzy Logic
Zhong et al. A compositionality assembled model for learning and recognizing emotion from bodily expression
Cullinan Revisiting the society of mind: Convolutional neural networks via multi-agent systems
Sheikhbahaee et al. Dream to Explore: Adaptive Simulations for Autonomous Systems
Peláez et al. From forced to natural competition in a biologically plausible neural network
Mitchell Comparing Learned Representations Between Unpruned and Pruned Deep Convolutional Neural Networks
Budhraja et al. Using Neural Networks for Programming by Demonstration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5256215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees