JP4599509B2 - 自己進化型パターン認識システム - Google Patents

自己進化型パターン認識システム Download PDF

Info

Publication number
JP4599509B2
JP4599509B2 JP2004261281A JP2004261281A JP4599509B2 JP 4599509 B2 JP4599509 B2 JP 4599509B2 JP 2004261281 A JP2004261281 A JP 2004261281A JP 2004261281 A JP2004261281 A JP 2004261281A JP 4599509 B2 JP4599509 B2 JP 4599509B2
Authority
JP
Japan
Prior art keywords
pattern recognition
unit
self
feature extraction
recognition system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004261281A
Other languages
English (en)
Other versions
JP2006079279A (ja
Inventor
谷 哲 也 保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RIKEN Institute of Physical and Chemical Research
Original Assignee
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RIKEN Institute of Physical and Chemical Research filed Critical RIKEN Institute of Physical and Chemical Research
Priority to JP2004261281A priority Critical patent/JP4599509B2/ja
Publication of JP2006079279A publication Critical patent/JP2006079279A/ja
Application granted granted Critical
Publication of JP4599509B2 publication Critical patent/JP4599509B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、センサー等から入力された様々な入力データに対してパターン認識の処理を行うパターン認識システムに係り、とりわけ、システム構成を自己進化的に発展させることによりパターン認識の処理を高い認識率でかつ効率的に行うことができる自己進化型(self-evolutionary)パターン認識システムに関する。
パターン認識システムは一般に、入力データの特徴を抽出する特徴抽出部と、特徴抽出部により得られた特徴データに基づいてパターン認識の処理を行うパターン認識部とを備えている。
このうち、特徴抽出部は、センサー等から入力された入力データから当該入力データの特徴を抽出するものである。特徴抽出部で行われる具体的な処理としては、サンプリング処理、周波数帯域分割処理及び帯域分割データ再構成処理等が挙げられる。なお、このような特徴抽出部での処理は、各種のパラメータ(例えば、サンプリング処理に関してはサンプリング周期、周波数帯域分割処理に関しては帯域分割数及び帯域幅、帯域分割データ再構成処理に関してはフレーム数及び関数)に従って行われるが、これらのパラメータは通常、パターン認識の処理の対象となる入力データの種類等に応じて予め定められた一定値(固定値)として与えられる。
一方、パターン認識部は、特徴抽出部により行われた各種の処理の結果得られた特徴データに基づいてパターン認識の処理を行うものである。パターン認識部で行われる具体的な処理としては、人工ニューラルネットワーク構造等を利用した処理が挙げられる。なお、このような人工ニューラルネットワーク構造としては各種のものが提案されているが、本発明者は既に、構成の柔軟性及び学習の容易性に優れた新しい人工ニューラルネットワーク構造を備えた自己組織化カーネルメモリ(SOKM:self-organising kernel memory)を提案している(特願2004−38504号参照)。
上記特願2004−38504号に記載された自己組織化カーネルメモリは、それが備える人工ニューラルネットワーク構造において、ラジアル基底関数等の核関数に従って入力ベクトルとセントロイドベクトルとの類似度に応じた発火の強さを出力する複数のニューロンを含む。このような自己組織化カーネルメモリにおいて、それが備える人工ニューラルネットワーク構造の構築又は学習は、与えられた条件下でニューロンが自己増殖的に順次追加されることにより、また、Hebbの法則に基づく自己組織化アルゴリズムに従ってそれらの複数のニューロンが相互に結合されることにより行われる。なお、このような自己組織化カーネルメモリの利点としては、(1)構成に柔軟性がある(人工ニューラルネットワーク構造のネットワーク形態を自在にとることができる)、(2)学習が容易に行える(必要であればニューロンの消去(記憶内容の忘却)が簡単に行える)、(3)多重入力(multi-domain input)を一括的にかつ統合的に扱うことができ、しかも、異なる入力ベクトルに基づいて構成されたユニット間で相互結合するような連想記憶(associative memory)を実現することができる、といったものがある。
なお、この種の自己組織型の人工ニューラルネットワーク構造としては、他に、福島邦彦により提案されたneocognitron(脳の視覚系(visual cortex)の構造を模した階層型自己組織化ニューラルネットワークモデル)(非特許文献1)が唯一存在しているが、このneocognitronとの比較においても、上記特願2004−38504号で提案した自己組織化カーネルメモリは、上記(1)〜(3)の利点を有している。
上述したように、従来のパターン認識システムにおいて、パターン認識部が自己組織化カーネルメモリとして構成されている場合には、与えられた入力データ等に応じてパターン認識部の構成が柔軟に変化することとなる。しかしながら、パターン認識システムにおいてパターン認識部の構成が変化すると、このような構成の変化に伴って、パターン認識部とその前段に設けられた特徴抽出部との間で処理の条件の関係が崩れてしまうことがあり得る。また、パターン認識部の前段に設けられた特徴抽出部は、パターン認識の処理の対象となる入力データの種類等に応じてそのパラメータを予め定めておく必要があるが、このようなパラメータの設定を人手により精度良く行うことは非常に困難である。
Fukushima, K.: Cognitron: a self-organizing multilayered neural network. Biol. Cybernetics 20, 121-136, 1975.
本発明はこのような点を考慮してなされたものであり、特徴抽出部での処理及びパターン認識部での処理を統括的に制御してシステム構成を自己進化的に発展させることにより、パターン認識の処理を高い認識率でかつ効率的に行うことができる自己進化型パターン認識システムを提供することを目的とする。
本発明は、入力データの特徴を抽出して特徴データを出力する特徴抽出部と、前記特徴抽出部から出力された特徴データに基づいてパターン認識の処理を行うパターン認識部と、前記パターン認識部により得られたパターン認識結果に基づいて前記特徴抽出部を再構成する強化学習部とを備えたことを特徴とする自己進化型パターン認識システムを提供する。
なお、本発明において、前記特徴抽出部は、入力データを所定のサンプリング周期で離散化するサンプリング部と、このサンプリング部により得られたサンプリングデータを周波数領域で所定の帯域分割数及び所定の帯域幅に帯域分割する周波数帯域分割部と、この周波数帯域分割部により得られた各帯域の帯域分割データを所定のフレーム数単位で所定の関数に従って変換する帯域分割データ変換部とを有し、前記強化学習部は、前記パターン認識部により得られたパターン認識結果に基づいて、前記特徴抽出部での処理に必要とされる前記サンプリング周期、前記帯域分割数、前記帯域幅、前記フレーム数及び前記関数のうちの少なくとも一つのパラメータを調整することが好ましい。
また、本発明において、前記パターン認識部は、核関数に従って入力ベクトルとテンプレートベクトルとの類似度に応じた発火の強さを出力する複数のニューロンを含む自己組織化ニューラルネットワーク構造を有することが好ましい。ここで、前記各ニューロンで用いられる前記核関数はラジアル基底関数を含むことが好ましい。
さらに、本発明において、前記強化学習部は、前記パターン認識部により得られたパターン認識結果に基づいて前記特徴抽出部とともに前記パターン認識部を再構成することが好ましい。ここで、前記強化学習部は、前記パターン認識部の前記自己組織化ニューラルネットワーク構造に含まれる複数のサブネットワーク構造に対して競合的な学習を行わせることにより前記パターン認識部を再構成することが好ましい。
本発明によれば、パターン認識部により得られたパターン認識結果に基づいて強化学習部により特徴抽出部(及び必要に応じてパターン認識部)を再構成するようにしているので、特徴抽出部での処理及びパターン認識部での処理を統括的に制御しながらシステム構成を自己進化的に発展させることが可能となり、パターン認識の処理を高い認識率でかつ効率的に行うことができる。
発明を実施するための形態
以下、図面を参照して本発明の実施の形態について説明する。
まず、図1により、本発明の一実施の形態に係る自己進化型パターン認識システムの全体構成について説明する。
図1に示すように、本実施の形態に係る自己進化型パターン認識システム1は、センサから入力された生データ(raw data)である入力データ(以下、下線付きの英字はベクトルを表す)の特徴を抽出して特徴データを出力する特徴抽出部(feature extraction unit)10と、特徴抽出部10から出力された特徴データに基づいてパターン認識の処理を行うパターン認識部(pattern recognizing unit)20と、パターン認識部20により得られたパターン認識結果に基づいて特徴抽出部10及びパターン認識部20を再構成する強化学習部(reinforcement learning unit)30とを備えている。
このうち、特徴抽出部10は、入力データを所定のサンプリング周期で離散化(サンリング)するサンプリング部(sampling part)11と、サンプリング部11により得られたサンプリングデータ(離散化信号)を周波数領域で所定の帯域分割数及び所定の帯域幅に帯域分割する周波数帯域分割部(subband encoding part)12と、周波数帯域分割部12により得られた各帯域の帯域分割データ(帯域信号列)を所定のフレーム数単位で所定の関数に従って変換して、パターン認識部20に入力される符号化データ(encoded data)を生成する帯域分割データ変換部(subband encoding data reconstructing part)13とを有する。
パターン認識部20は、自己組織化カーネルメモリー(SOKM:self-organising kernel memory)として構成されるものであり、人工ニューラルネットワーク構造として、核関数に従って入力ベクトルとセントロイドベクトルとの類似度に応じた発火の強さを出力する複数のニューロンを含む自己組織化ニューラルネットワーク構造を備えている。なお、ここでいう核関数(カーネル関数)とは、ある2つのベクトルの関係を出力する関数をいう(文献(N. Cristianini and J. S. Taylor, "An Introduction to Support Vector Machines, Cambridge Univ. Press, 2000.)参照)。このような核関数としては任意のものを用いることができるが、2つのベクトルの相互関係を距離で表してその度合いをスカラー形式で出力するようなラジアル基底関数が好ましく用いられる。
強化学習部30は、比較器(comparator)31を有し、パターン認識部20により得られたパターン認識結果と目標値(target response)とに基づいて誤差信号(error signal)を求めるとともに、この求められた誤差信号を特徴抽出部10及びパターン認識部20にフィードバックさせることにより、特徴抽出部10及びパターン認識部20を再構成する。なお、ここでいう強化学習とは、パターン認識部20により得られるパターン認識結果がより良い状態となるよう特徴抽出部10及びパターン認識部20を再構成することをいい、狭い意味での強化学習には限定されない。具体的には、強化学習部30は、パターン認識部20により得られたパターン認識結果に基づいて、特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)での処理に必要とされるサンプリング周期、帯域分割数、帯域幅、フレーム数及び関数のうちの少なくとも一つのパラメータを調整する。また、強化学習部30は、パターン認識部20により得られたパターン認識結果に基づいて、パターン認識部20の自己組織化ニューラルネットワーク構造に含まれる複数のサブネットワーク構造に対して競合的な学習(competitive learning)を行わせる。お、ここでいう競合的な学習は、サブネットワーク構造単位で進化等を行わせるものであり、この点で、ニューロン単位で進化等を行わせる一般的な意味での競合的な学習とは異なる。また、ここでいう競合的な学習は、結果の悪い方のサブネットワーク構造を重点的に進化させるものであり、この点でも、結果の良い方のニューロンを重点的に進化させる一般的な意味での競合的な学習とは異なる。
次に、図1により、このような構成からなる自己進化型パターン認識システム1の作用について説明する。
図1に示す自己進化型パターン認識システム1において、センサから入力された入力データが特徴抽出部10に入力される。ここで、入力データとしては、人間の五感を構成する知覚である視覚(visual)、聴覚(auditory)、嗅覚(olfactory)、味覚(gustatory)及び触覚(somatosensory)に関する信号の他、脳波(EEG,MEG,fMRI,PET,SQUID等)や心電図(electrocardiogram)、筋電図(electromyogram)等の生体信号、又は、地震波(seismic wave)やレーダー波等といった自然現象から生じる信号といった任意の信号が挙げられる。
このようにして入力データが特徴抽出部10に入力されると、まず、サンプリング部11において、入力データがサンプリング周期Tで離散化される。ここで、サンプリング部11は、サンプリング周期Tが可変である点を除いて、既存の技術により実現することができる。
次いで、周波数帯域分割部12において、サンプリング部11により離散化されたサンプリングデータ(離散信号)が周波数領域で帯域分割数N及び帯域幅Wに帯域分割される。なお、最近の脳科学の見地から、このような周波数領域での帯域分割処理が、人間の五感を構成する知覚のうち視覚、聴覚及び嗅覚を発揮するための前処理として行われているということが明らかになってきている。
ここで、周波数帯域分割部12は、一連の分析フィルター列(analysis filter bank)を用いる手法により実現することができる(文献(Crochiere, R. E. and Rabiner, L. R.: Multirate Digital Signal Processing'', Englewood Cliffs, Prentice-Hall:NJ, 1983.)参照)。具体的には、このようなフィルター列は、図1に示すように、所定の帯域幅W,W,…,Wを持つバンドパスフィルター1〜Nとして実現することができる。なお、一般的には、一定(固定)の帯域幅を持つ複数のバンドパスフィルターを用いて入力データの全ての周波数をカバーするように構成されることが多いが、ここでは、バンドパスフィルターの数(帯域分割数N)、帯域幅W,W,…,W及び及びそれに関連するフィルター設計のためのパラメータは可変であるものとする。
次いで、帯域分割データ変換部13において、周波数帯域分割部12により帯域分割された各帯域の帯域分割データ(帯域信号列)がある期間Mにおける各帯域の全体を含むような形で束ねられて符号化される。すなわち、帯域分割データ変換部13において、周波数帯域分割部12により帯域分割された各帯域の帯域分割データ(帯域信号列)がフレーム数M単位で関数f(・)に従って変換される。
具体的には、周波数帯域分割部12で得られた時間n(n:離散時間)分の(又は1フレーム分の)帯域信号列を
(n)=[x(n),x(n),…,x(n)] … (1)
と定義すると、後段のパターン認識部20に入力される符号化データは、次式(2)のように、サイズがN×Mの行列形式で表現される。
(n)=[(n),(n−1),…,(n−M+1)] … (2)
(n)=[y(n),y(n),…,y(n)]
(n)=f(x(n)) (i=1,2,…,N)
ここで、関数f(・)は、後段のパターン認識部20での処理が効率的に行われるように必要に応じて各フレームデータに対して適用されるものであり、例えばローパスフィルターのように各フレームデータを更に圧縮するような関数や、各フレームデータの波形を平滑化するような関数、各フレームデータの正規化を行ってパターン空間の均一性を保つような関数等が適用される。ここで、関数f(・)内のパラメータは可変である。なお、パターン認識部20が自己組織化カーネルメモリーとして構成される場合には、他の人工ニューラルネットワーク構造の場合と同様に少なくともデータの正規化は行われることが望ましい。
また、フレーム数Mは、例えば脳神経学や心理学の見地から短期記憶(short-term memory)の許容範囲に従って固定とすることも可能であるが、ここでは可変であるものとする。
その後、このようにして特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)で順次処理されることにより得られた符号化データがパターン認識部20に入力される。
ここで、パターン認識部20は、自己組織化カーネルメモリー(SOKM)として構成されており、特徴抽出部10から入力された符号化データに基づいて人工ニューラルネットワーク構造が構築又は学習される。具体的には、パターン認識部20において、人工ニューラルネットワーク構造の構築又は学習は、与えられた条件下でニューロンが自己増殖的に順次追加されることにより、また、Hebbの法則に基づく自己組織化アルゴリズムに従ってそれらの複数のニューロンが相互に結合されることにより行われる。そして、このような人工ニューラルネットワーク構造の構築又は学習の過程でパターン認識部20内には幾つかのサブネットワーク構造(Sub−SOKMs)が自己発生的に形成され、これらのサブネットワーク構造(Sub−SOKMs)に基づいて最終的にパターン認識結果が出力される。なお、ここで用いられる人工ニューラルネットワーク構造の構築又は学習方法は、本出願人が先に出願した特願2004−38504号等に記載されたものと同一であるので、詳細な説明は省略する。
なお、このようにしてパターン認識部20から出力されたパターン認識結果は強化学習部30に入力される。強化学習部30においては、比較器31により、パターン認識部20から出力されたパターン認識結果と目標値とに基づいて誤差信号を求めるとともに、この求められた誤差信号を特徴抽出部10及びパターン認識部20に指令信号としてフィードバックさせることにより、特徴抽出部10及びパターン認識部20を再構成する。ここで、強化学習部30の比較器31に与えられる目標値は、システムの外側から(例えば人手を介して)与えられる他、システムの内部で自動的に定義されて与えられるようにしてもよい。なお、この後者の例としては、人工心システム内(AMS: artificial mind system)における他の心理学的モジュールとの連携に基づいて与えられる場合(文献(Hoya, T.: Artificial Mind System - Kernel Memory Approach. Springer-Verlag:Heidelberg, to appear. 2005.)参照)や、パターン認識とは別の用途のために構成された自己組織型カーネルメモリーの出力等に基づいて与えられる場合等が挙げられる。
すなわち、強化学習部30においては、パターン認識部20から出力されたパターン認識結果と目標値とに基づいて与えられた誤差信号により、特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)及びパターン認識部20の全てが再構成される。なお、強化学習部30により行われる特徴抽出部10及びパターン認識部20の再構成は、システムの外側又は内部で与えられた目標値に基づいて行われるものであり、広義には強化学習(reinforcement learning)とも呼ばれるものである(文献(川人光男、脳の計算理論、産業図書、1996.)参照)。
以下、強化学習部30により行われる特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)及びパターン認識部20の再構成の手法について説明する。
まず、上述したように、特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)において、その各部での処理に必要とされるパラメータ((i)サンプリング周期T、(ii)帯域分割数N、(iii)帯域幅W(及びそれに関連するフィルター設計のためのパラメータ)、(iv)帯域信号列のフレーム数M、(v)(必要であれば)関数f(・)内のパラメータ)の全てが可変であるものとする。また、パターン認識部20は、それが備える人工ニューラルネットワーク構造の構築又は学習によりその構成が変化するものとする。
そして、特徴抽出部10は、その初期の状態において、各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)での処理に必要とされる上記(i)〜(v)のパラメータが次のような初期パラメータ値に設定される。なおここでは、特徴抽出部10が聴覚系の特徴抽出器として用いられる場合を例に挙げて説明する。
すなわち、初期パラメータ値の設定は、人間の聴覚に関して工学的によく知られている知識に基づいてパラメータの自由度(degrees of freedom)を少なくするという観点で行われる。これは、本実施の形態に係る自己進化型パターン認識システム1においては、パラメータの自由度が比較的高くなるので、初期パラメータ値の設定を適切に行わない場合には、特徴抽出部10の各部における自己進化に費やされる時間(最終的に良いパターン認識結果を得るために必要とされる再構成のための時間)が多大になってしまうからである。
一般に、人間の可聴周波数は20Hz〜20kHz程度と考えられている。また、音声認識の処理においては、低・中域周波数域(200Hz〜3200Hz)の周波数軸を間引きするようなメル尺度(mel-scale)を用いる方が固定の周波数軸を用いるよりも認識率や符号化された音声信号の復元率(decoding rate)が高まることも知られている(文献(Deller, J. R,, Proakis, J. G., and Hansen, J. H. L.: Discrete-Time Processing of Speech Signals. Macmillan:New York, 1993.)参照)。これらの知見に基づき、まず、特徴抽出部10のサンプリング部11及び周波数帯域分割部12における3つのパラメータ((i)サンプリング周期T、(ii)帯域分割数N、(iii)帯域幅W(及びそれに関連するフィルター設計のためのパラメータ))の初期値が定められる。
次に、特徴抽出部10の帯域分割データ変換部13におけるパラメータ((iv)帯域信号列のフレーム数M)の初期値については、神経心理学で得られている知見(短期記憶の保持時間(retention time)及びサンプリング周期T)により定められる。
以上により、上記(i)〜(iv)の4つのパラメータが定められると、パターン認識部20の人工ニューラルネットワーク構造内に含まれる各ニューロンに保持されるテンプレートベクトル(又は行列)のサイズも一意に定められる。
また、特徴抽出部10の帯域分割データ変換部13における他のパラメータ((v)関数f(・)内のパラメータ)の初期値についても、ある程度一意に定められる。すなわち、パターン認識部20が自己組織化カーネルメモリーとして構成される場合には、関数f(・)として一般的に正規化関数及び平滑化関数等が用いられることとなるが、正規化関数としては単一の正規化関数(データの正規化も少なくとも−1から1の範囲で行われれば十分である)を用いればよく、また、平滑化関数のパラメータも学術的知見から得た情報に基づいて定められる。
なお、以上においては、特徴抽出部10が聴覚系の特徴抽出器として用いられる場合の
初期パラメータ値の設定の仕方について説明したが、特徴抽出部10が視覚系及び嗅覚系等の特徴抽出器として用いられる場合にも、同様にして、学術的知見から得た情報に基づいて上記(i)〜(v)のパラメータの初期値の範囲を限定することができる。
一方、パターン認識部20は、その初期の状態において、Hebbの法則に基づく自己組織化アルゴリズムに従って幾つかのサブネットワーク構造(Sub−SOKMs)が既に自己発生的に形成されているものとする。
この状態で、強化学習部30の比較器31により、パターン認識部20から出力されたパターン認識結果と目標値とに基づいて誤差信号が求められると、この求められた誤差信号が特徴抽出部10に対して指令信号としてフィードバックされ、例えば、強化学習部30から出力される誤差信号が0に近付くよう、特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)での処理に必要とされる上記(i)〜(v)のパラメータが更新される。具体的には例えば、上記(i)〜(v)のパラメータの更新の仕方として次のような方法を用いることができる。すなわち、上記(i)〜(v)のパラメータのうちのいずれかに該当する変数をaとしたときに、
a=amin (a<aminならば)
=amax (a>amaxならば) … (3)
=a+Δa (それ以外)
を満足するように各パラメーターの許容範囲内で各パラメータを漸次的に更新することが好ましい。なお、上式(3)において、aminおよびamaxはそれぞれ自己進化型パターン認識システム1に依存した閾値(最小値及び最大値)であり、Δaは増減値である。
これにより、パターン認識部20におけるパターン認識率の向上と、特徴抽出部10におけるサンプリング処理や周波数帯域分割処理等の効率化とのバランスを保ちながら、特徴抽出部10が自己進化的に再構成される。
ここで、特徴抽出部10の周波数帯域分割部12での処理に必要とされる上記(ii)、(iii)のパラメータを例に挙げると、これらのパラメータについては上述したように音声学的な見地からメル尺度を考慮することが好ましいことが分かっているが、上述した手法により、帯域幅Wを可変にしたバンドパスフィルターから成る分析フィルター列を用いて周波数帯域分割部12のパラメータを調整した場合には、これらのパラメータの初期値にかかわらず、結果的にメル尺度と同じような尺度で表現され得る。なお、入力データとして用いられる上記の他の知覚情報または他の信号情報に対しても一様にメル尺度を用いた場合が良いのかどうかはまだ学術的にも明らかになっていないが、いずれにせよ、特徴抽出部10の周波数帯域分割部12は、他の各部(特徴抽出部10のサンプリング部11及び帯域分割データ変換部13、及びパターン認識部20)と同様に、与えられた入力データに従って再構成されるので、パラメータが最適な値となるように特段人手を介さずにその調整が行われる。
ここで、特徴抽出部10の各部(サンプリング部11、周波数帯域分割部12及び帯域分割データ変換部13)での処理に必要とされる上記(i)〜(v)のパラメータのうちシステム全体に最も大きく影響すると考えられるパラメータは(i)であり、(ii)、(iii)、…の順でその寄与率が下がり、上記(v)のパラメータはパターン認識部20の人工ニューラルネットワーク構造内に含まれる各ニューロンにのみ直接影響を与えると考えられる。以上を考慮すると、自己進化型パターン認識システム1のシステム構成をより効率的に発展させるためには、パターン認識部20から出力されたパターン認識結果に基づいて特徴抽出部10を再構成する際に、例えば、ある期間q,q,…,q(q<q<…<q)内にパラメータを(v)、(iv)、...、(i)の順で変化させていくことが好ましいと考えられる。しかしながら、この手法はあくまでも一例であって、他の任意の手法をとることができることはいうまでもない。
一方、強化学習部30の比較器31により求められた誤差信号は、パターン認識部20に対しても指令信号としてフィードバックされ、パターン認識部20の自己組織化ニューラルネットワーク構造に含まれる複数のサブネットワーク構造に対して競合的な学習が行われる。具体的には、パターン認識部20において、パターン認識部20の自己組織化ニューラルネットワーク構造に含まれる複数のサブネットワーク構造のうちパターン認識結果の劣るサブネットワーク構造を重点的に進化させる一方で、パターン認識結果の勝るサブネットワーク構造をそのままの状態に保つようにする。
今、簡単のために、図2に示すように、パターン認識部20において、2つのサブネットワーク構造(Sub−SOKMs)21,22が形成される場合を例に挙げて説明する。なおこの場合、特徴抽出部10における初期パラメータ値は上述したようにして設定されているものとする。また、パターン認識部20内のサブネットワーク構造21,22も、上述したようにしてHebbの法則に基づく自己組織化アルゴリズムに従って既に自己発生的に形成されているものとする。
まず、図3に示すように、ある過去の期間pにサブネットワーク構造(Sub−SOKM A)21が形成され、また、ある期間pにサブネットワーク構造(Sub−SOKM B)22が形成されるものと仮定する。
この場合、強化学習部30においては、比較器31に含まれる第1比較器(C)31a,31bにより、ある期間p内にサブネットワーク構造21,22から出力されたパターン認識結果と目標値との誤差、及び各サブネットワーク構造21,22内の全てのニューロンの発火率の統計をとる。そして、第1比較器(C)31a,31bにより得られた誤差を第2比較器(C)31cにより比較し、例えばサブネットワーク構造21のパターン認識結果がサブネットワーク構造22のパターン認識結果よりも劣る場合には、次の期間pにおいて、サブネットワーク構造21を重点的に進化させる一方で、サブネットワーク構造22をそのままの状態に保つようにする。そして、期間pと同様に、次の期間pにおいて、サブネットワーク構造21,22から出力されたパターン認識結果について、それらのパターン認識結果と目標値との誤差及び各サブネットワーク構造21,22内の全てのニューロンの発火率の統計をとり、次の期間pにサブネットワーク構造21,22のうちのいずれを重点的に進化させるのかを決定する。なお、各期間p,p,…内においてサブネットワーク構造21,22内のニューロンの発火率の統計に基づいて、与えられた環境下でサブネットワーク構造21,22のいずれかが十分に機能していないと判断される場合(例えば、2つの期間p,p内において発火したサブネットワーク構造21,22内のニューロンの数がある閾値を下回る場合)には、サブネットワーク構造21,22のうちのいずれかを最終的に自動的に消去又は消滅(extinction)させるようにしてもよい。
なお、以上においては、単一入力(一種類の入力データが入力される状況)下でパターン認識部20内に2つのサブネットワーク構造21,22が形成される場合を例に挙げて説明したが、多重入力(多種類の入力データ ,…, が入力される状況)下で3つ以上のサブネットワーク構造が形成されるような場合にも一般化できることはいうまでもない。
なお、以上においては、パターン認識部20内に形成されるサブネットワーク構造21,22から独立した形で特徴抽出部10が形成されているが、これに限らず、図4に示すように、パターン認識部20内に形成されるサブネットワーク構造21,22に対応する形で特徴抽出部10A,10Bが形成されていてもよい。なお、特徴抽出部10A,10Bは、互いに異なったパラメータの組み合わせを持ち、互いに独立して動作する。ここで、特徴抽出部10A,10Bは、パターン認識部20内に形成される各サブネットワーク構造21,22の再構成に連動して再構成される。具体的には、第1比較器(C)31a,31bにより得られた誤差を第2比較器(C)31cにより比較し、例えばサブネットワーク構造21のパターン認識結果がサブネットワーク構造22のパターン認識結果よりも劣る場合に、サブネットワーク構造21及びそれに対応する特徴抽出部10Aを重点的に進化させる一方で、サブネットワーク構造22及びそれに対応する特徴抽出部10Bをそのままの状態に保つようにするとよい(なおこの場合でも、場合によっては特徴抽出部10B内の幾つかのパラメータは変化させてもよい)。また、サブネットワーク構造21,22内のニューロンの発火率の統計に基づいて、与えられた環境下でサブネットワーク構造21,22のいずれかが十分に機能していないと判断される場合には、サブネットワーク構造21,22のうちのいずれかを消去又は消滅させるとともに、それに対応する特徴抽出部10A又は10Bを自動的に消去又は消滅させるようにするとよい。
このように本実施の形態によれば、パターン認識部20により得られたパターン認識結果に基づいて強化学習部30により特徴抽出部10及びパターン認識部20を再構成するようにしているので、特徴抽出部10での処理及びパターン認識部20での処理を統括的に制御しながらシステム構成を自己進化的に発展させることが可能となり、パターン認識の処理を高い認識率でかつ効率的に行うことができる。
本発明の一実施の形態に係る自己進化型パターン認識システムの全体構成を示すブロック図。 図1に示す自己進化型パターン認識システムで行われるシステムの再構成(競合的な学習)の一態様を説明するための図。 図2に示す態様における競合的な学習の流れを示すタイムチャート。 図1に示す自己進化型パターン認識システムで行われるシステムの再構成(競合的な学習)の他の態様を説明するための図。
符号の説明
1 自己進化型パターン認識システム
10,10A,10B 特徴抽出部
11 サンプリング部
12 周波数帯域分割部
13 帯域分割データ変換部
20 パターン認識部
21,22 サブネットワーク構造
30 強化学習部
31,31a,31b,31c 比較器

Claims (5)

  1. 入力データを所定のサンプリング周期で離散化するサンプリング部と、このサンプリング部により得られたサンプリングデータを周波数領域で所定の帯域分割数及び所定の帯域幅に帯域分割する周波数帯域分割部と、この周波数帯域分割部により得られた各帯域の帯域分割データをそれぞれ正規化関数、平滑化関数のいずれかの関数に従って変換し、各帯域の変換された帯域分割データを所定のフレーム数単位で束ねた符号化データを生成する帯域分割データ変換部とを有する特徴抽出部と、
    核関数に従って入力ベクトルとテンプレートベクトルとの類似度に応じた発火の強さを出力する複数のニューロンを含む自己組織化ニューラルネットワーク構造を有し、前記特徴抽出部の前記帯域分割データ変換部により生成された前記符号化データに基づきパターン認識の処理を行うパターン認識部と、
    前記パターン認識部により得られたパターン認識結果と予め定められた目標値との誤差信号を求め、前記誤差信号がゼロに近づくように、前記特徴抽出部での処理に必要とされる前記サンプリング周期、前記帯域分割数、前記帯域幅、前記フレーム数及び前記関数のうちの少なくとも一つのパラメータを当該パラメータの最大値と最小値の間で予め定められた値だけ増減する学習を行う強化学習部とを備えたことを特徴とする自己進化型パターン認識システム。
  2. 請求項1に記載の自己進化型パターン認識システムにおいて、
    前記各ニューロンで用いられる前記核関数はラジアル基底関数を含むことを特徴とする、自己進化型パターン認識システム。
  3. 請求項1に記載の自己進化型パターン認識システムにおいて、
    前記パターン認識部の前記自己組織化ニューラルネットワーク構造は複数のサブネットワーク構造を有し、前記強化学習部は、前記自己組織化ニューラルネットワーク構造に含まれる複数のサブネットワーク構造に対して競合的な学習を行わせることにより前記学習を行うことを特徴とする自己進化型パターン認識システム。
  4. 請求項3に記載の自己進化型パターン認識システムにおいて、
    前記強化学習部は、前記誤差信号が他のサブネットワーク構造に比べて大きいサブネットワーク構造に学習を行わせ、前記他のサブネットワーク構造には学習を行わせないことを特徴とする自己進化型パターン認識システム。
  5. 請求項3に記載の自己進化型パターン認識システムにおいて、
    前記強化学習部は、予め定められた期間内に発火したニューロンの数が閾値を下回ったサブネットワーク構造を消去することを特徴とする自己進化型パターン認識システム。
JP2004261281A 2004-09-08 2004-09-08 自己進化型パターン認識システム Expired - Fee Related JP4599509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004261281A JP4599509B2 (ja) 2004-09-08 2004-09-08 自己進化型パターン認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004261281A JP4599509B2 (ja) 2004-09-08 2004-09-08 自己進化型パターン認識システム

Publications (2)

Publication Number Publication Date
JP2006079279A JP2006079279A (ja) 2006-03-23
JP4599509B2 true JP4599509B2 (ja) 2010-12-15

Family

ID=36158696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004261281A Expired - Fee Related JP4599509B2 (ja) 2004-09-08 2004-09-08 自己進化型パターン認識システム

Country Status (1)

Country Link
JP (1) JP4599509B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5261312B2 (ja) * 2009-07-30 2013-08-14 富士フイルム株式会社 画像解析装置、画像解析方法およびプログラム
WO2017068675A1 (ja) 2015-10-22 2017-04-27 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム
EP3735177A1 (en) * 2018-01-03 2020-11-11 Koninklijke Philips N.V. Full dose pet image estimation from low-dose pet imaging using deep learning
CN110647938B (zh) * 2019-09-24 2022-07-15 北京市商汤科技开发有限公司 图像处理方法及相关装置
US11429809B2 (en) 2019-09-24 2022-08-30 Beijing Sensetime Technology Development Co., Ltd Image processing method, image processing device, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105663A (ja) * 1989-09-20 1991-05-02 Fujitsu Ltd 強化学習処理方式
JPH03111963A (ja) * 1989-09-26 1991-05-13 Fujitsu Ltd ニューラルネット構成情報処理装置
JPH098707A (ja) * 1995-06-23 1997-01-10 Matsushita Electric Ind Co Ltd 音声制御装置
JP2003085560A (ja) * 2001-09-07 2003-03-20 Canon Inc 信号処理回路及びパターン認識装置
JP2004005498A (ja) * 2002-04-02 2004-01-08 Inst Of Physical & Chemical Res 記憶連鎖システム、記憶連鎖プログラム、記憶連鎖システムで用いられるニューロン素子

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105663A (ja) * 1989-09-20 1991-05-02 Fujitsu Ltd 強化学習処理方式
JPH03111963A (ja) * 1989-09-26 1991-05-13 Fujitsu Ltd ニューラルネット構成情報処理装置
JPH098707A (ja) * 1995-06-23 1997-01-10 Matsushita Electric Ind Co Ltd 音声制御装置
JP2003085560A (ja) * 2001-09-07 2003-03-20 Canon Inc 信号処理回路及びパターン認識装置
JP2004005498A (ja) * 2002-04-02 2004-01-08 Inst Of Physical & Chemical Res 記憶連鎖システム、記憶連鎖プログラム、記憶連鎖システムで用いられるニューロン素子

Also Published As

Publication number Publication date
JP2006079279A (ja) 2006-03-23

Similar Documents

Publication Publication Date Title
JP7422946B2 (ja) ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築
EP3361945B1 (en) System and method of adaptive interpretation of ecg waveforms
CN110070105B (zh) 基于元学习实例快速筛选的脑电情绪识别方法、系统
Shi et al. Hybrid convolutional recurrent neural networks outperform CNN and RNN in task-state EEG detection for Parkinson's disease
Forney et al. Classification of EEG during imagined mental tasks by forecasting with Elman recurrent neural networks
WO2008151818A2 (en) A method of and a system for sensor signal data analysis
Zhang et al. Classification of EEG signals based on AR model and approximate entropy
Tuncer A new stable nonlinear textural feature extraction method based EEG signal classification method using substitution Box of the Hamsi hash function: Hamsi pattern
JP4599509B2 (ja) 自己進化型パターン認識システム
CN114781439A (zh) 模型获取系统、手势识别方法、装置、设备及存储介质
Ali et al. Classification of motor imagery task by using novel ensemble pruning approach
Banerjee et al. Synthesis of realistic ECG waveforms using a composite generative adversarial network for classification of atrial fibrillation
Tzallas et al. Classification of EEG signals using feature creation produced by grammatical evolution
García-Salinas et al. Intra-subject class-incremental deep learning approach for EEG-based imagined speech recognition
CN117574059A (zh) 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统
Yang et al. EEG classification for BCI based on CSP and SVM-GA
CN114429174A (zh) 基于脑网络和多尺度排列熵的脑电信号情绪识别方法
Bawane et al. Classification of mental task based on EEG processing using self organising feature map
Bellegdi et al. Automatic detection of epilepsy using EEG energy and frequency bands
Golpayegani et al. A novel approach in ECG beat recognition using adaptive neural fuzzy filter
Sakr et al. Minimum precision requirements for deep learning with biomedical datasets
Zhang et al. Classification of eeg signals using multiple gait features based on small-world neural network
Stoimchev et al. 150. DETECTION OF EPILEPSY USING ADAPTIVE NEURO-FUZZY INFERENCE SYSTEM
Morales-Flores et al. Mental tasks temporal classification using an architecture based on ANFIS and recurrent neural networks
Rivero et al. Evolving simple feed-forward and recurrent ANNs for signal classification: A comparison

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100608

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100825

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees