JP3621786B2 - 多次元入力データ特徴選択装置 - Google Patents
多次元入力データ特徴選択装置 Download PDFInfo
- Publication number
- JP3621786B2 JP3621786B2 JP22238596A JP22238596A JP3621786B2 JP 3621786 B2 JP3621786 B2 JP 3621786B2 JP 22238596 A JP22238596 A JP 22238596A JP 22238596 A JP22238596 A JP 22238596A JP 3621786 B2 JP3621786 B2 JP 3621786B2
- Authority
- JP
- Japan
- Prior art keywords
- weighting factor
- reference data
- unit
- load distance
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
Description
(目次)
発明の属する技術分野
従来の技術(図11〜図13)
発明が解決しようとする課題
課題を解決するための手段
発明の実施の形態(図1〜図10)
発明の効果
【0002】
【発明の属する技術分野】
本発明は、パターン認識,ニューラルネットワーク,事例ベースド推論などの分野における特徴量の評価選択のための技術(多次元の入力ベクトルからいくつかの特徴量を選択する特徴選択技術)に関し、特に、知的エージェントの認識システム内における複数の処理モジュール間の接続構造を決定する場合に用いて好適の多次元入力データ特徴選択装置に関する。
【0003】
内部に複数の処理モジュールをもつ大規模認識システムのモジュール間では、外界入力の情報構造に適合した情報交換を行なう必要がある。システムが柔軟な適応能力を持つには、処理モジュール毎だけでなく、その間の接続構造もダイナミックに変化させなければならない。接続構造の学習を行なう手掛かりとしては、外界入力の部分独立性を利用する方法が有望であり、これは局所毎には関連の強い特徴量の選択となる。しかし、従来このような視野に立つ特徴選択の研究はあまり進められていない。
【0004】
そこで、本発明では、現入力状態と過去の入力状態とにマッチングできる機会に対応するマッチアビリティ(Matchability)という尺度を特徴量毎に導入し、これを最大化する方向で関連の強い特徴量を選択する手法を提案する。
【0005】
【従来の技術】
図11は、一般的な知的エージェントの構成を示すブロック図であり、この図11に示す知的エージェント50は、認識システム51,行動生成部52及び評価部53をそなえて構成されている。但し、図11中の“○”は各種情報(例えば、画像,音声等)に対応する処理モジュールを表している。
【0006】
ここで、認識システム51は、環境から入力される複数の情報について何れの情報をどのように使うかを認識するもので、現在の情報の入力状態にマッチングする過去の情報の入力状態の検索を行なうようになっており、また、情報の入力頻度を増す毎に学習するようになっている。
なお、認識システム51においては、情報が入力されると、目的とする行動に応じてそれぞれ認識が行なわれるようになっており、図11に示すように、矢印の方向に進むにつれて認識度のレベルが高くなり、認識が困難となる。
【0007】
また、行動生成部52は、認識システム51から得られる目的とする行動に応じた情報(認識結果)及び評価部53からの評価に基づいて、環境に対する行動を生成するものであり、評価部53は、認識システム51から行動生成部52に入力された情報について過去の入力状態に関連づけられた行動やその行動の帰結に対する評価を行なうものである。
【0008】
このような構成により、知的エージェント50による行動決定は以下のように行なわれる。つまり、環境から複数の情報が入力されると、認識システム51において現在の情報の入力状態にマッチングする過去の情報の入力状態が検索されるとともに、評価部53において過去の入力状態に関連づけられた行動やその行動の帰結に対する評価が行なわれたのち、認識システム51による認識結果及び評価部53の評価に基づき、行動生成部52において知的エージェント50の環境に対する行動が生成される。
【0009】
ところで、認識システム51は、上述したように、環境から得た情報を行動に役立てやすい表現に変換する役割を持っている。そのため、知的エージェント50全体が柔軟な適応能力をそなえるには、処理を実行している段階での処理能力と、その処理能力を獲得するまでの学習機能との両方が必要となる。
また、実世界(環境)からの膨大な入力情報全体を一気に取り扱うことは現実的な速度では不可能であるため、認識システム51では、部分処理空間に専門化した多数の処理モジュール(図11参照)を用意し、それらの処理モジュールが入力の情報構造を反映して接続した内部構造を必要としていると考えられている。即ち、認識システム51の適応能力は、処理モジュール毎と処理モジュール間の接続構造との両方での適応能力に依存するといえる。
【0010】
しかし、これまでは処理モジュール毎の学習に関する研究が多い。それ故、モジュール毎の接続の学習が可能となれば、これまで以上に柔軟性の高い適応能力を実現できる可能性がある。
そこで、本発明では、処理モジュール間の接続構造の学習を目的とした特徴選択の提案を行なう。なぜなら、接続構造の決定は各処理モジュールから見れば特徴量の選択だからである。特徴量の評価選択に関しては、これまでにもパターン認識,ニューラルネットワーク,事例ベースド推論などの分野で研究が行なわれている。
【0011】
特徴を選択する尺度としては、タスクを限定する“教師有り学習”の枠組みの中で認識率や誤り確率などを利用するのが最も直接的でわかりやすい。事例ベースド推論の研究においては、この枠組みの中で有効性を表現するような重み係数を導入して特徴量の評価を行なっている。
例えば、図12に示ように、“教師有り学習”を行なう多次元入力データ特徴選択装置1Aでは、入力信号I(t) に重み係数W(t) を加重して出力する重み係数保持装置2と、この重み係数保持装置2から出力される入力信号を変換させる変換装置3とがそなえられており、変換装置3から得られた出力の精度の向上や誤り確率を減少させるように、重み係数保持装置2に保持される重み係数W(t) を変化させることにより、特徴量の組み合わせを選択するようになっている。
【0012】
このとき、事例ベースド推論(事例に基づいた推論)の分野では重み係数W(t) を連続的に変化させるほか、パターン認識の分野では重み係数W(t) を0,1で離散的に変化させることにより、好ましい出力を得ることのできる特徴量の組み合わせが選択される。
ただし、I(t) ={Ii (t) }, W(t) ={Wi (t) }であり、tは時刻、iは1〜mの自然数、mは入力データ(入力信号)I(t) の次元数である。
【0013】
図12に示す多次元入力データ特徴選択装置1Aは、出力における正解が分かっている“教師有り学習”であるため、教師がいない環境で自律的に学習する“教師無し学習”ではない。そこで、例えば、図13に示すような多次元入力データ特徴選択装置1Bも提案されている。この多次元入力データ特徴選択装置1Bは、変換装置3に代えて主成分分析装置4を用いたもので、この主成分分析装置4を用いることにより、多次元特徴量の中で最も重要な次元が選択されるようになっている。
【0014】
なお、多次元入力データ特徴選択装置1A及び1Bのいずれにおいても、情報量を大きくするために、できるだけ独立性が高く相互に独立な振る舞いをする特徴量の組み合わせが選択される。
【0015】
【発明が解決しようとする課題】
本発明では、タスクを限定せずに一般的な目的に用いる認識システムを考え、入力情報だけを利用して自己組織的に構造を獲得する“教師無し学習”の枠組みに注目している。パターン認識におけるこの種の研究では、情報量基準等を用いて小さな次元の中に有用な情報を表現する手法、即ち、出力のコンパクトネス(Compactness )を追及する手法が多数提案されている。さらに、上記の2つの手法はしばしば組み合わされ、パターン認識の分野を初めとし、特にニューラルネットワークの分野における枝刈り等はこれに類するケースが多い。また、多変量解析などの特徴抽出技術においても、“教師無し学習”では、出力のコンパクトネスを追及することが多い。
【0016】
しかしながら、上述のように認識システムの処理モジュール間の接続構造を決定する場合に必要となる特徴選択技術において、関連の深い相互に相関の大きい特徴量の組み合わせを選択する必要があるので、従来技術のように互いに相関の小さい特徴量を選択する特徴選択技術、即ち、コンパクトネスを追及する特徴量選択の手法は、その性質上そぐわないという課題がある。
【0017】
つまり、認識システムの接続構造の学習に際し、各処理モジュールでは、環境からの入力情報内に含まれる“相関の空間的な局所性”及び“相関の時間的な局所性”を利用し、特定の状況下で強い相関を持つ部分特徴量を選択すべきであるが、コンパクトネスを追及する特徴量選択の手法は、独立性が高く相互に相関の弱い特徴量を選択し、時間的にも異なった状況から情報を取り込む性質を持つため、認識システム内部の接続構造の学習には不適切である。
【0018】
ここで、“相関の空間的な局所性”とは、特徴量空間内の高い相関が、多くの場合、その部分特徴量に現れるという性質であり、“相関の時間的な局所性”とは、部分特徴量空間内の高い相関が、定常的ではなく、特定の状況でのみ現れるという性質である。
本発明は、このような課題に鑑み創案されたもので、特徴量毎に現在の入力状態と過去の入力状態とのマッチングを最大化することにより、互いに相関の大きい特徴量の組み合わせを選択できるようにした多次元入力データ特徴選択装置を提供することを目的とする。
【0019】
【課題を解決するための手段】
このため、本発明の多次元入力データ特徴選択装置は、複数の参照データを保持する参照データ保持部と、次元毎に設定された重み係数を保持する重み係数保持部と、該参照データ保持部に保持されている該参照データと多次元の入力データとの間の距離に該重み係数保持部に保持された上記次元毎の重み係数を用いて重み付けした荷重距離を計算する荷重距離計算部と、該荷重距離計算部で計算された荷重距離のうち最も小さい荷重距離に対応する参照データをマッチデータとして選択するマッチデータ選択部と、該マッチデータ選択部で選択されたマッチデータと該入力データとの距離であって、該重み係数を用いて重み付けがなされていない、非荷重距離を計算する非荷重距離計算部と、該非荷重距離計算部で計算された非荷重距離に基づいて、該非荷重距離が小さい次元に対応する重み係数を増加させる一方、該非荷重距離が大きい次元に対応する重み係数を減少させるよう、該重み係数保持部の重み係数を変更する重み係数変更部とをそなえて構成されたことを特徴としている(請求項1)。
【0020】
なお、該荷重距離計算部を、(1)式による計算を施すように構成し、該非荷重距離計算部を、(2)式による計算を施すように構成し、且つ、該重み係数変更部を、(3)式による計算を施すことにより該非荷重距離の要素が小さいほど該重み係数を大きくする重み係数変更情報を求めるとともに、(4)式による計算を施すことにより該重み係数変更情報について正規化処理を施した重み係数正規化情報を求めるように構成してもよい(請求項2)。
【0021】
また、該荷重距離計算部を、上記(1)式による計算を施すように構成し、該非荷重距離計算部を、下記(2)′式によるユークリッド距離計算を施すように構成し、且つ、該重み係数変更部を、上記(3)式による計算を施すことにより該非荷重距離の要素が小さいほど該重み係数を大きくする重み係数変更情報を求めるとともに、上記(4)式による計算を施すことにより該重み係数変更情報について正規化処理を施した重み係数正規化情報を求めるように構成してもよい(請求項3)。
【0022】
dP (t) = 〔Σi {ΔP i (t) }2 〕1/2 ・・・(2)′
ここで、ΔP i (t) =|Ii (t) −RP i |
上記(1)〜(4)式や(2)′式を用いる場合、該重み係数変更部を、(5A),(5B),(6A),(6B)式による計算を施すことにより該重み係数についての平均化処理を施して更新重み係数を求め、該重み係数保持部の重み係数を該更新重み係数に変更するように構成してもよい(請求項4)。
【0023】
【0024】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は本発明の一実施形態にかかる多次元入力データ特徴選択装置の構成を示すブロック図で、この図1に示す多次元入力データ特徴選択装置20は、参照データ保持部10,重み係数保持部11,荷重距離計算部12,マッチデータ選択部13,非荷重距離計算部14,重み計算変更部15,参照データ追加部16及び参照データ削除部17をそなえて構成されている。
【0025】
ここで、参照データ保持部10は、n個(n≦nmax )の参照データ(例えば、行動に関する多次元の情報)RP ={RP i }を保持するものである。なお、Pは参照データを特定するための数値で、Pは1〜nの自然数である。また、iは特徴量(入力データI(t) や参照データRP )の次元で1〜mの自然数であり、mは特徴量の全次元数である。
【0026】
重み係数保持部11は、次元毎に設定された重み係数Wi (t) を保持するものであり、荷重距離計算部12は、参照データ保持部10に保持されている参照データRP と多次元の入力データI(t) との間の距離ΔP i (t) =|Ii (t) −RP i |に、重み係数保持部11に保持された次元毎の重み係数Wi (t) を用いて重み付けした荷重距離DP (t) を(1)式によって計算するものである。
【0027】
また、マッチデータ選択部13は、荷重距離計算部12で計算された荷重距離DP (t) のうち最も小さい荷重距離DP (t) に対応する参照データRP をマッチデータRPmatchとして選択するものであり、Pmatch (t) は下記(a)式のように表される。
さらに、非荷重距離計算部14は、マッチデータ選択部13で選択されたマッチデータRPmatchと入力データI(t) との非荷重距離dP (t) を(2)式によって計算するものである。
【0028】
DP (t) =Σi {Wi (t) ΔP i (t) } ・・・(1)
dP (t) =Σi {ΔP i (t) } ・・・(2)
ここで、ΔP i (t) =|Ii (t) −RP i |
t : 時刻
Σi :iについて総和を示す演算子
Pmatch (t) =P(min DP (t) ) ・・・(a)
なお、非荷重距離計算部14におけるマッチデータ選択部13で選択されたマッチデータRPmatchと入力データI(t) との非荷重距離dP (t) の計算は、(2)′式に示すようなユークリッド距離に置き換えてもよい。
【0029】
dP (t) = 〔Σi {ΔP i (t) }2 〕1/2 ・・・(2)′
一方、重み係数変更部15は、非荷重距離計算部14で計算された非荷重距離dPmatch(t) 及び非荷重距離ベクトルΔPmatch(t) ={ΔPmatch i (t) }に基づいて、非荷重距離dPmatch(t) の要素ΔPmatch i (t) が小さい次元に対応する重み係数Wi (t) を増加させる一方、非荷重距離dPmatch(t) の要素ΔPmatch i (t) が大きい次元に対応する重み係数Wi (t) を減少させるよう、下記(3),(4),(5A),(5B),(6A),(6B)式を用いて次の時刻t+1で使用する更新重み係数W(t+1)={Wi (t+1)}を求め、重み係数保持部11の重み係数W(t) を更新重み情報W(t+1)に変更するものである。
【0030】
つまり、重み係数変更部15は、まず(3)式による計算を施すことにより、非荷重距離dPmatch(t) の要素である局所距離ΔPmatch i (t) が小さいほど重み係数W(t+1)を大きくする学習規則で重み係数変更情報Wi (1) (t) を求めた後、(4)式による計算を施すことにより、その重み係数変更情報Wi (1) (t) について正規化処理を施した重み係数正規化情報Wi (2) (t) を求めるようになっている。
【0031】
さらに、重み係数変更部15は、(3)式及び(4)式による演算結果を用いて(5A),(5B)式及び(6A),(6B)式による計算を施すことにより、重み係数W(t) についての平均化処理を施して更新重み係数Wi (t) を求めるようになっている。即ち、本実施形態の重み係数変更部15においては、重み係数Wi (t) の境界値Wthを設定し、(5A),(5B)式及び(6A),(6B)式により全体的なバランスを調整することで、ある程度大きな重み係数Wi (t) 同士が平均化されるとともに、小さな重み係数Wi (t) に復活の機会が与えられ、最終的に更新された重み係数Wi (t+1)が得られるようになっている。
【0032】
但し、α,β,Wthは定数で、0<α<1,β>1,0<Wth<1である。
【0033】
また、参照データ追加部16は、参照データ保持部10に保持されている参照データRP と多次元の入力データI(t) とを比較して、入力データI(t) と参照データRP とが所定の基準より異なっている場合には、この入力データI(t) を新たな参照データRP として参照データ保持部10に保持させるものである。
さらに、本実施形態の参照データ追加部16は、参照データ保持部10に保持されている参照データRP の数nが所定値nmax 以下の場合には、新たな参照データRP を参照データ保持部10に追加させる機能も有している。
【0034】
換言すれば、本実施形態の多次元入力データ特徴選択装置20では、新たに得られた入力データI(t) が、参照データ保持部10に保持されている参照データRP の何れともかなり異なり、且つ、参照データのスロットに余裕がある場合、その入力データI(t) が新たな参照データとして参照データ保持部10に追加されるようになっている。
【0035】
つまり、(7)式に示すように、マッチしたデータRPmatch(t) と入力データI(t) との荷重距離DPmatch(t) があるしきい値θ(θ>0)よりも大きければ、入力データI(t) が新たな参照データとして参照データ保持部10に追加されるようになっているのである。
また、参照データ削除部17は、参照データ保持部10に保持されている参照データRP のうち利用頻度が所定値以下で保持後所定時間経過している参照データRP を参照データ保持部10から削除するもので、例えば、追加されてから10時刻過ぎても一度も利用されない参照データRP と、追加されてから30時刻経過しても一度しか利用されない参照データRP を削除するようになっている。なお、1時刻は、例えば、システムの1制御周期(1τ)に対応するものである。
【0036】
さらに、本実施形態の参照データ削除部17は、参照データ保持部10に保持されている参照データのうち、重み係数W(t) の変化に伴って相互に類似しているとみなされた参照データRP ,RP ′については、少なくとも1つの参照データRP を除いて残りの参照データRP ′を参照データ保持部10から削除する機能も有している。なお、本実施形態では、(8)式及び(9)式に示すように、削除される参照データRP ,RP ′間の距離DPP′のしきい値は、データ追加時と同じ値θを利用する。
【0037】
DPP’ =Σi {Wi (t) ΔPP’ i } ・・・(8)
ここで、ΔPP’ i =|RP i −RP’ i |
if(DPP′<θ) Deleting RP ′ ・・・(9)
上述の構成により、本発明の一実施形態にかかる多次元入力データ特徴選択装置20では、図1に示すように、時刻tにおいてm次元の入力データI(t) が与えられると、荷重距離計算部12において、参照データ保持部10に保持されているn個の参照データRP と入力データI(t) との間の距離ΔP i (t) を重み係数保持部11に保持された次元毎の重み係数Wi (t) を用いて重み付けした荷重距離DP (t) が上記の(1)式を用いて計算される。
【0038】
また、マッチデータ選択部13において、荷重距離計算部12で計算された荷重距離DP (t) のうち最も小さい荷重距離DP (t) に対応する参照データRP がマッチデータRPmatchとして選択される。即ち、n個の参照データRP の中から入力データI(t) に最も近い参照データRPmatchが選択される。
続いて、非荷重距離計算部14において、マッチデータ選択部13で選択されたマッチデータRPmatchと入力データI(t) との非荷重距離dP (t) が上記の(2)式を用いて計算される。
【0039】
このとき、非荷重距離計算部14において、計算されるマッチデータ選択部13で選択されたマッチデータRPmatchと入力データI(t) との非荷重距離dP (t) は、上記の(2)′式のようなユークリッド距離に置き換えてもよい。
さらに、重み係数変更部15において、非荷重距離計算部14で計算された非荷重距離dPmatch(t) 及び非荷重距離ベクトルΔPmatch(t) ={ΔPmatch i (t) }に基づいて、上記の(3)式に示すような計算が施され、非荷重距離dPmatch(t) の要素ΔPmatch i (t) が小さい次元に対応する重み係数Wi (t) は増加される一方、非荷重距離dPmatch i (t) の要素ΔPmatch i (t) が大きい次元に対応する重み係数Wi (t) は減少され、さらに、(4)〜(6)式の計算に基づいて重み係数保持部11の重み係数Wi (t) が新たな更新重み係数Wi (t+1)に変更される。
【0040】
即ち、後述するマッチングチャンス(Matching Chance )を増加させるための重み係数W(t) の学習則は、局所距離ΔPmatch i (t) が小さいほど重み係数Wi (t) が大きくなる学習規則であり、上記の(3)式に示すようにマッチングしたデータRPmatchと入力データI(t) との非荷重距離dPmatch(t) を利用して重み係数変更情報Wi (1) (t) が求められ、その後、上記の(4)式に示すように、正規化(規格化)処理が行なわれる。(3)式の効果により、マッチング精度が向上し、誤差の少ない特徴量の重み係数Wi (t) が相対的に大きくなる。
【0041】
また、重み係数変更部15において、上述の(5A),(5B)式及び(6A),(6B)式に示す学習則に基づき、ある程度大きな重み係数Wi (t) 同士が平均化され、小さな重み係数Wi (t) に復活の機会が与えられる。
さらに、本実施形態では、上記(7)式に基づいて、参照データ保持部10に保持されている参照データRP と多次元の入力データI(t) とを比較したとき、入力データI(t) と参照データRP とが所定の基準より異なっており、且つ、参照データ保持部10に保持されている参照データRP の数nが所定値nmax 以下の場合には、参照データ追加部16により、上記の入力データI(t) が新たな参照データRP として参照データ保持部10に追加される。
【0042】
また、参照データ保持部10に保持されている参照データRP のうち利用頻度が所定値以下で保持後所定時間経過している場合は、参照データ削除部17により、参照データ保持部10からその参照データRP を削除するほか、上記(8)式及び(9)式に基づいて、参照データ保持部10に保持されている参照データのうち重み係数W(t) の変化に伴って相互に類似しているとみなされた参照データRP ,RP ′が存在する場合は、少なくとも1つの参照データRP を除いて残りの参照データRP ′が参照データ保持部10から削除される。
【0043】
ところで、上述した本実施形態の多次元入力データ特徴選択装置20は、コンパクトネスを指向する特徴選択の機能を補い得る、複数の処理モジュール(図11参照)の専門化を前提としたマッチアビリティ(Matchability)を指向するもので、以下に、マッチアビリティとその最大化の意義(必要性)について説明する。
【0044】
ここでは、認識の定義として計算機科学において比較的一般的である「一度認めたものを、もう一度認めること」と考えている。つまり、認識とは、ある入力を外部の観測者が解釈するのではなく、既に経験した入力と同一、または、類似、または、それらの組み合わせとして解釈することである。
図11にも示したように、認識システム51は行動生成部52を含む知的エージェント50の一部であるから、認識の目的は、行動の決定に役立つ情報の抽出だと考えられる。行動決定の過程では、まず現在の入力状態にマッチングする過去の入力状態を探索し(本実施形態における参照データRPmatchの抽出)、それに関連づけられた行動や、その行動の帰結に対する評価に基づいて行動を選択する。
【0045】
そこで、認識の定義と行動決定過程から考慮すると、行動に有用な認識とは、出力表現がコンパクトであると同時に多くの機会をマッチングできることが望まれる。従って、認識システム51における処理モジュール間の接続構造の獲得においても、下記の2つの観点、▲1▼コンパクティビティ(Compactivity)と▲2▼マッチアビリティとを考慮すべきである。
【0046】
▲1▼コンパクティビティ:コンパクティビティを指向する研究では、通常、入力特徴量空間は予め与えられたものとして、出力におけるコンパクトネスを追及している。ここでは、情報圧縮や目立つ特徴を強調することを技術的なテーマとしている。一方、コンパクトにする処理の視点に立つと、入力部分において冗長な情報を持つ方(Redundancy of Input )が都合がよい。
【0047】
▲2▼マッチアビリティ:マッチアビリティ指向では、認識システム51が過去において外界から得られた有限の経験を、将来の入力にマッチできる可能性を大きくすることを目的とする。即ち、マッチアビリティとは、システムが入力に対してどれだけ多くのマッチングを生み出すことができるかという指標である。このマッチアビリティを増大させるには、具体的には2つの方向がある。1つは、局所的、且つ、時間的には相関の高い部分特徴量を選択することにより、マッチングチャンスを増大させるものであり、もう1つは、大局的、且つ、空間的には多様な反応性を持つ処理モジュールを並列に動作させることによりマッチングの多様性(Matching Variety)を増大させるものである。
【0048】
認識システム51の処理モジュール間の接続構造の学習には、相補的な上記2つの尺度(コンパクティビティとマッチアビリティ)が重要であるが、現状では出力のコンパクトネス(Compactness of Output)を評価の指標とする特徴選択/抽出が主流である。そこで、本実施形態の多次元入力データ特徴選択装置20では、前述のごとく、(1)〜(4),(5A),(5B),(6A),(6B)式を用いることにより、マッチアビリティ指向の特徴選択のアルゴリズムを実現している。
【0049】
即ち、本実施形態における特徴選択のアルゴリズムは、各処理モジュールにおけるマッチングチャンス(=局所的なマッチアビリティ)を増加させる学習則であり、本実施形態では、特徴量毎に与えられる重み係数W(t) を変化させることで選択を行なうようになっているのである。
ここで、上述した本実施形態の多次元入力データ特徴選択装置20の機能について実証する具体例(シュミレーション)とその結果を報告する。シミュレーションでは、10通りの入力系列を並列に動作する8つの処理モジュールに与えることによって、特徴量毎の重み係数Wi (t) の変化を調べている。
(1)実験条件
入力系列は、時刻1から500まで継続する10次元の特徴量ベクトル(x1 〜x10)で表されている。図2(a)に示すように、2クラス・フェーズにおいては、この特徴量ベクトルはそれぞれ独立なスカラー変数に従属する2つの部分特徴量ベクトル(Class A,Class B)に分割できる。これら2つの部分にそれぞれ対応する2つの独立変数(隠れ変数) jmax A , jmax B を、“rand(min,max) ”を[min,max ]間の一様乱数として、(10A),(10B)式のようにそれぞれ定義する。
【0050】
jmax A =rand(0.0,4.0) ・・・(10A)
jmax B =rand(0.0,6.0) ・・・(10B)
“Class A”は変数 jmax A によって制御される4次元特徴量Ij (t)(j =1,2,3,4)で、“Class B”は、変数 jmax B によって制御される6次元特徴量Ij (t)(j =5,6,7,8,9,10) で、それぞれ0.1以下の雑音を含んでおり、以下に示す(11A),(11B)式のように表される。
【0051】
一方、図2(b)に示すように、ランダム・フェーズでは各特徴量Ii (i=1〜10)は各々独立な一様乱数に従っており、以下に示す(12)式のように表わされる。
【0052】
Ii (t) =rand(0.0,1.0) ・・・(12)
次に、各処理モジュールのパラメータnmax ,θ,k,Wth,α,βを図3のように設定し、さらに初期状態では、参照データを保持せず、重み係数Wi (O) は、(13)式のごとく乱数により各次元毎に独立に決定した後、(14)式により規格化される。
【0053】
Wi (O) =10−(1+rand(0.0,2.0)) ・・・(13)
Wi (O) =Wi (O) /Σi Wi (O) ・・・(14)
(2)実験結果
〔2−1〕2クラス・フェーズの入力系列について
異なる初期化を行なったいずれの入力系列においても100から200時刻経過後には、図4及び図5に示すように、各処理モジュールの重み係数Wi はいずれかのクラスの特徴量を選択した。また、図6に示すように、10通りのいずれのケースにおいても“Class B”に専門化するモジュールが多いことから、冗長性の高い特徴量に対して専門化が起こりやすい傾向があるといえる(Class A:Class B=14:66)。なお、図4,図5及び後述する図7,図8,図10に示すグラフ中における数値1〜10はiの値であり、例えば“5”を付されたラインは重み係数W5 に対応するものであることを示している。
【0054】
〔2−2〕2つのフェーズを混合した入力系列について
初めの8時刻はランダム・フェーズとし、引き続く8時刻を2クラス・フェーズとし、以下このサイクルを500時刻まで繰り返す入力系列を与えて同様の実験を行なった。ランダム・フェーズを含めたことで入力情報に時間的な局在性があるにも関わらず、今回の実験の範囲では、図7及び図8に示すように、多くの場合にクラス毎の部分特徴量が選択された。
【0055】
つまり、ランダム・フェーズにおいても、図9に示すように、2クラス・フェーズの入力系列と同様に、“Class B”に専門化するモジュールが多いことから、同様に冗長性の高い特徴量に対して専門化が起こりやすい傾向があるといえる。
なお、図9では、専門化が多少不十分でもどちらかのクラスに分類しうる場合はそれぞれのクラスに分類したが、それでもなお判断できなかったものについては、“Obscure ”に分類した(Class A:Class B:Obscure =14:56:10)。
【0056】
また、これらの2つのフェーズを混合した入力系列においては、例えば図10に示すように、学習を500時刻以降まで行なっても専門化が不十分な場合もあった。これは、特にその一部のケースで見られた現象として、ほぼ選択されたクラスと相関の強い重み係数の値が、平均化のしきい値Wthよりも小さい領域に落ち込み、その値がなかなか大きくならないために生じるもので、図10においては、500時刻経過後にも、いずれのクラスにも専門化しなかった。
【0057】
次に、本実施形態における特徴抽出のアルゴリズムについて、さらに説明する。
〔1〕コンパクティビティの最大化と重み係数の平均化について
本実施形態においてはマッチアビリティの最大化について述べているが、実際の特徴選択のアルゴリズムはコンパクティビティとマッチアビリティの両尺度のバランスの上に成り立っている。つまり、(5A),(5B)式による重み係数の平均化は選択する特徴量の数を増加させ、コンパクティビティの最大化に必要な入力空間の冗長性(Redundancy of Input )を増加させる。これに対して、(3)式による特徴量毎の重み係数Wi (t) の選択減衰はマッチングチャンスを増加させる。
【0058】
従って、コンパクティビティとマッチアビリティの両尺度をバランスよく用いることにより、できるだけ少ない参照データで記述することが可能となり、且つ、記述量を減らすことによりノードを増やすことができる。つまり、このことは、選択された特徴量によって張られる超空間中の参照データの存在領域を相対的に小さくすることであり、選択された部分特徴空間に対して特徴抽出処理を施すことで効果的に圧縮を行なうことができる。
【0059】
もし、上記の2つの尺度を融合した適当な評価量を定義することができるならば、直感的には各処理モジュールの専門化は、選択する特徴量と保持する参照データなどを組み合わせた空間においての評価量に関するローカルミニマムへの引込みになると考えられる。従って、上述のシミュレーションの結果において冗長性の高い特徴量(特徴量の数が多いクラス)に対して専門化しやすいのは、冗長度が高いほど引込み領域が大きいためであると考えられる。
【0060】
〔2〕処理モジュールの専門化のバランスについて
上述したマッチングチャンスに対応してマッチング多様性( Matching Variety )の観点からは、多様な専門化が行なわれることが望ましいが、各処理モジュールを専門化した状態はローカルな安定状態であり、その発生確率においても本質的に偏りがある。そこで、本実施形態のごとく各処理モジュール毎にマッチングチャンスを考慮した学習則においては、モジュール間で相互作用を行なうグローバルな機構を導入することにより、多様性に富んだ専門化を実現することができる。
【0061】
〔3〕認識システムの作成に向けた特徴抽出装置との結合について
上述したように、本実施形態におけるマッチアビリティを指向する特徴選択手法は、コンパクティビティ指向の特徴抽出手法に対して相補的な技術であるため、認識システムを構築する際には、両方の技術を融合することが不可欠であると考えられる。
【0062】
まず、マッチアビリティ指向の本実施形態の多次元入力データ特徴選択装置20によって選ばれた相関の高い部分的な特徴量をコンパクティビティ指向の特徴抽出装置に入力することにより圧縮した表現を生成する結合処理モジュールが作成され、さらにそれらを接続してネットワーク構造が作成される。なお、自律的に認識システムを構築するための方法としては、必要に応じて結合処理モジュールをインクリメンタルに追加することや、予め大きく作ったネットワークを枝刈りして小さくすることなどが考えられる。
【0063】
〔4〕入力情報構造に時間的な局在性への対応について
混合入力系列に対するシミュレーションでは、入力情報に相関の時間的な局在性があるにも関わらず、上述したように、特徴量の選択をある程度行なうことができた。しかし、より複雑な時間的な局在性を持つ入力系列に対しては、重み係数の学習が不安定になると予測されるため、参照データの評価や取捨選択等を行なうことにより対応できる。
【0064】
このように、本発明の一実施形態における多次元入力データ特徴選択装置20によれば、外部から入力データI(t) が与えられると、参照データRP との距離ΔP i (t) に重み付けされた荷重距離DP (t) が計算されたのち、荷重距離DP (t) の最も小さい距離のデータ(マッチデータ)RPmactch が選択され、そのマッチデータRPmactch に基づいて入力データI(t) と参照データRP との距離ΔP i (t) に重み付けする重み係数Wi (t) を変更することができるので、相互に相関の大きな特徴量を選択することができ、知的エージェントや認識装置などの複数の処理モジュールを内部にもつ知的システムにおいて、各処理モジュール毎に関連の深い情報を収集することで、そのシステム全体の接続構造の自律的獲得を容易に実現でき、ひいては柔軟な適応能力をもつ知的システムの実現やその設計負担の低減に寄与するという利点がある。
【0065】
また、重み係数変更部15が(5A),(5B),(6A),(6B)式による計算を施すことにより、重み係数についての平均化処理を施すことができるので、非荷重距離dPmatch(t) の要素ΔPmatch i (t) が小さいほど重み係数Wi (t) を大きくすることができるとともに、小さな重み係数Wi (t) に対しては復活の機会を与えることができるので、重み係数Wi (t) の全体的なバランスを調整することができ、本装置のマッチング精度が大幅に向上する。
【0066】
さらに、参照データ追加部16が、参照データ保持部10に保持されている参照データRP と多次元の入力データI(t) とを比較して、入力データI(t) と参照データRP とが所定の基準より異なっている場合には、この入力データI(t) を新たな参照データRP として参照データ保持部10に保持させることができるので、常に一定の基準をもつ最新の参照データRP が保持され、本実施形態の多次元入力データ特徴選択装置20を適用される知的システムの適応能力の柔軟性をより向上させることができる。
【0067】
また、参照データ追加部16が、参照データ保持部10に保持されている参照データRP の数nが所定値nmax 以下の場合に、新たな参照データを参照データ保持部10に保持させることができるので、常に一定量以下の参照データRP が保持しておくことができる。
さらに、参照データ削除部17が、参照データ保持部10に保持されている参照データのうち利用頻度が所定値以下で保持後所定時間経過している参照データを参照データ保持部10から削除することができるので、長期に亘って利用されない参照データが削除され、常に現在の入力に近い参照データが保持されることになり、参照データ保持部10を有効に利用でき、本実施形態の多次元入力データ特徴選択装置20を適用される知的システムの適応能力の柔軟性の向上に寄与することができる。
【0068】
また、参照データ削除部17が、参照データ保持部10に保持されている参照データのうち相互に類似している参照データRP ,RP ′については、少なくとも1つの参照データRP を除いて残りの参照データRP ′を参照データ保持部10から削除することができるので、必要のないデータの増大を防ぐことができ、参照データ保持部10を有効に利用でき、本実施形態の多次元入力データ特徴選択装置20を適用される知的システムの適応能力の柔軟性のさらなる向上に寄与することができる。
【0069】
なお、マッチアビリティ指向では局在的には冗長な特徴量を収集することができるので、一部の特徴量が隠蔽された場合にも対応することができ、情報統合技術へ応用することができる。
そして、入力特徴量に行動情報を含めることで、関連の強い認識行動関係の抽出に応用することも可能である。また、脳やニューラルネットワーク等の研究に関しても,マッチアビリティの最大化を盛り込んだモデルを作ることにより成果が得られる可能性がある。
【0070】
また、本発明の多次元入力データ特徴選択装置を用いて、特徴抽出技術との融合や処理モジュールの専門化におけるグローバルなバランスによる多様性の確保、さらには、相関の時間的な局在性に対応するための拡張等を行なうことも可能である。
【0071】
【発明の効果】
以上詳述したように、本発明の多次元入力データ特徴選択装置によれば、外部から入力データが与えられると、参照データとの距離に重み付けされた荷重距離が計算されたのち、荷重距離の最も小さい距離のデータ(マッチデータ)が選択され、そのマッチデータに基づいて入力データと参照データとの距離に重み付けする重み係数を変更することができるので、相互に相関の大きな特徴量を選択することができ、知的システムにおける接続構造の自律的獲得を容易に実現でき、ひいては柔軟な適応能力をもつ知的システムの実現やその設計負担の低減に寄与する。
【0072】
また、重み係数変更部が重み係数についての平均化処理を施すことができるので、非荷重距離の要素が小さいほど重み係数を大きくすることができるとともに、小さな重み係数に対しては復活の機会を与えることができるので、重み係数の全体的なバランスを調整することができ、マッチング精度の向上を図ることができる(以上、請求項1〜4)。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる多次元入力データ特徴選択装置の構成を示すブロック図である。
【図2】(a),(b)はそれぞれ本発明の一実施形態にかかるシミュレーションに用いられた処理モジュールの入力系列を説明するための図である。
【図3】本発明の一実施形態にかかるシミュレーションに用いられた処理モジュールのパラメータを示す図である。
【図4】本発明の一実施形態にかかる2クラス入力系列の“Class B”に専門化した処理モジュールにおける重み係数の減衰を示すグラフである。
【図5】本発明の一実施形態にかかる2クラス入力系列の“Class A”に専門化した処理モジュールにおける重み係数の減衰を示すグラフである。
【図6】本発明の一実施形態にかかる初期値の異なる入力系列毎のそれぞれのクラスに専門化した処理モジュールの数及び総和を示す図である。
【図7】本発明の一実施形態にかかる混合入力系列の“Class B”に専門化した処理モジュールにおける重み係数の減衰を示すグラフである。
【図8】本発明の一実施形態にかかる混合入力系列の“Class A”に専門化した処理モジュールにおける重み係数の減衰を示すグラフである。
【図9】本発明の一実施形態にかかる初期値の異なる入力系列毎のそれぞれのクラスに専門化した処理モジュールの数及び総和を示す図である。
【図10】本発明の一実施形態にかかる混合入力系列において専門化しなかった処理モジュールにおける重み係数の減衰を示すグラフである。
【図11】一般的な知的エージェントの構成を示す図である。
【図12】“教師有り学習”を行なう多次元入力データ特徴選択装置の構成を示すブロック図である。
【図13】“教師無し学習”を行なう多次元入力データ特徴選択装置の構成を示すブロック図である。
【符号の説明】
1A,1B 多次元入力データ特徴選択装置
2 重み係数保持装置
3 変換装置
4 主成分分析装置
10 参照データ保持部
11 重み係数保持部
12 荷重距離計算部
13 マッチデータ選択部
14 非荷重距離計算部
15 重み係数変更部
16 参照データ追加部
17 参照データ削除部
20 多次元入力データ特徴選択装置
50 知的エージェント
51 認識システム
52 行動生成部
53 評価部
Claims (4)
- 複数の参照データを保持する参照データ保持部と、
次元毎に設定された重み係数を保持する重み係数保持部と、
該参照データ保持部に保持されている該参照データと多次元の入力データとの間の距離に該重み係数保持部に保持された上記次元毎の重み係数を用いて重み付けした荷重距離を計算する荷重距離計算部と、
該荷重距離計算部で計算された荷重距離のうち最も小さい荷重距離に対応する参照データをマッチデータとして選択するマッチデータ選択部と、
該マッチデータ選択部で選択されたマッチデータと該入力データとの距離であって、該重み係数を用いて重み付けがなされていない、非荷重距離を計算する非荷重距離計算部と、
該非荷重距離計算部で計算された非荷重距離に基づいて、該非荷重距離が小さい次元に対応する重み係数を増加させる一方、該非荷重距離が大きい次元に対応する重み係数を減少させるよう、該重み係数保持部の重み係数を変更する重み係数変更部とをそなえて構成されたことを
特徴とする、多次元入力データ特徴選択装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22238596A JP3621786B2 (ja) | 1996-08-23 | 1996-08-23 | 多次元入力データ特徴選択装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22238596A JP3621786B2 (ja) | 1996-08-23 | 1996-08-23 | 多次元入力データ特徴選択装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1063635A JPH1063635A (ja) | 1998-03-06 |
JP3621786B2 true JP3621786B2 (ja) | 2005-02-16 |
Family
ID=16781538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22238596A Expired - Lifetime JP3621786B2 (ja) | 1996-08-23 | 1996-08-23 | 多次元入力データ特徴選択装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3621786B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7318646B2 (ja) * | 2018-06-27 | 2023-08-01 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN111904400B (zh) * | 2020-07-17 | 2022-06-03 | 三峡大学 | 电子腕带 |
WO2023175662A1 (ja) | 2022-03-14 | 2023-09-21 | 富士通株式会社 | 訓練データ生成プログラム,訓練データ生成方法および情報処理装置 |
CN117035044B (zh) * | 2023-10-08 | 2024-01-12 | 安徽农业大学 | 基于输出激活映射的过滤器剪枝方法、图像分类系统及边缘设备 |
-
1996
- 1996-08-23 JP JP22238596A patent/JP3621786B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH1063635A (ja) | 1998-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | Facial expression recognition using constructive feedforward neural networks | |
Zainuddin et al. | A review of crossover methods and problem representation of genetic algorithm in recent engineering applications | |
CN111461322A (zh) | 一种深度神经网络模型压缩方法 | |
Guo et al. | Adaptive orthogonal projection for batch and online continual learning | |
WO2014203042A1 (en) | Method for pseudo-recurrent processing of data using a feedforward neural network architecture | |
Naik et al. | A novel FLANN with a hybrid PSO and GA based gradient descent learning for classification | |
Ochoa et al. | Differential evolution using fuzzy logic and a comparative study with other metaheuristics | |
JP3621786B2 (ja) | 多次元入力データ特徴選択装置 | |
CN109711543A (zh) | 一种可重构的深度置信网络实现系统 | |
Shen et al. | Learning to prune in training via dynamic channel propagation | |
Clark et al. | Higher-order probabilistic perceptrons as Bayesian inference engines | |
Gál et al. | Modified bacterial memetic algorithm used for fuzzy rule base extraction | |
Bernard et al. | Inferring stochastic L-systems using a hybrid greedy algorithm | |
Sigurdsson et al. | On comparison of adaptive regularization methods | |
Zhao et al. | Particle swarm algorithm for classification rules generation | |
Sun et al. | MetaModulation: Learning Variational Feature Hierarchies for Few-Shot Learning with Fewer Tasks | |
Yu et al. | Learning Uncertainty for Unknown Domains with Zero-Target-Assumption | |
Sehnke et al. | Baseline-free sampling in parameter exploring policy gradients: Super symmetric pgpe | |
Tinós et al. | Use of the q-Gaussian function in radial basis function networks | |
Han et al. | A compensatory neurofuzzy system with online constructing and parameter learning | |
CN116910481B (zh) | 一种基于遗传算法的船舶任务系统装载弹量优化方法 | |
Taqi | Improved Three-Term Conjugate Gradient Algorithm for Training Neural Network | |
Welling et al. | Approximate Contrastive Free Energies for Learning in Undirected Graphical Models | |
Obradovic et al. | Evolutionary design of application tailored neural networks | |
Yamakawa | Matchability-oriented feature selection for recognition structure learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041119 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081126 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081126 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091126 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101126 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101126 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101126 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101126 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101126 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111126 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111126 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121126 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121126 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 9 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 9 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |