JP5170698B2 - 確率的推論装置 - Google Patents

確率的推論装置 Download PDF

Info

Publication number
JP5170698B2
JP5170698B2 JP2009107253A JP2009107253A JP5170698B2 JP 5170698 B2 JP5170698 B2 JP 5170698B2 JP 2009107253 A JP2009107253 A JP 2009107253A JP 2009107253 A JP2009107253 A JP 2009107253A JP 5170698 B2 JP5170698 B2 JP 5170698B2
Authority
JP
Japan
Prior art keywords
value
node
values
nodes
bayesian network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009107253A
Other languages
English (en)
Other versions
JP2010257269A (ja
Inventor
裕志 一杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2009107253A priority Critical patent/JP5170698B2/ja
Publication of JP2010257269A publication Critical patent/JP2010257269A/ja
Application granted granted Critical
Publication of JP5170698B2 publication Critical patent/JP5170698B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、ベイジアンネットによる知識表現技術を用いた確率的推論装置に関するものであり、更に詳細には、確率変数を表すノードの取り得る値の組み合わせを制限する機構を持つベイジアンネットを用いて推論処理を高速に効率よく行う確率的推論装置に関するものである。
ベイジアンネット(非特許文献1)は、複数の確率変数の間の確率的な因果関係を計算機のメモリ上に記憶するためのデータ構造である。ベイジアンネットを用いることによって、複雑な知識を効率的に表現することができ、その知識に基づいて事後確率計算やMPE計算など様々な確率的推論を行うことができる。現在、ベイジアンネットの応用は、音声や画像などのパターン認識、ロボットの運動制御、自然言語処理、知識情報処理など広範囲に及ぶ。音声認識などでよくつかわれる隠れマルコフモデル(HMM)もベイジアンネットの一種である。
ベイジアンネットは、確率変数を表すノードと、そのノードの間の確率変数間の因果関係を表すエッジにより複数のノードのネットワークで構成される。さらに、各ノードごとに条件付確率表と呼ばれるものを保持する。条件付確率表は、あるノードの親ノードの集合がある値の組み合わせを取ったときにそのノードがある値を取る条件付確率を表にしたものである。
図1は、4つのノードから成るベイジアンネットの一例を説明する図であり、図2は、これらのノードにおける条件付確率表の一例を説明する図である。図1および図2を参照して、4つの確率変数を表すノードS,ノードR,ノードW,ノードCから構成される簡単なベイジアンネットについて説明する。ノードSの確率変数Sは「スプリンクラーが動いたかどうか」、ノードRの確率変数Rは「雨が降ったかどうか」、ノードWの確率変数Wは「芝生が濡れているかどうか」、ノードCの確率変数Cは「雲が出ているかどうか」を表しているとする。
図2に示すように、4つの確率変数の間の因果関係は、条件付確率表として与える。図2では、図1のベイジアンネットの各ノードに付随する条件付確率表の例を示している。ここで、21はノードSに付随する条件付確率表、22はノードRに付随する条件付確率表、23はノードWに付随する条件付確率表、24はノードCに付随する条件付確率表である。
条件付確率表は、確率変数の間の因果関係の強さの知識を記憶するデータである。例えば、ノードWに付随する条件付確率表23において、条件付き確率P(W=no|S=no,R=no)=0.88は、スプリンクラーも動かず雨も降っていないときに芝生が濡れていない確率は、0.88であるという知識を表している。また、ノードRに付随する条件付確率表22において、条件付き確率P(R=yes)=0.02は、単に雨が降る確率(事前確率)が0.02であるという知識を表している。
次に、本発明のアルゴリズムを説明する上で必要となるMPE(most probable explanation)という概念について簡単に説明する。
MPEとは、ベイジアンネットにおいて、与えられた観測データを最もよく説明する変数の値の組のことである。与えられた観測データを表す確率変数とその値の組の集合を集合i、隠れ変数(観測データ以外の確率変数)とその値の組の集合を集合hとすると、MPEとなる値の組mは次の式で与えられる。
Figure 0005170698
ただし、P(h,i)は集合hと集合iという値の組み合わせが起きる同時確率で、以下の式で表せる。
Figure 0005170698
ここで、 parents(x)はノードXの親ノードの値の組である。
例えば、図1のベイジアンネットにおいて、観測値W=yesが与えられたとする。この場合に、求めるMPEは、観測値との同時確率がもっとも高い隠れ変数S,R,Cの値の組{s,r,c}で、以下の式で表される。
Figure 0005170698
Figure 0005170698
以下に、具体的なMPEの計算手順の一例を示す。まず、「S=no,R=no,C=no」という値の組の、観測値W=yesとの同時確率は、図2の条件付確率表の値を用いて以下のように計算される。
Figure 0005170698
同様にして、他の値の組み合わせの同時確率も計算し、2の3乗個あるすべての組み合わせの各同時確率をまとめると下のようになる。
Figure 0005170698
この中では、「S=yes,R=no,C=no」がもっとも同時確率の高い値の組み合わせになるので、これがMPEである。したがって、図1および図2の形式で記憶されている知識に基づいて、もし芝生が濡れているならば、「スプリンクラーは動いたが雨は降らず雲も出ていない」という組み合わせがもっとも可能性が高いと推論されたことになる。
次に、ベイジアンネットの条件付確率表の学習の処理について説明する。ベイジアンネットのネットワーク構造が与えられていて、各確率変数の値の組についての大量の観測データがあれば、それをもとに条件付確率表の要素の値を決めることができる。これを条件付確率表の学習と呼ぶ。
例えば、1000個の観測データのうち、R=noであるものが980個であれば、P(R=no)は980/1000となる。また、その中で、さらにC=noであるものが686個であれば、P(C=no|R=no)は686/980となる。
隠れ変数(観測データが与えられない変数)がある場合は、EMアルゴリズムなどを用いて、隠れ変数の推定値に基づいて条件付確率の値を決定する。
先行技術としては、非特許文献4のように異なるベイジアンネットの混合モデルを学習するアルゴリズムも提案されている。
条件付確率表の学習は、通常大量のデータを一度に処理することで行われる。しかし、時々刻々と新しい観測データが与えられるたびに、逐次的に条件付確率表を更新する学習アルゴリズムもある。そのようなアルゴリズムは、オンライン学習アルゴリズムと呼ばれる。
次に、オンライン学習アルゴリズムについて説明する。図3は、オンライン学習アルゴリズムのフローチャートを示す図である。このフローチャートに示すように、隠れ変数が含まれている場合の、条件付確率表のオンライン学習アルゴリズムは、次のような処理ステップにより学習処理が行われる(詳細については非特許文献3を参照)。
ステップ1;入力ノードに観測された値を設定する。
ステップ2;観測値と現在の条件付確率表の値に基づいてMPEを計算することにより隠れ変数の値を推定する。
ステップ3;MPEの値に基づいて、条件付確率表を更新する。
ステップ4;(必要ならば)MPEを出力する。
ステップ5;ステップ1に戻る。
次に、このオンライン学習アルゴリズムのフローチャートの各ステップについて詳細に説明すると、
ステップ1(図3の31)においては、新たに得られた観測データの値を、入力ノードの値に設定する。観測データとは、例えば、画像認識装置の場合はカメラ等から得られた画像情報、音声認識装置の場合はマイク等から得られた音声情報、自然言語処理装置の場合は文章入力装置等から得られた記号列、ロボットの運動制御装置の場合はセンサー等から得られた外界およびロボットの状態に関する情報である。
ステップ2(図3の32)においては、入力データの値とその時点での条件付確率表の値を用いて、入力ノード以外のノード(すなわち隠れノード)の確率変数の値を、MPE計算によって推定する。
ステップ3(図3の33)においては、ステップ2で計算された各確率変数の値を、過去に得られたデータの統計量に加えることにより、条件付確率表の値を計算しなおす。例えば、過去に得られた条件付確率P(Y=yes|X=yes)の値が3/10であり、今回得られた確率変数X,Yの値がそれぞれX=yes,Y=yesであったなら、条件付確率の値はP(Y=yes|X=yes)=(3+1)/(10+1)=4/11に更新する。
ステップ4(図3の34)においては、必要に応じて推定された確率変数の値を出力する。例えば、画像認識装置や音声認識装置の場合は認識結果、自然言語処理装置の場合は文章の意味を表す情報、ロボットの運動制御装置の場合はアクチュエータの制御に必要な情報、等を出力する。
なお、ステップ3の条件付確率表の更新を行う手段については、様々なものが利用できる。例えば、非特許文献3で述べられているように、自己組織化マップを使うのも1つの方法である。この場合、確率変数は自己組織化マップの競合層に対応し、確率変数が取り得る値は自己組織化マップの競合層のユニットに対応する。そして、条件付確率はユニットの参照ベクトルの要素の値に対応する。こうすることで、自己組織化マップの特徴である近傍学習の効果により、汎化能力が向上するという利点がある。
図4は、確率的推論・条件付確率学習装置のモジュール構成を説明する図である。図3のオンライン学習アルゴリズムを用いた確率的推論および条件付確率の学習を行う推論学習装置は、図4に示すようなモジュール構成とすることができる。図4において、41は外部から入力データを受け取る入力部、42はベイジアンネットを用いた知識データベースである。確率的推論部43は、入力部41および知識データベース42から値を受け取って、MPE計算を行う。条件付確率表学習部44は、確率的推論部43からMPEの値を受け取って、それに基づいて知識データベース42の値を更新する。出力部45は、確率的推論部43から受け取ったMPEの値を出力する。
なお、図4に示すモジュール構成の確率的推論・条件付確率学習装置から、条件付確率表学習部44を取り除いた推論装置とした構成とすることもできる。このようなモジュール構成の装置は、学習機能を持たない確率的推論装置となる。
また、図5は、オンライン学習アルゴリズムを、学習能力を持つロボットに応用した場合のモジュール構成を説明する図である。図3において説明したオンライン学習アルゴリズムは、例えば、学習能力を持つロボットに応用できる。
この場合、図3のオンライン学習アルゴリズムを、学習能力を持つロボットに応用した場合には、図5に示すようなモジュール構成の推論学習装置となる。図5に示す装置構成においては、センサー51からの情報と、知識データベース52にもとづいて、確率的推論部53がロボットの外界の状況を認識する。条件付確率表学習部54は、確率的推論部53からの認識結果を受け取り、それにもとづいて知識データベース52を更新する。また、意思決定部55は、認識結果にもとづいて運動の意思決定をし、アクチュエータ56を駆動する。同時に意思決定部55が、強化学習アルゴリズム等を用いて行動ルールの変更を行う。
J. Pearl, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference,Morgan Kaufmann, 1988. 一杉裕志、「脳の情報処理原理の解明状況」、産業技術総合研究所テクニカルレポート AIST07−J00012,Mar 2008. 一杉裕志、「大脳皮質神経回路が行うベイジアンネット構造学習に関する考察」、人工知能学会 第72回 人工知能基本問題研究会(SIG−FPAI)資料, Nov 2008. Thiesson B, Meek C, Chickering D, Heckerman D. Learning mixture of DAG models. Technical Report, MSR-TR-97-30, Redmond: Microsoft Research, 1997.
ところで、ベイジアンネットを大規模化しようとすると、ノード数が増えるにつれてノードの値の組み合わせの数は指数関数的に増えるため、確率的推論(たとえば、各確率変数の事後確率の計算やMPEの計算)をする際の無意味な局所解の数の増大、探索空間の増大といった問題が起きる。また、条件付確率表の学習時にも同様に、過適合や無意味な局所解の数の増大、探索空間の増大という問題が起きる。したがって、ベイジアンネットはある程度以上の大規模化が難しいという問題がある。
また、通常のベイジアンネットでは、混合分布を効率的に表現できないという問題がある。混合分布とは、複数の異なる形を持つ確率分布を混合して得られる確率分布である。具体例で説明すると、生物の網膜に入ってくる視覚情報は、混合分布にしたがう信号の例である。例えば、人の顔、木の実の形、捕食者の形などは、それぞれが異なる確率分布にしたがって視覚情報を生成する。実際の生物の目の前に提示される視覚情報は、目の前にあるどれか1つの物体を生成したものであるはずである。個々の確率分布の内部は連続しているので、自己組織化マップを用いて学習すれば、補完されて汎化能力が上がるが、木の実の形と捕食者の形のように、かけ離れた分布の間は補完すると、かえって汎化能力が落ちることが想像される。
次に、従来技術では、混合分布を表現する条件付確率表をうまく学習できないことを示す実験例について説明する。図6は、2つの隠れノードと49個の入力ノードからなるベイジアンネットを説明する図である。図7は、従来技術を用いて2つの自己組織化マップを使って混合分布を学習した例を説明する図である。図6および図7を参照する。
ここで説明するベイジアンネットは、図6に示すように、2つの隠れノード(H,H)と49個の入力ノード(I,…,I49)からなるベイジアンネットである。ノードH,ノードHが隠れ変数を表す隠れノードである。また、ノードI,…,ノードI49が観測データを入力する入力ノードである。
図6のベイジアンネットの条件付確率表を、例えば、非特許文献3に述べられている自己組織化マップを用いた従来技術を使って学習させる。この学習装置に、2つの確率分布を混合した混合分布から生成される2次元のデータを、49次元の冗長なデータに変換して、入力ノードの観測値として与える。すべての確率変数は、取り得る値の数は10とした。
2次元のデータから49次元のデータへの変換は以下のように行う。2次元の空間を7×7の格子で区切り、49個の格子点の座標と、入力する2次元データの座標とのユークリッド距離をd(i=1,…,49)として、a=max(0.8−3d,0)を10段階に量子化したものを各入力ノードの値とする。ただし、max(x,y)はxとyのうち最大の値を返す関数である。
従来技術により、2つの自己組織化マップを使って混合分布を学習した例では、図7に示されるように、実験の結果は、2つのノード(自己組織化マップ)が2つの離れた確率分布を無理に同時に学習してしまう。このため、結果的に無意味な学習結果が得られてしまうという問題がある。
なお、図7において、枠で囲ったL字形の部分(領域)は、入力データを生成する確率分布を2次元空間上に示したものである。破線上の点と実線上の点はそれぞれ2つのノードの自己組織化マップの各ユニットの受容野の重心を示している。
混合分布を扱える従来技術は存在する。例えば、非特許文献4はベイジアンネットで混合分布を表現する従来技術である。しかし、大規模化が難しいというベイジアンネットの問題は解決されずに残っている。
本発明は上記のような問題点を解決するためになされたものであり、本発明の目的は、確率変数を表すノードの取り得る値の組み合わせを制限する機構を持つベイジアンネットを用いて推論処理を高速に効率よく行う確率的推論装置を提供することにある。
上記のような目的を達成するため、本発明による確率的推論装置は、基本的な構成として、確率変数を表す複数のノードと前記ノードの間の確率変数間の因果関係を表すエッジによりネットワーク構成したベイジアンネットを用いて推論処理を行う推論機構を備えた確率的推論装置において、このベイジアンネットの値の組み合わせに対して制約条件を加えることで、値の組み合わせの自由度を低減させ、課題を解決する。値を制約する技術的手段としては、ベイジアンネットに制約条件ノードを追加する方法か、あるいはそれと等価であるが、同時確率の計算の際にどの程度制約条件が満たされているかを同時確率の大きさに反映させるという方法を用いる。
具体的には、第1の特徴として、本発明の確率的推論装置は、確率変数を表すノードの取り得る値の組み合わせを制限する機構を持つベイジアンネットを用いて推論処理を行う推論機構を有する確率的推論装置であって、前記ベイジアンネットは、確率変数を表すノードの取り得る値が2つ以上の通常の値と1つ以上のφ値と呼ぶ値から成る3つ以上の値のうちのどれか1つを取るノードが、ネットワークを構成するノードの中に2つ以上存在し、さらにφ値を取り得る前記ノードの子ノードとして制約条件ノードと呼ぶノードが1つ以上あって、その制約条件ノードの条件付確率表の値が、φ値を取り得る前記ノードの値がφ値を取る頻度が高くなるよう制約しているベイジアンネットであり、前記推論機構が、前記ベイジアンネットの一部のノードに、そのノードが表す確率変数の値または値の確率分布が入力として与えられた時に、ベイジアンネットを構成するノードのネットワークを用いて、他の確率変数の値または値の事後確率を推論することを特徴とするものである。
また、第2の特徴として、本発明による確率的推論装置は、前記ベイジアンネットが、さらに、φ値を取り得る前記ノードであって、そのノードのφ値以外の値の数をs個とすると、そのs個の各値を取る各事前確率が実質的に等しいノードを1つ以上持つベイジアンネットであり、前記推論機構が、前記ベイジアンネットの一部のノードに、そのノードが表す確率変数の値または値の確率分布が入力として与えられた時に、ベイジアンネットを構成するノードのネットワークを用いて、他の確率変数の値または値の事後確率を推論することを特徴とするものである。
また、第3の特徴として、本発明による確率的推論装置においては、各ノードの条件付確率表は、推論処理を行った推論結果を用いて条件付確率表を学習する際には、φ値を取り得る1つ以上の前記ノードの条件付確率表を自己組織化マップを用いて学習し、その際にそのノードが取り得る値のうち2つ以上のφ値以外の値を近傍学習の対象とすることを特徴とするものである。
上記のような特徴を備える本発明の確率的推論装置によれば、ベイジアンネットの値の組み合わせに対して制約条件を加えることで、値の組み合わせの自由度を低減させ、推論処理を高速に効率よく行うことができる。なお、制約を加えることで、ベイジアンネットとしての表現力は低下することになるが、自然界にある画像情報や音声情報などは、信号源がスパース性、すなわち、めったに活性化しない、という性質を満たしていることが多いので、実用性において問題となることはない。本発明による確率的推論装置におけるベイジアンネットは、そのような自然界にある情報をより効率的に扱えるよう特殊化されたベイジアンネットとなっているものを利用する。これにより、また、混合分布の問題も解決される。
このように、制約条件によってノードの値の組み合わせの数が劇的に減少することで、確率変数の値を推論する際の計算量が劇的に減少することになり、また、後述の実験(図12)で示すように、混合分布をうまく表現できるようになる。
4つのノードから成るベイジアンネットの一例を説明する図である。 ノードにおける条件付確率表の一例を説明する図である。 オンライン学習アルゴリズムのフローチャートを示す図である。 確率的推論・条件付確率学習装置のモジュール構成を説明する図である。 オンライン学習アルゴリズムを学習能力を持つロボットに応用した場合のモジュール構成を説明する図である。 2つの隠れノードと49個の入力ノードからなるベイジアンネットを説明する図である。 従来技術を用いて2つの自己組織化マップを使って混合分布を学習した一例を説明する図である。 隠れ変数の値の組み合わせを制限するノードSを持つベイジアンネットを説明する図である。 本発明の確率的推論装置において用いたベイジアンネットの条件付確率表の記憶形式の一例を説明する図である。 一部の隠れ変数がφ値の制約を受けないベイジアンネットの例を説明する図である。 制約条件ノードを2つ持つベイジアンネットの例を説明する図である。 本発明を用いて2つの自己組織化マップを使って混合分布を学習した一例を説明する図である。
以下、本発明を実施するための形態について説明する。まず、変数の値の組み合わせを制限するノードSを持つベイジアンネットについて説明する。図8は、変数の値の組み合わせを制限するノードSを持つベイジアンネットを説明する図である。
n個の隠れ変数を表すノードH(i=1,…,n)が、それぞれ{xφ,x,x,…,xs−1,x}という(s+1)個の値を取り得るとする。以下、xφをφ値、φ値以外の値を非φ値と呼ぶ。
また、図8に示すベイジアンネットのように、各隠れ変数の値がφ値になる確率が高くなるような制約条件を表現する1つのノードSを、すべての隠れ変数の子ノードとして追加する。このノードSを制約条件ノードと呼ぶ。
制約条件ノードのノードSに付随する条件付確率表は、ノードSの親ノードHの多くがφ値を取るときに、条件付確率P(S=yes|H,…,H)の値が大きい、という特徴を持つものとする。この条件付確率の値は、いわば、隠れ変数の値の組がどの程度制約条件を満たしているかを表している。このような特徴があれば、入力ノードI(j=1,…,m)の値が与えられた時、同時にS=yesという値も与えた上で、隠れ変数Hの値をMPE計算によって推論すれば、隠れ変数の値は高い頻度でφ値を取るようになる。
ノードSおよびその条件付確率表P(S|H,…,H)は、メモリ上に明示的に持つ必要はなく、同時確率の計算式を修正するだけで、実質的に同じ効果が得られる。制約条件ノードのノードSを含まないベイジアンネットにおける、同時確率の計算式は、以下の式であった。
Figure 0005170698
これを例えば、以下の式に修正する。
Figure 0005170698
このように修正した場合、明示的に下記の条件付確率表P(S=yes|H,…,H)を持つ制約条件ノードを追加した場合と、実質的に等価である。
Figure 0005170698
ただし、αは正規化定数、βはスパース性を制御するパラメタである。A(h)はhの活性度を表す値である。以下に定義されるA(h)は「非φ値を取る要素の数」がm個であれば1、m個でなければ無限大を示す値(所定値)を返す。
Figure 0005170698
このように定義される制約条件ノードのノードSをベイジアンネットに追加すると、MPE計算時に、隠れ変数の値の多くがφ値をとるように制約される。具体的にはn個の隠れノードのうち、m個が非φ値、(n−m)個がφ値を取るという制約条件になる。
この時、n個のノードの取り得る値の組み合わせの数は、sのm乗掛けるである(ただし、はn個からm個を選び出す組み合わせの数)。制約条件がない場合は値の組み合わせの数はs+1のn乗であるから、制約条件によって値の組み合わせの数が劇的に減少することになる。この効果は、ノード数nが大きいときに、より顕著になる。
この効果により、ベイジアンネットはそのままでは大規模化が難しいという問題が解決される。図9は、本発明の確率的推論装置において用いたベイジアンネットの条件付確率表の記憶形式の一例を説明する図である。
本発明の確率的推論装置におけるベイジアンネットは、制約条件ノードのノードS以外のノードの条件付確率表については、従来技術と同じ形式で保持することが可能である。例えば、X,Yが確率変数の時、条件付確率P(Y|X)は、具体的には、図9に示す条件付確率表91のように、(s+1)×(s+1)通りの条件付確率の値の表にしてメモリ上に記録すればよい。
なお、ほとんどのノードがφ値を取ることが、値の組み合わせの爆発を抑える本質的に重要な要件であるため、少数のノードが制約を受けないようなベイジアンネットであっても、当然に本発明に含まれる。
図10は、一部の隠れ変数がφ値の制約を受けないベイジアンネットの例を説明する図である。例えば、図10では、一部のノードがφ値の制約を受けないベイジアンネットの例を示している。このベイジアンネットでは、確率変数Hと確率変数Hは高い頻度でφ値を取るようにノードSによって制約されるが、確率変数Hはそのような制約を受けない。このような場合でも、確率変数の取り得る値の組み合わせは劇的に減ることには変わりがなく、発明の効果は失われない。
また、制約条件ノードは1つである必要はない。図11は、制約条件ノードを2つ持つベイジアンネットの例を説明する図である。図11に示す例では、ノードSおよびノードSがともに制約条件ノードである。ノードSは確率変数H,確率変数Hの値、ノードSは確率変数H,確率変数Hの値が高い頻度でφ値になるよう制約する役割を持つ。
また、先に定義した関数A(h)ではφ値をとるノード数が(n−m)個という固定値になるような制約条件を考えたが、与えられる観測データごとにφ値をとるノード数が変動するようなベイジアンネットであっても、本発明に含まれる。たとえば、φ値ではない値を持つノードの数を罰金項として持つ最適化問題の形で確率的推論を実行する場合等がそれに相当する。具体的には、例えば、関数A(h)を次のように定義した場合が含まれる。
Figure 0005170698
なお、これまで説明したMPE計算の例では、1つの入力ノードには1つの確定値を入力した。しかし、一般にベイジアンネットでは、ノードに与える観測データは確定値である必要はなく、値の確率分布を与えた場合でも、他の確率変数の値に関する確率的推論を行うことができる。
また、本発明の確率的推論装置は、MPE計算による確率計算だけでなく、確率変数の事後確率の計算など、様々な確率的推論を行う際に効果を発揮する。
MPEを計算する方法にはさまざまなものがあるが、そこで用いるアルゴリズムによらず、本発明の確率的推論装置によるベイジアンネットを用いることで効果を発揮する。用いるアルゴリズムは、先に説明したすべての値の組み合わせを計算する素朴な方法を含むだけでなく、ベストファーストサーチなどのヒューリスティックスを用いた探索の方法、ビタビアルゴリズムなどのダイナミックプログラミングを用いた方法、欲張り法、最急降下法、模擬焼きなまし法を含む局所探索法、マルコフ連鎖モンテカルロなどのモンテカルロ法を用いた方法も含む。
ベイジアンネットを用いて、確率変数の事後確率の計算を用いる場合も同様に、用いるアルゴリズムによらず、効果がある。用いるアルゴリズムは、すべての値の組み合わせの同時確率を用いる素朴な方法、ヒューリスティックスを用いた方法、確率伝播アルゴリズムのようにダイナミックプログラミングを用いた方法や、それを応用した近似解法であるルーピー確率伝播アルゴリズム、マルコフ連鎖モンテカルロなどのモンテカルロ法を用いた方法も含む。
上で述べた確率的推論装置の推論結果を用いて条件付確率表を学習する条件付確率表学習装置を構築できる。具体的には、図3で述べたオンライン学習アルゴリズムを用いるのが1つの方法であるが、図3のアルゴリズム以外にも、EMアルゴリズムなどを用いることができる。
さらに、条件付確率の学習の際に、非特許文献3で述べた方法による自己組織化マップを用いることもできる。ただし、φ値は近傍学習の対象としない。つまり、φ値を表すユニットは、他のφ値以外の値を表すユニットの近傍にはないと考えて、近傍学習を行うように構成する。
すなわち、それは、確率的推論装置の推論結果を用いて条件付確率表を学習する際に、φ値を取り得る1つ以上の前記ノードの条件付確率表を自己組織化マップを用いて学習するものであり、その際にそのノードが取り得る値のうち2つ以上のφ値以外の値を近傍学習の対象とする条件付確率表学習装置となる。
このような学習アルゴリズムを用いた学習結果として得られるベイジアンネットは、さらに、φ値を取り得る前記ノードであって、そのノードのφ値以外の値の数をs個とすると、そのs個の各値を取る各事前確率が実質的に等しいノードを1つ以上持つベイジアンネットになる。
これについて具体的に説明すると、自己組織化マップでは、近傍学習と競合学習の効果により、競合層の各ユニットが勝者になる確率がほぼ等しくなる。例えば、確率変数Xが取り得る値が、
{xφ,x,x,…,x
であるとすると、φ値xφ以外を近傍学習の対象とすることによって、φ値以外の各値を取る事前確率P(X=x)(i=1,…,s)に対して、
P(X=x)=P(X=x)= … =P(X=x)=δX
という等式が近似的に成り立つようになる。ただし、δはノードごとに決まる値である。
この等式が成り立っていれば、2つの確率変数Xおよび確率変数Yに関して、
P(X|Y)=P(X)
という関係が成り立つかどうかを判定するのが容易になるという利点がある。条件付確率P(X|Y)の値がδとほぼ等しいかどうかを判定するだけですむからである。この性質は、ベイジアンネットを単純化して計算効率を上げる際に役立つ。また、ノードXが親ノードを持たない場合、事前確率P(X)の値がφ値以外に対してδになるので、個々の値の事前確率P(X=x),P(X=x),…,P(X=x)を明示的にメモリに記憶する必要がなくなるという利点がある。
一般に機械学習アルゴリズムでは、パラメタの自由度が高いと、過適合や局所解におちいり、汎化能力が落ちやすくなるという問題があるが、本発明の確率的推論装置のベイジアンネットでは、確率変数の値の組み合わせを制限することにより、条件付確率表の要素が取り得る値も制約されるため、過適合や局所解をまぬがれて汎化能力が向上することが期待できる。
確率変数の値の制限は、表を記憶する際のメモリ量の低減につながる可能性もある。値を制限することで条件付確率表の多くの要素の値が0になるなら、そのような疎な表を前提としたデータ構造を用いることで、条件付確率表を記憶するために必要なメモリ量を減らすことができる。
場合によっては、確率変数の値の制限が、事後確率計算における浮動小数点のオーバーフロー・アンダーフローの問題や、計算精度の問題を解決できる可能性がある。大規模なベイジアンネットの上で確率推論を行うためには、非常に多くの数の掛け算を行う必要があり、オーバーフロー・アンダーフローを引き起こしたり、計算精度が悪くなったりするという問題があるが、もし、使用する確率推論アルゴリズムが「φ値のノードは無視できる」という性質を持つなら、少数の非φ値のノードだけを用いて確率推論を行うことができるので、これらの問題を回避することができる。
前述の実験と同様に、図6により説明したような2個の隠れノードと49個の入力ノードからなるベイジアンネットにおいて、前述の実験と同じ入力データに対する条件付確率表の学習を行った。ただし、m=1、すなわち、MPEにおいて、2個のうち常に1つがφ値で1つが非φ値であるように制約条件を課した。すなわち、図6の2つの隠れノードH,Hの共通の子ノードとして制約条件ノードSを追加した場合と等価な条件で、実験を行った。
学習時に2つの隠れノードがそれぞれ自己組織化マップの競合層として動作する点は、前述の実験と同じである。ただし、φ値は近傍学習の対象としない。すなわち、φ値を表すユニットは、他のφ値以外の値を表すすべての値の近傍にないものとして、近傍学習を行った。
実験の結果を図12に示している。図12は、本発明の確率的推論装置を用いて2つの自己組織化マップを使って混合分布を学習した一例を説明する図である。図12に示す実験結果では、2つのノードのうち、1つが左のL字型の確率分布内の一点が入力されたときに非φ値になり、もう1つのノードは、右のL字型に対して非φ値になるような条件付確率表が、学習されている。その結果、2つの1次元の自己組織化マップが2つの確率分布をきれいに学習している。
なお、この実験では、各ノードが取り得る値の数はs+1=10である。制約条件がなければ、値の組み合わせの数は(s+1)の2乗、すなわち、100であるが、制約条件があるおかげで、sの1乗、掛ける、すなわち、18に激減し、MPEの計算速度が大幅に向上した。ベイジアンネットがより大規模になれば、計算速度向上の効果はより顕著に表れる。
非特許文献2で述べられているように、ベイジアンネットを用いた確率的推論装置は、パターン認識(画像認識、音声認識など)、ロボットの運動制御や行動計画、ファジィ情報処理、自然言語処理など、さまざまな用途に用いることができる。
本発明の確率的推論装置は、これらを含む多くのベイジアンネットの応用に対して効果を発揮する。特に、例えば、人間の脳が扱うことを得意とする自然界にある情報、具体的には、自然画像、音声情報、自然言語などの情報の、パターン認識などの処理に高い効果を発揮する。
21〜24 条件付確率表
41 入力部
42 知識データベース
43 確率的推論部
44 条件付確率表学習部
45 出力部
51 センサー
52 知識データベース
53 確率的推論部
54 条件付確率表学習部
55 意思決定部
56 アクチュエータ
91 条件付確率表

Claims (3)

  1. 確率変数を表すノードの取り得る値の組み合わせを制限する機構を持つベイジアンネットを用いて推論処理を行う推論機構を有する確率的推論装置であって、
    前記ベイジアンネットは、確率変数を表すノードの取り得る値が2つ以上の通常の値と1つ以上のφ値と呼ぶ値から成る3つ以上の値のうちのどれか1つを取るノードが、ネットワークを構成するノードの中に2つ以上存在し、さらにφ値を取り得る前記ノードの子ノードとして制約条件ノードと呼ぶノードが1つ以上あって、その制約条件ノードの条件付確率表の値が、φ値を取り得る前記ノードの値がφ値を取る頻度が高くなるよう制約しているベイジアンネットであり、
    前記推論機構が、前記ベイジアンネットの一部のノードに、そのノードが表す確率変数の値または値の確率分布が入力として与えられた時に、ベイジアンネットを構成するノードのネットワークを用いて、他の確率変数の値または値の事後確率を推論する
    ことを特徴とする確率的推論装置。
  2. 請求項1に記載の確率的推論装置において、
    前記ベイジアンネットは、さらに、
    φ値を取り得る前記ノードであって、
    そのノードのφ値以外の値の数をs個とすると、
    そのs個の各値を取る各事前確率が実質的に等しいノードを1つ以上持つベイジアンネットであり、
    前記推論機構が、前記ベイジアンネットの一部のノードに、そのノードが表す確率変数の値または値の確率分布が入力として与えられた時に、ベイジアンネットを構成するノードのネットワークを用いて、他の確率変数の値または値の事後確率を推論する
    ことを特徴とする確率的推論装置。
  3. 請求項1または請求項2に記載の確率的推論装置において、
    各ノードの条件付確率表は、推論処理を行った推論結果を用いて条件付確率表を学習する際には、φ値を取り得る1つ以上の前記ノードの条件付確率表を自己組織化マップを用いて学習し、その際にそのノードが取り得る値のうち2つ以上のφ値以外の値を近傍学習の対象とする
    ことを特徴とする確率的推論装置。
JP2009107253A 2009-04-27 2009-04-27 確率的推論装置 Expired - Fee Related JP5170698B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009107253A JP5170698B2 (ja) 2009-04-27 2009-04-27 確率的推論装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009107253A JP5170698B2 (ja) 2009-04-27 2009-04-27 確率的推論装置

Publications (2)

Publication Number Publication Date
JP2010257269A JP2010257269A (ja) 2010-11-11
JP5170698B2 true JP5170698B2 (ja) 2013-03-27

Family

ID=43318092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009107253A Expired - Fee Related JP5170698B2 (ja) 2009-04-27 2009-04-27 確率的推論装置

Country Status (1)

Country Link
JP (1) JP5170698B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109765450A (zh) * 2019-03-21 2019-05-17 中国矿业大学 基于贝叶斯网络的开关磁阻电机驱动系统可靠性评估方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG189314A1 (en) 2011-03-18 2013-05-31 Nec Corp Multivariate data mixture model estimation device, mixture model estimation method, and mixture model estimation program
JP7200037B2 (ja) * 2019-04-17 2023-01-06 株式会社日立製作所 機械の自動運転制御方法、及びシステム
CN116739345B (zh) * 2023-06-08 2024-03-22 南京工业大学 一种危化品道路运输事故发生可能性实时评估方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310860A (ja) * 2005-10-31 2007-11-29 Sony Corp 学習装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109765450A (zh) * 2019-03-21 2019-05-17 中国矿业大学 基于贝叶斯网络的开关磁阻电机驱动系统可靠性评估方法
CN109765450B (zh) * 2019-03-21 2020-08-28 中国矿业大学 基于贝叶斯网络的开关磁阻电机驱动系统可靠性评估方法

Also Published As

Publication number Publication date
JP2010257269A (ja) 2010-11-11

Similar Documents

Publication Publication Date Title
Martínez-Álvarez et al. Coronavirus optimization algorithm: a bioinspired metaheuristic based on the COVID-19 propagation model
Wang et al. Noniterative deep learning: Incorporating restricted Boltzmann machine into multilayer random weight neural networks
Valdez et al. Modular neural networks architecture optimization with a new nature inspired method using a fuzzy combination of particle swarm optimization and genetic algorithms
Stuhlmüller et al. Learning stochastic inverses
CN111766782B (zh) 基于深度强化学习中Actor-Critic框架的策略选择方法
EP3445539A1 (en) Methods and apparatus for pruning experience memories for deep neural network-based q-learning
JP2011059816A (ja) 情報処理装置、情報処理方法、及び、プログラム
EP4068160A1 (en) Neural network training and face detection method and apparatus, and device and storage medium
JP5170698B2 (ja) 確率的推論装置
Lee et al. Learning Shared Knowledge for Deep Lifelong Learning using Deconvolutional Networks.
Wiwatcharakoses et al. A self-organizing incremental neural network for continual supervised learning
Zhang et al. A review of soft computing based on deep learning
Yu et al. Hybrid attention-oriented experience replay for deep reinforcement learning and its application to a multi-robot cooperative hunting problem
JP2011059817A (ja) 情報処理装置、情報処理方法、及び、プログラム
Chartier et al. Encoding static and temporal patterns with a bidirectional heteroassociative memory
CN110297894B (zh) 一种基于辅助网络的智能对话生成方法
Irmak et al. Training of the feed-forward artificial neural networks using butterfly optimization algorithm
Nikoloska et al. Training hybrid classical-quantum classifiers via stochastic variational optimization
JP2007310860A (ja) 学習装置及び方法
Zhang et al. Brain-inspired experience reinforcement model for bin packing in varying environments
Qian et al. Deep learning for a low-data drug design system
Martin et al. Probabilistic program neurogenesis
Butz Learning classifier systems
Chen Quantum deep Q-learning with distributed prioritized experience replay
Farid et al. Control and identification of dynamic plants using adaptive neuro-fuzzy type-2 strategy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121220

R150 Certificate of patent or registration of utility model

Ref document number: 5170698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees