JP2007310860A - 学習装置及び方法 - Google Patents

学習装置及び方法 Download PDF

Info

Publication number
JP2007310860A
JP2007310860A JP2006236199A JP2006236199A JP2007310860A JP 2007310860 A JP2007310860 A JP 2007310860A JP 2006236199 A JP2006236199 A JP 2006236199A JP 2006236199 A JP2006236199 A JP 2006236199A JP 2007310860 A JP2007310860 A JP 2007310860A
Authority
JP
Japan
Prior art keywords
nodes
learning
individual
node
network structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006236199A
Other languages
English (en)
Inventor
Tsutomu Sawada
務 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006236199A priority Critical patent/JP2007310860A/ja
Priority to US11/787,548 priority patent/US7627539B2/en
Priority to KR1020070037809A priority patent/KR20070103695A/ko
Publication of JP2007310860A publication Critical patent/JP2007310860A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ベイジアンネットワークのネットワーク構造を学習データに基づいて構築する。
【解決手段】学習部は、ベイジアンネットワークのネットワーク構造を2次元遺伝子型で表現する。すなわち、ノード間のオーダーに従って行方向に配置した複数のノードを親ノードとすると共に、同じオーダーに従って列方向に配置した複数のノードを子ノードとし、各親ノードと各子ノードとが対応する各遺伝子座における対立遺伝子により、対応するノード間のコネクションの有無を規定する。そして、学習部は、2次元遺伝子型を有する多数の個体を初期個体群とし、この初期個体群から遺伝的アルゴリズムを用いて最適な個体を探索し、その個体の表現型を準最適なネットワーク構造とする。但し、ネットワーク構造の非循環を保証するため、対角成分以下の遺伝子は形質を発現しないものとする。
【選択図】図3

Description

本発明は、ベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習装置及びその方法に関する。
近年、情報処理技術の適用領域が拡大し、様々な状況や多様なユーザに適応して動作することができる情報処理メカニズムが重要になってきている。つまり、事前に仮定したり完全に観測したりすることができない不確実性を持つ対象を扱うことが重要になってきている。このため、不確実な情報の下でもできる限り正しく状況を理解し、適切な処理を行う知的情報処理の仕組みが必要とされている。
このような要請から、ネットワーク構造を用いて問題対象を記述し、観測された事象から知りたい対象を確率的に予測する確率モデルが注目されており、変数を表すノード間の因果関係(コネクション)を有向グラフで表すベイジアンネットワークが代表的な確率モデルとして知られている。
Cooper, G., and Herskovits, E.,"A Bayesian method for the induction of probabilistic networks from Data", Machine Learning, Vol.9, p.309‐347, 1992 周洪鈞、坂根茂幸,「ベイジアンネットワークの構造学習と推論を用いた移動ロボット位置決めのためのセンサプランニング」,日本ロボット学会誌,Vol.22, No.2, p.245‐255, 2004
ところで、このベイジアンネットワークを実際の問題対象に適用するには、適切なモデルを構築することが重要である。
これまでの実用化例の多くは、問題領域に精通したエキスパートの知識・経験を利用してモデルを構築するものであったが、ベイジアンネットワークのネットワーク構造を学習データに基づいて構築したいという要請がある。しかしながら、学習データに基づいてネットワーク構造を構築することはNP‐Hardの問題であり、且つ、ネットワーク構造の有向非循環が保証されなければならないため、最適なネットワーク構造を構築することは容易ではない。
そこで、現実的な時間でネットワーク構造を構築するために、ヒューリスティクスを用いたK2アルゴリズムが提案されている(非特許文献1を参照)。このK2アルゴリズムは、1)各ノードについて親ノードとなり得る候補を限定しておき、2)ある子ノードを1つ選び、親ノードの候補を1つずつ加えてネットワーク構造を作り、3)評価値が高くなったときだけ親ノードとして採用し、4)親ノードとして加えるノードがなくなるか、加えても評価値が高くならなかったら他の子ノードに移る、というものである。上記1)〜4)を全ての子ノードについて行うことにより、準最適なネットワーク構造を構築することができる。なお、上記1)において、各ノードについて親ノードとなり得る候補を限定しておくのは、予めノード間の順序(オーダー)をデザインしておくことで、ネットワーク構造の探索範囲を制約して計算量を削減すると共に、ネットワーク構造の非循環を保証するためである。
このK2アルゴリズムは、現実的な時間でネットワーク構造を構築することができるものの、上述のように、設計者の事前知識に基づいて予めノード間のオーダーをデザインしなければならないという制約がある。
これに対して、遺伝的アルゴリズムを用いてノード間のオーダーを決定し、K2アルゴリズムを用いてノード間のコネクションを決定する方法も提案されている(非特許文献2を参照)。
しかしながら、これらの従来のアルゴリズムは、設計者がデザインしたオーダー、或いは遺伝的アルゴリズムを用いて決定されたオーダーに従って、ボトムアップにノード間のコネクションを決定してネットワーク構造を構築するものであるため、ネットワーク構造の追加学習に不向きであった。また、問題領域に精通したエキスパートでなくてもコネクションに関する一部の知識を持っている場合は多いが、従来のアルゴリズムでは、コネクションに関する事前知識をネットワーク構造に反映させることができなかった。
本発明は、このような従来の実情に鑑みて提案されたものであり、NP‐Hardの問題に対して、ベイジアンネットワークのネットワーク構造(オーダー及びコネクション)を学習データに基づいて構築することができ、オーダー及びコネクションに関する知識の一部又は全部をネットワーク構造に反映させることも可能とし、さらに、ネットワーク構造の追加学習も可能とする学習装置及びその方法を提供することを目的とする。
上述した目的を達成するために、本発明に係る学習装置は、複数のノード間の因果関係を有向グラフで表したベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習装置であって、上記学習データが格納される記憶手段と、上記学習データに基づいて上記ネットワーク構造を構築する学習手段とを備え、上記学習手段は、それぞれ上記複数のノード間の順序と因果関係とが規定された遺伝子型を有する個体により構成された初期個体群を準備し、遺伝的アルゴリズムに基づいて上記初期個体群に対して交叉及び/又は突然変異を繰り返し行うと共に、上記学習データに基づいて各個体の評価値を計算して最適な個体を探索し、該最適な個体の表現型を上記ネットワーク構造とすることを特徴とする。
ここで、本発明に係る学習装置において、上記遺伝子型は、規定された順序に従って第1の方向に配置した上記複数のノードを親ノードとすると共に、上記規定された順序に従って上記第1の方向と直交する第2の方向に配置した上記複数のノードを子ノードとし、各親ノードと各子ノードとが対応する各遺伝子座における対立遺伝子により、対応するノード間の因果関係の有無を規定したものとすることができる。
また、上述した目的を達成するために、本発明に係る学習方法は、複数のノード間の因果関係を有向グラフで表したベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習方法であって、それぞれ上記複数のノード間の順序と因果関係とが規定された遺伝子型を有する個体により構成された初期個体群を準備し、遺伝的アルゴリズムに基づいて上記初期個体群に対して交叉及び/又は突然変異を繰り返し行うと共に、上記学習データに基づいて各個体の評価値を計算して最適な個体を探索し、該最適な個体の表現型を上記ネットワーク構造とすることを特徴とする。
本発明に係る学習装置及びその方法によれば、NP‐Hardの問題に対して、準最適なネットワーク構造を効率的に構築することができる。また、設計者のネットワーク構造(オーダー及びコネクション)に関する知識の一部又は全部を初期個体群に反映させることも可能とされ、ネットワーク構造の追加学習も可能とされる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、ベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習装置に適用したものである。
先ず、本実施の形態における学習装置の概略構成を図1に示す。図1に示すように、本実施の形態における学習装置1は、学習データ記憶部10と、学習部11と、モデル記憶部12とから構成されている。
学習データ記憶部10には、ベイジアンネットワークのモデルを構築する際に用いる学習データが格納されている。XからXまでの計5個のノードが存在する場合の離散完全データの一例を図2に示す。図2において、各学習データはX jkの形式で表現されている。ここで、iはノードIDを表し、jはケースID、すなわち何番目に得られた学習データであるかを表し、kは状態ID、すなわち各ノードにおける状態を表す。つまり、X jkは、ノードXについてj番目に得られた学習データの状態が状態ID=kで表されることを意味している。
学習部11は、学習データ記憶部10に格納された学習データに基づいて、ベイジアンネットワークのモデルを構築する。特に、学習部11は、遺伝的アルゴリズムを用いることにより、ベイジアンネットワークのネットワーク構造を構成するノード間のオーダーとコネクションとを同時に決定する。このように遺伝的アルゴリズムを用いることにより、NP‐Hardの問題に対して、準最適なネットワーク構造を効率的に構築することができる。学習部11で構築されたモデルは、モデル記憶部12に格納される。
次に、学習部11においてネットワーク構造を構築する処理について詳細に説明する。なお、以下では簡単のため、ノードはXからXまでの計5個であるとする。
本実施の形態における学習部11は、ベイジアンネットワークのネットワーク構造、すなわち遺伝的アルゴリズムに用いる個体を、図3(A)に示すような2次元遺伝子型で表現する。図3(A)において、行及び列におけるx0、x1、x2、x3、x4はノード間のオーダーを表し、行と列とのオーダーは常に一致する。また、対角成分よりも上の上三角成分の各遺伝子座における対立遺伝子である“0”及び“1”は、親ノードから子ノードへのコネクションを表す。ここで、“0”は親ノードと子ノードとの間に因果関係がないことを示し、“1”は親ノードと子ノードとの間に因果関係があることを示す。また、対角成分は自己ループに相当し、対角成分よりも下の下三角成分の各遺伝子座における対立遺伝子である“0”及び“1”は、子ノードから親ノードへのコネクションを表す。但し、ネットワーク構造の非循環を保証するため、対角成分以下の遺伝子は形質を発現しないものとする。したがって、図3(A)に示すような2次元遺伝子型を有する個体の表現型は図3(B)のようになる。
学習部11は、このような2次元遺伝子型を有する多数の個体を初期個体群とし、この初期個体群から遺伝的アルゴリズムを用いて最適な個体を探索し、その個体の表現型を準最適なネットワーク構造とする。
遺伝的アルゴリズムを用いて最適な個体を探索する手順を図4のフローチャートに示す。
先ずステップS1において、学習部11は、初期個体群を生成する。この際、学習部11は、ランダムに初期個体群を生成するようにしてもよく、設計者にネットワーク構造(オーダー及びコネクション)に関する知識がある場合には、その表現型を2次元遺伝子型に変換して突然変異処理を行うことにより初期個体群を生成するようにしてもよい。後者の方法により、設計者のネットワーク構造に関する知識の一部又は全部を初期個体群に反映させることができる。また、学習部11は、学習結果の個体から初期個体群を生成するようにしてもよい。この場合には、ネットワーク構造の追加学習が可能となる。
次にステップS2において、学習部11は、学習データ記憶部10に格納された学習データに基づいて、各個体の評価値(遺伝的アルゴリズムにおける適応度)を計算する。具体的には、以下の式(1)に従ってBD Metric(P(D|B))を計算し、その対数を評価値とする。
Figure 2007310860
この式(1)において、Dは学習データ記憶部10に格納された学習データであり、Bはベイジアンネットワークのネットワーク構造、すなわち遺伝的アルゴリズムに用いる個体であり、P(D|B)はBという条件の下でのDの確率である。また、Γはガンマ関数であり、Γ(n)=(n−1)!である。なお、(n−1)!=n!/nから、0!=1!/1=1と考えられるため、便宜上0!=1とされる。また、図5(A)に示すように、ノードの数をnとし、i番目のノードをXとし、Xのk番目の取り得る値をvikとする。rはXの取り得る値の数(状態数)である。また、図5(B)に示すように、Xの親ノードリストをπとし、πのj番目のパターン(取り得る値)をwijとする。qはπのパターンの数である。また、NijkはXの値がvikであり、πがwijであるような学習データD中のデータの数であり、Nijは以下の式(2)に従って計算される。また、N’ijk、N’ijは設計者の予備知識(prior knowledge)に関するものであり、Nijk、Nijと同様に扱うことができるが、詳細については後述する。
Figure 2007310860
なお、実際に学習データ記憶部10に格納される学習データには欠損データが存在したり、離散データではなく連続量であったりするが、欠損データや連続量への対応方法については、例えば文献「Richard E. Neapolitan,“LEARNING BAYESIAN NETWORKS”, ISBN 0‐13‐012534‐2」に記載されている。
続いてステップS3において、学習部11は、終了条件を満たすか否かを判別する。具体的には、世代数が閾値を超えたことや、評価値の変化率が閾値以下となったことを終了条件とすることができる。終了条件を満たしていない場合にはステップS4に進み、終了条件を満たしている場合には、最も評価値が高い個体を選択して終了する。
続いてステップS4において、学習部11は、評価値に基づいて現在の個体群から次の個体群を選択する。すなわち、評価値に基づいて現在の個体群から重複を許しながら所定数の固体を選択する。選択方法としては、ルーレット選択、トーナメント選択、エリート保存など、遺伝的アルゴリズムにおける一般的な方法が使用可能である。但し、評価値であるBD Metricの対数は負の値であるため、ルーレット選択のように、評価値に比例した確率で選択する方法を直接適用することはできない。そこで、ボルツマン分布を用いて予め評価値を正の値に変換するようにしても構わない。
続いてステップS5,S6において、学習部11は、現在の個体群に含まれる個体に対して所定の交叉確率に従って交叉処理を行うと共に、所定の突然変異率に従って突然変異処理を行う。この交叉処理では2つの親個体から2つの子個体が生成され、突然変異処理では1つの親個体から1つの子個体が生成される。この際、生成された子個体によって親個体を置き換えてもよく、子個体と親個体とを併存させてもよい。
ここで、特にオーダーの交叉処理及び突然変異処理では、古典的な遺伝的アルゴリズムの手法を用いた場合、図6に示すように容易に致死遺伝子が発生してしまう。例えば、図6(A)に示すように、オーダーがX、X、X、X、Xである個体と、オーダーがX、X、X、X、Xである個体とを、3番目と4番目のノード間を交叉点として交叉させた場合、同一の個体内に同じノードIDのノードが存在することとなるため、致死遺伝子となる。また、図6(B)に示すように、オーダーがX、X、X、X、Xである個体のXの位置で突然変異処理を行いXとした場合、同一の個体内に同じノードIDのノードが存在することとなるため、致死遺伝子となる。このように、容易に致死遺伝子が発生してしまうと学習の効率が悪いため、致死遺伝子が発生しないような枠組みが必要である。
なお、遺伝的アルゴリズムを用いてベイジアンネットワークのネットワーク構造を構築する際のオーダーの交叉処理や突然変異処理は、本質的に巡回セールスマン問題と等価であり、様々な手法が提案されている(文献「P. Larranaga, C. Kuijpers, R. Murga, and Y. Yurramendi,“Learning Bayesian network structures by searching for the best ordering with genetic algorithms”, IEEE Transactions on Systems, Man and Cybernetics, 26(4), p.487‐493, 1996」を参照)。
以下では先ず、ステップS5における交叉処理について具体例を挙げて説明する。
親個体のオーダーが同じ場合における交叉処理の例を図7に示す。この場合、コネクションのみの交叉処理となる。図7(A)に示すように、オーダーがX、X、X、X、Xである2つの親個体について、それぞれ3番目と4番目のノード間を交叉点としてその後ろの遺伝子を交換すると、図7(B)のような子個体が得られる。図7(B)から分かるように、親個体のコネクションは子個体に遺伝している。
また、親個体のオーダーが異なる場合におけるオーダーの交叉処理の例を図8に示す。オーダーの交叉処理には例えばPMX(partially‐mapped crossover)を用いることができる。このPMXは、1)ランダムに交叉点を2カ所選び、2)その交叉点間のノードを交換し、3)各ノードがその個体内で、3‐1)使用されていないならそのまま使用し、3‐2)既に使用されているなら、交換前のノードの写像となるノードと交換し、3‐3)そのノードも既に使用されているなら、そのノードの写像となるノードと交換する、というものである。この際、交換されるノードは、自身の親ノード(又は子ノード)とのコネクションも引き継ぐ。図8(A)に示すように、オーダーがX、X、X、X、Xである親個体と、オーダーがX、X、X、X、Xである親個体とを、2番目と3番目のノード間、4番目と5番目のノード間を交叉点として、PMXの手法に従って交叉点間のノードを交換すると、図8(B)のような子個体が得られる。図8(B)から分かるように、親個体のオーダーとコネクションとは子個体に遺伝している。
なお、図7(A)のように親個体のオーダーが同じ場合に、PMXの手法に従ってオーダーの交叉処理を行うと、図7(B)と同じ子個体が得られる。つまり、図7に示したコネクションの交叉処理は、オーダーの交叉処理の特殊な場合(親個体のオーダーが同じ場合)であり、オーダーの交叉処理を行うのみで結果としてコネクションの交叉処理も行われる。
続いて、ステップS6における突然変異処理について具体例を挙げて説明する。
コネクションの突然変異処理の例を図9に示す。このコネクションの突然変異処理は、任意の遺伝子座の遺伝子を対立遺伝子に反転させることにより実現される。図9(A)に示すように、オーダーがX、X、X、X、Xである親個体について、親ノードがX、子ノードがXである遺伝子座の遺伝子“0”を対立遺伝子“1”に反転させ、親ノードがX、子ノードがXである遺伝子座の遺伝子“1”を対立遺伝子“0”に反転させると、図9(B)のような子個体が得られる。
また、オーダーの突然変異処理の例を図10に示す。オーダーの突然変異処理には例えばIVM(inversion mutation)を用いることができる。このIVMは、1)1以上の連続するノードをランダムに選択して取り除き、2)取り除いた複数のノードのオーダーを反転した後、ランダムな位置に挿入する、というものである。図10(A)に示すように、オーダーがX、X、X、X、Xである親個体について連続する2つのノードX、Xを選択して取り除き、そのオーダーを反転した後、Xの後ろに挿入すると、図10(B)のような子個体が得られる。
なお、図9に示したコネクションの突然変異処理と図10に示したオーダーの突然変異処理とは互いに独立であるため、両者を共に行うことができる。但し、何れの処理を先に行うかによって、得られる子個体は異なる。オーダーの突然変異処理を行った後にコネクションの突然変異処理を行った例を図11に示す。図11(A)に示すように、オーダーがX、X、X、X、Xである親個体について連続する2つのノードX、Xを選択して取り除き、そのオーダーを反転した後、Xの後ろに挿入すると、すなわちオーダーの突然変異処理を行うと、図11(B)のような個体が得られる。さらに、この個体について、親ノードがX、子ノードがXである遺伝子座の遺伝子“0”を対立遺伝子“1”に反転させ、親ノードがX、子ノードがXである遺伝子座の遺伝子“1”を対立遺伝子“0”に反転させると、すなわちコネクションの突然変異処理を行うと、図11(C)のような個体が得られる。
図4に戻って、ステップS7では親ノードの数を制限し、再びステップS2に戻る。すなわち、予め各個体の各子ノードについて、自身と因果関係を有する親ノードの数(FanIn)に上限数(MaxFanIn)を設けておき、ステップS5,S6における交叉処理、突然変異処理の結果、任意の子ノードについて因果関係を有する親ノードの数が上限数を超えた場合には、FanIn≦MaxFanInとなるように遺伝子を調整する。このように親ノードの数を制限する例を図12、図13に示す。図12(A)に示すように、オーダーがX、X、X、X、Xである親個体と、オーダーがX、X、X、X、Xである親個体とを、2番目と3番目のノード間、4番目と5番目のノード間を交叉点として、PMXの手法に従って交叉点間のノードを交換すると、図12(B)のような子個体が得られる。ここで、図中左側の子個体において、子ノードXと因果関係を有する親ノードの数(FanIn)は“4”であり、上限数(MaxFanIn)である“3”を超えている。そこで、図13(A)に示す個体のうち、例えば親ノードがX、子ノードがXである遺伝子座の遺伝子“1”を対立遺伝子“0”に反転させて図13(B)のような個体を生成することにより、FanIn≦MaxFanInとする。
なお、FanIn≦MaxFanInとなるように遺伝子を対立遺伝子に反転させる際には、反転させる遺伝子をランダムに選択するようにしてもよく、その個体の評価値が最も高くなるように選択するようにしてもよい。後者の場合には、親ノードの数が上限数を超えた子ノードを有する個体について評価値を計算する必要があるが、この個体についてはステップS2で評価値を計算する必要はなく、ステップS7で計算された評価値を流用することができる。
このように、本実施の形態における学習装置1によれば、ベイジアンネットワークのネットワーク構造(オーダー及びコネクション)、すなわち遺伝的アルゴリズムに用いる個体を2次元遺伝子型で表現し、2次元遺伝子型を有する多数の個体を初期個体群として、この初期個体群から遺伝的アルゴリズムを用いて最適な個体を探索し、その個体の表現型をベイジアンネットワークのネットワーク構造とすることにより、NP‐Hardの問題に対して、準最適なネットワーク構造を効率的に構築することができる。
また、学習装置1によれば、設計者にネットワーク構造(オーダー及びコネクション)に関する知識がある場合に、その表現型を2次元遺伝子型に変換して突然変異処理を行って初期個体群を生成することにより、設計者のネットワーク構造に関する知識の一部又は全部を初期個体群に反映させることができる。なお、一部のノードにおけるオーダーやコネクションを固定したい場合には、その固定したオーダーやコネクションと異なる2次元遺伝子型を有する個体を致死遺伝子と見なし、上記ステップS4において選択対象から除外するようにしてもよい。
また、学習装置1によれば、学習結果の個体から初期個体群を生成することにより、ネットワーク構造の追加学習も可能とされる。
なお、図4に示したフローチャートでは、学習部11は、交叉処理及び突然変異処理の双方を行うものとして説明したが、何れか一方のみを行うようにしても構わない。
ところで、式(1)に示したように、BD Metricは主として、ネットワーク構造及び学習データによって決まるNijkと、設計者の予備知識によって決まるN’ijkとで構成される。一般的に、あるノードXとその親ノードとについて、設計者の予備知識がp(vik,wij)のように全てのi、jについて定義できる場合、N’ijkは以下の式(3)に従って計算される。この式(3)において、N’はequivalent sample sizeと称され、予備知識から得られた情報をどの程度のサンプル数として想定するかを設定するためのパラメータである。
Figure 2007310860
設計者がネットワーク構造に関する予備知識を持っている場合には、このようにして計算されたN’ijkを上述した式(1)に代入することにより、設計者の予備知識を反映させることができる。
一方、設計者がこのような予備知識を持たない場合には、N’ijk=1としてBD Metricを計算するのが一般的である。N’ijk=1として計算されるBD Metricは、特にK2 Metricと称される。
しかしながら、このようにN’ijk=1とした場合には、同じマルコフ等価クラス(推論結果が同じになるクラス)に属する有向非循環グラフ(Directed Acyclic Graph;DAG)であっても、計算されるBD Metricの値が異なることがある(“http//mikilab.doshisha.ac.jp/dia/research/report/2002/0507/009/report20020507009.html”等を参照)。
一例として、Cloudy、Sprinkler、Rain、WetGrassという4つのノードからなる図14に示すようなネットワーク構造について考える。
図14に示すDAGのうち、G1〜G3は、同じリンクを持ち、且つ、Sprinkler→WetGrass←Rainという同じuncoupled head-to-head meetingsを持つため、同じDAGパターンgpで表現できる。しかしながら、G4は、G1〜G3と同じリンクを持つものの、Sprinkler→Cloudy←Rainというuncoupled head‐to‐head meetingsを別途持つため、DAGパターンgpでは表現できない。図14には、このような4つのDAGに対してある学習データを与えたとき、N’ijk=1として計算される評価値(BD Metricの対数)も併せて示している。
なお、学習データは、図15(A)に示すような条件付き確率テーブル(Conditional Probability Table;CPT)を有するDAGを用いて、次のようにして作成した。すなわち、先ず、最も親のノードであるCloudyにおいて、条件付き確率テーブルに基づいてtrue/falseを確率的に決定する。仮にここではCloudy=trueであったとする。次に、Cloudyの子ノードであるSprinkler及びRainにおいて、その親条件下での条件付き確率テーブルに基づいてtrue/falseを確率的に決定する。仮にここではSprinkler=False、Rain=trueであったとする。次に、Sprinkler及びRainの子ノードであるWetGrassにおいて、その親条件下での条件付き確率テーブルに基づいてtrue/falseを確率的に決定する。このようにして1つのケースの学習データが作成され、同様にして図15(B)に示すように1000ケースの学習データを作成した。
図14に示すように、N’ijk=1とした場合には、G1、G3の評価値とG2の評価値とが異なっている。このように、N’ijk=1とした場合には、本来同じ評価値となるべき同じマルコフ等価クラスに属するDAG、すなわち同じDAGパターンで表現できるDAGであっても、計算されるBD Metricの値が異なることがある。
したがって、上述のようにBD Metricの対数を評価値とし、この評価値に基づいて最適なネットワーク構造を探索するような場合には、N’ijk=1とすることは適切でない。
そこで、本実施の形態では、同じマルコフ等価クラスに属するDAGであれば計算されるBD Metricの値が同じになるように、以下のようにしてN’ijkを決定する。
先ず、第1の方法では、ノードXの状態数をrとしたとき、それぞれの同時確率分布p(X,X,・・・,Xn−1)を全て以下の式(4)に従って計算する。
Figure 2007310860
そして、予備知識の影響が最も小さくなるように同時発生頻度c(X,X,・・・,Xnー1)を全て1として、以下の式(5)のようにN’ijkを決定する。
Figure 2007310860
この第1の方法では、ノード数nや状態数rが大きくなるとN’ijkの値も大きくなるため、学習データの影響Nijkが予備知識の影響N’ijkよりも小さくなる虞がある。そこで、第2の方法では、予備知識の影響がなくなるように、N’ijk=0とする。
図14に示した4つのDAGについて、第1の方法及び第2の方法で決定されたN’ijkを用いて計算された評価値を図16に示す。図16に示すように、第1の方法及び第2の方法でN’ijkを決定した場合には、G1〜G3の評価値が全て同じ値になっている。
以下、具体的な実施例について説明する。この実施例は、テレビジョン受信器(以下、単に「テレビ」という。)に取り付けられたカメラによってユーザを観察し、ユーザの行為を推論するためのベイジアンネットワークのモデルを想定し、そのネットワーク構造を予め準備した学習データに基づいて構築したものである。
学習データは、以下のようにして準備した。
先ず、テレビに向かって操作をするユーザをカメラで撮像し、その入力画像から、
・FaceDir(FaceDirection):顔の方向
・FacePlace:顔の位置
・FaceSize:顔のサイズ
・OptiFlow(OpticalFlowDirection):ユーザの動き
の4種類を図17〜図20に示すように認識した。すなわち、FaceDirについては、図17に示すように入力画像を上下方向に3分割、左右方向に5分割し、ユーザの顔が中心位置にあると仮定した場合に、15個の領域のうち何れの領域の方向を向いているか、或いは入力画像中にユーザの顔が存在しないかによって合計16状態に分けた。また、FacePlaceについては、全ての学習データにおける顔の位置情報をベクトル量子化手法を用いて例えば図18のようにクラス分けし、ユーザの顔が9個の領域のうち何れの領域に存在するか、或いは入力画像中にユーザの顔が存在しないかによって合計10状態に分けた。FaceSizeについては、ユーザの顔のサイズが図19に示す4つのサイズの何れに近いか、或いは入力画像中にユーザの顔が存在しないかによって合計5状態に分けた。OptiFlowについては、ユーザの動きの方向が図20に示す8方向の何れに近いか、或いは入力画像中に動きが存在しないかによって合計9状態に分けた。
次に、その認識結果に対し、
・Channel(Communication Channel):ユーザがテレビと対面しているか
・ComSignal(Communication Signal):ユーザがテレビに対して操作をしているか
・UserGoalTV:ユーザがテレビを意識しているか
・UserPresence:ユーザがテレビの前に存在しているか
の4種類のラベリングを行った。なお、このラベリングは全てYES又はNOの2値(2状態)とした。
さらに、動的事象を扱うため、上述した認識結果及びラベルの時系列を考えた。なお、ある時刻のデータに対しては“_t_0”を、1ティック前のデータに対しては“_t_1”を、2ティック前のデータに対しては“_t_2”をそれぞれ末尾に付して、例えば“FacePlace_t_0”のように表現するものとする。
4種類の認識結果と4種類のラベルとをそれぞれ3ティック分用いるとノード数は24となる。約90分間の動画(30フレーム/秒)からティック間隔を1秒間として約165000ケースの学習データを準備した。
この学習データに基づいて、K2アルゴリズムを用いて構築したネットワーク構造を図21に示す。この際、ノード間のオーダーは以下の通りとした。
FacePlace_t_0、FaceSize_t_0、FaceDir_t_0、OptiFlow_t_0、Channel_t_0、ComSignal_t_0、UserGoalTV_t_0、UserPresence_t_0、FacePlace_t_1、FaceSize_t_1、FaceDir_t_1、OptiFlow_t_1、Channel_t_1、ComSignal_t_1、UserGoalTV_t_1、UserPresence_t_1、FacePlace_t_2、FaceSize_t_2、FaceDir_t_2、OptiFlow_t_2、Channel_t_2、ComSignal_t_2、UserGoalTV_t_2、UserPresence_t_2。
本実施例では、この図21に示すネットワーク構造を初期構造として、上述と同じ学習データに基づいてネットワーク構造の追加学習を行った。学習過程におけるネットワーク構造の推移を図22〜図25に示す。この図22〜図25は、それぞれ20,40,60,80世代目のネットワーク構造を示したものである。図21〜図25から分かるように、世代交代を繰り返すことにより、エリート個体の評価値(BD Metricの対数)は大きくなっている。評価値は80世代目以降200世代まで変化がなかった。よって、ほぼ80世代で収束し、準最適なネットワーク構造が構築されたと言える。なお、最終的なノード間のオーダーは以下の通りであった。
FaceDir_t_0、FaceSize_t_0、FacePlace_t_0、Channel_t_0、OptiFlow_t_0、UserPresence_t_0、FaceDir_t_1、UserGoalTV_t_0、FaceSize_t_1、FacePlace_t_1、ComSignal_t_1、Channel_t_2、Channel_t_1、ComSignal_t_0、OptiFlow_t_1、FaceSize_t_2、FaceDir_t_2、FacePlace_t_2、ComSignal_t_2、OptiFlow_t_2、UserGoalTV_t_1、UserGoalTV_t_2、UserPresence_t_1、UserPresence_t_2。
本発明は、上述した実施の形態とは別の実施の形態(以下、第2の実施の形態とする。)として、複数のノード間の動的因果関係を有向グラフで表したダイナミックベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習装置に適用してもよい。以下、本発明を適用した第2の実施の形態における学習装置について説明する。
先ず、本発明を適用した第2の実施の形態における学習装置の概略構成を図26に示す。図26に示すように、学習装置2は、学習データ記憶部20と、学習部21と、モデル記憶部22とから構成される。なお、学習装置1と同様の構成については、詳細な説明を省略する。
上述した学習装置1におけるベイジアンネットワークでは、固定数のノードの確率分布を記述したが、学習装置2におけるダイナミックベイジアンネットワークでは、この固定数のノードの確率分布を時系列プロセスに拡張する。
この時系列プロセスは、数式(6)に示すように、確率変数Xにおいてマルコフ連鎖(Markovian)とする。
Figure 2007310860
また、この時系列プロセスは、不変(stationary)であり、P(X[t+1]X[t])は、tに対して独立とする。
これにより、ダイナミックベイジアンネットワークにおいて、例えば、XからXまでの計3個のノードが存在する個体の表現型は、図27(A)に示すようなt=0の初期状態X[0]におけるノードの分布(distribution)を特定する初期ネットワークBの表現型と、図27(B)に示すような全てのtにおいて遷移確率P(X[t+1]X[t])を特定する遷移ネットワークBの表現型とで表現される。
この例において、初期ネットワークBと遷移ネットワークBとの組(B,B)は、図27(C)に示すようなX[0],・・・,X[∞]の半無限大の形式、また、図27(D)に示すようなX[0],・・・,X[T]の展開した形式で表現されることが可能である。
このように、初期ネットワークBと遷移ネットワークBとの組(B,B)で表現されるダイナミックベイジアンネットワークを2TBN(2−time−slice Bayesian Network)と呼ぶ。
学習データ記憶部20には、ダイナミックベイジアンネットワークのモデルを構築する際に用いる学習データが格納されている。例えば、XからXまでの計3個のノードが存在する場合、学習データ記憶部20には、t=0におけるノードであるX[0]と、X[0]と、X[0]とが格納されている。
学習部21は、学習データ記憶部20に格納された学習データに基づいて、ダイナミックベイジアンネットワークのモデルを構築する。この学習部21で構築されたモデルは、モデル記憶部22に記憶される。
次に、学習部21においてネットワーク構造を構築する処理について説明する。なお、以下では簡単のため、ノードはXからXまでの計3個であるとする。
学習部21は、ダイナミックベイジアンネットワークのネットワーク構造を構築、すなわち遺伝的アルゴリズムに用いる個体を図28(A)に示すような初期ネットワークBの2次元遺伝子型と、図28(B)に示すような遷移ネットワークBの2次元遺伝子型とで表現する。
図28(A)に示す初期ネットワークBの2次元遺伝子型においては、上述した実施の形態における学習装置1と同様に、行及び列におけるx1、x2、x3はノード間のオーダーを表し、行と列とのオーダーは常に一致する。また、対角成分よりも上の上三角成分の各遺伝子座における対立遺伝子である“0”及び“1”は、親ノードから子ノードへのコネクションを表す。ここで、“0”は親ノードと子ノードとの間に因果関係がないことを示し、“1”は親ノードと子ノードとの間に因果関係があることを示す。また、対角成分は自己ループに相当し、対角成分よりも下の下三角成分の各遺伝子座における対立遺伝子である“0”及び“1”は、子ノードから親ノードへのコネクションを表す。但し、ネットワーク構造の非循環を保証するため、対角成分以下の遺伝子は形質を発現しないものとする。したがって、図28(A)に示すような2次元遺伝子型を有する個体の表現型は図27(A)のようになる。
一方、図28(B)に示す遷移ネットワークBの2次元遺伝子型においては、時刻tにおけるノード間の因果関係と、時刻t−1から時刻tへのノード間の因果関係とをそれぞれ別の2次元遺伝子型で表現する。時刻tにおけるノード間の因果関係を表現する2次元遺伝子型は、時刻t=0の初期ネットワークBの場合と同様に、対角成分以下の遺伝子は形質を発現しないものとする。一方、時刻t−1から時刻tへのノード間の因果関係を表す2次元遺伝子型は、対角成分以下の遺伝子も形質を発現するものとする。
学習部21は、このような2次元遺伝子型を有する多数の個体を初期個体群とし、この初期個体群から遺伝的アルゴリズムを用いて最適な個体を探索し、その個体の表現型を準最適なネットワーク構造とする。
ここで、学習部21が遺伝的アルゴリズムを用いて最適な個体を探索する手順について図29のフローチャートを参照しながら説明する。なお、この処理動作は、上述した実施の形態における図4のフローチャートに示す処理動作と基本的に同様であり、同様の内容については、詳細な説明を省略する。
先ずステップS11において、学習部21は、初期個体群を生成する。2TBNにおける初期個体群は、初期ネットワークBを表す2次元遺伝子型を有する複数の個体、遷移ネットワークBにおける時刻tでのノード間の因果関係を表す2次元遺伝子型を有する複数の個体、及び、遷移ネットワークBにおいて時刻t−1から時刻tへのノード間の因果関係を表す2次元遺伝子型を有する複数の個体より構成されるものである。
次にステップS12において、学習部21は、学習データ記憶部20に格納された学習データに基づいて、各個体の評価値(遺伝的アルゴリズムにおける適応度)を計算する。具体的には、以下の式(7)に従って2TBNにおけるBD Metric(P(D|G))を計算し、その対数を評価値とする。
Figure 2007310860
式(7)において、上述の実施の形態における学習装置1と同様に、Dは学習データ記憶部20に格納された学習データであり、Gはダイナミックベイジアンネットワークのネットワーク構造、すなわち遺伝的アルゴリズムに用いる個体であり、P(D|G)はGという条件の下でのDの確率である。また、上述の実施の形態における学習装置1と同様に、Γはガンマ関数であり、Γ(n)=(n−1)!である。また、図5(A)に示したように、ノードの数をnとし、i番目のノードをXとし、Xのk番目の取り得る値をvikとする。rはXの取り得る値の数(状態数)である。また、図5(B)に示したように、Xの親ノードリストをπとし、πのj番目のパターン(取り得る値)をwijとする。qはπのパターンの数である。また、N ijkはXの値がvikであり、πがwijであるような学習データD中のデータの数であり、N ijは以下の式(8)に従って計算される。また、N’ ijk、N’ ijは設計者の予備知識(prior knowledge)に関するものであり、N ijk、N ijと同様に扱うことができる。
Figure 2007310860
式(7)は、以下の式(9)に示すように、初期ネットワークBのネットワーク構造を有する個体の評価値と遷移ネットワークBを有する個体の評価値との積として表される。
Figure 2007310860
ここで、P(D|B)は、以下の式(10)で表される。このP(D|B)は、図30の条件付き確率テーブルに基づくt=0におけるノードX,X,Xの学習データと初期ネットワークBの構造とから算出されたNBo,N’Boを用いて表される。
Figure 2007310860
また、P(D|B)は、以下の式(11)で表される。このP(D|B)は、図31の条件付き確率テーブルに基づく学習データの内、時系列データにおいて連続する2時刻分のノードX[t−1],X[t−1],X[t−1],X[t],X[t],X[t]における学習データを1セットとして適用する。また、P(D|B)は、遷移ネットワークBの構造から算出されたNBt,N’Btを用いて表される。
Figure 2007310860
続いてステップS13において、学習部21は、終了条件を満たすか否かを判別する。終了条件を満たしていない場合にはステップS14に進み、終了条件を満たしている場合には、最も評価値が高い個体を選択して終了する。
続いてステップS14において、学習部21は、評価値に基づいて現在の個体群から次の個体群を選択する。すなわち、評価値に基づいて現在の個体群から重複を許しながら所定数の個体を選択する。
続いてステップS15,S16において、学習部21は、現在の個体群に含まれる個体に対して所定の交叉確率にしたがって交叉処理を行うと共に、所定の突然変異率に従って突然変異処理を行う。
この場合においても、上述した実施の形態における学習装置1と同様に、特にオーダーの交叉処理及び突然変異処理において古典的な遺伝的アルゴリズムの手法を用いた場合、致死遺伝子が発生しないような枠組みが必要となる。
続いてステップS17では、親ノードの数を制限し、再びステップS12に戻る。
このように、本発明を適用した第2の実施の形態における学習装置2によれば、2TBNのネットワーク構造(オーダー及びコネクション)、すなわち、遺伝的アルゴリズムに用いる個体を、初期ネットワークBを表す2次元遺伝子型、遷移ネットワークBにおける時刻tでのノード間の因果関係を表す2次元遺伝子型、及び、遷移ネットワークBにおいて時刻t−1から時刻tへのノード間の因果関係を表す2次元遺伝子型で表現し、それぞれの2次元遺伝子型を有する多数の個体を初期個体群として、この初期個体群から遺伝的アルゴリズムを用いて最適な個体を探索し、その個体の表現型をダイナミックベイジアンネットワークのネットワーク構造とすることにより、NP‐Hardの問題に対して、準最適なネットワーク構造を効率的に構築することができる。
上述した実施の形態におけるベイジアンネットワークにより動的事象を表現するには、事前にtime−sliceの数を指定しなければならず、指定数以上のtime−sliceを取り扱うことは不可能である。
これに対して、学習装置2によれば、初期ネットワークB及び遷移ネットワークBによって無限数のtime−sliceを表現することが可能となる。
また、学習装置2によれば、2TBNを適用して時刻t−1から時刻tにおける時系列データを用いてノード間の動的な因果関係のグラフィカルモデルを学習することが可能となる。
また、学習装置2によれば、時系列データから動的因果関係のグラフィカルモデルを学習する際に、初期ネットワークBのネットワーク構造を設計者の事前知識として用意することが可能であり、このネットワーク構造から追加学習を行うことが可能となる。
以下、本発明を適用した第2の実施の形態における学習装置2の具体的な実施例について説明する。この実施例は、上述した実施の形態における学習装置1と同様に、テレビに取り付けられたカメラによってユーザを観察し、ユーザの行為を推論するためのダイナミックベイジアンネットワークのモデルを想定し、そのネットワーク構造を予め準備した学習データに基づいて構築したものである。
学習データは、学習装置1と同様に、以下のようにして準備した。
先ず、テレビに向かって操作をするユーザをカメラで撮像し、その入力画像から、
・FaceDir(FaceDirection):顔の方向
・FacePlace:顔の位置
・FaceSize:顔のサイズ
・OptiFlow(OpticalFlowDirection):ユーザの動き
の4種類を上述した実施の形態において示した図17〜図20のように認識した。
次に、その認識結果に対し、
・Channel(Communication Channel):ユーザがテレビと対面しているか
・ComSignal(Communication Signal):ユーザがテレビに対して操作をしているか
・UserGoalTV:ユーザがテレビを意識しているか
・UserPresence:ユーザがテレビの前に存在しているか
の4種類のラベリングを行った。なお、このラベリングは全てYES又はNOの2値(2状態)とした。
約90分間の動画からtick間隔を1[s]として約165000ケースの時系列データを用意して学習を行った。
この学習データに基づいて、K2アルゴリズムを用いて構築したネットワーク構造を図32に示す。
この際、図32(A)に示す初期ネットワークBにおけるノード間のオーダーは、以下の通りとした。
FacePlace、FaceSize、FaceDir、OptiFlow、UserPresence、UserGoalTV、Channel、ComSignal。
また、図32(B)に示す遷移ネットワークBにおけるノード間のオーダーは、以下の通りとした。
FacePlace_t-1、FaceSize_t-1、FaceDir_t-1、OptiFlow_t-1、UserPresence_t-1、UserGoalTV_t-1、Channel_t-1、ComSignal_t-1、FacePlace_t、FaceSize_t、FaceDir_t、OptiFlow_t、UserPresence_t、UserGoalTV_t、Channel_t、ComSignal_t。
以上、本発明を実施するための最良の形態について説明したが、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本実施の形態における学習装置の概略構成を示す図である。 ベイジアンネットワークのモデルを構築する際に用いる学習データの一例を示す図である。 2次元遺伝子型とその表現型との一例を示す図である。 遺伝的アルゴリズムを用いて最適な個体を探索する手順を示すフローチャートである。 BD Metricの計算式を説明するための図である。 古典的な遺伝的アルゴリズムにおいて、オーダーの交叉処理及び突然変異処理で発生する致死遺伝子の一例を示す図である。 親個体のオーダーが同じ場合におけるコネクションの交叉処理の例を示す図である。 親個体のオーダーが異なる場合におけるオーダーの交叉処理の例を示す図である。 コネクションの突然変異処理の例を示す図である。 オーダーの突然変異処理の例を示す図である。 オーダーの突然変異処理の後にコネクションの突然変異処理を行う例を示す図である。 オーダーの交叉処理の結果、ある子ノードについて因果関係を有する親ノードの数が上限数を超える例を示す図である。 因果関係を有する親ノードの数が上限数を超えないように遺伝子を調整する例を示す図である。 4つの有向非循環グラフと、N'ijk=1として算出される評価値とを示す図である。 図14の評価値を算出する際に用いた学習データを作成する手法を説明する図である。 4つの有向非循環グラフと、本実施の形態の手法によって算出される評価値とを示す図である。 具体的な学習データを得る手法を説明する図である。 具体的な学習データを得る手法を説明する図である。 具体的な学習データを得る手法を説明する図である。 具体的な学習データを得る手法を説明する図である。 学習データに基づいてK2アルゴリズムで得られたネットワーク構造を示す図である。 図21のネットワーク構造を初期構造として追加学習を行った際の20世代目のネットワーク構造を示す図である。 図21のネットワーク構造を初期構造として追加学習を行った際の40世代目のネットワーク構造を示す図である。 図21のネットワーク構造を初期構造として追加学習を行った際の60世代目のネットワーク構造を示す図である。 図21のネットワーク構造を初期構造として追加学習を行った際の80世代目のネットワーク構造を示す図である。 本発明を適用した第2の実施の形態における学習装置の概略構成を示す図である。 2TBNにおける表現型の一例を示す図である。 2TBNにおける2次元遺伝子型の一例を示す図である。 遺伝的アルゴリズムを用いて最適な個体を探索する手順を示すフローチャートである。 評価値を算出する際に用いた学習データを作成する手法を説明する図である。 評価値を算出する際に用いた学習データを作成する手法を説明する図である。 学習データに基づいてK2アルゴリズムで得られたネットワーク構造を示す図である。
符号の説明
1 学習装置、10 学習データ記憶部、11 学習部、12 モデル記憶部

Claims (11)

  1. 複数のノード間の因果関係を有向グラフで表したベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習装置であって、
    上記学習データが格納される記憶手段と、
    上記学習データに基づいて上記ネットワーク構造を構築する学習手段とを備え、
    上記学習手段は、それぞれ上記複数のノード間の順序と因果関係とが規定された遺伝子型を有する個体により構成された初期個体群を準備し、遺伝的アルゴリズムに基づいて上記初期個体群に対して交叉処理及び/又は突然変異処理を繰り返し行うと共に、上記学習データに基づいて各個体の評価値を計算して最適な個体を探索し、該最適な個体の表現型を上記ネットワーク構造とする
    ことを特徴とする学習装置。
  2. 上記遺伝子型は、規定された順序に従って第1の方向に配置した上記複数のノードを親ノードとすると共に、上記規定された順序に従って上記第1の方向と直交する第2の方向に配置した上記複数のノードを子ノードとし、各親ノードと各子ノードとが対応する各遺伝子座における対立遺伝子により、対応するノード間の因果関係の有無を規定したものであることを特徴とする請求項1記載の学習装置。
  3. 子ノードの順序が親ノードの順序と同じか親ノードの順序よりも高い遺伝子座における遺伝子は形質を発現しないことを特徴とする請求項2記載の学習装置。
  4. 任意の子ノードについて因果関係を有する親ノードの数が所定数を超えている場合、上記学習手段は、該子ノードについて因果関係を有する親ノードの数が所定数以下となるように、該子ノードに関連する一以上の遺伝子座における遺伝子を対立遺伝子に反転させることを特徴とする請求項2記載の学習装置。
  5. 上記初期個体群は、設計者の事前知識の一部又は全部を反映したものであることを特徴とする請求項1記載の学習装置。
  6. 上記初期個体群は、学習の結果得られた個体に基づくものであることを特徴とする請求項1記載の学習装置。
  7. 上記評価値は、BD Metricの対数であり、
    n個のノードのうちi番目のノードを子ノードXとし、該子ノードXがvi0からviri−1までのr個の値を取り得るものとし、該子ノードXについて因果関係を有する全ての親ノードが取り得る値のパターンの数をq個としたとき、
    該子ノードXの値がvikとなり、該子ノードXについて因果関係を有する全ての親ノードの値がj番目のパターンとなるデータが発生すると上記学習データの取得前に予想される回数N’ijkは、以下の式に従って計算される
    ことを特徴とする請求項1記載の学習装置。
    Figure 2007310860
  8. 上記評価値は、BD Metricの対数であり、
    n個のノードのうちi番目のノードを子ノードXとし、該子ノードXがvi0からviri−1までのr個の値を取り得るものとし、該子ノードXについて因果関係を有する全ての親ノードが取り得る値のパターンの数をq個としたとき、
    該子ノードXの値がvikとなり、該子ノードXについて因果関係を有する全ての親ノードの値がj番目のパターンとなるデータが発生すると上記学習データの取得前に予想される回数N’ijkは、N’ijk=0とされる
    ことを特徴とする請求項1記載の学習装置。
  9. 上記ベイジアンネットワークは、複数のノード間の動的因果関係を有向グラフで表したダイナミックベイジアンネットワークであり、初期個体群における複数のノード間の因果関係を有向グラフで表す初期ネットワークと、時刻t−1の個体群から時刻tの個体群に対する複数のノード間の因果関係を有向グラフで表すと共に時刻tの個体群における複数のノード間の因果関係を有向グラフで表す遷移ネットワークとから構成されることを特徴とする請求項1記載の学習装置。
  10. 上記時刻t−1の個体群から時刻tの個体群に対する複数のノード間の遺伝子座の全ての遺伝子は形質を発現することを特徴とする請求項9記載の学習装置。
  11. 複数のノード間の因果関係を有向グラフで表したベイジアンネットワークのネットワーク構造を学習データに基づいて構築する学習方法であって、
    それぞれ上記複数のノード間の順序と因果関係とが規定された遺伝子型を有する個体により構成された初期個体群を準備し、
    遺伝的アルゴリズムに基づいて上記初期個体群に対して交叉処理及び/又は突然変異処理を繰り返し行うと共に、上記学習データに基づいて各個体の評価値を計算して最適な個体を探索し、
    該最適な個体の表現型を上記ネットワーク構造とする
    ことを特徴とする学習方法。
JP2006236199A 2005-10-31 2006-08-31 学習装置及び方法 Pending JP2007310860A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006236199A JP2007310860A (ja) 2005-10-31 2006-08-31 学習装置及び方法
US11/787,548 US7627539B2 (en) 2005-10-31 2007-04-17 Learning apparatus and method
KR1020070037809A KR20070103695A (ko) 2006-04-19 2007-04-18 학습 장치 및 방법

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005317031 2005-10-31
JP2006116038 2006-04-19
JP2006236199A JP2007310860A (ja) 2005-10-31 2006-08-31 学習装置及び方法

Publications (1)

Publication Number Publication Date
JP2007310860A true JP2007310860A (ja) 2007-11-29

Family

ID=38620657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006236199A Pending JP2007310860A (ja) 2005-10-31 2006-08-31 学習装置及び方法

Country Status (2)

Country Link
US (1) US7627539B2 (ja)
JP (1) JP2007310860A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257269A (ja) * 2009-04-27 2010-11-11 National Institute Of Advanced Industrial Science & Technology 確率的推論装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2660310A4 (en) * 2010-12-28 2015-09-30 Tashiro Kei COMPREHENSIVE GLAUCOMOTIC PROCESS WITH A GLAUKOM DIAGNOSIS CHIP AND A CLUSTER ANALYSIS OF A DEFORMED PROTEOMIC
CN108285866A (zh) * 2018-01-18 2018-07-17 华南农业大学 一种具有图像分析功能的培养箱
US11250062B2 (en) * 2019-04-04 2022-02-15 Kpn Innovations Llc Artificial intelligence methods and systems for generation and implementation of alimentary instruction sets
CN112016239A (zh) * 2020-07-07 2020-12-01 中国科学院西安光学精密机械研究所 一种基于动态贝叶斯网络快速求解系统可靠度的方法
CN111833967B (zh) * 2020-07-10 2022-05-20 华中农业大学 基于k-tree优化贝叶斯网络的上位性位点挖掘方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025445A (ja) * 2003-07-01 2005-01-27 Omron Corp 最適化問題計算装置および方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (ja) * 2001-01-29 2002-08-09 Fujitsu Ltd 事例蓄積装置および方法
US7117185B1 (en) * 2002-05-15 2006-10-03 Vanderbilt University Method, system, and apparatus for casual discovery and variable selection for classification
US7324981B2 (en) * 2002-05-16 2008-01-29 Microsoft Corporation System and method of employing efficient operators for Bayesian network search
JP3821225B2 (ja) * 2002-07-17 2006-09-13 日本電気株式会社 時系列データに対する自己回帰モデル学習装置並びにそれを用いた外れ値および変化点の検出装置
JP4514687B2 (ja) * 2004-11-08 2010-07-28 株式会社東芝 パターン認識装置
US7707131B2 (en) * 2005-03-08 2010-04-27 Microsoft Corporation Thompson strategy based online reinforcement learning system for action selection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025445A (ja) * 2003-07-01 2005-01-27 Omron Corp 最適化問題計算装置および方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257269A (ja) * 2009-04-27 2010-11-11 National Institute Of Advanced Industrial Science & Technology 確率的推論装置

Also Published As

Publication number Publication date
US20070250463A1 (en) 2007-10-25
US7627539B2 (en) 2009-12-01

Similar Documents

Publication Publication Date Title
Ishibuchi et al. Performance of decomposition-based many-objective algorithms strongly depends on Pareto front shapes
Thiele et al. A preference-based evolutionary algorithm for multi-objective optimization
JP2007310860A (ja) 学習装置及び方法
Soh et al. Evolving policies for multi-reward partially observable Markov decision processes (MR-POMDPs)
Zandavi et al. Stochastic dual simplex algorithm: A novel heuristic optimization algorithm
Xu et al. Graph partitioning and graph neural network based hierarchical graph matching for graph similarity computation
JP2020140631A (ja) 最適化装置及び最適化装置の制御方法
Valdez et al. A framework for interactive structural design exploration
JP2011059817A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5029090B2 (ja) 能力推定システムおよび方法ならびにプログラムおよび記録媒体
US7720774B2 (en) Learning method and apparatus utilizing genetic algorithms
Fortier et al. Learning Bayesian classifiers using overlapping swarm intelligence
JP5170698B2 (ja) 確率的推論装置
Hossain et al. An Efficient Solution to Travelling Salesman Problem using Genetic Algorithm with Modified Crossover Operator
CN115238134A (zh) 用于生成图数据结构的图向量表示的方法及装置
CN110442690B (zh) 一种基于概率推理的询问优化方法、系统和介质
Zeng et al. Contextual bandit guided data farming for deep neural networks in manufacturing industrial internet
JP2023512307A (ja) 所望の特性を有する化学化合物を生成するように学習するためのシステムおよび方法
KR20070103695A (ko) 학습 장치 및 방법
KR20140075446A (ko) 유전자 알고리즘을 이용한 경로 생성 장치 및 그 동작 방법
Chen et al. Distributed continuous control with meta learning on robotic arms
CN113705858B (zh) 多目标区域的最短路径规划方法、系统、设备及存储介质
de Oliveira et al. A Comparative study of metaheuristics applied to troubleshooting optimization problems
Sitohang et al. Improvement of CB & BC Algorithms (CB* Algorithm) for Learning Structure of Bayesian Networks as Classifier in Data Mining
Junges et al. Modeling agent behavior through online evolutionary and reinforcement learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120814