JP2012243256A - 情報処理装置、情報処理方法、並びにプログラム - Google Patents

情報処理装置、情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2012243256A
JP2012243256A JP2011115925A JP2011115925A JP2012243256A JP 2012243256 A JP2012243256 A JP 2012243256A JP 2011115925 A JP2011115925 A JP 2011115925A JP 2011115925 A JP2011115925 A JP 2011115925A JP 2012243256 A JP2012243256 A JP 2012243256A
Authority
JP
Japan
Prior art keywords
probability function
data
information processing
calculated
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011115925A
Other languages
English (en)
Other versions
JP2012243256A5 (ja
JP5845630B2 (ja
Inventor
Takashi Isozaki
隆司 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011115925A priority Critical patent/JP5845630B2/ja
Priority to US13/463,935 priority patent/US8983892B2/en
Priority to CN201210153203.5A priority patent/CN102799567A/zh
Publication of JP2012243256A publication Critical patent/JP2012243256A/ja
Publication of JP2012243256A5 publication Critical patent/JP2012243256A5/ja
Application granted granted Critical
Publication of JP5845630B2 publication Critical patent/JP5845630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】少数データに対してもパラメータの設定や調節を経ずともロバストに確率関数を推定することができるようにする。
【解決手段】データから最も尤度の高い確率関数を計算し、統計物理学における正準分布と、正準分布における温度パラメータをデータの持つ揺らぎとして計算する。そして、計算された最も尤度の高い確率関数、計算されたデータの揺らぎ、および正準分布が用いられて、確率関数が推定される。本技術は、確率関数を推定して用いる装置に適用できる。
【選択図】図1

Description

本技術は、情報処理装置、情報処理方法、並びにプログラムに関する。詳しくは、データから確率関数を推定する際に、パラメータなどの設定を行わなくても、最適な確率関数を推定できる情報処理装置、情報処理方法、並びにプログラムに関する。
予め与えられたデータから学習して得られた分類のルールを用い、その後得られたデータの分類を行う技術がある。こうした技術においては、データの背後にあるデータ生成源の真の、あるいは真に近い確率分布を推定することが行われる。かかる確率分布の推定には、混合ガウス分布、隠れマルコフモデル、ベイジアンネットワークなど多くのモデルが検討されている。
特開2008-299524号公報
東京大学教養学部統計学教室編,「自然科学の統計学」,東京大学出版会,1992年. C. P. Robert著,「The Bayesian Choice: From Decision-Theoretic Foundations to Computational Implementation」, Springer-Verlag, New York, NY, second edition, 2007年. S. Yang and K. C. Chang, 「Comparison of Score Metrics for Bayesian Network Learning」, IEEE Transactions on Systems, Man, and Cybernetics Part A: Systems and Humans, Vol. 32, No. 3, pp. 419-428, 2002年. T. Silander, P. Kontkane, and P. Myllymaki著,「On sensitivity of the map Bayesian network structure to the equivalent sample size parameter」, Proceedings of Conference on Uncertainty in Artificial Intelligence, pp. 360367, 2007年. H. Steck著,「Learning the Bayesian network structure: Dirichlet prior versus data」, Proceedings of Conference on Uncertainty in Artificial Intelligence, pp. 511518, 2008年. T.Isozaki, N. Kato, and M. Ueno著,「"Data Temperature" in Minimum Free Energies for Parameter Learning of Bayesian networks」, International Journal on Artificial Intelligence Tools, Vol. 18, No. 5, pp. 653671, 2009年.
非特許文献1には、データから確率関数を推定する場合に、相対頻度から計算することが開示されている。しかしながら、この方法では、データが少ないときに過学習が起こり、ロバストな推定ではないことが、数多くの実験から明らかになっている。
非特許文献2には、データではなく、分析者の事前の信念(事前頻度あるいは仮想頻度と呼ばれる)を、頻度に付け加えることに相当する事前分布を用いるベイズ統計学についての開示があり、この方法によれば、過学習を避けることは可能である。しかしながら、分析者に事前の知識がない場合や客観的な分析を行う必要がある場合に、客観的な事前の信念や事前頻度を定量的に設定することは困難である。
また、非特許文献3では、多変数のベイジアンネットワーク構造を推測するなどの観点では、ある特定の値が推奨されていることが開示されている。しかしながら、非特許文献3で推奨された値も理論的な根拠はないうえに、様々なデータセットでの十分な調査はされていないので最適性は未だ不明である。
さらに上記のパラメータでは多変数の場合に理論的な不整合もあり、ESS(Equivalent Sample Size)と呼ばれる別のパラメータが推奨されている。しかしこのパラメータの最適値は、データセット毎に最適な値の変動が大きく、最適化が難しいことが非特許文献4で開示されている。この最適化の手法が、非特許文献5で提案されている。非特許文献5では、BDeuというベイズ統計の手法と AIC という非ベイズ統計の手法の組合せという点で理論的な一貫性が欠ける手法であることと、AIC が少数データでは精度が悪いことから、やはり少数データでの最適な推定は難しい。さらにはこの方法は多変数のネットワーク構造の推定に特化しており、一般の確率関数の推定には使えないため汎用性が低い。
また、特許文献1や非特許文献6には、自由エネルギー最小原理を用いた確率の推定方法が開示されている。この方法は、ベイズ推定と同様に最尤推定よりロバストであることが知られている。しかしながら、温度の設定が、データ数に陽に依存した関数を仮定している点で最適とは限らないことと、さらに最適な決定が難しいパラメータをも有するため、ベイズ統計と似た状況になっている。
本技術は、このような状況に鑑みてなされたものであり、データから確率関数を推定する際に、パラメータなどの設定を行わなくても、自由エネルギーを最小化する観点で最適な確率関数を推定できるようにするものである。
本技術の一側面の情報処理装置は、データから最も尤度の高い確率関数を計算する第1の計算部と、統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算する第2の計算部と、前記第1の計算部により計算される最も尤度の高い確率関数、前記第2の計算部により計算される揺らぎ、および前記正準分布を用いて、確率関数を推定する推定部とを備える。
前記第1の計算部は、経験分布関数を計算するようにすることができる。
前記最も尤度の高い確率関数は、ベイズの事後確率関数で置き換えられるようにすることができる。
前記第2の計算部は、データの揺らぎを前記正準分布の温度に相当するパラメータとして計算で求める。データの持つ揺らぎは前記最も尤度の高い確率関数、経験分布関数、ベイズの事後確率関数、または前記推定される確率関数の少なくとも一つを用いて計算されるようにすることができる。
前記データの持つ揺らぎは、予め設定される他のパラメータあるいは、データセット毎に計算されるパラメータを含まないようにすることができる。
前記第2の計算部は、前記データの持つ揺らぎを、カルバック・ライブラー情報量を用いて計算するようにすることができる。
前記第2の計算部は、前記データの持つ揺らぎを計算する際、n個のデータを用いて前記計算を行うに当たり、n個のデータから計算される前記最も尤度の高い確率関数、ベイズ事後確率関数、または経験分布関数のうちのいずれか1つと、前記推定部により推定される(n−1)個のデータから計算される確率関数とによって、カルバック・ライブラー情報量を計算するようにすることができる。
前記(n−1)個のデータから計算される確率関数をj個(0≦j≦n−1)までのデータで同様に計算される確率関数の幾何平均によって置き換えるようにすることができる。なおj=0の場合は一様分布関数を用いることができる。
n個のデータから計算される前記最も尤度の高い確率関数、前記ベイズ事後確率関数、あるいは前記経験分布関数をj個(0≦j≦n−1)までのデータで同様に計算される前記最も尤度の高い確率関数あるいは前記ベイズ事後確率関数あるいは前記経験分布関数の幾何平均で置き換えるようにすることができる。
(n−1)個のデータから計算される確率関数を前記揺らぎの計算を、n個のデータから計算される確率関数に置き換えることによって計算される前記データの持つ揺らぎと前記正準分布とを用いた再帰的計算を用いて、確率関数を推定するようにすることができる。
前記推定部により推定された前記確率関数を用いて、統計的仮説検定を行うようにすることができる。
前記推定部により推定された確率関数から計算される相互情報量、G二乗統計量、または確率関数比を用いるようにすることができる。
前記推定部により推定された確率関数から計算されるカイ二乗統計量を用いるようにすることができる。
前記推定部により推定された前記確率関数を用いて、統計的モデルの選択を行うようにすることができる。
前記推定部により推定された確率関数から計算されるエントロピーの最も小さいモデルを選択するようにすることができる。
前記推定部により推定される確率関数は、条件付き確率関数または多変量結合確率関数であるようにすることができる。
統計的因果を発見する因果発見装置、または分類器であるようにすることができる。
前記多変量確率関数は、ベイジアンネットワーク、因果ベイジアンネットワーク、マルコフネットワーク、マルコフロジックネットワークのいずれかであるようにすることができる。
本技術の一側面の情報処理方法は、データから最も尤度の高い確率関数を計算し、統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定するステップを含む。
本技術の一側面のプログラムは、データから最も尤度の高い確率関数を計算し、統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定するステップを含む処理をコンピュータに実行させるためのプログラムである。
本技術の一側面においては、データから最も尤度の高い確率関数が計算され、統計物理学における正準分布と、正準分布におけるパラメータがデータの持つ揺らぎとして計算され、最も尤度の高い確率関数、データの揺らぎ、および正準分布が用いられて、確率関数が推定される。
本技術の一側面によれば、データから確率関数を推定する際に、パラメータなどの設定を行わなくても、最適な確率関数を推定できるようになる。
本技術を適用した確率関数を推定する情報処理装置の一実施の形態の構成を示す図である。 本技術を適用した確率関数を推定する情報処理装置の他の実施の形態の構成を示す図である。 本技術を適用した確率関数を推定する情報処理装置のさらに他の実施の形態の構成を示す図である。 記録媒体について説明するための図である。
以下に、本技術の実施の形態について図面を参照して説明する。
[情報処理装置の構成について]
図1は、本技術を適用した情報処理装置の一実施の形態の構成を示す図である。図1に示した情報処理装置10は、入力部21、制御部22、記憶部23、および出力部24から構成されている。また、制御部22は、最尤推定部41、温度決定部42、および確率関数推定部43から構成されている。以下の説明では、予め定められたN個の離散確率変数の場合を例に挙げて説明するが、N=1の場合も含んでいる。
制御部22は、CPU (Central Processing Unit) 等のプログラム制御デバイスであり、記憶部23に格納されているプログラムに従って動作する。記憶部23には、離散確率変数の数Nと、それぞれの離散確率変数の内部状態が記憶されている。また記憶部23には、データベースとしてデータが格納されている。
入力部21には、確率変数のどの確率関数を計算するかを指定する引数が入力される。または、データベース中のデータの直近のm個を利用する、あるいはどのデータを利用するかの詳細な情報が引数として入力されるように構成することもできる。また確率関数は、複数の変数を含む結合確率関数を指定することもできるし、条件付き確率関数を指定することもできる。入力部21は、入力された情報を、制御部22に出力する。
離散確率変数を、{X}(i=1,・・・,n)と表記した場合、所定の変数Xの内部状態jの確率を、ここではP(X=j)と記述する。結合確率関数として二変数であれば、P(X=k,X=l)と指定することもできる。また条件付き確率関数として条件を二変数とすれば、P(X=l|X=m,X=q)と指定することもできる。
入力部21への入力に基づき、推定すべき確率関数あるいは確率値が判明される。次に、この情報に基づき,最尤推定部41において、記憶部23に格納されたデータベースから該当する頻度が計算され、最尤推定された確率関数あるいは確率値が計算される。次に、温度決定部42において、この最尤推定の情報とデータベースからの情報が統合され、温度が決定される。そして、これらの情報に基づいて、確率関数推定部43において、最終的な確率関数あるいは確率値が計算され、この計算結果が、出力部24を通して外部に出力される。
本技術を適用した実施の形態においては、決まっていないパラメータが存在しないために、ユーザがパラメータを調節し、設定するということを行わなくても良くなり、ユーザの手間を省かせることが可能となる。また、最尤推定量よりロバストな推定ができるようになる。本技術によれば、このような両立性の利点を有する。以下に、さらに具体的に説明を加える。
[第1の実施の形態について]
第1の実施の形態として、一変数の確率関数を推定する場合を例に挙げ、図1に示した情報処理装置10が実行する処理について説明する。
まず、記憶部23には確率変数の一つとして{x}が記憶されており、その内部状態が3であることも記憶されている。そして入力部21には、この変数についてのデータの事例が10個入力されるとする。この事例は、記憶部23に記憶することができる。内部状態とは、例えば、高、中、低といった状態である。また事例としては、高という状態が、4回、中という状態が3回、低という状態が3回起きたといった事例である。このような情報が、入力部21に入力され、記憶部23に記憶される。
次に最尤推定部41において、3つの状態毎に入力された事例を参照して各状態X(i=1,2,3)の頻度nが数え上げられる。次にデータ数n=10が用いられて相対頻度、すなわち最尤推定による確率関数が次式(1)に従って求められる。
Figure 2012243256
式(1)において、
Figure 2012243256
を、以下、Pハットと記述する。最尤推定部41は、式(1)で表される確率関数Pハットに基づく計算を、記憶部23に記憶されている上述した情報を用いて行う。
次に、温度決定部42は、データの揺らぎを定量化する。以後このデータの揺らぎを温度と呼ぶ。温度が高い状態は、データの揺らぎが大きい状態であり、温度が低い状態は、データの揺らぎが小さい状態である。データ数が少ない場合、推定される関数が適切でない可能性があるが、以下に説明するように温度という概念を導入し、データ数が少ないときでも、推定される関数が適切となるようにすることができる。
n個のデータのうち、n>jなるj個のデータによって推定される確率関数P(X)を用いて、次式(2)のようにそれらの幾何平均を定義する。
Figure 2012243256
ここで P(X)=1/|X| と定義する。また、 |X| は、変数Xの内部状態数を示す。従って、 P(X) は、一様確率関数である。ここでは |X|=3 であるため、状態iに依らず、 P(X)=1/3 である。そしてデータ数n(n≧1)における温度Tを式(1)と式(2)を用いた次式(3)で定義する。
Figure 2012243256
式(3)において温度Tは、右辺がカルバック・ライブラー情報量で定義されており、その性質からT≧0である。またn≧1において、βを次式(4)で定義する。
β=1/(1+T) ・・・(4)
温度Tが、式(4)で定義されるβという量に変換される。n=0のときには、β=0と定義する。
次に確率関数推定部43において、n≧1における確率関数の推定が行われる。ここでは、自由エネルギー最小原理を用いることで導かれる次式(5)で表される正準分布を用いて、推定結果P(X)が得られる。
Figure 2012243256
式(5)において、n=0のときには、 P(X)=1/|X| を推定結果とする。このようにして推定された関数が、推定結果として、出力部24に出力され、図示していない後段の処理に供給される。
このように、利用できるデータから最も尤度の高い確率関数を最尤推定部41で計算し、統計物理学における正準分布と、正準分布におけるパラメータをデータの持つ揺らぎとして温度設定部42で計算し、最も尤度の高い確率関数、計算された揺らぎ、および正準分布とを使って確率関数を確率関数推定部43で推定することで、データの持つ揺らぎを正準分布のパラメータとして計算することでき、最尤推定量を自動補正することができる。
また最尤推定部41を、利用できるデータから経験分布関数を計算するように構成することもできる。そして、利用できるデータから経験分布関数を最尤推定部41で計算し、統計物理学における正準分布と、正準分布におけるパラメータをデータの持つ揺らぎとして温度設定部42で計算し、この正準分布を使って推定される確率関数を確率関数推定部43で推定するように構成することも可能である。このように構成した場合、データの持つ揺らぎを正準分布のパラメータとして計算することから経験分布を自動補正した推定を行うことできる。
また、最尤推定部41が、最も尤度の高い確率関数を計算するように構成してもよいし、ベイズの事後確率関数を計算するように構成することも可能である。ベイズの事後確率関数を計算するようにした場合、事前の知識を反映することもできる。
また、温度決定部42が、温度の計算(データの揺らぎの計算)をする際、正準分布の温度に相当するパラメータとして計算で求める。データの持つ揺らぎは最も尤度の高い確率関数、経験分布関数、ベイズの事後確率関数、あるいは推定される確率関数の少なくとも一つを用いて計算するように構成することができる。このように構成することで、データの持つ揺らぎから具体的にパラメータを計算することができる。
また、温度決定部42がデータの持つ揺らぎ(温度)を計算する際、予め設定される他のパラメータあるいは、データセットごとに計算されるパラメータを含まないで計算を行うため、ユーザにパラメータを設定するという余計な手間をかけさせずに、簡単に精度のよい推定ができるようになる。
また、温度決定部42が、データの持つ揺らぎを計算する際、データの持つ揺らぎを、カルバック・ライブラー情報量を用いて計算する。カルバック・ライブラー情報量を使うことで、揺らぎを0以上の量に限定でき、正準分布と共に使って精度の高い推定ができるようになる。
また、温度決定部42が、データの持つ揺らぎを計算する際、n個のデータを用いて計算を行うに当たり、n個のデータから計算される最も尤度の高い確率関数、ベイズ事後確率関数、あるいは経験分布関数と、(n−1)個のデータから計算される確率関数とによってカルバック・ライブラー情報量を計算する構成とすることができる。このような構成とした場合、上述した式(3)は、次式(6)となる。
Figure 2012243256
このような構成とすることで、一つ前のデータでの推定からの違いを揺らぎとして具体的に計算することができるようになる。
また、温度決定部42が、データの持つ揺らぎを計算する際、上記した式(3)のように、n個のデータを用いて計算を行うに当たり、n個のデータから計算される最も尤度の高い確率関数、ベイズ事後確率関数、あるいは経験分布関数と、(n−1)個のデータから計算される確率関数をj個(0≦j≦n−1のいずれか)までのデータで同様に計算される確率関数の幾何平均によって計算する構成とすることができる。この際、j=0の場合には、一様分布関数を用いることができる。このような構成とすることで、過去のデータを使った平均からのずれを揺らぎとして具体的に計算することができるようになる。
また、温度決定部42が、データの持つ揺らぎを計算する際、n個のデータから計算される最も尤度の高い確率関数、ベイズ事後確率関数、あるいは経験分布関数をj個(0≦j≦n−1のいずれか)までのデータで同様に計算される最も尤度の高い確率関数、ベイズ事後確率関数、あるいは経験分布関数の幾何平均によって計算する構成とすることができる。このような構成とした場合、上述した式(3)は、次式(7)となる。
Figure 2012243256
このような構成とすることで、過去のデータを使った平均からのずれを揺らぎとして具体的に計算することできるようになる。
さらに、温度決定部42が、データの持つ揺らぎを計算する際、(n−1)個のデータから計算される確率関数を揺らぎの計算を、n個のデータから計算される確率関数に置き換えることによって計算される揺らぎと正準分布とを用いて再帰的計算を用いて、確率関数を推定するように構成することも可能である。このように、再帰的に計算することで、計算量は増えることになるが、精度を高めることができる。
[第2の実施の形態について]
第1の実施の形態を、条件付き確率と二変数以上の結合確率の場合にまで容易に拡張することができ、この条件付き確率と二変数以上の結合確率の場合を、第2の実施の形態として以下に説明する。結合確率は、
P(X,X,・・・,X
=P(X|Xn−1,・・・,X,X)・・・P(X|X)P(X
と、条件付き確率の積に分解して表現し、計算できるので、条件付き確率の場合のみ考えれば良い。
条件付き確率の場合は、変数{X}のある変数の組{Y,Z}についての条件付き確率を例とすれば、条件の全ての特定の状態{Y=y,Z=z}毎に独立に変数{X}の確率を推定することにすぎない。このことから、条件の変数{Y,Z}の特定の状態にインデックスを付け、これをjとすれば、{Y,Z}の状態がjという条件が成り立つデータの数をnjとして、その中で変数Xの各状態のインデックスをiとし、X=iであるデータの頻度をnijとすれば、最尤推定による条件付き確率関数Pハット(X|Y,Z)は、式(1)と同様に次式(8)と求められる。
Figure 2012243256
式(2)も同じく、次式(9)と求められる。
Figure 2012243256
さらに式(3)は、jというインデックス付きで、次式(10)と求められる。
Figure 2012243256
式(4)で、温度βを定義する。そして、正規分布の式(5)は、次式(11)と求められる。
Figure 2012243256
または、温度Tに関しては、jについても平均をとり、これをTとすれば、次式(12)と表される。
Figure 2012243256
このTから式(4)で計算されるβを、式(11)でβの代わりに用いてもよい。
[第3の実施の形態について]
次に、第3の実施の形態として、G統計量を用いた三変数の条件付き独立性検定の場合について説明する。三変数の条件付き独立性検定を行う情報処理装置は、図2に示すような構成とされる。図2に示した情報処理装置100は、入力部121、制御部122、記憶部123、出力部124から構成される。また、制御部122は、最尤推定部141、温度決定部142、確率関数推定部143、統計量計算部144、閾値決定部145、および独立性判定部146から構成される。
情報処理装置100における処理について説明する。記憶部123には確率変数{X,Y,Z}が記憶されており、その内部状態がともに3であることも記憶されている。また記憶部123には、データベースとして、この変数についての過去の事例が10個格納されている状態であるとする。
入力部121に、{X,Y,Z}の中でXとYのZを条件とする条件付き独立性検定を行うようにとの指令が入力されたとする。ただし、条件付き変数Zが、空集合の場合も含み、そのような場合には、XとYの独立性検定となる。G統計量をGで表すと、情報理論における相互情報量I(X;Y)との関係が、データ数をNとして次式(13)の関係となる。
Figure 2012243256
ここで、Pハットは、最尤推定量を表わす。このG統計量あるいは相互情報量I(X;Y)における最尤推定量Pハットを、推定される確率関数Pで置き換える。推定方法は、例えば、上述した第1または第2の実施の形態と同様の方法を用いることができる。すなわち、統計量計算部144は、次式(14)に基づき統計量を算出する。
Figure 2012243256
なお、この式(14)で表されるG統計量の代わりに次式(15)で表されるG統計量が用いられるように構成することも可能である。
Figure 2012243256
確率関数の推定は、最尤推定部141、温度決定部142、および確率関数推定部143において行われる。この最尤推定部141、温度決定部142、および確率関数推定部143は、それぞれ図1に示した最尤推定部41、温度決定部42、および確率関数推定部43と同じであるため、上記した第1の実施の形態や第2の実施の形態を適用して、確率関数を推定することができる。
そして検定の閾値、例えば5%といった情報が、入力部121に入力され、この閾値を基にχ分布から、このデータ数と自由度におけるG統計量、あるいはχ統計量の閾値X thが、閾値決定部145において計算される。または検定の数値表をデータベースとして記憶部123に格納しておき、この数値表が参照され、閾値X thが表現される構成としてもよい。そして独立性判定部146において、計算されたG統計量あるいはχ統計量の閾値X thが用いられ、条件付き独立の仮説が拒絶されるか否かが判定される。その判定結果は、出力部124に供給され、図示されていない後段処理に出力される。
第3の実施の形態においては、図2に示したような情報処理装置100により処理が行われるが、情報処理装置100の制御部122の最尤推定部141、温度決定部142、および確率関数推定部143は、図1に示した情報処理装置10の制御部12の最尤推定部41、温度決定部42、および確率関数推定部43と同じ構成である。すなわち、情報処理装置100においても、確率関数を推定する部分を、第1または第2の実施の形態と同じ構成とすることが可能であり、第1または第2の実施の形態として説明した確率関数の推定を第3の実施の形態に対しても適用できる。
このような確率関数の推定を行い、統計的仮説を検定することが、第3の実施の形態を適用することで可能となる。このような検定が行われることで、仮説検定の精度を高めることが可能となる。
第3の実施の形態においては、統計的仮説を検定する情報処理装置100において、第1の実施の形態や第2の実施の形態として説明した確率関数を推定する情報処理装置10と同じようにして推定された確率関数から、統計量計算部144により相互情報量、G二乗統計量、あるいは確率関数比を用いた計算を行うようにした。このように構成したことで、G二乗検定あるいは尤度比検定の精度を高めることができる。
また、推定された確率関数から計算されるカイ二乗統計量を用いた検定を行うように構成することもできる。このような構成とすることで、カイ二乗検定の精度を高めることができる。
[第4の実施の形態について]
次に、第4の実施の形態として、エントロピーを用いたモデル選択について説明する。第4の実施の形態においては、モデル選択の指針として、エントロピーが最小となるモデルを選択するという基準を採用した場合を例に挙げて説明する。
図3に示した情報処理装置200は、入力部221、制御部222、記憶部223、出力部224から構成される。また、制御部222は、最尤推定部241、温度決定部242、確率関数推定部243、モデルエントロピー計算部244、モデル列挙部245、およびモデル比較部245から構成される。
情報処理装置200における処理について説明する。記憶部223には確率変数{X,Y,Z}が記憶されており、その内部状態がともに3であることも記憶されている。また記憶部223には、データベースとして、この変数についての過去の事例が10個格納されている状態であるとする。
入力部221に、{X,Y,Z}からなる確率分布表現での最適モデル選択の指令が入ったとする。同時確率分布の表現としては、全て独立な分布、すなわち、
P(X,Y,Z)=P(X)P(Y)P(Z)
や、一部を独立とみなすような分布、例えば、
P(X,Y,Z)=P(X)P(Y|X)P(Z|X)
などの複数のモデルが考えられる。
制御部222において、モデル列挙部245から、処理対象とされる所定のモデルが選択され、最尤推定部241に供給される。このモデル列挙部245からのモデルに対して、最尤推定部241、温度決定部242、および確率関数指定部243における各部の処理で、確率分布が計算され、全ての確率関数が推定される。
最尤推定部241、温度決定部242、および確率関数指定部243は、図1に示した情報処理装置10の最尤推定部41、温度決定部42、および確率関数推定部43と同じ構成であるため、第1または第2の実施の形態として説明した確率関数の推定を第4の実施の形態に対しても適用できる。
そして、推定された確率関数に基づいて、モデルエントロピー計算部244により、例えば、所定のモデルのエントロピーが計算される。所定のモデルが、
P(X,Y,Z)=P(X)P(Y|X)P(Z|X)
であった場合、このモデルのエントロピーは、次式(16)となる。
Figure 2012243256
このようにして算出されたモデルのエントロピーは、モデル比較部246に格納される。全てのモデルのエントロピーが格納された時点で、モデル比較部246は、最もエントロピーの小さいモデルを選択し、その選択結果を、出力部224に出力する。このように、確率関数を推定し、その推定した確率関数を用いてモデルを選択することで、モデル選択の精度を高めることができる。
第4の実施の形態においては、モデルを選択する情報処理装置200において、第1の実施の形態や第2の実施の形態として説明した確率関数を推定する情報処理装置10と同じようにして推定される確率関数から計算されるエントロピーの最も小さいモデルを選択する構成とすることができる。このような構成とすることで、エントロピーを基準とするモデル選択の精度を高めることができる。
第3の実施の形態における統計的仮説検定を行う情報処理装置、あるいは第4の実施の形態における統計的モデルの選択を行う情報処理装置のうちの、少なくとも一つを用いることで、多変量確率関数の推定を行う情報処理装置を構成することができる。このような情報処理装置によれば、多変量確率関数の推定精度を高めることができる。
また、多変量確率関数の推定を行う情報処理装置は、統計的因果を発見する因果発見装置であるようにすることもできる。このように構成することで、因果発見の精度を高めることができる。
また、多変量確率関数の推定を行う情報処理装置を、分類器として構成することも可能である。このように構成することで、分類器の精度を高めることができる。
また、多変量確率関数の推定を行う情報処理装置における多変量確率関数は、ベイジアンネットワーク、因果ベイジアンネットワーク、マルコフネットワーク、マルコフロジックネットワークのいずれかであるようにすることもできる。このように構成することで、上述したモデルの推定精度を高めることができる。
[第5の実施の形態について]
以下に、第1乃至第4の実施の形態のいずれかの実施の形態を適用した具体例をさらに説明する。まず第5の実施の形態として、推定される確率関数を推薦システムに適用した場合について説明する。
推薦システムとしては、書籍、音楽、映画などを、ユーザに推薦する例が挙げられる。一般に推薦システムでは、ユーザに、そのユーザの嗜好に合った何らかの商品やサービスを推薦するが、この推薦のときに、推薦のレーティングも表示あるいは教示されることがある。この表示や教示はその商品あるいはサービスを過去に利用した別のユーザによってフィードバックされた情報が使われることがある。このようなユーザからのフィードバックとして、5つ星を最高、1つ星を最低として星の数を評価の指標としてフィードバックしてもらうシステムの例を考える。
この場合、ユーザに推薦される商品あるいはサービスの推薦のレーティングは、別のユーザからフィードバックされた評価指標の期待値であることがある。例えば、100人からのフィードバックの期待値として4つ星が表示されたり、2人からのフィードバックの期待値として4つ星が表示されたりする。この両者の場合、前者の100人からのフィードバックの方が、2人からのフォードバックよりも、同じ4つ星であっても情報の信頼性は高いと考えられる。
しかしながら、通常の期待値では、この違いが表現できない。分散値を表示しても差が出ないことが有りえる。しかしながら、上記したように、温度という概念を導入した確率関数の推定を適用すれば、前者(100人からのフィードバック)の期待値の揺らぎは小さくなり(温度は低くなり)、後者(2人からのフィードバック)の期待値の揺らぎは大きくなる(温度は高くなる)。
このような温度の差により、推定される確率関数のバイアスは、温度の高い後者では補正されるため、星の数が4より小さくなり、その度合いは前者より後者の方が大きくなる。また揺らぎの大きさも表示すれば、ユーザは、データの少なさによる過大あるいは過小な評価の可能性が自動で補正されたレーティングを得ることができる。またユーザは、情報の持つ信頼性も知ることができる。これにより、ユーザは、よりフィードバックされた情報を、正確に把握し、自身の判断材料に役立てることができる。本技術によれば、このような判断材料を、適切な情報として提供することが可能となる。
[第6の実施の形態について]
次に、第6の実施の形態として、推定される確率関数を用いて病気と症状の因果関係を発見するシステムについて説明する。ここでは、確率変数として{結核(T)、肺がん(L)、気管支炎(B)、胸部X線結果(X)、呼吸困難(D)、喫煙状況(S)}が用意されているとする。()内のアルファベットを略字として以下に使用する。
こうした変数間の因果関係をデータから推定し、さらに条件付き確率関数として定量化する。因果関係の推定に、条件付き独立性の検定が有効であることが知られており、ここではこの検定を用いて推定する。検定の統計量としては第3の実施の形態で例として挙げたG統計量を用いることができる。条件変数のセットが大きくなると推定の精度が落ちることから、条件変数のセットの大きさを昇順にして評価する。この方法としてPCアルゴリズムと呼ばれる技術を適用できる。
帰無仮説として独立性を対立仮説として依存性が設定され、変数のセット、データセット、そして検定の閾値が入力とされる。全ての変数の組には依存性があるとし、独立性が棄却されなかった場合に、この組から除外される。まず条件変数のセットが、空集合の場合が調べられる。すなわち全ての変数の組{X、Y}について、式(13)におけるG=2NI(X;Y)の計算が実行される。この検定により独立の仮説が棄却されなければ、変数XとYの間に依存性がないとして依存性を示す組から除外される。棄却された場合は、除外されない。
次に条件セットの組が一つの場合(この条件を変数Zとする)におけるG=2NI(X;Y|Z)が計算され、同様に棄却された場合には依存性を示す組から除外される。条件セットの組が二つの場合(この条件を変数の組{Z,W}とする)、G=2NI(X;Y|{Z,W})が計算され、同様に検定が行なわれる。このような処理が繰り返されることによって、最終的に全ての条件セットに対して独立性が棄却された組のセットが依存性を示す組として残る。これらの組には{X−Y}のように、向きのない線が与えられる。
次にオリエンテーション・ルールと呼ばれる技術を適用し、向きのない線を、可能な限り{X→Y}のように向きのある線に変更するための処理が行われる。この処理が繰り返されることにより最終的に、変数が頂点とされ、向きのある線と向きのない線がリンクとされるネットワークが形成される。このネットワークが、因果ネットワークとして出力される。例えば、{S−C},{S−B},{C→D},{B→D},{C→X},{T→X}といった因果ネットワークが作成され、出力される。
さらにこれらの関係を確率的関係として表現することが可能である。上記のネットワークで向きのない線は統計的識別不可能な因果なので、ユーザが、変数に関する背景知識を使って指定することができる。例えば、{S−C}を、ユーザが{S→C}と指定する、または{C→S}と指定することにより、{S−C}の因果が特定されるようにすることができる。こうして全ての線が向きのある線に変更されると、全ての関係がベイジアンネットワークとして表現される。
ここまでの処理を用いることで、変数毎に親と呼ばれる変数の組を決定することができる。例えば、変数Dに対しては{B,C}が親と呼ばれる変数の組となり、変数Xに対しては{C,T}が親と呼ばれる変数の組となる。全ての変数に対して親を条件とする条件付き確率関数が推定される。親がなければ一般の確率関数となる。これら全ての確率関数はデータセットから、第1の実施の形態や第2の実施の形態と同じく推定される。こうして全ての(条件付き)確率関数が推定され、ネットワークの構造と共に出力される。
[第7の実施の形態について]
次に、第6の実施の形態として、推定される確率関数を用いた応用として文書分類システムについて説明する。本システムは教師あり学習システムと呼ばれる。そのため学習部と推定部にシステムが分けられる。そのようなシステムの学習部に本技術を適用することができる。
学習部は、入力としてテキスト文書とそのカテゴリー分類結果のm個のセットが入力される。入力されたテキスト文書は、形態素解析などによって単語に分割される。この単語が、分類器の確率変数として記憶される。この単語の確率変数について、各文書に生起したか否かの状態数2を持つとする。あるいは予め何回生起したかによるカテゴリーが作成されるようにしてもよい。ここでは前者を仮定する。
すると文書分類カテゴリーも確率変数として、これと各単語との確率変数の依存関係を調べることができる。ここで両者の依存関係が弱い単語については相互情報量などの利用により調べ、予め変数としては削除しておくことができる。各単語間の相関関係もあるのでこの関係をベイジアンネットワークで表現することにより、精度の高い文書分類器を生成することができる。ベイジアンネットワークのネットワーク構造を学習は統計的なモデル選択を使って実施することができる。第4の実施の形態で説明したエントロピー最小化モデル選択によってこの学習を実行することができる。
入力としては、N個の単語からなる確率変数の組、それらの状態数2、および各変数の各文書の生起の状態に関するm個のデータセットである。第4の実施の形態で示したようにモデル毎のエントロピーが計算されることで、エントロピー最小となるネットワーク構造を推定することができる。
全ての組合せが多すぎる場合には、予め変数を減らしておく、あるいは貪欲アルゴリズムと呼ばれる方法や依存の複雑さを予め制限する、などの方法を併用すればよい。このような処理が行われることで、出力は最適なネットワーク構造とすることが可能となる。この出力は、変数をXとして、Xとその条件となる変数セット(ここでは3変数{Y,Z,W}を例とする)との組になる。これを{X|Y,Z,W}と表す。
次に学習部は、設定されたネットワーク構造での全ての条件付き確率を計算する。入力としては全ての単語の変数Xに対して、ネットワークによって定まった条件セットの組{Y,Z,W}に文書分類変数Xも加えた組{Y,Z,W,X}がデータセットとともに与えられる。これをCondition(X)と表す。この第7の実施の形態においても、第1または第2の実施の形態に従って、条件付き確率関数P(X|Condition(X))を推定することができる。
出力としては全ての単語変数の条件付き確率関数となる。各単語変数Xiに対する条件付き確率関数P(X|Condition(X))と、文書分類変数の確率関数P(X)が計算される。これで学習部での学習が終了し、それぞれの出力が記憶部に格納される。
推定部では、新たに分類したいテキスト文書データが入力として与えられる。このテキスト文書は、形態素解析によって単語に分割される。記憶部に記憶されている全ての単語確率変数の条件付き確率関数が参照され、新たなテキスト文書中の単語の生起情報から該当する条件付き確率関数の値が抽出される。これらを条件付き確率値と呼ぶと、これらの条件付き確率値によって入力された文書が、どのカテゴリーに分類されるかの条件付き確率関数が、次式(17)によって計算される。
Figure 2012243256
式(17)における{e}は、単語変数には全て状態が定まっているので、それらの組を表している。また右辺のX=eは、変数単語Xの状態がeであること、
Figure 2012243256
は、文書分類変数を除いたCondition(X)の変数の組の状態が{E}であることを、それぞれ示している。この結果、最も確率値の高いカテゴリーに、文書が入力されればよい。従って、最も確率値の高いカテゴリーが出力として提示される。
このように、本技術は、確率関数を用いて処理を行う装置に対して適用することができ、ここでの例示は一例であり、限定を示すものではない。
本技術によれば、データ数に依存したバイアスを自動補正された確率関数の推定が可能となる。また、データセットごとにユーザが調整するパラメータがないので、少数データでの精度と低い計算コストを両立させることができる。
[記録媒体について]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図4は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
データから最も尤度の高い確率関数を計算する第1の計算部と、
統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算する第2の計算部と、
前記第1の計算部により計算される最も尤度の高い確率関数、前記第2の計算部により計算される揺らぎ、および前記正準分布を用いて、確率関数を推定する推定部と
を備える情報処理装置。
(2)
前記第1の計算部は、経験分布関数を計算する
前記(1)に記載の情報処理装置。
(3)
前記最も尤度の高い確率関数は、ベイズの事後確率関数で置き換えられる
前記(1)または前記(2)に記載の情報処理装置。
(4)
前記第2の計算部は、データの持つ揺らぎを前記最も尤度の高い確率関数、経験分布関数、ベイズの事後確率関数、または前記推定される確率関数の少なくとも一つを用いて計算する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記データの持つ揺らぎは、予め設定される他のパラメータあるいは、データセット毎に計算されるパラメータを含まない
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記第2の計算部は、前記データの持つ揺らぎを、カルバック・ライブラー情報量を用いて計算する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記第2の計算部は、前記データの持つ揺らぎを計算する際、n個のデータを用いて前記計算を行うに当たり、n個のデータから計算される前記最も尤度の高い確率関数、ベイズ事後確率関数、または経験分布関数のうちのいずれか1つと、前記推定部により推定される(n−1)個のデータから計算される確率関数とによって、カルバック・ライブラー情報量を計算する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記(n−1)個のデータから計算される確率関数をj個(0≦j≦n−1)までのデータで同様に計算される確率関数の幾何平均によって置き換える
前記(7)に記載の情報処理装置。
(9)
n個のデータから計算される前記最も尤度の高い確率関数、前記ベイズ事後確率関数、あるいは前記経験分布関数をj個(0≦j≦n−1)までのデータで同様に計算される前記最も尤度の高い確率関数あるいは前記ベイズ事後確率関数あるいは前記経験分布関数の幾何平均で置き換える
前記(7)に記載の情報処理装置。
(10)
(n−1)個のデータから計算される確率関数を前記揺らぎの計算を、n個のデータから計算される確率関数に置き換えることによって計算される前記データの持つ揺らぎと前記正準分布とを用いた再帰的計算を用いて、確率関数を推定する
前記(7)または前記(8)に記載の情報処理装置。
(11)
前記推定部により推定された前記確率関数を用いて、統計的仮説検定を行う
前記(1)に記載の情報処理装置。
(12)
前記推定部により推定された確率関数から計算される相互情報量、G二乗統計量、または確率関数比を用いる
前記(11)に記載の情報処理装置。
(13)
前記推定部により推定された確率関数から計算されるカイ二乗統計量を用いる
前記(11)または(12)に記載の情報処理装置。
(14)
前記推定部により推定された前記確率関数を用いて、統計的モデルの選択を行う
前記(1)に記載の情報処理装置。
(15)
前記推定部により推定された確率関数から計算されるエントロピーの最も小さいモデルを選択する
前記(14)に記載の情報処理装置。
(16)
前記推定部により推定される確率関数は、多変量結合確率関数あるいは条件付確率関数である
前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
統計的因果を発見する因果発見装置、または分類器である
前記(16)に記載の情報処理装置。
(18)
前記多変量確率関数は、ベイジアンネットワーク、因果ベイジアンネットワーク、マルコフネットワーク、マルコフロジックネットワークのいずれかである
前記(16)または(17)に記載の情報処理装置。
(19)
データから最も尤度の高い確率関数を計算し、
統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、
前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定する
ステップを含む情報処理方法。
(20)
データから最も尤度の高い確率関数を計算し、
統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、
前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定する
ステップを含む処理をコンピュータに実行させるためのプログラム。
10 情報処理装置, 21 入力部, 22 制御部, 23 記憶部, 24 出力部, 41 最尤推定部, 42 温度決定部, 43 確率関数推定部, 100 情報処理装置, 121 入力部, 122 制御部, 123 記憶部, 124 出力部, 141 最尤推定部, 142 温度決定部, 143 確率関数推定部, 144 統計量計算部, 145 閾値決定部, 146 独立性判定部, 200 情報処理装置, 221 入力部, 222 制御部, 223 記憶部, 224 出力部, 241 最尤推定部, 242 温度決定部, 243 確率関数推定部, 244 モデルエントロピー計算部, 245 モデル列挙部, 146 モデル比較部

Claims (20)

  1. データから最も尤度の高い確率関数を計算する第1の計算部と、
    統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算する第2の計算部と、
    前記第1の計算部により計算される最も尤度の高い確率関数、前記第2の計算部により計算される揺らぎ、および前記正準分布を用いて、確率関数を推定する推定部と
    を備える情報処理装置。
  2. 前記第1の計算部は、経験分布関数を計算する
    請求項1に記載の情報処理装置。
  3. 前記最も尤度の高い確率関数は、ベイズの事後確率関数で置き換えられる
    請求項1に記載の情報処理装置。
  4. 前記第2の計算部は、データの持つ揺らぎを前記最も尤度の高い確率関数、経験分布関数、ベイズの事後確率関数、または前記推定される確率関数の少なくとも一つを用いて計算する
    請求項1に記載の情報処理装置。
  5. 前記データの持つ揺らぎは、予め設定される他のパラメータあるいは、データセット毎に計算されるパラメータを含まない
    請求項1に記載の情報処理装置。
  6. 前記第2の計算部は、前記データの持つ揺らぎを、カルバック・ライブラー情報量を用いて計算する
    請求項1に記載の情報処理装置。
  7. 前記第2の計算部は、前記データの持つ揺らぎを計算する際、n個のデータを用いて前記計算を行うに当たり、n個のデータから計算される前記最も尤度の高い確率関数、ベイズ事後確率関数、または経験分布関数のうちのいずれか1つと、前記推定部により推定される(n−1)個のデータから計算される確率関数とによって、カルバック・ライブラー情報量を計算する
    請求項1に記載の情報処理装置。
  8. 前記(n−1)個のデータから計算される確率関数をj個(0≦j≦n−1)までのデータで同様に計算される確率関数の幾何平均によって置き換える
    請求項7に記載の情報処理装置。
  9. n個のデータから計算される前記最も尤度の高い確率関数、前記ベイズ事後確率関数、あるいは前記経験分布関数をj個(0≦j≦n−1)までのデータで同様に計算される前記最も尤度の高い確率関数あるいは前記ベイズ事後確率関数あるいは前記経験分布関数の幾何平均で置き換える
    請求項7に記載の情報処理装置。
  10. (n−1)個のデータから計算される確率関数を前記揺らぎの計算を、n個のデータから計算される確率関数に置き換えることによって計算される前記データの持つ揺らぎと前記正準分布とを用いた再帰的計算を用いて、確率関数を推定する
    請求項7に記載の情報処理装置。
  11. 前記推定部により推定された前記確率関数を用いて、統計的仮説検定を行う
    請求項1に記載の情報処理装置。
  12. 前記推定部により推定された確率関数から計算される相互情報量、G二乗統計量、または確率関数比を用いる
    請求項11に記載の情報処理装置。
  13. 前記推定部により推定された確率関数から計算されるカイ二乗統計量を用いる
    請求項11に記載の情報処理装置。
  14. 前記推定部により推定された前記確率関数を用いて、統計的モデルの選択を行う
    請求項1に記載の情報処理装置。
  15. 前記推定部により推定された確率関数から計算されるエントロピーの最も小さいモデルを選択する
    請求項14に記載の情報処理装置。
  16. 前記推定部により推定される確率関数は、多変量結合確率関数あるいは条件付き確率関数である
    請求項1に記載の情報処理装置。
  17. 統計的因果を発見する因果発見装置、または分類器である
    請求項16に記載の情報処理装置。
  18. 前記多変量確率関数は、ベイジアンネットワーク、因果ベイジアンネットワーク、マルコフネットワーク、マルコフロジックネットワークのいずれかである
    請求項16に記載の情報処理装置。
  19. データから最も尤度の高い確率関数を計算し、
    統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、
    前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定する
    ステップを含む情報処理方法。
  20. データから最も尤度の高い確率関数を計算し、
    統計物理学における正準分布と、前記正準分布におけるパラメータをデータの持つ揺らぎとして計算し、
    前記最も尤度の高い確率関数、前記データの揺らぎ、および前記正準分布を用いて、確率関数を推定する
    ステップを含む処理をコンピュータに実行させるためのプログラム。
JP2011115925A 2011-05-24 2011-05-24 情報処理装置、情報処理方法、並びにプログラム Active JP5845630B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011115925A JP5845630B2 (ja) 2011-05-24 2011-05-24 情報処理装置、情報処理方法、並びにプログラム
US13/463,935 US8983892B2 (en) 2011-05-24 2012-05-04 Information processing apparatus, information processing method, and program
CN201210153203.5A CN102799567A (zh) 2011-05-24 2012-05-17 信息处理装置、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011115925A JP5845630B2 (ja) 2011-05-24 2011-05-24 情報処理装置、情報処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012243256A true JP2012243256A (ja) 2012-12-10
JP2012243256A5 JP2012243256A5 (ja) 2014-06-05
JP5845630B2 JP5845630B2 (ja) 2016-01-20

Family

ID=47198680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011115925A Active JP5845630B2 (ja) 2011-05-24 2011-05-24 情報処理装置、情報処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8983892B2 (ja)
JP (1) JP5845630B2 (ja)
CN (1) CN102799567A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027411A (ja) * 2015-07-23 2017-02-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2022540584A (ja) * 2019-07-15 2022-09-16 富士通株式会社 ニューラルネットワークアーキテクチャを探索する方法及び装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5845630B2 (ja) * 2011-05-24 2016-01-20 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
CN103218837B (zh) * 2013-04-22 2015-07-29 北京航空航天大学 一种基于经验分布函数的不等组距直方图的绘制方法
JP2014228991A (ja) * 2013-05-21 2014-12-08 ソニー株式会社 情報処理装置および方法、並びにプログラム
FR3042294B1 (fr) * 2015-10-12 2018-06-01 Airbus Operations Procede de prediction des temperatures supportees par un composant, un equipement ou une structure d'un vehicule
US11176698B2 (en) 2016-03-30 2021-11-16 Nec Corporation Analysis apparatus, analysis method, and storage medium
CN108510297B (zh) * 2017-02-28 2021-12-31 北京京东尚科信息技术有限公司 一种商品评价得分的处理方法及系统
US10458671B2 (en) * 2017-04-11 2019-10-29 Ademco Inc. Building control device having probability distribution based sensing
CN109284832A (zh) * 2018-09-19 2019-01-29 南昌工程学院 一种基于马尔科夫逻辑网的统计关系学习方法与系统
US11537910B2 (en) 2019-03-28 2022-12-27 Nec Corporation Method, system, and computer program product for determining causality
CN110618428B (zh) * 2019-09-19 2021-06-25 上海海洋大学 一种用于多普勒三维数据处理方法
CN111084611B (zh) * 2019-12-25 2022-09-20 苏州大学 基于辐射比色测温仪的头戴式体温实时监控耳温计
CN112171376B (zh) * 2020-08-21 2022-05-10 杭州玖欣物联科技有限公司 一种基于电流信号分割的机床工件实时统计方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259862A (ja) * 2005-03-15 2006-09-28 Toshiba Corp ベイジアンネットワーク作成装置及び方法並びにプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466894B2 (en) * 1998-06-18 2002-10-15 Nec Corporation Device, method, and medium for predicting a probability of an occurrence of a data
US6687696B2 (en) * 2000-07-26 2004-02-03 Recommind Inc. System and method for personalized search, information filtering, and for generating recommendations utilizing statistical latent class models
US20050181386A1 (en) * 2003-09-23 2005-08-18 Cornelius Diamond Diagnostic markers of cardiovascular illness and methods of use thereof
US7636651B2 (en) * 2003-11-28 2009-12-22 Microsoft Corporation Robust Bayesian mixture modeling
JP2008299524A (ja) 2007-05-30 2008-12-11 Fuji Xerox Co Ltd 情報分類装置及びプログラム
US8010476B2 (en) * 2007-06-04 2011-08-30 Siemens Medical Solutions Usa, Inc. System and method for medical predictive models using likelihood gamble pricing
GB2462261A (en) * 2008-07-28 2010-02-03 Fujitsu Ltd Method, apparatus and computer program for simulating behaviou r of thermodynamic systems
US8478053B2 (en) * 2009-07-15 2013-07-02 Nikon Corporation Image sorting apparatus
WO2011139687A1 (en) * 2010-04-26 2011-11-10 The Trustees Of The Stevens Institute Of Technology Systems and methods for automatically detecting deception in human communications expressed in digital form
US20120078821A1 (en) * 2010-09-25 2012-03-29 The Board of Trustees of the Leland Srandford Junior University Methods for unsupervised learning using optional pólya tree and bayesian inference
JP5845630B2 (ja) * 2011-05-24 2016-01-20 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP5854274B2 (ja) * 2012-03-28 2016-02-09 ソニー株式会社 情報処理装置および方法、並びにプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259862A (ja) * 2005-03-15 2006-09-28 Toshiba Corp ベイジアンネットワーク作成装置及び方法並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027411A (ja) * 2015-07-23 2017-02-02 株式会社リコー 情報処理装置、情報処理方法およびプログラム
JP2022540584A (ja) * 2019-07-15 2022-09-16 富士通株式会社 ニューラルネットワークアーキテクチャを探索する方法及び装置
JP7248190B2 (ja) 2019-07-15 2023-03-29 富士通株式会社 ニューラルネットワークアーキテクチャを探索する方法及び装置

Also Published As

Publication number Publication date
US20120303572A1 (en) 2012-11-29
US8983892B2 (en) 2015-03-17
JP5845630B2 (ja) 2016-01-20
CN102799567A (zh) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5845630B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
Bayraksan et al. Data-driven stochastic programming using phi-divergences
Wager Asymptotic theory for random forests
Johansson et al. Conformal prediction using decision trees
Xu et al. Minimum excess risk in Bayesian learning
Nauck et al. Predicting basin stability of power grids using graph neural networks
Moniz et al. Resampling strategies for imbalanced time series
Li et al. High dimensional model representation (HDMR) coupled intelligent sampling strategy for nonlinear problems
Fujimaki et al. Online heterogeneous mixture modeling with marginal and copula selection
Chen et al. Process monitoring based on multivariate causality analysis and probability inference
JPWO2016084326A1 (ja) 情報処理システム、情報処理方法、及び、プログラム
Shangguan et al. Neural process for black-box model optimization under bayesian framework
Kumari Study on Naive Bayesian Classifier and its relation to Information Gain
Matilla-Garcia Nonlinear dynamics in energy futures
Zhou et al. A tradeoff between false discovery and true positive proportions for sparse high-dimensional logistic regression
Wang et al. Randomized block coordinate descendant STRONG for large-scale stochastic optimization
Xing et al. Load prediction in short-term implementing the multivariate quantile regression
Abe et al. Analyzing business processes by automatically detecting kpi thresholds
Nguyen et al. An active learning framework for set inversion
Hasanzadeh et al. Bayesian graph contrastive learning
Salehkaleybar et al. Identifying nonlinear 1-step causal influences in presence of latent variables
Reiz et al. Bayesian network classifier for medical data analysis
Seidlová et al. Synthetic data generator for testing of classification rule algorithms
Fonseca et al. A genetic algorithm assisted by a locally weighted regression surrogate model
CN112488319A (zh) 一种具有自适应配置生成器的调参方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R151 Written notification of patent or utility model registration

Ref document number: 5845630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250