JP6052187B2 - 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法 - Google Patents

最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法 Download PDF

Info

Publication number
JP6052187B2
JP6052187B2 JP2013557256A JP2013557256A JP6052187B2 JP 6052187 B2 JP6052187 B2 JP 6052187B2 JP 2013557256 A JP2013557256 A JP 2013557256A JP 2013557256 A JP2013557256 A JP 2013557256A JP 6052187 B2 JP6052187 B2 JP 6052187B2
Authority
JP
Japan
Prior art keywords
query
model
domain knowledge
function
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013557256A
Other languages
English (en)
Other versions
JPWO2013118225A1 (ja
Inventor
森永 聡
聡 森永
遼平 藤巻
遼平 藤巻
吉伸 河原
吉伸 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013118225A1 publication Critical patent/JPWO2013118225A1/ja
Application granted granted Critical
Publication of JP6052187B2 publication Critical patent/JP6052187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリを最適に生成する最適クエリ生成装置、最適クエリ抽出方法、最適クエリ抽出プログラムおよびこれらを利用した判別モデル学習方法および判別モデル学習プログラムに関する。
近年の急速なデータインフラの整備によって、大規模かつ大量なデータを効率的に処理することが、産業の重要課題の1つになっている。特に、データがどのカテゴリに属するか判別する技術は、データマイニング、パターン認識など、多くの応用分野における中心技術の一つである。
データを判別する技術を利用する一例として、未分類のデータに関する予測を行うことが挙げられる。例えば、自動車の故障診断を行う場合には、自動車から取得されるセンサデータと過去の故障事例とを学習することにより、故障を判別するためのルールが生成される。そして、新たに不具合が発生した自動車のセンサデータ(すなわち、未分類のデータ)に生成されたルールを適用することで、その自動車に発生している故障を特定する、あるいはその要因を絞り込む(予測する)ことができる。
また、データを判別する技術は、あるカテゴリと別のカテゴリの間の差や因子を分析するためにも利用される。例えば、ある疾病と生活習慣との関係を調べたい場合には、被調査対象の集団をある疾病を持つ群と持たない群に分類し、その二つの群を判別するためのルールを学習すればよい。例えば、このように学習されたルールが、「対象者が肥満かつ喫煙している場合には、ある疾病の確率が高い」であるとする。この場合、「肥満」と「喫煙」の両方の条件を満たすことが、その疾病の重要な因子であることが疑われることになる。
このようにデータを判別する問題では、データを分類するためのルールを表す判別モデルを、対象とするデータからいかにして学習するかが最も重要な課題になる。そのため、過去事例やシミュレーションデータなどに基づいてカテゴリ情報が付与されたデータから判別モデルを学習する方法が数多く提案されている。この方法は、判別ラベルを利用する学習方法であり、「教師有学習(supervised learning)」と呼ばれている。以下、カテゴリ情報のことを判別ラベルと記すこともある。非特許文献1には、教師有学習の例として、ロジスティック回帰、サポートベクトルマシン、決定木などが記載されている。
また、非特許文献2には、判別ラベルの分布を仮定し、判別ラベルがついていないデータを活用する半教師学習という方法が記載されている。また、非特許文献2には、半教師学習の例として、ラプラシアンサポートベクトルマシンが記載されている。
非特許文献3には、データの性質の変化を考慮して判別学習を行うための共変量シフト(covariate shirt)やドメイン適応(domain adaptation)と呼ばれる技術が記載されている。
なお、非特許文献4には、判別モデルを学習するために必要なデータがモデルの推定に与える不確実性について記載されている。
Christopher Bishop, "Pattern Recognition and Machine Learning", Springer, 2006 Mikhail Belkin, Partha Niyogi, Vikas Sindhwani, "Manifold Regularization : A Geometric Framework for Learning from Labeled and Unlabeled Examples", Journal of Machine Learning Research (2006), Volume7, Issue48, p.2399-2434 Hidetoshi Shimodaira, "Improving predictive inference under covariate shift by weighting the log-likelihood function", Journal of Statistical Planning and Inference, 90 (2), p.227-244, October 2000 Burr Settles, "Active Learning Literature Survey", Computer Sciences Technical Report 1648, University of Wisconsin-Madison, 2010
教師有学習に基づく判別学習には、以下の問題点が存在する。
第一の問題点は、判別ラベルが付与されたデータ数が少ない場合、学習されるモデルの性能が著しく劣化することである。この問題点は、モデルパラメータの探索空間の広さに対してデータ数が少ないことが原因で、パラメータをうまく最適化することができないために生じる。
また、教師有学習に基づく判別学習では対象とするデータからの判別誤差を最も小さくするように判別モデルが最適化される。例えば、ロジスティック回帰では対数尤度関数が用いられ、サポートベクトルマシンではヒンジ損失関数が用いられ、決定木では情報利得関数が用いられる。しかし、第二の問題点は、学習されるモデルが利用者の知識とは必ずしも合致しないことである。この判別学習を自動車の故障判別に応用した場合を例に挙げて、第二の問題点を説明する。
図12は、判別モデルを学習する方法の例を示す説明図である。この例では、エンジンが異常に発熱した結果、エンジンに故障が発生し、回転に異常な高周波成分が発生するという状況を想定する。図12に丸印で示すデータは故障を示すデータであり、バツ印で示すデータは正常であることを示すデータである。
また、図12に示す例では、2種類の判別モデルを想定する。1つは、図12に例示する点線91で分類するように、故障の要因であるエンジン温度に基づいて判別するモデル(判別モデル1)であり、もう一つは、図12に例示する点線92で分類するように、現象として現れるエンジン回転の周波数に基づいて判別するモデル(判別モデル2)である。
エンジンが故障しているか否かに基づいて最適化を行うという観点では、図12に例示する判別モデル1と判別モデル2では、判別モデル2が選択される。これは、判別モデル2を選択すれば、データ93を含め、正常と故障のデータ群を完全に分離できるからである。一方で、故障判別を実際に応用する場合には、現象に着目したモデルである判別モデル2よりも、ほぼ同程度の精度で判別可能な、要因に着目したモデルである判別モデル1の方が好ましい。
第三の問題点は、データを用いて自動的に最適化されるモデルは、データに存在しない現象を捉えることが原理的にできないことである。
以下、具体例を挙げて第三の問題点を説明する。ここでは、特定健康診断の検査データから肥満のリスク(今後肥満になるかどうか)を予測する場合を想定する。特定健康診断は、日本において現在40歳以上に義務付けられているため、詳細な検査データが採取されている。そのため、これらの検査データを用いて判別モデルを学習することが可能である。
一方で、若年(例えば20歳代)の肥満リスクを防止するためにこの判別モデルを活用することも考えられる。しかし、この場合、20歳代のデータと40歳以上のデータとでは、データの性質が異なる。そのため、40歳代の特徴を捉えた判別モデルを20歳代の場合へ適用しても、判別結果の信頼性が低くなってしまう。
第一の問題点を解決するために、非特許文献2に記載された半教師学習によりモデルを学習することが考えられる。半教師学習は、判別ラベルの分布に対する仮定が正しい場合、第一の問題点に対して効果があることが知られているからである。しかし、半教師学習を利用したとしても、第二の問題点を解決することはできない。
また、一般的なデータ分析の現場では、第二の問題点を解決するために、事前にカテゴリと関係がある属性を抽出する属性抽出(feature extraction)や属性選択(feature selection)が実施される。しかし、データの属性の数が多い場合には、この処理には大きなコストを要するという別の問題が発生する。さらに、属性は、領域の知識に基づいて抽出される。しかし、抽出される属性がデータと合致していない場合、大きな判別精度の低下を引きおこすという問題もある。
また、非特許文献1に記載されているように、機械による自動属性選択方法も数多く提案されている。自動属性選択の最も代表的な方法は、L1正則化サポートベクトルマシンやL1正則化ロジスティック回帰など、判別学習そのものである。しかし、機械による自動属性選択方法では、ある基準を最適化する属性を選択することになるため、やはり、第2の問題点を解決することはできない。
また、非特許文献3に記載された方法は、二つのデータ群に含まれるデータ(上述の例では、20歳代のデータと、40歳以上のデータ)が十分に取得されていること、および、二つのデータ群の分布の違いが比較的小さいことが前提とされる。特に、前者の制約があるため、非特許文献3に記載された方法を利用して学習されるモデルの用途が、十分に集まった両群のデータを事後的に分析するという用途に限定されてしまう。
そこで、本発明は、ユーザのモデルに対する知識や分析の意図を示す領域知識を反映させた判別モデルを生成する場合に、その領域知識を付与すべき最適なクエリを生成できる最適クエリ生成装置、最適クエリ抽出方法、最適クエリ抽出プログラムおよびこれらを利用した判別モデル学習方法および判別モデル学習プログラムを提供することを目的とする。
本発明による最適クエリ生成装置は、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補を記憶するクエリ候補記憶手段と、領域知識が付与された場合にその領域知識が付与されたクエリを利用して推定される判別モデルの不確実性が小さくなるクエリを、クエリ候補の中から抽出する最適クエリ抽出手段とを備えたことを特徴とする。
本発明による最適クエリ抽出方法は、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補の中から、領域知識が付与された場合にその領域知識が付与されたクエリを利用して推定される判別モデルの不確実性が小さくなるクエリを抽出することを特徴とする。
本発明による判別モデル学習方法は、最適クエリ抽出方法によって抽出されたクエリに付与される領域知識に基づいて、その領域知識に対する適合性を示す関数である正則化関数を生成し、判別モデルごとに予め定められた損失関数および正則化関数を用いて定義される関数を最適化することにより判別モデルを学習することを特徴とする
本発明による最適クエリ抽出プログラムは、コンピュータに、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補の中から、領域知識が付与された場合にその領域知識が付与されたクエリを利用して推定される判別モデルの不確実性が小さくなるクエリを抽出する最適クエリ抽出処理を実行させることを特徴とする。
本発明による判別モデル学習プログラムは、最適クエリ抽出プログラムを実行させるコンピュータに適用される判別モデル学習プログラムであって、コンピュータに、最適クエリ抽出手段によって抽出されたクエリに付与される領域知識に基づいて、その領域知識に対する適合性を示す関数である正則化関数を生成する正則化関数生成処理、および、判別モデルごとに予め定められた損失関数および正則化関数を用いて定義される関数を最適化することにより判別モデルを学習するモデル学習処理を実行させることを特徴とする。
本発明によれば、ユーザのモデルに対する知識や分析の意図を示す領域知識を反映させた判別モデルを生成する場合に、その領域知識を付与すべき最適なクエリを生成できる。
本発明による判別モデル学習装置の第1の実施形態の構成例を示すブロック図である。 第1の実施形態の判別モデル学習装置の動作例を示すフローチャートである。 本発明による判別モデル学習装置の第2の実施形態の構成例を示すブロック図である。 第2の実施形態の判別モデル学習装置の動作例を示すフローチャートである。 本発明による判別モデル学習装置の第3の実施形態の構成例を示すブロック図である。 第3の実施形態の判別モデル学習装置の動作例を示すフローチャートである。 本発明による判別モデル学習装置の第4の実施形態の構成例を示すブロック図である。 最適クエリ生成装置の構成例を示すブロック図である。 第4の実施形態の判別モデル学習装置の動作例を示すフローチャートである。 最適クエリ生成装置の動作例を示すフローチャートである。 本発明による最適クエリ生成装置の概要を示すブロック図である。 判別モデルを学習する方法の例を示す説明図である。
以下の説明では、1つのデータをD次元のベクトルデータとして扱う。また、テキストや画像など、一般にはベクトル形式でないデータもベクトルデータとして扱う。この場合、例えば、文中の単語の有無を表すベクトル(bug of wordsモデル)や、画像中の特徴素の有無を表すベクトル(bug of features model)へ変換することで、一般にはベクトル形式でないデータもベクトルデータとして扱うことが可能になる。
また、n番目の学習データをxと表わし、n番目の学習データxの判別ラベルをyと表わす。また、データ数がNの場合のデータをx(=x,…,x)と表わし、データ数がNの場合の判別ラベルをy(=y,…,y)と表わす。
まず初めに、判別学習の基本的な原理を説明する。判別学習とは、判別の誤差を小さくするためのある関数(損失関数と呼ばれる)に対して判別モデルを最適化することである。すなわち、判別モデルをf(x)とし、最適化されたモデルをf(x)とすると、学習問題は、損失関数L(x,y,f)を用いて、以下に示す式1で表わされる。
Figure 0006052187
なお、式1は制約無最適化問題の形式で表わされているが、何らかの制約条件をつけて最適化をすることも可能である。例えば、L1正則化ロジスティック回帰モデルの場合には、属性に対する重みベクトルwに対して、f(x)=wxと定義すると、上記の式1は、具体的には、以下に示す式2で表わされる。
Figure 0006052187
式2において、Tは、ベクトルや行列の転置を表している。損失関数L(x,y,f)は、f(x)をyの予測値や確率として利用した場合のフィッティングのよさと、f(x)の複雑さを表わす罰則項とを含む。このような罰則項を追加することは、正則化と呼ばれている。正則化は、モデルがデータに過適合することを防止するために行われる。なお、モデルがデータに過適合することは、過学習とも呼ばれる。式2において、λは、正則化の強さを表すパラメータである。
以下、教師有学習の場合を例に挙げて説明する。なお、判別ラベルが付与されていないデータが得られている場合、判別ラベルが付与されているデータと判別ラベルが付与されていないデータの両者から算出される損失関数を採用すればよい。両者から算出される損失関数を採用することで、以下に説明する方法を、半教師有学習へ適用することが可能である。
[第1の実施形態]
図1は、本発明による判別モデル学習装置の第1の実施形態の構成例を示すブロック図である。本実施形態の判別モデル学習装置100は、データ入力装置101と、入力データ記憶部102と、モデル学習装置103と、クエリ候補記憶部104と、領域知識入力装置105と、領域知識記憶部106と、知識正則化生成処理部107と、モデル出力装置108とを備えている。判別モデル学習装置100には、入力データ109及び領域知識110が入力され、判別モデル111が出力される。
データ入力装置101は、入力データ109の入力に用いられる装置である。データ入力装置101は、入力データ109を入力する際、分析に必要なパラメータも併せて入力する。なお、入力データ109には、上述の判別ラベルが付与された学習データx,yに加え、分析に必要なパラメータなどが含まれる。ここで、判別ラベルが付与されていないデータが半教師学習などで利用される場合、そのデータも併せて入力される。
入力データ記憶部102は、データ入力装置101が入力した入力データ109を記憶する。
モデル学習装置103は、事前に設定されている(または、パラメータとして事前に指定される)損失関数L(x,y,f)に、後述する知識正則化生成処理部107で算出される正則化関数を加えた関数の最適化問題を解くことで、判別モデルを学習する。具体的な算出例に関しては、後述する知識正則化生成処理部107の説明において具体例とともに説明する。
クエリ候補記憶部104は、領域知識を事前に付与すべき候補になるモデルを複数記憶する。例えば、判別モデルとして線形関数f(x)=wxが利用される場合、クエリ候補記憶部104は、異なる値を含むwの候補値を記憶する。以下の説明では、領域知識を付与すべき候補になるモデルのことをクエリと記すこともある。このクエリには、モデル学習装置103が学習した判別モデル自身が含まれていてもよい。
領域知識入力装置105は、クエリ候補に対する領域知識を入力するためのインタフェースを備えた装置である。領域知識入力装置105は、クエリ候補記憶部104に記憶されているクエリ候補から任意の方法によってクエリを選択し、選択したクエリ候補を出力(表示)する。以下、クエリ候補に対して付与する領域知識の例を説明する。
[第1の領域知識例]
第1の領域知識例は、モデルの候補が最終的な判別モデルとして好ましいかどうか示すものである。具体的には、領域知識入力装置105がモデル候補を出力すると、例えば、ユーザ等により、そのモデルが最終的な判別モデルとして好ましいかどうかが領域知識として領域知識入力装置105に入力される。例えば、判別モデルが線形関数の場合、領域知識入力装置105が線形関数の重みベクトルの候補値w’を出力すると、そのモデルが合致するかしないか、または、どの程度合致しているかが入力される。
[第2の領域知識例]
第2の領域知識例は、複数のモデルの候補のうち、どのモデルがより好ましいかを示すものである。具体的には、領域知識入力装置105が複数のモデル候補を出力すると、例えば、ユーザ等により、それらのモデルを比較した場合に、最終的な判別モデルとしてどのモデルがより好ましいかが領域知識として入力される。例えば、判別モデルが決定木の場合、領域知識入力装置105が2つの決定木モデルf1(x),f2(x)を出力すると、ユーザ等により、f1(x)とf2(x)のうちどちらが判別モデルとして好ましいかが入力される。なお、ここでは、2つのモデルを比較する場合を例に説明したが、複数のモデルを同時に比較するようにしてもよい。
領域知識記憶部106は、領域知識入力装置105に入力された領域知識を記憶する。
知識正則化生成処理部107は、領域知識記憶部106に記憶されている領域知識を読み込み、モデル学習装置103がモデルの最適化に必要な正則化関数を生成する。すなわち、知識正則化生成処理部107は、クエリに付与された領域知識に基づいて正則化関数を生成する。ここで生成される正則化関数は、領域知識に対するフィッティングや制約を表現する関数であり、データに対するフィッティングを表わす教師有学習(または、半教師有学習)で用いられるような一般的な損失関数とは異なる。すなわち、知識正則化生成処理部107が生成する正則化関数は、領域知識に対する適合性を示す関数であるということもできる。
以下、モデル学習装置103および知識正則化生成処理部107の動作をさらに説明する。モデル学習装置103は、知識正則化生成処理部107で生成される正則化関数と、データへのフィッティング(適合性)を表す教師有学習(または、半教師有学習)に用いられる損失関数の両者を同時に最適化するように判別モデルを最適化する。これは、例えば、以下に示す式3で表される最適化問題を解くことで実現される。
Figure 0006052187
式3において、L(x,y,f)は、上記の式1で説明した、一般的な教師有学習(または、半教師有学習)で用いられる損失関数である。また、式3において、KRは、知識正則化生成処理部107が生成する正則化関数及び制約条件である。このように判別モデルを最適化することで、データへのフィッティングを保ちつつ、領域知識を反映したモデルを効率的に学習することが可能になる。
なお、以下の説明では、上記の式3に示すように、損失関数L(x,y,f)と正則化関数KRの和で表わされる最適化問題を解く場合について説明する。ただし、最適化問題の対象が、両者の積で定義されていてもよく、両者の関数として定義されていてもよい。これらの場合も、同様に最適化することが可能である。なお、最適化関数の態様は、学習する判別モデルに応じて予め定められる。
以下、正則化関数KRの具体的な例を説明する。なお、本発明の本質は、領域知識のフィッティングや制約を、データのフィッティングと同時に最適化することである。以下に示す最適化関数KRは、この性質を満たす関数の一例であり、本性質を満たす他の関数を定義することも容易に可能である。
[第1の知識正則化例]
第1の領域知識例で説明した例のように、領域知識がモデルとその良さ(好ましさ)を示す情報として入力されている場合を想定する。ここで、領域知識記憶部106に記憶されている、モデルとその良さのペアを、それぞれ(f,z),(f,z),…,(f,z)と表記する。また、この例では、fが好ましいモデルと類似しているほど、または、fが好ましくないモデルと類似していないほど値の小さくする関数として正則化関数KRが定義されるものとする。
このような正則化関数を用いると、上記に示す式3において、損失関数L(x,y,f)の値が同程度であれば、領域知識によりフィットしているモデルが、より良いモデルになることがわかる。
ここで、判別モデルとして線形関数が利用され、モデルが好ましいか否かが二値(z=±1)で領域知識が与えられている場合には、例えばKRを以下に示す式4のように定義することが可能である。
Figure 0006052187
式4に示す例では、モデル間の類似性を二乗距離で定義し、さらにその類似性を二乗距離の係数zで定義した。なお、モデルの好ましさを示す値zが二値でない場合でも、モデル間の類似性を表す関数とzから決まる係数とを定義することで、一般の判別モデルにおいても同様に正則化関数KRを定義することが可能である。
[第2の知識正則化例]
第2の領域知識例で説明した例のように、領域知識が複数のモデルを比較したことを示す情報として入力されている場合を想定する。この例では、モデルf1=w xおよびモデルf2=w xに対して、モデルf1の方がモデルf2よりも好ましいことを示す領域知識が入力されているとする。この場合、例えばKRを以下に示す式5のように定義することが可能である。
Figure 0006052187
式5を利用すると、モデルf1の損失関数L(x,y,f1)の値と、モデルf2の損失関数L(x,y,f2)の値が同程度あれば、正則化関数の値が小さくなるf1の方がより好ましいモデルとして正しく最適化されることがわかる。
モデル出力装置108は、モデル学習装置103が学習した判別モデル111を出力する。
モデル学習装置103と、知識正則化生成処理部107とは、プログラム(判別モデル学習プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、判別モデル学習装置100の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、モデル学習装置103および知識正則化生成処理部107として動作してもよい。また、モデル学習装置103と、知識正則化生成処理部107とは、それぞれが専用のハードウェアで実現されていてもよい。
入力データ記憶部102と、クエリ候補記憶部104と、領域知識記憶部106は、例えば、磁気ディスク等により実現される。また、データ入力装置101は、キーボードや、他の装置(図示せず)から送信されるデータを受信するインタフェースにより実現される。また、モデル出力装置108は、判別モデルを記憶する記憶部(図示せず)にデータを記憶させるCPUや、判別モデルの学習結果を表示するディスプレイ装置などにより実現される。
次に、第1の実施形態の判別モデル学習装置100の動作を説明する。図2は、本実施形態の判別モデル学習装置100の動作例を示すフローチャートである。まず、データ入力装置101は、入力された入力データ109を入力データ記憶部102に記憶する(ステップS100)。
知識正則化生成処理部107は、領域知識記憶部106に領域知識が記憶されているか否かを確認する(ステップS101)。領域知識記憶部106に領域知識が記憶されている場合(ステップS101におけるYes)、知識正則化生成処理部107は、正則化関数を算出する(ステップS102)。一方、領域知識が記憶されていない場合(ステップS101におけるNo)、または、正則化関数が算出された後、ステップS103以降の処理が行われる。
次に、モデル学習装置103は、判別モデルを学習する(ステップS103)。具体的には、ステップS102において正則化関数が算出された場合、モデル学習装置103は、算出された正則化関数を利用して判別モデルを学習する。一方、ステップS101において、領域知識記憶部106に領域知識が記憶されていないと判断された場合、モデル学習装置103は、正則化関数を用いることなく通常の判別モデルを学習する。そして、モデル学習装置103は、学習した判別モデルをクエリ候補としてクエリ候補記憶部104に記憶する(ステップS104)。
次に、領域知識を入力するか否かの判断が行われる(ステップS105)。この判断処理は、例えば、ユーザ等による指示があったか否かに基づいて行われてもよく、新たなクエリ候補がクエリ候補記憶部104に記憶されたことを条件に行われてもよい。ただし、領域知識を入力するか否かの判断は、上記内容に限定されない。
ステップS105において、領域知識を入力すると判断された場合(ステップS105におけるYes)、領域知識入力装置105は、クエリ候補記憶部104から領域知識を付加すべきクエリの候補を表す情報を読み取って出力する。領域知識入力装置105は、例えば、ユーザ等により領域知識110が入力されると、入力された領域知識を領域知識記憶部106に記憶する(ステップS106)。領域知識が入力されると、正則化関数を算出し、領域知識が入力されるまでのステップS102からステップS106の処理が繰り返される。
一方、ステップS105において、領域知識を入力しないと判断された場合(ステップS105におけるNo)、モデル出力装置108は、領域知識の入力が完了したと判断し、判別モデル111を出力して(ステップS107)、処理を終了する。
以上のように、本実施形態によれば、知識正則化生成処理部107が、クエリの候補に付与される領域知識に基づいて正則化関数を生成し、モデル学習装置103が判別モデルごとに予め定められた損失関数および正則化関数を用いて定義される関数を最適化することにより判別モデルを学習する。よって、データへのフィッティングを保ちつつ、領域知識を反映した判別モデルを効率的に学習できる。
すなわち、本実施形態の判別モデル学習装置は、領域知識を判別モデルの学習へ反映させることで、領域知識と合致する判別モデルを得ることができる。具体的には、データに対する判別精度と、ユーザの知識や意図に基づいて生成される正則化条件とを同時に最適化することで、領域知識を反映しつつ高い精度をもつ判別モデルを学習することが可能になる。また、本実施形態の判別モデル学習装置では、モデルに対する知識や意図を入力するため、属性の抽出などを個別に行う場合と比較して、効率的に領域知識を判別モデルへ反映することができる。
[第2の実施形態]
次に、本発明による判別モデル学習装置の第2の実施形態を説明する。本実施形態の判別モデル学習装置は、モデルに対して入力された領域知識から後述するモデルプリファレンスを学習することにより正則化関数を生成する点において第1の実施形態と異なる。
図3は、本発明による判別モデル学習装置の第2の実施形態の構成例を示すブロック図である。本実施形態の判別モデル学習装置200は、第1の実施形態と比較して、判別モデル学習装置にモデルプリファレンス学習装置201が含まれ、知識正則化生成処理部107が、知識正則化生成処理部202に置き換わっている点で相違する。以下、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。
第1の実施形態では、正則化項として用いるために領域知識を入力することで、データへのフィッティングと領域知識の反映とを同時に効率よく実現した。一方、適切な正則化を実現するためには、多数の領域知識を入力することが必要である。
そこで、第2の実施形態の判別モデル学習装置200は、入力された領域知識に基づいて領域知識を表す関数(以下、モデルプリファレンスと記す。)を学習する。そして、判別モデル学習装置200が学習したモデルプリファレンスを正則化に利用することで、入力される領域知識が少ない場合であっても、適切に正則化関数を生成することを可能とする。
モデルプリファレンス学習装置201は、領域知識に基づいてモデルプリファレンスを学習する。以降、モデルプリファレンスを、モデルfの関数g(f)として表記する。例えば、モデルが好ましいかどうかを示す二値で領域知識が与えられる場合、モデルプリファレンス学習装置201は、ロジスティック回帰モデルやサポートベクトルマシンなどの判別モデルとしてg(f)を学習できる。
知識正則化生成処理部202は、学習されたモデルプリファレンスを利用して正則化関数を生成する。正則化関数は、例えば、モデルプリファレンス関数g(f)の値が大きい(すなわち、モデルfがモデルとしてより良いと推定される)ほど、最適になりやすい性質を有する任意の関数として構成される。
例として、モデルfが線形関数f(x)=wxで定義され、関数gが線形関数g(f)=vwで定義される場合を想定する。ここで、vは、モデルプリファレンスの重み関数であり、モデルプリファレンス学習装置201で最適化されているパラメータである。この場合、正則化関数RKを、例えば、RK=log(1+exp(−g(f)))のような関数で定義できる。
なお、モデルプリファレンス学習装置201と、知識正則化生成処理部202とは、プログラム(判別モデル学習プログラム)に従って動作するコンピュータのCPUによって実現される。また、モデルプリファレンス学習装置201と、知識正則化生成処理部202とは、それぞれが専用のハードウェアで実現されていてもよい。
次に、第2の実施形態の判別モデル学習装置200の動作を説明する。図4は、本実施形態の判別モデル学習装置200の動作例を示すフローチャートである。なお、入力データ109が入力され、生成された判別モデルがクエリ候補記憶部104に記憶されてから領域知識が入力されるステップS100からステップS106までの処理は、図2に例示する処理と同様である。
モデルプリファレンス学習装置201は、領域知識記憶部106に記憶された領域知識に基づいてモデルプリファレンスを学習する(ステップS201)。そして、知識正則化生成処理部202は、学習されたモデルプリファレンスを利用して正則化関数を生成する(ステップS202)。
以上のように、本実施形態によれば、モデルプリファレンス学習装置201が、領域知識に基づいてモデルプリファレンスを学習し、知識正則化生成処理部202が、学習されたモデルプリファレンスを利用して正則化関数を生成する。そのため、第1の実施形態の効果に加え、入力される領域知識が少ない場合であっても、適切に正則化関数を生成することができる。
[第3の実施形態]
次に、本発明による判別モデル学習装置の第3の実施形態を説明する。本実施形態では、クエリ候補の作成方法を工夫することで、利用者が効果的に領域知識を入力できるようにする。
図5は、本発明による判別モデル学習装置の第3の実施形態の構成例を示すブロック図である。本実施形態の判別モデル学習装置300は、第1の実施形態と比較して、クエリ候補生成装置301が含まれている点で相違する。以下、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。
第1の実施形態および第2の実施形態では、クエリ候補記憶部104に記憶されているクエリ候補に対して領域知識を付与し、付与された領域知識に基づいて生成された正則化項を判別モデルの学習に用いることで、データへのフィッティングと領域知識の反映とを同時に効率よく実現した。なお、この場合、クエリ候補が適切に生成されていることが前提になる。
本実施形態では、適切なクエリ候補がクエリ候補記憶部104に記憶されていない場合に、領域知識を獲得するコストが高くなること、または、多数の領域知識の入力が必要になることを抑制する方法を説明する。
クエリ候補生成装置301は、以下に示す2つの性質の少なくとも片方の性質を満たすようにクエリ候補を生成し、クエリ候補記憶部104へ記憶する。第一の性質は、領域知識の入力者にとって理解可能なモデルであることである。第二の性質は、クエリ候補の中で判別性能が有意(significance)に低くないことである。
クエリ候補生成装置301が第一の性質を満たすようにクエリ候補を生成する場合、クエリ候補に対して領域知識を獲得するコストを下げるという効果を有する。ここで、領域知識を獲得するコストが高くなる問題点の例を線形判別モデルを例に説明する。
f(x)=wxは一般的にはD次元の線形結合として表現されている。ここで、100次元のデータ(D=100)について、あるモデルの重みベクトルの候補値w’をクエリとして問い合わせることを想定する。この場合、領域知識の入力者は、100次元ベクトルについてのw’を確認する必要があるため、領域知識を入力するコストが高くなる。
一般的には、線形の場合でも、例えば、決定木のような非線形判別モデルでも、モデルで利用される入力属性が少数であれば、モデルの確認が容易である。この場合、領域知識を入力するコストを低く抑えることができる。すなわち、領域知識の入力者にとって理解可能なモデルにすることができる。
そこで、クエリ候補生成装置301は、第一の性質を満たすクエリ候補(すなわち、ユーザに付与させる領域知識を軽減させるクエリ候補)を、以下の二つの手順で生成する。まず、第一の手順として、クエリ候補生成装置301は、入力データにおけるD次元の入力属性うち、少数の入力属性の組み合わせを任意の方法によって列挙する。このとき、クエリ候補生成装置301は、全ての属性の組み合わせを列挙する必要はなく、クエリ候補として生成したい数だけ属性を列挙すればよい。クエリ候補生成装置301は、例えば、D次元の属性から2つの属性だけを抽出する。
次に、第二の手順として、クエリ候補生成装置301は、列挙された組み合わせそれぞれに対して、その少数の入力属性のみを利用したクエリ候補を学習する。このとき、クエリ候補生成装置301は、クエリ候補の学習方法として、任意の方法を利用することができる。クエリ候補生成装置301は、例えば、モデル学習装置103が正則化関数KRを除外して判別モデルを学習する方法と同一の方法を利用してクエリ候補を学習してもよい。
次に、第二の性質について説明する。クエリ候補生成装置301が第二の性質を満たすようにクエリ候補を生成する場合、無駄なクエリ候補を除外し、領域知識の入力回数を減らすことができるという効果を有する。
本発明のモデル学習装置は、領域知識だけでなくデータへのフィッティングも同時に考慮して判別モデルを最適化する。そのため、例えば、上記の式3で表される最適化問題を最適化する場合、データへのフィッティング(損失関数L(x,y,f))も最適化されるため、判別精度の低いモデルは選ばれない事になる。したがって、判別精度の有意に低いモデルをクエリ候補とし、そのクエリ候補に領域知識を付与したとしても、そのクエリはモデル探索空間の外の点であるため、無駄なクエリになってしまう。
そこで、クエリ候補生成装置301は、第二の性質を満たすクエリ候補(すなわち、複数のクエリの中から判別精度が有意に低いクエリを削除したクエリ候補)を、以下の二つの手順で生成する。まず、第一の手順として、複数のクエリ候補を任意の方法によって生成する。クエリ候補生成装置301は、例えば、第一の性質を満たすクエリ候補を生成する方法と同一の方法を用いてクエリ候補を生成してもよい。
次に、第二の手順として、クエリ候補生成装置301は、生成されたクエリ候補の判別精度を算出する。そして、クエリ候補生成装置301は、クエリの候補の精度が有意に低いか否かを判定し、有意に低いと判定したクエリをクエリ候補から削除する。なお、クエリ候補生成装置301は、有意性について、例えば、最も精度の高いクエリ候補中のモデルから精度が悪化した度合いを算出し、その度合いを予め設定された閾値(または、データから算出された閾値)と比較することによって判定してもよい。
このように、本実施形態では、クエリ候補生成装置によって適切なクエリ候補が生成される。そのため、モデル学習装置103は、学習した判別モデルをクエリ候補記憶部104に記憶してもよく、また、記憶しなくてもよい。
なお、クエリ候補生成装置301は、プログラム(判別モデル学習プログラム)に従って動作するコンピュータのCPUによって実現される。また、クエリ候補生成装置301が専用のハードウェアで実現されていてもよい。
次に、第3の実施形態の判別モデル学習装置300の動作を説明する。図6は、本実施形態の判別モデル学習装置300の動作例を示すフローチャートである。図6に例示するフローチャートには、図2に例示するフローチャートに記載された処理に、入力データに基づいてクエリ候補が生成されるステップS301の処理および処理の終了判定においてクエリ候補を追加するか否かが判定されるステップS302の処理が追加されている。
具体的には、データ入力装置101が入力された入力データ109を入力データ記憶部102に記憶させると(ステップS100)、クエリ候補生成装置301は、入力データ109を利用してクエリ候補を生成する(ステップS301)。生成されたクエリ候補は、クエリ候補記憶部104へ記憶される。
また、ステップS105において、領域知識を入力しないと判断された場合(ステップS105におけるNo)、クエリ候補生成装置301は、クエリ候補を追加するか否かを判定する(ステップS302)。なお、クエリ候補生成装置301は、例えば、ユーザ等の指示に応じて、クエリ候補を追加するか否か判定してもよく、予め定めた数のクエリが生成されたか否かに基づいて、クエリ候補を追加するか否か判定してもよい。
クエリ候補を追加すると判定した場合(ステップS302におけるYes)、クエリ候補生成装置301は、クエリ候補を生成するステップS301の処理を繰り返す。一方、クエリ候補を追加しないと判定した場合(ステップS302におけるNo)、モデル出力装置108は、領域知識の入力が完了したと判断し、判別モデル111を出力して(ステップS107)、処理を終了する。
なお、上述するように、本実施形態では、クエリ候補生成装置によって適切なクエリ候補が生成される。そのため、図6に例示するステップS104の処理(すなわち、学習した判別モデルをクエリ候補記憶部104に記憶する処理)は、実行されてもよく、また、実行されなくてもよい。
以上のように、本実施形態によれば、クエリ候補生成装置301が、入力者に付与させる領域知識を軽減させたクエリ候補、または、複数のクエリの中から判別精度が有意に低いクエリを削除したクエリ候補を生成する。具体的には、クエリ候補生成装置301が、入力データを示す属性から予め定めた数の属性を抽出し、抽出した属性からクエリ候補を生成する。または、クエリ候補生成装置301が、複数のクエリ候補の判別精度を算出し、算出した判別精度が有意に低いクエリをクエリ候補から削除する。
よって、第1の実施形態および第2の実施形態の効果に加え、適切なクエリ候補が存在しない場合であっても、領域知識を獲得するコストが高くなること、または、多数の領域知識の入力が必要になることを抑制できる。
[第4の実施形態]
次に、本発明による判別モデル学習装置の第4の実施形態を説明する。本実施形態では、領域知識を付与させるクエリ候補(すなわち、利用者に対して入力させる質問)を最適化することで、利用者が効果的に領域知識を入力できるようにする。
図7は、本発明による判別モデル学習装置の第4の実施形態の構成例を示すブロック図である。本実施形態の判別モデル学習装置400は、第1の実施形態と比較して、最適クエリ生成装置401が含まれている点で相違する。以下、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。
第1〜3の実施形態では、領域知識入力装置105がクエリ候補記憶部104から領域知識を付加すべきクエリ候補を任意の方法で選択していた。しかし、より効率的に領域知識を入力するためには、クエリ候補記憶部104に記憶されているクエリ候補の中から、何らかの基準によって最も適切なクエリを選択することが重要である。
そこで、最適クエリ生成装置401は、クエリによって学習される判別モデルの不確実性が最小になるクエリ集合をクエリ候補記憶部104から選択して出力する。
図8は、最適クエリ生成装置401の構成例を示すブロック図である。最適クエリ生成装置401は、クエリ候補抽出処理部411と、不確実性算出処理部412と、最適クエリ判定処理部413とを含む。
クエリ候補抽出処理部411は、クエリ候補記憶部104に記憶されている、領域知識が付加されていないクエリ候補を1つ以上、任意の方法で抽出する。例えば、クエリ候補として領域知識を付加すべきモデルを1つ出力する場合、クエリ候補抽出処理部411は、クエリ候補記憶部104に記憶されている候補を1つずつ順番に抽出してもよい。
また、例えば、クエリ候補として領域知識を付加すべきモデルを2つ以上出力する場合、クエリ候補抽出処理部411は、1つ出力する場合と同様、全ての組み合わせの候補を順番に抽出してもよい。また、クエリ候補抽出処理部411は、任意の探索アルゴリズムを用いて組み合わせの候補を抽出してもよい。以下、抽出されたクエリ候補に対応するモデルをf’1〜f’Kとする。ただし、Kは、抽出されたクエリ候補の個数である。
不確実性算出処理部412は、f’1〜f’Kに領域知識が与えられた場合の、モデルの不確実性を算出する。不確実性算出処理部412は、モデルの不確実性として、モデルによる推定がどの程度不確実であるかを表す任意の指標を利用することが可能である。例えば、非特許文献4の第3章「Query Strategy Frameworks 」には、“least confidence”,“margin sampling measure ”,“entropy ”,“vote entropy”,“average Kulback-Leibler divergence”,“expected model change ”,“expected error”,“model variance”,“Fisher information score”など、様々な指標が記載されている。不確実性算出処理部412は、これらの指標を不確実性の指標として利用してもよい。ただし、不確実性の指標は、非特許文献4に記載された指標に限定されない。
なお、非特許文献4に記載された不確実性の評価方法では、判別モデルを学習するために必要なデータがモデルの推定に与える不確実性を評価する。一方、本実施形態では、モデル自体の良さを問い合わせ、領域知識を得ることでクエリ候補がモデルの推定に与える不確実性を評価する点で本質的に異なっている。
最適クエリ判定処理部413は、不確実性の最も大きいクエリ候補、または不確実性の大きい候補の集合(すなわち、2つ以上のクエリ候補)を選択する。そして、最適クエリ判定処理部413は、選択したクエリ候補を領域知識入力装置105に入力する。
なお、最適クエリ生成装置401(より具体的には、クエリ候補抽出処理部411と、不確実性算出処理部412と、最適クエリ判定処理部413)は、プログラム(判別モデル学習プログラム)に従って動作するコンピュータのCPUによって実現される。また、最適クエリ生成装置401(より具体的には、クエリ候補抽出処理部411と、不確実性算出処理部412と、最適クエリ判定処理部413)が専用のハードウェアで実現されていてもよい。
次に、第4の実施形態の判別モデル学習装置400の動作を説明する。図9は、本実施形態の判別モデル学習装置400の動作例を示すフローチャートである。図9に例示するフローチャートには、図2に例示するフローチャートに記載された処理に、モデル候補に対する質問を生成するステップS401の処理が追加されている。
具体的には、ステップS105において、領域知識を入力すると判断された場合(ステップS105におけるYes)、最適クエリ生成装置401は、モデル候補に対する質問を生成する(ステップS401)。すなわち、最適クエリ生成装置401は、ユーザ等に領域知識を付与させる対象のクエリ候補を生成する。
図10は、最適クエリ生成装置401の動作例を示すフローチャートである。クエリ候補抽出処理部411は、入力データ記憶部102、クエリ候補記憶部104および領域知識記憶部106にそれぞれ記憶されているデータを入力し(ステップS411)、クエリの候補を抽出する(ステップS412)。
不確実性算出処理部412は、抽出されたクエリ候補ごとに不確実性を示す指標を算出する(ステップS413)。最適クエリ判定処理部413は、不確実性の最も大きいクエリ候補、またはクエリ候補の集合(例えば、2つ以上のクエリ候補)を選択する(ステップS414)。
最適クエリ判定処理部413は、クエリ候補をさらに追加するか否かを判断する(ステップS415)。追加すると判断された場合(ステップS415におけるYes)、ステップS412以降の処理が繰り返される。一方、追加しないと判断された場合(ステップS415におけるNo)、最適クエリ判定処理部413は、選択された候補をまとめて領域知識入力装置105に出力する(ステップS416)。
以上のように、本実施形態によれば、最適クエリ生成装置401が、領域知識が付与された場合に、学習される判別モデルの不確実性が小さくなるクエリを、クエリ候補の中から抽出する。言い換えると、最適クエリ生成装置401が、領域知識が付与された場合に、その領域知識が付与されたクエリを利用して推定される判別モデルの不確実性が小さくなるクエリを、クエリ候補の中から抽出する。
具体的には、最適クエリ生成装置401は、学習される判別モデルの不確実性が最も高い、または、高い方から予め定められた数のクエリをクエリ候補の中から抽出する。不確実性が高いクエリに対して領域知識が付与されることにより、学習される判別モデルの不確実性が小さくなるからである。
そのため、領域知識を反映させた判別モデルを生成する場合に、その領域知識を付与すべき最適なクエリを生成できる。したがって、このように最適なクエリを抽出することにより、領域知識入力装置105が、最適クエリ生成装置401が抽出したクエリに対するユーザからの領域知識の入力を受け付けることができる。よって、不確実性の大きいクエリ候補に対して領域知識を付与することで、領域知識に基づく正則化項の推定精度を高めることができ、結果として、判別学習の精度を高めることが可能になる。
なお、第2の実施形態の判別モデル学習装置200および第4の実施形態の判別モデル学習装置400が、入力データ109からクエリ候補を生成するために、第3の実施形態の判別モデル学習装置300が備えるクエリ候補生成装置301を備えていてもよい。また、第4の実施形態の判別モデル学習装置400が、第2の実施形態のモデルプリファレンス学習装置201を備えていてもよい。この場合、判別モデル学習装置400がモデルプリファレンスを生成できるため、第4の実施形態でも、モデルプリファレンスを利用して正則化関数を算出できる。
次に、本発明の概要を説明する。図11は、本発明による最適クエリ生成装置の概要を示すブロック図である。本発明による最適クエリ生成装置は、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補を記憶するクエリ候補記憶手段86(例えば、クエリ候補記憶部104)と、領域知識が付与された場合にその領域知識が付与されたクエリを利用して推定される判別モデルの不確実性が小さくなるクエリを、クエリ候補の中から抽出する最適クエリ抽出手段87(例えば、最適クエリ生成装置401)とを備えている。
そのような構成により、ユーザのモデルに対する知識や分析の意図を示す領域知識を反映させた判別モデルを生成する場合に、その領域知識を付与すべき最適なクエリを生成できる。
また、最適クエリ生成装置は、最適クエリ抽出手段87によって抽出されたクエリに付与される領域知識に基づいて、その領域知識に対する適合性(フィッティング)を示す関数である正則化関数(例えば、正則化関数KR)を生成する正則化関数生成手段(例えば、知識正則化生成処理部107)と、判別モデルごとに予め定められた損失関数(例えば、損失関数L(x,y,f))および正則化関数を用いて定義される関数(例えば、上記に示す式3で表される最適化問題)を最適化することにより判別モデルを学習するモデル学習手段(例えば、モデル学習装置103)とを備えていてもよい。
そのような構成により、データへのフィッティングを保ちつつ、ユーザのモデルに対する知識や分析の意図を示す領域知識を反映した判別モデルを効率的に学習できる。
また、最適クエリ生成装置は、ユーザに付与させる領域知識を軽減させたクエリ候補、または、複数のクエリの中から判別精度が有意に低いクエリを削除したクエリ候補を生成するクエリ候補生成手段(例えば、クエリ候補生成装置301)を備えていてもよい。そして、最適クエリ抽出手段87は、クエリ候補の中から判別モデルの不確実性が小さくなるクエリを抽出してもよい。
そのような構成により、適切なクエリ候補が存在しない場合であっても、領域知識を獲得するコストが高くなること、または、多数の領域知識の入力が必要になることを抑制できる。
また、最適クエリ生成装置は、最適クエリ抽出手段87によって抽出されたクエリに付与される領域知識に基づいて、その領域知識を表す関数であるモデルプリファレンスを学習するモデルプリファレンス学習手段(例えば、モデルプリファレンス学習装置201)を備えていてもよい。そして、正則化関数生成手段は、モデルプリファレンスを利用して正則化関数を生成してもよい。
そのような構成により、入力される領域知識が少ない場合であっても、適切に正則化関数を生成することが可能になる。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2012年2月8日に出願された米国仮特許出願第61/596,317号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリを最適に生成する最適クエリ生成装置に好適に適用される。
100,200,300,400 判別モデル学習装置
101 データ入力装置
102 入力データ記憶部
103 モデル学習装置
104 クエリ候補記憶部
105 領域知識入力装置
106 領域知識記憶部
107,202 知識正則化生成処理部
108 モデル出力装置
201 モデルプリファレンス学習装置
301 クエリ候補生成装置
401 最適クエリ生成装置
411 クエリ候補抽出処理部
412 不確実性算出処理部
413 最適クエリ判定処理部

Claims (8)

  1. ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補を記憶するクエリ候補記憶手段と、
    前記領域知識が付与された場合に当該領域知識が付与された前記クエリを利用して推定される判別モデルの不確実性が小さくなるクエリを、前記クエリ候補の中から抽出する最適クエリ抽出手段とを備えた
    ことを特徴とする最適クエリ生成装置。
  2. 最適クエリ抽出手段によって抽出されたクエリに付与される領域知識に基づいて、当該領域知識に対する適合性を示す関数である正則化関数を生成する正則化関数生成手段と、
    判別モデルごとに予め定められた損失関数および前記正則化関数を用いて定義される関数を最適化することにより判別モデルを学習するモデル学習手段とを備えた
    請求項1記載の最適クエリ生成装置。
  3. ユーザに付与させる領域知識を軽減させたクエリ候補、または、複数のクエリの中から判別精度が有意に低いクエリを削除したクエリ候補を生成するクエリ候補生成手段を備え、
    最適クエリ抽出手段は、前記クエリ候補の中から判別モデルの不確実性が小さくなるクエリを抽出する
    請求項1記載の最適クエリ生成装置。
  4. 最適クエリ抽出手段によって抽出されたクエリに付与される領域知識に基づいて、当該領域知識を表す関数であるモデルプリファレンスを学習するモデルプリファレンス学習手段を備え、
    正則化関数生成手段は、前記モデルプリファレンスを利用して正則化関数を生成する
    請求項2記載の最適クエリ生成装置。
  5. ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補の中から、前記領域知識が付与された場合に当該領域知識が付与された前記クエリを利用して推定される判別モデルの不確実性が小さくなるクエリを抽出する
    ことを特徴とする最適クエリ抽出方法。
  6. 請求項5記載の最適クエリ抽出方法によって抽出されたクエリに付与される領域知識に基づいて、当該領域知識に対する適合性を示す関数である正則化関数を生成し、
    判別モデルごとに予め定められた損失関数および前記正則化関数を用いて定義される関数を最適化することにより判別モデルを学習する
    ことを特徴とする判別モデル学習方法。
  7. コンピュータに、
    ユーザの意図を示す領域知識を付与すべき対象のモデルであるクエリの候補の中から、前記領域知識が付与された場合に当該領域知識が付与された前記クエリを利用して推定される判別モデルの不確実性が小さくなるクエリを抽出する最適クエリ抽出処理
    を実行させるための最適クエリ抽出プログラム。
  8. 請求項7記載の最適クエリ抽出プログラムを実行させるコンピュータに適用される判別モデル学習プログラムであって、
    前記コンピュータに、
    最適クエリ抽出手段によって抽出されたクエリに付与される領域知識に基づいて、当該領域知識に対する適合性を示す関数である正則化関数を生成する正則化関数生成処理、および、
    判別モデルごとに予め定められた損失関数および前記正則化関数を用いて定義される関数を最適化することにより判別モデルを学習するモデル学習処理
    を実行させるための判別モデル学習プログラム。
JP2013557256A 2012-02-08 2012-12-11 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法 Active JP6052187B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261596317P 2012-02-08 2012-02-08
US61/596,317 2012-02-08
PCT/JP2012/007900 WO2013118225A1 (ja) 2012-02-08 2012-12-11 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法

Publications (2)

Publication Number Publication Date
JPWO2013118225A1 JPWO2013118225A1 (ja) 2015-05-11
JP6052187B2 true JP6052187B2 (ja) 2016-12-27

Family

ID=48903795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557256A Active JP6052187B2 (ja) 2012-02-08 2012-12-11 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法

Country Status (3)

Country Link
US (1) US20130204811A1 (ja)
JP (1) JP6052187B2 (ja)
WO (1) WO2013118225A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10437843B2 (en) * 2014-07-29 2019-10-08 Microsoft Technology Licensing, Llc Optimization of database queries via transformations of computation graph
US10169433B2 (en) 2014-07-29 2019-01-01 Microsoft Technology Licensing, Llc Systems and methods for an SQL-driven distributed operating system
US10176236B2 (en) 2014-07-29 2019-01-08 Microsoft Technology Licensing, Llc Systems and methods for a distributed query execution engine
WO2016070034A1 (en) * 2014-10-31 2016-05-06 Linkedin Corporation Transfer learning for bilingual content classification
KR101903522B1 (ko) * 2015-11-25 2018-11-23 한국전자통신연구원 다차원 건강데이터에 대한 유사사례 검색 방법 및 그 장치
US10592554B1 (en) 2017-04-03 2020-03-17 Massachusetts Mutual Life Insurance Company Systems, devices, and methods for parallelized data structure processing
US10453444B2 (en) * 2017-07-27 2019-10-22 Microsoft Technology Licensing, Llc Intent and slot detection for digital assistants
CN109460458B (zh) * 2018-10-29 2020-09-29 清华大学 查询改写意图的预测方法及装置
WO2020241009A1 (ja) * 2019-05-31 2020-12-03 株式会社エヌ・ティ・ティ・データ 予測装置、学習装置、予測方法、及びプログラム
JP7338493B2 (ja) * 2020-01-29 2023-09-05 トヨタ自動車株式会社 エージェント装置、エージェントシステム及びプログラム
CN113609827B (zh) * 2021-08-09 2023-05-26 海南大学 基于意图驱动的dikw的内容处理方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005523533A (ja) * 2002-04-19 2005-08-04 コンピュータ アソシエイツ シンク,インコーポレイテッド 混合型数字及び/又は非数字データの処理
WO2005091214A1 (ja) * 2004-03-18 2005-09-29 Denso It Laboratory, Inc. 車両用情報処理システム、車両用情報処理方法およびプログラム
US20070156887A1 (en) * 2005-12-30 2007-07-05 Daniel Wright Predicting ad quality
JP2007219955A (ja) * 2006-02-17 2007-08-30 Fuji Xerox Co Ltd 質問応答システム、質問応答処理方法及び質問応答プログラム
JP5299267B2 (ja) * 2007-03-22 2013-09-25 日本電気株式会社 診断装置
WO2011033744A1 (ja) * 2009-09-15 2011-03-24 日本電気株式会社 画像処理装置、画像処理方法および画像処理用プログラム
JP5533272B2 (ja) * 2010-05-28 2014-06-25 日本電気株式会社 データ出力装置、データ出力方法およびデータ出力プログラム
US8832006B2 (en) * 2012-02-08 2014-09-09 Nec Corporation Discriminant model learning device, method and program

Also Published As

Publication number Publication date
JPWO2013118225A1 (ja) 2015-05-11
WO2013118225A1 (ja) 2013-08-15
US20130204811A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
JP5327415B1 (ja) 判別モデル学習装置、判別モデル学習方法および判別モデル学習プログラム
JP6052187B2 (ja) 最適クエリ生成装置、最適クエリ抽出方法および判別モデル学習方法
KR102153920B1 (ko) 정제된 인공지능 강화학습 데이터 생성을 통한 의료영상 판독 시스템 및 그 방법
US11734601B2 (en) Systems and methods for model-assisted cohort selection
CN111613339B (zh) 一种基于深度学习的相似病历查找方法与系统
US11580459B2 (en) Systems and methods for extracting specific data from documents using machine learning
US7107254B1 (en) Probablistic models and methods for combining multiple content classifiers
US20190095801A1 (en) Cognitive recommendations for data preparation
US20220044148A1 (en) Adapting prediction models
JP2015087903A (ja) 情報処理装置及び情報処理方法
CN109155152B (zh) 临床报告检索和/或比较
US20230195851A1 (en) Data classification system, data classification method, and recording medium
US20220351634A1 (en) Question answering systems
CN116682557A (zh) 一种基于小样本深度学习的慢性病并发症早期风险预警方法
KR20210157303A (ko) 이종 언어로 구현된 워크플로우 기반의 자동 예측 모델링 방법 및 그를 위한 장치
Vieira et al. Main concepts in machine learning
CN116805533A (zh) 一种基于数据收集与模拟的脑出血手术风险预测系统
CN116452851A (zh) 病症分类模型的训练方法、装置、终端及可读存储介质
EP3832485A1 (en) Question answering systems
Özkan et al. Effect of data preprocessing on ensemble learning for classification in disease diagnosis
Arjaria et al. Performances of Machine Learning Models for Diagnosis of Alzheimer’s Disease
Kordík et al. On performance of meta-learning templates on different datasets
CN111402979B (zh) 病情描述与诊断一致性检测方法及装置
Westphal Model Selection and Evaluation in Supervised Machine Learning
CN114581715A (zh) 病理玻片数字图像数据集的半监督甄选方法和甄选系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150