JP2010272004A - 判別装置及び判別方法、並びにコンピューター・プログラム - Google Patents

判別装置及び判別方法、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP2010272004A
JP2010272004A JP2009124386A JP2009124386A JP2010272004A JP 2010272004 A JP2010272004 A JP 2010272004A JP 2009124386 A JP2009124386 A JP 2009124386A JP 2009124386 A JP2009124386 A JP 2009124386A JP 2010272004 A JP2010272004 A JP 2010272004A
Authority
JP
Japan
Prior art keywords
weak
discrimination
feature
weak hypothesis
hypothesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009124386A
Other languages
English (en)
Inventor
Nobuya Otani
伸弥 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009124386A priority Critical patent/JP2010272004A/ja
Priority to US12/780,422 priority patent/US20100296728A1/en
Priority to CN2010101804204A priority patent/CN101894297A/zh
Publication of JP2010272004A publication Critical patent/JP2010272004A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 使用する弱仮説数を削減しつつ判別性能を向上させるとともに、学習時間の短縮、判別時の計算量削減、学習結果の可読性向上を実現する。
【解決手段】意見文判別を行なうための弱仮説を、所定次元数の特徴量のノードと、意見文判別結果のノードからなり、直接的影響を及ぼすノード対を矢印で結んだベイジアン・ネットワークで表現し、判別対象ノードの推論確率を当該弱仮説の出力とする。BN弱仮説は、各特徴量ノードの閾値と、すべての特徴量ノードに値を入力したときに出力ノードの確率推定に必要な条件付確率分布という2種類のパラメーターを持つ。
【選択図】 図3

Description

本発明は、対象物の特徴量を基にそれぞれ判別を行なう複数の弱仮説を用いてブースティングにより判別を行なうとともに、弱仮説をブースティングにより学習する判別装置及び判別方法、並びにコンピューター・プログラムに関する。
サンプル学習によって得られる学習機械は、多数の弱仮説と、これらを組み合わせる結合機(combiner)からなる。ここで、入力に依らず、固定した重みで弱仮説の出力を統合する結合機の一例として、ブースティング(Boosting)が挙げられる。ブースティングは、前に生成した弱仮説の学習結果を使用して間違いを苦手とする学習サンプルの重みを増すように、学習サンプルが従う分布を加工し、この分布に基づき新たな弱仮説の学習を行なう。これにより、不正解が多く判別が難しい学習サンプルの重みが相対的に上昇し、重みが大きい、すなわち判別が難しい学習サンプルを正解させるような弱判別器が逐次選択される。学習における弱仮説の生成は逐次的に行なわれ、後から生成された弱仮説はその前に生成された弱仮説に依存することになる。
ここで、弱仮説に基づいて判別処理を行なう弱判別器は、何らかの特徴量を使用して、入力に対して2値の判定結果を出力する「フィルター」に相当する。一般に、判別器としてブースティングを利用する場合、抽出した特徴量の各次元を独立に閾値判別するタイプの弱仮説が使われることが多い。ところが、弱仮説を多く用いなければ良い性能を出すことができず、学習後に人が弱仮説の構成を把握することを難しく、学習結果の可読性に欠けるという問題がある。また、判別に利用する弱仮説の数は判別時の計算量に影響してしまうため、計算能力の乏しいハードウェアで判別器を実装することは難しい。
また、他の例として、2つの参照画素間の輝度値の差という極めて簡単な特徴量(ピクセル間差分特徴)を使用して対象物か否かを判別するという弱判別器をフィルターとして使用した集団学習装置について提案がなされている(例えば、特許文献1を参照のこと)。同装置によれば、認識性能を犠牲にしつつ対象物の検出処理を高速化することができるが、差分では線形判別できないものは弱仮説で分類することができない。
特開2005−157679号公報
本発明の目的は、対象物の特徴量を基にそれぞれ判別を行なう複数の弱仮説を用いてブースティングにより判別を好適に行なうとともに、各弱仮説をブースティングにより好適に学習することができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することにある。
本発明のさらなる目的は、使用する弱仮説数を削減しつつ判別性能を向上させることができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することにある。
本発明のさらなる目的は、使用する弱仮説数を削減することで、学習時間の短縮、判別時の計算量削減、学習結果の可読性向上を実現することができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の発明は、
判別対象から特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部から入力される2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱判別器と、前記複数の弱判別器の各々による判別対象の判別結果を結合する結合器からなる判別器と、
を具備することを特徴とする判別装置である。
本願の請求項2に記載の発明は、請求項1に記載の判別装置において、判別器が、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率を当該弱仮説の出力とするように構成されている。
本願の請求項3に記載の発明は、請求項1に記載の判別装置において、BOW(Bag Of Words)又はその他の高次元の特徴量ベクトルを判別対象とする場合において、弱判別器は、前記特徴量抽出部が抽出した高次元の特徴量ベクトルのうち所定次元数以下の前記特徴量を各ノードとするベイジアン・ネットワークで構成される。
本願の請求項4に記載の発明は、請求項1に記載の判別装置において、テキストを判別対象に含み、前記判別器は意見文判別又はその他のテキスト種別の2値判別を行なうように構成されている。
本願の請求項5に記載の発明は、請求項1に記載の判別装置において、判別器が、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率が所定値を超えるか否かに基づいて当該弱仮説のエラー判定を行なうように構成されている。
本願の請求項6に記載の発明は、請求項1に記載の判別装置において、ブースティングを用いた事前の学習により前記複数の弱判別器がそれぞれ用いる弱仮説及び各弱仮説の重み情報を学習する学習部をさらに備えている。
本願の請求項7に記載の発明は、請求項6に記載の判別装置において、学習部は、1つの弱仮説で利用する特徴量次元数を制限することによって、評価する弱仮説候補数を削減するように構成されている。
本願の請求項8に記載の発明は、請求項6に記載の判別装置において、1つの弱仮説で利用する特徴量次元数を1として、各次元の1次元弱仮説の評価値を算出し、評価値の高い次元から順に弱仮説に必要な特徴量次元数ずつ組み合わせて弱仮説候補を作成するように構成されている。
また、本願の請求項9に記載の発明は、
判別対象から特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップで得られる2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱仮説でそれぞれ判別し、前記複数の弱仮説による判別対象の各判別結果を結合して判別対象を判別する判別ステップと、
を有することを特徴とする判別方法である。
また、本願の請求項10に記載の発明は、コンピューターを、
判別対象から特徴量を抽出する特徴量抽出部、
前記特徴量抽出部から入力される2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱判別器と、前記複数の弱判別器の各々による判別対象の判別結果を結合する結合器からなる判別器、
として機能させるためのコンピューター・プログラムである。
本願の請求項10に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項10に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る判別装置と同様の作用効果を得ることができる。
本発明によれば、対象物の特徴量を基にそれぞれ判別を行なう複数の弱仮説を用いてブースティングにより判別を好適に行なうとともに、各弱仮説をブースティングにより好適に学習することができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することができる。
また、本発明によれば、使用する弱仮説数を削減しつつ判別性能を向上させることができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することができる。
また、本発明によれば、使用する弱仮説数を削減することで、学習時間の短縮、判別時の計算量削減、学習結果の可読性向上を実現することができる、優れた判別装置及び判別方法、並びにコンピューター・プログラムを提供することができる。
一般的な弱仮説は、特徴量の各次元を独立に閾値判別するものであり、多くの弱仮説を用いなければよい性能を出すことができない。また、弱仮説を多く用いることに伴って、学習後に人が弱仮説の構成を把握することを難しくなる。これに対し、本願の請求項1、9、10に記載の発明によれば、ベイジアン・ネットワーク(BN)を弱仮説として用い、学習サンプルを入力してBN弱仮説で推論を行なう。したがって、判別対象の特徴量を、各次元の特徴量にそれぞれ対応した複数の判別面と比較することから、高い性能を得ることができる。また、本願発明によれば、BN弱仮説を用いることでブースティングの弱仮説数を削減することができる、学習結果の可読性が向上する、といった効果を奏することができる。
本願の請求項2に記載の発明によれば、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率を当該弱仮説の出力とし、複数の弱判別器の各々による判別対象の判別結果を結合することで、使用する弱仮説数を削減しつつ判別性能を向上させることができる。
本願の請求項3に記載の発明によれば、弱仮説のベイジアン・ネットワークの特徴量ノードの次元数を制限することで、学習時間の短縮、判別時の計算量削減、学習結果の可読性向上を実現することができる。
本願の請求項4に記載の発明によれば、テキストを判別対象に含み、意見文判別又はその他のテキスト種別の2値判別を行なうことができる。
本願の請求項5に記載の発明によれば、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率が所定値を超えるか否かに基づいて当該弱仮説のエラー判定を行なうことができる。
本願の請求項6に記載の発明によれば、使用する弱仮説数を削減することで、学習部は、学習時間の短縮、学習結果の可読性向上を実現することができる。
本願の請求項7に記載の発明によれば、1つの弱仮説で利用する特徴量次元数を制限することによって、評価する弱仮説候補数を削減して、学習時間を短縮することができる。
本願の請求項8に記載の発明によれば、1つの弱仮説で利用する特徴量次元数を1として、各次元の1次元弱仮説の評価値を算出し、評価値の高い次元から順に弱仮説に必要な特徴量次元数ずつ組み合わせて弱仮説候補を作成することによって、評価する弱仮説候補数を削減して、学習時間を短縮することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、テキスト判別装置10の構成を模式的に示した図である。 図2は、判別器13の内部構成を模式的に示した図である。 図3は、意見文判別のための弱仮説を表現したベイジアン・ネットワークの構成例を示した図である。 図4は、ベイジアン・ネットワークを弱仮説とする弱判別器を、ブースティングを利用して学習するための処理手順を示したフローチャートである。 図5Aは、弱仮説としてのベイジアン・ネットワークの例を示した図である。 図5Bは、弱仮説としてのベイジアン・ネットワークの例を示した図である。 図6は、ベイジアン・ネットワークを弱仮説とするブースティングを利用して意見文判別を行なうための処理手順を示したフローチャートである。 図7は、本発明をテキスト判別に適用した場合の、弱仮説数と性能の関係(2つの特徴量ノードと1つの特徴量ノードの合計3ノードからなるベイジアン・ネットワークを弱仮説とするブースティングの性能)を示した図である。 図8は、BN弱仮説候補に含まれる最も評価のよいBN弱仮説候補の評価値をあまり低下させることなく、BN弱仮説候補の数を削減するための処理手順を示したフローチャートである。 図9Aは、BN弱仮説候補に含まれる最も評価のよいBN弱仮説候補の評価値をあまり低下させることなく、BN弱仮説候補の数を削減する方法を説明するための図である。 図9Bは、BN弱仮説候補に含まれる最も評価のよいBN弱仮説候補の評価値をあまり低下させることなく、BN弱仮説候補の数を削減する方法を説明するための図である。 図10Aは、特徴量1次元の弱仮説による判別方法の性能を説明するための図である。 図10Bは、ベイジアン・ネットワークを弱仮説に用いる判別方法の性能を説明するための図である。 図10Cは、特徴量差分を弱仮説に用いる判別方法の性能を説明するための図である。 図11は、意見文判別を応用したシステムの構成例を模式的に示した図である。 図12は、情報機器の構成例を示した図である。
以下、本発明をテキスト判別に適用した実施形態について、図面を参照しながら詳細に説明する。
テキスト判別の一例として、入力文が意見文であるか否かを判別する「意見文判別」を挙げることができる。意見文は、ある事について持っている考えを含んだ文章であるが、個人の嗜好が「意見」というかたちで強く込められていることが多い。例えば、「私はチェッカーズが好きです。」という文章には、「好き」という個人の意見が込められているので、「意見文」である。他方、「コンサートは12月2日です。」という文章は、個人の意見を含まず事実のみを述べたものであるから、「非意見文」である。
図11には、意見文判別を応用したシステムの構成例を模式的に示している。図示のシステムは、個人が書いた文章から嗜好情報を抽出する嗜好抽出部と、個人の嗜好情報に基づいて嗜好提示などのサービスを提供するサービス提供部で構成される。
嗜好抽出部1101では、意見文判別部1101Aが、個人文書データベース1101Bから個人が書いた文章を一文ずつ取り出して、意見文判別を行ない、意見性が強い文のみを抜き出す。そして、個人嗜好評価部1101Cは、評価と対象の抽出を行ない、これを個人の嗜好情報として個人嗜好情報データベース1101Dに逐次登録していく。
他方、サービス提供部1102では、一例として、個人の嗜好提示を行なう。個人嗜好判別部1102Aは、個人嗜好情報データベース1101Dに登録されている各エントリーのPositive/Negativeの判定を行なう。そして、個人嗜好提示部1102Bは、例えば、個人のブログからの主観文抽出結果として、嗜好のエントリー数に応じてマークを表示する。
日記やブログなどの個人が書いた数多の文章から個人の嗜好を抽出する前処理として、意見文判別を行なうことは有効であると言える。また、個人の書いた文章から抽出された嗜好情報は、単に個人の嗜好を整理して提示(フィードバック)する機能にとどまらず、コンテンツや商品の購入などを推薦する機能など、さまざまなビジネスへ展開することも可能である。前処理に用いる意見文判別の性能が向上すれば、正しい嗜好提示や的確なコンテンツ推薦を行なうことができるのは自明である。
意見文判別部1101Aは、入力文sの意見文判別結果tを出力する判別器Bを含む。この判別器Bは、下式(1)のように表すことができる。但し、出力tは、入力文が意見文であれば「1」を、非意見文であれば「−1」となる。
図1には、判別器Bとして動作するテキスト判別装置10の構成を模式的に示している。テキスト判別装置10は、判別対象となるテキストを文単位で入力する入力部11と、入力文の特徴量を抽出する特徴量抽出部12と、入力文が持つ特徴量に基づいて入力文が意見文であるか否かを判別する判別器13と、判別器13の事前学習を行なう学習部14で構成される。
入力部11は、学習時には学習サンプルから、判別時には日記やブログなどの判別対象から、文(sentence)単位で入力文sを切り出す。続く特徴量抽出部12は、入力文sから1以上の特徴量fを抽出して、判別器13に供給する。特徴量抽出部12は、個々の単語毎、又は単語の(音的、統語的、あるいは意味的な)特性毎に入力文で計数された出現頻度の情報を次元の要素とする特徴量ベクトルを出力する。
本発明では、判別器13として、弱仮説の出力を統合するブースティングを利用する。図2には、判別器13の内部構成を模式的に示している。図示の判別器13は、複数の弱判別器21−1、21−2、…と、結合器22からなる。Adaboostの場合、結合器は各弱判別器の出力にそれぞれ重みを乗算して重み付き多数決を求める加算器で構成される。
各弱判別器21−1…は、入力文sが持つd個の特徴量f(1)、f(2)、…、f(d)(すなわち、d次元の特徴量ベクトル)に基づいて意見文又は非意見文のいずれであるかを判別する弱仮説をそれぞれ備えており、特徴量抽出部12(前述)から供給される特徴量ベクトルを自分の弱仮説に照らし合わせて、入力文sが意見文であるか否かの推定値を逐次出力する。そして、加算器22では、これらの弱判別結果の重み付き多数決B(s)を算出し、判別器13の判別結果tとして出力する。
意見文判別に用いる弱判別器(若しくは、弱判別器が用いる弱仮説)21−1…と、各弱判別器21−1…に乗算する重みは、学習部14が行なうブースティングを用いた事前の学習により取得する。
弱仮説の学習の際には、意見文又は非意見文であるかの2クラスが分別すなわちラベリングされた複数の文が学習サンプルとして用いられ、特徴量抽出部12で学習サンプル毎に抽出された特徴量ベクトルが各々の弱判別器21−1…に投入される。そして、弱判別器21−1…は、意見文及び非意見文それぞれの特徴量に関する弱仮説をあらかじめ学習しておく。すなわち、弱仮説は、学習サンプルを使用した学習を通じて逐次的に生成したものである。かかる学習の過程では、各弱仮説に対する信頼度に応じた重み付き多数決の重みが学習される。一つ一つの弱判別器21−1…の判別能力は高くないが、複数の弱判別器21−1…の組み合わせ方によって、結果的に全体としては高い判別能力を持つ判別器13を構築する。
一方、判別の際には、各弱判別器21−1…は、入力文sが持つ特徴量をあらかじめ学習しておいた弱仮説と比較して、入力文が意見文であるか否かを推定した推定値を確定的又は確率的に出力する。後段の加算器22は、各弱判別器21−1…が出力する推定値に、各弱判別器21−1…に対する信頼度に相当する重みα1…をそれぞれ乗算し、重み付き多数決の値を出力する。
上述したように複数の弱仮説の出力を統合するブースティングを利用するが、本発明では、弱仮説としてベイジアン・ネットワーク(Bayesian Network:BN)を用いる点に1つの特徴がある。
ここで、ベイジアン・ネットワークは、確率変数の集合をノードとして形成されるネットワーク(確率ネットワーク、因果ネットワークとも呼ぶ)であり、直接的影響を及ぼすノード対を矢印で結んで(例えば、ノードXからノードYへの矢印は、XがYに直接的影響を及ぼすことを表す)、因果関係を確率により記述するグラフィカル・モデルの1つである。但し、矢印の方向にサイクルを持たない有向非循環グラフ(DAG)である。また、各ノードは、(矢印の根本となる)親ノードが自ノードへ及ぼす影響を定量化した条件付確率分布を持つ。ベイジアン・ネットワークは、不確実な状況下での推論問題に広く利用される表現形式である(周知)。
テキストの意見文判別を行なう場合には、入力文sから抽出された1又は2以上の次元の特徴量が、入力文sの意見文判別結果に直接的影響を及ぼしたり、次元の異なる特徴量間で直接的影響を及ぼしたり、意見文判別結果が特定の次元の特徴量に直接的影響を及ぼしたりすると考えられる。したがって、意見文判別を行なうための弱仮説を、所定次元数の特徴量及び入力文sの意見文判別結果をそれぞれ入力ノードとするとともに、判別対象ノードを出力ノードとし、直接的影響を及ぼすノード対を矢印で結ぶことによって、ベイジアン・ネットワークで表現することができる。そして、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率を当該弱仮説の出力とする。また、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率がある値を超えるか否かで、弱仮説のエラー判定を行なうことができる。
以下では、特徴量に相当するノードを「特徴量ノード」、意見文判別結果のノードを「出力ノード」とそれぞれ呼び、これら特徴量ノードと出力ノードの有向非循環グラフで表現された弱仮説を「BN弱仮説」とも呼ぶことにする。
BN弱仮説は、各特徴量ノードの閾値と、すべての特徴量ノードに値を入力したときに出力ノードの確率推定に必要な条件付確率分布という2種類のパラメーターを持ち、これらのパラメーターは、BN弱仮説の評価値を算出するために必要である。
図3には、意見文判別のための弱仮説を表現したベイジアン・ネットワークの構成例を示している。図示の例では、ベイジアン・ネットワークは、2次元の特徴量ノード(input1、input2)と、判別結果tの出力ノード(output)の3ノードからなり、各特徴量ノードは、それぞれ出力ノードに直接的影響を及ぼす親ノードとして、BN弱仮説の判定結果である出力ノードに矢印で結ばれている。
そして、図示のBN弱仮説は、各特徴量ノードの閾値と、すべての特徴量ノードに値を入力したときに出力ノードの確率推定に必要な条件付確率分布という2種類のパラメーターを持つ。入力ノードとしての各特徴量ノード(input1、input2)がともに2値離散ノードの場合、各特徴量ノードの閾値は、以下の表1のように記述することができる。また、各特徴量ノードが離散ノードの場合には、出力ノード確率推定に必要な条件付確率分布は、以下の表2に示すような条件付確率表として記述することができる。
図4には、BNを弱仮説とする弱判別器を、ブースティングを利用して学習するための処理手順をフローチャートの形式で示している。以下、同図を参照しながら、学習部14においてベイジアン・ネットワークを弱仮説とするブースティングの学習を行なう方法について詳細に説明する。
特徴量抽出部12は、個々の単語毎、又は単語の(音的、統語的、あるいは意味的な)特性毎に入力文で計数された出現頻度の情報を次元の要素とする特徴量ベクトルを出力する。以下では、特徴量抽出部12は、k番目の入力文skから、d個の特徴量fk (1)、fk (2)、…、fk (d)、すなわち、下式(2)で表されるd次元の特徴量ベクトルε(sk)を抽出することとする。
特徴量抽出部12は、例えば入力文の形態素解析結果に基づいて特徴量を抽出することができる。より具体的には、特徴量ベクトルは、登録単語の出現頻度や、品詞の出現頻度、それらのバイグラムなどである。また、自然言語処理で通常用いられるその他のいかなる特徴量を扱うことができ、それらを並列に並べて同時に利用することもできる。
ブースティングの学習の際には、特徴量抽出部12は、すべての学習サンプルTから特徴量ベクトルを抽出する。各学習サンプルTには、意見文又は非意見文であるかの2クラスを分別するための判別ラベルyがあらかじめ付されている(学習サンプルとなるk番目の文skが意見文であればyk=1とし、非意見文であればyk=−1とする)。学習サンプルTの総文数がmであるとすると、特徴量抽出部12によって特徴量を抽出した後の学習サンプルTは下式(3)のように表記することができる。
また、学習サンプルTに含まれる各々のサンプルskには、意見文判別する際の難易度などを反映したサンプル重みwkが付されている。特徴量抽出後の学習サンプルT、すなわち、サンプルsk毎の特徴ベクトルfk及び判別ラベルykが、サンプル重みwkとともに、入力となる(ステップS41)。
次いで、弱判別器21−1…として用いる、特徴量の各次元をノードとするBN弱仮説の候補(以下、「BN弱仮説候補」とする)を複数作成する(ステップS42)。
上述したように、BN弱仮説は、1又は2以上の次元の特徴量の入力をノードとする「特徴量ノード」と、意見文判別結果をノードとする「出力ノード」からなり、直接的影響を及ぼすノード対を矢印で結んだベイジアン・ネットワークとして表現される(図3を参照のこと)。ステップS42では、単純にすべての構造のベイジアン・ネットワークをBN弱仮説候補として作成するようにしてもよい。しかしながら、2次元の特徴量を利用したベイジアン・ネットワークとして、図5Aに示すように、複数種類の有向非循環グラフ(DAG)が挙げられ、グラフ毎に親ノードとなる特徴量の組み合わせ方に応じてd2通りのBN弱仮説候補が考え得る。同様に、3次元の特徴量を利用したベイジアン・ネットワークとして、図5Bに示すように、複数種類の有向非循環グラフ(DAG)が挙げられ、グラフ毎に親ノードとなる特徴量の組み合わせ方に応じてd3通りのBN弱仮説候補が考え得る。要約すると、nノードで考え得るBN弱仮説候補の総数は、下式(4)に示すように膨大数となり、全構造をBN弱仮説候補として評価を行なうことは計算コストの面などから現実的でない。
そこで、ステップS42では、全構造をBN弱仮説候補とするのではなく、BN弱仮説候補数をL個に削減することにした。候補数を削減する方法として、例えば、1つのベイジアン・ネットワークで利用する特徴量次元数を制限することや(図5Aに示したように次元数2、あるいは、図5Bに示したように次元数3)、単純にベイジアン・ネットワークをL個だけ作成することが挙げられる。また、K2やPCなどの構造学習アルゴリズム(周知)を用いて、学習サンプルをより正しく表現できるネットワーク構造のみをL個用意することによっても、BN弱仮説候補数を削減することができる。以下では、便宜上、図5A中の紙面左端に示した1種類のみに制限して、L=d2(=d(d−1)/2)個のBN弱仮説候補を用いることとして説明することにする。
BN弱仮説の学習方法は、概略的に言うと、BN弱仮説候補毎の最適なパラメーターの学習(ステップS44)及び学習サンプルTを用いた評価値の算出(ステップS45)と、サンプル重みの算出(ステップS50)を含んだ処理ループを、必要なBN弱仮説の個数に相当する回数だけ繰り返し実行することである。各回の処理ループでは、算出された評価値に基づいて、最も性能がよいBN弱仮説候補が順次選択されていく。
ステップS42で作成したL個のBN弱仮説候補の中から1つを取り出すと(ステップS43)、取り出したBN弱仮説候補について、まず最適なパラメーターを学習する(ステップS44)。
上述したように、BN弱仮説の場合、評価値を算出するために必要なパラメーターは、各特徴量ノードの閾値と、すべての特徴量ノードに値を入力したときに出力ノードの確率推定に必要な条件付確率分布の2種類である。一般的なブースティングと同様に、BN弱仮説候補の評価値が最大となるように、これらのパラメーターを求める。各特徴量ノードの閾値は、すべての特徴量ノードで組み合わせ最適なものを全探索して求めることができる。また、条件付確率分布は、一般的なBN条件付確率分布アルゴリズムを用いて求めることができる。
次いで、パラメーターを学習した後のBN弱仮説候補について、全学習サンプルで評価値を算出する(ステップS45)。
ブースティングで、下式(5)に示すようなL個の弱仮説候補H{h1,h2,…,hL}の中から最も性能がよい弱仮説候補h*を選択するために、下式(6)で表されるような評価値E(h)を弱仮説候補hl毎に算出する必要がある。但し、下式において、hlはl番目の弱仮説候補を指し、lはL以下の正の整数とする。
一般的なブースティングの場合、下式(7)に示すように、弱仮説候補hlに全学習サンプルTを入力し、出力tがラベルykと等しい(言い換えれば、意見文であるか否かが正しく判別された)サンプルskのサンプル重みwk sを合計した値が、弱仮説候補hlの評価値E(hl)に用いられる。
一般的な弱仮説hl gは、d次元からなる特徴量のうち1次元のみを入力として出力を計算する。下式(8)に示すように、一般的な弱仮説hl gの出力は、入力値である特徴量fkに符号vl *をかけた値が閾値θl *を超えるかどうかが用いられる。
但し、上式(8)で利用される符号v*と閾値θ*は、下式(9)に示すように、一般的な弱仮説候補hl gの評価値E(hl g)が最大となるように、評価値算出前に、弱仮説候補hl g毎に独立に求められる。
一般的な弱仮説は、特徴量の各次元を独立に閾値判別するものであり、多くの弱仮説を用いなければよい性能を出すことができない。また、弱仮説を多く用いることに伴って、学習後に人が弱仮説の構成を把握することを難しくなることや、計算能力の乏しいハードウェアで判別器を実装できないなどの問題がある。
これに対し、本発明では、ベイジアン・ネットワーク(BN)を弱仮説として用い、学習サンプルを入力してBN弱仮説で推論を行なう。具体的には、下式(10)に示すように、k番目のサンプルskの特徴量ベクトルfkを入力し、判別結果tkに割り当てられたノード(output)の推論確率Phl(tk|fk)が最も高い事象(意見文、又は、非意見文)をBN弱仮説候補hl BNの出力とする。このような場合、上述した一般的なアルゴリズムと同様に、上式(7)を用いて各BN弱仮説候補hl BNの評価値E(hl BN)を算出することができる。
なお、上式(7)以外のBN弱仮説候補の評価値算出方法(タイプ2)として、出力ノード(output)のラベルと等しい事象の確率値の全学習サンプルでの重み付き合計値を評価値として用いることもできる。すなわち、下式(11)に示すように、k番目のサンプルskの特徴量ベクトルfkに対して、ベイジアン・ネットワークの出力ノード(output)のラベルと等しい事象ykとなる確率値Phl(yk|fk)を算出し、さらにサンプル毎の重み係数wk sを乗算し、全学習サンプルTにわたる重み付き確率値の合計値をとり、BN弱仮説候補hl BNの評価値E(hl BN)とする。但し、下式(11)において、全学習サンプルTのサンプルskの総数をmとする。
あるいは、上式(7)以外のBN弱仮説候補の評価値算出方法(タイプ3)として、下式(12)に示すように、BICやAICなどの情報量基準を用いてBN弱仮説候補hl BNの評価値E(hl BN)を算出することができ、BN弱仮説候補hl BNの構造が全学習サンプルをどれだけ正しく評価しているかの指標を利用することもできる。
上式(7)、(11)、(12)のいずれを用いるにせよ、BN弱仮説候補hl BNの評価値E(hl BN)を算出するためには、各特徴量ノードjの閾値θl j*と、すべての特徴量ノードに値を入力したときに出力ノードの確率推定に必要な条件付確率分布Dl *という2種類のパラメーターが必要である。各特徴量ノードがともに離散ノードの場合、各特徴量ノードの閾値θl j*を表1のように記述し、条件付確率分布Dl *を表2のような条件付確率表として記述することができる(前述)。
ステップS45において上式(7)、(11)、(12)のいずれを用いて評価値E(hl BN)を算出する前に、ステップS44でこれら各特徴量ノードjの閾値θl j*と条件付確率分布Dl *という2種類のパラメーターを算出しておく必要がある。一般的なブースティングと同様に、各BN弱仮説候補hl BNの評価値E(hl BN)が最大となるように、例えば下式(13)に従って算出することができる。
上式(13)において、各特徴量ノードの閾値は、すべての特徴量ノードで組み合わせ最適なものを全探索して求めることができる。また、条件付確率分布は、一般的なBN条件付確率分布アルゴリズムを用いて求めることができる。
ステップS44におけるBN弱仮説候補hl BNのパラメーターの学習と、ステップS45におけるBN弱仮説候補hl BNの評価値E(hl BN)の算出を、ステップS42で作成したL個のBN弱仮説候補すべてについて順次行なう。
そして、すべてのBN弱仮説候補hl BNについて評価値E(hl BN)の算出を終了すると(ステップS46のYes)、これらのうち最も評価値が高いBN弱仮説候補を、n番目の弱判別器21−nとして用いるBN弱仮説として選択する(ステップS47)(但し、nは1〜Lの整数であり、処理ループの繰り返し回数に相当する)。
次いで、一般的なブースティングの場合と同様に、当該弱判別器21−tに与えるBN弱仮説重みαnを、選択したBN弱仮説候補の評価値に基づいて設定する(ステップS48)。n番目の弱判別器21−nとして選択したBN弱仮説の評価値をenとおくと、例えばAdaBoostの場合には下式(14)を用いてBN弱仮説重みαnを算出することができる。
ステップS47において選択したBN弱仮説、並びに、ステップS8において算出したBN弱仮説重みは、ブースティングの学習結果として逐次記憶される。
上述したような、判別器21−nとして用いるBN弱仮説の選択及び当該弱仮説の重み算出処理S2〜S8は、選択したBN弱仮説の総数nが所望数に到達するまで、繰り返し行なわれる(ステップS49)。
ここで、次のBN弱仮説を選択するために、BN弱仮説候補を再度作成する処理(ステップS42)に戻る際には(ステップS49のNo)、ステップS7で採用したBN弱仮説に基づいて、学習サンプルTに含まれる各サンプルskのサンプル重みwkを更新する(ステップS50)。例えば下式(15)に示すように、サンプルsk毎の特徴ベクトルfk及び判別ラベルykと、各サンプルskについての判別結果ht(fk)に基づいて、サンプル重みを算出することができる。
なお、上述したベイジアン・ネットワークを弱仮説とするブースティングの学習の説明では、すべての特徴量ノードが離散値(2値)であることを前提としたが、本発明の要旨は必ずしもこれに限定されるものではない。例えば、1部又は全部の特徴量ノードが多値ノードや連続値ノードであっても、出力ノードの確率を推定することができるのであれば、問題はない。
また、本発明に適用できるブースティング・アルゴリズムは、AdaBoost(Discrete AdaBoost)に限定されるものではない。例えば、下式(16)に示すように弱仮説が連続値を出力することで、Gentle BoostやReal Boostなどのブースティング・アルゴリズムを、同様に本発明に適用することができる。
図4に示した処理手順に従ったブースティングの学習によって、BN弱仮説からなる所望数の弱判別器を得ることができる。そして、それぞれの弱判別器のBN弱仮説重みを利用することで、意見文判別を行なうことができる。
図6には、ベイジアン・ネットワークを弱仮説とするブースティングを利用して意見文判別を行なうための処理手順をフローチャートの形式で示している。上述したブースティングの学習結果として、弱判別器21−1…の個数分のBN弱仮説とそのBN弱仮説重みが蓄積されているとする。
まず、特徴量抽出部12が、判別対象となる入力文から特徴量ベクトルを抽出する(ステップS61)。
次いで、判別器13は、判別値を0で初期化する(ステップS62)。
ここで、ブースティングの学習によって得られたBN弱仮説のうち1つを取り出す(ステップS63)。
次いで、ステップS61で抽出した特徴量ベクトルのうち、このBN弱仮説を表現するベイジアン・ネットワークの各特徴量ノードに割り当てられた特徴量次元の値を入力する(ステップS64)。
次いで、ベイジアン・ネットワーク推論アルゴリズムを用いて、出力ノードの確率を推定する(ステップS65)。そして、推定された確率値に、該当するBN弱仮説重みを乗算して、BN弱仮説の出力を計算する(ステップS66)。そして、ステップS66で算出したBN弱仮説の出力を、判別値に加算する(ステップS67)。
ステップS63で取り出したn番目のBN弱仮説hn BNの特徴量ノードがともに離散ノードの場合、ステップS65におけるベイジアン・ネットワーク推論アルゴリズムでは、特徴量ノードj毎に、入力された特徴量次元の値を対応する閾値θn j*と大小比較する。そして、条件付確率表Dn *を参照して、特徴量ノードj毎の比較結果の組み合わせが示す出力ラベル(入力文が意見文である確率)を得ることができる。この出力ラベルの値に、当該BN弱仮説hn BNが持つBN弱仮説重みを乗算してBN弱仮説の出力を求めると、これを判別値に加算する。
このようなBN弱仮説の出力計算と判別値への加算を、ブースティングの学習によって得たすべてのBN弱仮説にわたって行なう(ステップS68)。そして、最終的に得られた判別値の符号は、入力文が意見文又は非意見文のいずれであるかを表すことになる。この符号を判別結果として出力して(ステップS69)、当該処理ルーチンを終了する。
図7には、本発明をテキスト判別に適用した場合の、弱仮説数と性能の関係を実線で示している。但し、2つの特徴量ノードと1つの特徴量ノードの合計3ノードからなるベイジアン・ネットワークを弱仮説とするブースティングの性能である。同図では、比較として、特徴量次元毎に独立して閾値判別を行なう一般的な弱仮説における弱仮説数と性能の関係を、点線により併せて示している。
図示のように、一般的な弱仮説では、弱仮説数を1024個まで用いても、F値はあまり向上しない。なお、本発明者は、一般的な弱仮説の個数を8192まで実験したが、F値が0.8592を超えることはなかった。これに対し、ベイジアン・ネットワークを弱仮説とする場合には、6個程度の弱仮説のみでよりよいテキスト判別性能を確保することができる。要するに、本発明によれば、従来のアルゴリズムよりも、低い弱仮説数でも十分に高い性能を得ることができる、と言うことができる。
なお、図5A、図5Bに示したようにBN弱仮説候補のネットワーク構造を制限しても、特徴量次元数dが大きいときには弱仮説候補数L(=d2(=d(d−1)/2))も多くなってしまう。図8には、BN弱仮説候補に含まれる最も評価のよいBN弱仮説候補の評価値をあまり低下させることなく、BN弱仮説候補の数Lを削減する処理手順をフローチャートの形式で示している。
まず、一般的なブースティングのアルゴリズムと同様に、特徴量1次元ずつ1つの弱仮説としたときの、各次元の1次元弱仮説の評価値を算出する(ステップS81)。
次いで、次元毎の1次元弱仮説を、評価値のよいものから順に弱仮説候補をソートして、評価値のよい弱仮説候補同士の組み合わせを作る(ステップS82)。図9Aには、次元毎の1次元弱仮説を評価値に従ってソートした様子を示している。
そして、1次元弱仮説評価値の高い次元から順に、BN弱仮説で必要な特徴量次元数ずつ、所定の組み合わせ数のみ弱仮説候補として選択する(ステップS83)。図9Bには、特徴量2次元のBN弱仮説候補を作成する場合の、組み合わせを6つまで利用する様子を示している。
特徴量1次元の弱仮説は、図10Aに示すように、ある特定の次元(F1)の特徴量が閾値を超えるか否か(すなわち、同図中で、判別対象の特徴量が判別面のどちら側の空間に存在するか)を単純に判断するに過ぎないため、判別能力は概して低い。これに対し、例えば図5Aに示したように、ベイジアン・ネットワークを弱仮説とする場合には、2次元の特徴量に対応する特徴量ノードと判別結果に対応する出力ノードの3ノードからなる比較的簡単なネットワーク構造であっても、図10Bに示すように、判別対象の特徴量を、各次元の特徴量にそれぞれ対応した判別面1、2と比較することから、弱仮説レベルでの判別能力に優れている。したがって、同程度の性能であれば、本発明のようにBN弱仮説を用いることでブースティングの弱仮説数を削減することができる。
他方、前述の特許文献1に記載されているような特徴量差分を弱仮説とする判別方法もある。しかしながら、2つの特徴量F1とF2の差分F1−F2が閾値を超えるか否かを、すなわち、図10Cに示すような判別空間上で特徴量が判別面のどちら側の空間に存在するかを単純に判断するに過ぎないため、判別能力は概して低い。これに対し、ベイジアン・ネットワークを弱仮説に用いる判別方法は、図5Aに示したような単純なネットワーク構造であっても、図10Bに示すように各次元の特徴量にそれぞれ対応した判別面1、2を持つことから、弱仮説レベルでの判別能力に優れている。したがって、特徴量差分を弱仮説とする判別方法と比較しても、同程度の性能であれば、本発明のようにBN弱仮説を用いることでブースティングの弱仮説数を削減することができると言うことができる。
なお、本発明に係るテキスト判別装置10は、例えば、パーソナル・コンピューター(PC)などの情報機器上で所定のアプリケーションを実施するという形態で実現することができる。図12には、情報機器の構成例を示している。
CPU(Central Processing Unit)1201は、オペレーティング・システム(OS)が提供するプログラム実行環境下で、ROM(Read Only Memory)2やハード・ディスク・ドライブ(HDD)1201に格納されているプログラムを実行する。例えば、上述したような、ベイジアン・ネットワークを弱仮説とするブースティングの学習処理や、ベイジアン・ネットワークを弱仮説とするブースティングの判別処理を、CPU1201が所定のプログラムを実行するという形態で実現することもできる。
ROM1202は、POST(Power On Self Test)やBIOS(Basic Input Output System)などのプログラム・コードを恒久的に格納する。RAM(Random Access Memory)1203は、ROM1202やHDD(Hard Disk Drive)1201に格納されているプログラムをCPU1201が実行する際にロードしたり、実行中のプログラムの作業データを一時的に保持したりするために使用される。これらはCPU1201のローカル・ピンに直結されたローカル・バス1204により相互に接続されている。
ローカル・バス1204は、ブリッジ1205を介して、PCI(Peripheral Component Interconnect)バスなどの入出力バス1206に接続されている。
キーボード1208と、マウスなどのポインティング・デバイス1209は、ユーザにより操作される入力デバイスである。ディスプレイ1210は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などからなり、各種情報をテキストやイメージで表示する。
HDD1211は、記録メディアとしてのハード・ディスクを内蔵したドライブ・ユニットであり、ハード・ディスクを駆動する。ハード・ディスクには、オペレーティング・システムや各種アプリケーションなどCPU1201が実行するプログラムをインストールしたり、データ・ファイルなどを保存したりするために使用される。
例えば、ベイジアン・ネットワークを弱仮説とするブースティングの学習処理や、ベイジアン・ネットワークを弱仮説とするブースティングの判別処理を行なうアプリケーションをHDD1211にインストールすることができる。また、図4に示した処理手順に従って学習された複数のBN弱仮説や、各BN弱仮説の重み係数をHDD1211に保存することができる。また、ブースティングの学習処理に利用する学習サンプルTをHDD1211に蓄積することができる。
通信部1212は、当該情報機器をLAN(Local Area Network)などのネットワークに相互接続するための有線通信又は無線通信インターフェースである。例えば、通信部1212を介して、ベイジアン・ネットワークを弱仮説とするブースティングの学習処理や、ベイジアン・ネットワークを弱仮説とするブースティングの判別処理を行なうアプリケーションを、外部サーバ(図示しない)からHDD1211にダウンロードすることができる。また、ブースティングの判別処理に利用する複数のBN弱仮説や各BN弱仮説の重み係数を、通信部1212を介して外部サーバ(図示しない)からHDD1211にダウンロードすることができる。あるいは、当該情報機器上で学習処理により得ることができた複数のBN弱仮説や各BN弱仮説の重み係数を、通信部1212を介して外部ホスト(図示しない)に供給することができる。
以上、特定の実施形態を参照しながら、本発明について詳細に説明してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本発明を意見文判別に適用した実施形態を中心に説明してきたが、本発明の要旨はこれに限定されるものではない。例えば、設問文の判別や、設問に対する回答文の判別など、意見文判別以外のテキストの種類判別や、さらには画像や音声などテキスト以外を対象物とする判別にも、同様に本発明を適用することができる。
また、本発明に適用できるブースティング・アルゴリズムは、AdaBoost(Discrete AdaBoost)に限定されるものではない。例えば、弱仮説が連続値を出力することで、Gentle BoostやReal Boostなどのブースティング・アルゴリズムを、同様に本発明に適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
10…テキスト判別装置
11…入力部
12…特徴量抽出部
13…判別器
14…学習部
21…弱判別器
22…結合器
1101…嗜好抽出部
1101A…意見文判別部
1101B…個人文書データベース
1101C…個人嗜好評価部
1101D…個人嗜好情報データベース
1102…サービス提供部
1102A…個人嗜好判別部
1102B…個人嗜好提示部
1201…CPU
1202…ROM
1203…RAM
1204…ローカル・バス
1205…ブリッジ
1206…入出力バス
1207…入出力インターフェース
1208…キーボード
1209…ポインティング・デバイス(マウス)
1210…ディスプレイ
1211…HDD
1212…通信部

Claims (10)

  1. 判別対象から特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部から入力される2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱判別器と、前記複数の弱判別器の各々による判別対象の判別結果を結合する結合器からなる判別器と、
    を具備することを特徴とする判別装置。
  2. 前記判別器は、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率を当該弱仮説の出力とする、
    ことを特徴とする請求項1に記載の判別装置。
  3. BOW(Bag Of Words)又はその他の高次元の特徴量ベクトルを判別対象とし、
    前記弱判別器は、前記特徴量抽出部が抽出した高次元の特徴量ベクトルのうち所定次元数以下の前記特徴量を各ノードとするベイジアン・ネットワークで構成される、
    ことを特徴とする請求項1に記載の判別装置。
  4. テキストを判別対象に含み、前記判別器は意見文判別又はその他のテキスト種別の2値判別を行なう、
    ことを特徴とする請求項1に記載の判別装置。
  5. 前記判別器は、弱仮説のベイジアン・ネットワークの判別対象ノードの推論確率が所定値を超えるか否かに基づいて当該弱仮説のエラー判定を行なう、
    ことを特徴とする請求項1に記載の判別装置。
  6. ブースティングを用いた事前の学習により前記複数の弱判別器がそれぞれ用いる弱仮説及び各弱仮説の重み情報を学習する学習部をさらに備える、
    ことを特徴とする請求項1に記載の判別装置。
  7. 前記学習部は、1つの弱仮説で利用する特徴量次元数を制限することによって、評価する弱仮説候補数を削減する、
    ことを特徴とする請求項6に記載の判別装置。
  8. 前記学習部は、1つの弱仮説で利用する特徴量次元数を1として、各次元の1次元弱仮説の評価値を算出し、評価値の高い次元から順に弱仮説に必要な特徴量次元数ずつ組み合わせて弱仮説候補を作成する、
    ことを特徴とする請求項6に記載の判別装置。
  9. 判別対象から特徴量を抽出する特徴量抽出ステップと、
    前記特徴量抽出ステップで得られる2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱仮説でそれぞれ判別し、前記複数の弱仮説による判別対象の各判別結果を結合して判別対象を判別する判別ステップと、
    を有することを特徴とする判別方法。
  10. コンピューターを、
    判別対象から特徴量を抽出する特徴量抽出部、
    前記特徴量抽出部から入力される2以上の特徴量を各ノードに割り当てたベイジアン・ネットワークとして表現した複数の弱判別器と、前記複数の弱判別器の各々による判別対象の判別結果を結合する結合器からなる判別器、
    として機能させるためのコンピューター・プログラム。
JP2009124386A 2009-05-22 2009-05-22 判別装置及び判別方法、並びにコンピューター・プログラム Withdrawn JP2010272004A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009124386A JP2010272004A (ja) 2009-05-22 2009-05-22 判別装置及び判別方法、並びにコンピューター・プログラム
US12/780,422 US20100296728A1 (en) 2009-05-22 2010-05-14 Discrimination Apparatus, Method of Discrimination, and Computer Program
CN2010101804204A CN101894297A (zh) 2009-05-22 2010-05-14 判别设备、判别方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009124386A JP2010272004A (ja) 2009-05-22 2009-05-22 判別装置及び判別方法、並びにコンピューター・プログラム

Publications (1)

Publication Number Publication Date
JP2010272004A true JP2010272004A (ja) 2010-12-02

Family

ID=43103484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009124386A Withdrawn JP2010272004A (ja) 2009-05-22 2009-05-22 判別装置及び判別方法、並びにコンピューター・プログラム

Country Status (3)

Country Link
US (1) US20100296728A1 (ja)
JP (1) JP2010272004A (ja)
CN (1) CN101894297A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182064A1 (en) 2014-05-26 2015-12-03 Sony Corporation Information processing device, information processing method, and program
WO2018130921A1 (ja) * 2017-01-16 2018-07-19 株式会社半導体エネルギー研究所 受像装置、およびそれを含めた受像システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US11188783B2 (en) * 2017-10-19 2021-11-30 Nokia Technologies Oy Reverse neural network for object re-identification
CN113959973A (zh) * 2021-08-18 2022-01-21 北京工业大学 基于dwi-bpls的药品api预测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6981040B1 (en) * 1999-12-28 2005-12-27 Utopy, Inc. Automatic, personalized online information and product services
CN1797420A (zh) * 2004-12-30 2006-07-05 中国科学院自动化研究所 一种基于统计纹理分析的人脸识别方法
US7853485B2 (en) * 2005-11-22 2010-12-14 Nec Laboratories America, Inc. Methods and systems for utilizing content, dynamic patterns, and/or relational information for data analysis
CN101344928B (zh) * 2007-07-12 2013-04-17 佳能株式会社 用于确定图像区域和对图像进行分类的方法和设备
JP5101993B2 (ja) * 2007-11-01 2012-12-19 キヤノン株式会社 情報処理装置および情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182064A1 (en) 2014-05-26 2015-12-03 Sony Corporation Information processing device, information processing method, and program
WO2018130921A1 (ja) * 2017-01-16 2018-07-19 株式会社半導体エネルギー研究所 受像装置、およびそれを含めた受像システム

Also Published As

Publication number Publication date
US20100296728A1 (en) 2010-11-25
CN101894297A (zh) 2010-11-24

Similar Documents

Publication Publication Date Title
US20200242444A1 (en) Knowledge-graph-embedding-based question answering
US7949644B2 (en) Method and apparatus for constructing a compact similarity structure and for using the same in analyzing document relevance
US20220269939A1 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
US12499374B2 (en) Extracting and classifying entities from digital content items
CN113011689B (zh) 软件开发工作量的评估方法、装置及计算设备
CN109582956A (zh) 应用于句子嵌入的文本表示方法和装置
CN116663568B (zh) 基于优先级的关键任务识别系统及其方法
JP2020512651A (ja) 検索方法、装置及び非一時的コンピュータ読取可能記憶媒体
US9348810B2 (en) Model learning method
CN119088907A (zh) 一种大模型驱动的客诉归因系统
Akanbi Application of naive bayes to students’ performance classification
CN116541507A (zh) 一种基于动态语义图神经网络的视觉问答方法及系统
WO2021174814A1 (zh) 众包任务的答案验证方法、装置、计算机设备及存储介质
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
JP2020004322A (ja) テキスト類似度算出装置、テキスト類似度算出方法、及びプログラム
Schofield et al. Identifying hate speech in social media
CN111930944B (zh) 文件标签分类方法及装置
CN117370511A (zh) 一种基于知识图谱的问答方法及系统
JP6509391B1 (ja) 計算機システム
CN110750712A (zh) 基于数据驱动的软件安全需求推荐方法
CN118262125B (zh) 图像分类模型获取方法和图像分类方法、装置和设备
CN112115705B (zh) 一种电子简历的筛选方法及装置
CN114418752B (zh) 无类型标签用户数据的处理方法、装置、电子设备和介质
WO2024098282A1 (zh) 一种几何解题方法、装置、设备及存储介质
JP7349404B2 (ja) 判定装置、判定方法及び判定プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807