JP5591871B2 - 回答タイプ推定装置、方法、及びプログラム - Google Patents

回答タイプ推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP5591871B2
JP5591871B2 JP2012127052A JP2012127052A JP5591871B2 JP 5591871 B2 JP5591871 B2 JP 5591871B2 JP 2012127052 A JP2012127052 A JP 2012127052A JP 2012127052 A JP2012127052 A JP 2012127052A JP 5591871 B2 JP5591871 B2 JP 5591871B2
Authority
JP
Japan
Prior art keywords
answer
answer type
question sentence
estimation
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012127052A
Other languages
English (en)
Other versions
JP2013250925A (ja
Inventor
竜一郎 東中
九月 貞光
邦子 齋藤
俊朗 牧野
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012127052A priority Critical patent/JP5591871B2/ja
Publication of JP2013250925A publication Critical patent/JP2013250925A/ja
Application granted granted Critical
Publication of JP5591871B2 publication Critical patent/JP5591871B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は回答タイプ推定装置、方法、及びプログラムに係り、特に、自然言語による質問文に対する回答タイプを推定する回答タイプ推定装置、方法、及びプログラムに関する。
自然言語による質問文について、ずばり回答を出力するシステムを質問応答システムと呼ぶ。質問応答システムは、「世界一高い山は」のように、主に単語が回答となる質問に答える「ファクトイド型」のものと、「黒澤明ってどんな人」や「なぜホタルは光るのか」のように単語での回答が難しく、主に文章で回答する「ノンファクトイド型」に分類される。質問に対する適切な応答を出力するためには、質問に対する回答の種類を示す回答タイプを適切に推定することが重要である。
従来、回答タイプを推定するために、手作業によるルールを記述して推定する手法が多く用いられている。例えば、質問文に「なぜ」という単語が存在する場合には、回答タイプは「理由」であると推定するようなルールを記述する。同様に、質問文に「どこ」という単語が存在する場合には、回答タイプは「地名」、「誰」という単語が存在する場合には、回答タイプは「人名」であると推定するようなルールを記述する。
しかしながら、人間により入力される質問文の態様は多様であり、例えば、「○○を開発した研究所はどこ?」という質問であれば、「組織名」が回答タイプになることからわかるように、必ずしも、質問文に「どこ」という単語が存在するからといって、回答タイプが「地名」になるというわけではない。このような多様な質問に対して、高精度な回答タイプの推定を行うためには、非常に多くのルールを記述する必要がある。このように、ルールを人手で労力をかけて記述しなくてもよいようにするために、機械学習を用いた手法も提案されている。例えば、サポートベクトルマシン(SVM:support vector machine)を用いて、正解の回答タイプが付与された学習データを学習して、回答タイプを推定する手法が提案されている(例えば、非特許文献1参照)。
ところで、従来、回答タイプの推定、特に、ファクトイド型の回答タイプの推定では、推定する回答タイプの種類として、8つの回答タイプが用いられることが多かった。これは、質問応答のコンテスト(TREC:Text Retrieval Conference)などで、使用されていた回答タイプの分類で、いわば標準として用いられてきた。
Jun Suzuki, Hirotoshi Taira, Yutaka Sasaki, and Eisaku Maeda, "Question Classification using HDAG Kernel", Proc. COLING, 2002.
しかしながら、質問に対してピンポイントで回答する質問応答システムを構築しようとすると、回答タイプが8タイプでは不十分である。例えば、「世界一高い山は?」や「世界一長い川は?」という質問文に対する従来の8タイプの回答タイプの推定では、どちらも「地名」という回答タイプになってしまう。これでは、山を聞いているにもかかわらず川の名前を答えたり、川の名前を聞いているにもかかわらず市町村の名前を答えてしまったりする可能性がある。
このような誤回答を避けるためには、回答タイプの種類を増加するというアプローチが有効である。しかし、回答タイプを増やすということは、質問の意味内容を、従来よりも細かく理解して回答タイプを推定しなくてはならないが、従来の8タイプの回答タイプの推定に使用されてきた情報のみでは、種類を増加させた細かな回答タイプに対して、高精度に分類できない可能性がある。
本発明は上記事実を考慮して成されたもので、質問文に対する回答タイプを詳細に推定することができる回答タイプ推定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の回答タイプ推定装置は、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を抽出する特徴量抽出手段と、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する回答タイプ推定手段と、を含んで構成されている。
本発明の回答タイプ推定装置によれば、特徴量抽出手段が、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を抽出する。そして、回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された特徴量と、複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から特徴量抽出手段により抽出された特徴量とに基づいて、推定対象質問文の回答タイプを推定する。
このように、特徴量として、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる。
また、前記回答タイプモデルは、第1回答タイプモデルと、推定される回答タイプの種類が前記第1回答タイプモデルより多い第2回答タイプモデルとを含み、前記回答タイプ推定手段は、前記第1回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の上位階層の回答タイプを推定し、前記第2回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプとして、前記上位階層の回答タイプの推定結果により制約された下位階層の回答タイプを推定することができる。このように階層的に回答タイプを推定することで、回答タイプの推定精度を向上させることができる。
また、本発明の回答タイプ推定装置は、前記複数の学習用質問文を用いて、前記回答タイプモデルを学習する学習手段を含んで構成することができる。これにより、上記の回答タイプモデルを学習する機能も併せ持つことができる。
また、本発明の回答タイプ推定方法は、特徴量抽出手段が、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を抽出し、回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する方法である。
また、本発明の回答タイプ推定プログラムは、コンピュータを、上記の回答タイプ推定装置を構成する各手段として機能させるためのプログラムである。
本発明の回答タイプ推定装置、方法、及びプログラムによれば、特徴量として、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる、という効果を有する。
第1の実施の形態に係る回答タイプ推定装置の機能的構成を示すブロック図である。 質問文の形態素解析結果の一例を示す図である。 第1の実施の形態における学習処理ルーチンを示すフローチャートである。 第1の実施の形態における推定処理ルーチンを示すフローチャートである。 第2の実施の形態に係る回答タイプ推定装置の機能的構成を示すブロック図である。 第2の実施の形態における推定処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<回答タイプについて>
まず、本実施の形態で扱う回答タイプについて説明する。
1つ目は、13種類の回答タイプに分類するものである。13種類の回答タイプは、「名称:人名」、「名称:その他」、「数量:その他」、「数量:日付」、「数量:金額」、「数量:期間」、「意味」、「原因」、「連想」、「評判」、「方法」、「真偽」、及び「その他」である。「名称:人名」、「名称:その他」、「数量:その他」、「数量:日付」、「数量:金額」、及び「数量:期間」はファクトイド型質問に対する回答タイプであり、「意味」、「原因」、「連想」、「評判」、「方法」、「真偽」、及び「その他」がノンファクトイド型質問に対する回答タイプである。
2つ目は、200種類の回答タイプに分類するものである。200種類の回答タイプは、ニューヨーク大の関根らが提案の固有表現の分類体系である拡張固有表現の体系を用いる。拡張固有表現の体系とは、固有表現を全200のクラスに分類したものであり、例えば、川、橋、鉄道などにそれぞれ拡張固有表現のクラスが割り当てられている。川、橋、鉄道などは、従来、「人工物」という固有表現としてまとめられていたが、拡張固有表現の体系では、それぞれ別の扱いとなる。
なお、本発明に適用可能な回答タイプは上記の例に限定されるものではない。
<第1の実施の形態>
次に、第1の実施の形態について説明する。なお、第1の実施の形態では、上記の13種類の回答タイプ及び200種類の回答タイプのいずれでも同様に扱うことができるため、以下では、200種類の回答タイプを適用した場合について説明する。
第1の実施の形態に係る回答タイプ推定装置10は、CPUと、RAMと、後述する学習処理及び推定処理を含む回答タイプ推定処理ルーチンを実行するためのプログラム及び各種データを記憶したROMとを備えたコンピュータで構成されている。また、記憶手段としてHDDを設けてもよい。
このコンピュータは、機能的には、図1に示すように、学習部11と推定部12とを含んだ構成で表すことができ、学習部11はさらに、特徴量抽出部13と、モデル学習部14とを含んだ構成で表すことができ、推定部12はさらに、特徴量抽出部13と、回答タイプ推定部15とを含んだ構成で表すことができる。なお、特徴量抽出部13は学習部11と推定部12とで共通の機能部である。
学習部11は、入力された複数の正解データを用いて、回答タイプが未知の推定対象質問文に対する回答タイプを推定するための回答タイプモデル20を学習する。
正解データは、自然言語からなる質問文(テキストデータ)と正解の回答タイプとのペアであり、大量に収集した質問文に、その質問文が尋ねている意味内容である回答タイプ(200種類)を示す正解ラベルを付与したものである。質問文及び付与された正解ラベルの例を下記に示す。
・仏教では日天とされる、インド神話の太陽神は何か(回答タイプ:God)
・「好きよキャプテン」などの曲を歌った女性デュオは?(回答タイプ:Show_Organization)
・鎌倉幕府の執権職を世襲した一族は?(回答タイプ:Family)
・六曜で急用を避け静かに過ごすのがよいとされる日は?(回答タイプ:Day_Of_Week)
・日本の幕府が鎌倉に置かれていたのは何時代?(回答タイプ:Era)
・一般的な日本人女性の1日の平均摂取カロリーは?(回答タイプ:Calorie)
特徴量抽出部13は、各正解データから複数の特徴量を抽出して、各特徴量を要素とする特徴量ベクトルを生成する。特徴量としては、疑問詞、数値についての疑問詞、文字Nグラム、単語Nグラム、品詞Nグラム、意味属性Nグラム、助数詞・接尾辞、最後の助数詞・接尾辞、最後の名詞、最後の名詞の文字、名詞・固有名詞・用言属性に関する特徴量を用いる。以下、各特徴量について説明する。
「疑問詞」に関する特徴量は、予め定義された疑問詞が質問文中に含まれるか否かを表すバイナリ特徴量で、疑問詞が質問文に存在する場合には、特徴量の値を1とする。例えば、以下の疑問詞を予め定義しておく。
何故、何故か、どうして、誰、どこ、いつ、どのくらい、どう、どの、
どれくらい、どれぐらい、どれぐらいの、どれくらいの、どのように、
いくら、どうやって、どういう、どれだけ、幾等、幾つ、何、何と、何て、
何の、なんて、何か、何で、なんという、「何」から始まる単語
「数値についての疑問詞」に関する特徴量は、予め定義された数値についての疑問詞が質問文中に含まれるか否かを表すバイナリ特徴量で、数値についての疑問詞が質問文に存在する場合には、特徴量の値を1とする。例えば、以下の数値についての疑問詞を予め定義しておく。
どのくらい、どれくらい、どれぐらい、どれぐらいの、どれくらいの、
いくら、どれだけ、幾等、幾つ
「文字Nグラム」に関する特徴量は、質問文を文字単位で分解した系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。長い名詞などの中に回答タイプの推定に重要な情報が含まれている場合もあるため、単語単位より詳細な文字単位で質問文を分割したときの情報を特徴量として用いるものである。
ユニグラムは、例えば「山田の誕生日は」という質問文について、まず、「山」、「田」、「の」、「誕」、「生」、「日」、「は」の文字単位に分解し、それぞれの文字の存在を表す特徴量をバイナリ特徴量として抽出する。バイグラムはこれら文字の2つの連続、及びトライグラムは3つの連続の存在を表す特徴量である。トライグラムであれば、「の」−「誕」−「生」などが特徴量として抽出され、その値は1となる。バイグラム及びトライグラムを求める際には、系列の先頭及び末尾に、文頭を表すシンボル(S)、文末を表すシンボル(E)を付与してから、特徴量を抽出する。
「単語Nグラム」に関する特徴量は、質問文を形態素解析により単語単位に分割した系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。各特徴量の抽出方法は、文字単位か単語単位かが異なるだけで、上記の文字Nグラムの場合と同様である。なお、形態素解析には、NTTの開発した形態素解析エンジンであるJTAGを用いることができる。
「品詞Nグラム」に関する特徴量は、質問文の形態素解析結果から得られる各単語の品詞の情報からなる系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。例えば、「田中社長は何才」という質問文を形態素解析した結果を図2に示す。図2の例では、各行は一単語に相当し、単語(表層)、品詞、標準形、終止形(ある場合)、日本語語彙大系に基づく意味属性(名詞意味属性、固有名詞属性、用言属性:なお、特に言及しない限り、以降、意味属性は名詞意味属性を指す)の情報が出力されている。EOSは文末を表すシンボルである。この形態素解析結果から、品詞の情報のみから構成される系列を得る。ただし、疑問詞、名詞接尾辞:名詞、助数詞については、回答タイプの推定に重要な情報であるため、品詞の代わりに標準形を用いる。図2の例の場合、「名詞:固有:姓:組織」、「社長」、「連用助詞」、「Number」、「才」という系列が得られる。この品詞の系列から、上記の文字Nグラムの抽出と同様にして、ユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表す特徴量を抽出する。
「意味属性Nグラム」に関する特徴量は、質問文に含まれる各単語に付与された意味属性の系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。ただし、品詞が疑問詞の単語については、意味属性に代えて標準形を用いる。また、品詞が名詞接尾辞:名詞、助数詞の単語については、意味属性が付与されている場合には、その意味属性の階層関係の上位をたどり、ルートから4番目の階層(以下、「4階層目」という)の意味属性に置き換える。なお、1つの単語に複数の意味属性が付与されている場合には、先頭のものを用いる。意味属性の上位をたどる理由は、その意味属性を一般化し、後段の学習を効率化するためである。
図2の「田中社長は何才」の例では、意味属性が付与されていない単語はスキップして、「5」、「4(323の4階層目)」、「2585(2595の4階層目)」の系列が得られる。この意味属性の系列から、上記の文字Nグラムと同様にして、ユニグラム、バイグラム、及びトライグラムの存在を表す特徴量を抽出する。
「助数詞・接尾辞」に関する特徴量は、質問文を形態素解析して得られる質問文中の全ての助数詞及び接尾辞について、その品詞の存在を表すバイナリ特徴量である。また、品詞が助数詞または接尾辞である単語の標準形の存在を表す特徴量も加える。さらに、品詞が助数詞または接尾辞である単語に意味属性が付与されている場合には、各意味属性の存在を表す特徴量、及び付与されている意味属性の4階層目の意味属性の存在を表す特徴量も加える。助数詞(「人」、「枚」、「本」等)や接尾辞(「社長」、「監督」、「様」等)は、名詞や動詞といった内容語ではないため、従来手法では着目されてこなかったが、これらは、質問文が人数を尋ねているのか、枚数を尋ねているのか、本数を尋ねているのか、人名を尋ねているのか、などを見分ける手掛かりとして有効であるため、特徴量として用いるものである。
「最後の助数詞・接尾辞」に関する特徴量は、質問文を形態素解析して得られる品詞の系列において質問文の最後に出現する助数詞または接尾辞(以下、「最後の助数詞・接尾辞」という)は、回答タイプに直結している可能性が高いということに基づいて、最後の助数詞・接尾辞について抽出される特徴量である。具体的には、「助数詞・接尾辞」に関する特徴量と同様の特徴量を抽出するが、特徴量名に、「最後の助数詞・接尾辞」に関する特徴量であることを示すプレフィクスを付加した特徴量とする。
「最後の名詞」に関する特徴量は、質問文に出現する最後の名詞(以下、「最後の名詞」という)は、上記の最後の助数詞・接尾辞と同様に、回答タイプに直結している可能性が高いということに基づいて、最後の名詞について抽出される特徴量である。例えば、「○○で有名な侍は?」や「○○事件の芸者は?」といった質問文の最後に出現する名詞である「侍」や「芸者」が、それぞれ人物の下位概念であるということが判別できれば、人名という回答タイプを推定するために有効である。そこで、最後の名詞の意味属性を特徴量として用いるものである。具体的には、最後の名詞に付与されている意味属性のそれぞれについて、日本語語彙大系の階層をルートまでたどる経路における途中の意味属性全てについて、その存在を表す特徴量を抽出する。
「最後の名詞の文字」に関する特徴量は、最後の名詞の最後の文字も回答タイプの推定に重要な情報となることに基づいて抽出される、最後の名詞の最後の文字の存在を表す特徴量である。例えば、図2の「田中社長は何才」の例であれば、最後の名詞「何才」の最後の文字「才」が抽出され、その値が1となる。
なお、本実施の形態では、「最後の名詞」及び「最後の名詞の文字」に関する特徴量として、「名詞」に着目する場合について説明したが、語彙的意味を表す語である内容語であれば同様の特徴量として扱うことができる。
「名詞・固有名詞・用言属性」に関する特徴量は、質問文中に含まれる様々な内容を情報として生かすために抽出される特徴量で、質問文中に含まれる単語に付与された意味属性の全てについて、その存在を表す特徴量である。図2の「田中社長は何才」の例であれば、N−5、N−362、P−67、N−323、N−269、N−2595、N−2589という特徴量が抽出され、それぞれの値が1となる。ここで、N−というのは名詞意味属性に付加されるプレフィクスであり、P−は固有名詞の意味属性に付加されるプレフィクスである。
モデル学習部14は、各正解データの質問文から生成された特徴量ベクトルと、各正解データに付与された正解の回答タイプを示す正解ラベルとの対応付けを行う回答タイプモデル20を学習する。具体的には、全部でL個の回答タイプがあるとき、ある質問文から生成された特徴量ベクトルについて、その質問文の正解の回答タイプに対するスコアが、他の回答タイプに対するスコアよりも高くなるような重みを学習する。L個の回答タイプに対応するL個の重みベクトルが学習され、当該特徴量ベクトルについて、各回答タイプに対応する重みベクトルを掛け合わせてスコアを求めたとき、正解の回答タイプに対応する重みベクトルを用いたスコアが最も高くなるように、重みベクトルを学習する。
このような学習は、SVMを多クラス問題に拡張した、マルチクラスSVMを用いることで可能である。本実施の形態では、マルチクラスSVMを用い、回答タイプの対応付けを学習する。マルチクラスSVMには、線形のカーネルを用いる。ここでは、200種類の回答タイプが存在するため、200の重みベクトルを学習し、この重みベクトルの集合を回答タイプモデル20として生成する。
推定部12は、入力された推定対象質問文に対して、回答タイプモデル20に基づいて、回答タイプを推定する。
特徴量抽出部13は、学習部11で説明したのと同様に、推定対象質問文から上記の特徴量を抽出して、特徴量ベクトルを生成する。
回答タイプ推定部15は、モデル学習部14で生成された回答タイプモデル20に含まれる各重みベクトルと、特徴量抽出部13で生成された特徴量ベクトルとを掛け合わせることで、200種類の回答タイプの各々についてのスコアを求める。求めたスコアが最も高くなった重みベクトルに対応する回答タイプから順に回答タイプを並び替え、スコア順に上位M件の回答タイプを推定結果として出力する。
次に、第1の実施の形態に係る回答タイプ推定装置10の作用について説明する。学習段階において、複数の正解データが回答タイプ推定装置10に入力されると、学習部11において、図3に示す学習処理ルーチンが実行される。また、推定段階において、推定対象質問文が回答タイプ推定装置10に入力されると、推定部12において、図4に示す学習処理ルーチンが実行される。以下、各処理について詳述する。
まず、学習処理ルーチンでは、ステップ100で、特徴量抽出部13が、入力された複数の正解データを取得し、次に、ステップ102で、各正解データの質問文から上記の特徴量を抽出して、各特徴量を要素とする特徴量ベクトルを生成する。
次に、ステップ104で、モデル学習部14が、正解データに含まれる正解ラベルの各々と、上記ステップ102で生成された特徴量ベクトルの各々との対応付けを学習して、回答タイプモデル20を生成する。生成した回答タイプモデル20を所定の記憶領域に記憶して、学習処理ルーチンを終了する。
次に、推定処理ルーチンでは、ステップ110で、特徴量抽出部13が、入力された推定対象質問文を取得し、次に、ステップ112で、上記ステップ102と同様に、推定対象質問文の特徴量ベクトルを生成する。
次に、ステップ114で、回答タイプ推定部15が、回答タイプモデル20と、上記ステップ112で生成された特徴量ベクトルとに基づいて、回答タイプ毎のスコアを求めて、スコア順に上位M件の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係る回答タイプ推定装置10によれば、特徴量として、文字Nグラム、助数詞・接尾辞、最後の内容語の意味属性、及び最後の内容語の最後の文字に関する特徴量を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる。その結果、質問に対する回答をピンポイントに出力できるようになり、ユーザの知的活動の効率を高めることができる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、第1の実施の形態に係る回答タイプ推定装置10と同様の構成については、同一符号を付して詳細な説明を省略する。
図5に示すように、第2の実施の形態に係る回答タイプ推定装置210を構成するコンピュータは、機能的には、学習部211と推定部212とを含んだ構成で表すことができ、学習部211はさらに、特徴量抽出部13と、第1モデル学習部14aと、第2モデル学習部14bとを含んだ構成で表すことができ、推定部212はさらに、特徴量抽出部13と、第1回答タイプ推定部15aと、第2回答タイプ推定部15bとを含んだ構成で表すことができる。
第1モデル学習部14aは、複数の正解データを用いて、推定対象質問文が上述の13種類の回答タイプのいずれであるかを推定するための第1回答タイプモデル20aを生成する。学習の方法は、第1の実施の形態におけるモデル学習部14と同様である。
第2モデル学習部14bは、複数の正解データを用いて、推定対象質問文が上述の200種類の回答タイプのいずれであるかを推定するための第2回答タイプモデル20bを生成する。すなわち、第2モデル学習部14bは第1の実施の形態におけるモデル学習部14と同じであり、第2回答タイプモデル20bは第1の実施の形態における回答タイプモデル20と同じである。
なお、第1モデル学習部14aで用いる正解データは、13種類の回答タイプに対応した正解ラベルを含んでおり、第2モデル学習部14bで用いる正解データは、200種類の回答タイプに対応した正解ラベルを含んでいる。これら13種類の回答タイプと200種類の回答タイプとの対応関係は予め定められている。
第1回答タイプ推定部15aは、第1回答タイプモデル20aと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の回答タイプを推定する。推定の方法は、第1の実施の形態における回答タイプ推定部15と同様である。ここで推定される回答タイプは、上述の13種類の回答タイプのいずれかであり、これを上位階層の回答タイプという。
また、第1回答タイプ推定部15aは、推定した上位階層の回答タイプがファクトイド型質問の回答タイプであった場合は、推定結果及び特徴量ベクトルを第2回答タイプ推定部15bへ受け渡す。また、推定した上位階層の回答タイプがノンファクトイド型質問の回答タイプであった場合は、上位階層の回答タイプ毎のスコア順に上位M件までの上位階層の回答タイプを推定結果として出力する。なお、ファクトイド型かノンファクトイド型かの判別は、上位階層の回答タイプ毎のスコアが最大の上位階層の回答タイプがいずれであるかによって行うことができる。
第2回答タイプ推定部15bは、第2回答タイプモデル20bと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の回答タイプを推定する。推定の方法は、第1の実施の形態における回答タイプ推定部15と同様である。ここで推定される回答タイプは、上述の200種類の回答タイプのいずれかであり、これを下位階層の回答タイプという。
また、第2回答タイプ推定部15bは、下位階層の回答タイプを推定する際に、上位階層の回答タイプの推定結果を制約として用いる。例えば、上位階層の回答タイプの推定結果が「数量:日付」の場合には、下位階層の回答タイプの推定結果が、日付に関するものからのみ選ばれるようにする。
次に、第2の実施の形態に係る回答タイプ推定装置210の作用について説明する。学習処理ルーチンについては、第1モデル学習部14a及び第2モデル学習部14bの各々において、第1の実施の形態における学習処理ルーチンと同様の処理を行うものであるため、説明を省略する。以下、図6を参照して、推定処理ルーチンについて説明する。なお、第1の実施の形態における推定処理ルーチンと同一の処理については、同一符号を付して詳細な説明を省略する。
ステップ110及び112で、特徴量抽出部13が、推定対象質問文の特徴量ベクトルを生成する。
次に、ステップ200で、第1回答タイプ推定部15aが、第1回答タイプモデル20aと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の上位階層の回答タイプを推定する。
次に、ステップ202で、第1回答タイプ推定部15aが、上記ステップ200で推定した上位階層の回答タイプがファクトイド型かノンファクトイド型かを判定する。ノンファクトイド型の場合には、ステップ204へ移行し、第1回答タイプ推定部15aが、スコア順に上位M件の上位階層の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。
一方、ステップ202でファクトイド型と判定された場合には、ステップ206へ移行し、第2回答タイプ推定部15bが、第2回答タイプモデル20bと、推定対象質問文の特徴量ベクトルとを用いて、上記ステップ200の推定結果の制約の下、推定対象質問文の下位階層の回答タイプを推定し、スコア順に上位M件の下位階層の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。
以上説明したように、第2の実施の形態に係る回答タイプ推定装置210によれば、第1の実施の形態の効果に加え、上位階層の回答タイプの推定結果を下位階層の回答タイプを推定する際の制約として、階層的に回答タイプを推定することで、回答タイプの推定精度を向上させることができる。
ここで、本実施の形態で用いた特徴量の有効性を確認した実験について説明する。本実験では、手持ちの質問文について200種類の回答タイプが付与されたデータから、5分割交差検定を用いた。評価尺度は、最上位に推定された回答タイプが正解である質問の割合を用いた。その結果、上記特徴量を用いない場合は、精度が81.80%であったのに対し、上記特徴量を用いた場合には、85.22%に改善されることが分かった。よって、本実施の形態で用いた特徴量の有効性が確認できた。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記実施の形態では、学習部と推定部とを1つのコンピュータで構成する場合について説明したが、別々のコンピュータで構成するようにしてもよい。
また、上述の回答タイプ推定装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。また、本発明は、周知のコンピュータに媒体もしくは通信回線を介して、プログラムをインストールすることによっても実現可能である。
10、210 回答タイプ推定装置
11、211 学習部
12、212 推定部
13 特徴量抽出部
14 モデル学習部
15 回答タイプ推定部

Claims (5)

  1. 自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を抽出する特徴量抽出手段と、
    質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する回答タイプ推定手段と、
    を含む回答タイプ推定装置。
  2. 前記回答タイプモデルは、第1回答タイプモデルと、推定される回答タイプの種類が前記第1回答タイプモデルより多い第2回答タイプモデルとを含み、
    前記回答タイプ推定手段は、前記第1回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の上位階層の回答タイプを推定し、前記第2回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプとして、前記上位階層の回答タイプの推定結果により制約された下位階層の回答タイプを推定する請求項1記載の回答タイプ推定装置。
  3. 前記複数の学習用質問文を用いて、前記回答タイプモデルを学習する学習手段を含む請求項1または請求項2記載の回答タイプ推定装置。
  4. 特徴量抽出手段が、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくともつに関する特徴量を抽出し、
    回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する
    回答タイプ推定方法。
  5. コンピュータを、請求項1〜請求項3のいずれか1項記載の回答タイプ推定装置を構成する各手段として機能させるための回答タイプ推定プログラム。
JP2012127052A 2012-06-04 2012-06-04 回答タイプ推定装置、方法、及びプログラム Active JP5591871B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012127052A JP5591871B2 (ja) 2012-06-04 2012-06-04 回答タイプ推定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012127052A JP5591871B2 (ja) 2012-06-04 2012-06-04 回答タイプ推定装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013250925A JP2013250925A (ja) 2013-12-12
JP5591871B2 true JP5591871B2 (ja) 2014-09-17

Family

ID=49849495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012127052A Active JP5591871B2 (ja) 2012-06-04 2012-06-04 回答タイプ推定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5591871B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107807933A (zh) * 2016-09-09 2018-03-16 阿里巴巴集团控股有限公司 一种针对提问的回复方法和装置
JP6630701B2 (ja) * 2017-04-13 2020-01-15 日本電信電話株式会社 回答候補生成装置、方法、及びプログラム
WO2019077656A1 (ja) 2017-10-16 2019-04-25 富士通株式会社 生産設備監視装置、生産設備監視方法及び生産設備監視プログラム
JP7084158B2 (ja) 2018-02-23 2022-06-14 トヨタ自動車株式会社 情報処理方法、プログラム、情報処理装置、及び情報処理システム
JP7102563B2 (ja) 2021-02-03 2022-07-19 プライマル フュージョン インコーポレイテッド 機械学習分類器とともに知識表現を使用するためのシステム及び方法
CN113342950B (zh) * 2021-06-04 2023-04-21 北京信息科技大学 基于语义联合的答案选取方法及系统
WO2023170810A1 (ja) * 2022-03-09 2023-09-14 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244262A (ja) * 2005-03-04 2006-09-14 Nec Corp 質問回答検索システム、方法およびプログラム

Also Published As

Publication number Publication date
JP2013250925A (ja) 2013-12-12

Similar Documents

Publication Publication Date Title
Anandarajan et al. Text preprocessing
Rao Contextual sentiment topic model for adaptive social emotion classification
Schroeder et al. childLex: A lexical database of German read by children
JP5591871B2 (ja) 回答タイプ推定装置、方法、及びプログラム
JP5431532B2 (ja) 質問応答装置、モデル学習装置、方法、及びプログラム
Evert The statistics of word cooccurrences: word pairs and collocations
JP4347226B2 (ja) 情報抽出プログラムおよびその記録媒体、情報抽出装置ならびに情報抽出規則作成方法
Qazi et al. Enhancing business intelligence by means of suggestive reviews
Ghosh et al. Natural language processing fundamentals: build intelligent applications that can interpret the human language to deliver impactful results
US10191975B1 (en) Features for automatic classification of narrative point of view and diegesis
Padmaja et al. Evaluating sentiment analysis methods and identifying scope of negation in newspaper articles
Reganti et al. Modeling satire in English text for automatic detection
Etaiwi et al. Statistical Arabic name entity recognition approaches: A survey
Wahbeh et al. Comparative assessment of the performance of three WEKA text classifiers applied to arabic text
Jain et al. “UTTAM” An Efficient Spelling Correction System for Hindi Language Based on Supervised Learning
Chen et al. Cu-comsem: Exploring rich features for unsupervised web personal name disambiguation
Malandrakis et al. Sail: Sentiment analysis using semantic similarity and contrast features
Sethi et al. Automated title generation in English language using NLP
Alsayadi et al. Integrating semantic features for enhancing arabic named entity recognition
WO2016067396A1 (ja) 文の並び替え方法および計算機
Imane et al. A set of parameters for automatically annotating a Sentiment Arabic Corpus
da Rocha et al. A text as unique as a fingerprint: Text analysis and authorship recognition in a Virtual Learning Environment of the Unified Health System in Brazil
KR101265467B1 (ko) 블로그 문서에서의 경험 문장 추출 방법 및 동사 분류 방법
Wang et al. What is your Mother Tongue?: Improving Chinese native language identification by cleaning noisy data and adopting BM25
Beliga et al. Non-standard words as features for text categorization

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5591871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150