JP2013250925A - Answer type estimation device, method and program - Google Patents
Answer type estimation device, method and program Download PDFInfo
- Publication number
- JP2013250925A JP2013250925A JP2012127052A JP2012127052A JP2013250925A JP 2013250925 A JP2013250925 A JP 2013250925A JP 2012127052 A JP2012127052 A JP 2012127052A JP 2012127052 A JP2012127052 A JP 2012127052A JP 2013250925 A JP2013250925 A JP 2013250925A
- Authority
- JP
- Japan
- Prior art keywords
- answer
- answer type
- question sentence
- type
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は回答タイプ推定装置、方法、及びプログラムに係り、特に、自然言語による質問文に対する回答タイプを推定する回答タイプ推定装置、方法、及びプログラムに関する。 The present invention relates to an answer type estimation apparatus, method, and program, and more particularly, to an answer type estimation apparatus, method, and program for estimating an answer type for a question sentence in a natural language.
自然言語による質問文について、ずばり回答を出力するシステムを質問応答システムと呼ぶ。質問応答システムは、「世界一高い山は」のように、主に単語が回答となる質問に答える「ファクトイド型」のものと、「黒澤明ってどんな人」や「なぜホタルは光るのか」のように単語での回答が難しく、主に文章で回答する「ノンファクトイド型」に分類される。質問に対する適切な応答を出力するためには、質問に対する回答の種類を示す回答タイプを適切に推定することが重要である。 A system that outputs a random answer for a question sentence in a natural language is called a question answering system. The question answering system is a “factoid type” answering questions that are mainly answered by words, such as “The highest mountain in the world”, “What kind of person is Akira Kurosawa”, and “Why do fireflies shine?” Like this, it is difficult to answer in words, and it is classified as “non-factoid type” that answers mainly in sentences. In order to output an appropriate response to a question, it is important to appropriately estimate an answer type indicating the type of answer to the question.
従来、回答タイプを推定するために、手作業によるルールを記述して推定する手法が多く用いられている。例えば、質問文に「なぜ」という単語が存在する場合には、回答タイプは「理由」であると推定するようなルールを記述する。同様に、質問文に「どこ」という単語が存在する場合には、回答タイプは「地名」、「誰」という単語が存在する場合には、回答タイプは「人名」であると推定するようなルールを記述する。 Conventionally, in order to estimate an answer type, many techniques for describing and estimating a rule by hand are used. For example, if the word “why” is present in the question sentence, a rule that presumes that the answer type is “reason” is described. Similarly, when the word “where” is present in the question sentence, the answer type is “place name”, and when the word “who” is present, the answer type is assumed to be “person name”. Write the rules.
しかしながら、人間により入力される質問文の態様は多様であり、例えば、「○○を開発した研究所はどこ?」という質問であれば、「組織名」が回答タイプになることからわかるように、必ずしも、質問文に「どこ」という単語が存在するからといって、回答タイプが「地名」になるというわけではない。このような多様な質問に対して、高精度な回答タイプの推定を行うためには、非常に多くのルールを記述する必要がある。このように、ルールを人手で労力をかけて記述しなくてもよいようにするために、機械学習を用いた手法も提案されている。例えば、サポートベクトルマシン(SVM:support vector machine)を用いて、正解の回答タイプが付与された学習データを学習して、回答タイプを推定する手法が提案されている(例えば、非特許文献1参照)。 However, there are a variety of aspects of the question text entered by humans. For example, if the question is “Where is the laboratory that developed XX?”, The “organization name” will be the answer type. However, just because the word “where” exists in the question sentence does not necessarily mean that the answer type is “place name”. In order to estimate the answer type with high accuracy for such various questions, it is necessary to describe a very large number of rules. In this way, a method using machine learning has been proposed in order to eliminate the need for describing rules by labor. For example, a method has been proposed in which learning data provided with a correct answer type is learned using a support vector machine (SVM) to estimate the answer type (see, for example, Non-Patent Document 1). ).
ところで、従来、回答タイプの推定、特に、ファクトイド型の回答タイプの推定では、推定する回答タイプの種類として、8つの回答タイプが用いられることが多かった。これは、質問応答のコンテスト(TREC:Text Retrieval Conference)などで、使用されていた回答タイプの分類で、いわば標準として用いられてきた。 By the way, conventionally, in the estimation of answer types, in particular, the estimation of factoid type answer types, eight answer types are often used as the types of answer types to be estimated. This is a classification of the answer type used in a question answering contest (TREC: Text Retrieval Conference), and has been used as a standard.
しかしながら、質問に対してピンポイントで回答する質問応答システムを構築しようとすると、回答タイプが8タイプでは不十分である。例えば、「世界一高い山は?」や「世界一長い川は?」という質問文に対する従来の8タイプの回答タイプの推定では、どちらも「地名」という回答タイプになってしまう。これでは、山を聞いているにもかかわらず川の名前を答えたり、川の名前を聞いているにもかかわらず市町村の名前を答えてしまったりする可能性がある。 However, when an attempt is made to construct a question answering system that answers questions in a pinpoint manner, eight answer types are not sufficient. For example, in the conventional estimation of the eight types of answer types for the question sentences such as “What is the tallest mountain in the world?” And “What is the longest river in the world?”, Both answer types are “place names”. This could result in answering the name of the river despite listening to the mountain, or answering the name of the municipality despite listening to the name of the river.
このような誤回答を避けるためには、回答タイプの種類を増加するというアプローチが有効である。しかし、回答タイプを増やすということは、質問の意味内容を、従来よりも細かく理解して回答タイプを推定しなくてはならないが、従来の8タイプの回答タイプの推定に使用されてきた情報のみでは、種類を増加させた細かな回答タイプに対して、高精度に分類できない可能性がある。 In order to avoid such erroneous answers, an approach of increasing the types of answer types is effective. However, increasing the number of answer types means that the meaning type of the question must be understood in more detail than before, and the answer type must be estimated, but only the information that has been used to estimate the eight answer types in the past. Then, there is a possibility that it is not possible to classify with high accuracy for the detailed answer types with increased types.
本発明は上記事実を考慮して成されたもので、質問文に対する回答タイプを詳細に推定することができる回答タイプ推定装置、方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above facts, and an object thereof is to provide an answer type estimation device, method, and program capable of estimating in detail an answer type for a question sentence.
上記目的を達成するために、本発明の回答タイプ推定装置は、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくとも1つに関する特徴量を抽出する特徴量抽出手段と、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する回答タイプ推定手段と、を含んで構成されている。 In order to achieve the above object, the answer type estimation device of the present invention includes, from a question sentence in natural language, a letter N-gram, a classifier, a suffix, a semantic attribute of a content word appearing at the end of the question sentence, and the question A plurality of learning question sentences to which feature quantity extraction means for extracting feature quantities relating to at least one of the last characters of the content word appearing at the end of the sentence and a correct answer type indicating the type of answer to the question sentence are given From the answer type model that learned the correspondence between the feature amount extracted from each of the answer types and each of the answer types assigned to each of the plurality of learning question sentences, and the estimation target question sentence whose answer type is unknown Answer type estimating means for estimating the answer type of the estimation target question sentence based on the feature quantity extracted by the feature quantity extracting means.
本発明の回答タイプ推定装置によれば、特徴量抽出手段が、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくとも1つに関する特徴量を抽出する。そして、回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された特徴量と、複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から特徴量抽出手段により抽出された特徴量とに基づいて、推定対象質問文の回答タイプを推定する。 According to the answer type estimation device of the present invention, the feature amount extraction means includes a character N-gram, a classifier, a suffix, a semantic attribute of a content word appearing at the end of a question sentence, and a question sentence A feature amount relating to at least one of the last characters of the content word that appears last is extracted. Then, the answer type estimating means assigns the feature amount extracted from each of the plurality of learning question sentences to which the answer type correct answer indicating the type of the answer to the question sentence is given to each of the plurality of learning question sentences The answer type of the estimation target question sentence based on the answer type model that learned the association with each of the answered type and the feature quantity extracted by the feature quantity extraction means from the estimation target question sentence whose answer type is unknown Is estimated.
このように、特徴量として、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくとも1つに関する特徴量を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる。 As described above, as the feature amount, the feature relating to at least one of the character N gram, the classifier, the suffix, the semantic attribute of the content word appearing at the end of the question sentence, and the last character of the content word appearing at the end of the question sentence. By using detailed information using quantities, it is possible to classify the answer types with high accuracy even when there are many types of answer types, and therefore it is possible to estimate the answer types for the question sentences in detail.
また、前記回答タイプモデルは、第1回答タイプモデルと、推定される回答タイプの種類が前記第1回答タイプモデルより多い第2回答タイプモデルとを含み、前記回答タイプ推定手段は、前記第1回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の上位階層の回答タイプを推定し、前記第2回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプとして、前記上位階層の回答タイプの推定結果により制約された下位階層の回答タイプを推定することができる。このように階層的に回答タイプを推定することで、回答タイプの推定精度を向上させることができる。 The answer type model includes a first answer type model and a second answer type model in which the types of estimated answer types are larger than the first answer type model, and the answer type estimating means includes the first answer type model. Based on the answer type model and the feature quantity extracted from the estimation target question sentence, an upper answer type of the estimation target question sentence is estimated, and extracted from the second answer type model and the estimation target question sentence. Based on the characteristic amount, the answer type of the lower hierarchy restricted by the estimation result of the answer type of the upper hierarchy can be estimated as the answer type of the estimation target question sentence. Thus, the estimation accuracy of the answer type can be improved by estimating the answer type hierarchically.
また、本発明の回答タイプ推定装置は、前記複数の学習用質問文を用いて、前記回答タイプモデルを学習する学習手段を含んで構成することができる。これにより、上記の回答タイプモデルを学習する機能も併せ持つことができる。 In addition, the answer type estimation device of the present invention can be configured to include learning means for learning the answer type model using the plurality of learning question sentences. Thereby, it is possible to have a function of learning the answer type model.
また、本発明の回答タイプ推定方法は、特徴量抽出手段が、自然言語による質問文から、文字Nグラム、助数詞、接尾辞、該質問文の最後に出現する内容語の意味属性、及び該質問文の最後に出現する内容語の最後の文字の少なくとも1つに関する特徴量を抽出し、回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する方法である。 Further, in the answer type estimation method of the present invention, the feature quantity extracting means includes a character N gram, a classifier, a suffix, a semantic attribute of a content word appearing at the end of the question sentence, and the question A plurality of learning questions in which a feature amount related to at least one of the last characters of the content word appearing at the end of the sentence is extracted, and the answer type estimation means is assigned an answer type correct answer indicating the type of answer to the question sentence An answer type model that learns correspondence between the feature amount extracted from each sentence and each answer type assigned to each of the plurality of learning question sentences, and an estimation target question sentence whose answer type is unknown From the feature amount extracted by the feature amount extraction means, the answer type of the estimation target question sentence is estimated.
また、本発明の回答タイプ推定プログラムは、コンピュータを、上記の回答タイプ推定装置を構成する各手段として機能させるためのプログラムである。 The answer type estimation program of the present invention is a program for causing a computer to function as each means constituting the answer type estimation apparatus.
本発明の回答タイプ推定装置、方法、及びプログラムによれば、特徴量として、文字Nグラム、助数詞、接尾辞、質問文の最後に出現する内容語の意味属性、及び質問文の最後に出現する内容語の最後の文字の少なくとも1つに関する特徴用を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる、という効果を有する。 According to the answer type estimation device, method, and program of the present invention, the character N-gram, the classifier, the suffix, the semantic attribute of the content word that appears at the end of the question sentence, and the end of the question sentence as the feature amount Answers to question sentences because it is possible to classify answer types with high accuracy even if there are many types of answer types by using detailed information using features for at least one of the last words of the content word The type can be estimated in detail.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<回答タイプについて>
まず、本実施の形態で扱う回答タイプについて説明する。
<About answer types>
First, the answer types handled in this embodiment will be described.
1つ目は、13種類の回答タイプに分類するものである。13種類の回答タイプは、「名称:人名」、「名称:その他」、「数量:その他」、「数量:日付」、「数量:金額」、「数量:期間」、「意味」、「原因」、「連想」、「評判」、「方法」、「真偽」、及び「その他」である。「名称:人名」、「名称:その他」、「数量:その他」、「数量:日付」、「数量:金額」、及び「数量:期間」はファクトイド型質問に対する回答タイプであり、「意味」、「原因」、「連想」、「評判」、「方法」、「真偽」、及び「その他」がノンファクトイド型質問に対する回答タイプである。 The first is to classify into 13 types of answers. The 13 answer types are “name: person name”, “name: other”, “quantity: other”, “quantity: date”, “quantity: amount”, “quantity: period”, “meaning”, “cause” , “Association”, “reputation”, “method”, “true / false”, and “other”. “Name: Person”, “Name: Other”, “Quantity: Other”, “Quantity: Date”, “Quantity: Amount”, and “Quantity: Period” are the answer types for factoid questions, “Cause”, “association”, “reputation”, “method”, “true / false”, and “other” are the answer types for the non-factoid question.
2つ目は、200種類の回答タイプに分類するものである。200種類の回答タイプは、ニューヨーク大の関根らが提案の固有表現の分類体系である拡張固有表現の体系を用いる。拡張固有表現の体系とは、固有表現を全200のクラスに分類したものであり、例えば、川、橋、鉄道などにそれぞれ拡張固有表現のクラスが割り当てられている。川、橋、鉄道などは、従来、「人工物」という固有表現としてまとめられていたが、拡張固有表現の体系では、それぞれ別の扱いとなる。 The second is to classify into 200 types of answers. The 200 answer types use the extended named entity system, which is a proposed named entity classification system by Sekine of New York University. The extended specific expression system is a classification of specific expressions into all 200 classes. For example, classes of extended specific expressions are assigned to rivers, bridges, railways, and the like. Traditionally, rivers, bridges, railways, and so on have been grouped together as “artifacts”, but they are handled differently in the extended named system.
なお、本発明に適用可能な回答タイプは上記の例に限定されるものではない。 The answer types applicable to the present invention are not limited to the above example.
<第1の実施の形態>
次に、第1の実施の形態について説明する。なお、第1の実施の形態では、上記の13種類の回答タイプ及び200種類の回答タイプのいずれでも同様に扱うことができるため、以下では、200種類の回答タイプを適用した場合について説明する。
<First Embodiment>
Next, a first embodiment will be described. In the first embodiment, since any of the 13 types of answers and the 200 types of answers can be handled in the same manner, a case where 200 types of answers are applied will be described below.
第1の実施の形態に係る回答タイプ推定装置10は、CPUと、RAMと、後述する学習処理及び推定処理を含む回答タイプ推定処理ルーチンを実行するためのプログラム及び各種データを記憶したROMとを備えたコンピュータで構成されている。また、記憶手段としてHDDを設けてもよい。 The answer type estimation apparatus 10 according to the first embodiment includes a CPU, a RAM, a program for executing an answer type estimation processing routine including a learning process and an estimation process described later, and a ROM storing various data. It consists of a computer equipped with. Further, an HDD may be provided as a storage means.
このコンピュータは、機能的には、図1に示すように、学習部11と推定部12とを含んだ構成で表すことができ、学習部11はさらに、特徴量抽出部13と、モデル学習部14とを含んだ構成で表すことができ、推定部12はさらに、特徴量抽出部13と、回答タイプ推定部15とを含んだ構成で表すことができる。なお、特徴量抽出部13は学習部11と推定部12とで共通の機能部である。 As shown in FIG. 1, this computer can be functionally represented by a configuration including a learning unit 11 and an estimation unit 12. The learning unit 11 further includes a feature amount extraction unit 13, a model learning unit, and the like. 14, and the estimation unit 12 can be further represented by a configuration including a feature amount extraction unit 13 and an answer type estimation unit 15. Note that the feature amount extraction unit 13 is a functional unit common to the learning unit 11 and the estimation unit 12.
学習部11は、入力された複数の正解データを用いて、回答タイプが未知の推定対象質問文に対する回答タイプを推定するための回答タイプモデル20を学習する。 The learning unit 11 learns an answer type model 20 for estimating an answer type for an estimation target question sentence whose answer type is unknown, using a plurality of input correct answer data.
正解データは、自然言語からなる質問文(テキストデータ)と正解の回答タイプとのペアであり、大量に収集した質問文に、その質問文が尋ねている意味内容である回答タイプ(200種類)を示す正解ラベルを付与したものである。質問文及び付与された正解ラベルの例を下記に示す。 The correct answer data is a pair of a natural language question sentence (text data) and a correct answer type, and the answer type (200 types) is a meaning content that the question sentence asks in a large amount of question sentences collected. The correct answer label indicating is given. An example of the question sentence and the assigned correct answer label is shown below.
・仏教では日天とされる、インド神話の太陽神は何か(回答タイプ:God)
・「好きよキャプテン」などの曲を歌った女性デュオは?(回答タイプ:Show_Organization)
・鎌倉幕府の執権職を世襲した一族は?(回答タイプ:Family)
・六曜で急用を避け静かに過ごすのがよいとされる日は?(回答タイプ:Day_Of_Week)
・日本の幕府が鎌倉に置かれていたのは何時代?(回答タイプ:Era)
・一般的な日本人女性の1日の平均摂取カロリーは?(回答タイプ:Calorie)
・ What is the sun god of Indian mythology, which is regarded as a heaven in Buddhism? (Answer type: God)
・ Which female duo sang songs like “I like you Captain”? (Answer type: Show_Organization)
・ Which clan has inherited the copyrighted work of the Kamakura shogunate? (Answer type: Family)
・ What day is it recommended to spend time quietly avoiding urgent business on six days? (Answer type: Day_Of_Week)
・ When was the Japanese shogunate in Kamakura? (Answer type: Era)
・ What is the average daily calorie intake for Japanese women? (Answer type: Calorie)
特徴量抽出部13は、各正解データから複数の特徴量を抽出して、各特徴量を要素とする特徴量ベクトルを生成する。特徴量としては、疑問詞、数値についての疑問詞、文字Nグラム、単語Nグラム、品詞Nグラム、意味属性Nグラム、助数詞・接尾辞、最後の助数詞・接尾辞、最後の名詞、最後の名詞の文字、名詞・固有名詞・用言属性に関する特徴量を用いる。以下、各特徴量について説明する。 The feature quantity extraction unit 13 extracts a plurality of feature quantities from each correct answer data, and generates a feature quantity vector having each feature quantity as an element. Features include interrogative, interrogative for numerical values, letter N-gram, word N-gram, part-of-speech N-gram, semantic attribute N-gram, classifier / suffix, last classifier / suffix, last noun, last noun The feature amount related to the character, noun, proper noun, and predicate attribute is used. Hereinafter, each feature amount will be described.
「疑問詞」に関する特徴量は、予め定義された疑問詞が質問文中に含まれるか否かを表すバイナリ特徴量で、疑問詞が質問文に存在する場合には、特徴量の値を1とする。例えば、以下の疑問詞を予め定義しておく。 The feature amount related to “interrogative word” is a binary feature amount indicating whether or not a predefined question word is included in the question sentence. When the question word is present in the question sentence, the feature amount value is set to 1. To do. For example, the following question words are defined in advance.
何故、何故か、どうして、誰、どこ、いつ、どのくらい、どう、どの、
どれくらい、どれぐらい、どれぐらいの、どれくらいの、どのように、
いくら、どうやって、どういう、どれだけ、幾等、幾つ、何、何と、何て、
何の、なんて、何か、何で、なんという、「何」から始まる単語
Why, why, why, who, where, when, how much, how, which,
How much, how much, how much, how much, how
How, what, what, how much, how much, what, what, what,
What, what, what, what, what, words that start with "what"
「数値についての疑問詞」に関する特徴量は、予め定義された数値についての疑問詞が質問文中に含まれるか否かを表すバイナリ特徴量で、数値についての疑問詞が質問文に存在する場合には、特徴量の値を1とする。例えば、以下の数値についての疑問詞を予め定義しておく。 The feature value related to the “question word about a numerical value” is a binary feature value indicating whether or not a question word about a predefined numerical value is included in the question sentence, and when the question word about the numerical value exists in the question sentence. The feature value is set to 1. For example, questionables for the following numerical values are defined in advance.
どのくらい、どれくらい、どれぐらい、どれぐらいの、どれくらいの、
いくら、どれだけ、幾等、幾つ
How much, how much, how much, how much, how much,
How much, how much, how much
「文字Nグラム」に関する特徴量は、質問文を文字単位で分解した系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。長い名詞などの中に回答タイプの推定に重要な情報が含まれている場合もあるため、単語単位より詳細な文字単位で質問文を分割したときの情報を特徴量として用いるものである。 The feature amount related to “character N-gram” is a binary feature amount that represents the presence of each N-gram of unigram, bigram, and trigram extracted from a sequence obtained by decomposing a question sentence in character units. Since information that is important for answer type estimation may be included in a long noun or the like, information obtained by dividing a question sentence in character units more detailed than word units is used as a feature amount.
ユニグラムは、例えば「山田の誕生日は」という質問文について、まず、「山」、「田」、「の」、「誕」、「生」、「日」、「は」の文字単位に分解し、それぞれの文字の存在を表す特徴量をバイナリ特徴量として抽出する。バイグラムはこれら文字の2つの連続、及びトライグラムは3つの連続の存在を表す特徴量である。トライグラムであれば、「の」−「誕」−「生」などが特徴量として抽出され、その値は1となる。バイグラム及びトライグラムを求める際には、系列の先頭及び末尾に、文頭を表すシンボル(S)、文末を表すシンボル(E)を付与してから、特徴量を抽出する。 Unigram, for example, for the question sentence “Yamada ’s birthday is”, first, it is broken down into character units of “mountain”, “field”, “no”, “birth”, “raw”, “day”, and “ha”. Then, the feature quantity indicating the presence of each character is extracted as a binary feature quantity. A bigram is a feature value representing the presence of two consecutive characters, and a trigram is a characteristic value representing the presence of three consecutive characters. In the case of a trigram, “no”-“birth”-“raw” and the like are extracted as feature quantities, and the value is 1. When obtaining a bigram and trigram, a symbol (S) representing the beginning of a sentence and a symbol (E) representing the end of a sentence are added to the beginning and end of the series, and then the feature amount is extracted.
「単語Nグラム」に関する特徴量は、質問文を形態素解析により単語単位に分割した系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。各特徴量の抽出方法は、文字単位か単語単位かが異なるだけで、上記の文字Nグラムの場合と同様である。なお、形態素解析には、NTTの開発した形態素解析エンジンであるJTAGを用いることができる。 The feature amount related to “word N-gram” is a binary feature amount representing the existence of each N-gram of unigram, bigram, and trigram extracted from a series obtained by dividing the question sentence into words by morphological analysis. The extraction method of each feature amount is the same as that of the character N-gram described above, except that the character unit or the word unit is different. For morphological analysis, JTAG, a morphological analysis engine developed by NTT, can be used.
「品詞Nグラム」に関する特徴量は、質問文の形態素解析結果から得られる各単語の品詞の情報からなる系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。例えば、「田中社長は何才」という質問文を形態素解析した結果を図2に示す。図2の例では、各行は一単語に相当し、単語(表層)、品詞、標準形、終止形(ある場合)、日本語語彙大系に基づく意味属性(名詞意味属性、固有名詞属性、用言属性:なお、特に言及しない限り、以降、意味属性は名詞意味属性を指す)の情報が出力されている。EOSは文末を表すシンボルである。この形態素解析結果から、品詞の情報のみから構成される系列を得る。ただし、疑問詞、名詞接尾辞:名詞、助数詞については、回答タイプの推定に重要な情報であるため、品詞の代わりに標準形を用いる。図2の例の場合、「名詞:固有:姓:組織」、「社長」、「連用助詞」、「Number」、「才」という系列が得られる。この品詞の系列から、上記の文字Nグラムの抽出と同様にして、ユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表す特徴量を抽出する。 The feature amount related to “part of speech N-gram” is a binary feature amount representing the existence of each N-gram of unigram, bigram, and trigram extracted from the series of parts of speech information obtained from the morphological analysis result of the question sentence. It is. For example, FIG. 2 shows the result of a morphological analysis of a question sentence “President Tanaka is how old”. In the example of FIG. 2, each line corresponds to one word. Word (surface), part of speech, standard form, final form (if any), semantic attribute based on Japanese vocabulary system (noun semantic attribute, proper noun attribute, Word attribute: Unless otherwise specified, the meaning attribute is hereinafter referred to as a noun semantic attribute). EOS is a symbol representing the end of a sentence. From this morphological analysis result, a series composed only of part-of-speech information is obtained. However, the interrogative and noun suffixes: nouns and classifiers are important information for estimating the answer type, so the standard form is used instead of the part of speech. In the case of the example in FIG. 2, a series of “noun: unique: surname: organization”, “president”, “continuous particle”, “Number”, and “age” is obtained. From this part-of-speech series, in the same manner as the above-described extraction of the character N-gram, a feature amount representing the presence of each N-gram of unigram, bigram, and trigram is extracted.
「意味属性Nグラム」に関する特徴量は、質問文に含まれる各単語に付与された意味属性の系列から抽出されるユニグラム、バイグラム、及びトライグラムの各Nグラムの存在を表すバイナリ特徴量である。ただし、品詞が疑問詞の単語については、意味属性に代えて標準形を用いる。また、品詞が名詞接尾辞:名詞、助数詞の単語については、意味属性が付与されている場合には、その意味属性の階層関係の上位をたどり、ルートから4番目の階層(以下、「4階層目」という)の意味属性に置き換える。なお、1つの単語に複数の意味属性が付与されている場合には、先頭のものを用いる。意味属性の上位をたどる理由は、その意味属性を一般化し、後段の学習を効率化するためである。 The feature amount related to “semantic attribute N-gram” is a binary feature amount representing the existence of each N-gram of unigram, bigram, and trigram extracted from the sequence of semantic attributes given to each word included in the question sentence. . However, for a word whose part of speech is an interrogative word, the standard form is used instead of the semantic attribute. In addition, if the part of speech has a noun suffix: a noun or a classifier, if a semantic attribute is given, the hierarchy of the semantic attribute is traced to the fourth level from the root (hereinafter referred to as “four levels” Replace it with the semantic attribute of the eye. When a plurality of semantic attributes are assigned to one word, the first one is used. The reason for following the top of the semantic attribute is to generalize the semantic attribute and improve the efficiency of later learning.
図2の「田中社長は何才」の例では、意味属性が付与されていない単語はスキップして、「5」、「4(323の4階層目)」、「2585(2595の4階層目)」の系列が得られる。この意味属性の系列から、上記の文字Nグラムと同様にして、ユニグラム、バイグラム、及びトライグラムの存在を表す特徴量を抽出する。 In the example of “How old is President Tanaka” in FIG. 2, words having no semantic attribute are skipped, and “5”, “4 (the fourth layer of 323)”, “2585 (the fourth layer of 2595) are skipped. ) "Series is obtained. A feature quantity representing the presence of a unigram, bigram, and trigram is extracted from the semantic attribute series in the same manner as the character N-gram.
「助数詞・接尾辞」に関する特徴量は、質問文を形態素解析して得られる質問文中の全ての助数詞及び接尾辞について、その品詞の存在を表すバイナリ特徴量である。また、品詞が助数詞または接尾辞である単語の標準形の存在を表す特徴量も加える。さらに、品詞が助数詞または接尾辞である単語に意味属性が付与されている場合には、各意味属性の存在を表す特徴量、及び付与されている意味属性の4階層目の意味属性の存在を表す特徴量も加える。助数詞(「人」、「枚」、「本」等)や接尾辞(「社長」、「監督」、「様」等)は、名詞や動詞といった内容語ではないため、従来手法では着目されてこなかったが、これらは、質問文が人数を尋ねているのか、枚数を尋ねているのか、本数を尋ねているのか、人名を尋ねているのか、などを見分ける手掛かりとして有効であるため、特徴量として用いるものである。 The feature amount related to “a classifier / suffix” is a binary feature amount indicating the presence of the part of speech for all the classifiers and suffixes in the question sentence obtained by morphological analysis of the question sentence. Also, a feature amount indicating the presence of a standard form of a word whose part of speech is a classifier or a suffix is added. Furthermore, when a semantic attribute is given to a word whose part of speech is a classifier or a suffix, the feature quantity indicating the existence of each semantic attribute and the presence of the semantic attribute in the fourth layer of the given semantic attribute are displayed. The feature quantity to represent is also added. Classifiers (“people”, “sheets”, “books”, etc.) and suffixes (“president”, “director”, “sama”, etc.) are not content words such as nouns and verbs. However, these are effective as a clue to distinguish whether the question is asking for the number of people, asking for the number of sheets, asking for the number of people, or asking for the name of the person. It is used as
「最後の助数詞・接尾辞」に関する特徴量は、質問文を形態素解析して得られる品詞の系列において質問文の最後に出現する助数詞または接尾辞(以下、「最後の助数詞・接尾辞」という)は、回答タイプに直結している可能性が高いということに基づいて、最後の助数詞・接尾辞について抽出される特徴量である。具体的には、「助数詞・接尾辞」に関する特徴量と同様の特徴量を抽出するが、特徴量名に、「最後の助数詞・接尾辞」に関する特徴量であることを示すプレフィクスを付加した特徴量とする。 The feature quantity related to the “last classifier / suffix” is the classifier or suffix that appears at the end of the question sentence in the part-of-speech series obtained by morphological analysis of the question sentence (hereinafter referred to as the “last classifier / suffix”). Is a feature amount extracted for the last classifier / suffix based on the fact that there is a high possibility of being directly connected to the answer type. Specifically, the same feature quantity as the feature quantity related to “a classifier / suffix” is extracted, but a prefix indicating that the feature quantity is related to “the last classifier / suffix” is added to the feature quantity name. The feature value.
「最後の名詞」に関する特徴量は、質問文に出現する最後の名詞(以下、「最後の名詞」という)は、上記の最後の助数詞・接尾辞と同様に、回答タイプに直結している可能性が高いということに基づいて、最後の名詞について抽出される特徴量である。例えば、「○○で有名な侍は?」や「○○事件の芸者は?」といった質問文の最後に出現する名詞である「侍」や「芸者」が、それぞれ人物の下位概念であるということが判別できれば、人名という回答タイプを推定するために有効である。そこで、最後の名詞の意味属性を特徴量として用いるものである。具体的には、最後の名詞に付与されている意味属性のそれぞれについて、日本語語彙大系の階層をルートまでたどる経路における途中の意味属性全てについて、その存在を表す特徴量を抽出する。 As for the feature value related to “last noun”, the last noun appearing in the question sentence (hereinafter referred to as “last noun”) may be directly linked to the answer type, similar to the last classifier / suffix above. This is a feature amount extracted for the last noun based on its high nature. For example, the nouns “侍” and “Geisha” appearing at the end of questions such as “Who is famous for XX?” And “What is the Geisha in XX case?” Are subordinate concepts of people. If it can be determined, it is effective for estimating the answer type of the person name. Therefore, the semantic attribute of the last noun is used as a feature amount. Specifically, for each semantic attribute assigned to the last noun, a feature quantity representing the presence of all the semantic attributes in the middle of the path following the hierarchy of the Japanese vocabulary system to the root is extracted.
「最後の名詞の文字」に関する特徴量は、最後の名詞の最後の文字も回答タイプの推定に重要な情報となることに基づいて抽出される、最後の名詞の最後の文字の存在を表す特徴量である。例えば、図2の「田中社長は何才」の例であれば、最後の名詞「何才」の最後の文字「才」が抽出され、その値が1となる。 The feature value for “Last Noun Character” is a feature that represents the presence of the last character of the last noun that is extracted based on the fact that the last character of the last noun is also important information for estimating the answer type. Amount. For example, in the example of “How old is President Tanaka” in FIG. 2, the last letter “age” of the last noun “what age” is extracted, and the value becomes 1.
なお、本実施の形態では、「最後の名詞」及び「最後の名詞の文字」に関する特徴量として、「名詞」に着目する場合について説明したが、語彙的意味を表す語である内容語であれば同様の特徴量として扱うことができる。 In the present embodiment, the case where attention is paid to “noun” as the feature amount related to “last noun” and “letter of last noun” has been described. However, the content word may be a word representing lexical meaning. Can be treated as similar feature quantities.
「名詞・固有名詞・用言属性」に関する特徴量は、質問文中に含まれる様々な内容を情報として生かすために抽出される特徴量で、質問文中に含まれる単語に付与された意味属性の全てについて、その存在を表す特徴量である。図2の「田中社長は何才」の例であれば、N−5、N−362、P−67、N−323、N−269、N−2595、N−2589という特徴量が抽出され、それぞれの値が1となる。ここで、N−というのは名詞意味属性に付加されるプレフィクスであり、P−は固有名詞の意味属性に付加されるプレフィクスである。 Features related to “nouns / proprietary nouns / property attributes” are feature values extracted to make use of various contents contained in the question sentence as information, and all of the semantic attributes given to the words included in the question sentence Is a feature amount representing the presence of the. In the example of “How old is President Tanaka” in FIG. 2, feature quantities N-5, N-362, P-67, N-323, N-269, N-2595, N-2589 are extracted, Each value is 1. Here, N- is a prefix added to the noun semantic attribute, and P- is a prefix added to the semantic attribute of the proper noun.
モデル学習部14は、各正解データの質問文から生成された特徴量ベクトルと、各正解データに付与された正解の回答タイプを示す正解ラベルとの対応付けを行う回答タイプモデル20を学習する。具体的には、全部でL個の回答タイプがあるとき、ある質問文から生成された特徴量ベクトルについて、その質問文の正解の回答タイプに対するスコアが、他の回答タイプに対するスコアよりも高くなるような重みを学習する。L個の回答タイプに対応するL個の重みベクトルが学習され、当該特徴量ベクトルについて、各回答タイプに対応する重みベクトルを掛け合わせてスコアを求めたとき、正解の回答タイプに対応する重みベクトルを用いたスコアが最も高くなるように、重みベクトルを学習する。 The model learning unit 14 learns the answer type model 20 that associates the feature amount vector generated from the question sentence of each correct answer data with the correct answer label indicating the correct answer type given to each correct answer data. Specifically, when there are L answer types in total, the score for the correct answer type of the question sentence is higher than the score for the other answer types for the feature amount vector generated from the question sentence. Learn such weights. When L weight vectors corresponding to L answer types are learned and a score is obtained by multiplying the feature vector by the weight vector corresponding to each answer type, the weight vector corresponding to the correct answer type The weight vector is learned so that the score using is the highest.
このような学習は、SVMを多クラス問題に拡張した、マルチクラスSVMを用いることで可能である。本実施の形態では、マルチクラスSVMを用い、回答タイプの対応付けを学習する。マルチクラスSVMには、線形のカーネルを用いる。ここでは、200種類の回答タイプが存在するため、200の重みベクトルを学習し、この重みベクトルの集合を回答タイプモデル20として生成する。 Such learning is possible by using a multi-class SVM that is an extension of the SVM to a multi-class problem. In the present embodiment, multi-class SVM is used to learn response type association. For multi-class SVMs, a linear kernel is used. Here, since there are 200 types of answer types, 200 weight vectors are learned, and a set of weight vectors is generated as the answer type model 20.
推定部12は、入力された推定対象質問文に対して、回答タイプモデル20に基づいて、回答タイプを推定する。 The estimation unit 12 estimates the answer type based on the answer type model 20 for the input estimation target question sentence.
特徴量抽出部13は、学習部11で説明したのと同様に、推定対象質問文から上記の特徴量を抽出して、特徴量ベクトルを生成する。 As described in the learning unit 11, the feature amount extraction unit 13 extracts the feature amount from the estimation target question sentence and generates a feature amount vector.
回答タイプ推定部15は、モデル学習部14で生成された回答タイプモデル20に含まれる各重みベクトルと、特徴量抽出部13で生成された特徴量ベクトルとを掛け合わせることで、200種類の回答タイプの各々についてのスコアを求める。求めたスコアが最も高くなった重みベクトルに対応する回答タイプから順に回答タイプを並び替え、スコア順に上位M件の回答タイプを推定結果として出力する。 The answer type estimation unit 15 multiplies each weight vector included in the answer type model 20 generated by the model learning unit 14 and the feature amount vector generated by the feature amount extraction unit 13 to obtain 200 types of responses. Find the score for each type. The answer types are rearranged in order from the answer type corresponding to the weight vector having the highest obtained score, and the top M answer types are output as estimation results in the order of score.
次に、第1の実施の形態に係る回答タイプ推定装置10の作用について説明する。学習段階において、複数の正解データが回答タイプ推定装置10に入力されると、学習部11において、図3に示す学習処理ルーチンが実行される。また、推定段階において、推定対象質問文が回答タイプ推定装置10に入力されると、推定部12において、図4に示す学習処理ルーチンが実行される。以下、各処理について詳述する。 Next, the operation of the answer type estimation device 10 according to the first embodiment will be described. When a plurality of correct answer data is input to the answer type estimation device 10 in the learning stage, the learning processing routine shown in FIG. Further, when the estimation target question sentence is input to the answer type estimation device 10 in the estimation stage, the estimation processing unit 12 executes a learning process routine shown in FIG. Hereinafter, each process is explained in full detail.
まず、学習処理ルーチンでは、ステップ100で、特徴量抽出部13が、入力された複数の正解データを取得し、次に、ステップ102で、各正解データの質問文から上記の特徴量を抽出して、各特徴量を要素とする特徴量ベクトルを生成する。 First, in the learning processing routine, in step 100, the feature amount extraction unit 13 acquires a plurality of input correct answer data, and then in step 102, extracts the feature amount from the question sentence of each correct answer data. Thus, a feature quantity vector having each feature quantity as an element is generated.
次に、ステップ104で、モデル学習部14が、正解データに含まれる正解ラベルの各々と、上記ステップ102で生成された特徴量ベクトルの各々との対応付けを学習して、回答タイプモデル20を生成する。生成した回答タイプモデル20を所定の記憶領域に記憶して、学習処理ルーチンを終了する。 Next, in step 104, the model learning unit 14 learns the correspondence between each of the correct answer labels included in the correct answer data and each of the feature quantity vectors generated in step 102, so that the answer type model 20 is obtained. Generate. The generated answer type model 20 is stored in a predetermined storage area, and the learning processing routine is terminated.
次に、推定処理ルーチンでは、ステップ110で、特徴量抽出部13が、入力された推定対象質問文を取得し、次に、ステップ112で、上記ステップ102と同様に、推定対象質問文の特徴量ベクトルを生成する。 Next, in the estimation processing routine, in step 110, the feature amount extraction unit 13 acquires the input estimation target question sentence. Next, in step 112, as in step 102, the feature of the estimation target question sentence is acquired. Generate a quantity vector.
次に、ステップ114で、回答タイプ推定部15が、回答タイプモデル20と、上記ステップ112で生成された特徴量ベクトルとに基づいて、回答タイプ毎のスコアを求めて、スコア順に上位M件の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。 Next, in step 114, the answer type estimation unit 15 obtains a score for each answer type based on the answer type model 20 and the feature vector generated in step 112, and the top M items in order of score. The answer type is output as the estimation result, and the estimation processing routine is terminated.
以上説明したように、第1の実施の形態に係る回答タイプ推定装置10によれば、特徴量として、文字Nグラム、助数詞・接尾辞、最後の内容語の意味属性、及び最後の内容語の最後の文字に関する特徴量を用いた詳細な情報を利用することで、回答タイプの種類が多い場合でも高精度に回答タイプを分類することができるため、質問文に対する回答タイプを詳細に推定することができる。その結果、質問に対する回答をピンポイントに出力できるようになり、ユーザの知的活動の効率を高めることができる。 As described above, according to the answer type estimation device 10 according to the first embodiment, the character N-gram, the classifier / suffix, the semantic attribute of the last content word, and the last content word By using detailed information using the feature value related to the last character, it is possible to classify the answer types with high accuracy even when there are many types of answer types. Can do. As a result, the answer to the question can be output to the pinpoint, and the efficiency of the user's intellectual activity can be improved.
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、第1の実施の形態に係る回答タイプ推定装置10と同様の構成については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In addition, about the structure similar to the answer type estimation apparatus 10 which concerns on 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
図5に示すように、第2の実施の形態に係る回答タイプ推定装置210を構成するコンピュータは、機能的には、学習部211と推定部212とを含んだ構成で表すことができ、学習部211はさらに、特徴量抽出部13と、第1モデル学習部14aと、第2モデル学習部14bとを含んだ構成で表すことができ、推定部212はさらに、特徴量抽出部13と、第1回答タイプ推定部15aと、第2回答タイプ推定部15bとを含んだ構成で表すことができる。 As shown in FIG. 5, the computer constituting the answer type estimation device 210 according to the second embodiment can be functionally represented by a configuration including a learning unit 211 and an estimation unit 212. The unit 211 can be further represented by a configuration including the feature amount extraction unit 13, the first model learning unit 14a, and the second model learning unit 14b, and the estimation unit 212 further includes the feature amount extraction unit 13, It can be expressed by a configuration including a first answer type estimation unit 15a and a second answer type estimation unit 15b.
第1モデル学習部14aは、複数の正解データを用いて、推定対象質問文が上述の13種類の回答タイプのいずれであるかを推定するための第1回答タイプモデル20aを生成する。学習の方法は、第1の実施の形態におけるモデル学習部14と同様である。 The 1st model learning part 14a produces | generates the 1st answer type model 20a for estimating which of the above-mentioned 13 types of answer types is using the some correct answer data. The learning method is the same as that of the model learning unit 14 in the first embodiment.
第2モデル学習部14bは、複数の正解データを用いて、推定対象質問文が上述の200種類の回答タイプのいずれであるかを推定するための第2回答タイプモデル20bを生成する。すなわち、第2モデル学習部14bは第1の実施の形態におけるモデル学習部14と同じであり、第2回答タイプモデル20bは第1の実施の形態における回答タイプモデル20と同じである。 The second model learning unit 14b generates a second answer type model 20b for estimating which of the 200 types of answer types described above using the plurality of correct answer data. That is, the second model learning unit 14b is the same as the model learning unit 14 in the first embodiment, and the second answer type model 20b is the same as the answer type model 20 in the first embodiment.
なお、第1モデル学習部14aで用いる正解データは、13種類の回答タイプに対応した正解ラベルを含んでおり、第2モデル学習部14bで用いる正解データは、200種類の回答タイプに対応した正解ラベルを含んでいる。これら13種類の回答タイプと200種類の回答タイプとの対応関係は予め定められている。 The correct answer data used in the first model learning unit 14a includes correct answer labels corresponding to 13 types of answer types, and the correct answer data used in the second model learning unit 14b is correct answers corresponding to 200 types of answer types. Contains a label. Correspondences between these 13 types of responses and 200 types of responses are predetermined.
第1回答タイプ推定部15aは、第1回答タイプモデル20aと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の回答タイプを推定する。推定の方法は、第1の実施の形態における回答タイプ推定部15と同様である。ここで推定される回答タイプは、上述の13種類の回答タイプのいずれかであり、これを上位階層の回答タイプという。 The first answer type estimation unit 15a estimates the answer type of the estimation target question sentence using the first answer type model 20a and the feature quantity vector of the estimation target question sentence. The estimation method is the same as that of the answer type estimation unit 15 in the first embodiment. The answer type estimated here is one of the above-mentioned 13 answer types, and this is referred to as an upper-layer answer type.
また、第1回答タイプ推定部15aは、推定した上位階層の回答タイプがファクトイド型質問の回答タイプであった場合は、推定結果及び特徴量ベクトルを第2回答タイプ推定部15bへ受け渡す。また、推定した上位階層の回答タイプがノンファクトイド型質問の回答タイプであった場合は、上位階層の回答タイプ毎のスコア順に上位M件までの上位階層の回答タイプを推定結果として出力する。なお、ファクトイド型かノンファクトイド型かの判別は、上位階層の回答タイプ毎のスコアが最大の上位階層の回答タイプがいずれであるかによって行うことができる。 Further, the first answer type estimation unit 15a delivers the estimation result and the feature quantity vector to the second answer type estimation unit 15b when the estimated answer type of the upper hierarchy is the answer type of the factoid type question. If the estimated upper-layer answer type is a non-factoid type answer type, the upper-layer answer types up to the top M are output as estimation results in the order of scores for each upper-layer answer type. Whether the type is a factoid type or a non-factoid type can be determined based on which of the upper-layer answer types has the highest score for each upper-layer answer type.
第2回答タイプ推定部15bは、第2回答タイプモデル20bと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の回答タイプを推定する。推定の方法は、第1の実施の形態における回答タイプ推定部15と同様である。ここで推定される回答タイプは、上述の200種類の回答タイプのいずれかであり、これを下位階層の回答タイプという。 The second answer type estimation unit 15b estimates the answer type of the estimation target question sentence using the second answer type model 20b and the feature amount vector of the estimation target question sentence. The estimation method is the same as that of the answer type estimation unit 15 in the first embodiment. The answer type estimated here is one of the above-mentioned 200 answer types, and this is referred to as a lower-layer answer type.
また、第2回答タイプ推定部15bは、下位階層の回答タイプを推定する際に、上位階層の回答タイプの推定結果を制約として用いる。例えば、上位階層の回答タイプの推定結果が「数量:日付」の場合には、下位階層の回答タイプの推定結果が、日付に関するものからのみ選ばれるようにする。 Further, the second answer type estimation unit 15b uses the estimation result of the upper hierarchy answer type as a constraint when estimating the lower hierarchy answer type. For example, when the estimation result of the answer type of the upper hierarchy is “quantity: date”, the estimation result of the answer type of the lower hierarchy is selected only from those related to the date.
次に、第2の実施の形態に係る回答タイプ推定装置210の作用について説明する。学習処理ルーチンについては、第1モデル学習部14a及び第2モデル学習部14bの各々において、第1の実施の形態における学習処理ルーチンと同様の処理を行うものであるため、説明を省略する。以下、図6を参照して、推定処理ルーチンについて説明する。なお、第1の実施の形態における推定処理ルーチンと同一の処理については、同一符号を付して詳細な説明を省略する。 Next, the operation of the answer type estimation device 210 according to the second embodiment will be described. The learning process routine is the same as the learning process routine in the first embodiment in each of the first model learning unit 14a and the second model learning unit 14b, and thus the description thereof is omitted. Hereinafter, the estimation processing routine will be described with reference to FIG. In addition, about the process same as the estimation process routine in 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
ステップ110及び112で、特徴量抽出部13が、推定対象質問文の特徴量ベクトルを生成する。 In steps 110 and 112, the feature amount extraction unit 13 generates a feature amount vector of the estimation target question sentence.
次に、ステップ200で、第1回答タイプ推定部15aが、第1回答タイプモデル20aと、推定対象質問文の特徴量ベクトルとを用いて、推定対象質問文の上位階層の回答タイプを推定する。 Next, in step 200, the first answer type estimation unit 15a estimates the answer type of the upper hierarchy of the estimation target question sentence using the first answer type model 20a and the feature quantity vector of the estimation target question sentence. .
次に、ステップ202で、第1回答タイプ推定部15aが、上記ステップ200で推定した上位階層の回答タイプがファクトイド型かノンファクトイド型かを判定する。ノンファクトイド型の場合には、ステップ204へ移行し、第1回答タイプ推定部15aが、スコア順に上位M件の上位階層の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。 Next, in Step 202, the first answer type estimation unit 15a determines whether the answer type of the higher hierarchy estimated in Step 200 is a factoid type or a non-factoid type. In the case of the non-factoid type, the process proceeds to step 204, where the first answer type estimation unit 15a outputs the upper M answer types in the higher order in the score order as the estimation result, and ends the estimation processing routine.
一方、ステップ202でファクトイド型と判定された場合には、ステップ206へ移行し、第2回答タイプ推定部15bが、第2回答タイプモデル20bと、推定対象質問文の特徴量ベクトルとを用いて、上記ステップ200の推定結果の制約の下、推定対象質問文の下位階層の回答タイプを推定し、スコア順に上位M件の下位階層の回答タイプを推定結果として出力して、推定処理ルーチンを終了する。 On the other hand, if the factoid type is determined in step 202, the process proceeds to step 206, where the second answer type estimation unit 15b uses the second answer type model 20b and the feature quantity vector of the estimation target question sentence. Under the restriction of the estimation result in step 200, the answer type in the lower hierarchy of the estimation target question sentence is estimated, the answer types in the upper M lower hierarchy are output as the estimation result in order of score, and the estimation processing routine is terminated. To do.
以上説明したように、第2の実施の形態に係る回答タイプ推定装置210によれば、第1の実施の形態の効果に加え、上位階層の回答タイプの推定結果を下位階層の回答タイプを推定する際の制約として、階層的に回答タイプを推定することで、回答タイプの推定精度を向上させることができる。 As described above, according to the answer type estimation device 210 according to the second embodiment, in addition to the effects of the first embodiment, the estimation result of the upper hierarchy answer type is estimated as the lower hierarchy answer type. As a constraint when doing so, it is possible to improve the accuracy of estimating the answer type by hierarchically estimating the answer type.
ここで、本実施の形態で用いた特徴量の有効性を確認した実験について説明する。本実験では、手持ちの質問文について200種類の回答タイプが付与されたデータから、5分割交差検定を用いた。評価尺度は、最上位に推定された回答タイプが正解である質問の割合を用いた。その結果、上記特徴量を用いない場合は、精度が81.80%であったのに対し、上記特徴量を用いた場合には、85.22%に改善されることが分かった。よって、本実施の形態で用いた特徴量の有効性が確認できた。 Here, an experiment for confirming the effectiveness of the feature amount used in the present embodiment will be described. In this experiment, a five-fold cross-validation was used from data in which 200 types of answer types were assigned to a question sentence on hand. The evaluation scale used was the percentage of questions with the correct answer type estimated at the top. As a result, it was found that when the feature amount was not used, the accuracy was 81.80%, whereas when the feature amount was used, the accuracy was improved to 85.22%. Therefore, the effectiveness of the feature amount used in the present embodiment was confirmed.
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、上記実施の形態では、学習部と推定部とを1つのコンピュータで構成する場合について説明したが、別々のコンピュータで構成するようにしてもよい。 For example, although the case where the learning unit and the estimation unit are configured by one computer has been described in the above embodiment, the learning unit and the estimation unit may be configured by separate computers.
また、上述の回答タイプ推定装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。 Moreover, although the above-mentioned answer type estimation apparatus has a computer system inside, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. .
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。また、本発明は、周知のコンピュータに媒体もしくは通信回線を介して、プログラムをインストールすることによっても実現可能である。 In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium. The present invention can also be realized by installing a program on a known computer via a medium or a communication line.
10、210 回答タイプ推定装置
11、211 学習部
12、212 推定部
13 特徴量抽出部
14 モデル学習部
15 回答タイプ推定部
10, 210 Answer type estimation device 11, 211 Learning unit 12, 212 Estimation unit 13 Feature amount extraction unit 14 Model learning unit 15 Answer type estimation unit
Claims (5)
質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する回答タイプ推定手段と、
を含む回答タイプ推定装置。 From a question sentence in natural language, at least one of a letter N-gram, a classifier, a suffix, a semantic attribute of a content word appearing at the end of the question sentence, and a last character of the content word appearing at the end of the question sentence A feature quantity extracting means for extracting a feature quantity;
The feature amount extracted from each of the plurality of learning question sentences to which the correct answer of the answer type indicating the type of answer to the question sentence, and each of the answer types provided to each of the plurality of learning question sentences An answer that estimates the answer type of the estimation target question sentence based on the answer type model that learned the association with the feature quantity and the feature quantity extracted by the feature quantity extraction means from the estimation target question sentence whose answer type is unknown Type estimation means;
Answer type estimation device.
前記回答タイプ推定手段は、前記第1回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の上位階層の回答タイプを推定し、前記第2回答タイプモデルと前記推定対象質問文から抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプとして、前記上位階層の回答タイプの推定結果により制約された下位階層の回答タイプを推定する請求項1記載の回答タイプ推定装置。 The answer type model includes a first answer type model and a second answer type model in which the estimated answer type is greater than the first answer type model,
The answer type estimating means estimates an answer type of an upper hierarchy of the estimation target question sentence based on the first answer type model and a feature amount extracted from the estimation target question sentence, and the second answer type A lower layer answer type constrained by an estimation result of the upper layer answer type is estimated as an answer type of the estimation target question sentence based on a model and a feature amount extracted from the estimation target question sentence Item 1. An answer type estimation device according to item 1.
回答タイプ推定手段が、質問文に対する回答の種類を示す回答タイプの正解が付与された複数の学習用質問文の各々から抽出された前記特徴量と、前記複数の学習用質問文の各々に付与された回答タイプの各々との対応付けを学習した回答タイプモデルと、回答タイプが未知の推定対象質問文から前記特徴量抽出手段により抽出された特徴量とに基づいて、前記推定対象質問文の回答タイプを推定する
回答タイプ推定方法。 The feature quantity extracting means extracts a character N-gram, a classifier, a suffix, a semantic attribute of a content word appearing at the end of the question sentence, and a last of the content word appearing at the end of the question sentence from a question sentence in a natural language. Extracting features for at least one of the characters,
The answer type estimating means gives the feature amount extracted from each of the plurality of learning question sentences to which the correct answer of the answer type indicating the type of answer to the question sentence is given, and is given to each of the plurality of learning question sentences Of the estimation target question sentence based on the answer type model that has learned the correspondence with each of the answer types that have been determined and the feature quantity extracted by the feature quantity extraction means from the estimation target question sentence whose answer type is unknown Answer type estimation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012127052A JP5591871B2 (en) | 2012-06-04 | 2012-06-04 | Answer type estimation apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012127052A JP5591871B2 (en) | 2012-06-04 | 2012-06-04 | Answer type estimation apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013250925A true JP2013250925A (en) | 2013-12-12 |
JP5591871B2 JP5591871B2 (en) | 2014-09-17 |
Family
ID=49849495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012127052A Active JP5591871B2 (en) | 2012-06-04 | 2012-06-04 | Answer type estimation apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5591871B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107807933A (en) * | 2016-09-09 | 2018-03-16 | 阿里巴巴集团控股有限公司 | A kind of answering method and device for puing question to |
JP2018180938A (en) * | 2017-04-13 | 2018-11-15 | 日本電信電話株式会社 | Answer candidate generation apparatus, method, and program |
WO2019077656A1 (en) * | 2017-10-16 | 2019-04-25 | 富士通株式会社 | Production facility monitoring device, production facility monitoring method, and production facility monitoring program |
CN113342950A (en) * | 2021-06-04 | 2021-09-03 | 北京信息科技大学 | Answer selection method and system based on semantic union |
US11322035B2 (en) | 2018-02-23 | 2022-05-03 | Toyota Jidosha Kabushiki Kaisha | Information processing method, storage medium, information processing device, and information processing system |
JP2022145684A (en) * | 2021-02-03 | 2022-10-04 | プライマル フュージョン インコーポレイテッド | System and method for using knowledge representation with machine learning classifier |
WO2023170810A1 (en) * | 2022-03-09 | 2023-09-14 | 日本電気株式会社 | Information processing device, information processing method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244262A (en) * | 2005-03-04 | 2006-09-14 | Nec Corp | Retrieval system, method and program for answer to question |
-
2012
- 2012-06-04 JP JP2012127052A patent/JP5591871B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244262A (en) * | 2005-03-04 | 2006-09-14 | Nec Corp | Retrieval system, method and program for answer to question |
Non-Patent Citations (1)
Title |
---|
磯崎 秀樹,東中 竜一郎,永田 昌明,加藤 恒昭, 質問応答システム 初版, vol. 第1版ISBN:978-4-339-02752-5, JPN6014002661, 21 August 2009 (2009-08-21), JP, pages 68 - 69, ISSN: 0002857793 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107807933A (en) * | 2016-09-09 | 2018-03-16 | 阿里巴巴集团控股有限公司 | A kind of answering method and device for puing question to |
JP2018180938A (en) * | 2017-04-13 | 2018-11-15 | 日本電信電話株式会社 | Answer candidate generation apparatus, method, and program |
WO2019077656A1 (en) * | 2017-10-16 | 2019-04-25 | 富士通株式会社 | Production facility monitoring device, production facility monitoring method, and production facility monitoring program |
JPWO2019077656A1 (en) * | 2017-10-16 | 2020-07-30 | 富士通株式会社 | Production equipment monitoring device, production equipment monitoring method, and production equipment monitoring program |
US11650579B2 (en) | 2017-10-16 | 2023-05-16 | Fujitsu Limited | Information processing device, production facility monitoring method, and computer-readable recording medium recording production facility monitoring program |
US11322035B2 (en) | 2018-02-23 | 2022-05-03 | Toyota Jidosha Kabushiki Kaisha | Information processing method, storage medium, information processing device, and information processing system |
JP2022145684A (en) * | 2021-02-03 | 2022-10-04 | プライマル フュージョン インコーポレイテッド | System and method for using knowledge representation with machine learning classifier |
JP7384968B2 (en) | 2021-02-03 | 2023-11-21 | プライマル フュージョン インコーポレイテッド | Systems and methods for using knowledge representations with machine learning classifiers |
CN113342950A (en) * | 2021-06-04 | 2021-09-03 | 北京信息科技大学 | Answer selection method and system based on semantic union |
CN113342950B (en) * | 2021-06-04 | 2023-04-21 | 北京信息科技大学 | Answer selection method and system based on semantic association |
WO2023170810A1 (en) * | 2022-03-09 | 2023-09-14 | 日本電気株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5591871B2 (en) | 2014-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Anandarajan et al. | Text preprocessing | |
Rao | Contextual sentiment topic model for adaptive social emotion classification | |
JP5591871B2 (en) | Answer type estimation apparatus, method, and program | |
Razavi et al. | Offensive language detection using multi-level classification | |
JP5431532B2 (en) | Question answering apparatus, model learning apparatus, method, and program | |
Donato et al. | Investigating redundancy in emoji use: Study on a twitter based corpus | |
Ghosh et al. | Natural language processing fundamentals: build intelligent applications that can interpret the human language to deliver impactful results | |
Karanikolas et al. | Large language models versus natural language understanding and generation | |
Syed et al. | Associating targets with SentiUnits: a step forward in sentiment analysis of Urdu text | |
Dawdy-Hesterberg et al. | Learnability and generalisation of Arabic broken plural nouns | |
Reganti et al. | Modeling satire in English text for automatic detection | |
Padmaja et al. | Evaluating sentiment analysis methods and identifying scope of negation in newspaper articles | |
Etaiwi et al. | Statistical Arabic name entity recognition approaches: A survey | |
JP2006004399A (en) | Information extraction program, its recording medium, information extraction device and information extraction rule creation method | |
Sheikha et al. | Learning to classify documents according to formal and informal style | |
Das et al. | Sentiment analysis of movie reviews using POS tags and term frequencies | |
da Rocha et al. | A text as unique as a fingerprint: Text analysis and authorship recognition in a Virtual Learning Environment of the Unified Health System in Brazil | |
Lin et al. | Tourism-related opinion detection and tourist-attraction target identification | |
Trivedi et al. | Capturing user sentiments for online Indian movie reviews: A comparative analysis of different machine-learning models | |
KR101265467B1 (en) | Method for extracting experience and classifying verb in blog | |
Wang et al. | What is your Mother Tongue?: Improving Chinese native language identification by cleaning noisy data and adopting BM25 | |
Beliga et al. | Non-standard words as features for text categorization | |
Fritzner | Automated information extraction in natural language | |
Ezeani et al. | Introducing the Welsh text summarisation dataset and baseline systems | |
JP2007241900A (en) | Naming system and naming automation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5591871 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |