JP4008313B2 - Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program - Google Patents
Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program Download PDFInfo
- Publication number
- JP4008313B2 JP4008313B2 JP2002253853A JP2002253853A JP4008313B2 JP 4008313 B2 JP4008313 B2 JP 4008313B2 JP 2002253853 A JP2002253853 A JP 2002253853A JP 2002253853 A JP2002253853 A JP 2002253853A JP 4008313 B2 JP4008313 B2 JP 4008313B2
- Authority
- JP
- Japan
- Prior art keywords
- question type
- question
- program
- learning
- recording medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は質問タイプ学習方法、装置、プログラム、および同プログラムを記録した記録媒体、ならびに質問タイプ同定方法、装置、プログラム、および同プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
近年、情報検索/抽出、計算機との対話、質問応答など、人間から計算機に対して自然文で質問して計算機に解答させる技術が使用される場面が増えてきている。質問タイプ同定とは、質問が与えられたときに、その質問が「何を訊いているのか」という意図を解析することである。質問タイプは、質問の意図を表すクラスであり、質問の意図を解析することは、質問タイプを同定する分類問題と捉えることができることから、質問タイプ同定と呼ぶ。
【0003】
計算機にとって人間が与える質問の意図を理解するのは非常に難しい問題である。人間と同様に、計算機にとっても、与えられた質問の意図を的確に理解できないと、質問に答えることはできない。
【0004】
従来、質問のパターンを限定し意味的制約のもとで解析を行う手法、人手によりルールを作成する方法などが提案されている。意味制約を用いる方法は、各質問タイプを表す表現を事前に決定しておき、その表現にあった質問しか受け付けられないという問題がある。ルールによる方法の場合は、質問文に出現する表現をルールに変換することで理論上は、多種多様な表現の質問を扱うことが可能であるが、ルールを作成するのに人手が非常にかかる点が問題となる。また、仮にコストをかけて作成する場合でも、様々なパラメータを調整し最適な同定ルールを決定するのは極めて困難である。
【0005】
このような問題を解決する一つの方法として、機械学習方法を用いて学習サンプルから自動で質問タイプの同定方法を学習する方法がある。機械学習方法では、その問題で分類すべき対象の特徴である「素性」を抽出し、その素性の集合を用いて分類器を学習するという手順で問題に適用する。
【0006】
【発明が解決しようとする課題】
このような機械学習方法では、素性の数が重要な要素となる。本発明で取り扱う質問タイプ同定問題は、質問の意図を判別する問題であるため、高精度な識別を行うためには多種多様な情報が必要となる。特に、質問文中にどのような単語が出現するかという情報と、出現した単語同士がどのような関係で使われているかという情報が重要になる。つまり、質問タイプ同定問題は、質問タイプを特徴付けるために必要な素性数は非常に多くなる。機械学習方法では、学習サンプルが無限に存在するならば、素性数が多くなっても問題にはならないが、実際には学習サンプルは限られた数しか存在しないため、学習サンプル数に対して素性数が多いと、学習サンプルに対して過学習してしまい、未知のデータに対しての精度が低くなるという問題がある。
【0007】
一般的に、機械学習方法をもちいる場合は、分類を行うのに最も有効であると考えられる必要最小限の素性のみを用いることが望ましい。しかし、質問タイプ同定では、素性の集合の中で、実際にどれが有効であるかを人間が直観的に判断するのは非常に難しい。このため、分類を行うのに最も有効であると考えられる必要最小限の素性を抽出するのは非常に困難であり、従来提案されている機械学習方法をそのまま適用すると高精度な分類器が学習できないという問題がある。
【0008】
本発明の目的は、質問タイプ同定のための高精度な分類器を構成する質問タイプ学習方法、装置、プログラム、同プログラムを記録した記録媒体および学習データを記録した記録媒体を提供することにある。
【0009】
本発明の他の目的は、前記分類器を用いて未知の質問から質問タイプを同定する質問タイプ同定方法、装置、プログラム、および記録媒体を提供することにある。
【0010】
【課題を解決するための手段】
まず、特徴抽出部により、質問の学習サンプルから質問タイプを特徴付ける素性を抽出する。質問タイプを特徴付ける素性を抽出する方法として、単語属性N−gramを用いる。単語属性とは、単語、品詞、意味情報のことであり、N−gramとは、それらの連鎖を意味する。
【0011】
この単語属性N−gramを用いることにより、質問タイプを特徴付ける素性を自動的に、かつ、網羅的に抽出することができる。例えば、人手により有効と考えられる素性を列挙する場合に比べてタイプを特徴付ける素性を効率的に抽出できる。
【0012】
表1に単語属性N−gramの例を示す。
【0013】
【表1】
w,p,sはそれぞれ単語、品詞、意味情報を表し、質問はw1,w2,...,wnで構成されているとする。この場合、抽出される特徴は、単語属性N−gramに基づき、表2のようになる。ここで、N−gramの要素が1つのものを1−gram、要素が2つの連鎖を2−gramと呼び、以下、要素3を3−gram、要素4を4−gram、...と呼ぶ。
【0014】
【表2】
ここで、抽出された一つの単語属性の連鎖が一つの素性となる。
【0015】
次に、素性ベクトル作成部により、単語属性N−gramにより抽出された素性から素性空間を構成し、各質問を素性ベクトルに変換する。最後に、分類器構成部により、抽出された特徴と質問の学習サンプルから、大量の素性を用いても高精度な分類器を学習可能な統計的機械学習方法を用いて学習する。サンプル数に対して素性数が多い問題でも、高精度な分類器を学習できる機械学習手法としてSupport Vector Machine(参考文献:V.Vapnik, The Nature of Statistical Learning Theory. Spring-Verlag, New York, 1995. 参照)を用いる。
【0016】
学習時のSupport Vector Machineの入力は、クラスラベルと素性ベクトルのペアで表される。
【0017】
【数1】
ここで、
【0018】
【外1】
はi番目のサンプルの特徴ベクトルでn次元ベクトルであり、yiはサンプルiのクラスを表すスカラー変数である。ただし、Support Vector Machineは二クラス分類器なので、分類すべきクラスは正例(+1)、負例(−1)の2つである。
【0019】
学習サンプルの例を表3に示す。このような学習サンプルは記録媒体に記録して質問タイプの同定の際に利用することが可能であり、データのみ流通させることができる。
【0020】
【表3】
素性数nの場合は、n次元の素性空間を考えることにより、各質問から作成される素性ベクトルはn次元素性空間の一点を表すことになる。Support Vector Machineは、図3のように、n次元素性空間内で、2クラスを分離する超平面のうち、2クラス間のマージンが最大になる平面を最適識別平面として選択する学習手法である。
【0021】
また、Support Vector Machineは二クラス分類器であるので、多クラス分類手法を用いて適用する。多クラス分類手法としては、例えばone vs.rest法があり、分類対象となるクラスがn個存在するとき、任意の1クラスとそれ以外のn−1クラスを分類する分類器をn個作成することで、二クラス分類器で多クラスの分類を行う。この場合の識別境界は図4のようになる。
【0022】
最後に、以上のようにして作成された分類器を用いて、未知の質問が入力されたときに、該質問がどの質問タイプかを識別する。これは、未知の質問を表3と同様の方法で素性ベクトルに変換し、Support Vector Machineにより作成した分類器を用いて行う。識別ステップにより決定される質問タイプは、未知の質問から作成される素性ベクトルが素性空間上のどの位置に配置されるかで決定される。
【0023】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0024】
図1(1),(2)はそれぞれ本発明の一実施形態の質問タイプ学習装置、質問タイプ同定装置の構成図である。
【0025】
質問タイプ学習装置は特徴抽出部1と素性ベクトル作成部2と分類器構成部3を有している。質問タイプ同定装置は素性ベクトル作成部4と質問タイプ同定部5を有している。
【0026】
図2は本実施形態の質問タイプ学習装置と質問タイプ同定装置の処理の流れを示すフローチャートである。
【0027】
ステップ11に、特徴抽出部1は、質問の学習サンプルから質問タイプを特徴付ける素性を、単語N−gramを用いて抽出する。ステップ12に、素性ベクトル作成部2は単語属性N−gramにより抽出された素性から素性空間を構成し、各質問を素性ベクトルに変換する。ステップ13に、分類器構成部3は素性ベクトルからSupport Vector Machineを用いて、質問タイプを同定する分類器を構成する。
【0028】
未知の質問が入力されたとき、素性ベクトル作成部4で、未知の質問から質問タイプを特徴づける素性を、単語N-gramを用いて抽出し、抽出された素性を素性ベクトルに変換し、質問タイプ同定部5で、分類器構成部3で作成された分類器を用いて質問タイプを同定する。
【0029】
次に、本実施形態の具体例として、質問応答システムにおいて、質問タイプ同定問題を扱う場合を示す。
【0030】
質問応答システムの場合は、質問タイプは主に解答の種類の分類を表すタイプとなる。例えば、「人名」「地名」「人数」「日時」等である。
【0031】
まず、質問タイプ学習ステップを説明する。
【0032】
質問応答システムの場合の学習サンプルの例として、「日本の首都はどこですか」を考える。この質問は場所を訊いている質問なので、識別すべき質問タイプは「場所」となる。このように、学習サンプルは表4に示すように質問と識別すべき質問タイプのペアで与えられる。
【0033】
【表4】
このような学習サンプルから、各質問タイプを特徴付ける素性を抽出する。まず、質問を単語単位に分割し、各単語に品詞、意味情報を付加する。抽出される単語属性N−gramとは、例えば「日本の首都はどこですか」という質問なら、図5で示すように各単語自身とその品詞、意味情報を要素とした組み合わせの連鎖である。考えられる全ての単語属性N−gramを抽出する。
【0034】
上記の「日本の首都はどこですか」という質問の場合、例えば表5のようになる。
【0035】
【表5】
抽出された単語属性N−gramを素性として、素性空間を作成し、この素性空間を用いて統計的機械学習手法Support Vector Machineを用いて最適識別平面を決定し分類器を作成する。
【0036】
次に、質問タイプ同定ステップについて説明する。
【0037】
これは、Support Vector Machineにより作成された分類器を用いて、新たに入力される未知のサンプルの質問タイプを識別するステップである。
【0038】
入力された未知の質問に対して、素性ベクトルを作成し、出力される質問タイプをその質問の質問タイプと判定する。
【0039】
質問応答システムに適用する場合と同様に、対話システムや情報検索/抽出システムにも、それぞれのシステムに適した質問タイプを事前に決定すれば、それ以外は全く同様の方法で適用することができる。例えば、対話システムの場合で、スケジュール管理のタスクを取り扱っている場合は、質問タイプを「新規のスケジュール入力」「スケジュール変更」「スケジュール確認」等と決めることで適用することが可能である。また、情報検索/抽出システムの場合は、テキスト分類のカテゴリを質問タイプにすることで、検索範囲を限定することが可能になり、より高精度な検索が行えることができるようになる。
【0040】
なお、本発明の質問学習方法および質問タイプ同定方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
【0041】
【発明の効果】
以上説明したように、本発明によれば、質問タイプを特徴付ける単語の属性の構造を抽出する単語属性N−gramと、サンプル数に対して素性数が多い問題設定でも高精度な分類器を学習できる統計的機械学習手法SVM(Support Vector Machine)を組み合わせることにより、高精度な分類器を作成することが可能になり、これにより、質問のサンプルさえ作成すれば、質問タイプ同定のための高精度な分類器が作成可能となる。
【図面の簡単な説明】
【図1】本発明の一実施形態の質問学習装置と質問タイプ同定装置の構成図である。
【図2】図1中の質問学習装置と質問タイプ同定装置の処理を示すフローチャートである。
【図3】Support Vector Machineの概念図である。
【図4】多クラス分類により拡張されたSupport Vector Machineの概念図である。
【図5】単語属性N−gramの抽出例を示す図である。
【符号の説明】
1 特徴抽出部
2 素性ベクトル作成部
3 分類器構成部
4 素性ベクトル作成部
5 質問タイプ同定部
11〜15 ステップ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a question type learning method, apparatus, program, and a recording medium recording the program, and a question type identification method, apparatus, program, and a recording medium recording the program.
[0002]
[Prior art]
In recent years, there have been an increasing number of scenes where techniques such as information retrieval / extraction, dialogue with a computer, question answering, etc., are used to ask a computer a natural sentence and answer the computer. Question type identification refers to analyzing the intent of what a question asks when asked. The question type is a class representing the intention of the question, and analyzing the intention of the question can be regarded as a classification problem for identifying the question type, and hence is called question type identification.
[0003]
It is very difficult for a computer to understand the intention of a human question. Like human beings, a computer cannot answer a question unless it understands the intention of the given question accurately.
[0004]
Conventionally, a method for limiting the question pattern and performing analysis under semantic restrictions, a method for manually creating rules, and the like have been proposed. The method using semantic constraints has a problem that expressions representing each question type are determined in advance, and only questions that match the expressions can be accepted. In the case of the rule method, it is theoretically possible to handle questions with a wide variety of expressions by converting expressions that appear in the question sentence to rules, but it takes a lot of manpower to create the rules. The point becomes a problem. Further, even when the cost is to be created, it is extremely difficult to adjust the various parameters and determine the optimum identification rule.
[0005]
As one method of solving such a problem, there is a method of automatically learning a question type identification method from a learning sample using a machine learning method. In the machine learning method, a “feature” that is a feature of an object to be classified in the problem is extracted, and the classifier is learned using the set of the features and applied to the problem.
[0006]
[Problems to be solved by the invention]
In such a machine learning method, the number of features is an important factor. Since the question type identification problem handled in the present invention is a problem of determining the intention of a question, a wide variety of information is required to perform highly accurate identification. In particular, information on what words appear in the question sentence and information on how the appearing words are used are important. In other words, the question type identification problem requires a very large number of features to characterize the question type. In the machine learning method, if there are infinite number of learning samples, there is no problem even if the number of features increases. However, since there are actually only a limited number of learning samples, there are features for the number of learning samples. If the number is large, the learning sample is over-learned, and there is a problem that the accuracy for unknown data is lowered.
[0007]
Generally, when using a machine learning method, it is desirable to use only the minimum necessary features that are considered to be most effective for performing classification. However, in question type identification, it is very difficult for a human to intuitively determine which is actually effective in a set of features. For this reason, it is very difficult to extract the minimum necessary features that are considered to be most effective for classification, and a highly accurate classifier learns by applying the machine learning method proposed in the past. There is a problem that you can not.
[0008]
An object of the present invention is to provide a question type learning method, apparatus, program, recording medium recording the program, and recording medium recording learning data, which constitute a highly accurate classifier for question type identification. .
[0009]
Another object of the present invention is to provide a question type identification method, apparatus, program, and recording medium for identifying a question type from an unknown question using the classifier.
[0010]
[Means for Solving the Problems]
First, a feature extracting unit extracts features that characterize a question type from a question learning sample. The word attribute N-gram is used as a method for extracting features that characterize the question type. The word attributes are words, parts of speech, and semantic information, and N-gram means a chain of them.
[0011]
By using this word attribute N-gram, the features that characterize the question type can be extracted automatically and exhaustively. For example, the features that characterize the type can be extracted more efficiently than when features that are considered to be more effective by hand are listed.
[0012]
Table 1 shows an example of the word attribute N-gram.
[0013]
[Table 1]
w, p, and s represent word, part of speech, and semantic information, respectively, and the questions are w 1 , w 2 ,. . . , W n . In this case, the extracted features are as shown in Table 2 based on the word attribute N-gram. Here, one element of N-gram is called 1-gram, and a chain of two elements is called 2-gram. Hereinafter,
[0014]
[Table 2]
Here, one extracted word attribute chain is one feature.
[0015]
Next, a feature vector creating unit constructs a feature space from the features extracted by the word attribute N-gram, and converts each question into a feature vector. Finally, the classifier configuration unit learns from the extracted feature and question learning samples using a statistical machine learning method capable of learning a highly accurate classifier using a large amount of features. Support Vector Machine Machine (reference: V. Vapnik, The Nature of Statistical Learning Theory. Spring-Verlag, New York, 1995) .).
[0016]
The Support Vector Machine input at the time of learning is represented by a pair of a class label and a feature vector.
[0017]
[Expression 1]
here,
[0018]
[Outside 1]
Is the feature vector of the i-th sample and an n-dimensional vector, and y i is a scalar variable representing the class of sample i. However, since Support Vector Machine is a two-class classifier, there are two classes to be classified, positive example (+1) and negative example (-1).
[0019]
Table 3 shows examples of learning samples. Such a learning sample can be recorded on a recording medium and used when identifying a question type, and only data can be distributed.
[0020]
[Table 3]
In the case of the feature number n, by considering an n-dimensional feature space, the feature vector created from each question represents one point of the nth-order elemental space. The Support Vector Machine is a learning method in which, as shown in FIG. 3, a plane in which the margin between two classes is maximized is selected as an optimum discrimination plane among the hyperplanes separating two classes in the nth-order elemental space. .
[0021]
In addition, since Support Vector Machine is a two-class classifier, it is applied using a multi-class classification method. As a multi-class classification method, for example, one vs. There is a rest method, and when there are n classes to be classified, by creating n classifiers that classify any one class and other n-1 classes, a two-class classifier Perform classification. The identification boundary in this case is as shown in FIG.
[0022]
Finally, the classifier created as described above is used to identify which question type the question is when an unknown question is input. This is done by converting an unknown question into a feature vector in the same manner as in Table 3 and using a classifier created by the Support Vector Machine. The question type determined by the identification step is determined by where in the feature space the feature vector created from the unknown question is placed.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0024]
1A and 1B are configuration diagrams of a question type learning device and a question type identification device, respectively, according to an embodiment of the present invention.
[0025]
The question type learning apparatus includes a
[0026]
FIG. 2 is a flowchart showing a processing flow of the question type learning device and the question type identification device of this embodiment.
[0027]
In
[0028]
When an unknown question is input, the feature
[0029]
Next, as a specific example of this embodiment, a case where a question type identification problem is handled in a question answering system will be described.
[0030]
In the case of a question answering system, the question type is a type mainly representing a classification of answer types. For example, “person name”, “place name”, “number of people”, “date and time”, and the like.
[0031]
First, the question type learning step will be described.
[0032]
As an example of a learning sample for a question answering system, consider "Where is the capital of Japan?" Since this question asks for a place, the question type to be identified is “place”. Thus, the learning samples are given as question type pairs to be identified as shown in Table 4.
[0033]
[Table 4]
Features that characterize each question type are extracted from such learning samples. First, the question is divided into words, and parts of speech and semantic information are added to each word. The extracted word attribute N-gram is, for example, a chain of combinations in which each word itself, its part of speech, and semantic information are elements as shown in FIG. Extract all possible word attributes N-gram.
[0034]
In the case of the above-mentioned question “Where is the capital of Japan?”
[0035]
[Table 5]
Using the extracted word attribute N-gram as a feature, a feature space is created, and using this feature space, an optimal discrimination plane is determined using a statistical machine learning method Support Vector Machine to create a classifier.
[0036]
Next, the question type identification step will be described.
[0037]
This is a step of identifying a newly input unknown sample question type using a classifier created by the Support Vector Machine.
[0038]
A feature vector is created for the input unknown question, and the output question type is determined as the question type of the question.
[0039]
As in the case of applying to a question answering system, if a question type suitable for each system is determined in advance, it can be applied in exactly the same way to a dialogue system and an information search / extraction system. . For example, in the case of an interactive system, when a task of schedule management is handled, it can be applied by determining the question type as “new schedule input”, “schedule change”, “schedule confirmation”, or the like. Further, in the case of an information search / extraction system, by making the text classification category a question type, it becomes possible to limit the search range and perform a more accurate search.
[0040]
The question learning method and question type identification method of the present invention are recorded on a computer-readable recording medium in addition to those realized by dedicated hardware. The program recorded on the computer may be read into a computer system and executed. The computer-readable recording medium refers to a recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a storage device such as a hard disk device built in the computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time, as in the case of transmitting a program via the Internet, and a server in that case. Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.
[0041]
【The invention's effect】
As described above, according to the present invention, the word attribute N-gram for extracting the structure of the word attribute characterizing the question type and the high-precision classifier can be learned even with the problem setting having a large number of features with respect to the number of samples. Combining statistical machine learning techniques SVM (Support Vector Machine) can create a high-accuracy classifier, which enables high accuracy for question type identification, as long as a sample of questions is created. Classifiers can be created.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a question learning device and a question type identification device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing processing of the question learning device and the question type identification device in FIG. 1;
FIG. 3 is a conceptual diagram of a Support Vector Machine.
FIG. 4 is a conceptual diagram of Support Vector Machine extended by multi-class classification.
FIG. 5 is a diagram illustrating an extraction example of a word attribute N-gram.
[Explanation of symbols]
1
Claims (7)
抽出された素性から素性空間を構成し、各質問を素性ベクトルに変換する手段と、
前記素性ベクトルからSupport Vector Machineを用いて、未知の質問が入力されたときどの質問タイプかを識別する分類器を構成する手段を有する質問タイプ学習装置。Means for extracting features that characterize each question type from a sample of question sentences prepared in advance using a word attribute N-gram;
Means for constructing a feature space from the extracted features and converting each question into a feature vector;
A question type learning apparatus comprising means for configuring a classifier that identifies a question type when an unknown question is input using a support vector machine from the feature vector.
抽出された素性を素性ベクトルに変換する手段と、
前記素性ベクトルからSupport Vector Machineを用いて、未知の質問が入力されたときどの質問タイプかを識別する分類器を用いて質問タイプを同定する手段を有する質問タイプ同定装置。Means for extracting features that characterize the question type from unknown questions using the word attribute N-gram;
Means for converting the extracted features into feature vectors;
A question type identification device comprising means for identifying a question type using a classifier that identifies a question type when an unknown question is input using a support vector machine from the feature vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002253853A JP4008313B2 (en) | 2002-08-30 | 2002-08-30 | Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002253853A JP4008313B2 (en) | 2002-08-30 | 2002-08-30 | Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004094521A JP2004094521A (en) | 2004-03-25 |
JP4008313B2 true JP4008313B2 (en) | 2007-11-14 |
Family
ID=32059744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002253853A Expired - Lifetime JP4008313B2 (en) | 2002-08-30 | 2002-08-30 | Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4008313B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11322035B2 (en) | 2018-02-23 | 2022-05-03 | Toyota Jidosha Kabushiki Kaisha | Information processing method, storage medium, information processing device, and information processing system |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7590603B2 (en) * | 2004-10-01 | 2009-09-15 | Microsoft Corporation | Method and system for classifying and identifying messages as question or not a question within a discussion thread |
JP4536445B2 (en) * | 2004-07-26 | 2010-09-01 | 三菱電機株式会社 | Data classification device |
JP4713870B2 (en) * | 2004-10-13 | 2011-06-29 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Document classification apparatus, method, and program |
JP2006244262A (en) * | 2005-03-04 | 2006-09-14 | Nec Corp | Retrieval system, method and program for answer to question |
JP4854019B2 (en) * | 2006-11-29 | 2012-01-11 | 独立行政法人情報通信研究機構 | Opinion collection system, opinion collection method and opinion collection program |
KR101064617B1 (en) | 2009-02-27 | 2011-09-15 | 고려대학교 산학협력단 | Method and apparatus for classifying multivariate stream data |
JP5954836B2 (en) * | 2013-11-21 | 2016-07-20 | 日本電信電話株式会社 | Ununderstood sentence determination model learning method, ununderstood sentence determination method, apparatus, and program |
JP7149560B2 (en) * | 2018-04-13 | 2022-10-07 | 国立研究開発法人情報通信研究機構 | Request translation system, training method for request translation model and request judgment model, and dialogue system |
JP2024032071A (en) * | 2022-08-29 | 2024-03-12 | 株式会社日立製作所 | Corporate evaluation processor system |
-
2002
- 2002-08-30 JP JP2002253853A patent/JP4008313B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11322035B2 (en) | 2018-02-23 | 2022-05-03 | Toyota Jidosha Kabushiki Kaisha | Information processing method, storage medium, information processing device, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP2004094521A (en) | 2004-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104503998B (en) | For the kind identification method and device of user query sentence | |
US20220222441A1 (en) | Machine learning based named entity recognition for natural language processing | |
CN109190110A (en) | A kind of training method of Named Entity Extraction Model, system and electronic equipment | |
CN109460459B (en) | Log learning-based dialogue system automatic optimization method | |
JP4904496B2 (en) | Document similarity derivation device and answer support system using the same | |
CN112541337B (en) | Document template automatic generation method and system based on recurrent neural network language model | |
CN109920415A (en) | Nan-machine interrogation's method, apparatus, equipment and storage medium based on speech recognition | |
CN111177350A (en) | Method, device and system for forming dialect of intelligent voice robot | |
CN111144102B (en) | Method and device for identifying entity in statement and electronic equipment | |
JP4008313B2 (en) | Question type learning device, question type learning program, recording medium recording the program, recording medium recording a learning sample, question type identification device, question type identification program, recording medium recording the program | |
US20220414463A1 (en) | Automated troubleshooter | |
CN112000802A (en) | Software defect positioning method based on similarity integration | |
CN112052324A (en) | Intelligent question answering method and device and computer equipment | |
CN108536673B (en) | News event extraction method and device | |
CN109637529A (en) | Voice-based functional localization method, apparatus, computer equipment and storage medium | |
KR102584452B1 (en) | Apparatus and method for automatic generation of machine reading comprehension data | |
CN111783425B (en) | Intention identification method based on syntactic analysis model and related device | |
WO2023177723A1 (en) | Apparatuses and methods for querying and transcribing video resumes | |
JP2001022727A (en) | Method and device for classifying and learning text and storage medium storing text classifying and learning program | |
Dawar et al. | Text categorization by content using Naïve Bayes approach | |
US11574629B1 (en) | Systems and methods for parsing and correlating solicitation video content | |
JP6586055B2 (en) | Deep case analysis device, deep case learning device, deep case estimation device, method, and program | |
Sinpang et al. | Detecting ambiguity in requirements analysis using Mamdani fuzzy inference | |
JP6979909B2 (en) | Information processing equipment, information processing methods, and programs | |
CN111949781B (en) | Intelligent interaction method and device based on natural sentence syntactic analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040728 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040728 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040728 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100907 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4008313 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100907 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110907 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120907 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130907 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |