JP2019164669A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2019164669A JP2019164669A JP2018052879A JP2018052879A JP2019164669A JP 2019164669 A JP2019164669 A JP 2019164669A JP 2018052879 A JP2018052879 A JP 2018052879A JP 2018052879 A JP2018052879 A JP 2018052879A JP 2019164669 A JP2019164669 A JP 2019164669A
- Authority
- JP
- Japan
- Prior art keywords
- entity
- question
- feature quantity
- feature amount
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 43
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000009795 derivation Methods 0.000 claims abstract description 25
- 239000000284 extract Substances 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000000306 recurrent effect Effects 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 238000013459 approach Methods 0.000 abstract description 5
- 239000013598 vector Substances 0.000 description 97
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 241000251539 Vertebrata <Metazoa> Species 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002611 ovarian Effects 0.000 description 2
- 241000272194 Ciconiiformes Species 0.000 description 1
- 241000287486 Spheniscidae Species 0.000 description 1
- 241000272534 Struthio camelus Species 0.000 description 1
- 241000271567 Struthioniformes Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003323 beak Anatomy 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003194 forelimb Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、自然文で入力される質問に対して自動応答するための仕組みについて研究および実用化が進められている。これに関連し、1つまたは複数の単語を有するクエリーを受信するステップと、名称または別名がサブジェクトチャンクと同一の表層形式を有する少なくとも1つの候補サブジェクトを検出するようにデータベースにクエリーするステップと、前記少なくとも1つの候補サブジェクトと関連する1つまたは複数の関係を表現する1つまたは複数の関係ベクトルを検出するようにデータベースにクエリーするステップと、前記1つまたは複数の関係の、それぞれ前記クエリーと対応関係との意味類似性を示すランキングスコアを決定するステップと、前記1つまたは複数の関係から最も高いランキングスコアを有する関係を予測関係として選択し、且つ前記少なくとも1つの候補サブジェクトを予測トピックサブジェクトとして選択するステップと、前記予測関係と前記予測トピックサブジェクトでデータベースにクエリーして前記クエリーの解答を検出するステップと、を含んでおり、ここで、前記1つまたは複数の単語が前記クエリーのトピックサブジェクトを記述するサブジェクトチャンクを含むことを特徴とするクエリーに解答を提供するためのコンピュータ実施方法が知られている(特許文献1参照)。 Conventionally, research and practical use have been conducted on a mechanism for automatically answering a question entered in a natural sentence. In this regard, receiving a query having one or more words; querying the database to find at least one candidate subject whose name or alias has the same surface format as the subject chunk; Querying a database to find one or more relationship vectors representing one or more relationships associated with the at least one candidate subject; and each of the one or more relationships of the query Determining a ranking score indicating semantic similarity with the correspondence, selecting a relationship having the highest ranking score from the one or more relationships as a prediction relationship, and selecting the at least one candidate subject as a prediction topic subject Step to select as Querying a database with the prediction relationship and the prediction topic subject to find an answer to the query, wherein the one or more words describe the topic subject of the query A computer-implemented method for providing an answer to a query characterized by including a subject chunk is known (see Patent Document 1).
従来の技術では、効率的に処理を進められなかったり、精度が不十分になる場合があった。
本発明は、このような事情を考慮してなされたものであり、より効率的かつ高精度に質問の答えを導出できるようにすることが可能な情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
In the conventional technology, there are cases where the processing cannot proceed efficiently or the accuracy is insufficient.
The present invention has been made in view of such circumstances, and provides an information processing apparatus, an information processing method, and a program capable of deriving an answer to a question more efficiently and with high accuracy One of the purposes is to do.
本発明の一態様は、質問を取得する取得部と、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習する導出器学習部と、を備え、前記導出器学習部は、前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、情報処理装置である。 One aspect of the present invention is the first database selected from the plurality of entities based on a first database in which an acquisition unit for acquiring a question, a plurality of entities, and a relation indicating a relationship between the entities are registered. A feature quantity group learned so that a feature quantity obtained by adding the feature quantity of the first relation indicating the relationship between the first entity and the second entity to the feature quantity of the entity approaches the feature quantity of the second entity. A derivation learning unit that learns a derivation unit that derives the feature amount of the question with reference to a second database that includes the feature amount of the question, and a feature of the second entity The difference between the amount and the feature amount of the question is increased, and the difference between the feature amount of the sampled entity other than the second entity is increased. Learning the derivation device, an information processing apparatus.
本発明の一態様によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。 According to one embodiment of the present invention, an answer to a question can be derived more efficiently and with high accuracy.
[概要]
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、クラウドサービスを提供する装置であってもよいし、ツールやファームウェアなどのプログラムがインストールされ、単体で処理を実行可能な装置であってもよい。情報処理装置は、インターネットやWANなどのネットワークに接続されていてもよいし、接続されていなくてもよい。すなわち、情報処理装置を実現するためのコンピュータ装置について特段の制約は存在せず、以下に説明する処理を実行可能なものであれば、如何なるコンピュータ装置によって情報処理装置が実現されてもよい。
[Overview]
Hereinafter, an information processing apparatus, an information processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. The information processing apparatus is realized by one or more processors. The information processing device may be a device that provides a cloud service, or may be a device that is installed with a program such as a tool or firmware and that can execute processing alone. The information processing apparatus may or may not be connected to a network such as the Internet or WAN. That is, there are no particular restrictions on the computer device for realizing the information processing device, and the information processing device may be realized by any computer device as long as the processing described below can be executed.
情報処理装置は、例えば、人またはコンピュータによるテキストまたは音声の形式で入力される質問に対して、自動的に応答する装置ないしシステムに利用される。自動的に応答する装置とは、会話形式のインターフェースを備えるものであってもよいし、検索装置に包含され、クエリを質問と解釈し、回答を検索結果と共にクエリ入力者の端末装置に返すものであってもよい。 The information processing apparatus is used for an apparatus or a system that automatically responds to a question input in the form of text or voice by a person or a computer, for example. The device that automatically responds may be provided with a conversational interface, is included in the search device, interprets the query as a question, and returns the answer together with the search result to the terminal device of the query input person It may be.
情報処理装置は、質問の特徴量を導出し、質問から得られた特徴量に近い特徴量を持つエンティティを、質問の回答として選択する。以下の説明では、特徴量は、ユークリッド空間上のベクトルであるものとするが、特徴量は、距離が定義でき、加減算が可能なものであれば、ベクトルでなくてもよい。以下に登場するベクトルは、L2ノルムが0から1の間になるように正規化されているものとする。 The information processing device derives the feature amount of the question, and selects an entity having a feature amount close to the feature amount obtained from the question as the answer to the question. In the following description, the feature quantity is assumed to be a vector in the Euclidean space, but the feature quantity may not be a vector as long as the distance can be defined and addition / subtraction can be performed. Assume that the vectors appearing below are normalized so that the L2 norm is between 0 and 1.
[構成]
図1は、情報処理装置100の構成の一例を示す図である。情報処理装置100は、例えば、質問取得部10と、第1学習部20と、第2学習部30(「導出器学習部」の一例)と、回答出力部40とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
[Constitution]
FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus 100. The information processing apparatus 100 includes, for example, a
また、情報処理装置100は、HDDやフラッシュメモリなどの記憶装置に、ナレッジベース50、エンティティ・リレーションベクトルDB(データベース)60、導出器情報70などの情報を格納する。これらの情報は、情報処理装置100とは別体のデータベースサーバなどによって保持されてもよい。すなわち、情報処理装置100は、これらの情報を保持するための記憶装置を備えなくてもよい。
The information processing apparatus 100 stores information such as a
質問取得部10は、例えば、ネットワークNWを介して他装置から質問を取得する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。質問は、テキストの形式で取得されてもよいし、音声の形式で取得されてもよい。後者の場合、情報処理装置1は音声認識部を備えてよい。いずれの場合も、質問は自然文で構成され、抽象化された符号では無いものとする。
For example, the
第1学習部20は、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録されたナレッジベース50に基づいて、エンティティとリレーションのベクトル(以下、それぞれをエンティティベクトル、リレーションベクトルと称する)を学習し、エンティティ・リレーションベクトルDB60に登録する。
Based on the
[ナレッジベース]
ここで、ナレッジベース50について説明する。ナレッジベース50とは、事物に関する情報および事物間の意味的関係に関する情報をグラフとして記述したデータベースである。ナレッジベース50における事物とは、例えば、「人間」、「機械」、「建物」、「組織」、「美」、「学問」、「旅行」といった抽象的な概念と、例えば特定の人間、特定の建物、特定の組織等の、それらの個体(以下、「インスタンス」)を含む。本実施形態では、事物のうち、ナレッジベース50で情報を記述する対象事物のことを、特に「エンティティ」と称して説明する。
[Knowledge Base]
Here, the
エンティティは、例えば、ある対象事物のインスタンスの実体(例えば実世界で存在している物体)を表していてもよいし、ある対象事物の概念(例えば実世界または仮想世界の中で定義された概念)を表していてもよい。例えば「建物」のように概念を表すエンティティもあれば、「○○タワー」のように「建物」という概念のインスタンスの実体を表すエンティティもある。 An entity may represent, for example, an instance of an object of interest (for example, an object existing in the real world), or a concept of an object of interest (for example, a concept defined in the real world or virtual world). ). For example, there is an entity representing a concept such as “building”, and another entity representing an instance of the concept “building” such as “XX tower”.
ナレッジベース50は、計算機による意味処理を可能とするため、オントロジーという語彙体系で定められたクラスとリレーションを用いて記述される。オントロジーとは、事物のクラスおよびリレーションを定義したものであり、クラスとリレーションとの間に成り立つ制約を集めたものである。
The
クラスとは、オントロジーにおいて、同じ性質を持つ事物同士を一つのグループにしたものである。クラスの性質や事物の性質は後述するリレーションにより記述される。 A class is a group of things that have the same properties in an ontology. The properties of classes and properties of things are described by relations described later.
例えば、くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている、という性質を持つ事物は、「鳥」というクラスあるいはその下位のクラスに分類される。また、「鳥」というクラスの中で、飛べない、という性質を持つ事物は、例えば、「ペンギン」や「ダチョウ」という、より下位のクラスに分類される。このように、クラスの体系は、上位と下位の関係を有する階層構造をなし、上位のクラスの性質は、下位のクラスに継承される。上述した例では、「鳥」というクラスの、「くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている」という性質は、「ペンギン」や「ダチョウ」という下位のクラスの性質にも含まれることになる。クラスを識別するためのクラス名自体は必ずしもクラスの意味を表している必要はないが、以下の説明では簡略化のためにクラスの意味を表すクラス名が与えられていることとする。 For example, an object that has a beak, is an ovarian vertebrate, and has a wing on the forelimb, is classified into a class of “bird” or a subordinate class thereof. In addition, in the class of “bird”, things that cannot fly are classified into lower classes such as “penguin” and “ostrich”, for example. In this way, the class system has a hierarchical structure having an upper and lower relationship, and the properties of the upper class are inherited by the lower class. In the above example, the nature of the class “bird”, “beaked, ovarian vertebrate, wings on the forelimbs” is the nature of the lower class of “penguins” and “ostriches”. Will also be included. The class name itself for identifying the class does not necessarily represent the meaning of the class, but in the following description, for simplicity, it is assumed that a class name representing the meaning of the class is given.
リレーションとは、事物の性質や特徴、クラス間の関係を記述する属性である。この結果、リレーションは、エンティティ間の関係を表す情報となる。例えば、リレーションは、「〜を体の構成要素としてもつ」という性質や、「〜に生息する」という性質を示す属性であってもよいし、「あるクラスが上位クラスであり、あるクラスが下位クラスである」というクラス間の上位下位の関係を示す属性であってもよい。リレーションを識別するためのリレーション名自体は必ずしもリレーションの意味を表している必要はないが、以下の説明では簡略化のためにリレーションの意味を表すリレーション名が与えられていることとする。 Relations are attributes that describe the nature and characteristics of things and the relationships between classes. As a result, the relation becomes information representing the relationship between the entities. For example, a relation may be an attribute indicating the property of “having as a component of the body” or the property of “having inhabit”, or “a certain class is a higher class and a certain class is a lower class. It may be an attribute indicating the upper / lower relationship between classes, which is “class”. The relation name itself for identifying the relation does not necessarily indicate the meaning of the relation, but in the following description, for the sake of simplicity, it is assumed that the relation name indicating the meaning of the relation is given.
ナレッジベース50の基本的な単位は、エンティティ間をリレーションで接続した3つの情報の組(以下、トリプレットと称する)である。図2は、トリプレットを構成する二つのエンティティとリレーションの関係を例示した図である。図示する例では、[エンティティ「日本」、リレーション「首都」、エンティティ「東京」]というトリプレットが挙げられている。このようなトリプレットから、「日本の首都は東京である」という意味情報を取得することができる。ナレッジベース50を用いることで、エンティティに関する情報やエンティティ間の関係が明確に表現され、各種の機械処理が可能になる。以下、図2における「日本」すなわちトリプレットにおけるリレーションの意味的な方向性に関して元側にあるエンティティをヘッドエンティティ、図2における「東京」すなわちトリプレットにおけるリレーションの意味的な方向性に関して先側にあるエンティティをテールエンティティと称する。ナレッジベース50は、トリプレットを複数備えるものである。あるヘッドエンティティが、他のヘッドエンティティにとってのテイルエンティティになることも、その逆もあり得る。図3は、ナレッジベース50に登録されるデータの内容を模式的に示すイメージ図である。図中、矢印はリレーションを示し、破線の楕円はトリプレットを示している。図中のエンティティ1は、エンティティ2に対してヘッドエンティティであると共に、エンティティ3に対してはテイルエンティティである。
The basic unit of the
[第1学習部]
第1学習部20は、ナレッジベース50からサンプリングされた複数のトリプレット(既知情報)のそれぞれについて、ヘッドエンティティのベクトルにリレーションのベクトルを加算したベクトルが、テイルエンティティのベクトルに近づくように、ナレッジベース50に含まれる各エンティティおよび各リレーションのベクトルを学習する。
[First learning unit]
For each of the plurality of triplets (known information) sampled from the
ここで、ヘッドエンティティのベクトルをVh、リレーションのベクトルをVr、テイルエンティティのベクトルをVtと表す。なお、エンティティ空間はリレーション空間よりも多くの情報量を包含するため、例えば、エンティティのベクトルはリレーションのベクトルVrの次元数(d)よりも高い次元数(k)で生成される。以下の説明では、ヘッドエンティティのベクトルVhとテイルエンティティのベクトルVtのそれぞれにk×d行列Mk×dを乗算してリレーションのベクトルVrの属する空間に写像したベクトルVhrおよびVtrを、ヘッドエンティティおよびテイルエンティティのベクトルと称する(式(1)(2)参照;Mは行列)。ヘッドエンティティのベクトルVhrは「第1エンティティの特徴量」の一例であり、テイルエンティティのベクトルVtrは「第2エンティティの特徴量」の一例であり、それらを接続するリレーションのベクトルVrは「第1リレーションのベクトル」の一例である。図中、Oはベクトル空間の原点である。 Here, the head entity vector is represented as Vh, the relation vector is represented as Vr, and the tail entity vector is represented as Vt. Since the entity space includes a larger amount of information than the relation space, for example, the entity vector is generated with a dimension number (k) higher than the dimension number (d) of the relation vector Vr. In the following description, vectors Vhr and Vtr mapped to the space to which the relation vector Vr belongs by multiplying the vector Vh of the head entity and the vector Vt of the tail entity by the k × d matrix M k × d , respectively, It is called a vector of tail entities (see equations (1) and (2); M is a matrix). The head entity vector Vhr is an example of “first entity feature quantity”, the tail entity vector Vtr is an example of “second entity feature quantity”, and the relation vector Vr connecting them is “first entity feature quantity”. It is an example of a “relation vector”. In the figure, O is the origin of the vector space.
Vhr=Vh×Mk×d …(1)
Vtr=Vt×Mk×d …(2)
Vhr = Vh × M k × d (1)
Vtr = Vt × M k × d (2)
理想的には、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとのベクトル和は、テイルエンティティのベクトルVgtと一致する。図4は、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtの幾何的関係を模式的に示す図である。 Ideally, the vector sum of the head entity vector Vhr and the relation vector Vr matches the tail entity vector Vgt. FIG. 4 is a diagram schematically illustrating a geometric relationship among the head entity vector Vhr, the relation vector Vr, and the tail entity vector Vgt.
第1学習部20は、式(3)で表される目的関数frに基づくスコアCが十分に小さくなり収束するように、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtを学習する。式中、||A||2はベクトルAのL2ノルムを表している。目的関数frは、図3の幾何的関係が成立している場合にゼロとなる。
The
fr(h,t)={||Vhr+Vr−Vtr||2}2 …(3) fr (h, t) = {|| Vhr + Vr−Vtr || 2 } 2 (3)
スコアCは、式(4)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせであり、S*は正しいトリプレットを構成しないヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせである。γは、任意に定められるマージンパラメータである。
第1学習部20によって学習されたエンティティおよびリレーションのベクトルは、エンティティ・リレーションベクトルDB60に登録され、第2学習部30によって使用される。図5は、エンティティ・リレーションベクトルDB60に登録されるデータの内容を模式的に示すイメージ図である。エンティティ1とエンティティ2を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVhrに、エンティティ2のベクトルV2rがVtrに、それらを繋ぐリレーションのベクトルV12rがVrに、それぞれ該当する。また、エンティティ1とエンティティ3を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVtrに、エンティティ3のベクトルV3rがVhrに、それらを繋ぐリレーションのベクトルV31rがVrに、それぞれ該当する。
The entity and relation vectors learned by the
[第2学習部]
第2学習部30は、導出器情報70によって表現される導出器のパラメータ等を学習する。導出器は、質問を構成するテキストのベクトル(以下、質問のベクトルVq)を生成するものである。第2学習部30の処理を意味的に分解すると、ヘッドエンティティ、リレーション、およびテイルエンティティとの関係に応じた質問のベクトルVq自体の学習と、質問を構成するテキストを質問のベクトルVqにする規則の学習とが含まれている。質問のベクトルVqは、ベクトルVhr、Vr、Vtrと同じベクトル空間にあるベクトル、すなわちこれらと次元数が同じベクトルである。
[Second learning unit]
The
以下の説明において、第2学習部30には、質問と、質問の意味を表すと考えられるヘッドエンティティおよびリレーション、並びに質問の正解であるテイルエンティティを含むトリプレットと、を対応付けた情報が、教師データとして与えられるものとする。例えば、[質問「日本の首都はどこ」、ヘッドエンティティ「日本」、リレーション「首都」、テイルエンティティ「東京」]を一つのレコードとし、複数のレコードを含むデータが教師データとして第2学習部30に与えられる。
In the following description, the
第2学習部30は、上記の教師データと、エンティティ・リレーションベクトルDB60とに基づいて、質問のベクトルVqと、テイルエンティティのベクトルVtrとの差分(距離)を小さくし、質問のベクトルVqと、テイルエンティティ以外のサンプリングされたエンティティのベクトルVtr*との差分(距離)を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(5)の目的関数g1を小さくするように質問のベクトルVqを学習する。
The
g1={||Vt−Vq||2}2 …(5) g1 = {|| Vt−Vq || 2 } 2 (5)
また、第2学習部30は、更に、質問のベクトルVqと、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和、との差分を小さくし、質問のベクトルVqと、ヘッドエンティティ以外のサンプリングされたエンティティのベクトルVhr*と上記リレーション以外のサンプリングされたリレーションのベクトルVr*の和、との差分を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(6)の目的関数g2を小さくするように質問のベクトルVqを学習する。
Further, the
g2={||Vhr+Vr−Vq||2}2 …(6) g2 = {|| Vhr + Vr−Vq || 2 } 2 (6)
より具体的に、第2学習部30は、目的関数g1と目的関数g2の和に基づくスコアLが十分に小さくなり収束するように、質問のベクトルVqを学習する。スコアLは、式(7)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティと、対応する質問との組み合わせであり、S*は正しいトリプレットを構成せず、或いは質問とその他の情報とが対応しない、ヘッドエンティティ、リレーション、テイルエンティティ、および質問の組み合わせである。γは、任意に定められるマージンパラメータである。
More specifically, the
第2学習部30は、自然文であるテキストから質問のベクトルVqを導出する導出器のパラメータ等を学習する。図6は、導出器の機能を概念的に示すイメージ図である。図示するように、導出器は、例えば、RNNに基づいて生成される。導出器には、例えば、質問を一文字ごとに区切った語のコード等が順次入力される。RNNは、各時点における暫定的な質問のベクトルVq(1)、Vq(2)、…を出力すると共に、計算結果の少なくとも一部を次の時点に伝播させる。質問のすべての語のコード等が入力された時点のRNNの出力が、質問のベクトルVqとなる。第2学習部30は、ある質問について、対応する既知のヘッドエンティティ、リレーション、テイルエンティティのそれぞれのベクトルVhr、Vr、Vtrに基づくスコアLを小さくするように学習された質問のベクトルVqが導出されるように、RNNのパラメータを学習する。このパラメータは、導出器情報70として保持される。
The
なお、質問が英文である場合、スペースで区切られたワードが各時点のRNNに順次入力されてもよいし、和文その他である場合、形態素解析によって区切られたワードが各時点のRNNに順次入力されてもよい。第2学習部30は、それらの態様に即した学習を行う。
If the question is in English, words separated by spaces may be entered sequentially into the RNN at each point of time. If the question is Japanese or other, the words separated by morphological analysis are entered sequentially into the RNN at each point in time. May be. The
図7は、第2学習部30による処理の内容を概念的に示すイメージ図である。図示するように、質問が導出器に入力されることで質問のベクトルVqが得られる。第2学習部30は、質問のベクトルVqとテイルエンティティのベクトルVtrとの距離d1、および、質問のベクトルVqとヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和との距離d2の双方が十分に小さくなるように、導出器のパラメータを学習する。
FIG. 7 is an image diagram conceptually showing the contents of processing by the
また、前述したようにナレッジベース50には、エンティティの性質に関する情報(例えばクラス)が付与されている。第2学習部30は、学習開始からある程度の時間が経過するまでの第1期間においては、ネガティブサンプリングするエンティティを、クラスを問わずサンプリングし、第1期間よりも後の第2期間においては、ネガティブサンプリングするエンティティを、正解のエンティティとクラスが同じエンティティの中からサンプリングする。これによって、効率的な学習を行い、収束を早めることができる。
Further, as described above, the
回答出力部40は、例えばネットワークNWを介して他装置から取得した質問を、導出器情報70によって規定される導出器に入力し、出力された質問のベクトルVqに最も近いエンティティのベクトルをエンティティ・リレーションベクトルDB60から抽出する。この際に、回答出力部40は、例えば1NN(Nearest Neighbor)の手法によって質問のベクトルVqに最も近いエンティティのベクトルを抽出する。回答出力部40は、最も近いエンティティのベクトルに対応するエンティティの内容を、質問の回答として、例えばネットワークNWを介して他装置に返信する。なお、情報処理装置が単体で処理をする場合、情報処理装置は、図示しない入力部に対して入力された質問に対して処理を行い、出力部に回答を出力させる。
The answer output unit 40 inputs, for example, a question acquired from another device via the network NW to a derivation specified by the
以上説明した情報処理装置によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。 According to the information processing apparatus described above, the answer to the question can be derived more efficiently and with high accuracy.
ここで、比較対象として、質問のベクトルVqを、単にベクトルVhr+Vrに近づけるように学習する場合(以下、比較例)を考える。図8は、比較例による処理の内容を模式的に示すイメージ図である。比較例では、VqをVhr+Vrに近づける(距離d2を小さくする)学習と、Vhr+VrをVtrに近づける(距離d3を小さくする)学習との二段階の学習(推論)を経て回答を導出することになるが、実施形態の情報処理装置では、VqをVtrに直接近づける学習を処理内容に含んでいるため、回答を導出する精度を向上させることができる。 Here, as a comparison target, a case where learning is performed so that the question vector Vq is simply brought close to the vector Vhr + Vr (hereinafter, a comparative example) is considered. FIG. 8 is an image diagram schematically showing the contents of processing according to the comparative example. In the comparative example, the answer is derived through two-stage learning (inference): learning that brings Vq closer to Vhr + Vr (reducing the distance d2) and learning that brings Vhr + Vr closer to Vtr (reducing the distance d3). However, since the information processing apparatus according to the embodiment includes learning that directly brings Vq close to Vtr, the accuracy of deriving an answer can be improved.
情報量の圧縮の観点からも同じことが言える。VqをVhr+Vrに近づける学習においては、一種の次元圧縮が行われる。なぜなら、質問の自然文には、ヘッドエンティティやリレーションで表される抽象化された意味情報以上の情報(以下、付加情報)が含まれているからである。比較例では、付加情報が削除された状態でVhr+Vrに近づける学習が行われるのに対し、実施形態の情報処理装置では、付加情報を含んだ状態でVtrに近づける学習が行われるため、そもそもVhr+VrをVtrに近づける学習よりも高精度が結果を得ることができる。 The same can be said from the viewpoint of compression of information amount. In learning to bring Vq closer to Vhr + Vr, a kind of dimensional compression is performed. This is because the natural sentence of the question includes information (hereinafter referred to as additional information) beyond the abstract semantic information represented by the head entity and the relation. In the comparative example, learning to approach Vhr + Vr is performed in a state where the additional information is deleted, whereas in the information processing apparatus of the embodiment, learning to approach Vtr is performed in a state including the additional information, so Vhr + Vr is originally set to Vhr + Vr. The result can be obtained with higher accuracy than the learning approaching Vtr.
また、実施形態の情報処理装置によれば、式(7)に示すように、VqをVtrに近づけるという制約と、VqをVhr+Vrに近づけるという制約の二つの制約の上でVqを学習する。このため、学習における自由度を下げることで、処理の収束を早めることができる。この結果、比較例よりも高速に処理を行うことができる。 Further, according to the information processing apparatus of the embodiment, as shown in Expression (7), Vq is learned under the two constraints of the constraint that Vq is brought close to Vtr and the constraint that Vq is brought closer to Vhr + Vr. For this reason, the convergence of processing can be accelerated by reducing the degree of freedom in learning. As a result, processing can be performed faster than the comparative example.
また、実施形態の情報処理装置によれば、式(7)に示すように、ポジティブサンプルに対する距離を最小化すると共に、ネガティブサンプルに対する距離を最大化する問題を解く際に、最大化する項の符号をマイナスにすることで、全体を最小化問題にしている。ディープラーニング等の処理は、目的関数を最小化する問題を解くのに適しているため、実施形態の処理は、コンピュータを用いて好適に実現することができる。 In addition, according to the information processing apparatus of the embodiment, as shown in Expression (7), when solving the problem of minimizing the distance to the positive sample and maximizing the distance to the negative sample, By making the sign minus, the entire problem is minimized. Since processing such as deep learning is suitable for solving the problem of minimizing the objective function, the processing of the embodiment can be suitably realized using a computer.
なお、上記の説明において、情報処理装置は、質問を区切った語のコード等がRNNに順次入力されるものとしたが、類義語辞書等を使用して、ある程度正規表現にしてからRNNに入力してもよい。 In the above description, the information processing apparatus is assumed that the code of a word separating the questions is sequentially input to the RNN. However, the synonym dictionary or the like is used to make a regular expression to some extent and then input to the RNN. May be.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
1 情報処理装置
10 質問取得部
20 第1学習部
30 第2学習部
40 回答出力部
50 ナレッジベース
60 エンティティ・リレーションベクトルDB
70 導出器情報
DESCRIPTION OF
70 Deriver information
Claims (9)
前記導出器学習部は、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理装置。 The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantity of the first relation indicating the relation of the second entity is close to the feature quantity of the second entity A derivation learning unit for learning a derivation
The deriver learning unit includes:
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
Information processing device.
前記質問の特徴量と、前記第1エンティティの特徴量と前記第1リレーションの特徴量の和、との差分を小さくし、
前記質問の特徴量と、前記第1エンティティ以外のサンプリングされたエンティティの特徴量と前記第1リレーション以外のサンプリングされたリレーションの特徴量の和、との差分を大きくするように、前記導出器を学習する、
請求項1記載の情報処理装置。 The deriver learning unit further includes:
Reducing the difference between the feature quantity of the question and the sum of the feature quantity of the first entity and the feature quantity of the first relation;
The derivation unit is configured to increase a difference between a feature amount of the query and a feature amount of a sampled entity other than the first entity and a sum of feature amounts of sampled relationships other than the first relation. learn,
The information processing apparatus according to claim 1.
請求項1または2記載の情報処理装置。 The feature amount of the question is a feature amount in the same space as the feature amount of the first entity, the feature amount of the first relation, and the feature amount of the second entity.
The information processing apparatus according to claim 1 or 2.
前記導出器学習部は、第1期間においては、前記性質を問わず前記第2エンティティ以外のエンティティをサンプリングし、前記第1期間よりも後の第2期間においては、前記性質が前記第2エンティティと共通するエンティティの中から前記第2エンティティ以外のエンティティをサンプリングする、
請求項1から3のうちいずれか1項記載の情報処理装置。 The first database is provided with information on the nature of the entity,
The derivation learning unit samples entities other than the second entity regardless of the property in the first period, and the property is the second entity in the second period after the first period. Sampling entities other than the second entity among entities in common with
The information processing apparatus according to any one of claims 1 to 3.
前記導出部学習部は、前記RNNのパラメータを学習する、
請求項1から4のうちいずれか1項記載の情報処理装置。 The derivation unit is configured based on RNN (Recurrent Neural Networks) into which words obtained by dividing the question are sequentially input.
The deriving unit learning unit learns the parameters of the RNN;
The information processing apparatus according to any one of claims 1 to 4.
請求項1から5のうちいずれか1項記載の情報処理装置。 The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity A feature amount learning unit that learns the feature amount so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship is closer to the feature amount of the second entity;
The information processing apparatus according to any one of claims 1 to 5.
前記取得部により取得された質問を前記導出器に入力することで得られる前記質問の特徴量に近いエンティティを前記第1データベースから抽出し、前記質問の回答として出力する回答出力部と、を更に備える、
請求項1から6のうちいずれか1項記載の情報処理装置。 An acquisition unit for acquiring a question;
An answer output unit that extracts an entity close to the feature amount of the question obtained by inputting the question acquired by the acquisition unit into the derivation unit from the first database and outputs the response as an answer to the question; Prepare
The information processing apparatus according to any one of claims 1 to 6.
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習し、
前記学習する際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理方法。 Computer
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantity of the first relation indicating the relation of the second entity is close to the feature quantity of the second entity Learn the derivator to
During the learning,
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
Information processing method.
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照させ、前記質問の特徴量を導出する導出器を学習させ、
前記学習させる際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習させる、
プログラム。 On the computer,
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantities of the first relation indicating the relationship between the second entity and the feature quantity of the second entity. To learn the derivation
When learning,
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052879A JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018052879A JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019164669A true JP2019164669A (en) | 2019-09-26 |
JP6979909B2 JP6979909B2 (en) | 2021-12-15 |
Family
ID=68066272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018052879A Active JP6979909B2 (en) | 2018-03-20 | 2018-03-20 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6979909B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021176572A1 (en) * | 2020-03-03 | 2021-09-10 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105768A (en) * | 1998-09-28 | 2000-04-11 | Nippon Telegr & Teleph Corp <Ntt> | Device for calculating feature amount of inquiry document, and method therefor |
JP2008282366A (en) * | 2007-05-14 | 2008-11-20 | Nippon Telegr & Teleph Corp <Ntt> | Query response device, query response method, query response program, and recording medium with program recorded thereon |
US20150339577A1 (en) * | 2014-05-22 | 2015-11-26 | Ulli Waltinger | Generating a Classifier for Performing a Query to a Given Knowledge Base |
US20160155058A1 (en) * | 2013-06-27 | 2016-06-02 | National Institute Of Information And Communications Technology | Non-factoid question-answering system and method |
JP2016133919A (en) * | 2015-01-16 | 2016-07-25 | 日本電信電話株式会社 | Question-answering method, device, and program |
JP2017076403A (en) * | 2015-10-16 | 2017-04-20 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | Systems and methods for human inspired simple question answering (hisqa) |
JP2017173864A (en) * | 2016-03-18 | 2017-09-28 | ヤフー株式会社 | Learning device, automatic sentence generator, and learning method |
-
2018
- 2018-03-20 JP JP2018052879A patent/JP6979909B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105768A (en) * | 1998-09-28 | 2000-04-11 | Nippon Telegr & Teleph Corp <Ntt> | Device for calculating feature amount of inquiry document, and method therefor |
JP2008282366A (en) * | 2007-05-14 | 2008-11-20 | Nippon Telegr & Teleph Corp <Ntt> | Query response device, query response method, query response program, and recording medium with program recorded thereon |
US20160155058A1 (en) * | 2013-06-27 | 2016-06-02 | National Institute Of Information And Communications Technology | Non-factoid question-answering system and method |
US20150339577A1 (en) * | 2014-05-22 | 2015-11-26 | Ulli Waltinger | Generating a Classifier for Performing a Query to a Given Knowledge Base |
JP2016133919A (en) * | 2015-01-16 | 2016-07-25 | 日本電信電話株式会社 | Question-answering method, device, and program |
JP2017076403A (en) * | 2015-10-16 | 2017-04-20 | バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC | Systems and methods for human inspired simple question answering (hisqa) |
JP2017173864A (en) * | 2016-03-18 | 2017-09-28 | ヤフー株式会社 | Learning device, automatic sentence generator, and learning method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021176572A1 (en) * | 2020-03-03 | 2021-09-10 | ||
WO2021176572A1 (en) * | 2020-03-03 | 2021-09-10 | 富士通株式会社 | Machine learning program, machine learning method, and machine learning device |
JP7298769B2 (en) | 2020-03-03 | 2023-06-27 | 富士通株式会社 | Machine learning program, machine learning method and machine learning device |
Also Published As
Publication number | Publication date |
---|---|
JP6979909B2 (en) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11586810B2 (en) | Generating responses in automated chatting | |
US11704501B2 (en) | Providing a response in a session | |
WO2019200923A1 (en) | Pinyin-based semantic recognition method and device and human-machine conversation system | |
CN109344404B (en) | Context-aware dual-attention natural language reasoning method | |
Yazdani et al. | A model of zero-shot learning of spoken language understanding | |
CN111026842A (en) | Natural language processing method, natural language processing device and intelligent question-answering system | |
CN113127624B (en) | Question-answer model training method and device | |
CN109983473B (en) | Flexible integrated recognition and semantic processing | |
RU2712101C2 (en) | Prediction of probability of occurrence of line using sequence of vectors | |
CN109271636B (en) | Training method and device for word embedding model | |
Chandiok et al. | CIT: Integrated cognitive computing and cognitive agent technologies based cognitive architecture for human-like functionality in artificial systems | |
CN116595151A (en) | Priori knowledge-based image reasoning question-answering method for inspiring large language model | |
CN111159405B (en) | Irony detection method based on background knowledge | |
JP6979909B2 (en) | Information processing equipment, information processing methods, and programs | |
US11854537B2 (en) | Systems and methods for parsing and correlating solicitation video content | |
WO2023177723A1 (en) | Apparatuses and methods for querying and transcribing video resumes | |
CN113742445B (en) | Text recognition sample obtaining method and device and text recognition method and device | |
Karpagam et al. | Deep learning approaches for answer selection in question answering system for conversation agents | |
Li | Disaster tweet text and image analysis using deep learning approaches | |
RU2699396C1 (en) | Neural network for interpreting natural language sentences | |
CN113011141A (en) | Buddha note model training method, Buddha note generation method and related equipment | |
Wijkhuizen et al. | Supporting sign language learning with a visual dictionary | |
CN114048319B (en) | Humor text classification method, device, equipment and medium based on attention mechanism | |
CN116385600B (en) | Distributed characterization method and system for target characteristics of remote sensing image and electronic equipment | |
US20230360557A1 (en) | Artificial intelligence-based video and audio assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180418 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6979909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |