JP2019164669A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2019164669A
JP2019164669A JP2018052879A JP2018052879A JP2019164669A JP 2019164669 A JP2019164669 A JP 2019164669A JP 2018052879 A JP2018052879 A JP 2018052879A JP 2018052879 A JP2018052879 A JP 2018052879A JP 2019164669 A JP2019164669 A JP 2019164669A
Authority
JP
Japan
Prior art keywords
entity
question
feature quantity
feature amount
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018052879A
Other languages
Japanese (ja)
Other versions
JP6979909B2 (en
Inventor
カウステューブ クルカルニ
Kausuteyubu Kulkarni
カウステューブ クルカルニ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018052879A priority Critical patent/JP6979909B2/en
Publication of JP2019164669A publication Critical patent/JP2019164669A/en
Application granted granted Critical
Publication of JP6979909B2 publication Critical patent/JP6979909B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device, an information processing method, and a program capable of more efficiently deriving an answer to a question with higher accuracy.SOLUTION: An information processing device is provided with a derivation unit learning part for learning a derivation unit for deriving a feature amount of a question with reference to a second database including a feature amount group which performs learning such that a feature amount obtained by adding a feature amount of a first relation showing a relation between a first entity and a second entity to a feature amount of the first entity selected from a plurality of entities approaches the feature amount of the second entity, and learns the derivation unit such that difference between a feature amount of a question and the feature amount of the second entity is made small, and that difference between the feature amount of the question and a feature amount of a sampled entity other than the second entity is made large.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、自然文で入力される質問に対して自動応答するための仕組みについて研究および実用化が進められている。これに関連し、1つまたは複数の単語を有するクエリーを受信するステップと、名称または別名がサブジェクトチャンクと同一の表層形式を有する少なくとも1つの候補サブジェクトを検出するようにデータベースにクエリーするステップと、前記少なくとも1つの候補サブジェクトと関連する1つまたは複数の関係を表現する1つまたは複数の関係ベクトルを検出するようにデータベースにクエリーするステップと、前記1つまたは複数の関係の、それぞれ前記クエリーと対応関係との意味類似性を示すランキングスコアを決定するステップと、前記1つまたは複数の関係から最も高いランキングスコアを有する関係を予測関係として選択し、且つ前記少なくとも1つの候補サブジェクトを予測トピックサブジェクトとして選択するステップと、前記予測関係と前記予測トピックサブジェクトでデータベースにクエリーして前記クエリーの解答を検出するステップと、を含んでおり、ここで、前記1つまたは複数の単語が前記クエリーのトピックサブジェクトを記述するサブジェクトチャンクを含むことを特徴とするクエリーに解答を提供するためのコンピュータ実施方法が知られている(特許文献1参照)。   Conventionally, research and practical use have been conducted on a mechanism for automatically answering a question entered in a natural sentence. In this regard, receiving a query having one or more words; querying the database to find at least one candidate subject whose name or alias has the same surface format as the subject chunk; Querying a database to find one or more relationship vectors representing one or more relationships associated with the at least one candidate subject; and each of the one or more relationships of the query Determining a ranking score indicating semantic similarity with the correspondence, selecting a relationship having the highest ranking score from the one or more relationships as a prediction relationship, and selecting the at least one candidate subject as a prediction topic subject Step to select as Querying a database with the prediction relationship and the prediction topic subject to find an answer to the query, wherein the one or more words describe the topic subject of the query A computer-implemented method for providing an answer to a query characterized by including a subject chunk is known (see Patent Document 1).

特開2017−76403号公報Japanese Unexamined Patent Publication No. 2017-76403

従来の技術では、効率的に処理を進められなかったり、精度が不十分になる場合があった。
本発明は、このような事情を考慮してなされたものであり、より効率的かつ高精度に質問の答えを導出できるようにすることが可能な情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
In the conventional technology, there are cases where the processing cannot proceed efficiently or the accuracy is insufficient.
The present invention has been made in view of such circumstances, and provides an information processing apparatus, an information processing method, and a program capable of deriving an answer to a question more efficiently and with high accuracy One of the purposes is to do.

本発明の一態様は、質問を取得する取得部と、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習する導出器学習部と、を備え、前記導出器学習部は、前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、情報処理装置である。   One aspect of the present invention is the first database selected from the plurality of entities based on a first database in which an acquisition unit for acquiring a question, a plurality of entities, and a relation indicating a relationship between the entities are registered. A feature quantity group learned so that a feature quantity obtained by adding the feature quantity of the first relation indicating the relationship between the first entity and the second entity to the feature quantity of the entity approaches the feature quantity of the second entity. A derivation learning unit that learns a derivation unit that derives the feature amount of the question with reference to a second database that includes the feature amount of the question, and a feature of the second entity The difference between the amount and the feature amount of the question is increased, and the difference between the feature amount of the sampled entity other than the second entity is increased. Learning the derivation device, an information processing apparatus.

本発明の一態様によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。   According to one embodiment of the present invention, an answer to a question can be derived more efficiently and with high accuracy.

情報処理装置100の構成の一例を示す図である。2 is a diagram illustrating an example of a configuration of an information processing device 100. FIG. トリプレットを構成する二つのエンティティとリレーションの関係を例示した図である。It is the figure which illustrated the relationship between the two entities which comprise a triplet, and a relationship. ナレッジベース50に登録されるデータの内容を模式的に示すイメージ図である。FIG. 3 is an image diagram schematically showing the contents of data registered in a knowledge base 50. ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtの幾何的関係を模式的に示す図である。It is a figure which shows typically the geometric relationship of the vector Vhr of a head entity, the vector Vr of a relation, and the vector Vgt of a tail entity. エンティティ・リレーションベクトルDB60に登録されるデータの内容を模式的に示すイメージ図である。It is an image figure which shows typically the content of the data registered into entity relation vector DB60. 導出器の機能を概念的に示すイメージ図である。It is an image figure which shows notionally the function of a deriver. 第2学習部30による処理の内容を概念的に示すイメージ図である。FIG. 4 is an image diagram conceptually showing the content of processing by a second learning unit 30. 比較例による処理の内容を模式的に示すイメージ図である。It is an image figure which shows the content of the process by a comparative example typically.

[概要]
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、クラウドサービスを提供する装置であってもよいし、ツールやファームウェアなどのプログラムがインストールされ、単体で処理を実行可能な装置であってもよい。情報処理装置は、インターネットやWANなどのネットワークに接続されていてもよいし、接続されていなくてもよい。すなわち、情報処理装置を実現するためのコンピュータ装置について特段の制約は存在せず、以下に説明する処理を実行可能なものであれば、如何なるコンピュータ装置によって情報処理装置が実現されてもよい。
[Overview]
Hereinafter, an information processing apparatus, an information processing method, and a program according to embodiments of the present invention will be described with reference to the drawings. The information processing apparatus is realized by one or more processors. The information processing device may be a device that provides a cloud service, or may be a device that is installed with a program such as a tool or firmware and that can execute processing alone. The information processing apparatus may or may not be connected to a network such as the Internet or WAN. That is, there are no particular restrictions on the computer device for realizing the information processing device, and the information processing device may be realized by any computer device as long as the processing described below can be executed.

情報処理装置は、例えば、人またはコンピュータによるテキストまたは音声の形式で入力される質問に対して、自動的に応答する装置ないしシステムに利用される。自動的に応答する装置とは、会話形式のインターフェースを備えるものであってもよいし、検索装置に包含され、クエリを質問と解釈し、回答を検索結果と共にクエリ入力者の端末装置に返すものであってもよい。   The information processing apparatus is used for an apparatus or a system that automatically responds to a question input in the form of text or voice by a person or a computer, for example. The device that automatically responds may be provided with a conversational interface, is included in the search device, interprets the query as a question, and returns the answer together with the search result to the terminal device of the query input person It may be.

情報処理装置は、質問の特徴量を導出し、質問から得られた特徴量に近い特徴量を持つエンティティを、質問の回答として選択する。以下の説明では、特徴量は、ユークリッド空間上のベクトルであるものとするが、特徴量は、距離が定義でき、加減算が可能なものであれば、ベクトルでなくてもよい。以下に登場するベクトルは、L2ノルムが0から1の間になるように正規化されているものとする。   The information processing device derives the feature amount of the question, and selects an entity having a feature amount close to the feature amount obtained from the question as the answer to the question. In the following description, the feature quantity is assumed to be a vector in the Euclidean space, but the feature quantity may not be a vector as long as the distance can be defined and addition / subtraction can be performed. Assume that the vectors appearing below are normalized so that the L2 norm is between 0 and 1.

[構成]
図1は、情報処理装置100の構成の一例を示す図である。情報処理装置100は、例えば、質問取得部10と、第1学習部20と、第2学習部30(「導出器学習部」の一例)と、回答出力部40とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
[Constitution]
FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus 100. The information processing apparatus 100 includes, for example, a question acquisition unit 10, a first learning unit 20, a second learning unit 30 (an example of “derivative learning unit”), and an answer output unit 40. These components are realized, for example, when a hardware processor such as a CPU (Central Processing Unit) executes a program (software). Some or all of these components are hardware (circuit units) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit); (including circuitry), or may be realized by cooperation of software and hardware. The program may be stored in advance in a storage device such as an HDD (Hard Disk Drive) or a flash memory, or is stored in a removable storage medium such as a DVD or CD-ROM, and the storage medium is stored in the drive device. It may be installed by being attached.

また、情報処理装置100は、HDDやフラッシュメモリなどの記憶装置に、ナレッジベース50、エンティティ・リレーションベクトルDB(データベース)60、導出器情報70などの情報を格納する。これらの情報は、情報処理装置100とは別体のデータベースサーバなどによって保持されてもよい。すなわち、情報処理装置100は、これらの情報を保持するための記憶装置を備えなくてもよい。   The information processing apparatus 100 stores information such as a knowledge base 50, an entity / relation vector DB (database) 60, and derivation information 70 in a storage device such as an HDD or a flash memory. Such information may be held by a database server or the like separate from the information processing apparatus 100. That is, the information processing apparatus 100 does not have to include a storage device for holding such information.

質問取得部10は、例えば、ネットワークNWを介して他装置から質問を取得する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。質問は、テキストの形式で取得されてもよいし、音声の形式で取得されてもよい。後者の場合、情報処理装置1は音声認識部を備えてよい。いずれの場合も、質問は自然文で構成され、抽象化された符号では無いものとする。   For example, the question acquisition unit 10 acquires a question from another device via the network NW. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a cellular network, and the like. The question may be acquired in the form of text or may be acquired in the form of speech. In the latter case, the information processing apparatus 1 may include a voice recognition unit. In any case, it is assumed that the question is composed of natural sentences and not an abstracted code.

第1学習部20は、複数のエンティティと、エンティティ間の関係を示すリレーションとが登録されたナレッジベース50に基づいて、エンティティとリレーションのベクトル(以下、それぞれをエンティティベクトル、リレーションベクトルと称する)を学習し、エンティティ・リレーションベクトルDB60に登録する。   Based on the knowledge base 50 in which a plurality of entities and relations indicating relationships between entities are registered, the first learning unit 20 selects entities and relation vectors (hereinafter referred to as entity vectors and relation vectors, respectively). Learn and register in the entity relation vector DB 60.

[ナレッジベース]
ここで、ナレッジベース50について説明する。ナレッジベース50とは、事物に関する情報および事物間の意味的関係に関する情報をグラフとして記述したデータベースである。ナレッジベース50における事物とは、例えば、「人間」、「機械」、「建物」、「組織」、「美」、「学問」、「旅行」といった抽象的な概念と、例えば特定の人間、特定の建物、特定の組織等の、それらの個体(以下、「インスタンス」)を含む。本実施形態では、事物のうち、ナレッジベース50で情報を記述する対象事物のことを、特に「エンティティ」と称して説明する。
[Knowledge Base]
Here, the knowledge base 50 will be described. The knowledge base 50 is a database in which information about things and information about semantic relationships between things are described as graphs. Things in the knowledge base 50 are, for example, abstract concepts such as “human”, “machine”, “building”, “organization”, “beauty”, “study”, “travel”, and specific humans, specific Such individuals, such as buildings, specific organizations, etc. (hereinafter “instances”). In the present embodiment, among the things, a thing for which information is described in the knowledge base 50 will be specifically referred to as an “entity”.

エンティティは、例えば、ある対象事物のインスタンスの実体(例えば実世界で存在している物体)を表していてもよいし、ある対象事物の概念(例えば実世界または仮想世界の中で定義された概念)を表していてもよい。例えば「建物」のように概念を表すエンティティもあれば、「○○タワー」のように「建物」という概念のインスタンスの実体を表すエンティティもある。   An entity may represent, for example, an instance of an object of interest (for example, an object existing in the real world), or a concept of an object of interest (for example, a concept defined in the real world or virtual world). ). For example, there is an entity representing a concept such as “building”, and another entity representing an instance of the concept “building” such as “XX tower”.

ナレッジベース50は、計算機による意味処理を可能とするため、オントロジーという語彙体系で定められたクラスとリレーションを用いて記述される。オントロジーとは、事物のクラスおよびリレーションを定義したものであり、クラスとリレーションとの間に成り立つ制約を集めたものである。   The knowledge base 50 is described using classes and relations defined by a vocabulary system called ontology in order to enable semantic processing by a computer. An ontology is a definition of classes and relations of things, and is a collection of constraints that hold between classes and relations.

クラスとは、オントロジーにおいて、同じ性質を持つ事物同士を一つのグループにしたものである。クラスの性質や事物の性質は後述するリレーションにより記述される。   A class is a group of things that have the same properties in an ontology. The properties of classes and properties of things are described by relations described later.

例えば、くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている、という性質を持つ事物は、「鳥」というクラスあるいはその下位のクラスに分類される。また、「鳥」というクラスの中で、飛べない、という性質を持つ事物は、例えば、「ペンギン」や「ダチョウ」という、より下位のクラスに分類される。このように、クラスの体系は、上位と下位の関係を有する階層構造をなし、上位のクラスの性質は、下位のクラスに継承される。上述した例では、「鳥」というクラスの、「くちばしを持ち、卵生の脊椎動物であり、前肢が翼になっている」という性質は、「ペンギン」や「ダチョウ」という下位のクラスの性質にも含まれることになる。クラスを識別するためのクラス名自体は必ずしもクラスの意味を表している必要はないが、以下の説明では簡略化のためにクラスの意味を表すクラス名が与えられていることとする。   For example, an object that has a beak, is an ovarian vertebrate, and has a wing on the forelimb, is classified into a class of “bird” or a subordinate class thereof. In addition, in the class of “bird”, things that cannot fly are classified into lower classes such as “penguin” and “ostrich”, for example. In this way, the class system has a hierarchical structure having an upper and lower relationship, and the properties of the upper class are inherited by the lower class. In the above example, the nature of the class “bird”, “beaked, ovarian vertebrate, wings on the forelimbs” is the nature of the lower class of “penguins” and “ostriches”. Will also be included. The class name itself for identifying the class does not necessarily represent the meaning of the class, but in the following description, for simplicity, it is assumed that a class name representing the meaning of the class is given.

リレーションとは、事物の性質や特徴、クラス間の関係を記述する属性である。この結果、リレーションは、エンティティ間の関係を表す情報となる。例えば、リレーションは、「〜を体の構成要素としてもつ」という性質や、「〜に生息する」という性質を示す属性であってもよいし、「あるクラスが上位クラスであり、あるクラスが下位クラスである」というクラス間の上位下位の関係を示す属性であってもよい。リレーションを識別するためのリレーション名自体は必ずしもリレーションの意味を表している必要はないが、以下の説明では簡略化のためにリレーションの意味を表すリレーション名が与えられていることとする。   Relations are attributes that describe the nature and characteristics of things and the relationships between classes. As a result, the relation becomes information representing the relationship between the entities. For example, a relation may be an attribute indicating the property of “having as a component of the body” or the property of “having inhabit”, or “a certain class is a higher class and a certain class is a lower class. It may be an attribute indicating the upper / lower relationship between classes, which is “class”. The relation name itself for identifying the relation does not necessarily indicate the meaning of the relation, but in the following description, for the sake of simplicity, it is assumed that the relation name indicating the meaning of the relation is given.

ナレッジベース50の基本的な単位は、エンティティ間をリレーションで接続した3つの情報の組(以下、トリプレットと称する)である。図2は、トリプレットを構成する二つのエンティティとリレーションの関係を例示した図である。図示する例では、[エンティティ「日本」、リレーション「首都」、エンティティ「東京」]というトリプレットが挙げられている。このようなトリプレットから、「日本の首都は東京である」という意味情報を取得することができる。ナレッジベース50を用いることで、エンティティに関する情報やエンティティ間の関係が明確に表現され、各種の機械処理が可能になる。以下、図2における「日本」すなわちトリプレットにおけるリレーションの意味的な方向性に関して元側にあるエンティティをヘッドエンティティ、図2における「東京」すなわちトリプレットにおけるリレーションの意味的な方向性に関して先側にあるエンティティをテールエンティティと称する。ナレッジベース50は、トリプレットを複数備えるものである。あるヘッドエンティティが、他のヘッドエンティティにとってのテイルエンティティになることも、その逆もあり得る。図3は、ナレッジベース50に登録されるデータの内容を模式的に示すイメージ図である。図中、矢印はリレーションを示し、破線の楕円はトリプレットを示している。図中のエンティティ1は、エンティティ2に対してヘッドエンティティであると共に、エンティティ3に対してはテイルエンティティである。   The basic unit of the knowledge base 50 is a set of three information (hereinafter referred to as a triplet) in which entities are connected by relations. FIG. 2 is a diagram illustrating the relationship between two entities constituting a triplet and a relation. In the illustrated example, a triplet [entity “Japan”, relation “capital”, entity “Tokyo”] is cited. From such a triplet, it is possible to acquire semantic information that “the capital of Japan is Tokyo”. By using the knowledge base 50, information on entities and relationships between entities are clearly expressed, and various machine processes are possible. Hereinafter, “Japan” in FIG. 2, that is, the entity on the original side with respect to the semantic direction of the relation in the triplet is referred to as the head entity, and “Tokyo” in FIG. Is called a tail entity. The knowledge base 50 includes a plurality of triplets. One head entity can be a tail entity for another head entity and vice versa. FIG. 3 is an image diagram schematically showing the contents of data registered in the knowledge base 50. In the figure, arrows indicate relations, and broken ellipses indicate triplets. Entity 1 in the figure is a head entity for entity 2 and a tail entity for entity 3.

[第1学習部]
第1学習部20は、ナレッジベース50からサンプリングされた複数のトリプレット(既知情報)のそれぞれについて、ヘッドエンティティのベクトルにリレーションのベクトルを加算したベクトルが、テイルエンティティのベクトルに近づくように、ナレッジベース50に含まれる各エンティティおよび各リレーションのベクトルを学習する。
[First learning unit]
For each of the plurality of triplets (known information) sampled from the knowledge base 50, the first learning unit 20 adds the relation vector to the head entity vector so that the vector of the tail entity approaches the vector of the tail entity. 50 learns each entity included in 50 and the vector of each relation.

ここで、ヘッドエンティティのベクトルをVh、リレーションのベクトルをVr、テイルエンティティのベクトルをVtと表す。なお、エンティティ空間はリレーション空間よりも多くの情報量を包含するため、例えば、エンティティのベクトルはリレーションのベクトルVrの次元数(d)よりも高い次元数(k)で生成される。以下の説明では、ヘッドエンティティのベクトルVhとテイルエンティティのベクトルVtのそれぞれにk×d行列Mk×dを乗算してリレーションのベクトルVrの属する空間に写像したベクトルVhrおよびVtrを、ヘッドエンティティおよびテイルエンティティのベクトルと称する(式(1)(2)参照;Mは行列)。ヘッドエンティティのベクトルVhrは「第1エンティティの特徴量」の一例であり、テイルエンティティのベクトルVtrは「第2エンティティの特徴量」の一例であり、それらを接続するリレーションのベクトルVrは「第1リレーションのベクトル」の一例である。図中、Oはベクトル空間の原点である。 Here, the head entity vector is represented as Vh, the relation vector is represented as Vr, and the tail entity vector is represented as Vt. Since the entity space includes a larger amount of information than the relation space, for example, the entity vector is generated with a dimension number (k) higher than the dimension number (d) of the relation vector Vr. In the following description, vectors Vhr and Vtr mapped to the space to which the relation vector Vr belongs by multiplying the vector Vh of the head entity and the vector Vt of the tail entity by the k × d matrix M k × d , respectively, It is called a vector of tail entities (see equations (1) and (2); M is a matrix). The head entity vector Vhr is an example of “first entity feature quantity”, the tail entity vector Vtr is an example of “second entity feature quantity”, and the relation vector Vr connecting them is “first entity feature quantity”. It is an example of a “relation vector”. In the figure, O is the origin of the vector space.

Vhr=Vh×Mk×d …(1)
Vtr=Vt×Mk×d …(2)
Vhr = Vh × M k × d (1)
Vtr = Vt × M k × d (2)

理想的には、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとのベクトル和は、テイルエンティティのベクトルVgtと一致する。図4は、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtの幾何的関係を模式的に示す図である。   Ideally, the vector sum of the head entity vector Vhr and the relation vector Vr matches the tail entity vector Vgt. FIG. 4 is a diagram schematically illustrating a geometric relationship among the head entity vector Vhr, the relation vector Vr, and the tail entity vector Vgt.

第1学習部20は、式(3)で表される目的関数frに基づくスコアCが十分に小さくなり収束するように、ヘッドエンティティのベクトルVhr、リレーションのベクトルVr、およびテイルエンティティのベクトルVgtを学習する。式中、||A||はベクトルAのL2ノルムを表している。目的関数frは、図3の幾何的関係が成立している場合にゼロとなる。 The first learning unit 20 calculates the head entity vector Vhr, the relation vector Vr, and the tail entity vector Vgt so that the score C based on the objective function fr represented by the expression (3) is sufficiently small and converges. learn. In the equation, || A || 2 represents the L2 norm of the vector A. The objective function fr is zero when the geometrical relationship in FIG. 3 is established.

fr(h,t)={||Vhr+Vr−Vtr|| …(3) fr (h, t) = {|| Vhr + Vr−Vtr || 2 } 2 (3)

スコアCは、式(4)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせであり、S*は正しいトリプレットを構成しないヘッドエンティティ、リレーション、およびテイルエンティティの組み合わせである。γは、任意に定められるマージンパラメータである。

Figure 2019164669
The score C is represented by the formula (4). Where S is the combination of head entities, relations and tail entities that make up the correct triplet, and S * is the combination of head entities, relations, and tail entities that do not make up the correct triplet. γ is an arbitrarily determined margin parameter.
Figure 2019164669

第1学習部20によって学習されたエンティティおよびリレーションのベクトルは、エンティティ・リレーションベクトルDB60に登録され、第2学習部30によって使用される。図5は、エンティティ・リレーションベクトルDB60に登録されるデータの内容を模式的に示すイメージ図である。エンティティ1とエンティティ2を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVhrに、エンティティ2のベクトルV2rがVtrに、それらを繋ぐリレーションのベクトルV12rがVrに、それぞれ該当する。また、エンティティ1とエンティティ3を含むトリプレットに着目すると、エンティティ1のベクトルV1rがVtrに、エンティティ3のベクトルV3rがVhrに、それらを繋ぐリレーションのベクトルV31rがVrに、それぞれ該当する。   The entity and relation vectors learned by the first learning unit 20 are registered in the entity / relation vector DB 60 and used by the second learning unit 30. FIG. 5 is an image diagram schematically showing the contents of data registered in the entity / relation vector DB 60. Focusing on a triplet including entity 1 and entity 2, the vector V1r of entity 1 corresponds to Vhr, the vector V2r of entity 2 corresponds to Vtr, and the relation vector V12r connecting them corresponds to Vr. Focusing on a triplet including entity 1 and entity 3, the vector V1r of entity 1 corresponds to Vtr, the vector V3r of entity 3 corresponds to Vhr, and the relation vector V31r connecting them corresponds to Vr.

[第2学習部]
第2学習部30は、導出器情報70によって表現される導出器のパラメータ等を学習する。導出器は、質問を構成するテキストのベクトル(以下、質問のベクトルVq)を生成するものである。第2学習部30の処理を意味的に分解すると、ヘッドエンティティ、リレーション、およびテイルエンティティとの関係に応じた質問のベクトルVq自体の学習と、質問を構成するテキストを質問のベクトルVqにする規則の学習とが含まれている。質問のベクトルVqは、ベクトルVhr、Vr、Vtrと同じベクトル空間にあるベクトル、すなわちこれらと次元数が同じベクトルである。
[Second learning unit]
The second learning unit 30 learns parameters and the like of the derivation expressed by the derivation information 70. The derivation unit generates a vector of text composing the question (hereinafter, question vector Vq). When the processing of the second learning unit 30 is semantically decomposed, the learning of the question vector Vq itself according to the relationship with the head entity, the relation, and the tail entity, and the rule that makes the text constituting the question the question vector Vq And learning. The question vector Vq is a vector in the same vector space as the vectors Vhr, Vr, and Vtr, that is, a vector having the same dimensionality as these.

以下の説明において、第2学習部30には、質問と、質問の意味を表すと考えられるヘッドエンティティおよびリレーション、並びに質問の正解であるテイルエンティティを含むトリプレットと、を対応付けた情報が、教師データとして与えられるものとする。例えば、[質問「日本の首都はどこ」、ヘッドエンティティ「日本」、リレーション「首都」、テイルエンティティ「東京」]を一つのレコードとし、複数のレコードを含むデータが教師データとして第2学習部30に与えられる。   In the following description, the second learning unit 30 includes information associating a question with a triplet including a head entity and a relation that is considered to represent the meaning of the question and a tail entity that is a correct answer of the question. It shall be given as data. For example, [question “where is the capital of Japan”, head entity “Japan”, relation “capital”, tail entity “Tokyo”] is one record, and data including a plurality of records is the teacher data. Given to.

第2学習部30は、上記の教師データと、エンティティ・リレーションベクトルDB60とに基づいて、質問のベクトルVqと、テイルエンティティのベクトルVtrとの差分(距離)を小さくし、質問のベクトルVqと、テイルエンティティ以外のサンプリングされたエンティティのベクトルVtr*との差分(距離)を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(5)の目的関数g1を小さくするように質問のベクトルVqを学習する。   The second learning unit 30 reduces the difference (distance) between the question vector Vq and the tail entity vector Vtr based on the teacher data and the entity relation vector DB 60, The question vector Vq is learned so as to increase the difference (distance) from the sampled entity vector Vtr * other than the tail entity. That is, the second learning unit 30 learns the question vector Vq so as to reduce the objective function g1 of the equation (5).

g1={||Vt−Vq|| …(5) g1 = {|| Vt−Vq || 2 } 2 (5)

また、第2学習部30は、更に、質問のベクトルVqと、ヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和、との差分を小さくし、質問のベクトルVqと、ヘッドエンティティ以外のサンプリングされたエンティティのベクトルVhr*と上記リレーション以外のサンプリングされたリレーションのベクトルVr*の和、との差分を大きくするように、質問のベクトルVqを学習する。すなわち、第2学習部30は、式(6)の目的関数g2を小さくするように質問のベクトルVqを学習する。   Further, the second learning unit 30 further reduces the difference between the question vector Vq and the sum of the head entity vector Vhr and the relation vector Vr, and samples the questions other than the head vector Vq and the head entity. The question vector Vq is learned so as to increase the difference between the vector Vhr * of the entity and the sum of the sampled relation vectors Vr * other than the relation. That is, the second learning unit 30 learns the question vector Vq so as to reduce the objective function g2 of the equation (6).

g2={||Vhr+Vr−Vq|| …(6) g2 = {|| Vhr + Vr−Vq || 2 } 2 (6)

より具体的に、第2学習部30は、目的関数g1と目的関数g2の和に基づくスコアLが十分に小さくなり収束するように、質問のベクトルVqを学習する。スコアLは、式(7)で表される。式中、Sは正しいトリプレットを構成するヘッドエンティティ、リレーション、およびテイルエンティティと、対応する質問との組み合わせであり、S*は正しいトリプレットを構成せず、或いは質問とその他の情報とが対応しない、ヘッドエンティティ、リレーション、テイルエンティティ、および質問の組み合わせである。γは、任意に定められるマージンパラメータである。   More specifically, the second learning unit 30 learns the question vector Vq so that the score L based on the sum of the objective function g1 and the objective function g2 becomes sufficiently small and converges. The score L is expressed by Expression (7). Where S is the combination of the head, relation, and tail entities that make up the correct triplet and the corresponding question, and S * does not make up the correct triplet, or the question and other information do not correspond, A combination of head entity, relation, tail entity, and question. γ is an arbitrarily determined margin parameter.

Figure 2019164669
Figure 2019164669

第2学習部30は、自然文であるテキストから質問のベクトルVqを導出する導出器のパラメータ等を学習する。図6は、導出器の機能を概念的に示すイメージ図である。図示するように、導出器は、例えば、RNNに基づいて生成される。導出器には、例えば、質問を一文字ごとに区切った語のコード等が順次入力される。RNNは、各時点における暫定的な質問のベクトルVq(1)、Vq(2)、…を出力すると共に、計算結果の少なくとも一部を次の時点に伝播させる。質問のすべての語のコード等が入力された時点のRNNの出力が、質問のベクトルVqとなる。第2学習部30は、ある質問について、対応する既知のヘッドエンティティ、リレーション、テイルエンティティのそれぞれのベクトルVhr、Vr、Vtrに基づくスコアLを小さくするように学習された質問のベクトルVqが導出されるように、RNNのパラメータを学習する。このパラメータは、導出器情報70として保持される。   The second learning unit 30 learns parameters of a derivation unit that derives a question vector Vq from a text that is a natural sentence. FIG. 6 is an image diagram conceptually showing the function of the deriver. As illustrated, the deriver is generated based on, for example, the RNN. For example, a code of a word obtained by dividing a question into characters is sequentially input to the deriver. The RNN outputs temporary question vectors Vq (1), Vq (2),... At each time point, and propagates at least a part of the calculation result to the next time point. The output of the RNN at the time when the codes of all the words of the question are input becomes the question vector Vq. The second learning unit 30 derives a vector Vq of a question learned so as to reduce the score L based on the vectors Vhr, Vr, and Vtr of the corresponding known head entity, relation, and tail entity for a certain question. Thus, the RNN parameters are learned. This parameter is held as derivator information 70.

なお、質問が英文である場合、スペースで区切られたワードが各時点のRNNに順次入力されてもよいし、和文その他である場合、形態素解析によって区切られたワードが各時点のRNNに順次入力されてもよい。第2学習部30は、それらの態様に即した学習を行う。   If the question is in English, words separated by spaces may be entered sequentially into the RNN at each point of time. If the question is Japanese or other, the words separated by morphological analysis are entered sequentially into the RNN at each point in time. May be. The second learning unit 30 performs learning according to these modes.

図7は、第2学習部30による処理の内容を概念的に示すイメージ図である。図示するように、質問が導出器に入力されることで質問のベクトルVqが得られる。第2学習部30は、質問のベクトルVqとテイルエンティティのベクトルVtrとの距離d1、および、質問のベクトルVqとヘッドエンティティのベクトルVhrとリレーションのベクトルVrとの和との距離d2の双方が十分に小さくなるように、導出器のパラメータを学習する。   FIG. 7 is an image diagram conceptually showing the contents of processing by the second learning unit 30. As shown in the figure, a question vector Vq is obtained by inputting the question to the derivation unit. The second learning unit 30 has sufficient distance d1 between the question vector Vq and the tail entity vector Vtr and the distance d2 between the question vector Vq, the head entity vector Vhr, and the relation vector Vr. The parameters of the derivation are learned so as to be smaller.

また、前述したようにナレッジベース50には、エンティティの性質に関する情報(例えばクラス)が付与されている。第2学習部30は、学習開始からある程度の時間が経過するまでの第1期間においては、ネガティブサンプリングするエンティティを、クラスを問わずサンプリングし、第1期間よりも後の第2期間においては、ネガティブサンプリングするエンティティを、正解のエンティティとクラスが同じエンティティの中からサンプリングする。これによって、効率的な学習を行い、収束を早めることができる。   Further, as described above, the knowledge base 50 is provided with information (for example, class) on the nature of the entity. The second learning unit 30 samples the entity to be negatively sampled regardless of the class in the first period until a certain amount of time elapses from the start of learning, and in the second period after the first period, The negative sampling entity is sampled from entities having the same class as the correct answer entity. Thus, efficient learning can be performed and convergence can be accelerated.

回答出力部40は、例えばネットワークNWを介して他装置から取得した質問を、導出器情報70によって規定される導出器に入力し、出力された質問のベクトルVqに最も近いエンティティのベクトルをエンティティ・リレーションベクトルDB60から抽出する。この際に、回答出力部40は、例えば1NN(Nearest Neighbor)の手法によって質問のベクトルVqに最も近いエンティティのベクトルを抽出する。回答出力部40は、最も近いエンティティのベクトルに対応するエンティティの内容を、質問の回答として、例えばネットワークNWを介して他装置に返信する。なお、情報処理装置が単体で処理をする場合、情報処理装置は、図示しない入力部に対して入力された質問に対して処理を行い、出力部に回答を出力させる。   The answer output unit 40 inputs, for example, a question acquired from another device via the network NW to a derivation specified by the derivation information 70, and outputs the vector of the entity closest to the outputted question vector Vq as an entity. Extracted from the relation vector DB 60. At this time, the answer output unit 40 extracts a vector of an entity closest to the question vector Vq by, for example, a 1NN (Nearest Neighbor) technique. The answer output unit 40 returns the content of the entity corresponding to the closest entity vector as an answer to the question to, for example, the other apparatus via the network NW. When the information processing apparatus processes alone, the information processing apparatus processes a question input to an input unit (not shown) and causes the output unit to output an answer.

以上説明した情報処理装置によれば、より効率的かつ高精度に質問の答えを導出できるようにすることができる。   According to the information processing apparatus described above, the answer to the question can be derived more efficiently and with high accuracy.

ここで、比較対象として、質問のベクトルVqを、単にベクトルVhr+Vrに近づけるように学習する場合(以下、比較例)を考える。図8は、比較例による処理の内容を模式的に示すイメージ図である。比較例では、VqをVhr+Vrに近づける(距離d2を小さくする)学習と、Vhr+VrをVtrに近づける(距離d3を小さくする)学習との二段階の学習(推論)を経て回答を導出することになるが、実施形態の情報処理装置では、VqをVtrに直接近づける学習を処理内容に含んでいるため、回答を導出する精度を向上させることができる。   Here, as a comparison target, a case where learning is performed so that the question vector Vq is simply brought close to the vector Vhr + Vr (hereinafter, a comparative example) is considered. FIG. 8 is an image diagram schematically showing the contents of processing according to the comparative example. In the comparative example, the answer is derived through two-stage learning (inference): learning that brings Vq closer to Vhr + Vr (reducing the distance d2) and learning that brings Vhr + Vr closer to Vtr (reducing the distance d3). However, since the information processing apparatus according to the embodiment includes learning that directly brings Vq close to Vtr, the accuracy of deriving an answer can be improved.

情報量の圧縮の観点からも同じことが言える。VqをVhr+Vrに近づける学習においては、一種の次元圧縮が行われる。なぜなら、質問の自然文には、ヘッドエンティティやリレーションで表される抽象化された意味情報以上の情報(以下、付加情報)が含まれているからである。比較例では、付加情報が削除された状態でVhr+Vrに近づける学習が行われるのに対し、実施形態の情報処理装置では、付加情報を含んだ状態でVtrに近づける学習が行われるため、そもそもVhr+VrをVtrに近づける学習よりも高精度が結果を得ることができる。   The same can be said from the viewpoint of compression of information amount. In learning to bring Vq closer to Vhr + Vr, a kind of dimensional compression is performed. This is because the natural sentence of the question includes information (hereinafter referred to as additional information) beyond the abstract semantic information represented by the head entity and the relation. In the comparative example, learning to approach Vhr + Vr is performed in a state where the additional information is deleted, whereas in the information processing apparatus of the embodiment, learning to approach Vtr is performed in a state including the additional information, so Vhr + Vr is originally set to Vhr + Vr. The result can be obtained with higher accuracy than the learning approaching Vtr.

また、実施形態の情報処理装置によれば、式(7)に示すように、VqをVtrに近づけるという制約と、VqをVhr+Vrに近づけるという制約の二つの制約の上でVqを学習する。このため、学習における自由度を下げることで、処理の収束を早めることができる。この結果、比較例よりも高速に処理を行うことができる。   Further, according to the information processing apparatus of the embodiment, as shown in Expression (7), Vq is learned under the two constraints of the constraint that Vq is brought close to Vtr and the constraint that Vq is brought closer to Vhr + Vr. For this reason, the convergence of processing can be accelerated by reducing the degree of freedom in learning. As a result, processing can be performed faster than the comparative example.

また、実施形態の情報処理装置によれば、式(7)に示すように、ポジティブサンプルに対する距離を最小化すると共に、ネガティブサンプルに対する距離を最大化する問題を解く際に、最大化する項の符号をマイナスにすることで、全体を最小化問題にしている。ディープラーニング等の処理は、目的関数を最小化する問題を解くのに適しているため、実施形態の処理は、コンピュータを用いて好適に実現することができる。   In addition, according to the information processing apparatus of the embodiment, as shown in Expression (7), when solving the problem of minimizing the distance to the positive sample and maximizing the distance to the negative sample, By making the sign minus, the entire problem is minimized. Since processing such as deep learning is suitable for solving the problem of minimizing the objective function, the processing of the embodiment can be suitably realized using a computer.

なお、上記の説明において、情報処理装置は、質問を区切った語のコード等がRNNに順次入力されるものとしたが、類義語辞書等を使用して、ある程度正規表現にしてからRNNに入力してもよい。   In the above description, the information processing apparatus is assumed that the code of a word separating the questions is sequentially input to the RNN. However, the synonym dictionary or the like is used to make a regular expression to some extent and then input to the RNN. May be.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

1 情報処理装置
10 質問取得部
20 第1学習部
30 第2学習部
40 回答出力部
50 ナレッジベース
60 エンティティ・リレーションベクトルDB
70 導出器情報
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 10 Question acquisition part 20 1st learning part 30 2nd learning part 40 Answer output part 50 Knowledge base 60 Entity relation vector DB
70 Deriver information

Claims (9)

複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習する導出器学習部を備え、
前記導出器学習部は、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理装置。
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantity of the first relation indicating the relation of the second entity is close to the feature quantity of the second entity A derivation learning unit for learning a derivation
The deriver learning unit includes:
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
Information processing device.
前記導出器学習部は、更に、
前記質問の特徴量と、前記第1エンティティの特徴量と前記第1リレーションの特徴量の和、との差分を小さくし、
前記質問の特徴量と、前記第1エンティティ以外のサンプリングされたエンティティの特徴量と前記第1リレーション以外のサンプリングされたリレーションの特徴量の和、との差分を大きくするように、前記導出器を学習する、
請求項1記載の情報処理装置。
The deriver learning unit further includes:
Reducing the difference between the feature quantity of the question and the sum of the feature quantity of the first entity and the feature quantity of the first relation;
The derivation unit is configured to increase a difference between a feature amount of the query and a feature amount of a sampled entity other than the first entity and a sum of feature amounts of sampled relationships other than the first relation. learn,
The information processing apparatus according to claim 1.
前記質問の特徴量は、前記第1エンティティの特徴量、前記第1リレーションの特徴量、および前記第2エンティティの特徴量と同じ空間上にある特徴量である、
請求項1または2記載の情報処理装置。
The feature amount of the question is a feature amount in the same space as the feature amount of the first entity, the feature amount of the first relation, and the feature amount of the second entity.
The information processing apparatus according to claim 1 or 2.
前記第1データベースには、エンティティの性質に関する情報が付与されており、
前記導出器学習部は、第1期間においては、前記性質を問わず前記第2エンティティ以外のエンティティをサンプリングし、前記第1期間よりも後の第2期間においては、前記性質が前記第2エンティティと共通するエンティティの中から前記第2エンティティ以外のエンティティをサンプリングする、
請求項1から3のうちいずれか1項記載の情報処理装置。
The first database is provided with information on the nature of the entity,
The derivation learning unit samples entities other than the second entity regardless of the property in the first period, and the property is the second entity in the second period after the first period. Sampling entities other than the second entity among entities in common with
The information processing apparatus according to any one of claims 1 to 3.
前記導出器は、前記質問を分割したワードが順次入力されるRNN(Recurrent Neural Networks)に基づいて構成され、
前記導出部学習部は、前記RNNのパラメータを学習する、
請求項1から4のうちいずれか1項記載の情報処理装置。
The derivation unit is configured based on RNN (Recurrent Neural Networks) into which words obtained by dividing the question are sequentially input.
The deriving unit learning unit learns the parameters of the RNN;
The information processing apparatus according to any one of claims 1 to 4.
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように特徴量を学習する特徴量学習部を更に備える、
請求項1から5のうちいずれか1項記載の情報処理装置。
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity A feature amount learning unit that learns the feature amount so that the feature amount obtained by adding the feature amount of the first relation indicating the relationship is closer to the feature amount of the second entity;
The information processing apparatus according to any one of claims 1 to 5.
質問を取得する取得部と、
前記取得部により取得された質問を前記導出器に入力することで得られる前記質問の特徴量に近いエンティティを前記第1データベースから抽出し、前記質問の回答として出力する回答出力部と、を更に備える、
請求項1から6のうちいずれか1項記載の情報処理装置。
An acquisition unit for acquiring a question;
An answer output unit that extracts an entity close to the feature amount of the question obtained by inputting the question acquired by the acquisition unit into the derivation unit from the first database and outputs the response as an answer to the question; Prepare
The information processing apparatus according to any one of claims 1 to 6.
コンピュータが、
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照し、前記質問の特徴量を導出する導出器を学習し、
前記学習する際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習する、
情報処理方法。
Computer
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantity of the first relation indicating the relation of the second entity is close to the feature quantity of the second entity Learn the derivator to
During the learning,
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
Information processing method.
コンピュータに、
複数のエンティティと、エンティティ間の関係を示すリレーションとが登録された第1データベースに基づいて、前記複数のエンティティから選択された、第1エンティティの特徴量に、前記第1エンティティと第2エンティティとの関係を示す第1リレーションの特徴量を加算した特徴量が、前記第2エンティティの特徴量に近づくように学習された特徴量群を含む第2データベースを参照させ、前記質問の特徴量を導出する導出器を学習させ、
前記学習させる際に、
前記質問の特徴量と、前記第2エンティティの特徴量との差分を小さくし、
前記質問の特徴量と、前記第2エンティティ以外のサンプリングされたエンティティの特徴量との差分を大きくするように、前記導出器を学習させる、
プログラム。
On the computer,
The feature quantity of the first entity selected from the plurality of entities based on a first database in which a plurality of entities and relations indicating relationships between the entities are registered, the first entity and the second entity The feature quantity of the question is derived by referring to the second database including the feature quantity group learned so that the feature quantity obtained by adding the feature quantities of the first relation indicating the relationship between the second entity and the feature quantity of the second entity. To learn the derivation
When learning,
Reducing the difference between the feature quantity of the question and the feature quantity of the second entity;
Learning the derivation unit so as to increase a difference between a feature amount of the question and a feature amount of a sampled entity other than the second entity;
program.
JP2018052879A 2018-03-20 2018-03-20 Information processing equipment, information processing methods, and programs Active JP6979909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018052879A JP6979909B2 (en) 2018-03-20 2018-03-20 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018052879A JP6979909B2 (en) 2018-03-20 2018-03-20 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019164669A true JP2019164669A (en) 2019-09-26
JP6979909B2 JP6979909B2 (en) 2021-12-15

Family

ID=68066272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018052879A Active JP6979909B2 (en) 2018-03-20 2018-03-20 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6979909B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021176572A1 (en) * 2020-03-03 2021-09-10

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105768A (en) * 1998-09-28 2000-04-11 Nippon Telegr & Teleph Corp <Ntt> Device for calculating feature amount of inquiry document, and method therefor
JP2008282366A (en) * 2007-05-14 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> Query response device, query response method, query response program, and recording medium with program recorded thereon
US20150339577A1 (en) * 2014-05-22 2015-11-26 Ulli Waltinger Generating a Classifier for Performing a Query to a Given Knowledge Base
US20160155058A1 (en) * 2013-06-27 2016-06-02 National Institute Of Information And Communications Technology Non-factoid question-answering system and method
JP2016133919A (en) * 2015-01-16 2016-07-25 日本電信電話株式会社 Question-answering method, device, and program
JP2017076403A (en) * 2015-10-16 2017-04-20 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC Systems and methods for human inspired simple question answering (hisqa)
JP2017173864A (en) * 2016-03-18 2017-09-28 ヤフー株式会社 Learning device, automatic sentence generator, and learning method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105768A (en) * 1998-09-28 2000-04-11 Nippon Telegr & Teleph Corp <Ntt> Device for calculating feature amount of inquiry document, and method therefor
JP2008282366A (en) * 2007-05-14 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> Query response device, query response method, query response program, and recording medium with program recorded thereon
US20160155058A1 (en) * 2013-06-27 2016-06-02 National Institute Of Information And Communications Technology Non-factoid question-answering system and method
US20150339577A1 (en) * 2014-05-22 2015-11-26 Ulli Waltinger Generating a Classifier for Performing a Query to a Given Knowledge Base
JP2016133919A (en) * 2015-01-16 2016-07-25 日本電信電話株式会社 Question-answering method, device, and program
JP2017076403A (en) * 2015-10-16 2017-04-20 バイドゥ・ユーエスエイ・リミテッド・ライアビリティ・カンパニーBaidu USA LLC Systems and methods for human inspired simple question answering (hisqa)
JP2017173864A (en) * 2016-03-18 2017-09-28 ヤフー株式会社 Learning device, automatic sentence generator, and learning method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021176572A1 (en) * 2020-03-03 2021-09-10
WO2021176572A1 (en) * 2020-03-03 2021-09-10 富士通株式会社 Machine learning program, machine learning method, and machine learning device
JP7298769B2 (en) 2020-03-03 2023-06-27 富士通株式会社 Machine learning program, machine learning method and machine learning device

Also Published As

Publication number Publication date
JP6979909B2 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
US11586810B2 (en) Generating responses in automated chatting
US11704501B2 (en) Providing a response in a session
WO2019200923A1 (en) Pinyin-based semantic recognition method and device and human-machine conversation system
CN109344404B (en) Context-aware dual-attention natural language reasoning method
Yazdani et al. A model of zero-shot learning of spoken language understanding
CN111026842A (en) Natural language processing method, natural language processing device and intelligent question-answering system
CN113127624B (en) Question-answer model training method and device
CN109983473B (en) Flexible integrated recognition and semantic processing
RU2712101C2 (en) Prediction of probability of occurrence of line using sequence of vectors
CN109271636B (en) Training method and device for word embedding model
Chandiok et al. CIT: Integrated cognitive computing and cognitive agent technologies based cognitive architecture for human-like functionality in artificial systems
CN116595151A (en) Priori knowledge-based image reasoning question-answering method for inspiring large language model
CN111159405B (en) Irony detection method based on background knowledge
JP6979909B2 (en) Information processing equipment, information processing methods, and programs
US11854537B2 (en) Systems and methods for parsing and correlating solicitation video content
WO2023177723A1 (en) Apparatuses and methods for querying and transcribing video resumes
CN113742445B (en) Text recognition sample obtaining method and device and text recognition method and device
Karpagam et al. Deep learning approaches for answer selection in question answering system for conversation agents
Li Disaster tweet text and image analysis using deep learning approaches
RU2699396C1 (en) Neural network for interpreting natural language sentences
CN113011141A (en) Buddha note model training method, Buddha note generation method and related equipment
Wijkhuizen et al. Supporting sign language learning with a visual dictionary
CN114048319B (en) Humor text classification method, device, equipment and medium based on attention mechanism
CN116385600B (en) Distributed characterization method and system for target characteristics of remote sensing image and electronic equipment
US20230360557A1 (en) Artificial intelligence-based video and audio assessment

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180418

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211116

R150 Certificate of patent or registration of utility model

Ref document number: 6979909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350