JP2020191009A - Knowledge graph complementing device and knowledge graph complementing method - Google Patents

Knowledge graph complementing device and knowledge graph complementing method Download PDF

Info

Publication number
JP2020191009A
JP2020191009A JP2019097044A JP2019097044A JP2020191009A JP 2020191009 A JP2020191009 A JP 2020191009A JP 2019097044 A JP2019097044 A JP 2019097044A JP 2019097044 A JP2019097044 A JP 2019097044A JP 2020191009 A JP2020191009 A JP 2020191009A
Authority
JP
Japan
Prior art keywords
knowledge graph
entity
triple
pseudo
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019097044A
Other languages
Japanese (ja)
Other versions
JP7270188B2 (en
Inventor
幹生 中野
Mikio Nakano
幹生 中野
和範 駒谷
Kazunori Komatani
和範 駒谷
林 克彦
Katsuhiko Hayashi
克彦 林
勇真 藤岡
Yuma Fujioka
勇真 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Osaka University NUC
Original Assignee
Honda Motor Co Ltd
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Osaka University NUC filed Critical Honda Motor Co Ltd
Priority to JP2019097044A priority Critical patent/JP7270188B2/en
Publication of JP2020191009A publication Critical patent/JP2020191009A/en
Application granted granted Critical
Publication of JP7270188B2 publication Critical patent/JP7270188B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a knowledge graph complementing device and a knowledge graph complementing method that can improve the accuracy of knowledge graph complementation.SOLUTION: A knowledge graph complementing device 1 comprises: a knowledge graph storage unit 13 that stores a knowledge graph with a graph structure; an acquisition unit (sound collection unit 11) that acquires an utterance; and a complementation unit 15 that, when there is an unknown entity in the acquired utterance, develops the utterance into an embedded representation considering an identification character string based on the pattern of an existing graph, generates a triple candidate for the unknown entity based on a result of the development, calculates the certainty factor of the triple candidate, and acquires knowledge on the unknown entity. The complementation unit 15 generates partial character strings in the identification character strings of the existing entity and the unknown entity as pseudo entities, generates a pseudo triple in which the relation between the existing entity or the unknown entity and the pseudo entities is formed, and calculates the certainty factor of the triple candidate based on the set of a triple and the pseudo triple.SELECTED DRAWING: Figure 1

Description

本発明は、知識グラフ補完装置、および知識グラフ補完方法に関する。 The present invention relates to a knowledge graph complementing device and a knowledge graph complementing method.

対話システムでは、利用者に対して質問を行って情報を聞き出すことが行われる(例えば特許文献1参照)。必要な情報が知識ベース上にない場合、現状の対話システムは、話題を転換したり「わかりません」といった文脈上不自然な応答を行う場合がある。このように、データベースを参照して応答を行うタイプの対話システムは、データベースに明示的に記述されていない情報についてうまく応答できない。そこで、データベースに無い情報を自ら獲得できる対話システムの構築が望まれる。 In the dialogue system, a question is asked to a user and information is obtained (see, for example, Patent Document 1). If the required information is not on the knowledge base, current dialogue systems may change topics or respond unnaturally in context, such as "I don't know." In this way, a type of dialogue system that refers to a database and responds cannot respond well to information that is not explicitly described in the database. Therefore, it is desired to construct a dialogue system that can acquire information that is not in the database.

これに対して、本発明の発明者らは、グラフ構造を持つ知識ベースである知識グラフから潜在的な情報を推論することで,従来困難であった応答が可能な対話システムの構築することを提案している(非特許文献1参照)。 On the other hand, the inventors of the present invention have decided to construct a dialogue system capable of responding, which was difficult in the past, by inferring potential information from a knowledge graph which is a knowledge base having a graph structure. It has been proposed (see Non-Patent Document 1).

特願2018−062055号Japanese Patent Application No. 2018-062055

藤岡勇真、林克彦、中野幹生、駒谷和範、“対話システムにおける知識グラフの埋め込み表現を用いた応答生成の試み”、人工知能学会研究資料、人工知能学会、2018、SIG-SLUD, Vol. B5, No. 02, pp. 88-89Yuma Fujioka, Katsuhiko Hayashi, Mikio Nakano, Kazunori Komatani, "Trial of Response Generation Using Embedded Representation of Knowledge Graph in Dialogue System", Japanese Society for Artificial Intelligence Research Materials, Japanese Society for Artificial Intelligence, 2018, SIG-SLUD, Vol. B5 , No. 02, pp. 88-89

しかしながら、このような従来のシステムにおいて、さらなる知識グラフ補完の精度を向上が望まれている。 However, in such a conventional system, it is desired to further improve the accuracy of knowledge graph complementation.

本発明は、上記の問題点に鑑みてなされたものであって、知識グラフ補完の精度を向上させることができる知識グラフ補完装置、および知識グラフ補完方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a knowledge graph complementing device and a knowledge graph complementing method capable of improving the accuracy of knowledge graph complementation.

(1)上記目的を達成するため、本発明の一態様に係る知識グラフ補完装置<1>は、2つのエンティティのそれぞれの識別文字列と前記エンティティ間の関係を示すラベルによるトリプルを要素とする集合であって、グラフ構造を持つデータベースである知識グラフを記憶する知識グラフ記憶部<13>と、発話を取得する取得部<収音部11、音声認識部12、言語理解部14>と、取得された発話の中に、前記知識グラフ記憶部に記憶されていない未知のエンティティがある場合、前記知識グラフ記憶部が記憶する既知のグラフのパターンに基づいて、識別文字列を考慮した埋め込み表現に展開し、展開した結果に基づいて前記未知のエンティティについてのトリプル候補を生成し、前記トリプル候補の確信度を算出し、算出した確信度に基づいて、前記未知のエンティティに関する知識を獲得する補完部<15>と、を備え、前記補完部は、前記知識グラフ記憶部に記憶された既存のエンティティおよび前記未知のエンティティの識別文字列の部分文字列を擬似エンティティとして生成し、前記既存のエンティティ又は前記未知のエンティティと、前記擬似エンティティとの関係を部分文字列であることを示すラベルを付与して形成した擬似トリプルを生成し、前記トリプルおよび擬似トリプルの集合に基づいて、前記トリプル候補の確信度を算出する。 (1) In order to achieve the above object, the knowledge graph complement device <1> according to one aspect of the present invention includes a triple with an identification character string of each of the two entities and a label indicating the relationship between the entities. A knowledge graph storage unit <13> that stores a knowledge graph, which is a set and is a database having a graph structure, and an acquisition unit <sound collection unit 11, voice recognition unit 12, language understanding unit 14> that acquires speech. If there is an unknown entity that is not stored in the knowledge graph storage unit in the acquired speech, an embedded expression that considers the identification character string based on the known graph pattern stored in the knowledge graph storage unit. Expand to, generate triple candidates for the unknown entity based on the expanded result, calculate the certainty of the triple candidate, and acquire knowledge about the unknown entity based on the calculated certainty. A part <15> is provided, and the complementary part generates a substring of an existing entity stored in the knowledge graph storage unit and an identification character string of the unknown entity as a pseudo entity, and the existing entity. Alternatively, a pseudo triple formed by adding a label indicating that the relationship between the unknown entity and the pseudo entity is a substring is generated, and based on the triple and the set of pseudo triples, the triple candidate Calculate the certainty.

(2)また、前記補完部は、前記確信度の順位が所定の順位より高く且つ所定の値よりも高いトリプル候補についての質問を生成し、又は、前記確信度の順位が所定の順位より高く又は所定の値よりも高いトリプル候補についての質問を生成し、
前記質問に対する回答が肯定の場合に、前記未知のエンティティについての情報を確定するようにしてもよい。
(2) Further, the complementary unit generates a question about a triple candidate whose conviction rank is higher than a predetermined rank and higher than a predetermined value, or the conviction rank is higher than a predetermined rank. Or generate a question about triple candidates higher than a given value
If the answer to the question is affirmative, the information about the unknown entity may be finalized.

(3)また、本発明の一態様に係る知識グラフ補完装置において、前記補完部は、
複素数表現とエルミート内積を利用したモデルであるComplExによって前記確信度を算出するようにしてもよい。
(3) Further, in the knowledge graph complement device according to one aspect of the present invention, the complement unit is
The conviction may be calculated by ComplEx, which is a model using the complex number representation and the Hermitian inner product.

(4)上記目的を達成するため、本発明の一態様に係る知識グラフ補完方法は、グラフ構造を持つデータベースである知識グラフにおける知識グラフ補完方法であって、前記知識グラフは、前記知識グラフ中の2つのエンティティのそれぞれの識別文字列とこれらエンティティの関係を示すラベルによるトリプルを要素とする集合であって、知識グラフ補完装置は、前記エンティティの識別文字列の部分文字列による擬似エンティティを生成するとともに、前記エンティティと前記擬似エンティティの間の関係として部分文字列であることを示すラベルで擬似トリプルを形成して、前記2つのエンティティ間のトリプルの集合である知識グラフに前記擬似トリプルを追加した第2の知識グラフを形成し、前記第2の知識グラフについて、知識グラフ埋め込みモデルに従ってエンティティに関する未知のトリプルの確信度を計算し、確信度の順位の高く且つ確信度が所定値以上のものを新たな情報として推定し補完する、又は、確信度の順位の高く又は確信度が所定値以上のものを新たな情報として推定し補完する。 (4) In order to achieve the above object, the knowledge graph complementing method according to one aspect of the present invention is a knowledge graph complementing method in a knowledge graph which is a database having a graph structure, and the knowledge graph is included in the knowledge graph. A set whose elements are triples with identification strings of each of the two entities and a label indicating the relationship between these entities, and the knowledge graph complement device generates a pseudo-entity based on a substring of the identification character string of the entity. At the same time, a pseudo triple is formed with a label indicating that the relationship between the entity and the pseudo entity is a substring, and the pseudo triple is added to the knowledge graph which is a set of triples between the two entities. A second knowledge graph is formed, and for the second knowledge graph, the certainty of an unknown triple regarding an entity is calculated according to the knowledge graph embedding model, and the certainty rank is high and the certainty is equal to or higher than a predetermined value. Is estimated and supplemented as new information, or those with a high degree of certainty or a certainty level higher than a predetermined value are estimated and supplemented as new information.

(5)また、本発明の一態様に係る知識グラフ補完方法において、前記新たな情報についての質問を人に対して行い、前記質問に対する回答が肯定の場合、
前記新たな情報を確定した情報として補完するようにしてもよい。
(5) Further, in the knowledge graph complementing method according to one aspect of the present invention, when a question about the new information is asked to a person and the answer to the question is affirmative.
The new information may be complemented as finalized information.

上述した(1)又は(4)によれば、知識グラフ補完の精度を向上させることができる。 According to (1) or (4) described above, the accuracy of knowledge graph complementation can be improved.

また、上述した(2)によれば、知識グラフ上にないトリプル候補についてユーザに質問することで知識獲得を試みることができる。また、確信度が低い、すなわち推定結果が不確かな場合にも利用者に不確かな質問を問いかけてしまうことを防ぎ、明らかに間違っているような質問で利用者の対話意欲を削がないようにすることができる。
また、上述した(3)によれば、トリプルの存在尤度を適切に計算することができる。
Further, according to (2) described above, knowledge acquisition can be attempted by asking the user about triple candidates that are not on the knowledge graph. Also, prevent the user from asking uncertain questions even when the certainty is low, that is, when the estimation result is uncertain, and do not discourage the user from interacting with questions that are clearly wrong. can do.
Further, according to (3) described above, the existence likelihood of triples can be appropriately calculated.

実施形態に係る知識グラフ補完装置の構成例を示す図である。It is a figure which shows the configuration example of the knowledge graph complementing apparatus which concerns on embodiment. 実施形態の知識グラフ記憶部が記憶する知識グラフの例を示す図である。It is a figure which shows the example of the knowledge graph which the knowledge graph storage part of embodiment stores. 知識グラフの情報が獲得されていない例を示す図である。It is a figure which shows the example which the information of the knowledge graph is not acquired. 実施形態に係る知識獲得を行う対話の例と知識グラフ補完装置が行う処理の概略を示す図である。It is a figure which shows the example of the dialogue which performs the knowledge acquisition which concerns on embodiment, and the outline of the processing performed by the knowledge graph complement device. 実施形態に係る「もみじ丼」と「親子丼」に対するN=2での展開例を示す図である。It is a figure which shows the development example at N = 2 with respect to "Maple bowl" and "parent-child bowl" which concerns on embodiment. 質問リストに確信度を付与した例である。This is an example of giving confidence to the question list. 実施形態に係る知識グラフ補完装置が行う知識獲得処理のフローチャートである。It is a flowchart of the knowledge acquisition process performed by the knowledge graph complement device which concerns on embodiment. 検証における各設定における精度指標及び学習データと検証結果を示す図である。It is a figure which shows the accuracy index and learning data and the verification result in each setting in the verification.

以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings used in the following description, the scale of each member is appropriately changed in order to make each member recognizable.

[知識グラフ補完装置1の構成]
図1は、本実施形態に係る知識グラフ補完装置1の構成例を示す図である。
図1に示すように、知識グラフ補完装置1は、収音部11(取得部)、音声認識部12(取得部)、知識グラフ記憶部13(取得部)、言語理解部14、補完部15、対話生成部16、シナリオ記憶部17、および出力部18(対話生成部)を備える。
[Configuration of Knowledge Graph Complementary Device 1]
FIG. 1 is a diagram showing a configuration example of the knowledge graph complement device 1 according to the present embodiment.
As shown in FIG. 1, the knowledge graph complement device 1 includes a sound collection unit 11 (acquisition unit), a voice recognition unit 12 (acquisition unit), a knowledge graph storage unit 13 (acquisition unit), a language understanding unit 14, and a complement unit 15. , A dialogue generation unit 16, a scenario storage unit 17, and an output unit 18 (dialogue generation unit).

知識グラフ補完装置1は、利用者との対話を行い、記憶する知識グラフに無い情報を補完する。なお、知識グラフについては後述する。 The knowledge graph complement device 1 interacts with the user and complements information that is not in the knowledge graph to be stored. The knowledge graph will be described later.

収音部11は、マイクロホンであり、音声信号を収音し、収音した音声信号を音声認識部12に出力する。なお、収音部11は、複数のマイクロホンで構成されるマイクロホンアレイであってもよい。 The sound collecting unit 11 is a microphone, collects a voice signal, and outputs the collected voice signal to the voice recognition unit 12. The sound collecting unit 11 may be a microphone array composed of a plurality of microphones.

音声認識部12は、収音部11が出力する音声信号に対して音声認識処理を行う。音声認識処理は、例えば音源定位処理、雑音抑圧処理、音源同定処理、音源分離処理等の処理である。音声認識部12は、認識した結果を例えばテキスト形式で言語理解部14に出力する。 The voice recognition unit 12 performs voice recognition processing on the voice signal output by the sound collection unit 11. The voice recognition process is, for example, a sound source localization process, a noise suppression process, a sound source identification process, a sound source separation process, or the like. The voice recognition unit 12 outputs the recognized result to the language understanding unit 14 in a text format, for example.

知識グラフ記憶部13は、知識グラフを記憶する。なお、知識グラフ記憶部13は、ネットワーク上に置かれていてもよい。ここで、知識グラフとは、エンティティ(Entity)の繋がりの関係で示されている。また、知識グラフ記憶部13は、後述する確信度との比較で用いられるしきい値を記憶する。 The knowledge graph storage unit 13 stores the knowledge graph. The knowledge graph storage unit 13 may be placed on the network. Here, the knowledge graph is shown by the relationship of the connection of entities (Entity). Further, the knowledge graph storage unit 13 stores a threshold value used for comparison with the certainty degree described later.

言語理解部14は、音声認識部12が出力するテキストを、知識グラフ記憶部13が記憶する知識グラフを参照して、発話内容を理解する。言語理解部14は、音声認識部12が出力するテキストを理解できた場合、すなわち知識グラフに情報が存在していた場合、理解した結果を対話生成部16に出力する。言語理解部14は、音声認識部12が出力するテキストを理解できなかった場合、すなわち知識グラフに情報が存在していなかった場合、知識グラフに情報が無かった単語を補完部15に出力する。また、言語理解部14は、質問文に対する利用者の応答が肯定を示す内容の場合、質問内容に基づいて知識グラフを補完する補完指示を補完部15に出力する。言語理解部14は、質問文に対する利用者の応答が否定を示す内容の場合、理解できなかったことを示す情報を対話生成部16に出力する。 The language understanding unit 14 understands the utterance content by referring to the knowledge graph stored in the knowledge graph storage unit 13 with respect to the text output by the voice recognition unit 12. When the language understanding unit 14 can understand the text output by the voice recognition unit 12, that is, when the information exists in the knowledge graph, the language understanding unit 14 outputs the understood result to the dialogue generation unit 16. When the language understanding unit 14 cannot understand the text output by the speech recognition unit 12, that is, when the information does not exist in the knowledge graph, the language understanding unit 14 outputs the word for which there is no information in the knowledge graph to the complement unit 15. Further, when the user's response to the question sentence indicates affirmative content, the language understanding unit 14 outputs a complementary instruction for complementing the knowledge graph to the complementary unit 15 based on the question content. When the user's response to the question sentence is negative, the language understanding unit 14 outputs information indicating that the user could not understand the question to the dialogue generation unit 16.

補完部15は、言語理解部14が出力する知識グラフに情報が存在していなかった単語を取得する。補完部15は、取得した単語に対して質問情報を生成し、生成した質問情報を対話生成部16に出力する。なお、質問情報の生成方法については後述する。補完部15は、言語理解部14が出力する補完指示に基づいて、質問内容に基づいて知識グラフを補完するように知識グラフに記憶させる。 The complement unit 15 acquires a word for which information does not exist in the knowledge graph output by the language understanding unit 14. The complement unit 15 generates question information for the acquired word, and outputs the generated question information to the dialogue generation unit 16. The method of generating question information will be described later. The complement unit 15 stores the knowledge graph in the knowledge graph so as to complement the knowledge graph based on the question content based on the complement instruction output by the language understanding unit 14.

対話生成部16は、補完部15が出力する質問情報と、シナリオ記憶部17が記憶する言語モデルに基づいて質問文を生成し、生成した質問文を出力部18に出力する。又は、言語理解部14が出力する理解した結果と、シナリオ情報に基づいて例えば対話を継続する対話文を生成し、生成した対話文を出力部18に出力する。 The dialogue generation unit 16 generates a question sentence based on the question information output by the complement unit 15 and the language model stored in the scenario storage unit 17, and outputs the generated question sentence to the output unit 18. Alternatively, for example, a dialogue sentence for continuing the dialogue is generated based on the understanding result output by the language understanding unit 14 and the scenario information, and the generated dialogue sentence is output to the output unit 18.

シナリオ記憶部17は、対話シーンに応じたシナリオを記憶する。また、シナリオ記憶部17は、言語モデルも記憶する。 The scenario storage unit 17 stores a scenario according to the dialogue scene. The scenario storage unit 17 also stores the language model.

出力部18は、スピーカーである。出力部18は、対話生成部16が出力する音声信号を再生する。 The output unit 18 is a speaker. The output unit 18 reproduces the audio signal output by the dialogue generation unit 16.

[知識グラフの例]
次に、知識グラフ(参考文献1参照)の例を説明する。
図2は、本実施形態の知識グラフ記憶部13が記憶する知識グラフの例を示す図である。図2に示す例は、知識グラフが記憶する単語が「親子丼」の例である。符号g101、g141、g151〜g154、およびg161は、ノードである。符号g111、g121〜124、およびg131は、エッジである。例えば、符号g111のエッジは味である。符号g121のエッジは材料である。符号g131のエッジは料理種である。このように、「親子丼」については、味、材料、および料理種が獲得されている。なお、図2に示した知識グラフは一例であり、知識グラフの構成は、これに限らない。
[Example of knowledge graph]
Next, an example of the knowledge graph (see Reference 1) will be described.
FIG. 2 is a diagram showing an example of a knowledge graph stored in the knowledge graph storage unit 13 of the present embodiment. In the example shown in FIG. 2, the word stored in the knowledge graph is an example of "Oyakodon". Reference numerals g101, g141, g151 to g154, and g161 are nodes. Reference numerals g111, g121-124, and g131 are edges. For example, the edge of reference numeral g111 is taste. The edge of reference numeral g121 is a material. The edge of the symbol g131 is a dish type. In this way, the taste, ingredients, and cooking types of "Oyakodon" have been acquired. The knowledge graph shown in FIG. 2 is an example, and the structure of the knowledge graph is not limited to this.

ここで、知識グラフにおいて知識を獲得できていない例を説明する。
図3は、知識グラフの情報が獲得されていない例を示す図である。図3に示す例は、単語が「もみじ丼」の例である。符号g101a、g141a、g151a〜g153a、およびg161aは、ノードである。符号g111a、g121a〜123a、およびg131aは、エッジである。例えば、符号g111aのエッジは味である。符号g121aのエッジは材料である。符号g131aのエッジは料理種である。このように、「もみじ丼」については、味、材料が獲得されているが、料理種が獲得できていない。
Here, an example in which knowledge has not been acquired in the knowledge graph will be described.
FIG. 3 is a diagram showing an example in which the information of the knowledge graph is not acquired. In the example shown in FIG. 3, the word is "Maple bowl". Reference numerals g101a, g141a, g151a to g153a, and g161a are nodes. Reference numerals g111a, g121a to 123a, and g131a are edges. For example, the edge of reference numeral g111a is taste. The edge of reference numeral g121a is a material. The edge of the symbol g131a is a dish type. In this way, for "Maple bowl", the taste and ingredients have been acquired, but the cooking type has not been acquired.

参考文献1;Angles, R. and Gutierrez, C., “Survey of Graph Database Models”, ACM Comput, Surv., 2008, Vol. 40, No. 1, pp. 1:1-1:39 Reference 1; Angles, R. and Gutierrez, C., “Survey of Graph Database Models”, ACM Comput, Surv., 2008, Vol. 40, No. 1, pp. 1: 1-1: 39

[知識獲得を行う対話の枠組み]
次に、知識獲得を行う対話の例と知識グラフ補完装置1が行う処理の概略を説明する。
図4は、本実施形態に係る知識獲得を行う対話の例と知識グラフ補完装置1が行う処理の概略を示す図である。
[Framework for dialogue to acquire knowledge]
Next, an example of a dialogue for acquiring knowledge and an outline of the processing performed by the knowledge graph complement device 1 will be described.
FIG. 4 is a diagram showing an example of a dialogue for acquiring knowledge according to the present embodiment and an outline of processing performed by the knowledge graph complement device 1.

まず、知識グラフ補完装置1は、利用者が発話した「この前、もみじ丼を初めて食べたんですけど 美味しかったですね」を取得する。 First, the knowledge graph complement device 1 acquires the "I ate Momiji-don for the first time, but it was delicious" that the user said.

知識グラフ補完装置1は、知識グラフ記憶部13を探索して「もみじ丼」に関する情報が不足していることを認識する。この場合、図3に示したように、料理種の情報が不足していたとする。 The knowledge graph complementing device 1 searches the knowledge graph storage unit 13 and recognizes that the information regarding the "maple bowl" is insufficient. In this case, as shown in FIG. 3, it is assumed that the information on the cooking type is insufficient.

次に、知識グラフ補完装置1は、不明な情報がある「料理種」の関係(リレーション)に基づいて、質問リストを生成する。 Next, the knowledge graph complement device 1 generates a question list based on the relationship between "cooking types" having unknown information.

次に、知識グラフ補完装置1は、既知のグラフパターンに基づき埋め込み表現に変換する。なお、埋め込み表現については後述する。 Next, the knowledge graph complement device 1 converts it into an embedded representation based on a known graph pattern. The embedded expression will be described later.

次に、知識グラフ補完装置1は、埋め込み表現から質問リスト内のトリプルに対し存在尤度を表すスコアを計算し確信度として付与する。 Next, the knowledge graph complementing device 1 calculates a score representing the existence likelihood for the triple in the question list from the embedded expression and gives it as a certainty.

次に、知識グラフ補完装置1は、最も確信度が高く、かつその確信度がしきい値以上の質問を選択し、利用者に質問「もみじ丼って和食ですか?」を発することで、知識獲得を試みる。なお、本実施形態では、確信度による順位だけでなく、確信度の絶対値も、しきい値によって考慮する。この理由は、確信度が低い、すなわち推定結果が不確かな場合にも利用者に問いかけてしまうことを防ぎ、明らかに間違っているような質問で利用者の対話意欲を削がないようにするためである。 Next, the knowledge graph complement device 1 selects a question with the highest degree of certainty and the degree of certainty is equal to or higher than the threshold value, and asks the user the question "Is Momiji-don Japanese food?" Try to acquire knowledge. In this embodiment, not only the ranking by the conviction but also the absolute value of the conviction is considered by the threshold value. The reason for this is to prevent the user from asking the user even when the certainty is low, that is, when the estimation result is uncertain, and to prevent the user from being discouraged from interacting with a question that is clearly wrong. Is.

次に、知識グラフ補完装置1は、利用者の発話「そうですね!」が肯定を表しているため、「もみじ丼」の料理種が「和食」であることを知識として獲得し、知識グラフに記憶する。 Next, in the knowledge graph complementing device 1, since the user's utterance "That's right!" Expresses affirmation, the knowledge graph acquires the fact that the cooking type of "Maple bowl" is "Japanese food" and stores it in the knowledge graph. To do.

このように、本実施形態では、利用者が発した音声信号の中に知識グラフに無い情報があった場合、その情報を獲得するための質問を生成し、その質問に基づいて知識グラフを補完する。 As described above, in the present embodiment, when there is information that is not in the knowledge graph in the audio signal emitted by the user, a question for acquiring the information is generated, and the knowledge graph is complemented based on the question. To do.

[知識グラフの補完方法]
次に、知識グラフの補完方法例を説明する。
図4に示したように、補完部15は、トリプルをユーザから獲得するために質問リストを生成する。
[How to complement the knowledge graph]
Next, an example of how to complement the knowledge graph will be described.
As shown in FIG. 4, the complement 15 generates a question list in order to acquire triples from the user.

一般に知識グラフは、ラベル付き有向グラフとして表される。有向グラフ上のエッジには、リレーションを表すラベルが付与されている。ノードはエンティティに相当する。知識グラフ上のエンティティの集合をε、リレーションの集合をRとする。e、e∈ε、ω∈Rに対して三つ組(i,j,k)をトリプルと定義する。この時i,j,kをそれぞれ主語、述語、目的語と定義する。トリプルは、2つのエンティティ間の関係を表現する知識グラフの基本的な要素である。知識グラフGはトリプルを要素とする集合として表せる。 Knowledge graphs are generally represented as labeled directed graphs. The edges on the directed graph are labeled to represent the relationship. Nodes correspond to entities. Let ε be the set of entities on the knowledge graph and R be the set of relations. For e i , e k ∈ ε, ω j ∈ R, we define a triplet (i, j, k) as a triple. At this time, i, j, and k are defined as the subject, predicate, and object, respectively. A triple is a basic element of a knowledge graph that represents the relationship between two entities. The knowledge graph G can be represented as a set having triples as elements.

図4に示した例では、「もみじ丼」に対して料理種の情報が獲得されていない。このため、補完部15は、トリプル(もみじ丼、料理種、?)と目的語を穴埋めするように質問リストを生成する。本実施形態で生成する質問リストは、この例のように目的語を穴埋めするような形式で生成する。補完部15は、質問において、シナリオ記憶部17が記憶する情報を参照して、対話の文脈や話題に関連する質問リストを生成するようにし、急な話題転換を避けるようにする。 In the example shown in FIG. 4, the information on the cooking type is not acquired for "Maple bowl". For this reason, the complementary unit 15 generates a question list so as to fill in the triples (maple bowl, cooking type,?) And the object. The question list generated in this embodiment is generated in a format that fills in the object as in this example. In the question, the complement unit 15 refers to the information stored in the scenario storage unit 17 to generate a question list related to the context of the dialogue and the topic, and avoids a sudden topic change.

[識別文字列を用いた知識グラフ埋め込み]
次に、補完部15は、既知のグラフパターンに基づいて、埋め込み表現(参考文献2参照)に変換する。モデルはエンティティ同士がどのようにリンクしているかを元に埋め込み表現を学習するが、全てのエンティティが持つ識別文字列(名称)に関する情報は学習に組み込まれていない。そこで、本実施形態では、知識グラフ上のエンティティの識別文字列を部分文字列に分解し、先頭もしくは末尾の数文字を擬似エンティティとして作成し、組み込む。似た部分文字列を持つエンティティ同士は似た性質を持つ可能性が高いという仮定のもとで、このようなエンティティ同士の関連性が強くなり補完精度の向上に結びつける。なお、埋め込み表現は、潜在空間への埋め込みである。
[Embedding knowledge graph using identification character string]
Next, the complementary unit 15 converts it into an embedded expression (see Reference 2) based on a known graph pattern. The model learns embedded expressions based on how entities are linked to each other, but the information about the identification character strings (names) of all entities is not incorporated into the learning. Therefore, in the present embodiment, the identification character string of the entity on the knowledge graph is decomposed into subcharacter strings, and the first or last few characters are created and incorporated as a pseudo entity. Under the assumption that entities with similar substrings are likely to have similar properties, the relationships between such entities will be stronger, leading to improved complement accuracy. The embedded expression is an embedding in a latent space.

本実施形態では、N文字以下の先頭もしくは末尾の部分文字列で擬似的にエンティティを作成し新たにトリプルを構成することを、N文字で展開すると記述する。図5は、本実施形態に係る「もみじ丼」と「親子丼」に対するN=2での展開例を示す図である。また、図5は、2文字で展開を行った例である。 In the present embodiment, it is described that a pseudo entity is created with a substring at the beginning or the end of N characters or less to form a new triple, which is expanded with N characters. FIG. 5 is a diagram showing an example of development at N = 2 for the “maple bowl” and the “parent-child bowl” according to the present embodiment. In addition, FIG. 5 is an example of expansion with two characters.

補完部15は、展開の対象となっている「もみじ丼」と「親子丼」の先頭と末尾それぞれの1文字と2文字を抽出する。補完部15は、「もみじ丼」に対して、先頭1文字の「も」と、先頭2文字の「もみ」と、末尾2文字の「じ丼」と、末尾1文字の「丼」を抽出する。補完部15は、「親子丼」に対して、先頭1文字の「親」と、先頭2文字の「親子」と、末尾2文字の「子丼」と、末尾1文字の「丼」を抽出する。本実施形態では、抽出した先頭1、2文字、末尾1、2文字を、疑似エンティティという。 The complementary unit 15 extracts one character and two characters at the beginning and end of the “maple bowl” and the “parent-child bowl” that are the targets of expansion, respectively. Complementary unit 15 extracts the first character "mo", the first two characters "fir", the last two characters "jidon", and the last one character "don" from the "maple bowl". To do. Complementary unit 15 extracts the first character "parent", the first two characters "parent and child", the last two characters "child bowl", and the last character "don" for the "parent-child bowl". To do. In the present embodiment, the extracted first 1 and 2 characters and the last 1 and 2 characters are referred to as pseudo entities.

また、補完部15は、展開した先頭1、2文字、末尾1、2文字に対して、部分文字列であることを示すsubsを先頭に付けた識別子を持つエンティティ(擬似エンティティ)を作成する。この結果、擬似エンティティとして、「subs_も」、「subs_もみ」、「subs_じ丼」、「subs_丼」、「subs_親」、「subs_子」、「subs_子丼」、「subs_丼」が作成される。 Further, the complementing unit 15 creates an entity (pseudo-entity) having an identifier with a subs indicating that it is a sub-character string at the beginning of the expanded first 1, 2 characters and last 1 or 2 characters. As a result, "subs_mo", "subs_fir", "subs_jidon", "subs_don", "subs_parent", "subs_child", "subs_child bowl", "subs_don" are created as pseudo-entities. Will be done.

ここで、図5において、ラベル「prefix_1」は先頭1文字を表す。ラベル「prefix_2」は先頭2文字を表す。ラベル「suffix_1」は末尾1文字を表す。ラベル「suffix_2」は末尾2文字を表す。そして展開元のエンティティから作成した疑似エンティティに向けてprex_Nもしくはsuffix_Nというリレーションでトリプルを構成する。図5の例では、2つの料理が「subs_丼」という疑似エンティティを経由して繋がっている。本実施形態では、このような展開を、部分文字列を用いた知識グラフ埋め込みと呼ぶ。 Here, in FIG. 5, the label "prefix_1" represents the first character. The label "prefix_2" represents the first two characters. The label "sufix_1" represents the last character. The label "sufix_2" represents the last two characters. Then, a triple is formed by the relation of prex_N or suffix_N toward the pseudo entity created from the entity of the expansion source. In the example of FIG. 5, the two dishes are connected via a pseudo-entity called "subs_don". In the present embodiment, such expansion is referred to as knowledge graph embedding using a substring.

なお、図5に示した例では、N=2、すなわち2文字の例を説明したが、Nは3以上(3文字以上)であってもよい。例えば、補完部15は、料理種が未知の「たらこ茶漬け」に対して、先頭から1文字を「た」、先頭から2文字を「たら」、先頭から3文字が「たらこ」、末尾から3文字を「茶漬け」、末尾から2文字を「漬け」、末尾から1文字を「け」を抽出するようにしてもよい。また、補完部15は、料理種が既知の「のり茶漬け」に対して、先頭から1文字を「の」、先頭から2文字を「のり」、先頭から3文字が「のり茶」、末尾から3文字を「茶漬け」、末尾から2文字を「漬け」、末尾から1文字を「け」を抽出するようにしてもよい。 In the example shown in FIG. 5, N = 2, that is, an example of 2 characters has been described, but N may be 3 or more (3 or more characters). For example, the complementary unit 15 has one character from the beginning "ta", two characters from the beginning "tara", three characters from the beginning "tarako", and three characters from the end for "tarako chazuke" whose cooking type is unknown. You may extract the character "chazuke", the last two characters "pickled", and the last one character "ke". Further, in the complementary unit 15, for "Nori Chazuke" whose cooking type is known, one character from the beginning is "no", two characters from the beginning is "Nori", three characters from the beginning are "Nori Cha", and from the end. You may extract 3 characters as "chazuke", 2 characters from the end as "pickled", and 1 character from the end as "ke".

参考文献2;Kadlec, R., Bajgar, O., and Kleindienst, J., “ Knowledge Base Completion: Baselines Strike Back”,2017, in Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 69-74 Reference 2; Kadlec, R., Bajgar, O., and Kleindienst, J., “Knowledge Base Completion: Baselines Strike Back”, 2017, in Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 69-74

[知識グラフ埋め込みとComplEx]
トリプルの存在尤度の計算は、知識グラフの埋め込み表現を利用する。知識グラフ埋め込みは、知識グラフに対する代表的な解析手法として知られている。低次元線形空間に知識グラフを埋め込み汎化させることで、グラフ上の欠損したリンクの有無を推論し補完する。知識グラフは、|ε|×|R|×|ε|の3階テンソルXとして表現することができ、Xの(i,j,k) 要素xi,j,kは次式(1)のように表される。
[Knowledge Graph Embedding and ComplexEx]
The calculation of the existence likelihood of triples uses the embedded representation of the knowledge graph. Knowledge graph embedding is known as a typical analysis method for the knowledge graph. By embedding a knowledge graph in a low-dimensional linear space and generalizing it, the presence or absence of missing links on the graph is inferred and complemented. The knowledge graph can be expressed as a third-order tensor X of | ε | × | R | × | ε |, and the (i, j, k) elements x i, j, k of X are of the following equation (1). It is expressed as.

Figure 2020191009
Figure 2020191009

この表現を用いて、知識グラフ埋め込みではトリプル(i,j,k)が知識グラフ上に存在する確率P(xi,j,k=1)を、モデルに対応したスコア関数φを用いて次式(2)のように表す。 Using this expression, the probability P (x i, j, k = 1) that a triple (i, j, k) exists on the knowledge graph in the knowledge graph embedding is calculated by using the score function φ corresponding to the model. It is expressed as in equation (2).

Figure 2020191009
Figure 2020191009

式(2)においてσ(・)はシグモイド関数であり、Θは各モデルにおけるパラメータを表す。
ここで、ComplEx(参考文献3)は知識グラフ埋め込みモデルの一種である。なお、ComplExは、ノードとノードとの関係を表す行列である。ComplExは、複素数表現とエルミート内積を利用したモデルとして知られる。ここで、C(Cは複素数全体の集合)を複素n−次元空間とし、e,e∈C,w∈Cをそれぞれエンティティの関連性(リレーション)に関するD次元の埋め込みベクトルとし、Re(x)をxの実部とする。これによりComplExにおけるスコア関数φCompは、次式(3)のように表される。
In equation (2), σ (・) is a sigmoid function, and Θ represents a parameter in each model.
Here, ComplEx (Reference 3) is a kind of knowledge graph embedding model. Note that CompactEx is a matrix that represents the relationship between nodes. ComplEx is known as a model that utilizes the complex representation and the Hermitian dot product. Here, C n (C is a set of all complex numbers) is a complex n-dimensional space, and e i , e k ∈ C D , and w j ∈ C D are D-dimensional embedded vectors related to the relationships between entities. Let Re (x) be the real part of x. As a result, the score function φ Comp in ComplEx is expressed by the following equation (3).

Figure 2020191009
Figure 2020191009

ここでベクトルvのl番目の要素をvlとした時、<a,b,c>:=Σと定義する。v_はvの複素共役ベクトルである。 Here, when the l-th element of the vector v is vl, it is defined as <a, b, c>: = Σ k a k b k k k . v_ is the complex conjugate vector of v.

補完部15は、このように求めたスコア関数を確信度とし、質問リストにこの確信度を付与する。図6は、質問リストに確信度を付与した例である。図6に示す例では、(もみじ丼,料理種,和食)のトリプルの確信度が0.0015で最も大きい。 The complementary unit 15 uses the score function obtained in this way as the conviction, and imparts this conviction to the question list. FIG. 6 is an example in which the question list is given a certain degree of certainty. In the example shown in FIG. 6, the certainty of the triple (maple bowl, cooking type, Japanese food) is 0.0015, which is the highest.

参考文献3;Trouillon, T., Welbl, J., Riedel, S., Gaussier, E., and Bouchard, G.:”Complex Embeddings for Simple Link Prediction”, 2016, in Proceedings of the 33rd International Conference on International Conference on Machine Learning, pp. 2071-2080 Reference 3: Trouillon, T., Welbl, J., Riedel, S., Gaussier, E., and Bouchard, G .: “Complex Embeddings for Simple Link Prediction”, 2016, in Proceedings of the 33rd International Conference on International Conference on Machine Learning, pp. 2071-2080

このように、本実施形態では、取得した発話の中に知識グラフ記憶部13に記憶されていない未知のエンティティがある場合、補完部15が、知識グラフ記憶部13が記憶する既知のグラフのパターンに基づいて、識別文字列を考慮したの埋め込み表現に展開するようにした。そして、補完部15が、展開した結果に基づいて未知のエンティティについてのトリプル候補を生成し、生成したトリプル候補の確信度を算出するようにした。そして、補完部15が、算出した確信度に基づいて、未知のエンティティに関する知識を獲得するようにした。 As described above, in the present embodiment, when there is an unknown entity that is not stored in the knowledge graph storage unit 13 in the acquired utterance, the complementary unit 15 stores the known graph pattern stored in the knowledge graph storage unit 13. Based on, it is expanded to the embedded expression considering the identification character string. Then, the complement unit 15 generates triple candidates for unknown entities based on the expanded result, and calculates the certainty of the generated triple candidates. Then, the complementary unit 15 acquires knowledge about an unknown entity based on the calculated conviction.

例えば「もみじ丼」と「親子丼」の間にはリンクがなく、「もみじ丼」が未知のエンティティである場合に、疑似エンティティ「subs_丼」を介して(親子丼,suffix_1,subs_丼)と(もみじ丼,suffix_1,subs_丼)という述語と目的語が同一の関係を持つことになる。このことから「もみじ丼」と「親子丼」は、類似している可能性があるという情報をモデルに与えることができる。本実施形態では、この情報を用いて、例えば「親子丼」が持つ「料理種が和食」という属性を、「もみじ丼」も同様に持つかもしれない、という推論をComplExにより行うようにした。そして、本実施形態では、(親子丼,料理種,和食)というトリプルが学習データに含まれる場合(既知の場合)に、学習データには存在しない(もみじ丼,料理種,?)のようなトリプルのうち、ComplExによって求めた確信度が最も高い(もみじ丼,料理種,和食)トリプルを用いて、知識を獲得するようにした。これにより、本実施形態によれば、未知のエンティティに関する知識を獲得することができる。 For example, if there is no link between "Momiji-don" and "Oyako-don" and "Momiji-don" is an unknown entity, via the pseudo-entity "subs_don" (parent-child bowl, sufix_1, subs_don) The predicate (maple bowl, sufix_1, subs_don) and the object have the same relationship. From this, it is possible to give information to the model that "Maple bowl" and "Oyakodon" may be similar. In the present embodiment, using this information, it is inferred by ComplEx that, for example, "Oyakodon" may have the attribute "Cooking type is Japanese", and "Maple bowl" may also have it. Then, in the present embodiment, when the triple (parent-child bowl, cooking type, Japanese food) is included in the learning data (if known), it does not exist in the learning data (maple bowl, cooking type ,?). Of the triples, the triple with the highest degree of certainty (maple bowl, cooking type, Japanese food) obtained by ComplEx was used to acquire knowledge. Thereby, according to the present embodiment, it is possible to acquire knowledge about an unknown entity.

[処理手順例]
次に、処理手順例を説明する。図7は、本実施形態に係る知識グラフ補完装置が行う知識獲得処理のフローチャートである。
[Example of processing procedure]
Next, an example of the processing procedure will be described. FIG. 7 is a flowchart of the knowledge acquisition process performed by the knowledge graph complement device according to the present embodiment.

(ステップS1)収音部11は、音声信号を収音する。続けて、音声認識部12は、音声信号を取得する。 (Step S1) The sound collecting unit 11 collects an audio signal. Subsequently, the voice recognition unit 12 acquires the voice signal.

(ステップS2)音声認識部12は、取得した音声信号に対して音声認識処理を行う。 (Step S2) The voice recognition unit 12 performs voice recognition processing on the acquired voice signal.

(ステップS3)言語理解部14は、音声認識処理されたフレーズの中に、リレーションが不明な情報があるか否かを判別する。言語理解部14は、リレーションが不明な情報がないと判別した場合(ステップS3;NO)、処理を終了する。言語理解部14は、リレーションが不明な情報があると判別した場合(ステップS3;YES)、ステップS4の処理に進める。 (Step S3) The language understanding unit 14 determines whether or not there is information whose relation is unknown in the phrase that has undergone voice recognition processing. When the language understanding unit 14 determines that there is no information whose relation is unknown (step S3; NO), the language understanding unit 14 ends the process. When the language understanding unit 14 determines that there is information whose relation is unknown (step S3; YES), the language understanding unit 14 proceeds to the process of step S4.

(ステップS4)補完部15は、不明な情報があるリレーションから質問リストを生成する。 (Step S4) Complementary unit 15 generates a question list from a relation having unknown information.

(ステップS5)補完部15は、既知のグラフパターンに基づいて、不明な情報を埋め込み表現に変換する。 (Step S5) Complementary unit 15 converts unknown information into an embedded representation based on a known graph pattern.

(ステップS6)補完部15は、変換した埋め込み表現を、部分文字列を用いた知識グラフの埋め込みに展開する。 (Step S6) The complementary unit 15 expands the converted embedded expression into embedding a knowledge graph using a sub-character string.

(ステップS7)補完部15は、展開した結果に基づいて、質問リストの質問毎に確信度(スコア)を計算して、質問に確信度を付与する。 (Step S7) The complementary unit 15 calculates the certainty (score) for each question in the question list based on the expanded result, and gives the question a certainty.

(ステップS8)補完部15は、確信度が最も大きく、かつ確信度の絶対値がしきい値以上であるトリプル(主語、述語、目的語)を選択する。 (Step S8) The complement unit 15 selects a triple (subject, predicate, object) having the highest conviction and an absolute value of conviction equal to or greater than a threshold value.

(ステップS9)対話生成部16は、補完部15が選択したトリプルと、シナリオ記憶部17が記憶する言語モデルに基づいて質問文を生成する。続けて、出力部18は質問文を出力する。 (Step S9) The dialogue generation unit 16 generates a question sentence based on the triple selected by the complement unit 15 and the language model stored in the scenario storage unit 17. Subsequently, the output unit 18 outputs a question sentence.

(ステップS10)収音部11は、音声信号を収音する。続けて、音声認識部12は、音声信号を取得する。 (Step S10) The sound collecting unit 11 collects an audio signal. Subsequently, the voice recognition unit 12 acquires the voice signal.

(ステップS11)音声認識部12は、取得した音声信号に対して音声認識処理を行う。 (Step S11) The voice recognition unit 12 performs voice recognition processing on the acquired voice signal.

(ステップS12)言語理解部14は、音声認識処理された結果、肯定的な発話であったか否かを判別する。言語理解部14は、肯定的な発話であったと判別した場合(ステップS12;YES)、ステップS13の処理に進める。言語理解部14は、否定的な発話であったと判別した場合(ステップS12;NO)、ステップS14の処理に進める。 (Step S12) The language understanding unit 14 determines whether or not the utterance is positive as a result of the voice recognition process. When the language understanding unit 14 determines that the utterance was affirmative (step S12; YES), the language understanding unit 14 proceeds to the process of step S13. When the language understanding unit 14 determines that the utterance was negative (step S12; NO), the language understanding unit 14 proceeds to the process of step S14.

(ステップS13)補完部15は、質問に用いたトリプルに基づいて、未知の情報が獲得できたとして、知識グラフに情報を記憶させる。処理後、知識獲得処理を終了する。 (Step S13) The complementary unit 15 stores the information in the knowledge graph, assuming that unknown information has been acquired based on the triple used for the question. After the process, the knowledge acquisition process is terminated.

(ステップS14)対話生成部16は、ステップS1で収音された発話に不明な情報があったため、不明な情報に対する質問文を、シナリオ記憶部17が記憶するシナリオに基づいて質問文を生成する。続けて、出力部18は質問文を出力する。処理後、知識獲得処理を終了する。 (Step S14) Since the utterance picked up in step S1 contains unknown information, the dialogue generation unit 16 generates a question sentence for the unknown information based on the scenario stored in the scenario storage unit 17. .. Subsequently, the output unit 18 outputs a question sentence. After the process, the knowledge acquisition process is terminated.

なお、ステップS14で出力する質問文は、例えばステップS1の発話が「この前 もみじ丼を初めて食べたんですけど 美味しかったですね」の場合、「もみじ丼は、どのような料理ですか?」等の質問文を生成する。そして、知識グラフ補完装置1は、本実施形態の保管方法で知識を獲得できなかった場合に、この質問に対する回答に基づいて、不明な情報を獲得するようにしてもよい。 The question text output in step S14 is, for example, if the utterance in step S1 is "I ate Momiji-don for the first time, but it was delicious", "What kind of dish is Momiji-don?" Generate the question text of. Then, the knowledge graph complementing device 1 may acquire unknown information based on the answer to this question when the knowledge cannot be acquired by the storage method of the present embodiment.

[検証例]
次に、上述した部分文字列を用いた知識グラフ埋め込みによる補完の精度を検証し,その効果を確認した結果を説明する。
[Verification example]
Next, the accuracy of complementation by embedding the knowledge graph using the above-mentioned substring is verified, and the result of confirming the effect will be described.

まず、検証に用いたデータについて説明する。
検証に使用した知識グラフは、対話システムでの運用を目的として、料理に関する表形式のデータベースを元に作成されたものである。詳述すると、知識グラフには、料理やその材料、料理種、味、食べられる場所などが格納されている.このデータベースは、人手で作成されたものであり部分的にしか情報がない。このデータベースから作成される知識グラフに対して、上述した手法を適用して情報の補完を行った。
First, the data used for verification will be described.
The knowledge graph used for verification was created based on a tabular database on cooking for the purpose of operation in an interactive system. In detail, the knowledge graph stores dishes, their ingredients, types of dishes, tastes, places to eat, and so on. This database was created manually and has only partial information. The above method was applied to the knowledge graph created from this database to supplement the information.

この知識グラフはエンティティ数|ε|=7289、リレーション数|R|=14であり、そのトリプル数は22321である。エンティティに付与された識別文字列の長さの平均は5.88(文字)であり、標準偏差は3.18(文字)である。 This knowledge graph has the number of entities | ε | = 7289, the number of relations | R | = 14, and the number of triples is 22321. The average length of the identification string given to the entity is 5.88 (characters) and the standard deviation is 3.18 (characters).

次に、検証方法を説明する。
精度検証では、検証用の知識グラフを無作為に5分割し、その内4つをトレーニングデータG’、1つをテストデータH’とする5分割交差検証を行った。また精度検証では、トレーニングデータを埋め込み、その埋め込み表現とH’から知識グラフ補完で一般に用いられる精度指標であるHits@KとMRRを算出した。なお、Hits@Kは、(i’,j’,k’;Θ)の内k’を全エンティティと入れ替えてスコアを計算し、得られるランキング中でφComp(i’,j’,k’;Θ)が上位K位に入る割合を指す。また、MRRは、平均逆順位とも呼ばれ,前述のランキングにおけるφComp(i’,j’,k’;Θ)の順位の逆数の平均として表される。
Next, the verification method will be described.
In the accuracy verification, the knowledge graph for verification was randomly divided into five, and four of them were used as training data G'and one was used as test data H'. In the accuracy verification, training data was embedded, and Hits @ K and MRR, which are accuracy indexes generally used in knowledge graph complementation, were calculated from the embedded expression and H'. Hits @ K calculates the score by replacing k'of (i', j', k'; Θ) with all entities, and in the obtained ranking, φ Comp (i', j', k'; Θ) refers to the ratio of the top K ranks. MRR is also called the average reciprocal, and is expressed as the average of the reciprocals of the reciprocals of the reciprocals of φ Comp (i', j', k';

部分文字列を用いた知識グラフ埋め込みの効果を検証するため、展開文字数N=1,2,…,7としてトレーニングデータを展開した場合に加え、比較対象として展開を行わない場合のHits@KとMRRを算出した。展開時のトレーニングデータに関する詳細を図6の右部に示す。また、図8の左部は5分割交差検証の結果を示す。図8は、検証における各設定における精度指標及び学習データと検証結果を示す図である。 In order to verify the effect of embedding the knowledge graph using substrings, in addition to the case where the training data is expanded with the number of expanded characters N = 1, 2, ..., 7, Hits @ K when the expansion is not performed as a comparison target. The MRR was calculated. Details regarding the training data at the time of deployment are shown in the right part of FIG. The left part of FIG. 8 shows the result of 5-fold cross-validation. FIG. 8 is a diagram showing the accuracy index, the learning data, and the verification result in each setting in the verification.

テストデータ数は4464個である。検証では、全ての場合に共通してComplExによる埋め込みを適用した。埋め込み次元は複素200次元としてロジスティック回帰による学習を行った。学習率調整は参考文献3の手法に倣いAdagradを利用し、イテレーション数は1000、負例サンプリング数は5とした。指標算出時のランキングでは、展開して得られた部分文字列エンティティを含むトリプルをランキングの対象外とした.検証では、同様に既にテストデータに含まれるトリプルに関してもランキングの対象外とした。 The number of test data is 4464. In the verification, embedding by CompLEx was applied in common in all cases. The embedded dimension was a complex 200 dimension, and learning was performed by logistic regression. The learning rate was adjusted by using Adagrad following the method of Reference 3, and the number of iterations was 1000 and the number of negative example samplings was 5. In the ranking at the time of index calculation, triples including the expanded substring entities were excluded from the ranking. In the verification, triples already included in the test data were also excluded from the ranking.

次に、検証結果を説明する。
図8の左部に示すように、展開文字数Nに関わらず、比較対象(Baseline)に対して全ての指標が上昇していることわかった。
また、Hits@3,5,10については、Nに比例して上昇していた。一方、Hits@1は、N=3の時に最大値をとり、N=4,5,…と増加するにつれ減少する傾向が見られた。MRRに関しても同様に、N=3の時が最大であった。
Next, the verification result will be described.
As shown in the left part of FIG. 8, it was found that all the indexes were increased with respect to the comparison target (Baseline) regardless of the number of expanded characters N.
In addition, Hits @ 3, 5 and 10 increased in proportion to N. On the other hand, Hits @ 1 took the maximum value when N = 3, and tended to decrease as it increased to N = 4, 5, .... Similarly, for MRR, the time when N = 3 was the maximum.

この分割したデータで補完された実例を説明する。例えば(たらこ茶漬け,is_a,お茶漬け)といった部分文字列がそのまま結びついた単純な補完例があり、2987位から1位に改善されていた。なお、is_aは、上述したように述語であり、“たらこ茶漬け”+“は〜である”を表している。また(ホットケーキ,味,甘い)といったように、部分文字列で結びついたエンティティの情報から改善されたと考えられる例もあり、8位から1位に改善されていた。 An example complemented with this divided data will be described. For example, there was a simple complementary example in which substrings such as (Tarako Chazuke, is_a, Ochazuke) were directly linked, and it was improved from 2987th place to 1st place. In addition, is_a is a predicate as described above, and represents "cod roe chazuke" + "is". In addition, there were cases such as (hot cake, taste, sweetness) that were considered to be improved from the information of entities connected by substrings, and were improved from 8th place to 1st place.

次に、リレーション毎の精度を確認した。ある分割データに対し、上述した方法によって算出されたHits@Kをリレーション毎に分類して算出した。Hits@3,5,10の精度が悪化しているリレーションは無く、全体としては比較対象以上の精度を保持していることがわかった。また“is_a”や“料理種”といったような階層構造やタイプ等を表しているリレーションは、比較対象に対し精度が大きく上昇していた。またそれ以外にも“味”や“温度”といったリレーションに関しても同等の精度上昇が確認できた。 Next, the accuracy of each relation was confirmed. For a certain divided data, Hits @ K calculated by the above method was classified and calculated for each relation. It was found that there was no relation in which the accuracy of Hits @ 3, 5 and 10 deteriorated, and that the accuracy was higher than that of the comparison target as a whole. In addition, the accuracy of relations representing hierarchical structures, types, etc. such as "is_a" and "cooking type" was greatly improved with respect to the comparison target. In addition to that, the same increase in accuracy was confirmed for relations such as "taste" and "temperature".

[質問例]
生成できる質問例について説明する。学習方法は検証と同様であるが、知識グラフを分割せず、すべてを学習に用いた。比較対象とN=3で展開した場合の2設定を説明する。例えば(月見団子,味,甘い)という事実について、質問リストを(月見団子,味,?)として順位とそのスコアを算出した。比較対象設定では、順位が5位、スコアが−4.00であった。N=3とした場合は、順位が1位、スコアが−1.68であった。「月見団子」と「甘い」が部分文字列の展開によって結びついたわけではないが、”団子”を末尾に持つ他のエンティティの味に関する情報を元に順位とスコアが改善されたものと考えられる。
[Question example]
An example of a question that can be generated will be described. The learning method is the same as the verification, but the knowledge graph is not divided and all are used for learning. Two settings when the comparison target and N = 3 are expanded will be described. For example, for the fact (Tsukimi dumpling, taste, sweet), the ranking and its score were calculated using the question list as (Tsukimi dumpling, taste,?). In the comparison target setting, the ranking was 5th and the score was -4.00. When N = 3, the ranking was 1st and the score was -1.68. "Tsukimi dumpling" and "sweet" were not linked by the expansion of the substring, but it is thought that the ranking and score were improved based on the information on the taste of other entities ending with "dumpling". ..

また(五目炊き込みご飯,温度,あたたかい)という事実に関しても同様に順位とスコアを算出した。比較対象設定では、順位が7位、スコアが−4.13であった。N=3とした場合は、順位が1位、スコアが−1.66であった。この例でも、"ご飯"を末尾に持つ料理との関連性が上がったことが改善の理由だと推察できる。 In addition, the ranking and score were calculated in the same way for the fact (rice cooked with five eyes, temperature, warmth). In the comparison target setting, the ranking was 7th and the score was -4.13. When N = 3, the ranking was 1st and the score was -1.66. In this example as well, it can be inferred that the reason for the improvement is that the relevance to the dishes with "rice" at the end has increased.

以上のように、本実施形態では、未知のワードが出現したときに、そのワードについての知識(属性)を既存の知識グラフ(データベース)に基づいて獲得する際の精度を向上させる。本実施形態では、知識グラフ中のワード(エンティティあるいはノード)の文字列の先頭又は末尾の数文字を擬似エンティティとして知識グラフに組み込む。本実施形態では、同じ部分文字列を持つエンティティ同士は似た性質を持つ可能性が高いという仮定において、擬似エンティティを介して繋がるエンティティの関連性が強くなり精度向上する。 As described above, in the present embodiment, when an unknown word appears, the accuracy of acquiring the knowledge (attribute) about the word based on the existing knowledge graph (database) is improved. In this embodiment, the first or last few characters of the word (entity or node) character string in the knowledge graph are incorporated into the knowledge graph as pseudo-entities. In the present embodiment, on the assumption that entities having the same substring are likely to have similar properties, the relevance of the entities connected via the pseudo-entity is strengthened and the accuracy is improved.

なお、上述した例では、利用者の発話を音声信号として取得する例を説明したが、これに限らない。取得する発話は、テキストファイルであってもよい。この場合、言語理解部14は、図1の鎖線のように、利用者が例えばキーボード(不図示)を操作して入力したテキストを取得するようにしてもよい。これにより、利用者が発話を行うことが困難であっても、知識グラフ補完装置1は未知の情報を取得することができる。 In the above-mentioned example, an example of acquiring a user's utterance as a voice signal has been described, but the present invention is not limited to this. The utterance to be acquired may be a text file. In this case, the language understanding unit 14 may acquire the text input by the user by operating, for example, a keyboard (not shown) as shown by the chain line in FIG. As a result, the knowledge graph complement device 1 can acquire unknown information even if it is difficult for the user to speak.

なお、上述した知識グラフ補完装置1は、例えば人型ロボット、受付システム、車両等の応答システム、スマートフォン等の応答システムに適用することも可能である。これらの装置やシステムに適用することで、これらの装置やシステムが利用する知識グラフを効率よく補完して、未知の情報を取得することができる。 The knowledge graph complement device 1 described above can also be applied to, for example, a humanoid robot, a reception system, a response system such as a vehicle, or a response system such as a smartphone. By applying it to these devices and systems, it is possible to efficiently complement the knowledge graph used by these devices and systems and acquire unknown information.

なお、本発明における知識グラフ補完装置1の機能の全て又は一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより知識グラフ補完装置1が行う処理の全て一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A program for realizing all or part of the functions of the knowledge graph complement device 1 in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system. By executing it, all the processes performed by the knowledge graph complement device 1 may be performed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" shall also include a WWW system provided with a homepage providing environment (or display environment). Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, it shall include those that hold the program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the program may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1…知識グラフ補完装置、11…収音部、12…音声認識部、13…知識グラフ記憶部、14…言語理解部、15…補完部、16…対話生成部、17…シナリオ記憶部、18…出力部 1 ... Knowledge graph complement device, 11 ... Sound collection unit, 12 ... Speech recognition unit, 13 ... Knowledge graph storage unit, 14 ... Language comprehension unit, 15 ... Complementary unit, 16 ... Dialogue generation unit, 17 ... Scenario storage unit, 18 … Output section

Claims (5)

2つのエンティティのそれぞれの識別文字列と前記エンティティ間の関係を示すラベルによるトリプルを要素とする集合であって、
グラフ構造を持つデータベースである知識グラフを記憶する知識グラフ記憶部と、
発話を取得する取得部と、
取得された発話の中に、前記知識グラフ記憶部に記憶されていない未知のエンティティがある場合、前記知識グラフ記憶部が記憶する既知のグラフのパターンに基づいて、識別文字列を考慮した埋め込み表現に展開し、展開した結果に基づいて前記未知のエンティティについてのトリプル候補を生成し、前記トリプル候補の確信度を算出し、算出した確信度に基づいて、前記未知のエンティティに関する知識を獲得する補完部と、を備え、
前記補完部は、
前記知識グラフ記憶部に記憶された既存のエンティティおよび前記未知のエンティティの識別文字列の部分文字列を擬似エンティティとして生成し、前記既存のエンティティ又は前記未知のエンティティと、前記擬似エンティティとの関係を部分文字列であることを示すラベルを付与して形成した擬似トリプルを生成し、前記トリプルおよび擬似トリプルの集合に基づいて、前記トリプル候補の確信度を算出する、
知識グラフ補完装置。
A set whose elements are triples with identification strings of each of two entities and labels indicating the relationship between the entities.
A knowledge graph storage unit that stores the knowledge graph, which is a database with a graph structure,
The acquisition department that acquires utterances,
If there is an unknown entity that is not stored in the knowledge graph storage unit in the acquired speech, an embedded expression that considers the identification character string based on the known graph pattern stored in the knowledge graph storage unit. Expand to, generate triple candidates for the unknown entity based on the expanded result, calculate the certainty of the triple candidate, and acquire knowledge about the unknown entity based on the calculated conviction. With a department,
The complementary part
A substring of the identification character string of the existing entity and the unknown entity stored in the knowledge graph storage unit is generated as a pseudo entity, and the relationship between the existing entity or the unknown entity and the pseudo entity is established. A pseudo triple formed by adding a label indicating that it is a substring is generated, and the certainty of the triple candidate is calculated based on the triple and the set of pseudo triples.
Knowledge graph complementer.
前記補完部は、
前記確信度の順位が所定の順位より高く且つ所定の値よりも高いトリプル候補についての質問を生成し、又は、前記確信度の順位が所定の順位より高く又は所定の値よりも高いトリプル候補についての質問を生成し、
前記質問に対する回答が肯定の場合に、前記未知のエンティティについての情報を確定する、
請求項1に記載の知識グラフ補完装置。
The complementary part
Generate a question about a triple candidate whose confidence rank is higher than a predetermined rank and higher than a predetermined value, or for a triple candidate whose confidence rank is higher than a predetermined rank or higher than a predetermined value. Generate a question and
If the answer to the question is affirmative, the information about the unknown entity is finalized.
The knowledge graph complement device according to claim 1.
前記補完部は、
複素数表現とエルミート内積を利用したモデルであるComplExによって前記確信度を算出する、
請求項1又は請求項2に記載の知識グラフ補完装置。
The complementary part
The conviction is calculated by ComplEx, which is a model using the complex number representation and the Hermitian inner product.
The knowledge graph complement device according to claim 1 or 2.
グラフ構造を持つデータベースである知識グラフにおける知識グラフ補完方法であって、
前記知識グラフは、前記知識グラフ中の2つのエンティティのそれぞれの識別文字列とこれらエンティティの関係を示すラベルによるトリプルを要素とする集合であって、
知識グラフ補完装置は、
前記エンティティの識別文字列の部分文字列による擬似エンティティを生成するとともに、前記エンティティと前記擬似エンティティの間の関係として部分文字列であることを示すラベルで擬似トリプルを形成して、前記2つのエンティティ間のトリプルの集合である知識グラフに前記擬似トリプルを追加した第2の知識グラフを形成し、
前記第2の知識グラフについて、知識グラフ埋め込みモデルに従ってエンティティに関する未知のトリプルの確信度を計算し、確信度の順位の高く且つ確信度が所定値以上のものを新たな情報として推定し補完する、又は、確信度の順位の高く又は確信度が所定値以上のものを新たな情報として推定し補完する、
知識グラフ補完方法。
It is a knowledge graph complementation method in the knowledge graph, which is a database with a graph structure.
The knowledge graph is a set whose elements are triples with identification strings of each of the two entities in the knowledge graph and labels indicating the relationship between these entities.
Knowledge graph complementer
A pseudo-entity is generated by a substring of the identification string of the entity, and a pseudo-triple is formed with a label indicating that the entity is a substring as a relationship between the entity and the pseudo-entity, and the two entities A second knowledge graph is formed by adding the pseudo-triple to the knowledge graph, which is a set of triples in between.
For the second knowledge graph, the conviction of an unknown triple regarding an entity is calculated according to the knowledge graph embedding model, and the one with a high conviction rank and a conviction of a predetermined value or more is estimated and complemented as new information. Alternatively, new information is estimated and supplemented with a high degree of certainty or a certainty of more than a predetermined value.
Knowledge graph complement method.
前記新たな情報についての質問を人に対して行い、前記質問に対する回答が肯定の場合、
前記新たな情報を確定した情報として補完する、
請求項4に記載の知識グラフ補完方法。
If you ask a person a question about the new information and the answer to the question is affirmative,
Complementing the new information as finalized information,
The knowledge graph complement method according to claim 4.
JP2019097044A 2019-05-23 2019-05-23 Knowledge graph completion device and knowledge graph completion method Active JP7270188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019097044A JP7270188B2 (en) 2019-05-23 2019-05-23 Knowledge graph completion device and knowledge graph completion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019097044A JP7270188B2 (en) 2019-05-23 2019-05-23 Knowledge graph completion device and knowledge graph completion method

Publications (2)

Publication Number Publication Date
JP2020191009A true JP2020191009A (en) 2020-11-26
JP7270188B2 JP7270188B2 (en) 2023-05-10

Family

ID=73454024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097044A Active JP7270188B2 (en) 2019-05-23 2019-05-23 Knowledge graph completion device and knowledge graph completion method

Country Status (1)

Country Link
JP (1) JP7270188B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395428A (en) * 2020-12-01 2021-02-23 中国科学技术大学 Method and system for complementing knowledge graph entity abstract based on set
CN112507139A (en) * 2020-12-28 2021-03-16 深圳力维智联技术有限公司 Knowledge graph-based question-answering method, system, equipment and storage medium
CN113408690A (en) * 2021-07-01 2021-09-17 之江实验室 Robot personalized emotion interaction device and method based on multi-mode knowledge graph
CN113779242A (en) * 2021-07-30 2021-12-10 国网江苏省电力有限公司 Novel power grid monitoring alarm event recognition algorithm
CN116049148A (en) * 2023-04-03 2023-05-02 中国科学院成都文献情报中心 Construction method of domain meta knowledge engine in meta publishing environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080406A1 (en) * 2011-11-28 2013-06-06 Necソフト株式会社 Dialog system, redundant message removal method and redundant message removal program
JP2018092585A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Information processing method, information processing device, and program
JP2018151800A (en) * 2017-03-10 2018-09-27 ヤフー株式会社 Application device, application method and application program
JP2019020774A (en) * 2017-07-11 2019-02-07 トヨタ自動車株式会社 Dialog system and dialog method
JP2019074843A (en) * 2017-10-13 2019-05-16 ヤフー株式会社 Information providing apparatus, information providing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080406A1 (en) * 2011-11-28 2013-06-06 Necソフト株式会社 Dialog system, redundant message removal method and redundant message removal program
JP2018092585A (en) * 2016-12-06 2018-06-14 パナソニックIpマネジメント株式会社 Information processing method, information processing device, and program
JP2018151800A (en) * 2017-03-10 2018-09-27 ヤフー株式会社 Application device, application method and application program
JP2019020774A (en) * 2017-07-11 2019-02-07 トヨタ自動車株式会社 Dialog system and dialog method
JP2019074843A (en) * 2017-10-13 2019-05-16 ヤフー株式会社 Information providing apparatus, information providing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤岡 勇真: "対話システムにおける知識グラフの埋め込み表現を用いた応答生成の試み", 第84回 言語・音声理解と対話処理研究会資料 (SIG−SLUD−B802), JPN6022048224, 15 November 2018 (2018-11-15), pages 88 - 89, ISSN: 0004920206 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112395428A (en) * 2020-12-01 2021-02-23 中国科学技术大学 Method and system for complementing knowledge graph entity abstract based on set
CN112395428B (en) * 2020-12-01 2022-09-06 中国科学技术大学 Method and system for complementing knowledge graph entity abstract based on set
CN112507139A (en) * 2020-12-28 2021-03-16 深圳力维智联技术有限公司 Knowledge graph-based question-answering method, system, equipment and storage medium
CN112507139B (en) * 2020-12-28 2024-03-12 深圳力维智联技术有限公司 Knowledge graph-based question and answer method, system, equipment and storage medium
CN113408690A (en) * 2021-07-01 2021-09-17 之江实验室 Robot personalized emotion interaction device and method based on multi-mode knowledge graph
CN113779242A (en) * 2021-07-30 2021-12-10 国网江苏省电力有限公司 Novel power grid monitoring alarm event recognition algorithm
CN116049148A (en) * 2023-04-03 2023-05-02 中国科学院成都文献情报中心 Construction method of domain meta knowledge engine in meta publishing environment
CN116049148B (en) * 2023-04-03 2023-07-18 中国科学院成都文献情报中心 Construction method of domain meta knowledge engine in meta publishing environment

Also Published As

Publication number Publication date
JP7270188B2 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
JP7270188B2 (en) Knowledge graph completion device and knowledge graph completion method
CN111046152B (en) Automatic FAQ question-answer pair construction method and device, computer equipment and storage medium
EP3889836A1 (en) Image description information generation method and device, and electronic device
US11487986B2 (en) Providing a response in a session
US11093835B2 (en) Natural language question expansion and extraction
KR102483643B1 (en) Method and apparatus for training model and for recognizing bawed on the model
CN109783666B (en) Image scene graph generation method based on iterative refinement
WO2018131259A1 (en) Text evaluation device and text evaluation method
US10332276B2 (en) Predicting a chromatic identity of an existing recipe and modifying the existing recipe to meet a desired set of colors by replacing existing elements of the recipe
JP6498095B2 (en) Word embedding learning device, text evaluation device, method, and program
KR101939209B1 (en) Apparatus for classifying category of a text based on neural network, method thereof and computer recordable medium storing program to perform the method
CN110659742A (en) Method and device for acquiring sequence representation vector of user behavior sequence
US11544457B2 (en) Machine learning based abbreviation expansion
JP2018022496A (en) Method and equipment for creating training data to be used for natural language processing device
CN115662435B (en) Virtual teacher simulation voice generation method and terminal
US10599994B2 (en) Predicting a chromatic identity of an existing recipe and modifying the existing recipe to meet a desired set of colors by adding new elements to the recipe
CN113297387B (en) News detection method for image-text mismatching based on NKD-GNN
JPWO2020240871A5 (en) Parameter learning device, parameter learning method, and program
Vo et al. Interpretable extractive text summarization with meta-learning and BI-LSTM: A study of meta learning and explainability techniques
JP2017010249A (en) Parameter learning device, sentence similarity calculation device, method, and program
CN110909174B (en) Knowledge graph-based method for improving entity link in simple question answering
US20240037335A1 (en) Methods, systems, and media for bi-modal generation of natural languages and neural architectures
CN114547273B (en) Question answering method and related device, electronic equipment and storage medium
JP7088795B2 (en) Information processing equipment, information processing methods, and programs
CN112131363A (en) Automatic question answering method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7270188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150