WO2021234896A1 - 推論装置、更新方法、及び更新プログラム - Google Patents

推論装置、更新方法、及び更新プログラム Download PDF

Info

Publication number
WO2021234896A1
WO2021234896A1 PCT/JP2020/020077 JP2020020077W WO2021234896A1 WO 2021234896 A1 WO2021234896 A1 WO 2021234896A1 JP 2020020077 W JP2020020077 W JP 2020020077W WO 2021234896 A1 WO2021234896 A1 WO 2021234896A1
Authority
WO
WIPO (PCT)
Prior art keywords
inference
node
result
input information
knowledge graph
Prior art date
Application number
PCT/JP2020/020077
Other languages
English (en)
French (fr)
Inventor
宏治 田中
克希 小林
悠介 小路
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112020006904.4T priority Critical patent/DE112020006904T5/de
Priority to CN202080100874.8A priority patent/CN115605858A/zh
Priority to JP2022524793A priority patent/JP7118319B2/ja
Priority to PCT/JP2020/020077 priority patent/WO2021234896A1/ja
Publication of WO2021234896A1 publication Critical patent/WO2021234896A1/ja
Priority to US17/965,995 priority patent/US20230034515A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri

Definitions

  • This disclosure relates to an inference device, an update method, and an update program.
  • HMI Human Machine Interface
  • the device is a car navigation system, a home appliance, a smart speaker, or the like.
  • the scenario is designed based on the state chart, the flowchart, and the like.
  • it is difficult to design complex and diverse dialogues and dialogues that seem to be nifty.
  • a knowledge graph is a knowledge representation that graphically represents the attributes of things, the relationships between things, and the causal relationships.
  • the inference device derives the result of inference by using the importance of each node in the knowledge graph, starting from the node representing the observed fact. Then, a response based on the result of inference is output. For example, the knowledge of "eating cold food” is inferred from the fact of the observation of "hot” and the fact of the observation of "daytime” obtained from the sensor information. Then, the response "Do you eat cold food because it is hot and lunch?" Is output. In this way, by using the knowledge graph, it is not necessary to create a complicated scenario.
  • the purpose of this disclosure is to ensure that the desired inference results are obtained.
  • the inference device includes a first acquisition unit that acquires the first input information, a storage unit that stores a knowledge graph including a plurality of nodes corresponding to a plurality of words, and the first of the plurality of nodes.
  • a node based on the input information is used as an inference start node to start inference, an inference execution unit that executes the inference based on the knowledge graph, an output unit that outputs information based on the inference result, and the inference result.
  • the inference is based on a second acquisition unit that indicates the user's intention to infer and acquires a second input information including the first word, and information based on the result of the inference and the second input information.
  • the node of the first word is identified from the plurality of nodes, and the first node is added to the knowledge graph. It also has a control unit that associates the inference start node with the node of the first word via the first node.
  • the desired result of reasoning can be obtained.
  • FIG. 1 is a diagram showing an example of a communication system.
  • the communication system includes a reasoning device 100, a storage device 200, a sensor 300, an input device 400, and an output device 500.
  • the inference device 100 connects to the storage device 200, the sensor 300, the input device 400, and the output device 500 via a network.
  • the network may be a wired network or a wireless network.
  • the inference device 100 is a device that executes the update method.
  • the storage device 200 is a device that stores various information.
  • the storage device 200 stores time information such as the current season, day of the week, and time, navigation information indicating the current position, traffic information, weather information, news information, and profile information indicating the user's schedule, preference, and the like.
  • the sensor 300 is a sensor that senses the state of the user or the surrounding situation.
  • the sensor 300 is a wearable sensor.
  • the input device 400 is a camera or a microphone.
  • the microphone is hereinafter referred to as a microphone.
  • the input device 400 when the input device 400 is a camera, an image obtained by taking a picture of the camera is input to the inference device 100. Further, for example, when the input device 400 is a microphone, the voice information output from the microphone is input to the inference device 100. Further, the input device 400 may input information to the inference device 100 by the operation of the user.
  • the inference device 100 can acquire information from the storage device 200, the sensor 300, and the input device 400. Further, the information may include vehicle information such as vehicle speed and steering wheel angle.
  • the output device 500 is a speaker or a display. The input device 400 and the output device 500 may be included in the inference device 100.
  • FIG. 2 is a diagram showing the hardware of the inference device.
  • the inference device 100 includes a processor 101, a volatile storage device 102, and a non-volatile storage device 103.
  • the processor 101 controls the entire inference device 100.
  • the processor 101 is a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), or the like.
  • the processor 101 may be a multiprocessor.
  • the inference device 100 may have a processing circuit instead of the processor 101.
  • the processing circuit may be a single circuit or a composite circuit.
  • the volatile storage device 102 is the main storage device of the inference device 100.
  • the volatile storage device 102 is a RAM (Random Access Memory).
  • the non-volatile storage device 103 is an auxiliary storage device of the inference device 100.
  • the non-volatile storage device 103 is an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the inference device 100 includes a storage unit 110, a first acquisition unit 120, an inference execution unit 130, an output unit 140, a second acquisition unit 150, and a control unit 160.
  • the control unit 160 may be called an update unit.
  • the storage unit 110 may be realized as a storage area secured in the volatile storage device 102 or the non-volatile storage device 103.
  • a part or all of the first acquisition unit 120, the inference execution unit 130, the output unit 140, the second acquisition unit 150, and the control unit 160 may be realized by a processing circuit.
  • a part or all of the first acquisition unit 120, the inference execution unit 130, the output unit 140, the second acquisition unit 150, and the control unit 160 may be realized as a module of a program executed by the processor 101. ..
  • the program executed by the processor 101 is also called an update program.
  • the update program is recorded on a recording medium.
  • the storage unit 110 stores the knowledge graph 111.
  • the knowledge graph 111 holds the information necessary for inference.
  • the knowledge graph 111 is generally a relational database that holds information of various domains in a graph format.
  • RDF Resource Description Framework
  • information is represented by triplets (three sets) of subject, predicate, and object.
  • the information "Today is Friday” is expressed as a triplet (today, day of the week, Friday).
  • the first acquisition unit 120 can acquire information from the storage device 200, the sensor 300, and the input device 400.
  • the information is referred to as the first input information.
  • the inference execution unit 130 executes inference based on the first input information and the knowledge graph 111.
  • the inference process is the inference process described in Patent Document 1.
  • the inference execution unit 130 will be described in detail.
  • FIG. 3 is a diagram for explaining the inference execution unit in detail.
  • the inference execution unit 130 has a dynamic information update unit 131, an importance calculation unit 132, and a search unit 133.
  • the dynamic information update unit 131 updates the knowledge graph 111 based on the first input information. As will be described later, the dynamic information updating unit 131 does not update the knowledge graph 111 when the content indicating the first input information is already registered in the knowledge graph 111.
  • the importance calculation unit 132 sets the node based on the first input information among the plurality of nodes as the inference start node for starting the inference.
  • the first input information may include an input word which is one or more words.
  • One or more words may be words such as nouns and adjectives.
  • the node based on the first input information is based on the first input information. It is a node of the obtained word. If the node of the word obtained based on the first input information is already registered in the knowledge graph 111, the node based on the first input information is the node of the word obtained based on the first input information. That is.
  • the words obtained based on the first input information will be described. For example, if the first input information indicates the current time "17:24", the word obtained based on the first input information is "evening".
  • the importance calculation unit 132 executes a random walk starting from the inference start node, and calculates a page rank value which is a value corresponding to the importance of each node in the knowledge graph 111.
  • the importance calculation unit 132 uses a PageRank calculation algorithm to which a fuzzy calculation is applied.
  • the search unit 133 searches for a node corresponding to the triplet of the pattern that matches the query in the knowledge graph 111.
  • the search unit 133 sorts the searched nodes based on the page rank value associated with the searched node.
  • the search unit 133 uses the node with the highest page rank value as the inference result. Further, the search unit 133 may use a plurality of nodes having a high page rank value as inference results.
  • FIG. 4 is a diagram showing a specific example of inference processing.
  • the first acquisition unit 120 acquires time information as the first input information. Time information indicates Friday evening.
  • FIG. 4 shows that the knowledge graph 111 includes a plurality of nodes corresponding to a plurality of words. For example, FIG. 4 shows that the knowledge graph 111 includes a node corresponding to a "hamburger" and a node corresponding to a "ramen".
  • the dynamic information update unit 131 adds the node "Friday” and the node “evening” to the knowledge graph 111. Note that the dynamic information update unit 131 does not add the node “Friday” and the node “evening” when the node "Friday” and the node “evening” are already registered in the knowledge graph 111.
  • the importance calculation unit 132 calculates the page rank value of each node with the node “Friday” and the node “evening” as the inference start node.
  • the search unit 133 searches for a node corresponding to the triplet of the pattern matching the query in the knowledge graph 111. As a result, the node "hamburger” and the node "ramen” are searched.
  • the search unit 133 sorts the searched nodes based on the page rank value associated with the searched node.
  • the search unit 133 uses the node "hamburger", which is connected to the edge "is-a” connected to the node "restaurant” and has the highest page rank value, as the result of inference.
  • the output unit 140 outputs information based on the inference result to the output device 500. For example, in the case of FIG. 4, the output unit 140 outputs the information "How about a hamburger?" To the output device 500. As a result, for example, when the output device 500 is a speaker, the output device 500 outputs the information "How about a hamburger?" By voice.
  • the second acquisition unit 150 acquires information indicating the user's intention for the result of inference.
  • the information indicating the user's thoughts will be explained concretely.
  • the driver described in FIG. 4 usually eats a hamburger. However, drivers have a habit of eating ramen on Friday evenings. Therefore, the driver says to the result of the reasoning, "No, I want to eat ramen instead of hamburgers.”
  • the second acquisition unit 150 acquires information indicating the intention of the user, which is the content of the driver's remark, via the input device 400.
  • the inference device 100 acquires the input information "Friday evening", it is desirable that the node "ramen” is the inference result instead of the node "hamburger” as the inference result. To learn.
  • the node as a result of inference is called a prediction node.
  • the node "hamburger” is a prediction node.
  • the desired node as a result of inference is called a target node or a target node T.
  • the node "ramen” is a target node.
  • the control unit 160 updates the knowledge graph 111 based on the information indicating the user's thoughts. Specifically, the control unit 160 adds an AND node to the knowledge graph 111. For example, in FIG. 4, the control unit 160 adds (Friday, eat, AND), (evening, eat, AND), and (AND, eat, ramen) to the knowledge graph 111. As a result, the node "ramen" is inferred in the next inference.
  • FIG. 5 is a flowchart showing an example of processing executed by the inference device.
  • the first acquisition unit 120 acquires the first input information.
  • the inference execution unit 130 executes the inference process based on the first input information and the knowledge graph 111.
  • Step S13 The output unit 140 outputs information based on the inference result to the output device 500. For example, the output unit 140 outputs the information "How about a hamburger?" To the output device 500.
  • Step S14 The inference device 100 executes the update process.
  • FIG. 6 is a flowchart showing an example of inference processing.
  • the process of FIG. 6 corresponds to step S12.
  • Step S21 The dynamic information update unit 131 updates the knowledge graph 111 based on the first input information. For example, when the first input information indicates that the current time is “17:24”, the dynamic information update unit 131 converts the triplet (current time, value, 17:24) into the knowledge graph 111. to add. Also, for example, if there is a rule that "if x of the query (current time, value,? X) is between 16:00 and 18:00, a triplet (current time zone, evening) is added". The dynamic information update unit 131 adds a triplet (current, time zone, evening) to the knowledge graph 111.
  • the importance calculation unit 132 executes a random walk starting from the inference start node, and calculates a page rank value which is a value corresponding to the importance of each node in the knowledge graph 111.
  • a plurality of methods have been proposed for calculating the page rank value. For example, an iterative method has been proposed. In the iterative method, the initial PageRank value is given to each node. The page rank value is exchanged between the nodes connected by the edge until the page rank value converges. In addition, a fixed percentage of PageRank values are supplied to the inference start node. The iterative method is described in Non-Patent Document 1.
  • the importance calculation unit 132 uses the PageRank calculation algorithm to which the fuzzy calculation is applied. In other words, when the inference start node and the target node are associated via the AND node and the page rank values of a plurality of nodes including the AND node are updated, the importance calculation unit 132 applies the fuzzy calculation. Use the page rank calculation algorithm.
  • the page rank calculation algorithm that applies fuzzy calculation is characterized by the method of updating the page rank value around the AND node.
  • the periphery of the AND node means an AND node and a node connected to the AND node via an edge.
  • a AND B using a logical product (AND)
  • the fuzzy operation is an extension of a logical operation that can handle only two values of true (1) or false (0) so that it can handle continuous values, so that ambiguity can be handled, and the logical product is the minimum value. It is defined as an operation that takes.
  • FIG. 7 is a diagram showing an example of updating the page rank value.
  • FIG. 7 shows the nodes S 1 , S 2 , u, v. Note that node S 1, S 2 is the deduced start node. Further, FIG. 7 shows an AND node. Solid arrows indicate edges. Note that the peripheral AND nodes, indicating an AND node, node S 1, u, and v. The node S 1 and node u is also referred to as a plurality of second nodes.
  • the number in the node shows the PageRank value at a certain step in the calculation by the iterative method.
  • the numbers around the arrows are the PageRank amount to be given and received in the next step.
  • the dotted arrow indicates a random transition to the inference start node. Random transitions occur with a certain probability.
  • the importance calculation unit 132 specifies the minimum value from a plurality of page rank quantities supplied to the AND node from the node S1 and the node u connected via the edge. For example, the importance calculation unit 132 specifies the page rank amount “4” from the page rank amount “4” and the page rank amount “6”. Importance calculating section 132 limits the PageRank amount supplied to the AND node from each node S 1 and node u to a minimum value. As a result, the page rank amount from the node u is limited to "4". Then, the AND node, the page rank of the page Rank amounts to "4" from node u from node S 1 "4" is introduced. The AND node leaks the page rank amount "8".
  • the importance calculation unit 132 can keep the total of the page rank values of all the nodes constant. Further, the importance calculation unit 132 can appropriately converge the page rank values by keeping the sum of the page rank values of all the nodes constant. Specifically, the importance calculation unit 132 repeats updating the page rank values of all the nodes until the page rank values of all the nodes do not change. In other words, the importance calculation unit 132 repeats updating the page rank values of all the nodes until the page rank values of all the nodes converge.
  • the page rank value at the time of convergence is the calculation result of the page rank value.
  • the page rank values of all the nodes are not kept constant, the page rank values may not converge properly.
  • the page rank amount disappears repeatedly in the process of repeating the update. Finally, the page rank amount becomes zero. As a result, the calculation result that "the page rank value is zero in all the nodes" is obtained. That is, the PageRank values do not converge properly. In order to prevent this, the importance calculation unit 132 executes the above process. As a result, the importance calculation unit 132 can keep the total of the page rank values of all the nodes constant.
  • Step S23 The search unit 133 searches for a node corresponding to the triplet of the pattern that matches the query in the knowledge graph 111.
  • the search unit 133 sorts the searched nodes based on the page rank value associated with the searched node.
  • the search unit 133 sets the node with the highest page rank value as the result of inference.
  • FIG. 8 is a flowchart showing an example of the update process.
  • the process of FIG. 8 corresponds to step S14.
  • Step S31 The second acquisition unit 150 acquires information indicating the user's intention for the result of inference.
  • the information indicating the user's intention to the result of the inference is called the second input information.
  • the second input information may be referred to as feedback information.
  • the second acquisition unit 150 acquires the second input information "No, I want to eat ramen".
  • the second input information includes the first word.
  • the first word is a word such as a noun or an adjective.
  • the first word is "ramen" of "no, I want to eat ramen".
  • Step S32 The control unit 160 determines whether or not the inference result is appropriate based on the information based on the inference result and the second input information.
  • the determination process will be specifically described.
  • the information based on the result of inference is the information "How about a hamburger?".
  • the second input information is "No, I want to eat ramen”.
  • the control unit 160 compares a word contained in the information based on the result of inference (for example, a hamburger) with a word contained in the second input information (for example, ramen). If the words to be compared do not match, the control unit 160 determines that the inference result is not appropriate.
  • control unit 160 determines that the knowledge graph 111 is updated. Then, the control unit 160 advances the process to step S33. If the result of the inference is appropriate, the control unit 160 ends the process.
  • Step S33 The control unit 160 identifies the target node T from among the plurality of nodes included in the knowledge graph 111 based on the second input information. For example, the control unit 160 specifies the node of the first word (for example, ramen) included in the second input information as the target node T. The control unit 160 associates the inference start node S 1 , ..., Sn with the target node T via the AND node.
  • the update process will be described with reference to a specific example.
  • FIG. 9 is a diagram showing a specific example of the update process.
  • the control unit 160 adds an AND node to the knowledge graph 111.
  • the AND node is also referred to as a first node.
  • Control unit 160 generates a directed edge between the inference start node S 1 and the AND node.
  • Control unit 160 generates a directed edge between the inference start node S 2 and AND nodes.
  • the control unit 160 generates a directed edge between the AND node and the target node T.
  • the control unit 160 between the inference start node S 1, S 2 and the target node T, to produce a path through the AND node.
  • the node "ramen" is inferred in the next inference.
  • the page rank amount is supplied to the inference start nodes S 1 and S 2 from all the nodes. Therefore, the page rank values of the inference start nodes S 1 and S 2 are large. Therefore, PageRank amount flowing out from the deduced start node S 1, S 2 is large. Then, a large amount of PageRank amount flows into the target node T via the AND node. Therefore, the page rank value of the target node T becomes large. In other words, the importance of the target node T becomes high. Therefore, the node "ramen” is inferred.
  • the inference device 100 infers the node "ramen” in the next inference by updating the knowledge graph 111. This allows the inference device 100 to obtain the desired inference result.
  • 100 inference device 101 processor, 102 volatile storage device, 103 non-volatile storage device, 110 storage unit, 111 knowledge graph, 120 acquisition unit, 130 inference execution unit, 131 dynamic information update unit, 132 importance calculation unit, 133.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

推論装置(100)は、第1の入力情報を取得する第1の取得部(120)と、複数の単語に対応する複数のノードを含む知識グラフを記憶する記憶部(110)と、複数のノードのうち、第1の入力情報に基づくノードを、推論を開始する推論開始ノードとして、知識グラフに基づいて推論を実行する推論実行部(130)と、推論の結果に基づく情報を出力する出力部(140)と、推論の結果に対するユーザの意志を示し、かつ第1の単語を含む第2の入力情報を取得する第2の取得部(150)と、推論の結果に基づく情報と第2の入力情報とに基づいて、推論の結果が適切であるか否かを判定し、推論の結果が適切でない場合、複数のノードの中から第1の単語のノードを特定し、ANDノードを知識グラフに追加し、推論開始ノードと第1の単語のノードとを、ANDノードを介して関連付ける制御部(160)と、を有する。

Description

推論装置、更新方法、及び更新プログラム
 本開示は、推論装置、更新方法、及び更新プログラムに関する。
 対話型のHMI(Human Machine Interface)を備えた装置が普及している。例えば、装置は、カーナビ、家電、スマートスピーカーなどである。装置との対話を実現するには、ステートチャート、フローチャートなどに基づいてシナリオが設計される。しかし、複雑で多様な対話及び気が利くと思わせる対話の設計は、困難である。
 そこで、知識グラフに基づく推論によって対話を実現する推論装置が提案されている(特許文献1を参照)。知識グラフは、物事の属性、物事の関連性、因果関係などをグラフで表した知識表現である。推論装置は、観測した事実を表すノードを起点として、知識グラフ内の各ノードの重要度を用いて、推論の結果を導く。そして、推論の結果に基づく応答が出力される。例えば、センサ情報から得られる“暑い”という観測の事実と、“昼時”という観測の事実とから、“冷たい物を食べる”という知識が推論させる。そして、“暑いし、お昼なので冷たい物を食べますか?”という応答が出力される。このように、知識グラフを用いることで、複雑なシナリオを作成しなくて済む。
特許第6567218号公報
L.Page,S.Brin,R.Motwani,and T.Winograd、「The pagerank citation ranking:bringing order to The web」、1999年
 上記の技術では、起点のノードの選び方と知識グラフの構造とに依存して推論が行われる。そのため、必ずしも望ましい推論の結果が得られない場合がある。
 本開示の目的は、望ましい推論の結果が得られるようにすることである。
 本開示の一態様に係る推論装置が提供される。推論装置は、第1の入力情報を取得する第1の取得部と、複数の単語に対応する複数のノードを含む知識グラフを記憶する記憶部と、前記複数のノードのうち、前記第1の入力情報に基づくノードを、推論を開始する推論開始ノードとして、前記知識グラフに基づいて前記推論を実行する推論実行部と、前記推論の結果に基づく情報を出力する出力部と、前記推論の結果に対するユーザの意志を示し、かつ第1の単語を含む第2の入力情報を取得する第2の取得部と、前記推論の結果に基づく情報と前記第2の入力情報とに基づいて、前記推論の結果が適切であるか否かを判定し、前記推論の結果が適切でない場合、前記複数のノードの中から前記第1の単語のノードを特定し、第1のノードを前記知識グラフに追加し、前記推論開始ノードと前記第1の単語のノードとを、前記第1のノードを介して関連付ける制御部と、を有する。
 本開示によれば、望ましい推論の結果を得ることができる。
通信システムの例を示す図である。 推論装置が有するハードウェアを示す図である。 推論実行部を詳細に説明するための図である。 推論処理の具体例を示す図である。 推論装置が実行する処理の例を示すフローチャートである。 推論処理の例を示すフローチャートである。 ページランク値の更新の例を示す図である。 更新処理の例を示すフローチャートである。 更新処理の具体例を示す図である。
 以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。
実施の形態.
 図1は、通信システムの例を示す図である。通信システムは、推論装置100、ストレージ装置200、センサ300、入力装置400、及び出力装置500を含む。
 推論装置100は、ネットワークを介して、ストレージ装置200、センサ300、入力装置400、及び出力装置500と接続する。例えば、ネットワークは、有線ネットワーク又は無線ネットワークである。
 推論装置100は、更新方法を実行する装置である。
 ストレージ装置200は、様々な情報を記憶する装置である。例えば、ストレージ装置200は、現在の季節、曜日、時刻などの時間情報、現在位置を示すナビゲーション情報、交通情報、天気情報、ニュース情報、及びユーザの予定、趣向などを示すプロファイル情報を記憶する。
 センサ300は、ユーザの状態又は周辺状況をセンシングするセンサである。例えば、センサ300は、ウェアラブルセンサである。
 例えば、入力装置400は、カメラ又はマイクロホンである。ここで、以下、マイクロホンは、マイクと呼ぶ。例えば、入力装置400がカメラである場合、推論装置100には、カメラが撮影することによって得られた画像が入力される。また、例えば、入力装置400がマイクである場合、推論装置100には、マイクから出力された音声情報が入力される。また、入力装置400は、ユーザの操作によって、推論装置100に情報を入力してもよい。
 推論装置100は、ストレージ装置200、センサ300、及び入力装置400から情報を取得することができる。また、当該情報には、車速、ハンドルの角度などの車両情報が含まれてもよい。
 例えば、出力装置500は、スピーカ又はディスプレイである。なお、入力装置400と出力装置500は、推論装置100に含まれてもよい。
 ここで、推論装置100が有するハードウェアを説明する。
 図2は、推論装置が有するハードウェアを示す図である。推論装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。
 プロセッサ101は、推論装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。推論装置100は、プロセッサ101に変えて、処理回路を有してもよい。処理回路は、単一回路又は複合回路でもよい。
 揮発性記憶装置102は、推論装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、推論装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
 図1に戻って、推論装置100の機能を説明する。
 推論装置100は、記憶部110、第1の取得部120、推論実行部130、出力部140、第2の取得部150、及び制御部160を有する。なお、制御部160は、更新部と呼んでもよい。
 記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
 第1の取得部120、推論実行部130、出力部140、第2の取得部150、及び制御部160の一部又は全部は、処理回路によって実現してもよい。また、第1の取得部120、推論実行部130、出力部140、第2の取得部150、及び制御部160の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、更新プログラムとも言う。例えば、更新プログラムは、記録媒体に記録されている。
 記憶部110は、知識グラフ111を記憶する。知識グラフ111は、推論に必要な情報を保持する。知識グラフ111は、一般に、様々なドメインの情報をグラフ形式で保持するリレーショナルデータベースである。例えば、グラフ形式には、RDF(Resource Description Framework)が用いられる。RDFでは、主語、述語、目的語のトリプレット(三組)で情報が表現される。例えば、“今日は金曜日である”という情報は、トリプレット(今日,曜日,金曜)と表現される。
 第1の取得部120は、ストレージ装置200、センサ300、及び入力装置400から情報を取得することができる。ここで、当該情報は、第1の入力情報と呼ぶ。
 推論実行部130は、第1の入力情報と知識グラフ111とに基づいて、推論を実行する。例えば、推論の処理は、特許文献1に記載の推論の処理である。ここで、推論実行部130を詳細に説明する。
 図3は、推論実行部を詳細に説明するための図である。推論実行部130は、動的情報更新部131、重要度算出部132、及び検索部133を有する。
 動的情報更新部131は、第1の入力情報に基づいて、知識グラフ111を更新する。なお、動的情報更新部131は、後述するように、第1の入力情報を示す内容が既に知識グラフ111に登録されている場合、知識グラフ111を更新しない。
 重要度算出部132は、複数のノードのうち、第1の入力情報に基づくノードを、推論を開始する推論開始ノードとする。ここで、第1の入力情報に基づくノードを説明する。まず、第1の入力情報は、1以上の単語である入力単語を含んでもよい。1以上の単語は、名詞、形容詞などの単語でもよい。動的情報更新部131により入力単語のノードが知識グラフ111に追加された場合、第1の入力情報に基づくノードは、入力単語のノードのことである。入力単語のノードが既に知識グラフ111に登録されている場合、第1の入力情報に基づくノードは、入力単語のノードのことである。また、第1の入力情報に基づいて得られた単語のノードが動的情報更新部131により知識グラフ111に追加された場合、第1の入力情報に基づくノードは、第1の入力情報に基づいて得られた単語のノードのことである。第1の入力情報に基づいて得られた単語のノードが既に知識グラフ111に登録されている場合、第1の入力情報に基づくノードは、第1の入力情報に基づいて得られた単語のノードのことである。ここで、第1の入力情報に基づいて得られた単語を説明する。例えば、第1の入力情報が現在時刻“17:24”を示している場合、第1の入力情報に基づいて得られた単語は、“夕方”である。
 重要度算出部132は、推論開始ノードを起点として、ランダムウォークを実行し、知識グラフ111内の各ノードの重要度に相当する値であるページランク値を算出する。なお、重要度算出部132は、後述するANDノードが知識グラフ111に含まれている場合、ファジー演算を応用したページランク計算アルゴリズムを用いる。
 検索部133は、知識グラフ111内でクエリと合致するパターンのトリプレットに該当するノードを検索する。検索部133は、検索されたノードに対応付けられているページランク値に基づいて、検索されたノードをソートする。検索部133は、最もページランク値が高いノードを推論結果とする。また、検索部133は、ページランク値が高い複数のノードを推論結果としてもよい。
 ここで、自動車を運転中の運転手にお勧めの飲食店を提案する場合を例示する。なお、提案では、ハンバーガーショップが提案されるものとする。
 図4は、推論処理の具体例を示す図である。まず、第1の取得部120は、第1の入力情報として、時刻情報を取得する。時刻情報は、金曜日の夕方を示す。また、図4は、知識グラフ111が複数の単語に対応する複数のノードを含むことを示している。例えば、図4は、知識グラフ111が“ハンバーガー”に対応するノードと、“ラーメン”に対応するノードとを含むことを示している。
 動的情報更新部131は、ノード“金曜”とノード“夕方”を知識グラフ111に追加する。なお、動的情報更新部131は、ノード“金曜”とノード“夕方”が知識グラフ111に既に登録されている場合、ノード“金曜”とノード“夕方”を追加しない。重要度算出部132は、ノード“金曜”とノード“夕方”を推論開始ノードとして、各ノードのページランク値を算出する。検索部133は、知識グラフ111内でクエリと合致するパターンのトリプレットに該当するノードを検索する。これにより、ノード“ハンバーガー”とノード“ラーメン”が、検索される。検索部133は、検索されたノードに対応付けられているページランク値に基づいて、検索されたノードをソートする。検索部133は、ノード“飲食店”に接続されているエッジ“is-a”に繋がっており、かつ最もページランク値が高いノードであるノード“ハンバーガー”を推論の結果とする。
 図1に戻って、出力部140を説明する。
 出力部140は、推論の結果に基づく情報を出力装置500に出力する。例えば、図4の場合、出力部140は、“ハンバーガーはいかがですか”という情報を出力装置500に出力する。これにより、例えば、出力装置500がスピーカである場合、出力装置500は、“ハンバーガーはいかがですか”という情報を音声で出力する。
 第2の取得部150は、推論の結果に対するユーザの意志を示す情報を取得する。ユーザの思考を示す情報を具体的に説明する。図4で説明された運転手は、普段、ハンバーガーを食べる。しかし、運転手は、金曜日の夕方にラーメンを食べる習慣がある。そのため、運転手は、推論の結果に対して、“いや、ハンバーガーではなくてラーメンが食べたい”と発言する。例えば、第2の取得部150は、入力装置400を介して、運転手の発言内容であるユーザの意志を示す情報を取得する。これにより、推論装置100は、“金曜日の夕方”という入力情報を取得した場合、ノード“ハンバーガー”を推論の結果とするのではなく、ノード“ラーメン”を推論の結果とすることが望ましいということを学習する。ここで、以下の説明では、推論の結果のノードは、prediction nodeと呼ぶ。例えば、図4では、ノード“ハンバーガー”がprediction nodeである。また、推論の結果として望ましいノードは、target node又はターゲットノードTと呼ぶ。例えば、図4では、ノード“ラーメン”がtarget nodeである。
 制御部160は、ユーザの思考を示す情報に基づいて、知識グラフ111を更新する。具体的には、制御部160は、知識グラフ111にANDノードを追加する。例えば、図4では、制御部160は、(金曜,食べる,AND)、(夕方,食べる,AND)、及び(AND,食べる,ラーメン)を知識グラフ111に追加する。これにより、次回の推論では、ノード“ラーメン”が推論される。
 次に、推論装置100が実行する処理を、フローチャートを用いて、説明する。
 図5は、推論装置が実行する処理の例を示すフローチャートである。
 (ステップS11)第1の取得部120は、第1の入力情報を取得する。
 (ステップS12)推論実行部130は、第1の入力情報と知識グラフ111とに基づいて、推論処理を実行する。
 (ステップS13)出力部140は、推論の結果に基づく情報を出力装置500に出力する。例えば、出力部140は、“ハンバーガーはいかがですか”という情報を出力装置500に出力する。
 (ステップS14)推論装置100は、更新処理を実行する。
 図6は、推論処理の例を示すフローチャートである。図6の処理は、ステップS12に対応する。
 (ステップS21)動的情報更新部131は、第1の入力情報に基づいて、知識グラフ111を更新する。例えば、現在時刻が“17:24”であるということを第1の入力情報が示している場合、動的情報更新部131は、トリプレット(現在時刻,value,17:24)を知識グラフ111に追加する。また、例えば、“クエリ(現在時刻,value,?x)のxが16:00から18:00の間であれば、トリプレット(現在,時間帯,夕方)を追加する”というルールがある場合、動的情報更新部131は、トリプレット(現在,時間帯,夕方)を知識グラフ111に追加する。
 (ステップS22)重要度算出部132は、推論開始ノードを起点として、ランダムウォークを実行し、知識グラフ111内の各ノードの重要度に相当する値であるページランク値を算出する。ページランク値の算出方法には、複数の方法が提案されている。例えば、反復法が提案されている。反復法では、ページランク初期値が、各ノードに与えられる。ページランク値が収束するまで、エッジでつながったノード間でページランク値の授受が行われる。また、一定割合のページランク値が推論開始ノードに供給される。なお、反復法は、非特許文献1に記載されている。
 ここで、ANDノードが知識グラフ111に含まれている場合、重要度算出部132は、ファジー演算を応用したページランク計算アルゴリズムを用いる。言い換えれば、推論開始ノードとターゲットノードとがANDノードを介して関連付けられた後であり、ANDノードを含む複数のノードのページランク値を更新する場合、重要度算出部132は、ファジー演算を応用したページランク計算アルゴリズムを用いる。
 ファジー演算を応用したページランク計算アルゴリズムでは、ANDノード周辺のページランク値の更新方法に特徴がある。なお、ANDノード周辺とは、ANDノードと、エッジを介してANDノードと接続するノードとを示す。一般に論理積(AND)を用いた命題“A AND B”では,AとBの両方が同時に真(1)である場合は、この命題も真(1)となる。ファジー演算は、真(1)又は偽(0)の2値しか扱えない論理演算を、連続値を扱えるように拡張することで曖昧性を取り扱えるようにしたものであり、論理積は、最小値をとる演算と定義される。例えば、Aが真である度合が0.1(すなわち、ほぼ偽)、Bが真である度合が0.8(すなわち、ほぼ真)である場合、命題“A AND B”は、0.1(=min(0.1,0.8))となる。そして、ほぼ偽であると解釈される。このようなファジー演算が、ページランク計算アルゴリズムに応用される。そして、ANDノード周辺のノードのページランク値の更新処理では、ページランク量の最小値に基づいて、ページランク量がANDノードに流入する。また、最小値以外のページランク量は、推論開始ノードに供給される。
 次に、ファジー演算を応用したページランク計算アルゴリズムを具体的に説明する。
 図7は、ページランク値の更新の例を示す図である。図7は、ノードS,S,u,vを示している。なお、ノードS,Sは、推論開始ノードである。また、図7は、ANDノードを示している。実線の矢印は、エッジを示している。なお、ANDノード周辺とは、ANDノードと、ノードS,u,vとを示す。また、ノードSとノードuは、複数の第2のノードとも言う。
 ノード内の数字は、反復法による計算中のあるステップにおけるページランク値を示している。矢印の周辺の数字は、次のステップで授受するページランク量である。点線の矢印は、推論開始ノードへのランダム遷移を示す。ランダム遷移は、一定確率で発生する。
 重要度算出部132は、エッジを介して接続されるノードS1とノードuとからANDノードに供給される複数のページランク量の中から最小値を特定する。例えば、重要度算出部132は、ページランク量“4”とページランク量“6”の中からページランク量“4”を特定する。重要度算出部132は、ノードSとノードuのそれぞれからANDノードに供給されるページランク量を最小値に制限する。これにより、ノードuからのページランク量は、“4”に制限される。そして、ANDノードには、ノードSからのページランク量“4”とノードuからのページランク量“4”が流入される。ANDノードは、ページランク量“8”を流出する。重要度算出部132は、ノードuに対して制限を行うことで、ページランク量“2(=6-4)”が余る。重要度算出部132は、余ったページランク量“2”をノードS,Sに供給する。破線の矢印は、余ったページランク量がノードS,Sに供給されることを示している。このように、重要度算出部132は、当該複数のページランク量のうちANDノードに供給されなくなったページランク量“2”をノードS,Sに供給する。
 これにより、重要度算出部132は、全ノードのページランク値の総和を一定に保つことができる。また、重要度算出部132は、全ノードのページランク値の総和を一定に保つことで、ページランク値を適切に収束させることができる。詳細には、重要度算出部132は、全ノードのページランク値が変化しなくなるまで、全ノードのページランク値の更新を繰り返す。言い換えれば、重要度算出部132は、全ノードのページランク値が収束するまで、全ノードのページランク値の更新を繰り返す。収束したときのページランク値が、ページランク値の算出結果となる。ここで、全ノードのページランク値が一定に保たれない場合、ページランク値が適切に収束しない可能性がある。全ノードのページランク値が一定に保たれない場合、当該更新の繰り返し処理の過程で、ページランク量の消失が繰り返し行われる。そして、最終的に、ページランク量がゼロになる。これにより、“全ノードでページランク値はゼロである”という算出結果が得られる。すなわち、ページランク値が適切に収束しない。これを防止するために、重要度算出部132は、上記の処理を実行する。これにより、重要度算出部132は、全ノードのページランク値の総和を一定に保つことができる。
 (ステップS23)検索部133は、知識グラフ111内でクエリと合致するパターンのトリプレットに該当するノードを検索する。検索部133は、検索されたノードに対応付けられているページランク値に基づいて、検索されたノードをソートする。検索部133は、最もページランク値が高いノードを推論の結果とする。
 図8は、更新処理の例を示すフローチャートである。図8の処理は、ステップS14に対応する。
 (ステップS31)第2の取得部150は、推論の結果に対するユーザの意志を示す情報を取得する。推論の結果に対するユーザの意志を示す情報は、第2の入力情報と呼ぶ。また、第2の入力情報は、フィードバック情報と呼んでもよい。例えば、第2の取得部150は、“いや、ラーメンが食べたい”という第2の入力情報を取得する。ここで、第2の入力情報は、第1の単語を含む。第1の単語は、名詞、形容詞などの単語である。例えば、第1の単語は、“いや、ラーメンが食べたい”の“ラーメン”である。
 (ステップS32)制御部160は、推論の結果に基づく情報と第2の入力情報とに基づいて、推論の結果が適切であるか否かを判定する。
 具体的に判定処理を説明する。例えば、推論の結果に基づく情報は、“ハンバーガーはいかがですか”という情報である。第2の入力情報は、“いや、ラーメンが食べたい”という情報である。制御部160は、推論の結果に基づく情報に含まれている単語(例えば、ハンバーガー)と、第2の入力情報に含まれている単語(例えば、ラーメン)とを比較する。制御部160は、比較対象の単語が一致しない場合、推論の結果が適切でないと判定する。
 推論の結果が適切でない場合、制御部160は、知識グラフ111を更新すると判定する。そして、制御部160は、処理をステップS33に進める。推論の結果が適切である場合、制御部160は、処理を終了する。
 (ステップS33)制御部160は、第2の入力情報に基づいて、知識グラフ111に含まれる複数のノードの中からターゲットノードTを特定する。例えば、制御部160は、第2の入力情報に含まれている第1の単語(例えば、ラーメン)のノードを、ターゲットノードTとして、特定する。制御部160は、推論開始ノードS,・・・,SとターゲットノードTとを、ANDノードを介して関連付ける。具体例を用いて、更新処理を説明する。
 図9は、更新処理の具体例を示す図である。制御部160は、ANDノードを知識グラフ111に追加する。ここで、ANDノードは、第1のノードとも言う。
 制御部160は、推論開始ノードSとANDノードとの間に有向エッジを生成する。制御部160は、推論開始ノードSとANDノードとの間に有向エッジを生成する。制御部160は、ANDノードとターゲットノードTとの間に有向エッジを生成する。このように、制御部160は、推論開始ノードS1,とターゲットノードTとの間に、ANDノードを介したパスを生成する。これにより、次回の推論では、ノード“ラーメン”が推論される。
 ここで、次回の推論で、ノード“ラーメン”が推論される理由を説明する。推論開始ノードS1,には、全ノードからページランク量が供給される。そのため、推論開始ノードS1,のページランク値は、大きい。よって、推論開始ノードS1,から流出されるページランク量も多い。そして、ターゲットノードTには、ANDノードを介して大量のページランク量が流入される。そのため、ターゲットノードTのページランク値が大きくなる。言い換えれば、ターゲットノードTの重要度が高くなる。そのため、ノード“ラーメン”が推論される。
 実施の形態によれば、例えば、推論装置100は、知識グラフ111を更新することで、次回の推論で、ノード“ラーメン”を推論する。これにより、推論装置100は、望ましい推論の結果を得ることができる。
 100 推論装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 111 知識グラフ、 120 取得部、 130 推論実行部、 131 動的情報更新部、 132 重要度算出部、 133 検索部、 140 出力部、 150 取得部、 160 制御部、 200 ストレージ装置、 300 センサ、 400 入力装置、 500 出力装置。

Claims (4)

  1.  第1の入力情報を取得する第1の取得部と、
     複数の単語に対応する複数のノードを含む知識グラフを記憶する記憶部と、
     前記複数のノードのうち、前記第1の入力情報に基づくノードを、推論を開始する推論開始ノードとして、前記知識グラフに基づいて前記推論を実行する推論実行部と、
     前記推論の結果に基づく情報を出力する出力部と、
     前記推論の結果に対するユーザの意志を示し、かつ第1の単語を含む第2の入力情報を取得する第2の取得部と、
     前記推論の結果に基づく情報と前記第2の入力情報とに基づいて、前記推論の結果が適切であるか否かを判定し、前記推論の結果が適切でない場合、前記複数のノードの中から前記第1の単語のノードを特定し、第1のノードを前記知識グラフに追加し、前記推論開始ノードと前記第1の単語のノードとを、前記第1のノードを介して関連付ける制御部と、
     を有する推論装置。
  2.  前記推論実行部は、前記推論開始ノードと前記第1の単語のノードとが前記第1のノードを介して関連付けられた後であり、前記第1のノードを含む前記複数のノードのページランク値を更新する場合、エッジを介して接続される複数の第2のノードから前記第1のノードに供給される複数のページランク量の中から最小値を特定し、前記複数の第2のノードのそれぞれから前記第1のノードに供給されるページランク量を前記最小値に制限し、前記複数のページランク量のうち前記第1のノードに供給されなくなったページランク量を前記推論開始ノードに供給する、
     請求項1に記載の推論装置。
  3.  推論装置が、
     第1の入力情報を取得し、
     知識グラフに含まれている、複数の単語に対応する複数のノードのうち、前記第1の入力情報に基づくノードを、推論を開始する推論開始ノードとして、前記知識グラフに基づいて前記推論を実行し、
     前記推論の結果に基づく情報を出力し、
     前記推論の結果に対するユーザの意志を示し、かつ第1の単語を含む第2の入力情報を取得し、
     前記推論の結果に基づく情報と前記第2の入力情報とに基づいて、前記推論の結果が適切であるか否かを判定し、
     前記推論の結果が適切でない場合、前記複数のノードの中から前記第1の単語のノードを特定し、第1のノードを前記知識グラフに追加し、
     前記推論開始ノードと前記第1の単語のノードとを、前記第1のノードを介して関連付ける、
     更新方法。
  4.  推論装置に、
     第1の入力情報を取得し、
     知識グラフに含まれている、複数の単語に対応する複数のノードのうち、前記第1の入力情報に基づくノードを、推論を開始する推論開始ノードとして、前記知識グラフに基づいて前記推論を実行し、
     前記推論の結果に基づく情報を出力し、
     前記推論の結果に対するユーザの意志を示し、かつ第1の単語を含む第2の入力情報を取得し、
     前記推論の結果に基づく情報と前記第2の入力情報とに基づいて、前記推論の結果が適切であるか否かを判定し、
     前記推論の結果が適切でない場合、前記複数のノードの中から前記第1の単語のノードを特定し、第1のノードを前記知識グラフに追加し、
     前記推論開始ノードと前記第1の単語のノードとを、前記第1のノードを介して関連付ける、
     処理を実行させる更新プログラム。
PCT/JP2020/020077 2020-05-21 2020-05-21 推論装置、更新方法、及び更新プログラム WO2021234896A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112020006904.4T DE112020006904T5 (de) 2020-05-21 2020-05-21 Inferenzvorrichtung, Aktualisierungsverfahren und Aktualisierungsprogramm
CN202080100874.8A CN115605858A (zh) 2020-05-21 2020-05-21 推理装置、更新方法和更新程序
JP2022524793A JP7118319B2 (ja) 2020-05-21 2020-05-21 推論装置、更新方法、及び更新プログラム
PCT/JP2020/020077 WO2021234896A1 (ja) 2020-05-21 2020-05-21 推論装置、更新方法、及び更新プログラム
US17/965,995 US20230034515A1 (en) 2020-05-21 2022-10-14 Inference device, and update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/020077 WO2021234896A1 (ja) 2020-05-21 2020-05-21 推論装置、更新方法、及び更新プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/965,995 Continuation US20230034515A1 (en) 2020-05-21 2022-10-14 Inference device, and update method

Publications (1)

Publication Number Publication Date
WO2021234896A1 true WO2021234896A1 (ja) 2021-11-25

Family

ID=78708578

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020077 WO2021234896A1 (ja) 2020-05-21 2020-05-21 推論装置、更新方法、及び更新プログラム

Country Status (5)

Country Link
US (1) US20230034515A1 (ja)
JP (1) JP7118319B2 (ja)
CN (1) CN115605858A (ja)
DE (1) DE112020006904T5 (ja)
WO (1) WO2021234896A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195051A1 (ja) * 2022-04-04 2023-10-12 三菱電機株式会社 関連情報表示装置、プログラム及び関連情報表示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62205426A (ja) * 1986-03-06 1987-09-10 Fujitsu Ltd リンク更新方法
JP2019526081A (ja) * 2016-07-29 2019-09-12 ロヴィ ガイズ, インコーポレイテッド 自然言語クエリのための実行パスを判定するシステムおよび方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018007932T5 (de) 2018-09-28 2021-06-17 Mitsubishi Electric Corporation Inferenzvorrichtung, inferenzverfahren und inferenzprogramm

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62205426A (ja) * 1986-03-06 1987-09-10 Fujitsu Ltd リンク更新方法
JP2019526081A (ja) * 2016-07-29 2019-09-12 ロヴィ ガイズ, インコーポレイテッド 自然言語クエリのための実行パスを判定するシステムおよび方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195051A1 (ja) * 2022-04-04 2023-10-12 三菱電機株式会社 関連情報表示装置、プログラム及び関連情報表示方法

Also Published As

Publication number Publication date
DE112020006904T5 (de) 2023-01-12
JP7118319B2 (ja) 2022-08-15
JPWO2021234896A1 (ja) 2021-11-25
CN115605858A (zh) 2023-01-13
US20230034515A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
Ortega et al. Recommending items to group of users using matrix factorization based collaborative filtering
JP5010126B2 (ja) クエリグラフ
Liu et al. Keywords‐Driven and Popularity‐Aware Paper Recommendation Based on Undirected Paper Citation Graph
JP6498191B2 (ja) リアルタイムの検索調整
JP6567218B1 (ja) 推論装置、推論方法、及び推論プログラム
US20060242138A1 (en) Page-biased search
WO2022166115A1 (en) Recommendation system with adaptive thresholds for neighborhood selection
US10642905B2 (en) System and method for ranking search engine results
US20170193585A1 (en) Least-ask: conversational recommender system with minimized user interaction
WO2013055844A1 (en) Method and system for customizing a web site
WO2022094113A1 (en) Vector-based search result generation
WO2021234896A1 (ja) 推論装置、更新方法、及び更新プログラム
US20220414109A1 (en) System and method for reducing client-server network traffic for internet database queries
CN115905687A (zh) 基于元学习图神经网络面向冷启动的推荐系统及方法
KR102301663B1 (ko) 시각 검색 쿼리를 사용하여 물리적 객체를 식별하는 기법
US11651041B2 (en) Method and system for storing a plurality of documents
WO2022166125A1 (en) Recommendation system with adaptive weighted baysian personalized ranking loss
JP4868484B2 (ja) サーチプロファイルの比較方法
Liang et al. Weight normalization optimization movie recommendation algorithm based on three-way neural interaction networks
US10733243B2 (en) Next generation similar profiles
JP2000067067A (ja) 配信サーバ及び配信システム
US20240005170A1 (en) Recommendation method, apparatus, electronic device, and storage medium
US11556549B2 (en) Method and system for ranking plurality of digital documents
JP7012916B2 (ja) 推論装置、設定方法、及び設定プログラム
CN109918486A (zh) 智能客服的语料构建方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20936626

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022524793

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20936626

Country of ref document: EP

Kind code of ref document: A1