JP2015219583A - Topic determination device, utterance device, method, and program - Google Patents

Topic determination device, utterance device, method, and program Download PDF

Info

Publication number
JP2015219583A
JP2015219583A JP2014100628A JP2014100628A JP2015219583A JP 2015219583 A JP2015219583 A JP 2015219583A JP 2014100628 A JP2014100628 A JP 2014100628A JP 2014100628 A JP2014100628 A JP 2014100628A JP 2015219583 A JP2015219583 A JP 2015219583A
Authority
JP
Japan
Prior art keywords
noun
topic
utterance
user
nouns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014100628A
Other languages
Japanese (ja)
Inventor
淳史 大塚
Atsushi Otsuka
淳史 大塚
平野 徹
Toru Hirano
徹 平野
牧野 俊朗
Toshiaki Makino
俊朗 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014100628A priority Critical patent/JP2015219583A/en
Publication of JP2015219583A publication Critical patent/JP2015219583A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a topic which highly interests a user, and does not overlap.SOLUTION: A language information acquisition part 21 is configured to, on the basis of the morpheme analysis result of language information indicating the action history of a user, extract a first noun group, and an information extraction part is configured to extract a second noun group consisting of nouns related to the first group, and to, as for each of the nouns included in the second noun group, extract features, and a topic model generation part is configured to, on the basis of the extracted features, generate a plurality of topics in accordance with topic model processing, and to, as for each of the nouns included in the second noun group, calculate the occurrence probability of the noun in each of the plurality of topics, and a topic determination part is configured to extract the predetermined number of nouns whose occurrence probability is higher in the topics, and to calculate the degree of overlap between the extracted predetermined number of nouns and a third noun group, and to determine at least one topic among the topics whose degree of overlap is larger than 0, and less than 1 as a topic to be provided to the user.

Description

本発明は、話題決定装置、発話装置、方法、及びプログラムに係り、特に、話題を決定する話題決定装置、発話装置、方法、及びプログラムに関する。   The present invention relates to a topic determination device, an utterance device, a method, and a program, and more particularly, to a topic determination device, an utterance device, a method, and a program that determine a topic.

音声やテキストを入出力として、ユーザと対話を行う対話エージェントシステムでは、ユーザの発話内容に応じた返答をシステムが自動的に生成する。ユーザの発話に返答する対話エージェントシステムの基本構成を図8に示す。ユーザの対話エージェントにする発話(ユーザ発話)に対して、ユーザ発話内容理解部では、発話内容の理解、分析を行う。対話管理部では、ユーザ発話に対する対話エージェントの返答方針を決定する。エージェント発話生成部で、発話候補DB(データベース)から、返答方針に最もふさわしい発話を検索し、文末変換等の加工を行い対話エージェントの返答発話を生成している。   In a dialog agent system that interacts with a user using voice and text as input / output, the system automatically generates a response according to the content of the user's utterance. FIG. 8 shows a basic configuration of a dialog agent system that responds to a user's utterance. For an utterance (user utterance) to be a user's dialogue agent, the user utterance content understanding unit understands and analyzes the utterance content. The dialogue management unit determines a response policy of the dialogue agent for the user utterance. The agent utterance generation unit searches the utterance candidate DB (database) for the utterance most suitable for the response policy, processes the sentence ending conversion, etc., and generates the response utterance of the dialogue agent.

例えば、特許文献1では、(1)ユーザの発話内容を解析し、ユーザ発話の意味内容を示す発話行為タイプを求め、(2)対話行為タイプに応じた対話行為タイプ列を自己開示および共感の対話行為を行う生起確率に従って選択することで対話行為列を生成し、(3)対話行為列を自然な文章に変換することで、雑談などの社会的な対話を行う対話装置を実現している。   For example, in Patent Document 1, (1) the user's utterance content is analyzed, an utterance action type indicating the meaning content of the user utterance is obtained, and (2) the dialogue action type column corresponding to the dialogue action type is self-disclosure and empathy. A dialogue action sequence is generated by selecting according to the probability of occurrence of a dialogue action, and (3) a dialogue apparatus that performs social dialogue such as chatting is realized by converting the dialogue action sequence into a natural sentence. .

特開2010-140282号公報JP 2010-140282 A

しかし、対話エージェントが先に発話を行う場合や、話題を切り替える発話を行う際には、ユーザの発話を受けた返答ではなく、対話エージェント自身が、ユーザが興味を持ちそうな話題についての発話を能動的に行う必要がある。多数存在する発話候補の中から、ユーザが興味を持つ話題を判定し、その話題に関連する発話を選択することは困難である。   However, when the conversation agent utters first, or when uttering to switch topics, the conversation agent itself does not utter the topic that the user is likely to be interested in, instead of the response that received the user's utterance. Must be done actively. It is difficult to determine a topic that the user is interested in from among a large number of utterance candidates and select an utterance related to the topic.

そのため、初発話時には「こんにちは」などの挨拶文や、「今日はどうしましたか?」などのユーザに話題提供を促す発話を行い、話題切り替え時には、ユーザの興味を考慮せず、ランダムに発話を選択する等の手法で発話を行っていた。提供した話題がユーザにとって興味が薄い、または苦手なものであると、ユーザの対話満足度の低下を招き、対話を途中で打ち切られてしまうなどの問題が発生していた。   Therefore, at the time of the first utterance and greeting such as "Hello", performs a speech to prompt the user to the topic provided, such as "Did you do today?", When the topic switched, without taking into account the interest of the user, the speech to random The utterance was made by a method such as selection. If the provided topic is less interesting or not good for the user, there is a problem that the user's satisfaction with the dialog is lowered and the dialog is interrupted.

また、対話エージェントが任意のタイミングでユーザに話しかけた場合、それがユーザにとって興味のある話題でないと、ユーザの返答がもらえない可能性が高く、「こんにちは」などの挨拶発話においても、度々繰り返すことでマンネリ化し、ユーザが何も反応を示さなくなる。   In addition, if the dialogue agent spoke to the user at any time, and it is not a topic of interest to the user, most likely you do not give me the reply of the user, even in greeting speech, such as "Hello", can be repeated often And the user becomes unresponsive.

以上から、ユーザとの対話が継続するようにユーザの興味を推定し、それに基づく発話を能動的に行うことは、対話エージェントにとっての課題となっている。   From the above, it is a problem for the dialogue agent to estimate the user's interest so that the dialogue with the user continues and to actively speak based on it.

本発明は、上記の事情を鑑みてなされたもので、ユーザの興味が高く、かつ重複しない話題を提供することができる話題決定装置、発話装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a topic determination device, an utterance device, a method, and a program that can provide a topic that is highly interested by a user and that does not overlap. .

上記の目的を達成するために本発明に係る話題決定装置は、ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、前記言語情報に含まれる名詞からなる第1の名詞群を抽出する言語情報取得手段と、前記言語情報取得手段によって抽出された前記第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、前記第2の名詞群に含まれる前記名詞の各々について、前記名詞と前記第1の名詞群に関連する文書における前記名詞の出現回数との組み合わせを素性として抽出する情報抽出手段と、前記情報抽出手段によって抽出された前記素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、前記第2の名詞群に含まれる前記名詞の各々について、前記複数のトピックの各々での前記名詞の生起されやすさを示す生起確率を算出するトピックモデル生成手段と、前記トピックモデル生成手段によって生成された前記複数のトピックの各々について、前記トピックでの前記名詞の生起確率が上位の所定個の前記名詞を抽出し、抽出された前記所定個の名詞と、前記ユーザの直近の行動履歴を表す言語情報の形態素解析結果に基づいて抽出された第3の名詞群との重複度を算出し、前記重複度が0より大きく、かつ1未満である前記トピックのうち、少なくとも1つの前記トピックを、前記ユーザへ提供する話題として決定するトピック決定手段と、を含んで構成されている。   In order to achieve the above object, the topic determination device according to the present invention extracts a first noun group consisting of nouns included in the language information based on a morphological analysis result of language information representing a user's action history. For each of the nouns included in the second noun group, a linguistic information acquisition means and a second noun group consisting of nouns related to the first noun group extracted by the linguistic information acquisition means are extracted. , Information extracting means for extracting a combination of the noun and the number of appearances of the noun in a document related to the first noun group as a feature, and topic model processing based on the feature extracted by the information extracting means According to the above, a plurality of topics are generated, and for each of the nouns included in the second noun group, the ease of occurrence of the noun in each of the plurality of topics is indicated. A topic model generating means for calculating an occurrence probability, and for each of the plurality of topics generated by the topic model generating means, extracting a predetermined number of the nouns having the highest occurrence probability of the noun in the topic, and extracting The degree of duplication between the predetermined number of nouns and the third noun group extracted based on the morphological analysis result of the linguistic information representing the user's most recent action history is calculated, and the degree of duplication is greater than zero. And topic determining means for determining at least one of the topics less than 1 as a topic to be provided to the user.

本発明に係る話題決定方法は、言語情報取得手段、情報抽出手段、トピックモデル生成手段、及びトピック決定手段を含む話題決定装置における話題決定方法であって、前記言語情報取得手段が、ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、前記言語情報に含まれる名詞からなる第1の名詞群を抽出するステップと、前記情報抽出手段が、前記言語情報取得手段によって抽出された前記第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、前記第2の名詞群に含まれる前記名詞の各々について、前記名詞と前記第1の名詞群に関連する文書における前記名詞の出現回数との組み合わせを素性として抽出するステップと、前記トピックモデル生成手段が、前記情報抽出手段によって抽出された前記素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、前記第2の名詞群に含まれる前記名詞の各々について、前記複数のトピックの各々での前記名詞の生起されやすさを示す生起確率を算出するステップと、前記トピック決定手段が、前記トピックモデル生成手段によって生成された前記複数のトピックの各々について、前記トピックでの前記名詞の生起確率が上位の所定個の前記名詞を抽出し、抽出された前記所定個の名詞と、前記ユーザの直近の行動履歴を表す言語情報の形態素解析結果に基づいて抽出された第3の名詞群との重複度を算出し、前記重複度が0より大きく、かつ1未満である前記トピックのうち、少なくとも1つの前記トピックを、前記ユーザへ提供する話題として決定するステップと、を含んで構成されている。   The topic determination method according to the present invention is a topic determination method in a topic determination device including language information acquisition means, information extraction means, topic model generation means, and topic determination means, wherein the language information acquisition means Extracting a first noun group consisting of nouns included in the linguistic information based on a morphological analysis result of linguistic information representing a history; and the information extracting unit extracting the first noun group extracted by the linguistic information acquiring unit. A second noun group consisting of nouns related to one noun group is extracted, and for each of the nouns included in the second noun group, the nouns in the document related to the noun and the first noun group Extracting the combination with the number of appearances as features, and the topic model generation means based on the features extracted by the information extraction means, A step of generating a plurality of topics according to the pick model process and calculating an occurrence probability indicating the probability of occurrence of the noun in each of the plurality of topics for each of the nouns included in the second noun group. And the topic determination unit extracts, for each of the plurality of topics generated by the topic model generation unit, the predetermined number of the nouns having the highest occurrence probability of the noun in the topic, and the extracted A duplication degree between a predetermined number of nouns and a third noun group extracted based on a morphological analysis result of linguistic information representing the latest action history of the user is calculated, and the duplication degree is greater than 0 and 1 Determining at least one of the topics that is less than the topic to be provided to the user.

本発明における前記情報抽出手段は、前記第1の名詞群に含まれる前記名詞の各々について、前記名詞を検索キーワードとし、複数の文書が格納された知識ベースから、前記検索キーワードを含む文書を検索し、前記名詞の各々について前記検索された文書の形態素解析結果に基づいて、前記第2の名詞群を抽出し、前記第2の名詞群に含まれる名詞の各々について、前記名詞と、前記名詞の各々について前記検索された文書における前記名詞の出現回数との組み合わせを素性として抽出するようにすることができる。   The information extraction means in the present invention searches for a document including the search keyword from a knowledge base in which a plurality of documents are stored, using the noun as a search keyword for each of the nouns included in the first noun group. The second noun group is extracted based on the morphological analysis result of the retrieved document for each noun, and the noun and the noun are extracted for each noun included in the second noun group. The combination with the number of appearances of the noun in the retrieved document can be extracted as a feature.

本発明の前記ユーザの行動履歴を表す言語情報は、前記ユーザが発話した音声の音声認識結果、及び前記ユーザによるテキスト入力された文書の少なくとも1つであるようにすることができる。   The language information representing the user's action history according to the present invention may be at least one of a speech recognition result of speech spoken by the user and a text input text by the user.

本発明に係る発話装置は、上記の話題決定装置によって前記話題として決定された前記トピックでの前記名詞の生起確率が上位の所定個の名詞と、前記第3の名詞群とを用いた検索クエリに基づいて、複数の発話候補が格納された発話候補データベースから、発話候補を検索する発話候補検索手段と、前記発話候補検索手段によって検索された発話候補の各々について、前記発話候補の重要度を算出し、前記重要度が最大となる前記発話候補を、前記ユーザに提示する発話として決定する発話決定手段と、を含んで構成されている。   The utterance device according to the present invention is a search query using a predetermined number of nouns with higher occurrence probability of the noun in the topic determined as the topic by the topic determination device and the third noun group Based on the utterance candidate database storing a plurality of utterance candidates, the utterance candidate search means for searching for utterance candidates, and the importance of the utterance candidate for each of the utterance candidates searched by the utterance candidate search means Utterance determination means for calculating and determining the utterance candidate having the maximum importance as an utterance to be presented to the user.

本発明に係る発話方法は、発話候補検索手段、及び発話決定手段を含む発話装置における発話方法であって、発話候補検索手段が、上記の話題決定方法によって前記話題として決定された前記トピックでの前記名詞の生起確率が上位の所定個の名詞と、前記第1の名詞群とを用いた検索クエリに基づいて、複数の発話候補が格納された発話候補データベースから、発話候補を検索するステップと、発話決定手段が、前記発話候補検索手段によって検索された発話候補の各々について、前記発話候補の重要度を算出し、前記重要度が最大となる前記発話候補を、前記ユーザに提示する発話として決定するステップと、を含んで構成されている。   An utterance method according to the present invention is an utterance method in an utterance device including an utterance candidate search unit and an utterance determination unit, wherein the utterance candidate search unit determines whether the topic is determined as the topic by the topic determination method. Searching for an utterance candidate from an utterance candidate database in which a plurality of utterance candidates are stored based on a search query using a predetermined number of nouns having a higher occurrence probability of the noun and the first noun group; The utterance determination means calculates the importance of the utterance candidate for each of the utterance candidates searched by the utterance candidate search means, and the utterance candidate having the maximum importance is used as an utterance to be presented to the user. And a step of determining.

本発明の第1のプログラムは、コンピュータに、本発明の話題決定装置の各手段として機能させるためのプログラムである。   The first program of the present invention is a program for causing a computer to function as each means of the topic determining device of the present invention.

本発明の第2のプログラムは、コンピュータに、本発明の発話装置の各手段として機能させるためのプログラムである。   The second program of the present invention is a program for causing a computer to function as each means of the speech apparatus of the present invention.

以上説明したように、本発明の話題決定装置、発話装置、方法、及びプログラムによれば、ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、言語情報に含まれる名詞からなる第1の名詞群を抽出し、第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、第2の名詞群に含まれる名詞の各々について、当該名詞と第1の名詞群に関連する文書における当該名詞の出現回数との組み合わせを素性として抽出し、抽出された素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、第2の名詞群に含まれる名詞の各々について、複数のトピックの各々での当該名詞の生起されやすさを示す生起確率を算出し、複数のトピックの各々について、当該トピックでの名詞の生起確率が上位の所定個の名詞を抽出し、抽出された所定個の名詞と、ユーザの直近の行動履歴を表す第3の名詞群との重複度を算出し、重複度が0より大きく、かつ1未満であるトピックのうち、少なくとも1つのトピックを、ユーザへ提供する話題として決定することにより、ユーザの興味が高く、かつ重複しない話題を提供することができる、という効果が得られる。   As described above, according to the topic determination device, the speech device, the method, and the program of the present invention, the first noun included in the linguistic information is based on the morphological analysis result of the linguistic information representing the user's action history. A second noun group consisting of nouns related to the first noun group, and a second noun group related to the first noun group, and for each noun included in the second noun group, the noun group and the first noun group A combination with the number of occurrences of the noun in the document to be extracted as a feature, and based on the extracted feature, a plurality of topics are generated according to the topic model processing, and for each noun included in the second noun group, A probability of occurrence indicating the ease of occurrence of the noun in each of a plurality of topics is calculated, and for each of the plurality of topics, a predetermined number of nouns having the highest occurrence probability of the noun in the topic is extracted. The degree of duplication between the extracted predetermined number of nouns and the third noun group representing the user's most recent action history is calculated, and at least one topic among the topics having the degree of duplication greater than 0 and less than 1 Is determined as a topic to be provided to the user, it is possible to provide an effect that the user's interest is high and a topic that does not overlap can be provided.

本発明の実施の形態に係る発話装置の構成を示す概略図である。It is the schematic which shows the structure of the speech apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る発話装置における発話内容学習部の詳細を示す概略図である。It is the schematic which shows the detail of the speech content learning part in the speech apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る発話装置における発話選択部の詳細を示す概略図である。It is the schematic which shows the detail of the speech selection part in the speech apparatus which concerns on embodiment of this invention. 発話候補検索部における発話候補検索の一例を示す図である。It is a figure which shows an example of the utterance candidate search in an utterance candidate search part. 本発明の実施の形態に係る発話装置におけるトピックモデル生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the topic model generation process routine in the speech apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る発話装置における発話決定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the speech determination processing routine in the speech apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る発話装置の処理の一例を示す図である。It is a figure which shows an example of a process of the speech apparatus which concerns on embodiment of this invention. 従来技術の処理内容の一例を示す図である。It is a figure which shows an example of the processing content of a prior art.

<概要>
本発明の実施の形態では、ユーザと対話を行う対話エージェントシステムにおける発話装置に、本発明を適用させた場合を例に説明する。本発明の実施の形態に係る発話装置は、ユーザの過去の発話やライフログ等に残した行動履歴情報から得られる言語情報に基づいて、ユーザの興味を話題毎に分類する。そして、発話装置は、“ユーザが興味を持つ可能性が高く”かつ“過去の対話エージェントとの対話内容と同じではないが関連性がある”話題を選択し、この話題に関連する発話内容をデータベースから抽出する。対話エージェントは、発話装置によって抽出された発話について、当該ユーザへ能動的に発話を行い、話題を提供する。
<Overview>
In the embodiment of the present invention, a case where the present invention is applied to an utterance device in a dialog agent system that performs a dialog with a user will be described as an example. The utterance device according to the embodiment of the present invention classifies a user's interest for each topic based on linguistic information obtained from action history information left in the user's past utterances and life logs. Then, the utterance device selects a topic that is “highly likely to be of interest to the user” and that is “not the same as the content of the conversation with the past dialogue agent but relevant”, and the utterance content related to this topic is selected. Extract from the database. The dialogue agent actively utters to the user about the utterance extracted by the utterance device, and provides a topic.

本発明の実施の形態に係る発話装置は、ユーザとの対話状態以外の待機状態(スリープ)中に、過去のユーザ発話や、ライフログ等から収集したユーザの行動に基づく単語(名詞形態素:名詞にはサ変動詞の語幹を含む)集合を元に、知識ベース検索による当該単語周辺情報を取得し、トピックモデルを用いた話題のクラスタリングにより、ユーザの興味に関連する話題についての学習処理と分類処理とを行う。具体的には、本発明の実施の形態では、保存されているライフログ情報中に含まれるGPSから取得した地名や、Webテキストなどの言語情報を用いて、ユーザの興味について学習し、次回対話時に反映させることで、発話候補からユーザが興味を持つ可能性の高い話題に関する発話を選択する。   An utterance device according to an embodiment of the present invention is a word (noun morpheme: noun) based on user actions collected from past user utterances, life logs, etc. during a standby state (sleep) other than a dialog state with the user. Based on a set of words (including the stem of the sub-variable verb), the information around the word is obtained by knowledge-based search, and topic clustering using topic models is used to learn and classify topics related to user interests. And do. Specifically, in the embodiment of the present invention, the user's interest is learned using the place name acquired from the GPS included in the stored life log information and language information such as Web text, and the next dialogue is performed. By reflecting it from time to time, utterances related to topics that are likely to be of interest to the user are selected from utterance candidates.

そして、学習処理で生成した各トピックについて、トピック中の生起確率の上位語と、ユーザが過去に生成した言語情報中の単語集合との重複度(0〜1の範囲の値)を算出し、ユーザの過去の発話内容等と全く同じ(重複度が1)でも、全く異なる話題(重複度が0)でもないトピックを選択し、当該トピックに属する単語及びユーザが過去に生成した言語情報に含まれる単語を用いて、対話エージェントが発話を行う発話候補の検索を行う。   Then, for each topic generated by the learning process, the degree of overlap between the upper word of the occurrence probability in the topic and the word set in the language information generated by the user in the past (value in the range of 0 to 1) is calculated. Select a topic that is not exactly the same as the user's past utterance content (duplication degree is 1) or completely different topic (duplication degree is 0), and is included in the language information generated by the user and words belonging to the topic Utterance candidates to be uttered by the dialogue agent are searched for using the word.

また、本発明の実施の形態に係る発話装置は、各発話候補を文書のスコアリング手法を用いてスコア付けし、例えば、最もスコアが高かった発話候補を、対話エージェントが実際に行う発話に決定し、当該ユーザへの対話として出力する。   Also, the utterance device according to the embodiment of the present invention scores each utterance candidate using a document scoring method, and determines, for example, the utterance candidate with the highest score as the utterance actually performed by the dialogue agent. And output as a dialog to the user.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<発話装置の構成>
本発明の実施の形態に係る発話装置100は、話題を決定し、決定された話題に基づいて発話を決定する。発話装置100は、CPUと、RAMと、後述するトピックモデル生成処理ルーチン及び発話決定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図1に示すように、発話装置100は、入力部10と、演算部20と、出力部30とを備えている。
<Configuration of speech device>
The utterance device 100 according to the embodiment of the present invention determines a topic and determines an utterance based on the determined topic. The utterance device 100 is composed of a computer including a CPU, a RAM, and a ROM that stores a program for executing a topic model generation processing routine and an utterance determination processing routine, which will be described later. It is configured. As shown in FIG. 1, the utterance device 100 includes an input unit 10, a calculation unit 20, and an output unit 30.

入力部10は、ユーザと対話エージェントとの対話中に、ユーザの行動履歴を表す言語情報の入力として、ユーザの発話の文字列を受け付ける。ユーザの発話の文字列は、ユーザの音声の音声認識結果、又はユーザによって作成されたテキスト入力から得られる。   The input unit 10 receives a character string of the user's utterance as input of language information representing the user's action history during the dialogue between the user and the dialogue agent. The character string of the user's utterance is obtained from a voice recognition result of the user's voice or a text input created by the user.

また、入力部10は、更に、ユーザの行動履歴を表す言語情報の入力として、例えば、ユーザが訪問した場所の地名や店舗名、ユーザが利用した交通機関名、ユーザが閲覧したWebページ、ユーザが視聴したテレビ番組の番組名や番組紹介文、ユーザがWebから購入した商品の商品名などを示すライフログ情報を逐次受け付ける。   Further, the input unit 10 further includes, as input of language information representing the user's behavior history, for example, the place name or store name of the place visited by the user, the name of the transportation facility used by the user, the Web page browsed by the user, the user Sequentially receives the life log information indicating the program name and program introduction text of the TV program viewed by the user and the product name of the product purchased by the user from the Web.

演算部20は、言語情報取得部21と、TMPユーザ単語データベース22と、ALLユーザ単語データベース23と、発話内容学習部24と、トピックデータベース25と、発話選択部26とを備えている。   The calculation unit 20 includes a language information acquisition unit 21, a TMP user word database 22, an ALL user word database 23, an utterance content learning unit 24, a topic database 25, and an utterance selection unit 26.

言語情報取得部21は、入力部10によって受け付けたユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、言語情報に含まれる名詞を抽出する。言語情報取得部21は、発話内容抽出部210と、ライフログ情報取得部212とを備えている。   The linguistic information acquisition unit 21 extracts nouns included in the linguistic information based on the morphological analysis result of the linguistic information representing the user's behavior history received by the input unit 10. The language information acquisition unit 21 includes an utterance content extraction unit 210 and a life log information acquisition unit 212.

発話内容抽出部210は、入力部10によってユーザの行動履歴を表す言語情報として受け付けたユーザの発話の文字列に対して、形態素解析を行う。形態素解析とは、日本語の文章を意味の最小単位となるように分割することである。ここで、形態素解析器(発話内容抽出部210に含まれる)の辞書(図示省略)には、後述する情報抽出部242で使用する知識ベース240の見出し語を登録しておく。また、発話内容抽出部210は、形態素解析結果に基づいて、名詞(形態素解析器の品詞体系の最上位のみ参照)と判定された形態素(名詞形態素)を、ユーザの発話内容の一時格納領域であるTMPユーザ単語データベース22に格納する。なお、以下では、名詞形態素を単に「名詞」と称する。また、TMPユーザ単語データベース22、ALLユーザ単語データベース23、及びトピックデータベース25の3つのデータベースは、1ユーザにつき各1個ずつ用意される。   The utterance content extraction unit 210 performs morphological analysis on the character string of the user's utterance received as language information representing the user's behavior history by the input unit 10. Morphological analysis is to divide a Japanese sentence so that it becomes the smallest unit of meaning. Here, in the dictionary (not shown) of the morphological analyzer (included in the utterance content extraction unit 210), the entry word of the knowledge base 240 used in the information extraction unit 242 described later is registered. Further, the utterance content extraction unit 210 uses the morpheme analysis result to store the morpheme (noun morpheme) determined as a noun (see only the top part of the part-of-speech system of the morpheme analyzer) in the temporary storage area of the user's utterance content. It is stored in a certain TMP user word database 22. Hereinafter, noun morphemes are simply referred to as “nouns”. In addition, three databases, a TMP user word database 22, an ALL user word database 23, and a topic database 25, are prepared for each user.

ライフログ情報取得部212は、入力部10によってユーザの行動履歴を表す言語情報として受け付けたライフログ情報から、名詞の各々を抽出する。   The life log information acquisition unit 212 extracts each noun from the life log information received as language information representing the user's behavior history by the input unit 10.

具体的には、ライフログ情報取得部212は、入力部10によってユーザの行動履歴を表す言語情報として受け付けたライフログ情報に対して、発話内容抽出部210と同様に、形態素解析を行って名詞を抽出し、抽出された名詞を、ALLユーザ単語データベース23へ格納する。   Specifically, the life log information acquisition unit 212 performs morphological analysis on the life log information received as linguistic information representing the user's action history by the input unit 10 in the same manner as the utterance content extraction unit 210, and performs nouns. And the extracted noun is stored in the ALL user word database 23.

例えば、ライフログ情報取得部212は、ユーザの行動履歴を表す言語情報として、ユーザの携帯端末のGPSの緯度経度情報から地名を取得したり、または、ユーザが閲覧したWebページを形態素解析し、名詞を抽出する等の処理を行い、言語情報に含まれる名詞を抽出する。   For example, the life log information acquisition unit 212 acquires a place name from the latitude / longitude information of GPS of the user's mobile terminal as linguistic information representing the user's action history, or performs a morphological analysis on a Web page viewed by the user, Processing such as extracting nouns is performed to extract nouns included in the language information.

TMPユーザ単語データベース22には、発話内容抽出部210によってユーザの直近のユーザ発話から抽出された名詞からなる第3の名詞群が格納される。TMPユーザ単語データベース22に格納された名詞のデータは、ユーザと対話エージェントとの次回の対話の開始後に、ユーザが最初に発話した時点で初期化され、前回の対話中に格納された名詞のデータは全て消去される。
従って、ユーザと対話エージェントとの対話が開始された後、対話エージェントから初発話を行うときには前回のユーザの発話内容を表す名詞が、TMPユーザ単語データベース22に格納されている。また、一方で、ユーザと対話エージェントとの対話中において、対話における話題切り替え時には、今回のユーザの初発話から現時点までのユーザの発話内容を表す名詞が、TMPユーザ単語データベース22に格納されていることになる。
The TMP user word database 22 stores a third noun group consisting of nouns extracted from the user's latest user utterance by the utterance content extracting unit 210. The noun data stored in the TMP user word database 22 is initialized when the user first speaks after the start of the next dialogue between the user and the dialogue agent, and stored in the previous dialogue. Are all erased.
Accordingly, after the dialogue between the user and the dialogue agent is started, a noun representing the content of the previous user's utterance is stored in the TMP user word database 22 when the first utterance is made from the dialogue agent. On the other hand, during the conversation between the user and the conversation agent, at the time of topic switching in the conversation, nouns representing the utterance contents of the user from the initial utterance of the current user to the current time are stored in the TMP user word database 22. It will be.

ALLユーザ単語データベース23には、TMPユーザ単語データベース22に格納されていた第3の名詞群の和集合と、ライフログ情報取得部212によって抽出された名詞の各々とからなる第1の名詞群が格納される。   The ALL user word database 23 includes a first noun group including the union of the third noun group stored in the TMP user word database 22 and each of the nouns extracted by the life log information acquisition unit 212. Stored.

具体的には、ユーザと対話エージェントとの対話が終了した後において、TMPユーザ単語データベース22に格納されている名詞が、ALLユーザ単語データベース23へ格納される。従って、ALLユーザ単語データベース23には、これまでのユーザの発話の全てから収集された名詞が格納されている。なお、ALLユーザ単語データベース23は、TMPユーザ単語データベース22とは異なり、ユーザと対話エージェントとの対話の開始後には初期化されない。   Specifically, the noun stored in the TMP user word database 22 is stored in the ALL user word database 23 after the dialogue between the user and the dialog agent is completed. Therefore, the ALL user word database 23 stores nouns collected from all of the user's utterances so far. Unlike the TMP user word database 22, the ALL user word database 23 is not initialized after the dialogue between the user and the dialogue agent is started.

発話内容学習部24は、ユーザと対話エージェントとの対話の終了後から、次回の対話開始までの間(この間をスリープと称する。)に、ユーザの発話の内容について学習を行う。具体的には、発話内容学習部24は、ALLユーザ単語データベース23に格納された第1の名詞群に基づいて、当該ユーザが興味を持つ話題について学習したトピックモデルを生成する。   The utterance content learning unit 24 learns the content of the user's utterance from the end of the dialogue between the user and the dialogue agent to the start of the next dialogue (this period is referred to as sleep). Specifically, the utterance content learning unit 24 generates a topic model that learns about a topic that the user is interested in based on the first noun group stored in the ALL user word database 23.

発話内容学習部24は、まず、ユーザと対話エージェントとの対話終了後に、ALLユーザ単語データベース23に格納されている第1の名詞群の入力を受け付け、第1の名詞群と関連する外部情報を取得する。なお、第1の名詞群には、ユーザが発話した内容を表す名詞と、ライフログ情報取得部212によって抽出された名詞とが含まれている。そして、発話内容学習部24は、取得された外部情報に機械学習を適用することで、トピックモデルを生成する。   The utterance content learning unit 24 first receives an input of the first noun group stored in the ALL user word database 23 after the dialogue between the user and the dialogue agent ends, and receives external information related to the first noun group. get. Note that the first noun group includes nouns representing the contents spoken by the user and nouns extracted by the life log information acquisition unit 212. And the utterance content learning part 24 produces | generates a topic model by applying machine learning to the acquired external information.

発話内容学習部24の詳細な構成を図2に示す。発話内容学習部24は、図2に示すように、知識ベース240と、情報抽出部242と、トピックモデル生成部244とを備えている。   The detailed configuration of the utterance content learning unit 24 is shown in FIG. As shown in FIG. 2, the utterance content learning unit 24 includes a knowledge base 240, an information extraction unit 242, and a topic model generation unit 244.

知識ベース240には、記事を表す文書が格納されている。知識ベース240は、複数の文書が格納されたデータベースであり、文書を検索する知識ベースとしては、例えば、オンライン百科事典Wikipedia(商標登録)やブリタニカ・オンライン(商標登録)などを用いる。   The knowledge base 240 stores a document representing an article. The knowledge base 240 is a database in which a plurality of documents are stored. As a knowledge base for searching for documents, for example, an online encyclopedia Wikipedia (trademark registration) or Britannica Online (trademark registration) is used.

情報抽出部242は、ALLユーザ単語データベース23に格納された第1の名詞群に関連する名詞を含む第2の名詞群を抽出する。そして、情報抽出部242は、第2の名詞群に含まれる名詞の各々について、当該名詞と第1の名詞群に関連する文書における当該名詞の出現回数との組み合わせを素性として抽出する。   The information extraction unit 242 extracts a second noun group including nouns related to the first noun group stored in the ALL user word database 23. Then, the information extraction unit 242 extracts, for each noun included in the second noun group, a combination of the noun and the number of appearances of the noun in the document related to the first noun group as a feature.

具体的には、情報抽出部242は、ALLユーザ単語データベース23に格納された第1の名詞群に含まれる名詞を用いて、知識ベース240から、当該名詞を含む文書の検索を行う。より詳細には、情報抽出部242は、第1の名詞群に含まれる名詞の各々について、当該名詞を検索キーワードとし、知識ベース240から、検索キーワードを含む文書を検索する。例えば、情報抽出部242は、知識ベース240から、検索キーワードが見出しとなっている文書を取得する。そして、情報抽出部242は、名詞の各々について検索された文書の形態素解析結果に基づいて、第2の名詞群を抽出し、第2の名詞群に含まれる名詞の各々について、当該名詞と、検索された文書における当該名詞の出現回数との組み合わせを素性として抽出する。   Specifically, the information extraction unit 242 searches for a document including the noun from the knowledge base 240 using nouns included in the first noun group stored in the ALL user word database 23. More specifically, for each noun included in the first noun group, the information extraction unit 242 uses the noun as a search keyword and searches the knowledge base 240 for a document including the search keyword. For example, the information extraction unit 242 acquires a document whose search keyword is a headline from the knowledge base 240. And the information extraction part 242 extracts the 2nd noun group based on the morphological analysis result of the document searched about each of the nouns, and each noun included in the 2nd noun group, A combination with the number of appearances of the noun in the retrieved document is extracted as a feature.

ここで、知識ベース240から文書を取得する理由は、ユーザ自身の知識に基づく発話内容が狭く偏っていたり、あるいは事実と異なっている場合を想定し、客観的に把握できる事実や関連情報を広範囲に取得するためである。また、知識ベース240から文書を取得すれば、対話エージェントが利用可能な外部情報を定期的に更新して、選択可能なトピックを拡大することにも役立てることができる。   Here, the reason for acquiring the document from the knowledge base 240 is that the utterance content based on the user's own knowledge is narrowly biased or different from the fact, and a wide range of facts and related information that can be objectively grasped. To get to. In addition, if a document is acquired from the knowledge base 240, it is possible to regularly update external information that can be used by the dialog agent, thereby expanding the selectable topics.

また、情報抽出部242は、知識ベース240から取得した文書に対して形態素解析を行い、形態素単位に分割し、当該名詞と文書における当該名詞の出現回数の組み合わせを素性として列挙した「Bag-of-words」モデルを作成する。作成されたモデルは、後述するトピックモデル生成部244でトピックモデルを生成するための入力として使用される。   Further, the information extraction unit 242 performs morpheme analysis on the document acquired from the knowledge base 240, divides the document into morpheme units, and lists combinations of the noun and the number of appearances of the noun in the document as features. -words "model. The created model is used as an input for generating a topic model by a topic model generation unit 244 described later.

トピックモデル生成部244は、情報抽出部242によって抽出された素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、第2の名詞群に含まれる名詞の各々について、複数のトピックの各々での当該名詞の生起されやすさを示す生起確率を算出する。トピックモデル生成部244は、情報抽出部242で取得したWikipedia(登録商標)記事などの外部情報を利用し、トピックモデルの手法によって、ユーザの興味を分類したトピックを生成する。   The topic model generation unit 244 generates a plurality of topics according to the topic model processing based on the features extracted by the information extraction unit 242, and for each of the nouns included in the second noun group, The occurrence probability indicating the ease of occurrence of the noun is calculated. The topic model generation unit 244 uses external information such as a Wikipedia (registered trademark) article acquired by the information extraction unit 242 and generates a topic in which the user's interest is classified by a topic model method.

トピックモデルとは文書中の単語の出現回数を特徴量として、文書と単語のクラスタリングを実現する機械学習のアルゴリズムである。トピックモデルによって生成されるトピックは単語の生起確率により表現され、同一のトピックには概念的に関連している複数の単語が高い生起確率を持って分類される。   The topic model is a machine learning algorithm that realizes clustering of a document and a word using the number of occurrences of the word in the document as a feature amount. The topics generated by the topic model are expressed by word occurrence probabilities, and a plurality of words conceptually related to the same topic are classified with high occurrence probabilities.

例えば、学校関連のトピックであれば、「授業」、「先生」、「科目」などといった単語が高い生起確率を持って分類される。このようにトピックモデルを適用することで、複数の文書に記述されている情報を話題単位で整理することができる。トピックモデルにはLDA(Latent Dirichlet ALLocation)などの手法があるが、本発明の実施の形態では、トピックモデルの具体的な手法については限定しない。   For example, in the case of a school-related topic, words such as “class”, “teacher”, and “subject” are classified with a high occurrence probability. By applying the topic model in this way, information described in a plurality of documents can be organized in units of topics. The topic model includes a technique such as LDA (Latent Dirichlet ALLocation), but in the embodiment of the present invention, the specific technique of the topic model is not limited.

トピックモデルにより生成される、ユーザの興味を分類したトピック数Num_Topicsは以下の式(1)、及び以下の条件(2)により設定される。ここで、NALLuttはALLユーザ単語データベース23に格納されている名詞の総数を指す。条件式により、NALLutt<6の場合はトピック生成を行わないこととする。また、NALLutt>100となる場合は、Num_Topics=50と設定する。 The number of topics Num_Topics generated by the topic model and classifying the user's interest is set by the following equation (1) and the following condition (2). Here, N ALLutt indicates the total number of nouns stored in the ALL user word database 23. According to the conditional expression, when N ALLutt <6, topic generation is not performed. When N ALLutt > 100, Num_Topics = 50 is set.

トピックモデル生成部244によって、ALLユーザ単語データベース23に格納された第1の名詞群に基づいて取得した外部情報の「Bag-of-words」から、ユーザの興味を分類したトピックが生成される。   The topic model generation unit 244 generates topics that classify user interests from “Bag-of-words” of external information acquired based on the first noun group stored in the ALL user word database 23.

トピックデータベース25には、トピックモデル生成部244によって生成された複数のトピックが格納される。トピックデータベース25に格納された各トピックは、名詞の生起確率分布で表現されている。   The topic database 25 stores a plurality of topics generated by the topic model generation unit 244. Each topic stored in the topic database 25 is expressed by a noun occurrence probability distribution.

発話選択部26は、対話エージェントがユーザに対して最初の一言を発話する初発話、又は話題を切り替える際の発話を決定する。
具体的には、発話選択部26は、ユーザと対話エージェントとの対話が開始された後、対話エージェントが最初の発話(初発話)を行う際、又は話題を切り替える発話を行う際に、TMPユーザ単語データベース22に格納された第3の名詞群と、トピックデータベース25に格納された複数のトピックとを参照し、発話を決定し発話を行う。
ここで話題を切り替えるタイミングとしては、例えば対話エージェントとユーザとの対話が一定時間(例えば3分間)以上継続した後に、ユーザが一定時間(例えば30秒以上)沈黙したタイミングを利用する。
The utterance selection unit 26 determines an initial utterance when the dialogue agent utters the first word to the user, or an utterance when the topic is switched.
Specifically, the utterance selection unit 26 starts the TMP user when the conversation agent performs the first utterance (first utterance) after the conversation between the user and the conversation agent is started, or when the utterance for switching the topic is performed. The third noun group stored in the word database 22 and a plurality of topics stored in the topic database 25 are referred to determine the utterance and perform the utterance.
Here, as the timing of switching the topic, for example, a timing at which the user is silent for a certain time (for example, 30 seconds or more) after the conversation between the conversation agent and the user has continued for a certain time (for example, 3 minutes) or more is used.

発話選択部26の詳細な構成を図3に示す。発話選択部26は、図3に示すように、トピック決定部260と、発話候補データベース262と、発話候補検索部264と、発話決定部266とを備えている。   The detailed configuration of the utterance selection unit 26 is shown in FIG. As shown in FIG. 3, the utterance selection unit 26 includes a topic determination unit 260, an utterance candidate database 262, an utterance candidate search unit 264, and an utterance determination unit 266.

トピック決定部260は、トピックデータベース25に格納された複数のトピックの各々について、当該トピックでの名詞の生起確率が上位の所定個の名詞を抽出し、抽出された所定個の名詞と、TMPユーザ単語データベース22に格納された第3の名詞群との重複度を算出する。そして、トピック決定部260は、重複度が0より大きく、かつ1未満であるトピックのうち、少なくとも1つのトピックを、ユーザへ提供する話題として決定する。トピック決定部260では、発話内容学習部24で生成した複数のトピックから、後述する発話候補データベース262の検索で使用するトピックを決定する。   The topic determination unit 260 extracts, for each of a plurality of topics stored in the topic database 25, a predetermined number of nouns with the highest occurrence probability of nouns in the topic, the extracted number of nouns, and the TMP user The degree of overlap with the third noun group stored in the word database 22 is calculated. Then, the topic determination unit 260 determines at least one topic as a topic to be provided to the user from among topics having a degree of overlap greater than 0 and less than 1. The topic determination unit 260 determines a topic to be used in a search of an utterance candidate database 262 described later from a plurality of topics generated by the utterance content learning unit 24.

トピックデータベース25に格納された各トピックは、外部情報として知識ベース240から取得した名詞の生起確率で表現されている。例えば、トピック決定部260は、まず、各トピックから生起確率の高い上位20語を抽出する。次にトピック決定部260は、抽出した20語と、TMPユーザ単語データベース22に格納されている第3の名詞群とを比較し、語の重複度を計算する。重複度Rateduplicationは以下の式(3)に示す通りである。このとき、単語集合Zはあるトピックzの上位20語の集合Z={w,w,... ,w19}であり、ユーザ単語集合UはTMPユーザ単語データベース22に格納されている全M個の名詞の集合U={w',w',... ,w'M−1}である。 Each topic stored in the topic database 25 is expressed as a noun occurrence probability acquired from the knowledge base 240 as external information. For example, the topic determination unit 260 first extracts the top 20 words having a high occurrence probability from each topic. Next, the topic determination unit 260 compares the extracted 20 words with the third noun group stored in the TMP user word database 22, and calculates the degree of word overlap. The redundancy Rate duplication is as shown in the following formula (3). At this time, the word set Z is a set Z of the top 20 words of a topic z = {w 0 , w 1 ,..., W 19 }, and the user word set U is stored in the TMP user word database 22. A set of all M nouns U = {w ′ 0 , w ′ 1 ,..., W ′ M−1 }.

そして、トピック決定部260は、トピックデータベース25に格納されたトピックの各々について、重複度を計算し、重複度が0の近傍ではなく、かつ1の近傍でもない値を取る範囲のトピックを選択する。   Then, the topic determination unit 260 calculates the degree of duplication for each of the topics stored in the topic database 25, and selects a topic in a range where the degree of duplication is not in the vicinity of 0 and not in the vicinity of 1. .

ここで、重複度が0に近いトピックとは、ユーザにとって未知の名詞のみで構成されるトピックのため、ユーザの興味と一致しない可能性が高い。また、重複度が1に近いトピックとは、ユーザの前回の発話で既に出現している名詞が頻出しやすいトピックとなるため、ユーザにとって目新しさのない話題である可能性が高い。   Here, the topic having a degree of overlap close to 0 is a topic that is composed only of nouns unknown to the user, so there is a high possibility that the topic does not match the user's interest. Also, a topic with a degree of duplication close to 1 is a topic that is likely to frequently appear nouns that have already appeared in the user's previous utterance, so there is a high possibility that the topic is not novel for the user.

そこで、トピック決定部260は、重複度が0の近傍でもなく、かつ1の近傍でもないトピックを選択することで、“ユーザが興味を持つ可能性が高く”かつ“過去の対話エージェントとの対話内容と同じではないが関連性がある”話題に関するトピックが選択できるようになる。   Therefore, the topic determination unit 260 selects a topic whose degree of duplication is not near 0 and not near 1, so that “the user is highly likely to be interested” and “the conversation with the past conversation agent”. You will be able to select topics related to the topic that are not the same as the content but relevant.

ここで、重複度が0にも1にも近くない値としては、例えば、重複度が0.4から0.8の範囲となる。また、トピック決定部260は、抽出したトピックの中からランダムで一つのトピックを選択し、後述する発話候補検索部264での検索に使用するトピックを決定する。ランダムでトピックを決定するのは、対話の度に出来る限り異なる話題についての発話を行うようにするためであるが、従来手法にあったような純粋にランダムに選択した場合よりは、ユーザの興味のある話題を含む発話が選択される可能性を高めている。   Here, as the value where the degree of overlap is not close to 0 or 1, for example, the degree of overlap is in the range of 0.4 to 0.8. Also, the topic determination unit 260 randomly selects one topic from the extracted topics, and determines a topic to be used for search in the utterance candidate search unit 264 described later. The topic is determined at random in order to make the utterance about a different topic as much as possible in each dialogue, but the user's interest is more than the case where the selection is purely random as in the conventional method. This increases the possibility that utterances that include certain topics will be selected.

なお、例えば、全トピックの重複度が、設定した範囲の最低値より小さい場合は重複度が最大のトピックを、最大値より大きい場合は重複度が最小となるトピックを選択する。最終的に選択されたトピックを、以後トピックzで表す。   For example, when the degree of duplication of all topics is smaller than the lowest value in the set range, the topic having the largest degree of duplication is selected, and when the degree of duplication is larger than the maximum value, the topic having the smallest degree of duplication is selected. The finally selected topic is hereinafter represented by topic z.

発話候補データベース262には、複数の発話候補が格納されている。例えば、発話候補データベース262は、対話エージェントが発話する発話の文そのものが、テキスト形式で格納されているデータベースである。発話候補データベース262には、マイクロブログの投稿記事などWeb上に公開されている様々な発話の文書集合を、キーワード一致により全文検索可能にしたものや、上記特許文献1の手順により生成された発話集合を、同様に全文検索可能にしたものが含まれる。   The utterance candidate database 262 stores a plurality of utterance candidates. For example, the utterance candidate database 262 is a database in which the utterance sentence itself uttered by the dialogue agent is stored in a text format. In the utterance candidate database 262, a set of various utterance documents published on the Web such as a microblog post article can be searched in full text by keyword matching, or an utterance generated by the procedure of Patent Document 1 above. The set includes a full text search as well.

発話候補検索部264は、トピック決定部260によって話題として決定されたトピックでの名詞の生起確率が上位の所定個の名詞と、第3の名詞群とを用いた検索クエリに基づいて、発話候補データベース262から、発話候補を検索する。発話候補検索部264では、選択したトピックとTMPユーザ単語データベース22に格納された第3の名詞群を用いて、発話候補データベース262から、対話エージェントが次に発話すべき、発話の候補を検索する。発話候補検索部264で検索される発話の一例を図4に示す。   The utterance candidate search unit 264 is based on a search query using a predetermined number of nouns having a higher occurrence probability of nouns in the topic determined as the topic by the topic determination unit 260 and the third noun group. Search the database 262 for utterance candidates. The utterance candidate search unit 264 uses the selected topic and the third noun group stored in the TMP user word database 22 to search the utterance candidate database 262 for utterance candidates that the dialogue agent should utter next. . An example of an utterance searched by the utterance candidate search unit 264 is shown in FIG.

発話候補検索部264が行う検索処理では、トピック決定部260によって選択されたトピックzにおいて、例えば、生起確率が高い上位20語の単語集合と、TMPユーザ単語データベース22に格納されている第3の名詞群を用い、どちらの集合からも最低でも1語は含まれる発話を検索する(上記の条件を満たす発話を検索できれば、検索手法は問わない)。   In the search process performed by the utterance candidate search unit 264, for the topic z selected by the topic determination unit 260, for example, a word set of the top 20 words having the highest occurrence probability and the third set stored in the TMP user word database 22 are used. Using noun groups, search for utterances containing at least one word from either set (if the utterances satisfying the above conditions can be searched, the search method is not limited).

上記図4の例では、検索結果に“トマトは昔から好き”という発話があるが、これはTMPユーザ単語データベース22及びトピックzのどちらにも“トマト”という名詞が含まれるため、検索の条件を満たすことになるためである。TMPユーザ単語データベース22が空の場合は、トピックzの名詞集合の中の任意の1語が含まれている発話を検索する。   In the example of FIG. 4 above, the search result includes an utterance “I like tomatoes for a long time”, but this includes the noun “tomato” in both the TMP user word database 22 and the topic z. It is because it will satisfy. When the TMP user word database 22 is empty, an utterance containing an arbitrary word in the noun set of the topic z is searched.

発話候補検索部264では、“トピックz中の名詞と、TMPユーザ単語データベース22に格納されている名詞とがどちらも使用されている発話”という条件を満たした発話を全て抽出している。発話間の順位付けは、後述する発話決定部266で行うため、発話候補検索部264では、スコア計算は行わない。   The utterance candidate search unit 264 extracts all utterances that satisfy the condition “the utterance in which both the noun in the topic z and the noun stored in the TMP user word database 22 are used”. Since ranking between utterances is performed by an utterance determination unit 266, which will be described later, the utterance candidate search unit 264 does not perform score calculation.

発話決定部266は、発話候補検索部264によって検索された発話候補の各々について、当該発話候補の重要度を算出し、重要度が最大となる発話候補を、ユーザに提示する発話として決定する。発話決定部266では、検索された発話候補の中から、対話エージェントが発話する発話を一つ決定する。発話決定部266では、発話候補検索部264で得た発話候補の中から、対話エージェントが発話する発話を一つ選択するため、各発話候補のスコアリングを行う。   The utterance determination unit 266 calculates the importance of the utterance candidate for each utterance candidate searched by the utterance candidate search unit 264, and determines the utterance candidate having the maximum importance as an utterance to be presented to the user. The utterance determination unit 266 determines one utterance uttered by the dialogue agent from the searched utterance candidates. The utterance determination unit 266 scores each utterance candidate in order to select one utterance uttered by the dialogue agent from the utterance candidates obtained by the utterance candidate search unit 264.

以降はスコアリング手法の例として、TF・IDFを用いた場合を例に、発話決定について述べる。なお、文書を特徴付けるスコアを付与できる手法であれば、TF・IDF以外の手法でも実現可能であるため、スコアリング手法については問わない。   Hereinafter, as an example of the scoring method, utterance determination will be described by taking TF / IDF as an example. Note that any method other than TF / IDF can be used as long as the method can provide a score that characterizes the document, so any scoring method may be used.

TF・IDFは情報検索で用いられる文書スコアリングの手法である。TF・IDFでは、一文書中での単語の出現頻度によって評価するtfと、全文書中で特定の単語を含む文書数で評価するidfの積で求められる。   TF / IDF is a document scoring technique used in information retrieval. In TF / IDF, it is obtained by the product of tf evaluated based on the appearance frequency of a word in one document and idf evaluated based on the number of documents including a specific word in all documents.

一般に、文書dにおける単語tのTF・IDFは以下の式(4)で計算することができる。本発明の実施の形態では、文書dは発話候補中の一発話、単語tはその発話を形態素解析し得られた名詞に対応している。ここで、freq(t,d)は発話d中の名詞tの出現回数である。|D|は発話候補の総数、|{d:d∋t}|は名詞tが含まれる発話の総数を示している。また、kは発話dに含まれる任意の名詞を示す。   In general, the TF / IDF of the word t in the document d can be calculated by the following equation (4). In the embodiment of the present invention, the document d corresponds to one utterance in the utterance candidate, and the word t corresponds to a noun obtained by morphological analysis of the utterance. Here, freq (t, d) is the number of appearances of the noun t in the utterance d. | D | indicates the total number of utterance candidates, and | {d: d∋t} | indicates the total number of utterances including the noun t. K indicates an arbitrary noun included in the utterance d.

発話決定部266は、発話候補検索部264によって検索された全ての発話候補に対して、以下の式(5)に従って、TF・IDFのスコアを計算する。発話決定部266は、発話候補データベース262の検索に用いたトピックzのトピック内の生起確率上位20語を検索クエリとみなし、最終的な発話を決定するためのスコアリングを行う。t,t,...,tn−1までのn種類の名詞により構成される発話候補中の発話d={t,t,...,tn−1}のスコアは以下の式で計算される。ここで、{w:w∈z∩d}は、トピックzと発話dとのどちらにも含まれる名詞wの集合である。 The utterance determination unit 266 calculates the TF / IDF score according to the following equation (5) for all utterance candidates searched by the utterance candidate search unit 264. The utterance determination unit 266 considers the top 20 occurrence probabilities within the topic of the topic z used for the search of the utterance candidate database 262 as a search query, and performs scoring to determine the final utterance. t 0, t 1, ..., speech d = {t 0, t 1 , ..., t n-1} in the utterance candidate constituted by n types of nouns to t n-1 scores of It is calculated by the following formula. Here, {w: wεz∩d} is a set of nouns w included in both the topic z and the utterance d.

発話決定部266は、例えば、上記式(5)のスコアが最も高い発話候補を、対話エージェントが発話する発話として決定する。   For example, the utterance determination unit 266 determines the utterance candidate having the highest score of the above formula (5) as the utterance that the dialogue agent utters.

出力部30は、発話決定部266によって決定された発話を出力する。   The output unit 30 outputs the utterance determined by the utterance determination unit 266.

<発話装置の作用>
次に、本実施の形態に係る発話装置100の作用について説明する。発話装置100は、ユーザの興味を分類したトピックを生成するトピックモデル生成処理ルーチンと、生成されたトピックに基づいて、発話を決定する発話決定処理ルーチンとを実行する。
<Operation of speech device>
Next, the operation of the speech device 100 according to the present embodiment will be described. The utterance device 100 executes a topic model generation processing routine for generating a topic classified by the user's interest and an utterance determination processing routine for determining an utterance based on the generated topic.

発話装置100は、ユーザと対話エージェントとの対話が開始されると、発話決定処理ルーチンを実行する。次に、発話装置100は、ユーザが最初に発話した時点でTMPユーザ単語データベース22に格納されたデータを初期化し、前回の対話中に格納された名詞のデータを全て消去する。そして、発話装置100のユーザの発話内容抽出部210が、ユーザと対話エージェントとの対話中に、入力部10によって受け付けたユーザの発話の文字列に含まれる名詞をTMPユーザ単語データベース22に格納する。ユーザと対話エージェントとの対話が終了すると、TMPユーザ単語データベース22に格納された名詞(第3の名詞群)が、ALLユーザ単語データベース23に格納される。また、発話装置100のライフログ情報取得部212が、入力部10によって逐次受け付けたライフログ情報から名詞の各々を抽出し、ALLユーザ単語データベース23に格納する。   The utterance device 100 executes the utterance determination processing routine when the dialogue between the user and the dialogue agent is started. Next, the speaking device 100 initializes the data stored in the TMP user word database 22 when the user first speaks, and erases all the noun data stored during the previous dialogue. Then, the utterance content extraction unit 210 of the user of the utterance device 100 stores the noun included in the character string of the user's utterance accepted by the input unit 10 in the TMP user word database 22 during the dialogue between the user and the dialogue agent. . When the dialogue between the user and the dialogue agent ends, the nouns (third noun group) stored in the TMP user word database 22 are stored in the ALL user word database 23. Further, the life log information acquisition unit 212 of the utterance device 100 extracts each noun from the life log information sequentially received by the input unit 10 and stores it in the ALL user word database 23.

<トピックモデル生成処理ルーチン>
次に、発話装置100によって、図5に示すトピックモデル生成処理ルーチンが実行される。
<Topic model generation processing routine>
Next, the topic model generation processing routine shown in FIG.

ステップS100において、情報抽出部242によって、ALLユーザ単語データベース23へ格納された第1の名詞群に含まれる名詞の各々について、当該名詞を検索キーワードとし、知識ベース240から、検索キーワードを含む文書を検索する。そして、情報抽出部242によって、検索キーワードの各々について検索された文書の各々に対し、当該文書の形態素解析結果に基づいて、第2の名詞群を抽出し、第2の名詞群に含まれる名詞の各々について、当該名詞と、検索された文書における当該名詞の出現回数との組み合わせを素性として抽出する。   In step S100, for each noun included in the first noun group stored in the ALL user word database 23 by the information extraction unit 242, the noun is used as a search keyword, and a document including the search keyword is obtained from the knowledge base 240. Search for. Then, for each document searched for each of the search keywords by the information extraction unit 242, a second noun group is extracted based on the morphological analysis result of the document, and the nouns included in the second noun group For each of the above, the combination of the noun and the number of occurrences of the noun in the retrieved document is extracted as a feature.

ステップS102において、トピックモデル生成部244によって、上記ステップS100で抽出された素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、第2の名詞群に含まれる名詞の各々について、複数のトピックの各々での当該名詞の生起されやすさを示す生起確率を算出する。   In step S102, the topic model generation unit 244 generates a plurality of topics according to the topic model processing based on the features extracted in step S100, and for each of the nouns included in the second noun group, An occurrence probability indicating the ease of occurrence of the noun in each topic is calculated.

ステップS104において、トピックモデル生成部244によって、上記ステップS102で生成した複数のトピックを格納して、トピックモデル生成処理ルーチンを終了する。   In step S104, the topic model generation unit 244 stores the plurality of topics generated in step S102 and ends the topic model generation processing routine.

<発話決定処理ルーチン>
次に、ユーザと対話エージェントとの対話が開始されると、発話装置100によって、図6に示す発話決定処理ルーチンが実行される。
<Speech determination processing routine>
Next, when the dialogue between the user and the dialogue agent is started, the utterance determination processing routine shown in FIG.

まず、ステップS200において、トピック決定部260によって、トピックデータベース25に格納された複数のトピックの各々について、当該トピックでの名詞の生起確率が上位の所定個の名詞を抽出し、抽出された所定個の名詞と、TMPユーザ単語データベース22に格納された第3の名詞群との重複度を算出する。そして、トピック決定部260によって、重複度が0より大きく、かつ1未満であるトピックのうち、少なくとも1つのトピックを、ユーザへ提供する話題として決定する。   First, in step S200, the topic determination unit 260 extracts, for each of a plurality of topics stored in the topic database 25, a predetermined number of nouns with the highest occurrence probability of nouns in the topic, and the extracted predetermined number And the third noun group stored in the TMP user word database 22 are calculated. Then, the topic determination unit 260 determines at least one topic as a topic to be provided to the user from among topics having a degree of duplication greater than 0 and less than 1.

ステップS202において、発話候補検索部264によって、上記ステップS200で話題として決定されたトピックでの名詞の生起確率が上位の所定個の名詞と、TMPユーザ単語データベース22に格納された第3の名詞群とを用いた検索クエリに基づいて、発話候補データベース262から、発話候補を検索する。   In step S202, the utterance candidate search unit 264 uses a predetermined number of nouns with higher occurrence probabilities of nouns in the topic determined as the topic in step S200, and the third noun group stored in the TMP user word database 22 The utterance candidate is searched from the utterance candidate database 262 based on the search query using.

ステップS204において、発話決定部266によって、上記ステップS202で検索された発話候補の各々について、当該発話候補の重要度を算出し、重要度が最大となる発話候補を、ユーザに提示する発話として決定する。   In step S204, the utterance determining unit 266 calculates the importance of the utterance candidate for each of the utterance candidates searched in step S202, and determines the utterance candidate having the maximum importance as the utterance to be presented to the user. To do.

ステップS206において、出力部30によって、上記ステップS204で決定された発話を出力して、発話決定処理ルーチンを終了する。   In step S206, the utterance determined in step S204 is output by the output unit 30, and the utterance determination processing routine is terminated.

出力部30によって出力された発話は、対話エージェントがユーザに対して最初の一言を発話する初発話、又は話題を切り替える際の発話として用いられる。   The utterance output by the output unit 30 is used as an initial utterance when the dialogue agent utters the first word to the user, or as an utterance when the topic is switched.

<実施結果例>
次に、本発明の実施の形態の入力と出力の例を図7に示す。図7は、ユーザと対話エージェントとの前回の対話のときにユーザが発した10個の発話のみを元に、トピックモデルを作成し、その中のトピック2をもとに、対話エージェントの発話を生成した例である。
<Example results>
Next, FIG. 7 shows an example of input and output according to the embodiment of the present invention. FIG. 7 shows a topic model created based only on the 10 utterances uttered by the user during the previous conversation between the user and the conversation agent, and the conversation agent utterance based on topic 2 in the topic model. This is a generated example.

トピックにユーザが発していない名詞が含まれるのは、“トマト”など、ユーザの発話から取得した名詞で知識ベース240の記事を検索し、当該記事の情報からトピックを生成したためである。   The reason that a noun that the user does not utter is included in the topic is because the article in the knowledge base 240 is searched for with a noun acquired from the user's utterance such as “tomato” and the topic is generated from the information of the article.

前回のユーザ発話では、主にパスタに関する内容が中心に語られているが、ユーザと対話エージェントとの次回の対話のときの対話エージェントの初発話では、“トマト”といった名詞を含みながら、“野菜”を中心とした話題を“スープ”のように、前回の対話でユーザが発していない名詞も含めて提供している。   In the previous user utterance, the contents related mainly to pasta were mainly talked about, but in the first utterance of the dialogue agent at the next dialogue between the user and the dialogue agent, a noun such as “tomato” was included, but “vegetable” "Noun" that is not spoken by the user in the previous dialogue, such as "Soup", is provided.

以上説明したように、本発明の実施の形態に係る発話装置によれば、ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、言語情報に含まれる名詞からなる第1の名詞群を抽出し、第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、第2の名詞群に含まれる名詞の各々について、当該名詞と第1の名詞群に関連する文書における当該名詞の出現回数との組み合わせを素性として抽出し、抽出された素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、第2の名詞群に含まれる名詞の各々について、複数のトピックの各々での当該名詞の生起されやすさを示す生起確率を算出し、複数のトピックの各々について、当該トピックでの名詞の生起確率が上位の所定個の名詞を抽出し、抽出された所定個の名詞と、ユーザの直近の発話から抽出された名詞との重複度を算出し、重複度が0より大きく、かつ1未満であるトピックのうち、少なくとも1つのトピックを、ユーザへ提供する話題として決定することにより、ユーザの興味が高く、かつ重複しない話題を提供することができる。   As described above, according to the speech device according to the embodiment of the present invention, the first noun group including nouns included in the linguistic information is obtained based on the morphological analysis result of the linguistic information representing the user's action history. Extract a second noun group consisting of nouns related to the first noun group, and for each noun included in the second noun group, the noun and the document in the document related to the first noun group A combination with the number of appearances of the noun is extracted as a feature, and a plurality of topics are generated according to the topic model processing based on the extracted feature. For each of the nouns included in the second noun group, A probability of occurrence indicating the ease of occurrence of the noun in each of the topics is calculated, and for each of a plurality of topics, a predetermined number of nouns with higher occurrence probability of the noun in the topic are extracted, and the predetermined number of extracted nouns are extracted. The degree of overlap between the lyrics and the noun extracted from the user's latest utterance is calculated, and at least one of the topics having the degree of overlap greater than 0 and less than 1 is determined as a topic to be provided to the user By doing so, it is possible to provide a topic that is highly interested in the user and does not overlap.

また、対話エージェントはこれまでのユーザの発話内容などからユーザの興味を自動で推定し、“ユーザが興味を持つ可能性が高く”かつ“過去の対話エージェントとの対話内容と同じではないが関連性がある”話題に関する発話を能動的に行えるようになる。ユーザの興味をもとに新しい話題を提供できるので、対話中の話題切り替え時にも、ユーザの対話満足度の低下を抑え、より継続的な対話が実現できるようになる。   In addition, the dialogue agent automatically estimates the user's interest from the user's utterance content so far, and “It is highly possible that the user is interested” and “It is not the same as the dialogue content with the past dialogue agent. It becomes possible to actively utter “topics”. Since a new topic can be provided based on the user's interest, even when the topic is switched during a conversation, a decrease in the user's conversation satisfaction is suppressed, and a more continuous conversation can be realized.

また、ユーザにとってみれば、ユーザ自身の興味に近く、かつ、いつも異なる話題を対話エージェントから提供してもらえるため、対話エージェントとの対話がマンネリ化せず、対話エージェント自体への満足度を向上させることができる効果がある。   In addition, from the user's point of view, the conversation agent is provided with a topic that is close to the user's own interests and always has a different topic. There is an effect that can.

また、対話エージェントはユーザの興味に基づいて、話題提供の発話を行うため、対話エージェントが任意のタイミングでユーザに向かって話しかけたとしても、ユーザの興味を外していないため、ユーザからの返答が返ってくる可能性が高くなる。そのため、現在よりも対話エージェントがユーザに積極的に話しかけることができるようになる。   In addition, since the conversation agent utters a topic offer based on the user's interest, even if the conversation agent speaks to the user at an arbitrary timing, the user's interest is not removed, so the response from the user is not received. There is a high possibility of returning. Therefore, the dialog agent can speak to the user more actively than it is now.

また、見守りシステム等に、本発明の実施の形態を適用した対話エージェントを組み込むことで、例えば「毎日同じ時間にシステムがユーザに、興味のありそうなことについて話しかける機能」のような、見守り対象の状況をシステム側から確かめられるという効果が期待できる。   In addition, by incorporating a dialogue agent to which the embodiment of the present invention is applied into a monitoring system or the like, for example, “a function in which the system talks to a user about what is likely to be interesting at the same time every day” The effect of being able to confirm the situation from the system side can be expected.

更に波及効果として、ユーザが対話エージェントを利用する回数が高まったり、利用時間が長時間化する傾向が生じる。その結果、ユーザから対話エージェントへの対話内容が増加し、対話エージェントがその対話内容を更に学習することで、対話エージェントはより多くの話題をユーザへ提供できる効果も期待できる。   Furthermore, as a ripple effect, the number of times the user uses the dialogue agent increases or the usage time tends to increase. As a result, the dialogue contents from the user to the dialogue agent increase, and the dialogue agent can further expect the effect that the dialogue agent can provide more topics to the user by further learning the dialogue contents.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、本発明の実施の形態では、言語情報取得部21、情報抽出部242、トピックモデル生成部244、トピック決定部260、発話候補検索部264、及び発話決定部266を1つの装置で構成する場合を例に説明したが、これに限定されるものではない。例えば、上記実施の形態における言語情報取得部21、情報抽出部242、トピックモデル生成部244、及びトピック決定部260を備えた装置と、発話候補検索部264及び発話決定部266を備えた装置とを別々に構成してもよい。   For example, in the embodiment of the present invention, the language information acquisition unit 21, the information extraction unit 242, the topic model generation unit 244, the topic determination unit 260, the utterance candidate search unit 264, and the utterance determination unit 266 are configured as one device. Although the case has been described as an example, the present invention is not limited to this. For example, a device including the language information acquisition unit 21, the information extraction unit 242, the topic model generation unit 244, and the topic determination unit 260 in the above embodiment, and a device including the utterance candidate search unit 264 and the utterance determination unit 266 May be configured separately.

また、本発明の実施の形態のTMPユーザ単語データベース22には、発話内容抽出部210によって抽出された発話に含まれる名詞が、ユーザの直近の行動履歴を表す第3の名詞群として格納される場合を例に説明したが、これに限定されるものではない。例えば、ライフログ情報取得部212によって、ユーザのライフログ情報を表す言語情報に対して形態素解析を行って得られた名詞を、ユーザの直近の行動履歴を表す第3の名詞群としてTMPユーザ単語データベース22に格納してもよい。ユーザの直近の行動履歴としては、例えば予め定められた期間内(例えば、現在から1週間前など)に取得されたライフログ情報を用いることができる。また、ユーザと対話エージェントとの前回の対話から今回の対話までに取得されたライフログ情報を用いることもできる。   In the TMP user word database 22 according to the embodiment of the present invention, nouns included in the utterance extracted by the utterance content extraction unit 210 are stored as a third noun group representing the user's latest action history. Although the case has been described as an example, the present invention is not limited to this. For example, the noun obtained by performing morphological analysis on the linguistic information representing the user's life log information by the life log information acquisition unit 212 is used as the third noun group representing the user's latest action history as the TMP user word. It may be stored in the database 22. As the user's latest action history, for example, life log information acquired within a predetermined period (for example, one week before the present) can be used. In addition, life log information acquired from the previous dialogue between the user and the dialogue agent to the current dialogue can also be used.

また、本発明の実施の形態の発話装置は、TMPユーザ単語データベース22、ALLユーザ単語データベース23、トピックデータベース25、知識ベース240、及び発話候補データベース262を備えている場合について説明したが、例えばTMPユーザ単語データベース22、ALLユーザ単語データベース23、トピックデータベース25、知識ベース240、及び発話候補データベース262の少なくとも1つが発話装置の外部装置に設けられ、発話装置は、外部装置と通信手段を用いて通信することにより、TMPユーザ単語データベース22、ALLユーザ単語データベース23、トピックデータベース25、知識ベース240、及び発話候補データベース262の少なくとも1つを参照するようにしてもよい。   Moreover, although the speech apparatus according to the embodiment of the present invention has been described with respect to the case where the TMP user word database 22, the ALL user word database 23, the topic database 25, the knowledge base 240, and the speech candidate database 262 are provided, for example, the TMP At least one of the user word database 22, the ALL user word database 23, the topic database 25, the knowledge base 240, and the utterance candidate database 262 is provided in an external device of the utterance device, and the utterance device communicates with the external device using communication means. By doing so, at least one of the TMP user word database 22, the ALL user word database 23, the topic database 25, the knowledge base 240, and the utterance candidate database 262 may be referred to.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

また、上述の発話装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Moreover, although the above-mentioned speech apparatus has a computer system inside, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

10 入力部
20 演算部
21 言語情報取得部
22 TMPユーザ単語データベース
23 ALLユーザ単語データベース
24 発話内容学習部
25 トピックデータベース
26 発話選択部
30 出力部
100 発話装置
210 発話内容抽出部
212 ライフログ情報取得部
240 知識ベース
242 情報抽出部
244 トピックモデル生成部
260 トピック決定部
262 発話候補データベース
264 発話候補検索部
266 発話決定部
DESCRIPTION OF SYMBOLS 10 Input part 20 Calculation part 21 Language information acquisition part 22 TMP user word database 23 ALL user word database 24 Utterance content learning part 25 Topic database 26 Utterance selection part 30 Output part 100 Utterance apparatus 210 Utterance content extraction part 212 Life log information acquisition part 240 Knowledge Base 242 Information Extraction Unit 244 Topic Model Generation Unit 260 Topic Determination Unit 262 Utterance Candidate Database 264 Utterance Candidate Search Unit 266 Utterance Determination Unit

Claims (8)

ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、前記言語情報に含まれる名詞からなる第1の名詞群を抽出する言語情報取得手段と、
前記言語情報取得手段によって抽出された前記第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、前記第2の名詞群に含まれる前記名詞の各々について、前記名詞と前記第1の名詞群に関連する文書における前記名詞の出現回数との組み合わせを素性として抽出する情報抽出手段と、
前記情報抽出手段によって抽出された前記素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、前記第2の名詞群に含まれる前記名詞の各々について、前記複数のトピックの各々での前記名詞の生起されやすさを示す生起確率を算出するトピックモデル生成手段と、
前記トピックモデル生成手段によって生成された前記複数のトピックの各々について、前記トピックでの前記名詞の生起確率が上位の所定個の前記名詞を抽出し、抽出された前記所定個の名詞と、前記ユーザの直近の行動履歴を表す言語情報の形態素解析結果に基づいて抽出された第3の名詞群との重複度を算出し、
前記重複度が0より大きく、かつ1未満である前記トピックのうち、少なくとも1つの前記トピックを、前記ユーザへ提供する話題として決定するトピック決定手段と、
を含む話題決定装置。
Language information acquisition means for extracting a first group of nouns composed of nouns included in the language information based on a morphological analysis result of language information representing a user's behavior history;
A second noun group consisting of nouns related to the first noun group extracted by the language information acquisition means is extracted, and for each of the nouns included in the second noun group, the noun and the first noun Information extracting means for extracting a combination with the number of appearances of the noun in a document related to one noun group as a feature;
Based on the features extracted by the information extraction means, generate a plurality of topics according to topic model processing, and for each of the nouns included in the second noun group, in each of the plurality of topics Topic model generation means for calculating an occurrence probability indicating the ease of occurrence of a noun;
For each of the plurality of topics generated by the topic model generation means, a predetermined number of the nouns with the highest occurrence probability of the noun in the topic are extracted, the extracted predetermined number of nouns, and the user Calculating the degree of overlap with the third noun group extracted based on the morphological analysis result of the linguistic information representing the latest action history of
Topic determination means for determining at least one of the topics of which the degree of overlap is greater than 0 and less than 1 as a topic to be provided to the user;
Topic determination device including
前記情報抽出手段は、前記第1の名詞群に含まれる前記名詞の各々について、前記名詞を検索キーワードとし、複数の文書が格納された知識ベースから、前記検索キーワードを含む文書を検索し、前記名詞の各々について前記検索された文書の形態素解析結果に基づいて、前記第2の名詞群を抽出し、前記第2の名詞群に含まれる名詞の各々について、前記名詞と、前記名詞の各々について前記検索された文書における前記名詞の出現回数との組み合わせを素性として抽出する
請求項1記載の話題決定装置。
The information extraction means, for each of the nouns included in the first noun group, search the document containing the search keyword from a knowledge base in which the noun is a search keyword and a plurality of documents are stored, For each noun, the second noun group is extracted based on the morphological analysis result of the retrieved document, and for each noun included in the second noun group, the noun and each noun The topic determination device according to claim 1, wherein a combination with the number of appearances of the noun in the retrieved document is extracted as a feature.
前記ユーザの行動履歴を表す言語情報は、前記ユーザが発話した音声の音声認識結果、及び前記ユーザによるテキスト入力された文書の少なくとも1つである
請求項1又は請求項2記載の話題決定装置。
The topic determination device according to claim 1, wherein the linguistic information representing the user's action history is at least one of a voice recognition result of a voice uttered by the user and a text input document by the user.
請求項1〜請求項3の何れか1項記載の話題決定装置によって前記話題として決定された前記トピックでの前記名詞の生起確率が上位の所定個の名詞と、前記第3の名詞群とを用いた検索クエリに基づいて、複数の発話候補が格納された発話候補データベースから、発話候補を検索する発話候補検索手段と、
前記発話候補検索手段によって検索された発話候補の各々について、前記発話候補の重要度を算出し、前記重要度が最大となる前記発話候補を、前記ユーザに提示する発話として決定する発話決定手段と、
を含む発話装置。
A predetermined number of nouns with higher occurrence probability of the noun in the topic determined as the topic by the topic determination device according to any one of claims 1 to 3, and the third noun group An utterance candidate search means for searching for an utterance candidate from an utterance candidate database in which a plurality of utterance candidates are stored based on the used search query;
For each utterance candidate searched by the utterance candidate search means, the utterance candidate calculating means calculates the importance of the utterance candidate, and determines the utterance candidate having the maximum importance as an utterance to be presented to the user; ,
Utterance device including.
言語情報取得手段、情報抽出手段、トピックモデル生成手段、及びトピック決定手段を含む話題決定装置における話題決定方法であって、
前記言語情報取得手段が、ユーザの行動履歴を表す言語情報の形態素解析結果に基づいて、前記言語情報に含まれる名詞からなる第1の名詞群を抽出するステップと、
前記情報抽出手段が、前記言語情報取得手段によって抽出された前記第1の名詞群に関連する名詞からなる第2の名詞群を抽出し、前記第2の名詞群に含まれる前記名詞の各々について、前記名詞と前記第1の名詞群に関連する文書における前記名詞の出現回数との組み合わせを素性として抽出するステップと、
前記トピックモデル生成手段が、前記情報抽出手段によって抽出された前記素性に基づいて、トピックモデル処理に従って、複数のトピックを生成し、前記第2の名詞群に含まれる前記名詞の各々について、前記複数のトピックの各々での前記名詞の生起されやすさを示す生起確率を算出するステップと、
前記トピック決定手段が、前記トピックモデル生成手段によって生成された前記複数のトピックの各々について、前記トピックでの前記名詞の生起確率が上位の所定個の前記名詞を抽出し、抽出された前記所定個の名詞と、前記ユーザの直近の行動履歴を表す言語情報の形態素解析結果に基づいて抽出された第3の名詞群との重複度を算出し、
前記重複度が0より大きく、かつ1未満である前記トピックのうち、少なくとも1つの前記トピックを、前記ユーザへ提供する話題として決定するステップと、
を含む話題決定方法。
A topic determination method in a topic determination device including language information acquisition means, information extraction means, topic model generation means, and topic determination means,
The linguistic information acquisition means extracts a first noun group consisting of nouns included in the linguistic information based on a morphological analysis result of linguistic information representing a user's behavior history;
The information extraction means extracts a second noun group consisting of nouns related to the first noun group extracted by the language information acquisition means, and for each of the nouns included in the second noun group Extracting as a feature a combination of the noun and the number of occurrences of the noun in a document associated with the first noun group;
The topic model generation means generates a plurality of topics according to topic model processing based on the feature extracted by the information extraction means, and for each of the nouns included in the second noun group, Calculating an occurrence probability indicating the likelihood of occurrence of the noun in each of the topics;
The topic determination unit extracts, for each of the plurality of topics generated by the topic model generation unit, a predetermined number of the nouns having the highest occurrence probability of the noun in the topic, and the extracted predetermined number The degree of overlap between the noun and the third noun group extracted based on the morphological analysis result of the linguistic information representing the most recent action history of the user,
Determining at least one of the topics of which the degree of overlap is greater than 0 and less than 1 as a topic to be provided to the user;
Topic determination method including
発話候補検索手段、及び発話決定手段を含む発話装置における発話方法であって、
発話候補検索手段が、請求項5記載の話題決定方法によって前記話題として決定された前記トピックでの前記名詞の生起確率が上位の所定個の名詞と、前記第1の名詞群とを用いた検索クエリに基づいて、複数の発話候補が格納された発話候補データベースから、発話候補を検索するステップと、
発話決定手段が、前記発話候補検索手段によって検索された発話候補の各々について、前記発話候補の重要度を算出し、前記重要度が最大となる前記発話候補を、前記ユーザに提示する発話として決定するステップと、
を含む発話方法。
An utterance method in an utterance device including an utterance candidate search means and an utterance determination means,
A search using a predetermined number of nouns with higher occurrence probabilities of the nouns in the topic determined as the topic by the topic determination method according to claim 5, and the first noun group Searching for a speech candidate from a speech candidate database in which a plurality of speech candidates are stored based on the query;
The utterance determination means calculates the importance of the utterance candidate for each of the utterance candidates searched by the utterance candidate search means, and determines the utterance candidate having the maximum importance as an utterance to be presented to the user. And steps to
Utterance method including.
コンピュータに、請求項1〜請求項3の何れか1項記載の話題決定装置の各手段として機能させるためのプログラム。   The program for making a computer function as each means of the topic determination apparatus of any one of Claims 1-3. コンピュータに、請求項4記載の発話装置の各手段として機能させるためのプログラム。   The program for making a computer function as each means of the speech apparatus of Claim 4.
JP2014100628A 2014-05-14 2014-05-14 Topic determination device, utterance device, method, and program Pending JP2015219583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014100628A JP2015219583A (en) 2014-05-14 2014-05-14 Topic determination device, utterance device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014100628A JP2015219583A (en) 2014-05-14 2014-05-14 Topic determination device, utterance device, method, and program

Publications (1)

Publication Number Publication Date
JP2015219583A true JP2015219583A (en) 2015-12-07

Family

ID=54778929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014100628A Pending JP2015219583A (en) 2014-05-14 2014-05-14 Topic determination device, utterance device, method, and program

Country Status (1)

Country Link
JP (1) JP2015219583A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6199517B1 (en) * 2017-03-14 2017-09-20 ヤフー株式会社 Determination apparatus, determination method, and determination program
CN107808008A (en) * 2017-11-17 2018-03-16 合肥工业大学 A kind of theme emotion joint modeling method for considering user's characteristic information
JP2018097185A (en) * 2016-12-14 2018-06-21 パナソニックIpマネジメント株式会社 Voice dialogue device, voice dialogue method, voice dialogue program and robot
JP2018106224A (en) * 2016-12-22 2018-07-05 シャープ株式会社 Server, information processing method, network system, and terminal
CN108491529A (en) * 2018-03-28 2018-09-04 百度在线网络技术(北京)有限公司 Information recommendation method and device
JP2018185751A (en) * 2017-04-27 2018-11-22 トヨタ自動車株式会社 Interactive device, interactive method, and interactive program
JP2019139282A (en) * 2018-02-06 2019-08-22 Kddi株式会社 Interaction control device capable of carrying out interaction about contents, program and method
JP2019168820A (en) * 2018-03-22 2019-10-03 株式会社日立製作所 Data analysis support system and data analysis support method
CN112084772A (en) * 2020-09-25 2020-12-15 北京明略昭辉科技有限公司 Text quality monitoring method and device, electronic equipment and storage medium
JP2021089728A (en) * 2020-06-02 2021-06-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Man-machine interaction method, device, and equipment
US11361674B2 (en) 2019-01-24 2022-06-14 Toyota Jidosha Kabushiki Kaisha Encouraging speech system, encouraging speech method, and computer readable medium
US11423894B2 (en) 2019-01-24 2022-08-23 Toyota Jidosha Kabushiki Kaisha Encouraging speech system, encouraging speech method, and program
JP7416295B2 (en) 2018-03-26 2024-01-17 カシオ計算機株式会社 Robots, dialogue systems, information processing methods and programs

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108231070B (en) * 2016-12-14 2023-04-18 松下知识产权经营株式会社 Voice conversation device, voice conversation method, recording medium, and robot
JP2018097185A (en) * 2016-12-14 2018-06-21 パナソニックIpマネジメント株式会社 Voice dialogue device, voice dialogue method, voice dialogue program and robot
CN108231070A (en) * 2016-12-14 2018-06-29 松下知识产权经营株式会社 Voice dialogue device, speech dialog method, voice dialogue program and robot
JP2018106224A (en) * 2016-12-22 2018-07-05 シャープ株式会社 Server, information processing method, network system, and terminal
JP2018151578A (en) * 2017-03-14 2018-09-27 ヤフー株式会社 Determination device, determination method, and determination program
JP6199517B1 (en) * 2017-03-14 2017-09-20 ヤフー株式会社 Determination apparatus, determination method, and determination program
JP2018185751A (en) * 2017-04-27 2018-11-22 トヨタ自動車株式会社 Interactive device, interactive method, and interactive program
US10861445B2 (en) 2017-04-27 2020-12-08 Toyota Jidosha Kabushiki Kaisha Interactive apparatus, interactive method, and interactive program
CN107808008A (en) * 2017-11-17 2018-03-16 合肥工业大学 A kind of theme emotion joint modeling method for considering user's characteristic information
CN107808008B (en) * 2017-11-17 2020-02-11 合肥工业大学 Theme-emotion combined modeling method considering user characteristic information
JP2019139282A (en) * 2018-02-06 2019-08-22 Kddi株式会社 Interaction control device capable of carrying out interaction about contents, program and method
JP2019168820A (en) * 2018-03-22 2019-10-03 株式会社日立製作所 Data analysis support system and data analysis support method
JP7416295B2 (en) 2018-03-26 2024-01-17 カシオ計算機株式会社 Robots, dialogue systems, information processing methods and programs
CN108491529A (en) * 2018-03-28 2018-09-04 百度在线网络技术(北京)有限公司 Information recommendation method and device
CN108491529B (en) * 2018-03-28 2021-11-16 百度在线网络技术(北京)有限公司 Information recommendation method and device
US11361674B2 (en) 2019-01-24 2022-06-14 Toyota Jidosha Kabushiki Kaisha Encouraging speech system, encouraging speech method, and computer readable medium
US11423894B2 (en) 2019-01-24 2022-08-23 Toyota Jidosha Kabushiki Kaisha Encouraging speech system, encouraging speech method, and program
JP7093825B2 (en) 2020-06-02 2022-06-30 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Man-machine dialogue methods, devices, and equipment
JP2021089728A (en) * 2020-06-02 2021-06-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Man-machine interaction method, device, and equipment
CN112084772A (en) * 2020-09-25 2020-12-15 北京明略昭辉科技有限公司 Text quality monitoring method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US11740863B2 (en) Search and knowledge base question answering for a voice user interface
JP2015219583A (en) Topic determination device, utterance device, method, and program
CN110765244B (en) Method, device, computer equipment and storage medium for obtaining answering operation
US10997370B2 (en) Hybrid classifier for assigning natural language processing (NLP) inputs to domains in real-time
US10832664B2 (en) Automated speech recognition using language models that selectively use domain-specific model components
US10134388B1 (en) Word generation for speech recognition
US10210862B1 (en) Lattice decoding and result confirmation using recurrent neural networks
CN107146610B (en) Method and device for determining user intention
US11823678B2 (en) Proactive command framework
US10917758B1 (en) Voice-based messaging
US10713289B1 (en) Question answering system
US11763816B1 (en) Natural language processing policies
CN112800170A (en) Question matching method and device and question reply method and device
CN108538294B (en) Voice interaction method and device
US10872601B1 (en) Natural language processing
US10600419B1 (en) System command processing
US11398226B1 (en) Complex natural language processing
Harwath et al. Zero resource spoken audio corpus analysis
JP5073024B2 (en) Spoken dialogue device
KR101677859B1 (en) Method for generating system response using knowledgy base and apparatus for performing the method
KR101333485B1 (en) Method for constructing named entities using online encyclopedia and apparatus for performing the same
KR20180022156A (en) Dialog management apparatus and method
JP5158022B2 (en) Dialog processing device, dialog processing method, and dialog processing program
CN108899016B (en) Voice text normalization method, device and equipment and readable storage medium
Malandrakis et al. Emotiword: Affective lexicon creation with application to interaction and multimedia data