JP2018045630A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018045630A
JP2018045630A JP2016182088A JP2016182088A JP2018045630A JP 2018045630 A JP2018045630 A JP 2018045630A JP 2016182088 A JP2016182088 A JP 2016182088A JP 2016182088 A JP2016182088 A JP 2016182088A JP 2018045630 A JP2018045630 A JP 2018045630A
Authority
JP
Japan
Prior art keywords
response message
message
information processing
processing unit
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016182088A
Other languages
Japanese (ja)
Other versions
JP6205039B1 (en
Inventor
清水 徹
Toru Shimizu
徹 清水
隼人 小林
Hayato Kobayashi
隼人 小林
伸幸 清水
Nobuyuki Shimizu
伸幸 清水
晃平 菅原
Kohei Sugawara
晃平 菅原
達洋 丹羽
Tatsuhiro Niwa
達洋 丹羽
伸裕 鍜治
Nobuhiro Kaji
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016182088A priority Critical patent/JP6205039B1/en
Application granted granted Critical
Publication of JP6205039B1 publication Critical patent/JP6205039B1/en
Publication of JP2018045630A publication Critical patent/JP2018045630A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, information processing method, and program that improve the satisfaction of a user with a response message.SOLUTION: An information processing device includes a reception unit, a first processing unit, a second processing unit, and a generation unit. The reception unit receives a message of a user. The first processing unit performs selection processing for selecting a response message candidate corresponding to the message from a response message candidate group. The second processing unit performs evaluation processing for evaluating words that follow the message on the basis of probability values in order in which words appear. The generation unit generates a response message corresponding to the message, on the basis of the selection processing and evaluation processing.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、質問文と、正解文、および不正解文を含む文とのペアについて得られる特徴量に基づいて機械学習したランキングモデルを用いて、質問文などのメッセージに対する応答メッセージ候補を生成する情報処理装置が知られている(特許文献1参照)。   Conventionally, information processing that generates response message candidates for a message such as a question sentence using a ranking model that has been machine-learned based on a feature amount obtained for a pair of a question sentence, a correct sentence, and a sentence including an incorrect sentence An apparatus is known (see Patent Document 1).

特開2013−254420号公報JP2013-254420A

しかし、上記のようなモデルのみを用いて生成された応答メッセージ候補から生成した応答メッセージは、ユーザのメッセージに対する応答メッセージとしての精度が低く、ユーザの満足度を十分に満たさない場合があり、改善の余地がある。   However, the response message generated from the response message candidate generated using only the model as described above has low accuracy as a response message to the user's message and may not satisfy the user's satisfaction sufficiently. There is room for.

本願は、上記に鑑みてなされたものであって、応答メッセージに対するユーザの満足度を向上させる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide an information processing apparatus, an information processing method, and a program that improve user satisfaction with response messages.

本願にかかる情報処理装置は、受信部と、第1処理部と、第2処理部と、生成部とを備える。受信部は、ユーザのメッセージを受信する。第1処理部は、メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。第2処理部は、単語が出現する順番の確率値に基づいて前記メッセージに続く単語を評価する評価処理を行う。生成部は、選択処理と評価処理とに基づいて、メッセージに対する応答メッセージを生成する。   An information processing apparatus according to the present application includes a reception unit, a first processing unit, a second processing unit, and a generation unit. The receiving unit receives a user message. A 1st process part performs the selection process which selects the response message candidate with respect to a message from a response message candidate group. A 2nd process part performs the evaluation process which evaluates the word following the said message based on the probability value of the order that a word appears. The generation unit generates a response message for the message based on the selection process and the evaluation process.

実施形態の一態様によれば、応答メッセージに対するユーザの満足度を向上させる情報処理装置、情報処理方法、およびプログラムを提供することができる。   According to one aspect of the embodiment, it is possible to provide an information processing apparatus, an information processing method, and a program that improve user satisfaction with response messages.

図1は、第1実施形態に係る情報処理の説明図である。FIG. 1 is an explanatory diagram of information processing according to the first embodiment. 図2は、情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the information processing system. 図3は、第1実施形態に係る情報処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the information processing apparatus according to the first embodiment. 図4は、応答メッセージ候補に対するスコアの一例を示す図である。FIG. 4 is a diagram illustrating an example of scores for response message candidates. 図5は、実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a response message generation process according to the embodiment. 図6は、第2実施形態に係る情報処理装置の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of the information processing apparatus according to the second embodiment. 図7は、第2実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a response message generation process according to the second embodiment. 図8は、変形例における応答メッセージ候補に対するスコアの一例を示す図である。FIG. 8 is a diagram illustrating an example of scores for response message candidates in the modification. 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the information processing apparatus.

以下に、本願にかかる情報処理装置、情報処理方法、およびプログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法、およびプログラムが限定されるものではない。   Hereinafter, an information processing apparatus, an information processing method, and a form for implementing a program (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the information processing apparatus, the information processing method, and the program according to the present application are not limited by this embodiment.

(第1実施形態)
[1.情報処理]
第1実施形態に係る情報処理の一例について説明する。図1は、第1実施形態に係る情報処理の説明図である。
(First embodiment)
[1. Information processing]
An example of information processing according to the first embodiment will be described. FIG. 1 is an explanatory diagram of information processing according to the first embodiment.

情報処理装置1は、ユーザの端末装置2からユーザの発話に基づくメッセージを受信する(ステップS1)。例えば、情報処理装置1は、ユーザから「今日の天気は?」とする発話に基づくメッセージを受信する。   The information processing device 1 receives a message based on the user's utterance from the user's terminal device 2 (step S1). For example, the information processing apparatus 1 receives a message based on an utterance “What is the weather today?” From the user.

情報処理装置1は、メッセージに対して、マッチングモデルを用いて、メッセージに対する応答メッセージ候補を選択する(ステップS2)。   The information processing apparatus 1 selects a response message candidate for the message using the matching model for the message (step S2).

マッチングモデルは、入力されたメッセージを複数次元のベクトルで示す分散表現を用いて、入力されたメッセージに対応する応答メッセージ候補を選択するためのモデルである。   The matching model is a model for selecting a response message candidate corresponding to an input message using a distributed expression indicating the input message as a multi-dimensional vector.

マッチングモデルは、ウェブや、ツイッター(登録商標)などから得られる対話文を学習データとして用い、入力されたメッセージにおける分散表現と、入力されたメッセージに対して相応しい対となる対応メッセージにおける分散表現とが、分散表現空間上で近くに存在するように学習される。マッチングモデルは、例えば、LSTM(Long Short-Term Memory)などのRNN(Recurrent Neural Network)を分散表現生成に用いたDSSM(Deep Structured Sematic Model)の技術を用いて学習され、生成される。   The matching model uses a dialogue sentence obtained from the web, Twitter (registered trademark), etc. as learning data, and a distributed expression in the input message and a distributed expression in the corresponding message that is a suitable pair for the input message. Are learned to exist close together in the distributed representation space. The matching model is generated by learning using a technique of DSSM (Deep Structured Sematic Model) that uses a recurrent neural network (RNN) such as LSTM (Long Short-Term Memory) for distributed expression generation.

例えば、入力されたメッセージが「今日の天気は?」である場合に、このメッセージに対して「晴れでしょう」、「そうですね」、「おはよう」などの対となる対応メッセージがあった場合には、「晴れでしょう」、「曇りです」、「分かりません」などの分散表現が、分散表現空間上でメッセージ「今日の天気は?」の分散表現の近くに存在するように、マッチングモデルは学習される。また、「今日の天気は?」に対する応答として相応しくない「お帰りなさい」などの分散表現は、分散表現空間上で「今日の天気は?」の分散表現に対して遠くに存在するように、マッチングモデルは学習される。   For example, if the input message is "What's the weather today?" And there is a corresponding message such as "Sunny", "That's right" or "Good morning" for this message The matching model is such that distributed expressions such as "Is sunny", "It is cloudy", and "I don't know" exist near the distributed expression of the message "What's the weather today?" To be learned. In addition, distributed expressions such as “Return” that are not appropriate as a response to “What is the weather today?” Exist far away from the distributed expression “What is the weather today?” In the distributed expression space. The matching model is learned.

情報処理装置1は、入力されたメッセージにおける分散表現と、分散表現空間上の対応メッセージの分散表現とのマッチングを行う。   The information processing apparatus 1 performs matching between the distributed representation in the input message and the distributed representation of the corresponding message in the distributed representation space.

情報処理装置1は、例えば、入力されたメッセージにおける分散表現と、分散表現空間上の対応メッセージ(以下、応答メッセージ候補群と記載する場合がある。)の分散表現とのコサイン類似度を算出し、コサイン類似度が高い分散表現の対応メッセージの中から、所定数の対応メッセージを応答メッセージ候補として選択する。なお、情報処理装置1は、コサイン類似度の代わりに、ユークリッド距離の逆数など、他の尺度を用いて応答メッセージ候補を選択してもよい。   For example, the information processing apparatus 1 calculates the cosine similarity between the distributed representation in the input message and the distributed representation of the corresponding message in the distributed representation space (hereinafter, may be referred to as a response message candidate group). Then, a predetermined number of corresponding messages are selected as response message candidates from the distributed messages corresponding to a high cosine similarity. Note that the information processing apparatus 1 may select a response message candidate using another scale such as the reciprocal of the Euclidean distance instead of the cosine similarity.

すなわち、情報処理装置1は、応答メッセージ候補群から、メッセージに対する応答メッセージ候補を選択する選択処理を行う。所定数は、予め設定された値である。情報処理装置1は、コサイン類似度が高い順に所定数の対応メッセージを応答メッセージ候補として選択する。   That is, the information processing apparatus 1 performs a selection process of selecting a response message candidate for a message from the response message candidate group. The predetermined number is a preset value. The information processing apparatus 1 selects a predetermined number of corresponding messages in descending order of cosine similarity as response message candidates.

情報処理装置1は、選択された応答メッセージ候補に対し、翻訳モデルを用いて、メッセージに対する応答メッセージ候補の尤もらしさを示すスコアを算出する(ステップS3)。   The information processing apparatus 1 calculates a score indicating the likelihood of the response message candidate for the message, using the translation model for the selected response message candidate (step S3).

翻訳モデルは、入力されたメッセージを複数次元のベクトルで示す分散表現を用いて、入力されたメッセージに続く単語(メッセージ)を評価し、生成するためのモデルである。翻訳モデルを用いて評価され、生成された応答メッセージは、入力されたメッセージに相応しい応答メッセージである。   The translation model is a model for evaluating and generating a word (message) following an input message by using a distributed expression indicating the input message by a multi-dimensional vector. The response message evaluated and generated using the translation model is a response message suitable for the input message.

翻訳モデルは、ウェブなどから得られる対話文を学習データとして用い、或る入力されたメッセージに対応する対応メッセージの単語がどのような確率で連鎖するかについて学習されたモデルである。   The translation model is a model in which dialogue sentences obtained from the web or the like are used as learning data and the probability that words of corresponding messages corresponding to a certain input message are chained.

入力されたメッセージを翻訳モデルに与えると、対応する対応メッセージの最初の1単語についての確率表(語彙中の各単語の出現確率)が得られ、さらに、1単語目にどの単語が来るかを決めるとそれに続く2単語目の確率表が得られる。これを繰り返すことで、対向メッセージの単語の系列について順々に確率表を得ることができる。   When the input message is given to the translation model, a probability table (probability of occurrence of each word in the vocabulary) for the first word of the corresponding message is obtained, and further, which word comes to the first word When you decide, you get a probability table for the second word that follows. By repeating this, a probability table can be obtained in order for the word sequence of the opposite message.

情報処理装置1は、確率表に基いて1単語目から順番に単語のサンプリングを行うことで応答メッセージ候補の生成を行うことができる。また、情報処理装置1は、応答メッセージ候補があれば、応答メッセージ候補に含まれる単語がどのような確率を持つかを、翻訳モデルで得られる確率表で測ることで、入力されたメッセージに対するその応答メッセージ候補の尤もらしさが評価できる。   The information processing apparatus 1 can generate response message candidates by sampling words sequentially from the first word based on the probability table. In addition, if there is a response message candidate, the information processing apparatus 1 measures the probability that the word included in the response message candidate has a probability table obtained by the translation model, so that The likelihood of the response message candidate can be evaluated.

翻訳モデルは、例えば、LSTM(Long Short-Term Memory)などの、RNN(Recurrent Neural Network)の技術を用いて学習され、生成される。   The translation model is learned and generated using an RNN (Recurrent Neural Network) technique such as LSTM (Long Short-Term Memory).

例えば、翻訳モデルを用いることで、メッセージが「今日の天気は?」であり、その次に「晴れでしょう」とするメッセージが続く場合、「今日の天気は?」に対して、「晴れ」が続く確率値、また「晴れ」の後に「でしょ」が続く確率値などを算出することができる。   For example, by using a translation model, if the message is “What's the weather today?” Followed by the message “Is it sunny?” It is possible to calculate a probability value in which “deo” continues after “sunny”, and the like.

情報処理装置1は、翻訳モデルを用いて、メッセージに対し、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、メッセージに続く単語を評価する評価処理を行う。   Using the translation model, the information processing apparatus 1 calculates the probability value of the order in which words included in the response message candidate appear for the message, and performs an evaluation process for evaluating the word following the message.

情報処理装置1は、入力されたメッセージに対し、翻訳モデルを用いて各応答メッセージ候補の1単語目が出現する確率値を算出する。そして、情報処理装置1は、各応答メッセージ候補の1単語目に対し、翻訳モデルを用いて2単語目が出現する確率値を算出する。このように、情報処理装置1は、各応答メッセージ候補に含まれる各単語に対し、出現する順番にそれぞれ確率値を算出し、各確率値を総合したスコア、例えば、各確率値の積を取ったスコアを算出する。   The information processing device 1 calculates a probability value that the first word of each response message candidate appears for the input message using the translation model. Then, the information processing device 1 calculates a probability value that the second word appears for the first word of each response message candidate using the translation model. In this way, the information processing device 1 calculates probability values in the order of appearance for each word included in each response message candidate, and obtains a score obtained by combining the probability values, for example, the product of the probability values. Calculate the score.

入力されたメッセージに対し、応答メッセージ候補において各単語が出現する順番に算出された確率値が大きく、スコアが大きい場合には、その応答メッセージ候補は、応答メッセージとして尤もらしいと評価することができる。   When the probability value calculated in the order in which each word appears in the response message candidate is large and the score is large for the input message, the response message candidate can be evaluated as likely as a response message. .

情報処理装置1は、翻訳モデルを用いて算出したスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS4)。   The information processing apparatus 1 selects a response message candidate having the highest score calculated using the translation model as a response message, and generates a response message (step S4).

情報処理装置1は、生成した応答メッセージを、ユーザの端末装置2へ送信する(ステップS5)。   The information processing device 1 transmits the generated response message to the user terminal device 2 (step S5).

情報処理装置1は、メッセージに対して、マッチングモデルを用いて応答メッセージ候補を選択した後に、翻訳モデルを用いて応答メッセージを選択する。   The information processing apparatus 1 selects a response message using a translation model after selecting a response message candidate using a matching model for the message.

マッチングモデルを用いた評価では、どのようなメッセージが入力されるか分からない状態で応答メッセージ候補の分散表現を生成しなければならず、応答メッセージ候補の精緻な評価を行うことが難しい場合がある。これに対し、翻訳モデルを用いた評価では、入力されたメッセージを把握した上で、メッセージに対応した内容が応答メッセージ候補に含まれているかを評価できるので、より適切な評価を行うことができる。   In the evaluation using the matching model, it is necessary to generate a distributed representation of the response message candidates without knowing what message is input, and it may be difficult to perform an accurate evaluation of the response message candidates. . On the other hand, in the evaluation using the translation model, it is possible to evaluate whether the content corresponding to the message is included in the response message candidate after grasping the input message, so that a more appropriate evaluation can be performed. .

一方、マッチングモデルでは、応答メッセージ候補はすでに分散表現とされており、メッセージの分散表現を生成すると、分散表現同士のマッチングにより、評価を行うことができ、処理時の負荷が小さい。これに対し、翻訳モデルでは、多数の応答メッセージ候補の各単語の確率を評価すると、処理時の負荷が大きい。   On the other hand, in the matching model, the response message candidates are already distributed, and when a distributed representation of the message is generated, evaluation can be performed by matching the distributed representations, and the processing load is small. On the other hand, in the translation model, if the probability of each word of a large number of response message candidates is evaluated, the processing load is large.

このように、マッチングモデルと翻訳モデルとの間では、評価の精緻と、処理時の負荷とがトレードオフの関係にある。   In this way, between the matching model and the translation model, there is a trade-off relationship between the precision of evaluation and the load during processing.

そこで、情報処理装置1は、処理時の負荷が小さいマッチングモデルを用いて、多数の対応メッセージから所定数の応答メッセージ候補まで絞り込みを行い、絞り込まれた応答メッセージ候補についてだけ翻訳モデルを用いて精緻な評価を行う。これにより、システム全体としての精度を高めることができ、メッセージに対する応答メッセージの精度を向上させることができ、ユーザの満足度を向上させることができる。   Therefore, the information processing apparatus 1 narrows down from a large number of corresponding messages to a predetermined number of response message candidates using a matching model with a small processing load, and uses only a translation model for the narrowed response message candidates. Make an evaluation. Thereby, the precision as the whole system can be improved, the precision of the response message with respect to a message can be improved, and a user's satisfaction can be improved.

[2.情報処理システム5の構成]
図2は、情報処理システム5の構成例を示す図である。図2に示すように、第1実施形態に係る情報処理システム5は、情報処理装置1と、端末装置2と、音声認識サーバ3と、音声合成サーバ4とを備える。
[2. Configuration of information processing system 5]
FIG. 2 is a diagram illustrating a configuration example of the information processing system 5. As illustrated in FIG. 2, the information processing system 5 according to the first embodiment includes an information processing device 1, a terminal device 2, a speech recognition server 3, and a speech synthesis server 4.

端末装置2、音声認識サーバ3、音声合成サーバ4、および情報処理装置1は、ネットワークNを介して無線または有線で互いに通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネットなどのWAN(Wide Area Network)である。   The terminal device 2, the speech recognition server 3, the speech synthesis server 4, and the information processing device 1 are connected to be communicable with each other wirelessly or via a network N. The network N is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet.

端末装置2は、スマートフォンや、タブレット型端末や、デスクトップ型PC(Personal Computer)や、ノート型PCや、PDA(Personal Digital Assistant)等により実現される。   The terminal device 2 is realized by a smartphone, a tablet terminal, a desktop PC (Personal Computer), a notebook PC, a PDA (Personal Digital Assistant), or the like.

音声認識サーバ3は、音声情報に対して自然言語処理を実行し、音声データをテキストデータに変換する装置である。音声認識サーバ3は、端末装置2から発話の音声データを受信すると、音声データをテキストデータに変換する。音声認識サーバ3は、音声データを変換したテキストデータを情報処理装置1に送信する。   The speech recognition server 3 is a device that performs natural language processing on speech information and converts speech data into text data. When the speech recognition server 3 receives speech speech data from the terminal device 2, the speech recognition server 3 converts the speech data into text data. The voice recognition server 3 transmits text data obtained by converting the voice data to the information processing apparatus 1.

音声合成サーバ4は、情報処理装置1によって生成された応答メッセージのテキストデータを音声データに変換する。音声合成サーバ4は、テキストデータを変換した音声データを、端末装置2に送信する。   The voice synthesis server 4 converts the text data of the response message generated by the information processing apparatus 1 into voice data. The voice synthesis server 4 transmits the voice data obtained by converting the text data to the terminal device 2.

情報処理装置1は、端末装置2から送信されたテキストデータ、または音声認識サーバ3を介して音声データが変換されたテキストデータに基づいて、応答メッセージのテキストデータを生成する。情報処理装置1は、生成した応答メッセージのテキストデータを、音声合成サーバ4、および端末装置2に送信する。   The information processing device 1 generates text data of a response message based on text data transmitted from the terminal device 2 or text data obtained by converting the speech data via the speech recognition server 3. The information processing device 1 transmits the text data of the generated response message to the speech synthesis server 4 and the terminal device 2.

なお、音声認識サーバ3や音声合成サーバ4を、情報処理装置1と一体的に構成してもよい。また、端末装置2が、音声認識機能や、音声合成機能を有する場合には、これらの機能を用いて、音声データとテキストデータとを変換してもよい。   Note that the speech recognition server 3 and the speech synthesis server 4 may be configured integrally with the information processing apparatus 1. When the terminal device 2 has a voice recognition function or a voice synthesis function, the voice data and the text data may be converted using these functions.

[3.第1実施形態に係る情報処理装置1の構成]
次に、第1実施形態に係る情報処理装置1について、図3を参照し説明する。図3は、第1実施形態に係る情報処理装置1の構成例を示す図である。
[3. Configuration of information processing apparatus 1 according to the first embodiment]
Next, the information processing apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the information processing apparatus 1 according to the first embodiment.

ここでは、端末装置2から、ユーザの発話による音声データが送信され、音声データを端末装置2へ送信する例、すなわち、音声による対話を一例として説明するが、テキストデータによる対話であってもよい。   Here, an example in which voice data based on a user's utterance is transmitted from the terminal device 2 and voice data is transmitted to the terminal device 2, that is, a voice dialogue is described as an example, but a dialogue using text data may be used. .

情報処理装置1は、ユーザによる発話があった場合に、端末装置2(図2参照)から音声認識サーバ3(図2参照)を介して送信されたメッセージに対する応答メッセージを生成する応答生成装置である。情報処理装置1は、受信部10と、送信部20と、記憶部30と、制御部40とを備える。   The information processing device 1 is a response generation device that generates a response message for a message transmitted from the terminal device 2 (see FIG. 2) via the voice recognition server 3 (see FIG. 2) when the user speaks. is there. The information processing apparatus 1 includes a reception unit 10, a transmission unit 20, a storage unit 30, and a control unit 40.

受信部10は、ネットワークNを介して、ユーザによるメッセージを受信する。受信部10は、ユーザによる発話があった場合には、音声認識データ(図2参照)によって変換された、メッセージに対応するテキストデータを受信する。また、受信部10は、ネットワークNを介して外部に設置されたサーバなどからデータを受信する。   The receiving unit 10 receives a message from the user via the network N. When there is an utterance by the user, the receiving unit 10 receives text data corresponding to the message converted by the voice recognition data (see FIG. 2). The receiving unit 10 receives data from a server or the like installed outside via the network N.

記憶部30は、マッチングモデル記憶部31と、翻訳モデル記憶部32とを備える。記憶部30は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部30は、メッセージに対する応答メッセージ候補を選択するために必要な情報を記憶するデータベースを備えてもよい。   The storage unit 30 includes a matching model storage unit 31 and a translation model storage unit 32. The storage unit 30 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 may include a database that stores information necessary for selecting a response message candidate for the message.

マッチングモデル記憶部31は、マッチングモデルを記憶する。マッチングモデルは、ネットワークNを介して新たに取得され、更新されてもよい。マッチングモデル記憶部31は、入力されるメッセージの分散表現に対する応答メッセージ候補の分散表現と、応答メッセージ候補とを一組のリストとして記憶する。   The matching model storage unit 31 stores a matching model. The matching model may be newly acquired and updated via the network N. The matching model storage unit 31 stores a distributed representation of response message candidates for a distributed representation of an input message and response message candidates as a set of lists.

翻訳モデル記憶部32は、翻訳モデルを記憶する。翻訳モデルは、ネットワークNを介して新たに取得され、更新されてもよい。   The translation model storage unit 32 stores a translation model. The translation model may be newly acquired and updated via the network N.

制御部40は、解析部41と、第1処理部42と、第2処理部43と、生成部44とを備える。   The control unit 40 includes an analysis unit 41, a first processing unit 42, a second processing unit 43, and a generation unit 44.

解析部41は、受信部10によって受信したメッセージを解析する。解析部41は、例えば、受信部10によってテキストデータが受信されると、形態素解析等を用いてテキストデータを解析し、テキストデータに含まれる単語群を抽出する。   The analysis unit 41 analyzes the message received by the reception unit 10. For example, when the receiving unit 10 receives text data, the analyzing unit 41 analyzes the text data using morphological analysis or the like, and extracts a word group included in the text data.

解析部41は、ユーザの発話により、受信部10によってメッセージとして、例えば、「今日の天気は?」とするテキストデータが受信された場合、「今日」、「の」、「天気」、「は」の単語を抽出し、テキストデータの内容を特定する。   When the receiving unit 10 receives text data such as “Today's weather?” As a message, the analyzing unit 41 receives “today”, “no”, “weather”, “ha”, for example. "Is extracted and the content of the text data is specified.

第1処理部42は、メッセージの分散表現を生成する。第1処理部42は、メッセージを分散表現とすることで、類似する内容のメッセージを同じ分散表現として扱うことができる。第1処理部42は、例えば、「今日の天気は?」や「今日の天気はどうでしょう?」など類似する内容のメッセージを同じ分散表現として扱う。   The first processing unit 42 generates a distributed representation of the message. The first processing unit 42 can handle messages having similar contents as the same distributed expression by using the messages as distributed expressions. The first processing unit 42 treats messages having similar contents such as “What is the weather today?” And “How about the weather today?” As the same distributed expression.

そして、第1処理部42は、マッチングモデルを用いて、メッセージの分散表現に対する類似度が高い応答メッセージ候補の分散表現に基づいて、応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。具体的には、第1処理部42は、メッセージの分散表現に対し、コサイン類似度が高い分散表現の対応メッセージを応答メッセージ候補として選択する。例えば、第1処理部42は、メッセージの分散表現に対し、コサイン類似度が高い分散表現の対応メッセージの中から、所定数の対応メッセージを、応答メッセージ候補として選択する。   Then, using the matching model, the first processing unit 42 performs a selection process of selecting a response message candidate from the response message candidate group based on the distributed expression of the response message candidate having a high similarity to the distributed expression of the message. Specifically, the first processing unit 42 selects a corresponding message having a distributed expression having a high cosine similarity as a response message candidate with respect to the distributed expression of the message. For example, the first processing unit 42 selects a predetermined number of corresponding messages as response message candidates from the corresponding messages in the distributed representation having a high cosine similarity with respect to the distributed representation of the message.

例えば、メッセージが「今日の天気は?」であった場合、分散表現空間上で「今日の天気は?」とコサイン類似度が高い「晴れでしょう」や、「曇りです」や、「分かりません」といった対応メッセージが応答メッセージ候補として選択される。なお、ここでは、天気が「晴れ」であることを一例として説明する。   For example, if the message is “What's the weather today?”, “It ’s sunny”, “It ’s cloudy”, or “I do n’t know.” Corresponding message such as "" is selected as a response message candidate. Here, the case where the weather is “sunny” will be described as an example.

第2処理部43は、翻訳モデルを用いて、メッセージに対し、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、メッセージに続く単語を評価する評価処理を行う。   The second processing unit 43 calculates the probability value of the order in which words included in the response message candidate appear for the message using the translation model, and performs an evaluation process for evaluating the word following the message.

具体的には、第2処理部43は、翻訳モデルを用いて、メッセージに対して、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、各確率値を総合したスコアを算出する。すなわち、第2処理部43は、第1処理部42によって選択された応答メッセージ候補に対して、メッセージに対する尤もらしさを示す評価値としてスコアを算出する。具体的には、第2処理部43は、各確率値の積をとって応答メッセージ候補の出現確率を算出する。   Specifically, the second processing unit 43 calculates the probability value of the order in which words included in the response message candidates appear for the message using the translation model, and calculates a score that combines the probability values. To do. That is, the second processing unit 43 calculates a score as an evaluation value indicating the likelihood of the message with respect to the response message candidate selected by the first processing unit 42. Specifically, the second processing unit 43 calculates the appearance probability of the response message candidate by taking the product of the probability values.

例えば、メッセージが「今日の天気は?」であった場合、応答メッセージ候補として「晴れでしょう」、「曇りです」、および「分かりません」が選択されたとする。   For example, when the message is “What's the weather today?”, “Sunny weather”, “Cloudy”, and “I don't know” are selected as response message candidates.

この場合、第2処理部43は、翻訳モデルを用いて、「今日の天気は?」に続く単語の確率値を、各応答メッセージ候補に含まれる単語の出現順に算出する。   In this case, the second processing unit 43 uses the translation model to calculate the probability value of the word following “What is the weather today?” In the order of appearance of the words included in each response message candidate.

第2処理部43は、「今日の天気は?」に対し、その次に「晴れ」が出現する確率値を、翻訳モデルを用いて算出し、さらに、「今日の天気は?晴れ」の次に「でしょ」が出現する確率値を、翻訳モデルを用いて算出する。第2処理部43は、同様にして応答メッセージ候補「晴れでしょう」について、翻訳モデルを用いて単語が出現する順番の確率値を算出する。そして、第2処理部43は、各確率値の積を応答メッセージ候補「晴れでしょう」に対するスコアとして算出する。   The second processing unit 43 calculates a probability value that “sunny” appears next to “what is the weather today?” Using the translation model, and further after “is the weather today?” The probability value of “desho” appearing in is calculated using a translation model. Similarly, the second processing unit 43 calculates a probability value of the order in which words appear using the translation model for the response message candidate “will be sunny”. Then, the second processing unit 43 calculates the product of the respective probability values as a score for the response message candidate “will be sunny”.

例えば、「今日の天気は?」に続く単語「晴れ」の確率値が「0.2」、「今日の天気は?晴れ」の次に続く単語「でしょ」の確率値が「0.4」、「今日の天気は?晴れでしょ」の次に続く単語「う」の確率値が「0.5」、「今日の天気は?晴れでしょう」で終わる確率値が「0.6」であった場合、各確率値の積であるスコアは図4に示すように、「2.88×10−2」になる。図4は、応答メッセージ候補に対するスコアの一例を示す図である。なお、図4では、文章の終わりを「EOS(End Of Sentence)」として示している。 For example, the probability value of the word “sunny” following “What is the weather today?” Is “0.2”, and the probability value of the word “de” after “What is the weather today?” Is “0.4”. The probability value of the word “U” following “Today ’s weather? In this case, the score, which is the product of the probability values, is “2.88 × 10 −2 ” as shown in FIG. FIG. 4 is a diagram illustrating an example of scores for response message candidates. In FIG. 4, the end of the sentence is shown as “EOS (End Of Sentence)”.

メッセージ「今日の天気は?」に対し、応答メッセージ候補「晴れでしょう」が尤もらしい場合には、スコアが大きくなる。   In response to the message “What's the weather today?”, If the response message candidate “maybe sunny” is likely, the score will increase.

また、第2処理部43は、「曇りです」、および「分かりません」の応答メッセージ候補についても、同様に確率値を算出し、各応答メッセージ候補に対するスコアを算出する。   Further, the second processing unit 43 similarly calculates probability values for the response message candidates “cloudy” and “I don't know”, and calculates a score for each response message candidate.

例えば、「今日の天気は?」に続く単語「曇り」の確率値が「0.05」、「今日の天気は?曇り」の次に続く単語「です」の確率値が「0.4」、「今日の天気は?曇りです」で終わる確率値が「0.7」であった場合、スコアは図4に示すように、「1.40×10−2」になる。 For example, the probability value of the word “cloudy” following “What is the weather today?” Is “0.05”, and the probability value of the word “is” next to “Today's weather? Cloudy” is “0.4”. If the probability value ending with “Is today's weather? Cloudy” is “0.7”, the score is “1.40 × 10 −2 ” as shown in FIG.

また、例えば、「今日の天気は?」に続く単語「分かり」の確率値が「0.01」、「今日の天気は?分かり」の次に続く単語「ませ」の確率値が「0.2」、「今日の天気は?分かりませ」の次に続く単語「ん」の確率値が「0.5」、「今日の天気は?分かりません」で終わる確率値が「0.6」であった場合、スコアは図4に示すように、「6.00×10−4」になる。 Also, for example, the probability value of the word “Understanding” following “What is the weather today?” Is “0.01”, and the probability value of the word “No” following “Understanding today's weather” is “0. 2 ”, the probability value of the word“ n ”following“ I don't know the weather today ”is“ 0.5 ”, and the probability value that ends with“ I do n’t know the weather today? ”Is“ 0.6 ” In this case, the score is “6.00 × 10 −4 ” as shown in FIG.

生成部44は、第2処理部43によって算出されたスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する。   The generation unit 44 selects a response message candidate having the highest score calculated by the second processing unit 43 as a response message, and generates a response message.

例えば、第2処理部43によって算出された、上記3つの応答メッセージ候補におけるスコアが図4に示すようになった場合、生成部44は、スコアが最も大きい「晴れでしょう」の応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する。   For example, when the scores of the above three response message candidates calculated by the second processing unit 43 are as shown in FIG. 4, the generation unit 44 selects the response message candidate with the highest score “sunny”. Select as a response message and generate a response message.

送信部20は、ネットワークNを介して、端末装置2や、音声合成サーバ4(図2参照)に、生成部44によって作成された応答メッセージを送信する。   The transmission unit 20 transmits the response message created by the generation unit 44 to the terminal device 2 and the voice synthesis server 4 (see FIG. 2) via the network N.

[4.第1実施形態に係る応答メッセージ生成処理]
次に、第1実施形態に係る応答メッセージ生成処理について図5を参照し説明する。図5は、第1実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。
[4. Response message generation processing according to first embodiment]
Next, the response message generation process according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a response message generation process according to the first embodiment.

第1処理部42は、受信部10によってメッセージが受信されると(ステップS10)、マッチングモデルを用いて選択処理を行い、メッセージに対する応答メッセージ候補を選択する(ステップS11)。   When a message is received by the receiving unit 10 (step S10), the first processing unit 42 performs a selection process using the matching model, and selects a response message candidate for the message (step S11).

第2処理部43は、選択された応答メッセージ候補に対して、翻訳モデルを用いて評価処理を行い、各応答メッセージ候補に対する尤もらしさを示すスコアを算出する(ステップS12)。   The second processing unit 43 performs an evaluation process using the translation model on the selected response message candidate, and calculates a score indicating the likelihood of each response message candidate (step S12).

生成部44は、スコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS13)。   The generation unit 44 selects a response message candidate having the highest score as a response message, and generates a response message (step S13).

送信部20は、生成された応答メッセージをユーザの端末装置2へ送信する(ステップS14)。   The transmission unit 20 transmits the generated response message to the user terminal device 2 (step S14).

(第2実施形態)
[5.第2実施形態に係る情報処理装置1の構成]
次に第2実施形態に係る情報処理装置1について、図6を参照し説明する。図6は、第2実施形態に係る情報処理装置1の構成例を示す図である。
(Second Embodiment)
[5. Configuration of Information Processing Device 1 According to Second Embodiment]
Next, the information processing apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration example of the information processing apparatus 1 according to the second embodiment.

ここでは第1実施形態と異なる箇所を中心に説明し、第1実施形態と同じ構成については説明を省略する。   Here, the description will focus on the points different from the first embodiment, and the description of the same configuration as the first embodiment will be omitted.

第2実施形態に係る情報処理装置1の記憶部30は、言語モデル記憶部33を備える。また、第2実施形態に係る情報処理装置1の制御部40は、第3処理部45を備える。   The storage unit 30 of the information processing apparatus 1 according to the second embodiment includes a language model storage unit 33. In addition, the control unit 40 of the information processing apparatus 1 according to the second embodiment includes a third processing unit 45.

言語モデル記憶部33は、言語モデルを記憶する。言語モデルは、ネットワークNを介して新たに取得され、更新されてもよい。   The language model storage unit 33 stores a language model. The language model may be newly acquired and updated via the network N.

言語モデルは、ウェブなどから得られる文章を学習データとして用い、一般的な応答で使用される応答メッセージ候補の出現率を統計的にまとめたモデルである。言語モデルは、例えば、LSTM(Long Short-Term Memory)などの、RNN(Recurrent Neural Network)の技術を用いて学習され、生成される。   The language model is a model that uses sentences obtained from the web or the like as learning data and statistically summarizes the appearance rates of response message candidates used in general responses. The language model is learned and generated using an RNN (Recurrent Neural Network) technique such as LSTM (Long Short-Term Memory).

言語モデルでは、応答メッセージ候補の出現率に応じて重み付けされたスコアが付されている。例えば、「いいね」、「そうだね」など、出現率が所定率よりも高い高頻度の応答メッセージ候補に対して大きいスコアが付される。   In the language model, a score weighted according to the appearance rate of response message candidates is attached. For example, a large score is assigned to a high-frequency response message candidate whose appearance rate is higher than a predetermined rate, such as “Like” or “Sure!”.

第3処理部45は、言語モデルを用いて、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くする調整処理を行う。具体的には、第3処理部45は、言語モデルを用いて、第1処理部42によって選択された各応答メッセージ候補に対するスコアを算出する。   The 3rd process part 45 performs the adjustment process which makes low the probability value by which a high frequency response message candidate is produced | generated as a response message using a language model. Specifically, the third processing unit 45 calculates a score for each response message candidate selected by the first processing unit 42 using the language model.

生成部44は、第2処理部43によって算出された応答メッセージ候補のスコアから、第3処理部45によって言語モデルを用いて算出されたスコアを減算し、減算したスコア中でスコアが最も大きい応答メッセージ候補を応答メッセージとして選択する。   The generation unit 44 subtracts the score calculated using the language model by the third processing unit 45 from the score of the response message candidate calculated by the second processing unit 43, and the response having the largest score among the subtracted scores A message candidate is selected as a response message.

第2処理部43によって算出された応答メッセージ候補のスコアから、第3処理部45によって算出したスコアを減算することで、一般的な応答として、高頻度で使用される応答メッセージ候補が応答メッセージとして選択されることを抑制することができる。   By subtracting the score calculated by the third processing unit 45 from the score of the response message candidate calculated by the second processing unit 43, a response message candidate that is frequently used as a response message is used as a response message. Selection can be suppressed.

なお、第3処理部45は、各応答メッセージ候補に対し、言語モデルの与えるスコアが大きくなるほど値が小さくなるような係数を算出し、第2処理部43によって算出された応答メッセージ候補のスコアに、算出した係数を乗算してもよい。   The third processing unit 45 calculates, for each response message candidate, a coefficient that decreases as the score given by the language model increases, and sets the score of the response message candidate calculated by the second processing unit 43. The calculated coefficient may be multiplied.

[6.第2実施形態に係る応答メッセージ生成処理]
次に、第2実施形態に係る応答メッセージ生成処理について図7を参照し説明する。図7は、第2実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。
[6. Response message generation processing according to second embodiment]
Next, a response message generation process according to the second embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a response message generation process according to the second embodiment.

第1処理部42は、受信部10によってメッセージが受信されると(ステップS20)、マッチングモデルを用いて選択処理を行い、メッセージに対する応答メッセージ候補を選択する(ステップS21)。   When a message is received by the receiving unit 10 (step S20), the first processing unit 42 performs a selection process using the matching model, and selects a response message candidate for the message (step S21).

第2処理部43は、選択された応答メッセージ候補に対して、翻訳モデルを用いて評価処理を行い、各応答メッセージ候補に対する尤もらしさを示すスコアを算出する(ステップS22)。   The second processing unit 43 performs an evaluation process on the selected response message candidate using the translation model, and calculates a score indicating the likelihood of each response message candidate (step S22).

第3処理部45は、言語モデルを用いて調整処理を行い、各応答メッセージ候補に対するスコアを算出する(ステップS23)。   The third processing unit 45 performs adjustment processing using the language model, and calculates a score for each response message candidate (step S23).

生成部44は、第2処理部43によって翻訳モデルを用いて算出したスコアから、第3処理部45によって言語モデルを用いて算出したスコアを減算し、減算したスコアの中でスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS24)。   The generation unit 44 subtracts the score calculated using the language model by the third processing unit 45 from the score calculated by the second processing unit 43 using the translation model, and the response having the largest score among the subtracted scores A message candidate is selected as a response message, and a response message is generated (step S24).

送信部20は、生成された応答メッセージをユーザの端末装置2へ送信する(ステップS25)。   The transmission unit 20 transmits the generated response message to the user terminal device 2 (step S25).

[7.変形例]
上記実施形態に加えて、以下の変形例を適用することも可能である。
[7. Modified example]
In addition to the above-described embodiment, the following modifications can be applied.

変形例に係る情報処理装置1は、第1処理部42と、第2処理部43とにおける処理の順番を入れ替えて応答メッセージを生成する。   The information processing apparatus 1 according to the modification generates a response message by switching the order of processing in the first processing unit 42 and the second processing unit 43.

第2処理部43は、翻訳モデルを用いて、単語が出現する順番の確率値に基づいてメッセージに続く単語を評価する評価処理を行い、評価結果に基づいて応答メッセージ候補を生成する。   The second processing unit 43 performs an evaluation process for evaluating words following the message based on the probability value of the order of appearance of words using the translation model, and generates a response message candidate based on the evaluation result.

具体的には、第2処理部43は、メッセージを前提としたときの応答メッセージ候補の1単語目として、語彙中の各単語がどれだけの確率で現れうるかの確率表を生成し、それをもとに最も確率の高いN個(Nは予め設定された値)の単語を選ぶか、もしくは確率表をもとにしたランダムサンプリングを行うことにより、1単語目を決定する。続いてメッセージおよび1単語目を前提とした次の単語の確率表を生成し、それをもとに同様に2単語目を決定する。このような処理を繰り返し、第2処理部43は、メッセージに対する応答メッセージ候補を自動的に生成し、複数の応答メッセージ候補からなる応答メッセージ候補群を生成する。   Specifically, the second processing unit 43 generates a probability table indicating how much each word in the vocabulary can appear as the first word of the response message candidate when the message is assumed, The first word is determined by selecting N words (N is a preset value) with the highest probability or by performing random sampling based on a probability table. Subsequently, a probability table for the next word based on the message and the first word is generated, and the second word is similarly determined based on the probability table. By repeating such processing, the second processing unit 43 automatically generates response message candidates for the message, and generates a response message candidate group including a plurality of response message candidates.

第1処理部42は、第2処理部43によって生成された応答メッセージ候補群の中から、メッセージに対して尤もらしい応答メッセージ候補を選択する選択処理を行う。具体的には、第1処理部42は、応答メッセージ候補群の中から、メッセージの分散表現に対しコサイン類似度が最も大きい分散表現となる応答メッセージ候補を選択し、応答メッセージ候補をさらに絞り込む。   The first processing unit 42 performs a selection process of selecting a response message candidate that is likely to be a message from the response message candidate group generated by the second processing unit 43. Specifically, the first processing unit 42 selects a response message candidate having a distributed expression having the highest cosine similarity with respect to the distributed expression of the message from the response message candidate group, and further narrows down the response message candidates.

生成部44は、第1処理部42によって絞りこまれた応答メッセージ候補を、応答メッセージとして選択し、応答メッセージを生成する。   The generation unit 44 selects the response message candidates narrowed down by the first processing unit 42 as a response message, and generates a response message.

例えば、第2処理部43によって応答メッセージとして相応しくない応答メッセージ候補が生成された場合であっても、そのような応答メッセージ候補の分散表現は、分散表現空間上、メッセージの分散表現に対して遠くに存在する。   For example, even if a response message candidate that is not suitable as a response message is generated by the second processing unit 43, the distributed representation of such a response message candidate is far from the distributed representation of the message in the distributed representation space. Exists.

そのため、第1処理部42は、マッチングモデルを用いて応答メッセージ候補をさらに絞り込むことで、応答メッセージとして相応しくない応答メッセージ候補が応答メッセージとして選択されることを抑制することができる。   Therefore, the 1st process part 42 can suppress selecting a response message candidate which is not suitable as a response message by further narrowing down a response message candidate using a matching model.

変形例の情報処理装置1は、第2処理部43により応答メッセージ候補を生成することで、メッセージに対する応答メッセージ候補を多様化させることができる。   The information processing apparatus 1 according to the modified example can diversify response message candidates for messages by generating response message candidates by the second processing unit 43.

また、変形例の情報処理装置1は、例えば、第2処理部43によって応答メッセージ候補として「晴れだよ」が生成された場合に、別の翻訳モデルを用いて、より自然な文に置き換えて「晴れです」といった応答メッセージを生成してもよい。別の翻訳モデルは、不適切な文と、適切な文のペアの例を大量に学習データとして用い、不適切な文が与えられた場合に、適切な文を生成するモデルである。そして、情報処理装置1は、第1処理部42によって、適切な文として生成された応答メッセージ候補の中から応答メッセージを選択する。   Further, the information processing apparatus 1 according to the modified example uses, for example, another translation model to replace the sentence with a more natural sentence when “second day” is generated as a response message candidate by the second processing unit 43. A response message such as “sunny” may be generated. Another translation model is a model that generates an appropriate sentence when an inappropriate sentence is given by using a large amount of examples of an inappropriate sentence and an appropriate sentence pair as learning data. Then, the information processing apparatus 1 selects a response message from the response message candidates generated as an appropriate sentence by the first processing unit 42.

また、翻訳モデルにおいて、例えば、「いいね」、「そうだね」といった一般的な応答となる応答メッセージ候補が作成され難いように、翻訳モデルを学習する際に、一般的な応答となる対応メッセージにおいて、出現する単語の順番の確率値が小さくなるように学習してもよい。例えば、学習データ中の入力されたメッセージと対応メッセージの組において、「明日は晴れるらしいよ」に対して一般的な応答となる「そうだね」と回答しているようなものを間引く前処理を行った上で翻訳モデルを学習させる。これにより、第2処理部43によって、一般的な応答となる応答メッセージ候補が生成されることを抑制することができる。そのため、変形例の情報処理装置1は、ユーザの満足度を向上させることができる。   In addition, in the translation model, for example, a response message that is a general response when learning a translation model so that response message candidates that are general responses such as “Like” and “That's right” are difficult to create. The learning may be performed so that the probability value of the order of the appearing words is small. For example, in the set of input messages and corresponding messages in the learning data, pre-processing that thins out the ones that responded “Yes,” which is a general response to “It seems to be fine tomorrow.” Then, learn the translation model Thereby, it can suppress that the 2nd process part 43 produces | generates the response message candidate used as a general response. Therefore, the information processing apparatus 1 according to the modification can improve user satisfaction.

また、上記変形例に加えて、以下の変形例を適用することが可能である。   In addition to the above-described modification examples, the following modification examples can be applied.

第2処理部43は、各確率値の対数の和をスコアとして算出してもよい。   The second processing unit 43 may calculate the sum of logarithms of the respective probability values as a score.

第2処理部43は、確率値の相乗平均(あるいは確率値の対数の相加平均)をスコアとして算出してもよい。相乗平均をスコアとして算出した一例を図8に示す。この場合、応答メッセージ候補「晴れでしょう」のスコアが「0.412」となり、「曇りです」のスコアが「0.241」となり、「分かりません」のスコアが「0.157」となる。したがって、応答メッセージ候補「晴れでしょう」が応答メッセージとして選択される。   The second processing unit 43 may calculate a geometric average of probability values (or an arithmetic average of logarithms of probability values) as a score. An example of calculating the geometric mean as a score is shown in FIG. In this case, the score of the response message candidate “will be sunny” is “0.412”, the score of “cloudy” is “0.241”, and the score of “I don't know” is “0.157”. . Therefore, the response message candidate “will be sunny” is selected as the response message.

また、第2処理部43は、各確率値の積と、各確率値の相乗平均とを総合したスコア、あるいは確率値の対数の和と、各確率値の対数の相加平均とを総合したスコアを算出してもよい。なお、例えば、確率値の対数をとった場合に、第2処理部43は、対数にマイナスの符号を付けて、コスト値としてもよい。この場合、コスト値が小さくなると、尤もらしいと評価される。   In addition, the second processing unit 43 combines a score obtained by combining the products of the respective probability values and the geometric mean of the respective probability values, or a sum of logarithms of the probability values and an arithmetic average of the logarithms of the respective probability values. A score may be calculated. For example, when the logarithm of the probability value is taken, the second processing unit 43 may add a minus sign to the logarithm to obtain the cost value. In this case, if the cost value becomes small, it is evaluated that it is likely.

これにより、短い文の応答メッセージ候補のスコアが高くなることを抑制し、応答メッセージ候補の長さに左右されない評価を行うことができ、適切な応答メッセージ候補を応答メッセージとして選択することができる。   Thereby, it can suppress that the score of the response message candidate of a short sentence becomes high, can perform evaluation independent of the length of a response message candidate, and can select an appropriate response message candidate as a response message.

第2処理部43は、ユーザのコンテキストを考慮して、応答メッセージ候補のスコアを算出してもよい。コンテキストは、例えば、ユーザの発話時間や、ユーザの現在位置などである。第2処理部43は、例えば、単語が出現する確率値をコンテキストに応じて変更する。   The second processing unit 43 may calculate the score of the response message candidate in consideration of the user context. The context is, for example, the user's utterance time or the user's current position. For example, the second processing unit 43 changes the probability value that a word appears in accordance with the context.

例えば、翻訳モデルは、学習時に、入力されたメッセージを前提として対応メッセージとして何が来るか学習させる形だったところを、発話時間と入力されたメッセージとの組に対して対応メッセージに何が来るか学習させる形に変更され学習される。第2処理部43は、例えば、応答メッセージ候補を生成する際に、同様に発話時間を入力情報として用いる。学習データ中では発話時間が夕方や夜である場合に「おはよう」という対応メッセージが現れるケースが非常に少ないので、翻訳モデルではそれが学習され、そのような時間帯に「おはよう」が出現する確率値を低くする。   For example, in the translation model, what happens to the corresponding message for the pair of the utterance time and the input message is what was learned as a corresponding message on the premise of the input message at the time of learning. It is changed to the form to be learned and learned. For example, when generating a response message candidate, the second processing unit 43 similarly uses the utterance time as input information. In the learning data, when the utterance time is evening or night, there are very few cases where the corresponding message “good morning” appears, so the translation model learns it, and the probability that “good morning” will appear in such a time zone Lower the value.

これにより、生成部44は、ユーザのコンテキストに合わせて、応答メッセージを選択することができる。そのため、情報処理装置1は、応答メッセージに対するユーザの満足度を向上させることができる。   Thereby, the production | generation part 44 can select a response message according to a user's context. Therefore, the information processing apparatus 1 can improve user satisfaction with the response message.

第2処理部43は、単語が出現する確率値を、「attention mechanism」を用いて算出してもよい。第2処理部43は、「attention mechanism」を用いることで、メッセージ中の情報を一律に用いるのではなく、生成しようとしている単語に対して関連の強い箇所に、より強く重み付けをする形でメッセージの情報を再解釈しながら、確率値を算出する。   The second processing unit 43 may calculate the probability value that the word appears using the “attention mechanism”. By using the “attention mechanism”, the second processing unit 43 does not use the information in the message uniformly, but weights more strongly the portion that is strongly related to the word to be generated. The probability value is calculated while reinterpreting the information.

これにより、第2処理部43は、メッセージに対する応答メッセージ候補の尤もらしさを正確に評価することができる。そのため、情報処理装置1は、より正確な応答メッセージをユーザに提供することができ、応答メッセージに対するユーザの満足度を向上させることができる。   Accordingly, the second processing unit 43 can accurately evaluate the likelihood of the response message candidate for the message. Therefore, the information processing apparatus 1 can provide a more accurate response message to the user, and improve the user's satisfaction with the response message.

また、マッチングモデルを学習する際に、応答メッセージとして相応しくないメッセージ、例えば、罵倒語や、卑猥語などを含む文例を除いて、マッチングモデルを学習させてもよい。   Further, when learning the matching model, the matching model may be learned by removing a message that is not suitable as a response message, for example, a sentence example including an abuse word or an obscene word.

これにより、そのような単語を含む応答メッセージ候補が選択されることを防ぐことができる。   Thereby, it is possible to prevent a response message candidate including such a word from being selected.

また、解析部41は、文字単位で解析を行ってもよく、単語群を抽出せずに解析を行ってもよい。   The analysis unit 41 may perform analysis in units of characters, or may perform analysis without extracting a word group.

[8.効果]
情報処理装置1は、受信部10と、第1処理部42と、第2処理部43と、生成部44とを備える。受信部10は、ユーザのメッセージを受信する。第1処理部42は、メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。第2処理部43は、単語が出現する順番の確率値に基づいてメッセージに続く単語を評価する評価処理を行う。生成部44は、選択処理と評価処理とに基づいて、メッセージに対する応答メッセージを生成する。
[8. effect]
The information processing apparatus 1 includes a receiving unit 10, a first processing unit 42, a second processing unit 43, and a generation unit 44. The receiving unit 10 receives a user message. The first processing unit 42 performs a selection process of selecting a response message candidate for the message from the response message candidate group. The second processing unit 43 performs an evaluation process for evaluating the word following the message based on the probability value of the order in which the words appear. The generation unit 44 generates a response message for the message based on the selection process and the evaluation process.

これにより、情報処理装置1は、応答メッセージの精度を向上させることができ、応答メッセージに対するユーザの満足度を向上させることができる。   Thereby, the information processing apparatus 1 can improve the accuracy of the response message, and can improve the user's satisfaction with the response message.

第2処理部43は、第1処理部42によって選択された応答メッセージ候補に対して、評価処理を行い、メッセージに対する応答メッセージ候補の尤もらしさを示すスコアを算出する。生成部44は、スコアに基づいて、メッセージに対する応答メッセージを生成する。   The second processing unit 43 performs an evaluation process on the response message candidate selected by the first processing unit 42, and calculates a score indicating the likelihood of the response message candidate for the message. The generation unit 44 generates a response message for the message based on the score.

これにより、情報処理装置1は、第1処理部42によって選択された応答メッセージ候補に対して、評価処理を行うので評価処理における負荷を小さくし、必要な時間を短くし、応答メッセージをユーザの端末装置2に素早く送信することができる。また、情報処理装置1は、評価処理によって精緻な評価を行うことができ、メッセージに対する応答メッセージの精度を向上させることができ、ユーザの満足度を向上させることができる。   Thereby, since the information processing apparatus 1 performs the evaluation process on the response message candidate selected by the first processing unit 42, the load in the evaluation process is reduced, the required time is shortened, and the response message is transmitted to the user. It can be quickly transmitted to the terminal device 2. In addition, the information processing apparatus 1 can perform precise evaluation by the evaluation process, can improve the accuracy of a response message to the message, and can improve user satisfaction.

また、情報処理装置1は、第1処理部42によってマッチングモデルを用いて応答メッセージ候補を選択するので、相応しくない応答メッセージ候補が選択(生成)されることを抑制することができる。   Moreover, since the information processing apparatus 1 selects a response message candidate using the matching model by the first processing unit 42, it is possible to suppress selection (generation) of an inappropriate response message candidate.

第2処理部43は、評価処理に基づいて、メッセージに対する応答メッセージ候補を生成する。第1処理部42は、第2処理部43によって生成された応答メッセージ候補から、さらに応答メッセージ候補を絞り込む。そして、生成部44は、第1処理部42によって絞り込んだ応答メッセージ候補に基づいて、応答メッセージを生成する。   The second processing unit 43 generates a response message candidate for the message based on the evaluation process. The first processing unit 42 further narrows down response message candidates from the response message candidates generated by the second processing unit 43. Then, the generation unit 44 generates a response message based on the response message candidates narrowed down by the first processing unit 42.

これにより、情報処理装置1は、第2処理部43によって応答メッセージ候補を自動的に生成することで、応答メッセージ候補を多様化させることができる。   Thereby, the information processing apparatus 1 can diversify the response message candidates by automatically generating the response message candidates by the second processing unit 43.

また、情報処理装置1は、第1処理部42によって応答メッセージ候補を、より自然な文に置き換えることができる。そのため、ユーザの満足度を向上させることができる。   In addition, the information processing apparatus 1 can replace the response message candidate with a more natural sentence by the first processing unit 42. Therefore, user satisfaction can be improved.

第1処理部42は、メッセージの分散表現と、応答メッセージ候補の分散表現との間の類似度に基づいて応答メッセージ候補を選択する選択処理を行う。   The first processing unit 42 performs a selection process of selecting a response message candidate based on the similarity between the distributed representation of the message and the distributed representation of the response message candidate.

これにより、情報処理装置1は、類似するメッセージに対して、応答メッセージ候補を選択することができ、類似するメッセージに対しても適切な応答メッセージを生成することができ、応答メッセージに対するユーザの満足度を向上させることができる。   As a result, the information processing apparatus 1 can select a response message candidate for a similar message, can generate an appropriate response message for the similar message, and the user's satisfaction with the response message. The degree can be improved.

第2処理部43は、ユーザのコンテキスト、および単語が出現する順番の確率値に基づいて評価処理を行う。   The second processing unit 43 performs an evaluation process based on the user context and the probability value of the order in which words appear.

これにより、情報処理装置1は、ユーザのコンテキストに応じて応答メッセージを生成することができ、ユーザの満足度を向上させることができる。   Thereby, the information processing apparatus 1 can generate a response message according to the user's context, and can improve the user's satisfaction.

情報処理装置1は、出現率が所定率よりも高い高頻度の応答メッセージ候補に対し、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くする調整処理を行う第3処理部45を備える。生成部44は、選択処理と探索処理と調整処理とに基づいて、メッセージに対する応答メッセージを生成する。   The information processing apparatus 1 performs, for a high-frequency response message candidate whose appearance rate is higher than a predetermined rate, a third processing unit 45 that performs an adjustment process for reducing a probability value that a high-frequency response message candidate is generated as a response message Is provided. The generation unit 44 generates a response message for the message based on the selection process, the search process, and the adjustment process.

これにより、情報処理装置1は、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くすることができ、ユーザの満足度を向上させることができる。   Thereby, the information processing apparatus 1 can reduce the probability value that a high-frequency response message candidate is generated as a response message, and can improve user satisfaction.

[9.ハードウェアの構成]
上記してきた実施形態に係る情報処理装置1は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[9. Hardware configuration]
The information processing apparatus 1 according to the above-described embodiment is realized by a computer 1000 configured as shown in FIG. 9, for example. FIG. 9 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the information processing apparatus 1. The computer 1000 includes a CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I / F) 1500, input / output interface (I / F) 1600, and media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が決定したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data determined by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、決定したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the determined data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部40の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the information processing apparatus 1 according to the embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 40 by executing a program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various aspects can be made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.

[10.その他]
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[10. Other]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the above-described embodiments and modifications can be combined as appropriate within a range that does not contradict processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部10は、受信手段や受信回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the receiving unit 10 can be read as receiving means or a receiving circuit.

1 情報処理装置
2 端末装置
10 受信部
20 送信部
30 記憶部
40 制御部
41 解析部
42 第1処理部
43 第2処理部
44 生成部
45 第3処理部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Terminal apparatus 10 Reception part 20 Transmission part 30 Storage part 40 Control part 41 Analysis part 42 1st process part 43 2nd process part 44 Generation part 45 3rd process part

Claims (8)

ユーザのメッセージを受信する受信部と、
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理部と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理部と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成部と
を備えることを特徴とする情報処理装置。
A receiver for receiving a user message;
A first processing unit that performs a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing unit for performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
An information processing apparatus comprising: a generation unit that generates a response message to the message based on the selection process and the evaluation process.
前記第2処理部は、
前記第1処理部によって選択された前記応答メッセージ候補に対して、前記評価処理を行い、前記メッセージに対する前記応答メッセージ候補の尤もらしさを示すスコアを算出し、
前記生成部は、
前記スコアに基づいて、前記メッセージに対する前記応答メッセージを生成する
ことを特徴とする請求項1に記載の情報処理装置。
The second processing unit includes:
Performing the evaluation process on the response message candidate selected by the first processing unit, and calculating a score indicating the likelihood of the response message candidate for the message;
The generator is
The information processing apparatus according to claim 1, wherein the response message for the message is generated based on the score.
前記第2処理部は、
前記評価処理に基づいて、前記メッセージに対する応答メッセージ候補を生成し、
前記第1処理部は、
前記第2処理部によって生成された前記応答メッセージ候補から、さらに前記応答メッセージ候補を絞り込み、
前記生成部は、
前記第1処理部によって絞り込んだ前記応答メッセージ候補に基づいて、前記応答メッセージを生成する
ことを特徴とする請求項1に記載の情報処理装置。
The second processing unit includes:
Generating response message candidates for the message based on the evaluation process;
The first processing unit includes:
Further narrowing down the response message candidates from the response message candidates generated by the second processing unit;
The generator is
The information processing apparatus according to claim 1, wherein the response message is generated based on the response message candidates narrowed down by the first processing unit.
前記第1処理部は、
前記メッセージの分散表現と、前記応答メッセージ候補の分散表現との間の類似度に基づいて前記応答メッセージ候補を選択する前記選択処理を行う
ことを特徴とする請求項1から3のいずれか一つに記載の情報処理装置。
The first processing unit includes:
The selection process of selecting the response message candidate based on a similarity between the distributed representation of the message and the distributed representation of the response message candidate is performed. The information processing apparatus described in 1.
前記第2処理部は、
前記ユーザのコンテキスト、および前記単語が出現する順番の前記確率値に基づいて前記評価処理を行う
ことを特徴とする請求項1から4のいずれか一つに記載の情報処理装置。
The second processing unit includes:
The information processing apparatus according to claim 1, wherein the evaluation process is performed based on the user's context and the probability value of the order in which the words appear.
出現率が所定率よりも高い高頻度の応答メッセージ候補に対し、前記高頻度の応答メッセージ候補が前記応答メッセージとして生成される確率値を低くする調整処理を行う第3処理部
を備え、
前記生成部は、
前記選択処理と前記評価処理と前記調整処理とに基づいて、前記メッセージに対する前記応答メッセージを生成する
ことを特徴とする請求項1から5のいずれか一つに記載の情報処理装置。
A third processing unit that performs an adjustment process for reducing a probability value that the high-frequency response message candidate is generated as the response message with respect to a high-frequency response message candidate having an appearance rate higher than a predetermined rate;
The generator is
The information processing apparatus according to any one of claims 1 to 5, wherein the response message for the message is generated based on the selection process, the evaluation process, and the adjustment process.
情報処理装置が実行する情報処理方法であって、
ユーザのメッセージを受信する受信工程と、
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理工程と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理工程と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成工程と
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus,
A receiving process for receiving a user message;
A first processing step of performing a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing step of performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
An information processing method comprising: generating a response message for the message based on the selection process and the evaluation process.
ユーザのメッセージを受信する受信手順と、
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理手順と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理手順と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成手順と
をコンピュータに実行させることを特徴とするプログラム。
A receiving procedure for receiving the user's message;
A first processing procedure for performing a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing procedure for performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
A program for causing a computer to execute a generation procedure for generating a response message to the message based on the selection process and the evaluation process.
JP2016182088A 2016-09-16 2016-09-16 Information processing apparatus, information processing method, and program Active JP6205039B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016182088A JP6205039B1 (en) 2016-09-16 2016-09-16 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016182088A JP6205039B1 (en) 2016-09-16 2016-09-16 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP6205039B1 JP6205039B1 (en) 2017-09-27
JP2018045630A true JP2018045630A (en) 2018-03-22

Family

ID=59969417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016182088A Active JP6205039B1 (en) 2016-09-16 2016-09-16 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6205039B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056326A (en) * 2019-09-27 2021-04-08 Kddi株式会社 Voice synthesizer, method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022004392A1 (en) * 2020-06-30 2022-01-06 ソニーグループ株式会社 Interaction device, interaction method, and interaction program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (en) * 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> Method and system for answering question and recording medium with recorded question answering program
JP2006039120A (en) * 2004-07-26 2006-02-09 Sony Corp Interactive device and interactive method, program and recording medium
US20080040114A1 (en) * 2006-08-11 2008-02-14 Microsoft Corporation Reranking QA answers using language modeling
US20090070311A1 (en) * 2007-09-07 2009-03-12 At&T Corp. System and method using a discriminative learning approach for question answering
WO2013190963A1 (en) * 2012-06-18 2013-12-27 エイディシーテクノロジー株式会社 Voice response device
WO2015190562A1 (en) * 2014-06-11 2015-12-17 シャープ株式会社 Output message determination device, method for controlling output message determination device, history management device, and write data transmission indication device
WO2016136207A1 (en) * 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 Voice interaction device, voice interaction system, control method of voice interaction device, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132812A (en) * 2000-10-19 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> Method and system for answering question and recording medium with recorded question answering program
JP2006039120A (en) * 2004-07-26 2006-02-09 Sony Corp Interactive device and interactive method, program and recording medium
US20080040114A1 (en) * 2006-08-11 2008-02-14 Microsoft Corporation Reranking QA answers using language modeling
US20090070311A1 (en) * 2007-09-07 2009-03-12 At&T Corp. System and method using a discriminative learning approach for question answering
WO2013190963A1 (en) * 2012-06-18 2013-12-27 エイディシーテクノロジー株式会社 Voice response device
WO2015190562A1 (en) * 2014-06-11 2015-12-17 シャープ株式会社 Output message determination device, method for controlling output message determination device, history management device, and write data transmission indication device
WO2016136207A1 (en) * 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 Voice interaction device, voice interaction system, control method of voice interaction device, and program

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
今井 健太,他: ""複数の対話システムから応答候補文を用いた最適応答文選択手法の性能評価"", 情報処理学会研究報告 平成21年度▲5▼ [CD−ROM], JPN6016048513, 15 February 2010 (2010-02-15), pages 1 - 7, ISSN: 0003460878 *
大川 良希,他: ""対話者の感情を推定した応答文生成のための言語モデルの提案"", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM], JPN6016048517, 29 May 2015 (2015-05-29), pages 1 - 2, ISSN: 0003618722 *
山田 優樹,他: ""n−gramモデルとトピックモデルと係り受け解析の統合による自然文サンプリング法"", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM], JPN6016048515, 29 May 2015 (2015-05-29), pages 1 - 4, ISSN: 0003460879 *
木村 葵,他: ""Twitterとword2vecを用いた時期に合った返答発話選択手法"", 言語処理学会 第22回年次大会 発表論文集, JPN6016048516, March 2016 (2016-03-01), pages 79 - 82, ISSN: 0003460880 *
畑 健治,他: ""複数の言語資源を用いた非タスク指向型対話システム"", 第90回知識ベースシステム研究会資料(SIG−KBS−B001), JPN6017013924, 7 October 2010 (2010-10-07), pages 49 - 54, ISSN: 0003541847 *
西村 仁志,坂本 仁: ""コーパスから自動抽出した表現パターンを用いる日本語文生成"", 情報処理学会研究報告, vol. 第2002巻,第20号, JPN6017024531, 5 March 2002 (2002-03-05), pages 31 - 36, ISSN: 0003590829 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056326A (en) * 2019-09-27 2021-04-08 Kddi株式会社 Voice synthesizer, method and program
JP7162579B2 (en) 2019-09-27 2022-10-28 Kddi株式会社 Speech synthesizer, method and program

Also Published As

Publication number Publication date
JP6205039B1 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
EP3567498A1 (en) Method and device for question response
JP5926378B2 (en) Text input method, apparatus, and system
CN111428010B (en) Man-machine intelligent question-answering method and device
JP6224857B1 (en) Classification device, classification method, and classification program
JP6884722B2 (en) Information processing equipment, information processing methods, and programs
JP6370962B1 (en) Generating device, generating method, and generating program
CN108268450B (en) Method and apparatus for generating information
KR102355152B1 (en) Method for searching content and electronic device thereof
CN111414561B (en) Method and device for presenting information
JP6408080B1 (en) Generating device, generating method, and generating program
JP6333329B2 (en) Information processing apparatus, information processing method, and program
JP7058574B2 (en) Information processing equipment, information processing methods, and programs
CN114840671A (en) Dialogue generation method, model training method, device, equipment and medium
CN111639162A (en) Information interaction method and device, electronic equipment and storage medium
JP6440660B2 (en) Information processing apparatus, information processing method, and program
JP6205039B1 (en) Information processing apparatus, information processing method, and program
JP6220762B2 (en) Next utterance candidate scoring device, method, and program
JP6391617B2 (en) Learning device, sentence automatic generation device, and learning method
JP2018028866A (en) Explanatory text creation method, explanatory text creation model learning method, and program
CN113468857B (en) Training method and device for style conversion model, electronic equipment and storage medium
JP2019021218A (en) Learning device, program parameter, learning method and model
CN114416941A (en) Generation method and device of dialogue knowledge point determination model fusing knowledge graph
KR101592756B1 (en) Method for dialogue management using memory intensity of user knowledge and apparatus for performing the method
JP6462784B2 (en) Learning device, information processing device, learning method, and learning program
JP2020004054A (en) Output device, output method, and output program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170901

R150 Certificate of patent or registration of utility model

Ref document number: 6205039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350