JP2018045630A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2018045630A JP2018045630A JP2016182088A JP2016182088A JP2018045630A JP 2018045630 A JP2018045630 A JP 2018045630A JP 2016182088 A JP2016182088 A JP 2016182088A JP 2016182088 A JP2016182088 A JP 2016182088A JP 2018045630 A JP2018045630 A JP 2018045630A
- Authority
- JP
- Japan
- Prior art keywords
- response message
- message
- information processing
- processing unit
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 95
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 230000004044 response Effects 0.000 claims abstract description 230
- 238000012545 processing Methods 0.000 claims abstract description 113
- 238000000034 method Methods 0.000 claims description 51
- 230000008569 process Effects 0.000 claims description 42
- 238000012854 evaluation process Methods 0.000 claims description 25
- 238000011156 evaluation Methods 0.000 abstract description 13
- 238000013519 translation Methods 0.000 description 38
- 230000014509 gene expression Effects 0.000 description 19
- 238000003860 storage Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、質問文と、正解文、および不正解文を含む文とのペアについて得られる特徴量に基づいて機械学習したランキングモデルを用いて、質問文などのメッセージに対する応答メッセージ候補を生成する情報処理装置が知られている(特許文献1参照)。 Conventionally, information processing that generates response message candidates for a message such as a question sentence using a ranking model that has been machine-learned based on a feature amount obtained for a pair of a question sentence, a correct sentence, and a sentence including an incorrect sentence An apparatus is known (see Patent Document 1).
しかし、上記のようなモデルのみを用いて生成された応答メッセージ候補から生成した応答メッセージは、ユーザのメッセージに対する応答メッセージとしての精度が低く、ユーザの満足度を十分に満たさない場合があり、改善の余地がある。 However, the response message generated from the response message candidate generated using only the model as described above has low accuracy as a response message to the user's message and may not satisfy the user's satisfaction sufficiently. There is room for.
本願は、上記に鑑みてなされたものであって、応答メッセージに対するユーザの満足度を向上させる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an information processing apparatus, an information processing method, and a program that improve user satisfaction with response messages.
本願にかかる情報処理装置は、受信部と、第1処理部と、第2処理部と、生成部とを備える。受信部は、ユーザのメッセージを受信する。第1処理部は、メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。第2処理部は、単語が出現する順番の確率値に基づいて前記メッセージに続く単語を評価する評価処理を行う。生成部は、選択処理と評価処理とに基づいて、メッセージに対する応答メッセージを生成する。 An information processing apparatus according to the present application includes a reception unit, a first processing unit, a second processing unit, and a generation unit. The receiving unit receives a user message. A 1st process part performs the selection process which selects the response message candidate with respect to a message from a response message candidate group. A 2nd process part performs the evaluation process which evaluates the word following the said message based on the probability value of the order that a word appears. The generation unit generates a response message for the message based on the selection process and the evaluation process.
実施形態の一態様によれば、応答メッセージに対するユーザの満足度を向上させる情報処理装置、情報処理方法、およびプログラムを提供することができる。 According to one aspect of the embodiment, it is possible to provide an information processing apparatus, an information processing method, and a program that improve user satisfaction with response messages.
以下に、本願にかかる情報処理装置、情報処理方法、およびプログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法、およびプログラムが限定されるものではない。 Hereinafter, an information processing apparatus, an information processing method, and a form for implementing a program (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the information processing apparatus, the information processing method, and the program according to the present application are not limited by this embodiment.
(第1実施形態)
[1.情報処理]
第1実施形態に係る情報処理の一例について説明する。図1は、第1実施形態に係る情報処理の説明図である。
(First embodiment)
[1. Information processing]
An example of information processing according to the first embodiment will be described. FIG. 1 is an explanatory diagram of information processing according to the first embodiment.
情報処理装置1は、ユーザの端末装置2からユーザの発話に基づくメッセージを受信する(ステップS1)。例えば、情報処理装置1は、ユーザから「今日の天気は?」とする発話に基づくメッセージを受信する。 The information processing device 1 receives a message based on the user's utterance from the user's terminal device 2 (step S1). For example, the information processing apparatus 1 receives a message based on an utterance “What is the weather today?” From the user.
情報処理装置1は、メッセージに対して、マッチングモデルを用いて、メッセージに対する応答メッセージ候補を選択する(ステップS2)。 The information processing apparatus 1 selects a response message candidate for the message using the matching model for the message (step S2).
マッチングモデルは、入力されたメッセージを複数次元のベクトルで示す分散表現を用いて、入力されたメッセージに対応する応答メッセージ候補を選択するためのモデルである。 The matching model is a model for selecting a response message candidate corresponding to an input message using a distributed expression indicating the input message as a multi-dimensional vector.
マッチングモデルは、ウェブや、ツイッター(登録商標)などから得られる対話文を学習データとして用い、入力されたメッセージにおける分散表現と、入力されたメッセージに対して相応しい対となる対応メッセージにおける分散表現とが、分散表現空間上で近くに存在するように学習される。マッチングモデルは、例えば、LSTM(Long Short-Term Memory)などのRNN(Recurrent Neural Network)を分散表現生成に用いたDSSM(Deep Structured Sematic Model)の技術を用いて学習され、生成される。 The matching model uses a dialogue sentence obtained from the web, Twitter (registered trademark), etc. as learning data, and a distributed expression in the input message and a distributed expression in the corresponding message that is a suitable pair for the input message. Are learned to exist close together in the distributed representation space. The matching model is generated by learning using a technique of DSSM (Deep Structured Sematic Model) that uses a recurrent neural network (RNN) such as LSTM (Long Short-Term Memory) for distributed expression generation.
例えば、入力されたメッセージが「今日の天気は?」である場合に、このメッセージに対して「晴れでしょう」、「そうですね」、「おはよう」などの対となる対応メッセージがあった場合には、「晴れでしょう」、「曇りです」、「分かりません」などの分散表現が、分散表現空間上でメッセージ「今日の天気は?」の分散表現の近くに存在するように、マッチングモデルは学習される。また、「今日の天気は?」に対する応答として相応しくない「お帰りなさい」などの分散表現は、分散表現空間上で「今日の天気は?」の分散表現に対して遠くに存在するように、マッチングモデルは学習される。 For example, if the input message is "What's the weather today?" And there is a corresponding message such as "Sunny", "That's right" or "Good morning" for this message The matching model is such that distributed expressions such as "Is sunny", "It is cloudy", and "I don't know" exist near the distributed expression of the message "What's the weather today?" To be learned. In addition, distributed expressions such as “Return” that are not appropriate as a response to “What is the weather today?” Exist far away from the distributed expression “What is the weather today?” In the distributed expression space. The matching model is learned.
情報処理装置1は、入力されたメッセージにおける分散表現と、分散表現空間上の対応メッセージの分散表現とのマッチングを行う。 The information processing apparatus 1 performs matching between the distributed representation in the input message and the distributed representation of the corresponding message in the distributed representation space.
情報処理装置1は、例えば、入力されたメッセージにおける分散表現と、分散表現空間上の対応メッセージ(以下、応答メッセージ候補群と記載する場合がある。)の分散表現とのコサイン類似度を算出し、コサイン類似度が高い分散表現の対応メッセージの中から、所定数の対応メッセージを応答メッセージ候補として選択する。なお、情報処理装置1は、コサイン類似度の代わりに、ユークリッド距離の逆数など、他の尺度を用いて応答メッセージ候補を選択してもよい。 For example, the information processing apparatus 1 calculates the cosine similarity between the distributed representation in the input message and the distributed representation of the corresponding message in the distributed representation space (hereinafter, may be referred to as a response message candidate group). Then, a predetermined number of corresponding messages are selected as response message candidates from the distributed messages corresponding to a high cosine similarity. Note that the information processing apparatus 1 may select a response message candidate using another scale such as the reciprocal of the Euclidean distance instead of the cosine similarity.
すなわち、情報処理装置1は、応答メッセージ候補群から、メッセージに対する応答メッセージ候補を選択する選択処理を行う。所定数は、予め設定された値である。情報処理装置1は、コサイン類似度が高い順に所定数の対応メッセージを応答メッセージ候補として選択する。 That is, the information processing apparatus 1 performs a selection process of selecting a response message candidate for a message from the response message candidate group. The predetermined number is a preset value. The information processing apparatus 1 selects a predetermined number of corresponding messages in descending order of cosine similarity as response message candidates.
情報処理装置1は、選択された応答メッセージ候補に対し、翻訳モデルを用いて、メッセージに対する応答メッセージ候補の尤もらしさを示すスコアを算出する(ステップS3)。 The information processing apparatus 1 calculates a score indicating the likelihood of the response message candidate for the message, using the translation model for the selected response message candidate (step S3).
翻訳モデルは、入力されたメッセージを複数次元のベクトルで示す分散表現を用いて、入力されたメッセージに続く単語(メッセージ)を評価し、生成するためのモデルである。翻訳モデルを用いて評価され、生成された応答メッセージは、入力されたメッセージに相応しい応答メッセージである。 The translation model is a model for evaluating and generating a word (message) following an input message by using a distributed expression indicating the input message by a multi-dimensional vector. The response message evaluated and generated using the translation model is a response message suitable for the input message.
翻訳モデルは、ウェブなどから得られる対話文を学習データとして用い、或る入力されたメッセージに対応する対応メッセージの単語がどのような確率で連鎖するかについて学習されたモデルである。 The translation model is a model in which dialogue sentences obtained from the web or the like are used as learning data and the probability that words of corresponding messages corresponding to a certain input message are chained.
入力されたメッセージを翻訳モデルに与えると、対応する対応メッセージの最初の1単語についての確率表(語彙中の各単語の出現確率)が得られ、さらに、1単語目にどの単語が来るかを決めるとそれに続く2単語目の確率表が得られる。これを繰り返すことで、対向メッセージの単語の系列について順々に確率表を得ることができる。 When the input message is given to the translation model, a probability table (probability of occurrence of each word in the vocabulary) for the first word of the corresponding message is obtained, and further, which word comes to the first word When you decide, you get a probability table for the second word that follows. By repeating this, a probability table can be obtained in order for the word sequence of the opposite message.
情報処理装置1は、確率表に基いて1単語目から順番に単語のサンプリングを行うことで応答メッセージ候補の生成を行うことができる。また、情報処理装置1は、応答メッセージ候補があれば、応答メッセージ候補に含まれる単語がどのような確率を持つかを、翻訳モデルで得られる確率表で測ることで、入力されたメッセージに対するその応答メッセージ候補の尤もらしさが評価できる。 The information processing apparatus 1 can generate response message candidates by sampling words sequentially from the first word based on the probability table. In addition, if there is a response message candidate, the information processing apparatus 1 measures the probability that the word included in the response message candidate has a probability table obtained by the translation model, so that The likelihood of the response message candidate can be evaluated.
翻訳モデルは、例えば、LSTM(Long Short-Term Memory)などの、RNN(Recurrent Neural Network)の技術を用いて学習され、生成される。 The translation model is learned and generated using an RNN (Recurrent Neural Network) technique such as LSTM (Long Short-Term Memory).
例えば、翻訳モデルを用いることで、メッセージが「今日の天気は?」であり、その次に「晴れでしょう」とするメッセージが続く場合、「今日の天気は?」に対して、「晴れ」が続く確率値、また「晴れ」の後に「でしょ」が続く確率値などを算出することができる。 For example, by using a translation model, if the message is “What's the weather today?” Followed by the message “Is it sunny?” It is possible to calculate a probability value in which “deo” continues after “sunny”, and the like.
情報処理装置1は、翻訳モデルを用いて、メッセージに対し、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、メッセージに続く単語を評価する評価処理を行う。 Using the translation model, the information processing apparatus 1 calculates the probability value of the order in which words included in the response message candidate appear for the message, and performs an evaluation process for evaluating the word following the message.
情報処理装置1は、入力されたメッセージに対し、翻訳モデルを用いて各応答メッセージ候補の1単語目が出現する確率値を算出する。そして、情報処理装置1は、各応答メッセージ候補の1単語目に対し、翻訳モデルを用いて2単語目が出現する確率値を算出する。このように、情報処理装置1は、各応答メッセージ候補に含まれる各単語に対し、出現する順番にそれぞれ確率値を算出し、各確率値を総合したスコア、例えば、各確率値の積を取ったスコアを算出する。 The information processing device 1 calculates a probability value that the first word of each response message candidate appears for the input message using the translation model. Then, the information processing device 1 calculates a probability value that the second word appears for the first word of each response message candidate using the translation model. In this way, the information processing device 1 calculates probability values in the order of appearance for each word included in each response message candidate, and obtains a score obtained by combining the probability values, for example, the product of the probability values. Calculate the score.
入力されたメッセージに対し、応答メッセージ候補において各単語が出現する順番に算出された確率値が大きく、スコアが大きい場合には、その応答メッセージ候補は、応答メッセージとして尤もらしいと評価することができる。 When the probability value calculated in the order in which each word appears in the response message candidate is large and the score is large for the input message, the response message candidate can be evaluated as likely as a response message. .
情報処理装置1は、翻訳モデルを用いて算出したスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS4)。 The information processing apparatus 1 selects a response message candidate having the highest score calculated using the translation model as a response message, and generates a response message (step S4).
情報処理装置1は、生成した応答メッセージを、ユーザの端末装置2へ送信する(ステップS5)。 The information processing device 1 transmits the generated response message to the user terminal device 2 (step S5).
情報処理装置1は、メッセージに対して、マッチングモデルを用いて応答メッセージ候補を選択した後に、翻訳モデルを用いて応答メッセージを選択する。 The information processing apparatus 1 selects a response message using a translation model after selecting a response message candidate using a matching model for the message.
マッチングモデルを用いた評価では、どのようなメッセージが入力されるか分からない状態で応答メッセージ候補の分散表現を生成しなければならず、応答メッセージ候補の精緻な評価を行うことが難しい場合がある。これに対し、翻訳モデルを用いた評価では、入力されたメッセージを把握した上で、メッセージに対応した内容が応答メッセージ候補に含まれているかを評価できるので、より適切な評価を行うことができる。 In the evaluation using the matching model, it is necessary to generate a distributed representation of the response message candidates without knowing what message is input, and it may be difficult to perform an accurate evaluation of the response message candidates. . On the other hand, in the evaluation using the translation model, it is possible to evaluate whether the content corresponding to the message is included in the response message candidate after grasping the input message, so that a more appropriate evaluation can be performed. .
一方、マッチングモデルでは、応答メッセージ候補はすでに分散表現とされており、メッセージの分散表現を生成すると、分散表現同士のマッチングにより、評価を行うことができ、処理時の負荷が小さい。これに対し、翻訳モデルでは、多数の応答メッセージ候補の各単語の確率を評価すると、処理時の負荷が大きい。 On the other hand, in the matching model, the response message candidates are already distributed, and when a distributed representation of the message is generated, evaluation can be performed by matching the distributed representations, and the processing load is small. On the other hand, in the translation model, if the probability of each word of a large number of response message candidates is evaluated, the processing load is large.
このように、マッチングモデルと翻訳モデルとの間では、評価の精緻と、処理時の負荷とがトレードオフの関係にある。 In this way, between the matching model and the translation model, there is a trade-off relationship between the precision of evaluation and the load during processing.
そこで、情報処理装置1は、処理時の負荷が小さいマッチングモデルを用いて、多数の対応メッセージから所定数の応答メッセージ候補まで絞り込みを行い、絞り込まれた応答メッセージ候補についてだけ翻訳モデルを用いて精緻な評価を行う。これにより、システム全体としての精度を高めることができ、メッセージに対する応答メッセージの精度を向上させることができ、ユーザの満足度を向上させることができる。 Therefore, the information processing apparatus 1 narrows down from a large number of corresponding messages to a predetermined number of response message candidates using a matching model with a small processing load, and uses only a translation model for the narrowed response message candidates. Make an evaluation. Thereby, the precision as the whole system can be improved, the precision of the response message with respect to a message can be improved, and a user's satisfaction can be improved.
[2.情報処理システム5の構成]
図2は、情報処理システム5の構成例を示す図である。図2に示すように、第1実施形態に係る情報処理システム5は、情報処理装置1と、端末装置2と、音声認識サーバ3と、音声合成サーバ4とを備える。
[2. Configuration of information processing system 5]
FIG. 2 is a diagram illustrating a configuration example of the
端末装置2、音声認識サーバ3、音声合成サーバ4、および情報処理装置1は、ネットワークNを介して無線または有線で互いに通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネットなどのWAN(Wide Area Network)である。
The
端末装置2は、スマートフォンや、タブレット型端末や、デスクトップ型PC(Personal Computer)や、ノート型PCや、PDA(Personal Digital Assistant)等により実現される。
The
音声認識サーバ3は、音声情報に対して自然言語処理を実行し、音声データをテキストデータに変換する装置である。音声認識サーバ3は、端末装置2から発話の音声データを受信すると、音声データをテキストデータに変換する。音声認識サーバ3は、音声データを変換したテキストデータを情報処理装置1に送信する。
The speech recognition server 3 is a device that performs natural language processing on speech information and converts speech data into text data. When the speech recognition server 3 receives speech speech data from the
音声合成サーバ4は、情報処理装置1によって生成された応答メッセージのテキストデータを音声データに変換する。音声合成サーバ4は、テキストデータを変換した音声データを、端末装置2に送信する。
The voice synthesis server 4 converts the text data of the response message generated by the information processing apparatus 1 into voice data. The voice synthesis server 4 transmits the voice data obtained by converting the text data to the
情報処理装置1は、端末装置2から送信されたテキストデータ、または音声認識サーバ3を介して音声データが変換されたテキストデータに基づいて、応答メッセージのテキストデータを生成する。情報処理装置1は、生成した応答メッセージのテキストデータを、音声合成サーバ4、および端末装置2に送信する。
The information processing device 1 generates text data of a response message based on text data transmitted from the
なお、音声認識サーバ3や音声合成サーバ4を、情報処理装置1と一体的に構成してもよい。また、端末装置2が、音声認識機能や、音声合成機能を有する場合には、これらの機能を用いて、音声データとテキストデータとを変換してもよい。
Note that the speech recognition server 3 and the speech synthesis server 4 may be configured integrally with the information processing apparatus 1. When the
[3.第1実施形態に係る情報処理装置1の構成]
次に、第1実施形態に係る情報処理装置1について、図3を参照し説明する。図3は、第1実施形態に係る情報処理装置1の構成例を示す図である。
[3. Configuration of information processing apparatus 1 according to the first embodiment]
Next, the information processing apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the information processing apparatus 1 according to the first embodiment.
ここでは、端末装置2から、ユーザの発話による音声データが送信され、音声データを端末装置2へ送信する例、すなわち、音声による対話を一例として説明するが、テキストデータによる対話であってもよい。
Here, an example in which voice data based on a user's utterance is transmitted from the
情報処理装置1は、ユーザによる発話があった場合に、端末装置2(図2参照)から音声認識サーバ3(図2参照)を介して送信されたメッセージに対する応答メッセージを生成する応答生成装置である。情報処理装置1は、受信部10と、送信部20と、記憶部30と、制御部40とを備える。
The information processing device 1 is a response generation device that generates a response message for a message transmitted from the terminal device 2 (see FIG. 2) via the voice recognition server 3 (see FIG. 2) when the user speaks. is there. The information processing apparatus 1 includes a
受信部10は、ネットワークNを介して、ユーザによるメッセージを受信する。受信部10は、ユーザによる発話があった場合には、音声認識データ(図2参照)によって変換された、メッセージに対応するテキストデータを受信する。また、受信部10は、ネットワークNを介して外部に設置されたサーバなどからデータを受信する。
The receiving
記憶部30は、マッチングモデル記憶部31と、翻訳モデル記憶部32とを備える。記憶部30は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部30は、メッセージに対する応答メッセージ候補を選択するために必要な情報を記憶するデータベースを備えてもよい。
The
マッチングモデル記憶部31は、マッチングモデルを記憶する。マッチングモデルは、ネットワークNを介して新たに取得され、更新されてもよい。マッチングモデル記憶部31は、入力されるメッセージの分散表現に対する応答メッセージ候補の分散表現と、応答メッセージ候補とを一組のリストとして記憶する。
The matching
翻訳モデル記憶部32は、翻訳モデルを記憶する。翻訳モデルは、ネットワークNを介して新たに取得され、更新されてもよい。
The translation
制御部40は、解析部41と、第1処理部42と、第2処理部43と、生成部44とを備える。
The
解析部41は、受信部10によって受信したメッセージを解析する。解析部41は、例えば、受信部10によってテキストデータが受信されると、形態素解析等を用いてテキストデータを解析し、テキストデータに含まれる単語群を抽出する。
The
解析部41は、ユーザの発話により、受信部10によってメッセージとして、例えば、「今日の天気は?」とするテキストデータが受信された場合、「今日」、「の」、「天気」、「は」の単語を抽出し、テキストデータの内容を特定する。
When the receiving
第1処理部42は、メッセージの分散表現を生成する。第1処理部42は、メッセージを分散表現とすることで、類似する内容のメッセージを同じ分散表現として扱うことができる。第1処理部42は、例えば、「今日の天気は?」や「今日の天気はどうでしょう?」など類似する内容のメッセージを同じ分散表現として扱う。
The
そして、第1処理部42は、マッチングモデルを用いて、メッセージの分散表現に対する類似度が高い応答メッセージ候補の分散表現に基づいて、応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。具体的には、第1処理部42は、メッセージの分散表現に対し、コサイン類似度が高い分散表現の対応メッセージを応答メッセージ候補として選択する。例えば、第1処理部42は、メッセージの分散表現に対し、コサイン類似度が高い分散表現の対応メッセージの中から、所定数の対応メッセージを、応答メッセージ候補として選択する。
Then, using the matching model, the
例えば、メッセージが「今日の天気は?」であった場合、分散表現空間上で「今日の天気は?」とコサイン類似度が高い「晴れでしょう」や、「曇りです」や、「分かりません」といった対応メッセージが応答メッセージ候補として選択される。なお、ここでは、天気が「晴れ」であることを一例として説明する。 For example, if the message is “What's the weather today?”, “It ’s sunny”, “It ’s cloudy”, or “I do n’t know.” Corresponding message such as "" is selected as a response message candidate. Here, the case where the weather is “sunny” will be described as an example.
第2処理部43は、翻訳モデルを用いて、メッセージに対し、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、メッセージに続く単語を評価する評価処理を行う。
The
具体的には、第2処理部43は、翻訳モデルを用いて、メッセージに対して、応答メッセージ候補に含まれる単語が出現する順番の確率値を算出し、各確率値を総合したスコアを算出する。すなわち、第2処理部43は、第1処理部42によって選択された応答メッセージ候補に対して、メッセージに対する尤もらしさを示す評価値としてスコアを算出する。具体的には、第2処理部43は、各確率値の積をとって応答メッセージ候補の出現確率を算出する。
Specifically, the
例えば、メッセージが「今日の天気は?」であった場合、応答メッセージ候補として「晴れでしょう」、「曇りです」、および「分かりません」が選択されたとする。 For example, when the message is “What's the weather today?”, “Sunny weather”, “Cloudy”, and “I don't know” are selected as response message candidates.
この場合、第2処理部43は、翻訳モデルを用いて、「今日の天気は?」に続く単語の確率値を、各応答メッセージ候補に含まれる単語の出現順に算出する。
In this case, the
第2処理部43は、「今日の天気は?」に対し、その次に「晴れ」が出現する確率値を、翻訳モデルを用いて算出し、さらに、「今日の天気は?晴れ」の次に「でしょ」が出現する確率値を、翻訳モデルを用いて算出する。第2処理部43は、同様にして応答メッセージ候補「晴れでしょう」について、翻訳モデルを用いて単語が出現する順番の確率値を算出する。そして、第2処理部43は、各確率値の積を応答メッセージ候補「晴れでしょう」に対するスコアとして算出する。
The
例えば、「今日の天気は?」に続く単語「晴れ」の確率値が「0.2」、「今日の天気は?晴れ」の次に続く単語「でしょ」の確率値が「0.4」、「今日の天気は?晴れでしょ」の次に続く単語「う」の確率値が「0.5」、「今日の天気は?晴れでしょう」で終わる確率値が「0.6」であった場合、各確率値の積であるスコアは図4に示すように、「2.88×10−2」になる。図4は、応答メッセージ候補に対するスコアの一例を示す図である。なお、図4では、文章の終わりを「EOS(End Of Sentence)」として示している。 For example, the probability value of the word “sunny” following “What is the weather today?” Is “0.2”, and the probability value of the word “de” after “What is the weather today?” Is “0.4”. The probability value of the word “U” following “Today ’s weather? In this case, the score, which is the product of the probability values, is “2.88 × 10 −2 ” as shown in FIG. FIG. 4 is a diagram illustrating an example of scores for response message candidates. In FIG. 4, the end of the sentence is shown as “EOS (End Of Sentence)”.
メッセージ「今日の天気は?」に対し、応答メッセージ候補「晴れでしょう」が尤もらしい場合には、スコアが大きくなる。 In response to the message “What's the weather today?”, If the response message candidate “maybe sunny” is likely, the score will increase.
また、第2処理部43は、「曇りです」、および「分かりません」の応答メッセージ候補についても、同様に確率値を算出し、各応答メッセージ候補に対するスコアを算出する。
Further, the
例えば、「今日の天気は?」に続く単語「曇り」の確率値が「0.05」、「今日の天気は?曇り」の次に続く単語「です」の確率値が「0.4」、「今日の天気は?曇りです」で終わる確率値が「0.7」であった場合、スコアは図4に示すように、「1.40×10−2」になる。 For example, the probability value of the word “cloudy” following “What is the weather today?” Is “0.05”, and the probability value of the word “is” next to “Today's weather? Cloudy” is “0.4”. If the probability value ending with “Is today's weather? Cloudy” is “0.7”, the score is “1.40 × 10 −2 ” as shown in FIG.
また、例えば、「今日の天気は?」に続く単語「分かり」の確率値が「0.01」、「今日の天気は?分かり」の次に続く単語「ませ」の確率値が「0.2」、「今日の天気は?分かりませ」の次に続く単語「ん」の確率値が「0.5」、「今日の天気は?分かりません」で終わる確率値が「0.6」であった場合、スコアは図4に示すように、「6.00×10−4」になる。 Also, for example, the probability value of the word “Understanding” following “What is the weather today?” Is “0.01”, and the probability value of the word “No” following “Understanding today's weather” is “0. 2 ”, the probability value of the word“ n ”following“ I don't know the weather today ”is“ 0.5 ”, and the probability value that ends with“ I do n’t know the weather today? ”Is“ 0.6 ” In this case, the score is “6.00 × 10 −4 ” as shown in FIG.
生成部44は、第2処理部43によって算出されたスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する。
The
例えば、第2処理部43によって算出された、上記3つの応答メッセージ候補におけるスコアが図4に示すようになった場合、生成部44は、スコアが最も大きい「晴れでしょう」の応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する。
For example, when the scores of the above three response message candidates calculated by the
送信部20は、ネットワークNを介して、端末装置2や、音声合成サーバ4(図2参照)に、生成部44によって作成された応答メッセージを送信する。
The
[4.第1実施形態に係る応答メッセージ生成処理]
次に、第1実施形態に係る応答メッセージ生成処理について図5を参照し説明する。図5は、第1実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。
[4. Response message generation processing according to first embodiment]
Next, the response message generation process according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a response message generation process according to the first embodiment.
第1処理部42は、受信部10によってメッセージが受信されると(ステップS10)、マッチングモデルを用いて選択処理を行い、メッセージに対する応答メッセージ候補を選択する(ステップS11)。
When a message is received by the receiving unit 10 (step S10), the
第2処理部43は、選択された応答メッセージ候補に対して、翻訳モデルを用いて評価処理を行い、各応答メッセージ候補に対する尤もらしさを示すスコアを算出する(ステップS12)。
The
生成部44は、スコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS13)。
The
送信部20は、生成された応答メッセージをユーザの端末装置2へ送信する(ステップS14)。
The
(第2実施形態)
[5.第2実施形態に係る情報処理装置1の構成]
次に第2実施形態に係る情報処理装置1について、図6を参照し説明する。図6は、第2実施形態に係る情報処理装置1の構成例を示す図である。
(Second Embodiment)
[5. Configuration of Information Processing Device 1 According to Second Embodiment]
Next, the information processing apparatus 1 according to the second embodiment will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration example of the information processing apparatus 1 according to the second embodiment.
ここでは第1実施形態と異なる箇所を中心に説明し、第1実施形態と同じ構成については説明を省略する。 Here, the description will focus on the points different from the first embodiment, and the description of the same configuration as the first embodiment will be omitted.
第2実施形態に係る情報処理装置1の記憶部30は、言語モデル記憶部33を備える。また、第2実施形態に係る情報処理装置1の制御部40は、第3処理部45を備える。
The
言語モデル記憶部33は、言語モデルを記憶する。言語モデルは、ネットワークNを介して新たに取得され、更新されてもよい。
The language
言語モデルは、ウェブなどから得られる文章を学習データとして用い、一般的な応答で使用される応答メッセージ候補の出現率を統計的にまとめたモデルである。言語モデルは、例えば、LSTM(Long Short-Term Memory)などの、RNN(Recurrent Neural Network)の技術を用いて学習され、生成される。 The language model is a model that uses sentences obtained from the web or the like as learning data and statistically summarizes the appearance rates of response message candidates used in general responses. The language model is learned and generated using an RNN (Recurrent Neural Network) technique such as LSTM (Long Short-Term Memory).
言語モデルでは、応答メッセージ候補の出現率に応じて重み付けされたスコアが付されている。例えば、「いいね」、「そうだね」など、出現率が所定率よりも高い高頻度の応答メッセージ候補に対して大きいスコアが付される。 In the language model, a score weighted according to the appearance rate of response message candidates is attached. For example, a large score is assigned to a high-frequency response message candidate whose appearance rate is higher than a predetermined rate, such as “Like” or “Sure!”.
第3処理部45は、言語モデルを用いて、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くする調整処理を行う。具体的には、第3処理部45は、言語モデルを用いて、第1処理部42によって選択された各応答メッセージ候補に対するスコアを算出する。
The
生成部44は、第2処理部43によって算出された応答メッセージ候補のスコアから、第3処理部45によって言語モデルを用いて算出されたスコアを減算し、減算したスコア中でスコアが最も大きい応答メッセージ候補を応答メッセージとして選択する。
The
第2処理部43によって算出された応答メッセージ候補のスコアから、第3処理部45によって算出したスコアを減算することで、一般的な応答として、高頻度で使用される応答メッセージ候補が応答メッセージとして選択されることを抑制することができる。
By subtracting the score calculated by the
なお、第3処理部45は、各応答メッセージ候補に対し、言語モデルの与えるスコアが大きくなるほど値が小さくなるような係数を算出し、第2処理部43によって算出された応答メッセージ候補のスコアに、算出した係数を乗算してもよい。
The
[6.第2実施形態に係る応答メッセージ生成処理]
次に、第2実施形態に係る応答メッセージ生成処理について図7を参照し説明する。図7は、第2実施形態に係る応答メッセージ生成処理の一例を示すフローチャートである。
[6. Response message generation processing according to second embodiment]
Next, a response message generation process according to the second embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a response message generation process according to the second embodiment.
第1処理部42は、受信部10によってメッセージが受信されると(ステップS20)、マッチングモデルを用いて選択処理を行い、メッセージに対する応答メッセージ候補を選択する(ステップS21)。
When a message is received by the receiving unit 10 (step S20), the
第2処理部43は、選択された応答メッセージ候補に対して、翻訳モデルを用いて評価処理を行い、各応答メッセージ候補に対する尤もらしさを示すスコアを算出する(ステップS22)。
The
第3処理部45は、言語モデルを用いて調整処理を行い、各応答メッセージ候補に対するスコアを算出する(ステップS23)。
The
生成部44は、第2処理部43によって翻訳モデルを用いて算出したスコアから、第3処理部45によって言語モデルを用いて算出したスコアを減算し、減算したスコアの中でスコアが最も大きい応答メッセージ候補を応答メッセージとして選択し、応答メッセージを生成する(ステップS24)。
The
送信部20は、生成された応答メッセージをユーザの端末装置2へ送信する(ステップS25)。
The
[7.変形例]
上記実施形態に加えて、以下の変形例を適用することも可能である。
[7. Modified example]
In addition to the above-described embodiment, the following modifications can be applied.
変形例に係る情報処理装置1は、第1処理部42と、第2処理部43とにおける処理の順番を入れ替えて応答メッセージを生成する。
The information processing apparatus 1 according to the modification generates a response message by switching the order of processing in the
第2処理部43は、翻訳モデルを用いて、単語が出現する順番の確率値に基づいてメッセージに続く単語を評価する評価処理を行い、評価結果に基づいて応答メッセージ候補を生成する。
The
具体的には、第2処理部43は、メッセージを前提としたときの応答メッセージ候補の1単語目として、語彙中の各単語がどれだけの確率で現れうるかの確率表を生成し、それをもとに最も確率の高いN個(Nは予め設定された値)の単語を選ぶか、もしくは確率表をもとにしたランダムサンプリングを行うことにより、1単語目を決定する。続いてメッセージおよび1単語目を前提とした次の単語の確率表を生成し、それをもとに同様に2単語目を決定する。このような処理を繰り返し、第2処理部43は、メッセージに対する応答メッセージ候補を自動的に生成し、複数の応答メッセージ候補からなる応答メッセージ候補群を生成する。
Specifically, the
第1処理部42は、第2処理部43によって生成された応答メッセージ候補群の中から、メッセージに対して尤もらしい応答メッセージ候補を選択する選択処理を行う。具体的には、第1処理部42は、応答メッセージ候補群の中から、メッセージの分散表現に対しコサイン類似度が最も大きい分散表現となる応答メッセージ候補を選択し、応答メッセージ候補をさらに絞り込む。
The
生成部44は、第1処理部42によって絞りこまれた応答メッセージ候補を、応答メッセージとして選択し、応答メッセージを生成する。
The
例えば、第2処理部43によって応答メッセージとして相応しくない応答メッセージ候補が生成された場合であっても、そのような応答メッセージ候補の分散表現は、分散表現空間上、メッセージの分散表現に対して遠くに存在する。
For example, even if a response message candidate that is not suitable as a response message is generated by the
そのため、第1処理部42は、マッチングモデルを用いて応答メッセージ候補をさらに絞り込むことで、応答メッセージとして相応しくない応答メッセージ候補が応答メッセージとして選択されることを抑制することができる。
Therefore, the
変形例の情報処理装置1は、第2処理部43により応答メッセージ候補を生成することで、メッセージに対する応答メッセージ候補を多様化させることができる。
The information processing apparatus 1 according to the modified example can diversify response message candidates for messages by generating response message candidates by the
また、変形例の情報処理装置1は、例えば、第2処理部43によって応答メッセージ候補として「晴れだよ」が生成された場合に、別の翻訳モデルを用いて、より自然な文に置き換えて「晴れです」といった応答メッセージを生成してもよい。別の翻訳モデルは、不適切な文と、適切な文のペアの例を大量に学習データとして用い、不適切な文が与えられた場合に、適切な文を生成するモデルである。そして、情報処理装置1は、第1処理部42によって、適切な文として生成された応答メッセージ候補の中から応答メッセージを選択する。
Further, the information processing apparatus 1 according to the modified example uses, for example, another translation model to replace the sentence with a more natural sentence when “second day” is generated as a response message candidate by the
また、翻訳モデルにおいて、例えば、「いいね」、「そうだね」といった一般的な応答となる応答メッセージ候補が作成され難いように、翻訳モデルを学習する際に、一般的な応答となる対応メッセージにおいて、出現する単語の順番の確率値が小さくなるように学習してもよい。例えば、学習データ中の入力されたメッセージと対応メッセージの組において、「明日は晴れるらしいよ」に対して一般的な応答となる「そうだね」と回答しているようなものを間引く前処理を行った上で翻訳モデルを学習させる。これにより、第2処理部43によって、一般的な応答となる応答メッセージ候補が生成されることを抑制することができる。そのため、変形例の情報処理装置1は、ユーザの満足度を向上させることができる。
In addition, in the translation model, for example, a response message that is a general response when learning a translation model so that response message candidates that are general responses such as “Like” and “That's right” are difficult to create. The learning may be performed so that the probability value of the order of the appearing words is small. For example, in the set of input messages and corresponding messages in the learning data, pre-processing that thins out the ones that responded “Yes,” which is a general response to “It seems to be fine tomorrow.” Then, learn the translation model Thereby, it can suppress that the
また、上記変形例に加えて、以下の変形例を適用することが可能である。 In addition to the above-described modification examples, the following modification examples can be applied.
第2処理部43は、各確率値の対数の和をスコアとして算出してもよい。
The
第2処理部43は、確率値の相乗平均(あるいは確率値の対数の相加平均)をスコアとして算出してもよい。相乗平均をスコアとして算出した一例を図8に示す。この場合、応答メッセージ候補「晴れでしょう」のスコアが「0.412」となり、「曇りです」のスコアが「0.241」となり、「分かりません」のスコアが「0.157」となる。したがって、応答メッセージ候補「晴れでしょう」が応答メッセージとして選択される。
The
また、第2処理部43は、各確率値の積と、各確率値の相乗平均とを総合したスコア、あるいは確率値の対数の和と、各確率値の対数の相加平均とを総合したスコアを算出してもよい。なお、例えば、確率値の対数をとった場合に、第2処理部43は、対数にマイナスの符号を付けて、コスト値としてもよい。この場合、コスト値が小さくなると、尤もらしいと評価される。
In addition, the
これにより、短い文の応答メッセージ候補のスコアが高くなることを抑制し、応答メッセージ候補の長さに左右されない評価を行うことができ、適切な応答メッセージ候補を応答メッセージとして選択することができる。 Thereby, it can suppress that the score of the response message candidate of a short sentence becomes high, can perform evaluation independent of the length of a response message candidate, and can select an appropriate response message candidate as a response message.
第2処理部43は、ユーザのコンテキストを考慮して、応答メッセージ候補のスコアを算出してもよい。コンテキストは、例えば、ユーザの発話時間や、ユーザの現在位置などである。第2処理部43は、例えば、単語が出現する確率値をコンテキストに応じて変更する。
The
例えば、翻訳モデルは、学習時に、入力されたメッセージを前提として対応メッセージとして何が来るか学習させる形だったところを、発話時間と入力されたメッセージとの組に対して対応メッセージに何が来るか学習させる形に変更され学習される。第2処理部43は、例えば、応答メッセージ候補を生成する際に、同様に発話時間を入力情報として用いる。学習データ中では発話時間が夕方や夜である場合に「おはよう」という対応メッセージが現れるケースが非常に少ないので、翻訳モデルではそれが学習され、そのような時間帯に「おはよう」が出現する確率値を低くする。
For example, in the translation model, what happens to the corresponding message for the pair of the utterance time and the input message is what was learned as a corresponding message on the premise of the input message at the time of learning. It is changed to the form to be learned and learned. For example, when generating a response message candidate, the
これにより、生成部44は、ユーザのコンテキストに合わせて、応答メッセージを選択することができる。そのため、情報処理装置1は、応答メッセージに対するユーザの満足度を向上させることができる。
Thereby, the production |
第2処理部43は、単語が出現する確率値を、「attention mechanism」を用いて算出してもよい。第2処理部43は、「attention mechanism」を用いることで、メッセージ中の情報を一律に用いるのではなく、生成しようとしている単語に対して関連の強い箇所に、より強く重み付けをする形でメッセージの情報を再解釈しながら、確率値を算出する。
The
これにより、第2処理部43は、メッセージに対する応答メッセージ候補の尤もらしさを正確に評価することができる。そのため、情報処理装置1は、より正確な応答メッセージをユーザに提供することができ、応答メッセージに対するユーザの満足度を向上させることができる。
Accordingly, the
また、マッチングモデルを学習する際に、応答メッセージとして相応しくないメッセージ、例えば、罵倒語や、卑猥語などを含む文例を除いて、マッチングモデルを学習させてもよい。 Further, when learning the matching model, the matching model may be learned by removing a message that is not suitable as a response message, for example, a sentence example including an abuse word or an obscene word.
これにより、そのような単語を含む応答メッセージ候補が選択されることを防ぐことができる。 Thereby, it is possible to prevent a response message candidate including such a word from being selected.
また、解析部41は、文字単位で解析を行ってもよく、単語群を抽出せずに解析を行ってもよい。
The
[8.効果]
情報処理装置1は、受信部10と、第1処理部42と、第2処理部43と、生成部44とを備える。受信部10は、ユーザのメッセージを受信する。第1処理部42は、メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う。第2処理部43は、単語が出現する順番の確率値に基づいてメッセージに続く単語を評価する評価処理を行う。生成部44は、選択処理と評価処理とに基づいて、メッセージに対する応答メッセージを生成する。
[8. effect]
The information processing apparatus 1 includes a receiving
これにより、情報処理装置1は、応答メッセージの精度を向上させることができ、応答メッセージに対するユーザの満足度を向上させることができる。 Thereby, the information processing apparatus 1 can improve the accuracy of the response message, and can improve the user's satisfaction with the response message.
第2処理部43は、第1処理部42によって選択された応答メッセージ候補に対して、評価処理を行い、メッセージに対する応答メッセージ候補の尤もらしさを示すスコアを算出する。生成部44は、スコアに基づいて、メッセージに対する応答メッセージを生成する。
The
これにより、情報処理装置1は、第1処理部42によって選択された応答メッセージ候補に対して、評価処理を行うので評価処理における負荷を小さくし、必要な時間を短くし、応答メッセージをユーザの端末装置2に素早く送信することができる。また、情報処理装置1は、評価処理によって精緻な評価を行うことができ、メッセージに対する応答メッセージの精度を向上させることができ、ユーザの満足度を向上させることができる。
Thereby, since the information processing apparatus 1 performs the evaluation process on the response message candidate selected by the
また、情報処理装置1は、第1処理部42によってマッチングモデルを用いて応答メッセージ候補を選択するので、相応しくない応答メッセージ候補が選択(生成)されることを抑制することができる。
Moreover, since the information processing apparatus 1 selects a response message candidate using the matching model by the
第2処理部43は、評価処理に基づいて、メッセージに対する応答メッセージ候補を生成する。第1処理部42は、第2処理部43によって生成された応答メッセージ候補から、さらに応答メッセージ候補を絞り込む。そして、生成部44は、第1処理部42によって絞り込んだ応答メッセージ候補に基づいて、応答メッセージを生成する。
The
これにより、情報処理装置1は、第2処理部43によって応答メッセージ候補を自動的に生成することで、応答メッセージ候補を多様化させることができる。
Thereby, the information processing apparatus 1 can diversify the response message candidates by automatically generating the response message candidates by the
また、情報処理装置1は、第1処理部42によって応答メッセージ候補を、より自然な文に置き換えることができる。そのため、ユーザの満足度を向上させることができる。
In addition, the information processing apparatus 1 can replace the response message candidate with a more natural sentence by the
第1処理部42は、メッセージの分散表現と、応答メッセージ候補の分散表現との間の類似度に基づいて応答メッセージ候補を選択する選択処理を行う。
The
これにより、情報処理装置1は、類似するメッセージに対して、応答メッセージ候補を選択することができ、類似するメッセージに対しても適切な応答メッセージを生成することができ、応答メッセージに対するユーザの満足度を向上させることができる。 As a result, the information processing apparatus 1 can select a response message candidate for a similar message, can generate an appropriate response message for the similar message, and the user's satisfaction with the response message. The degree can be improved.
第2処理部43は、ユーザのコンテキスト、および単語が出現する順番の確率値に基づいて評価処理を行う。
The
これにより、情報処理装置1は、ユーザのコンテキストに応じて応答メッセージを生成することができ、ユーザの満足度を向上させることができる。 Thereby, the information processing apparatus 1 can generate a response message according to the user's context, and can improve the user's satisfaction.
情報処理装置1は、出現率が所定率よりも高い高頻度の応答メッセージ候補に対し、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くする調整処理を行う第3処理部45を備える。生成部44は、選択処理と探索処理と調整処理とに基づいて、メッセージに対する応答メッセージを生成する。
The information processing apparatus 1 performs, for a high-frequency response message candidate whose appearance rate is higher than a predetermined rate, a
これにより、情報処理装置1は、高頻度の応答メッセージ候補が応答メッセージとして生成される確率値を低くすることができ、ユーザの満足度を向上させることができる。 Thereby, the information processing apparatus 1 can reduce the probability value that a high-frequency response message candidate is generated as a response message, and can improve user satisfaction.
[9.ハードウェアの構成]
上記してきた実施形態に係る情報処理装置1は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[9. Hardware configuration]
The information processing apparatus 1 according to the above-described embodiment is realized by a
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が決定したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、決定したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置1として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部40の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various aspects can be made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.
[10.その他]
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[10. Other]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modifications can be combined as appropriate within a range that does not contradict processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部10は、受信手段や受信回路に読み替えることができる。
In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the receiving
1 情報処理装置
2 端末装置
10 受信部
20 送信部
30 記憶部
40 制御部
41 解析部
42 第1処理部
43 第2処理部
44 生成部
45 第3処理部
DESCRIPTION OF SYMBOLS 1
Claims (8)
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理部と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理部と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成部と
を備えることを特徴とする情報処理装置。 A receiver for receiving a user message;
A first processing unit that performs a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing unit for performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
An information processing apparatus comprising: a generation unit that generates a response message to the message based on the selection process and the evaluation process.
前記第1処理部によって選択された前記応答メッセージ候補に対して、前記評価処理を行い、前記メッセージに対する前記応答メッセージ候補の尤もらしさを示すスコアを算出し、
前記生成部は、
前記スコアに基づいて、前記メッセージに対する前記応答メッセージを生成する
ことを特徴とする請求項1に記載の情報処理装置。 The second processing unit includes:
Performing the evaluation process on the response message candidate selected by the first processing unit, and calculating a score indicating the likelihood of the response message candidate for the message;
The generator is
The information processing apparatus according to claim 1, wherein the response message for the message is generated based on the score.
前記評価処理に基づいて、前記メッセージに対する応答メッセージ候補を生成し、
前記第1処理部は、
前記第2処理部によって生成された前記応答メッセージ候補から、さらに前記応答メッセージ候補を絞り込み、
前記生成部は、
前記第1処理部によって絞り込んだ前記応答メッセージ候補に基づいて、前記応答メッセージを生成する
ことを特徴とする請求項1に記載の情報処理装置。 The second processing unit includes:
Generating response message candidates for the message based on the evaluation process;
The first processing unit includes:
Further narrowing down the response message candidates from the response message candidates generated by the second processing unit;
The generator is
The information processing apparatus according to claim 1, wherein the response message is generated based on the response message candidates narrowed down by the first processing unit.
前記メッセージの分散表現と、前記応答メッセージ候補の分散表現との間の類似度に基づいて前記応答メッセージ候補を選択する前記選択処理を行う
ことを特徴とする請求項1から3のいずれか一つに記載の情報処理装置。 The first processing unit includes:
The selection process of selecting the response message candidate based on a similarity between the distributed representation of the message and the distributed representation of the response message candidate is performed. The information processing apparatus described in 1.
前記ユーザのコンテキスト、および前記単語が出現する順番の前記確率値に基づいて前記評価処理を行う
ことを特徴とする請求項1から4のいずれか一つに記載の情報処理装置。 The second processing unit includes:
The information processing apparatus according to claim 1, wherein the evaluation process is performed based on the user's context and the probability value of the order in which the words appear.
を備え、
前記生成部は、
前記選択処理と前記評価処理と前記調整処理とに基づいて、前記メッセージに対する前記応答メッセージを生成する
ことを特徴とする請求項1から5のいずれか一つに記載の情報処理装置。 A third processing unit that performs an adjustment process for reducing a probability value that the high-frequency response message candidate is generated as the response message with respect to a high-frequency response message candidate having an appearance rate higher than a predetermined rate;
The generator is
The information processing apparatus according to any one of claims 1 to 5, wherein the response message for the message is generated based on the selection process, the evaluation process, and the adjustment process.
ユーザのメッセージを受信する受信工程と、
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理工程と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理工程と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成工程と
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
A receiving process for receiving a user message;
A first processing step of performing a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing step of performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
An information processing method comprising: generating a response message for the message based on the selection process and the evaluation process.
前記メッセージに対する応答メッセージ候補を応答メッセージ候補群から選択する選択処理を行う第1処理手順と、
単語が出現する順番の確率値に基づいて、前記メッセージに続く単語を評価する評価処理を行う第2処理手順と、
前記選択処理と前記評価処理とに基づいて、前記メッセージに対する応答メッセージを生成する生成手順と
をコンピュータに実行させることを特徴とするプログラム。 A receiving procedure for receiving the user's message;
A first processing procedure for performing a selection process of selecting a response message candidate for the message from a response message candidate group;
A second processing procedure for performing an evaluation process for evaluating a word following the message based on a probability value of the order in which the words appear;
A program for causing a computer to execute a generation procedure for generating a response message to the message based on the selection process and the evaluation process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182088A JP6205039B1 (en) | 2016-09-16 | 2016-09-16 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182088A JP6205039B1 (en) | 2016-09-16 | 2016-09-16 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6205039B1 JP6205039B1 (en) | 2017-09-27 |
JP2018045630A true JP2018045630A (en) | 2018-03-22 |
Family
ID=59969417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016182088A Active JP6205039B1 (en) | 2016-09-16 | 2016-09-16 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6205039B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021056326A (en) * | 2019-09-27 | 2021-04-08 | Kddi株式会社 | Voice synthesizer, method and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022004392A1 (en) * | 2020-06-30 | 2022-01-06 | ソニーグループ株式会社 | Interaction device, interaction method, and interaction program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132812A (en) * | 2000-10-19 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for answering question and recording medium with recorded question answering program |
JP2006039120A (en) * | 2004-07-26 | 2006-02-09 | Sony Corp | Interactive device and interactive method, program and recording medium |
US20080040114A1 (en) * | 2006-08-11 | 2008-02-14 | Microsoft Corporation | Reranking QA answers using language modeling |
US20090070311A1 (en) * | 2007-09-07 | 2009-03-12 | At&T Corp. | System and method using a discriminative learning approach for question answering |
WO2013190963A1 (en) * | 2012-06-18 | 2013-12-27 | エイディシーテクノロジー株式会社 | Voice response device |
WO2015190562A1 (en) * | 2014-06-11 | 2015-12-17 | シャープ株式会社 | Output message determination device, method for controlling output message determination device, history management device, and write data transmission indication device |
WO2016136207A1 (en) * | 2015-02-27 | 2016-09-01 | パナソニックIpマネジメント株式会社 | Voice interaction device, voice interaction system, control method of voice interaction device, and program |
-
2016
- 2016-09-16 JP JP2016182088A patent/JP6205039B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132812A (en) * | 2000-10-19 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for answering question and recording medium with recorded question answering program |
JP2006039120A (en) * | 2004-07-26 | 2006-02-09 | Sony Corp | Interactive device and interactive method, program and recording medium |
US20080040114A1 (en) * | 2006-08-11 | 2008-02-14 | Microsoft Corporation | Reranking QA answers using language modeling |
US20090070311A1 (en) * | 2007-09-07 | 2009-03-12 | At&T Corp. | System and method using a discriminative learning approach for question answering |
WO2013190963A1 (en) * | 2012-06-18 | 2013-12-27 | エイディシーテクノロジー株式会社 | Voice response device |
WO2015190562A1 (en) * | 2014-06-11 | 2015-12-17 | シャープ株式会社 | Output message determination device, method for controlling output message determination device, history management device, and write data transmission indication device |
WO2016136207A1 (en) * | 2015-02-27 | 2016-09-01 | パナソニックIpマネジメント株式会社 | Voice interaction device, voice interaction system, control method of voice interaction device, and program |
Non-Patent Citations (6)
Title |
---|
今井 健太,他: ""複数の対話システムから応答候補文を用いた最適応答文選択手法の性能評価"", 情報処理学会研究報告 平成21年度▲5▼ [CD−ROM], JPN6016048513, 15 February 2010 (2010-02-15), pages 1 - 7, ISSN: 0003460878 * |
大川 良希,他: ""対話者の感情を推定した応答文生成のための言語モデルの提案"", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM], JPN6016048517, 29 May 2015 (2015-05-29), pages 1 - 2, ISSN: 0003618722 * |
山田 優樹,他: ""n−gramモデルとトピックモデルと係り受け解析の統合による自然文サンプリング法"", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM], JPN6016048515, 29 May 2015 (2015-05-29), pages 1 - 4, ISSN: 0003460879 * |
木村 葵,他: ""Twitterとword2vecを用いた時期に合った返答発話選択手法"", 言語処理学会 第22回年次大会 発表論文集, JPN6016048516, March 2016 (2016-03-01), pages 79 - 82, ISSN: 0003460880 * |
畑 健治,他: ""複数の言語資源を用いた非タスク指向型対話システム"", 第90回知識ベースシステム研究会資料(SIG−KBS−B001), JPN6017013924, 7 October 2010 (2010-10-07), pages 49 - 54, ISSN: 0003541847 * |
西村 仁志,坂本 仁: ""コーパスから自動抽出した表現パターンを用いる日本語文生成"", 情報処理学会研究報告, vol. 第2002巻,第20号, JPN6017024531, 5 March 2002 (2002-03-05), pages 31 - 36, ISSN: 0003590829 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021056326A (en) * | 2019-09-27 | 2021-04-08 | Kddi株式会社 | Voice synthesizer, method and program |
JP7162579B2 (en) | 2019-09-27 | 2022-10-28 | Kddi株式会社 | Speech synthesizer, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6205039B1 (en) | 2017-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3567498A1 (en) | Method and device for question response | |
JP5926378B2 (en) | Text input method, apparatus, and system | |
CN111428010B (en) | Man-machine intelligent question-answering method and device | |
JP6224857B1 (en) | Classification device, classification method, and classification program | |
JP6884722B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6370962B1 (en) | Generating device, generating method, and generating program | |
CN108268450B (en) | Method and apparatus for generating information | |
KR102355152B1 (en) | Method for searching content and electronic device thereof | |
CN111414561B (en) | Method and device for presenting information | |
JP6408080B1 (en) | Generating device, generating method, and generating program | |
JP6333329B2 (en) | Information processing apparatus, information processing method, and program | |
JP7058574B2 (en) | Information processing equipment, information processing methods, and programs | |
CN114840671A (en) | Dialogue generation method, model training method, device, equipment and medium | |
CN111639162A (en) | Information interaction method and device, electronic equipment and storage medium | |
JP6440660B2 (en) | Information processing apparatus, information processing method, and program | |
JP6205039B1 (en) | Information processing apparatus, information processing method, and program | |
JP6220762B2 (en) | Next utterance candidate scoring device, method, and program | |
JP6391617B2 (en) | Learning device, sentence automatic generation device, and learning method | |
JP2018028866A (en) | Explanatory text creation method, explanatory text creation model learning method, and program | |
CN113468857B (en) | Training method and device for style conversion model, electronic equipment and storage medium | |
JP2019021218A (en) | Learning device, program parameter, learning method and model | |
CN114416941A (en) | Generation method and device of dialogue knowledge point determination model fusing knowledge graph | |
KR101592756B1 (en) | Method for dialogue management using memory intensity of user knowledge and apparatus for performing the method | |
JP6462784B2 (en) | Learning device, information processing device, learning method, and learning program | |
JP2020004054A (en) | Output device, output method, and output program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6205039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |