JP2019061050A - Interaction apparatus, interaction method, and program - Google Patents
Interaction apparatus, interaction method, and program Download PDFInfo
- Publication number
- JP2019061050A JP2019061050A JP2017185357A JP2017185357A JP2019061050A JP 2019061050 A JP2019061050 A JP 2019061050A JP 2017185357 A JP2017185357 A JP 2017185357A JP 2017185357 A JP2017185357 A JP 2017185357A JP 2019061050 A JP2019061050 A JP 2019061050A
- Authority
- JP
- Japan
- Prior art keywords
- user
- sentence
- system response
- utterance
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、ロボット等がユーザと対話する際の応答文を生成する技術に関する。 The present invention relates to a technology for generating a response sentence when a robot or the like interacts with a user.
ユーザと対話することができる端末やロボットの開発が進められている。そして、これら端末やロボットがユーザと対話をする際に、ユーザに飽きの来ない円滑な対話処理を行えるようにするための技術開発も進められている。例えば、特許文献1には、システムが応答文を生成する際に、話題や単語等を変化させることによって、ユーザに飽きの来ない対話処理を行うことができる対話システムが記載されている。
Development of terminals and robots capable of interacting with users is in progress. And, when these terminals and robots interact with the user, technological development is also in progress to enable smooth interaction processing without getting tired of the user. For example,
特許文献1に記載の対話システムは、ユーザの利用頻度の高い単語等を評価指標として利用して応答時の会話の話題等を最適化することによってユーザに飽きの来ない対話を提供するようにしている。しかし、対話システムが応答する文章のパターンは予めパターンデータベースに格納されたものに限定されるため、ユーザ毎に話題を変えることはできても、応答文の文章表現が変化することはない。そのため、決まり切った文章表現になってしまう可能性が高く、ユーザが親近感を感じることは難しいと考えられる。このように、従来の対話装置では、ユーザに親近感を感じさせるための技術に改善の余地がある。
The dialog system described in
本発明は、上記実情に鑑みてなされたものであり、ユーザに親近感を感じさせるための技術を改善することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to improve a technique for causing a user to feel familiarity.
上記目的を達成するため、本発明の対話装置は、
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析部と、
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える。
In order to achieve the above object, the interactive device of the present invention is
A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Equipped with
本発明によれば、ユーザに親近感を感じさせるための技術を改善することができる。 According to the present invention, it is possible to improve the technology for making the user feel familiar.
以下、本発明の実施形態について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
(実施形態)
図1に示すように、本発明の実施形態に係る対話装置100は、音声でユーザUと対話することができるロボットである。図2に示すように、対話装置100は頭20と胴体30とからなる。そして、対話装置100の頭20には、マイク21と、カメラ22と、スピーカ23と、センサ群24と、が設けられている。
(Embodiment)
As shown in FIG. 1, the
マイク21は、頭20の左右、人の顔でいうところの耳の位置に複数設けられており、アレイマイクを構成する。マイク21は、対話装置100の周囲にいるユーザUが発話した音声を音声データとして取得する音声取得部として機能する。
A plurality of
カメラ22は、頭20の前面の中央部、人の顔でいうところの鼻の位置に設けられている撮像装置である。カメラ22は、対話装置100の正面の画像のデータ(画像データ)を取得する画像取得部として機能し、取得した画像データを後述する制御部110に入力する。対話装置100は、予めユーザの顔の画像データ(又は当該画像データの特徴量)を後述する記憶部120に記憶させておく。そして、対話装置100は、対話中にカメラ22で取得した顔の画像データを画像認識することにより、対話相手が誰なのかを識別(ユーザ識別)することができる。
The
スピーカ23は、カメラ22の下側、人の顔でいうところの口の位置に設けられている。スピーカ23は、音声を出力する音声出力部として機能する。
The
センサ群24は、人の顔でいうところの目の位置に設けられている。センサ群24は、加速度センサ、障害物検知センサ等を含み、各種物理量を検出して、対話装置100の姿勢制御、衝突回避、安全性確保等のために使用される。
The
対話装置100の頭20と胴体30とは、図2に示すように、破線で示される首関節31によって相互に連結されている。首関節31は、複数のモータを含む。後述する制御部110がこれら複数のモータを駆動することにより、対話装置100の頭20を上下方向、左右方向及び傾ける方向の3軸で回転させることができる。これにより、対話装置100は、例えばうなずきの動作をすることができる。
The
図2に示すように、対話装置100の胴体30の下部には足回り部32が設けられている。足回り部32は、4つの車輪(ホイール)と駆動モータとを含む。4つの車輪のうち、2つが前輪として胴体30の前側に、残り2つが後輪として胴体30の後ろ側に、それぞれ配置されている。車輪としては、例えば、オムニホイール、メカナムホイール等を使用しても良い。後述する制御部110が、駆動モータを制御して車輪を回転させると、対話装置100は移動する。
As shown in FIG. 2, the lower part of the
次に、図3を参照して、対話装置100の機能構成を説明する。図3に示すように、対話装置100は、上述の構成に加え、操作ボタン33と、制御部110と、記憶部120と、を備える。
Next, with reference to FIG. 3, the functional configuration of the
操作ボタン33は、図示しないが、胴体30の背中の位置に設けられている。操作ボタン33は、対話装置100を操作するための各種ボタンである。操作ボタン33は、電源ボタン、スピーカ23の音量調節ボタン等を含む。
Although not shown, the
制御部110は、CPU(Central Processing Unit)等で構成される。制御部110は、記憶部120に記憶されたプログラムを実行することにより、後述する音声認識部111、言語解析部112、履歴格納部113、システム応答文生成部114、システム応答文出力部115及びユーザ識別部116として機能する。また、制御部110は、時計機能及びタイマー機能を備え、現在時刻(現在日時)や経過時間を取得することができる。
The
記憶部120は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部110のCPUが実行するプログラム、各種データ等を記憶する。また、記憶部120には、履歴格納部113により、ユーザ発話文に関する情報の履歴がユーザ発話文履歴121として記憶される。
The
ユーザ発話文履歴121は、図4に示すように、「ユーザ」、「ユーザ発話文」、「発話種別」、「文末表現」、「助詞有無」及び「フィラー」の各情報からなる。これは、「ユーザ」の項目で示されるユーザが、「ユーザ発話文」の項目で示されるユーザ発話文を発話したことを示している。また、「発話種別」の項目には該ユーザ発話文の発話種別が、「文末表現」の項目には該ユーザ発話文の文末表現が、「助詞有無」の項目には該ユーザ発話文の助詞の有無が、「フィラー」の項目には該ユーザ発話文中のフィラーが、それぞれ格納されることを示している。なお、発話種別、文末表現、助詞の有無、フィラー、については後述する。
As shown in FIG. 4, the user
次に、制御部110が実現する各機能について説明する。制御部110は、前述したように、記憶部120に記憶されたプログラムを実行することにより、音声認識部111、言語解析部112、履歴格納部113、システム応答文生成部114、システム応答文出力部115及びユーザ識別部116として機能する。また、制御部110は、マルチスレッド機能に対応しており、複数のスレッド(異なる処理の流れ)を並行して実行することができる。
Next, each function realized by the
音声認識部111は、音声取得部(マイク21)が取得した音声データを音声認識して、テキストデータとしてのユーザ発話文を取得する。 The speech recognition unit 111 performs speech recognition on the speech data acquired by the speech acquisition unit (microphone 21), and acquires a user utterance sentence as text data.
言語解析部112は、音声認識部111が取得したユーザ発話文(テキストデータ)を後述する言語解析処理によって言語解析する。具体的には、言語解析部112は、ユーザ発話文を形態素解析及び構文解析して、ユーザ発話文の中の各単語の品詞情報、係り受け情報等を取得する。そして、これらに基づき、言語解析部112は、ユーザの表現の特徴を示す情報(ユーザ表現特徴)を取得するとともに、ユーザ発話文の発話種別を判定する。発話種別とは、図5に示すように、ユーザ発話文の種類(主張、要望、質問、依頼、命令、提案、等)を表す情報(発話種別情報)である。また、ユーザ表現特徴としては、文末表現、助詞の有無、フィラー等があるが、これらについては後述する。
The
履歴格納部113は、音声認識部111が取得したユーザ発話文と、言語解析部112が取得又は判定したユーザ表現特徴及び発話種別とを、ユーザ毎に、ユーザ発話文履歴121として、記憶部120に格納する。ユーザ表現特徴の、文末表現、助詞の有無、フィラーについて、以下に説明する。
The
文末表現とは、当該ユーザ発話文の文末の表現である。この文末表現の抽出方法について、図4に示すユーザAのユーザ発話文「お薦めの映画を教えてもらいたいな」を用いて説明する。このユーザ発話文を言語解析部112が構文解析すると、図6に示すように、文章の構造とともに、述語部(教えてもらいたいな)を抽出することができる。そして、図7に示すように、言語解析部112がこの述語部を自立語部と付属語部に分割することにより、この付属語部を元のユーザ発話文の文末表現として抽出することができる。
The sentence end expression is an expression at the end of the user utterance sentence. A method of extracting this sentence-end expression will be described using a user utterance sentence of the user A shown in FIG. 4 "I do not want to teach a recommended movie". When the
助詞の有無とは、ここでは当該ユーザ発話文の述語部に係る係り受け元の末尾の助詞の有無を指す。図6で説明すると、述語部(教えてもらいたいな)に係る係り受け元は「映画を」であり、この末尾には、格助詞「を」が存在するので、この例では「助詞の有無」は「有」となる。このように、「助詞の有無」は、言語解析部112がユーザ発話文を解析して、ユーザ発話文の述語部に係る係り受け元の末尾の助詞の有無により取得できる。
Here, the presence or absence of a particle refers to the presence or absence of a particle at the end of the dependency source according to the predicate portion of the user utterance sentence. Referring to FIG. 6, the dependency source for the predicate part (I want to be taught) is "Movie", and there is a case particle "" at the end, so in this example, "the presence or absence of a particle" "Is". As described above, “the presence or absence of a particle” can be acquired by the
フィラーとは、ユーザ発話文中に含まれる、「えーと」、「まあ」等の間投詞である。ここでは「・・・ね」、「・・・さあ」等の間投助詞もフィラーに含めることにする。図6の例では、フィラーは存在しないので、この例では「フィラー」は「無」となる。別の例として、図4に示すユーザCのユーザ発話文「あのー、お薦めの映画、教えてくれる」であれば、冒頭の「あのー」は間投詞なので、フィラーとして抽出される。このように、「フィラー」は、言語解析部112がユーザ発話文を解析して品詞情報を得ることにより、ユーザ発話文の中に含まれる間投詞や間投助詞として抽出することができる。
The filler is an interjection included in the user's utterance sentence, such as "uh," "well." In this case, we will also include the throw particle in the filler for "... ne", "... saa", etc. In the example of FIG. 6, since a filler does not exist, a "filler" becomes "absent" in this example. As another example, if the user utterance sentence of the user C shown in FIG. 4 "A-, a recommended movie, will teach you", since the "A-" at the beginning is an interjection, it is extracted as a filler. In this manner, the “filler” can be extracted as an interjection or an interjection particle included in the user's utterance sentence by the
システム応答文生成部114は、ユーザ発話文とユーザ発話文の言語解析結果に基づいて、当該ユーザ発話文に対する標準的な表現のシステム応答文を生成する。そして、システム応答文生成部114は、履歴格納部113が格納したユーザ発話文履歴121から取得したユーザ表現特徴に基づいて、システム応答文を変換する。なお、システム応答文生成部114は、標準的な表現のシステム応答文を生成することなく、最初から、ユーザ表現特徴に基づいたシステム応答文を生成しても良い。
The system response
システム応答文生成部114が、現在対話中のユーザのユーザ表現特徴に基づいて、システム応答文を変換する方法について説明する。この処理は、システム応答文生成部114が、過去のユーザ発話文の中における、出現頻度の高い文末表現、出現頻度の高い助詞(述語部に係っている係り受け元の末尾の助詞)の使用パターン(助詞使用パターン)、出願頻度の高いフィラー、に基づいてシステム応答文を変換する。ここで、本実施例で出現頻度を求める際に用いる助詞使用パターンは、処理を単純にするために、助詞を使用するパターン(助詞有の助詞使用パターン)と、助詞を使用しないパターン(助詞無の助詞使用パターン)の2種類とする。
A method will be described in which the system
まず、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「文末表現」の項目に格納されている全ての文末表現の中で、出現頻度が文末表現基準頻度(例えば0.2)以上の文末表現を頻出文末表現として抽出する。出現頻度は、当該ユーザのデータにおける、当該文末表現の数÷全データ数として求められる。ここで、複数の文末表現が文末表現基準頻度以上であるときは、その中で最も出現頻度の高い文末表現を頻出文末表現としても良いし、文末表現基準頻度以上の文末表現の中からランダムに一つの文末表現を選出してそれを頻出文末表現としても良い。
First, among the data included in the user
なお、文末表現基準頻度は固定値である必要はない。例えば、当該ユーザのユーザ発話文履歴121の中の全データ数がn個の場合は、文末表現基準頻度を2/n(ただし、n=1のときは1)とするなど、データ数が増えるにしたがって、文末表現基準頻度を小さくしても良い。また、システム応答文生成部114は、出現頻度が文末表現基準頻度以上の文末表現ではなく、最も出現頻度の高い文末表現を頻出文末表現として抽出しても良い。
The sentence end expression reference frequency does not have to be a fixed value. For example, when the total number of data in the user
そして、システム応答文生成部114は、システム応答文の文末表現を、上述のように出現頻度によって抽出した頻出文末表現に変換する。
Then, the system response
次に、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、出現頻度が助詞基準頻度(この値は例えば0.7等、0.5以上の値に設定する)以上の助詞の使用パターンを頻出助詞使用パターンとして抽出する。出現頻度は、当該ユーザのデータにおける、当該助詞使用パターンの数÷全データ数として求められる。
Next, the system response
具体的には、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「助詞有無」の項目に格納されている「有」の数と「無」の数を求める。ここで、「有」の数をm、「無」の数をnで表すとすると、助詞有の助詞使用パターンの出現頻度はm/(m+n)、助詞無の助詞使用パターンの出現頻度はn/(m+n)と表すことができる。ここで、n/(m+n)が、助詞基準頻度よりも高ければ、助詞無の助詞使用パターンが頻出助詞使用パターンとして抽出され、システム応答文生成部114は、システム応答文から助詞(述語部に係る係り受け元の末尾の助詞)を削除する。
Specifically, the system response
また、m/(m+n)が、助詞基準頻度よりも高ければ、助詞有の助詞使用パターンが頻出助詞使用パターンとして抽出され、システム応答文生成部114は、システム応答文から助詞を削除しない(システム応答文の助詞をそのまま残す)。また、m/(m+n)とn/(m+n)の両方ともが助詞基準頻度以下なら、当該ユーザの助詞使用パターンは、助詞の有無が混在している使用パターンと判定することとし、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を50%の確率で削除する。もっともこの確率は50%に限定する必要はなく、例えばn/mの確率で削除することにしても良い。n/mの確率で削除した方が、ユーザの助詞使用頻度をより反映したシステム応答文にすることができる。
Also, if m / (m + n) is higher than the reference frequency, the particle use pattern with particles is extracted as the frequent use particle use pattern, and the system response
次に、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「フィラー」の項目に格納されている全てのデータの中で、出現頻度がフィラー基準頻度(例えば0.1)以上のフィラーを頻出フィラーとして抽出する。複数のフィラーが抽出された場合は、その中で最も出現頻度の高いフィラーを頻出フィラーとしても良い。そして、頻出フィラーが抽出された場合は、システム応答文生成部114は、システム応答文に頻出フィラーを挿入する。
Next, among the data included in the user
なお、フィラー基準頻度は固定値である必要はない。例えば、当該ユーザのユーザ発話文履歴121の中の全データ数がn個の場合は、フィラー基準頻度を1/nとするなど、データ数が増えるにしたがって、フィラー基準頻度を小さくしても良い。また、システム応答文生成部114は、出現頻度がフィラー基準頻度以上のフィラーではなく、最も出現頻度の高いフィラーを頻出フィラーとして抽出しても良い。
The filler reference frequency does not have to be a fixed value. For example, when the total number of data in the user
上述のようにシステム応答文を変換することにより、システム応答文生成部114は、ユーザ表現特徴の3つの観点(文末表現、助詞使用パターン、フィラー)に基づいて、ユーザの表現の特徴をシステム応答文に反映させることができる。
As described above, by converting the system response sentence, the system response
システム応答文出力部115は、システム応答文生成部114が生成及び変換したシステム応答文を音声合成し、スピーカ23からシステム応答文の音声を出力する。
The system response
ユーザ識別部116は、カメラ22で取得したユーザの顔の画像データを画像認識して、現在の対話相手を識別する。なお、ユーザ識別部116は、マイク21で取得した音声データから音声の特徴を認識することによって、対話相手を識別しても良い。また、カメラ22で取得した画像データの認識結果と、マイク21で取得した音声データの認識結果とを両方とも用いて、対話相手を識別しても良い。
The user identification unit 116 performs image recognition on the image data of the face of the user acquired by the
以上、対話装置100の機能構成を説明した。次に、言語解析部112による言語解析処理について、図8を参照して説明する。この処理は、ユーザが発した音声を音声認識してテキストデータを取得する度に行われる。
The functional configuration of the
まず、言語解析部112は、ユーザ発話文を形態素解析及び構文解析してユーザ発話文の中の各単語の品詞情報、係り受け情報等を取得する(ステップS101)。次に、言語解析部112は、構文解析したユーザ発話文の述語部の付属語部を、当該ユーザ発話文の文末表現として抽出する(ステップS102)。そして、言語解析部112は、ユーザ発話文の述語部に係っている係り受け元の末尾の助詞の有無を取得する(ステップS103)。さらに、言語解析部112は、品詞情報に基づきユーザ発話文からフィラーを抽出する(ステップS104)。ステップS101からステップS104までの処理により、ユーザ発話文に含まれるユーザ表現特徴が取得される。
First, the
次に、言語解析部112は、ポジネガ極性単語辞書に基づいて、ステップS101で取得した解析結果にポジネガ極性情報を付与する(ステップS105)。ここで、ポジネガ極性単語辞書とは、図9に示すように、ポジティブな表現を表す用言(例えば、好き(動詞)、美味しい(形容詞)、きれいだ(形容動詞)等)と、ネガティブな表現を表す用言(例えば、嫌い(動詞)、不味い(形容詞)、不細工だ(形容動詞)等)が登録されている単語辞書である。
Next, the
言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されているポジティブな表現を表す用言が存在すれば、その解析結果にはポジネガ極性情報として、「ポジ」が付与される。また、言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されているネガティブな表現を表す用言が存在すれば、その解析結果にはポジネガ極性情報として、「ネガ」が付与される。言語解析部112がステップS101で取得した解析結果に、ポジネガ極性単語辞書に登録されている単語が存在しなければ、その解析結果にはポジネガ極性情報は付与されない。
If the analysis result acquired in step S101 by the
そして、言語解析部112は、解析結果に発話種別判定ルールを適用して、発話種別を判定し(ステップS106)、処理を終了する。ここで、発話種別判定ルールとは、図10に示すように、ユーザ発話文の末尾の品詞、活用形、ポジネガ極性情報等に基づいて、当該ユーザ発話文の発話種別を判定するルールである。なお、いずれのルールにも該当しなかった場合は、当該ユーザ発話文の発話種別は「その他」と判定される。ただし、図10に示す発話種別判定ルールはあくまでも一例である。また、発話種別の種類についても、図10に示されているものに限定されない。例えば「挨拶」(「こんにちは」等、挨拶の発話)、「同意」(「同感です」等、対話者の発話に対して同意していることを表す発話)、「感謝」(「ありがとう」等、感謝の意を表す発話)、「謝罪」(「ごめんなさい」等、謝罪の意を表す発話)等を発話種別の種類に追加することも可能である。
Then, the
以上の言語解析処理によって、ユーザ発話文に含まれるユーザ表現特徴の取得と、ユーザ発話文の発話種別の判定が行われる。次に、対話装置100の制御部110が実行する対話制御処理について、図11を参照して説明する。この処理は、対話装置100が起動すると開始される。
By the language analysis processing described above, acquisition of the user expression feature included in the user utterance text and determination of the utterance type of the user utterance text are performed. Next, the dialogue control process executed by the
まず、ユーザ識別部116は、カメラ22で取得した画像データを画像認識して、ユーザを識別する(ステップS201)。カメラ22で取得した画像データに顔が写っていない場合等、画像認識ができなかった場合は、直前に識別できていたユーザを現在対話しているユーザとみなす。
First, the user identification unit 116 performs image recognition on the image data acquired by the
次に、制御部110は、ユーザに応答するか否かを判定する(ステップS202)。この判定は様々な観点で行うことができる。例えば、対話装置100が、まだユーザの発した音声を聞いていない場合、当該ユーザに対して応答することは困難なので、この場合は、応答しないという判定を行う。また、通常対話は対話相手と交互に応答するため、前回応答すると判定したら今回は応答しないと判定し、前回応答しないと判定したら今回は応答すると判定しても良い。
Next, the
制御部110が、応答しないと判定したら(ステップS202;No)、音声認識部111は、マイク21から取得した音声データを音声認識して、ユーザ発話文のテキストデータを取得する(ステップS211)。ステップS211は、音声認識ステップとも呼ばれる。
If the
そして、言語解析部112は、ステップS211で取得したテキストデータを上述の言語解析処理(図8)により言語解析して、ユーザ発話文に含まれるユーザ表現特徴の取得と、ユーザ発話文の発話種別の判定を行う(ステップS212)。ステップS212は、言語解析ステップとも呼ばれる。
Then, the
そして、履歴格納部113は、ステップS201で識別したユーザ名、ステップS211で取得したユーザ発話文並びにステップS212で判定した発話種別及び取得したユーザ表現特徴(文末表現、助詞の有無、フィラー)を、ユーザ発話文履歴121に追加して、記憶部120に格納する(ステップS213)。ステップS213は、履歴格納ステップとも呼ばれる。そして、ステップS201に戻る。
Then, the
一方、ステップS202で、制御部110が応答すると判定したら(ステップS202;Yes)、システム応答文生成部114は、直前のユーザ発話文に対するシステム応答文を生成する(ステップS221)。ここで生成されるシステム応答文は標準的な表現のシステム応答文であり、従来技術で生成することができる。なお、直前のユーザ発話文は、ユーザ発話文履歴121から取得することもできるが、システム応答文の生成には、通常、ユーザ発話文の言語解析結果も必要である。したがって、制御部110は、直前のユーザ発話文に対して言語解析部112がステップS212で言語解析した結果を、システム応答文生成部114がステップS221で利用できるように、記憶部120に保存しておくのが望ましい。
On the other hand, when it is determined in step S202 that the
そして、システム応答文生成部114は、ステップS221で生成したシステム応答文を、記憶部120に記憶されているユーザ発話文履歴121に含まれるユーザ表現特徴に対応する表現を用いたシステム応答文に変換する(ステップS222)。ステップS222は、システム応答文生成ステップとも呼ばれる。
Then, the system response
例えば、ステップS221で生成された標準的なシステム応答文が「あなたの好きな食べ物を教えてください」であるとする。そして、対話相手がユーザAであるとすると、文末表現が「てもらいたいな」で、助詞は有りで、フィラーは無しなので、システム応答文は、「あなたの好きな食べ物を教えてもらいたいな」に変換される。また、対話相手がユーザCであるとすると、文末表現が「てくれる」で、助詞は無しで、フィラーは「あのー」なので、システム応答文は、「あのー、あなたの好きな食べ物、教えてくれる」に変換される。 For example, it is assumed that the standard system response sentence generated in step S221 is "Tell me your favorite food". Then, assuming that the conversation partner is user A, the sentence in the sentence end is "I want to ask you," there is a particle, there is no filler, so the system response sentence, "I want to teach you favorite food Converted to Also, assuming that the conversation partner is user C, the sentence at the end of the sentence is "Takeru", there is no particle, and the filler is "Ah," so the system response sentence is "Ah, your favorite food, tell me Converted to
そして、システム応答文出力部115は、システム応答文生成部114で生成又は変換されたシステム応答文を音声合成して、スピーカ23から出力する(ステップS223)。ステップS223は、システム応答文出力ステップとも呼ばれる。そして、ステップS201に戻る。
Then, the system response
以上説明した対話制御処理により、対話装置100は、ユーザの表現の特徴を反映したシステム応答文を生成することができる。したがって、対話装置100から発せられるシステム応答文は、ユーザ毎にそのユーザの口癖を真似たシステム応答文になり、対話装置100は、ユーザに愛着や親近感を感じさせる対話を実現することができる。このように、対話装置100は、ユーザに親近感を感じさせるための技術を改善することができる。
By the dialog control process described above, the
(変形例1)
上述の実施形態では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、「文末表現」の項目に格納されている全ての文末表現の中で、最も出現頻度の高い文末表現を頻出文末表現として抽出する。しかし、文末表現は発話種別によっても変化するので、発話種別を考慮した出現頻度を用いても良い。このような変形例1について説明する。
(Modification 1)
In the above-described embodiment, the system response
変形例1では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、まず、現在対話中のユーザのデータだけを対象に絞り込む。次に、システム応答文生成部114は、対話制御処理(図11)のステップS221で生成したシステム応答文の発話種別を判定し、ユーザ発話文履歴121に含まれているデータのうち、発話種別が当該システム応答文の発話種別と同じデータだけを対象に絞り込む。そして、システム応答文生成部114は、このように絞り込んだデータの「文末表現」の項目に格納されている文末表現の中で、最も出現頻度の高い文末表現を頻出文末表現として抽出する。
In the first modification, the system response
上述のように、発話種別を考慮して頻出文末表現の抽出を行うことにより、変形例1は、発話種別毎にきめ細かくユーザの表現を真似したシステム応答文を生成することができるようになり、ユーザに愛着や親近感をさらに感じさせる対話を実現することができる。このように、変形例1に係る対話装置は、ユーザに親近感を感じさせるための技術をさらに改善することができる。 As described above, by extracting the frequently appearing sentence end expression in consideration of the utterance type, in the first modification, it is possible to generate a system response sentence in which the user's expression is closely imitated for each utterance type. It is possible to realize a dialogue that makes the user feel more attached and familiar. As described above, the dialog device according to the first modification can further improve the technique for making the user feel familiar.
(変形例2)
上述の実施形態では、対話装置100が発話するシステム応答文は、対話中のユーザのユーザ表現特徴を用いることにより、当該ユーザの口癖を真似たシステム応答文になっている。しかし、これに限られない。ユーザの中には、自分の口癖を真似られるのを好まない人もいることから、システム応答文をユーザ表現特徴とは逆の表現に変換しても良い。このような変形例2について説明する。
(Modification 2)
In the above-described embodiment, the system response sentence spoken by the
変形例2では、システム応答文生成部114は、対話中のユーザの頻出文末表現とは異なる文末表現を、他のユーザのユーザ発話文履歴121から検索し、システム応答文の文末表現を検索された文末表現に変換する。なお、対話制御処理(図11)のステップ221で生成したシステム応答文の文末表現が、対話中のユーザの頻出文末表現と異なっているなら、文末表現を変換しない(標準的な表現の文末表現のままにする)ようにしても良い。
In the second modification, the system response
そして、システム応答文生成部114は、対話中のユーザの助詞の使用パターンとは逆の使用パターンで助詞を使用する。つまり、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「助詞有無」の項目に格納されている「有」の数と「無」の数を求める。ここでは、上述のように、「有」の数をm、「無」の数をnで表すとする。そして、n/(m+n)が、助詞基準頻度よりも高ければ、助詞無の助詞使用パターンがユーザの助詞使用パターンなので、逆に、システム応答文生成部114は、システム応答文から助詞(述語部に係る係り受け元の末尾の助詞)を削除しない(システム応答文の助詞をそのまま残す)。
Then, the system response
また、m/(m+n)が、助詞基準頻度よりも高ければ、助詞有の助詞使用パターンがユーザの助詞使用パターンなので、逆にシステム応答文生成部114は、システム応答文から助詞を削除する。また、m/(m+n)とn/(m+n)の両方ともが助詞基準頻度以下なら、当該ユーザの助詞使用パターンは、助詞の有無が混在している使用パターンと判定することとする。この場合はmとnとを比較し、nの方が大きければ(ユーザは助詞を省略することが多いということなので)、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を削除しない(システム応答文の助詞をそのまま残す)。また、mの方が大きければ(ユーザは助詞を省略しないことが多いということなので)、システム応答文生成部114は、システム応答文に含まれる助詞(述語部に係る係り受け元の末尾の助詞)を削除する。
If m / (m + n) is higher than the reference frequency of the particles, the system response
そして、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、「フィラー」の項目に格納されている全てのデータを調べる。そして、フィラーの出現頻度がフィラー基準頻度(例えば0.1)よりも小さければ、フィラー(例えば「あのー」、「えーと」等)をシステム発話文に挿入する。ここで挿入するフィラーは、他のユーザのユーザ発話文履歴121に含まれているフィラーから選択しても良い。
Then, the system response
上述のように、ユーザ表現特徴とは敢えて異なる表現にシステム発話文を変換することにより、ユーザの口癖とは対照的な口癖が反映された(ユーザの口癖が反映されない)システム発話文を生成することができる。したがって、変形例2は、自分の口癖を真似されるのを好まないユーザに嫌がられないシステム応答文を生成することができるようになり、自分の口癖を真似されたくないユーザにも親近感を感じさせる対話を実現することができる。したがって、変形例2に係る対話装置は、ユーザに親近感を感じさせるための技術を改善することができる。 As described above, by converting the system utterance sentence into a different expression from the user expression feature, a system utterance sentence in which the user's mouthpiece is contrasted (the user's mouthpiece is not reflected) is generated. be able to. Therefore, in the second modification, it is possible to generate a system response sentence that is not disliked by a user who does not like being imitated by his own whistle, and a sense of closeness is also made to a user who does not want You can realize the dialogue that makes Therefore, the dialog device according to the second modification can improve the technique for making the user feel familiar.
なお、変形例2に係る対話装置が生成するシステム応答文に用いられる表現は、ユーザ表現特徴の表現とは異なるが、ユーザ表現特徴の表現に基づいて敢えて異なる表現を選択していることから、ユーザ表現特徴に対応する表現の一種と言うことができる。 Although the expression used for the system response sentence generated by the dialog device according to the second modification is different from the expression of the user expression feature, it is different from the expression of the user expression feature, and thus the different expression is selected. It can be said that it is a kind of expression corresponding to the user expression feature.
(変形例3)
上述の実施形態では、システム応答文生成部114は、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にして、頻出文末表現、助詞の有無、頻出フィラーを取得している。しかし、このような処理に限定する必要はなく、例えば、最もユーザ発話数の多いユーザのユーザ表現特徴に基づいて、システム応答文を変換しても良い。このような変形例3について説明する。
(Modification 3)
In the above-described embodiment, the system response
変形例3では、制御部110は、ユーザの発話数を計数する発話数計数部としても機能する。発話数計数部は、記憶部120に記憶されているユーザ発話文履歴121の「ユーザ」の項目を参照し、各ユーザのユーザ発話文の数を数える。そして、ユーザ発話文の数が最も多いユーザを代表ユーザに選出する。
In the third modification, the
そして、システム応答文生成部114は、頻出文末表現、助詞の有無、頻出フィラーを取得する際に、ユーザ発話文履歴121に含まれているデータのうち、現在対話中のユーザのデータを対象にするのではなく、発話計数部が選出した代表ユーザのデータを対象にする。
Then, the system response
上述のように、代表ユーザの頻出文末表現、助詞の有無、頻出フィラーを取得して、それを用いてシステム応答文を変換することにより、変形例3に係る対話装置は、対話頻度が最も多いユーザの口癖を真似たシステム応答文でユーザに応答することになる。すると、他人よりも自分の口癖を真似て欲しいと思うユーザに対して、ユーザの対話意欲を駆り立てることが可能となり、各ユーザに親近感を感じさせることができる。したがって、変形例3に係る対話装置は、ユーザに親近感を感じさせるための技術を改善することができる。 As described above, the dialog device according to the third modification has the most frequent conversation frequency by acquiring the frequently used sentence end expression of the representative user, presence or absence of particles, and frequently used fillers and converting the system response sentence using them It will respond to the user with a system response statement that mimics the user's whistle. Then, it is possible to inspire the user's willingness to interact with the user who wants to imitate his / her own whistling than others, and can make each user feel a sense of closeness. Therefore, the dialogue apparatus concerning modification 3 can improve the art for making a user feel a sense of closeness.
(その他の変形例)
なお、本発明は、上述の実施形態に限られるものではなく、様々な変更が可能である。例えば、上述の実施形態では、ユーザ表現特徴を文末表現、助詞の有無、フィラーという3つの観点で捉えていたが、これに限られない。例えば、一人称の表現(「私」、「僕」等)、二人称の表現(「あなた」、「君」等)等についても、ユーザ表現特徴として用いても良い。このようにすることで、ユーザの表現をより反映することができ、対話装置はユーザに親近感をより感じさせることができる。
(Other modifications)
In addition, this invention is not limited to the above-mentioned embodiment, A various change is possible. For example, in the above-mentioned embodiment, although a user expression feature was caught from three viewpoints of a sentence end expression, the existence of a particle, and a filler, it is not restricted to this. For example, first-person expressions ("I", "I", etc.), second-person expressions ("you", "you", etc.), etc. may also be used as user expression features. By doing this, the user's expression can be reflected more, and the interactive device can make the user feel more familiar.
また、上述の対話制御処理(図11)のステップS221の処理を行う際に、ステップS222の処理も一緒に行うことによって、標準的な表現のシステム応答文を変換する手順を踏まずに、直接ユーザのユーザ表現特徴を反映させたシステム応答文を生成しても良い。 In addition, when performing the process of step S221 of the above-mentioned dialogue control process (FIG. 11), the process of step S222 is also performed together to directly convert the system response sentence of the standard expression without directly following the procedure. A system response sentence reflecting the user expression feature of the user may be generated.
また、上述の実施形態では、対話装置100がユーザ識別部116を備え、カメラ22又はマイク21でユーザ識別を行い、ユーザ毎のユーザ発話文履歴121を記憶した。しかし、対話装置が特定のユーザ専用で使用されることを想定されている場合は、ユーザ識別部116を備える必要はない。この場合はカメラ22も不要であり、ユーザ発話文履歴121に「ユーザ」の項目を設ける必要もない。
Further, in the above-described embodiment, the
また、上述の実施形態では、対話制御処理(図11)のステップS201で毎回ユーザを識別しているが、これに限られない。対話装置100が起動直後に、対話制御処理(図11)のステップS201のみに相当するユーザ識別処理を行って、対話ユーザを識別しておき、その後はステップS201を省略した対話制御処理を行っても良い。そして、ユーザ識別処理においては、対話装置100が「顔を見せてください」と発話することによって、ユーザに顔をカメラ22に向けてもらっても良い。また対話装置100が、起動後に、「あなたの名前を教えてください」と発話して、カメラ22を使用せずに、マイク21を使用して、音声認識によってユーザ識別を行っても良い。
Moreover, in the above-mentioned embodiment, although the user is identified each time in step S201 of the dialog control process (FIG. 11), the present invention is not limited to this. Immediately after the
また、いずれのユーザ識別処理においてもユーザを識別できなかった場合のために、対話装置100は、例えば「デフォルトユーザ」のようなユーザ名を定義しておき、識別不能のユーザのユーザ名は「デフォルトユーザ」等として扱うことにしても良い。
Further, in the case where the user can not be identified in any of the user identification processes, the
また、上述の実施形態では、対話装置100が移動可能なロボットであり、センサ群24、首関節31、足回り部32等を備えることで、様々な動作を行うことができた。しかし、対話装置は移動等の様々な動作を行えなくても、ユーザと対話ができるだけでも良い。この場合、センサ群24、首関節31、足回り部32は不要である。
Further, in the above-described embodiment, the
なお、対話装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、対話装置100が行う対話制御処理等のプログラムが、記憶部120のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
Each function of
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalents thereof. Be In the following, the invention described in the original claims of the present application is appended.
(付記1)
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析部と、
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える対話装置。
(Supplementary Note 1)
A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Interactive device comprising:
(付記2)
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記1に記載の対話装置。
(Supplementary Note 2)
The system response sentence generation unit generates a system response sentence using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit.
The interactive apparatus as described in
(付記3)
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と同じ表現である、
付記2に記載の対話装置。
(Supplementary Note 3)
An expression corresponding to the user expression feature is the same expression as the user expression feature.
The interactive apparatus as described in appendix 2.
(付記4)
前記ユーザ表現特徴に対応する表現は、前記ユーザ表現特徴と対照的な表現である、
付記2に記載の対話装置。
(Supplementary Note 4)
An expression corresponding to the user expression feature is an expression that contrasts with the user expression feature.
The interactive apparatus as described in appendix 2.
(付記5)
前記言語解析部は、前記ユーザ発話文の種別を示す情報である発話種別をさらに取得し、
前記履歴格納部は、前記ユーザ発話文と前記ユーザ表現特徴と前記言語解析部が取得した発話種別の履歴をユーザ発話文履歴として前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴から、前記発話種別毎に前記ユーザ表現特徴の出現頻度を算出し、前記言語解析部が取得した発話種別における前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記2から4のいずれか1つに記載の対話装置。
(Supplementary Note 5)
The language analysis unit further acquires an utterance type, which is information indicating the type of the user utterance text,
The history storage unit stores the history of the user utterance sentence, the user expression feature, and the utterance type acquired by the language analysis unit in the storage unit as a user utterance sentence history.
The system response sentence generation unit calculates the appearance frequency of the user expression feature for each of the utterance types from the user utterance sentence history stored in the history storage unit, and the user expression in the utterance types acquired by the language analysis unit A system response sentence is generated using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency.
The interactive device according to any one of appendices 2 to 4.
(付記6)
ユーザを識別するユーザ識別部をさらに備え、
前記履歴格納部は、前記ユーザ識別部が識別したユーザ毎にユーザ発話文履歴を前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記ユーザ識別部が識別したユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記2から5のいずれか1つに記載の対話装置。
(Supplementary Note 6)
It further comprises a user identification unit for identifying the user,
The history storage unit stores a user utterance sentence history in the storage unit for each user identified by the user identification unit.
The system response sentence generation unit corresponds to the user expression feature whose appearance frequency of the user expression feature of the user identified by the user identification unit is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit. Create a system response statement using the
The interactive device according to any one of appendices 2 to 5.
(付記7)
各ユーザの発話数を計数する発話数計数部をさらに備え、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記発話数計数部が計数した発話数が最も多いユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
付記6に記載の対話装置。
(Appendix 7)
The system further comprises an utterance number counting unit that counts the number of utterances of each user,
The system response sentence generation unit is configured such that, among the user utterance sentence histories stored in the history storage unit, the appearance frequency of the user expression feature of the user with the largest number of utterances counted by the utterance number counting unit is a reference frequency or more Generating a system response sentence using an expression corresponding to the user expression feature,
The interactive apparatus as described in appendix 6.
(付記8)
前記ユーザ表現特徴は、前記ユーザ発話文の文末表現、前記ユーザ発話文の助詞使用パターン、前記ユーザ発話文に含まれるフィラー、のうちの少なくとも1つである、
付記1から7のいずれか1つに記載の対話装置。
(Supplementary Note 8)
The user expression feature is at least one of a sentence end expression of the user utterance sentence, a particle use pattern of the user utterance sentence, and a filler included in the user utterance sentence.
The interactive device according to any one of appendices 1-7.
(付記9)
ユーザが発話したユーザ発話文の履歴に基づき、前記ユーザ発話文に出現する頻度が高い特徴的な文末表現、助詞使用パターン又はフィラーに対応する表現を用いて生成したシステム応答文を出力する対話方法。
(Appendix 9)
A dialog method for outputting a system response sentence generated using a characteristic sentence end expression, a particle use pattern or an expression corresponding to a filler that frequently appears in the user's utterance sentence based on a history of a user's utterance sentence uttered by the user .
(付記10)
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップと、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップと、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップと、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップと、
を含む対話方法。
(Supplementary Note 10)
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storing step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step for outputting the system response sentence generated in the system response sentence generation step;
Interactive method including:
(付記11)
コンピュータに、
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップ、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップ、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップ、及び、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップ、
を実行させるためのプログラム。
(Supplementary Note 11)
On the computer
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature which is information indicating a feature of an expression included in the user's utterance sentence;
A history storage step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step of outputting the system response sentence generated in the system response sentence generation step;
A program to run a program.
20…頭、21…マイク、22…カメラ、23…スピーカ、24…センサ群、30…胴体、31…首関節、32…足回り部、33…操作ボタン、100…対話装置、110…制御部、111…音声認識部、112…言語解析部、113…履歴格納部、114…システム応答文生成部、115…システム応答文出力部、116…ユーザ識別部、120…記憶部、121…ユーザ発話文履歴、U…ユーザ
Claims (11)
前記言語解析部が取得した前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納部と、
前記履歴格納部が格納したユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成部と、
前記システム応答文生成部が生成したシステム応答文を出力するシステム応答文出力部と、
を備える対話装置。 A language analysis unit that language-analyzes a user's utterance sentence and acquires a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storage unit that stores the history of the user expression feature acquired by the language analysis unit as a user utterance sentence history in a storage unit;
A system response sentence generation unit that generates a system response sentence based on the user utterance sentence history stored in the history storage unit;
A system response sentence output unit that outputs a system response sentence generated by the system response sentence generation unit;
Interactive device comprising:
請求項1に記載の対話装置。 The system response sentence generation unit generates a system response sentence using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit.
An interactive device according to claim 1.
請求項2に記載の対話装置。 An expression corresponding to the user expression feature is the same expression as the user expression feature.
An interactive device according to claim 2.
請求項2に記載の対話装置。 An expression corresponding to the user expression feature is an expression that contrasts with the user expression feature.
An interactive device according to claim 2.
前記履歴格納部は、前記ユーザ発話文と前記ユーザ表現特徴と前記言語解析部が取得した発話種別の履歴をユーザ発話文履歴として前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴から、前記発話種別毎に前記ユーザ表現特徴の出現頻度を算出し、前記言語解析部が取得した発話種別における前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項2から4のいずれか1項に記載の対話装置。 The language analysis unit further acquires an utterance type, which is information indicating the type of the user utterance text,
The history storage unit stores the history of the user utterance sentence, the user expression feature, and the utterance type acquired by the language analysis unit in the storage unit as a user utterance sentence history.
The system response sentence generation unit calculates the appearance frequency of the user expression feature for each of the utterance types from the user utterance sentence history stored in the history storage unit, and the user expression in the utterance types acquired by the language analysis unit A system response sentence is generated using an expression corresponding to the user expression feature whose appearance frequency is equal to or higher than a reference frequency.
The interactive device according to any one of claims 2 to 4.
前記履歴格納部は、前記ユーザ識別部が識別したユーザ毎にユーザ発話文履歴を前記記憶部に格納し、
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記ユーザ識別部が識別したユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項2から5のいずれか1項に記載の対話装置。 It further comprises a user identification unit for identifying the user,
The history storage unit stores a user utterance sentence history in the storage unit for each user identified by the user identification unit.
The system response sentence generation unit corresponds to the user expression feature whose appearance frequency of the user expression feature of the user identified by the user identification unit is equal to or higher than a reference frequency in the user utterance sentence history stored in the history storage unit. Create a system response statement using the
The interactive device according to any one of claims 2 to 5.
前記システム応答文生成部は、前記履歴格納部が格納したユーザ発話文履歴の中で、前記発話数計数部が計数した発話数が最も多いユーザの前記ユーザ表現特徴の出現頻度が基準頻度以上の前記ユーザ表現特徴に対応する表現を用いてシステム応答文を生成する、
請求項6に記載の対話装置。 The system further comprises an utterance number counting unit that counts the number of utterances of each user,
The system response sentence generation unit is configured such that, among the user utterance sentence histories stored in the history storage unit, the appearance frequency of the user expression feature of the user with the largest number of utterances counted by the utterance number counting unit is a reference frequency or more Generating a system response sentence using an expression corresponding to the user expression feature,
The interactive device according to claim 6.
請求項1から7のいずれか1項に記載の対話装置。 The user expression feature is at least one of a sentence end expression of the user utterance sentence, a particle use pattern of the user utterance sentence, and a filler included in the user utterance sentence.
The interactive device according to any one of claims 1 to 7.
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップと、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップと、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップと、
を含む対話方法。 A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature that is information indicating a feature of an expression included in the user's utterance sentence;
A history storing step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step for outputting the system response sentence generated in the system response sentence generation step;
Interactive method including:
ユーザ発話文を言語解析して前記ユーザ発話文に含まれる表現の特徴を示す情報であるユーザ表現特徴を取得する言語解析ステップ、
前記言語解析ステップで取得された前記ユーザ表現特徴の履歴をユーザ発話文履歴として記憶部に格納する履歴格納ステップ、
前記履歴格納ステップで格納されたユーザ発話文履歴に基づいてシステム応答文を生成するシステム応答文生成ステップ、及び、
前記システム応答文生成ステップで生成されたシステム応答文を出力するシステム応答文出力ステップ、
を実行させるためのプログラム。 On the computer
A language analysis step of linguistically analyzing a user's utterance sentence to acquire a user expression feature which is information indicating a feature of an expression included in the user's utterance sentence;
A history storage step of storing the history of the user expression feature acquired in the language analysis step as a user utterance sentence history in a storage unit;
A system response sentence generation step of generating a system response sentence based on the user utterance sentence history stored in the history storage step;
A system response sentence output step of outputting the system response sentence generated in the system response sentence generation step;
A program to run a program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017185357A JP6977445B2 (en) | 2017-09-26 | 2017-09-26 | Dialogue device, dialogue method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017185357A JP6977445B2 (en) | 2017-09-26 | 2017-09-26 | Dialogue device, dialogue method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019061050A true JP2019061050A (en) | 2019-04-18 |
JP6977445B2 JP6977445B2 (en) | 2021-12-08 |
Family
ID=66176603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017185357A Active JP6977445B2 (en) | 2017-09-26 | 2017-09-26 | Dialogue device, dialogue method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6977445B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598041A (en) * | 2019-09-06 | 2019-12-20 | 广州努比互联网科技有限公司 | FlACS real-time analysis method and device |
JP2021182039A (en) * | 2020-05-18 | 2021-11-25 | 日本電信電話株式会社 | Response sentence generation device, reinforcement learning device, response sentence generation method, model generation method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125900A (en) * | 1999-10-29 | 2001-05-11 | Yazaki Corp | Interactive system, interactive method and bi-directional interactive system, bi-directional interactive method and recording medium |
JP2002041084A (en) * | 2000-07-26 | 2002-02-08 | Victor Co Of Japan Ltd | Interactive speech processing system |
JP2004184788A (en) * | 2002-12-05 | 2004-07-02 | Casio Comput Co Ltd | Voice interaction system and program |
JP2016109897A (en) * | 2014-12-08 | 2016-06-20 | シャープ株式会社 | Electronic equipment, speech production control method and program |
-
2017
- 2017-09-26 JP JP2017185357A patent/JP6977445B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125900A (en) * | 1999-10-29 | 2001-05-11 | Yazaki Corp | Interactive system, interactive method and bi-directional interactive system, bi-directional interactive method and recording medium |
JP2002041084A (en) * | 2000-07-26 | 2002-02-08 | Victor Co Of Japan Ltd | Interactive speech processing system |
JP2004184788A (en) * | 2002-12-05 | 2004-07-02 | Casio Comput Co Ltd | Voice interaction system and program |
JP2016109897A (en) * | 2014-12-08 | 2016-06-20 | シャープ株式会社 | Electronic equipment, speech production control method and program |
Non-Patent Citations (1)
Title |
---|
西田潤他: "同調的音声対話システムのためのユーザに特徴的な発話フレーズの検出", 情報処理学会研究報告[DVD−ROM], vol. Vol.2013-ICS-171,No.1, JPN6020024187, April 2013 (2013-04-01), pages 1 - 4, ISSN: 0004566438 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598041A (en) * | 2019-09-06 | 2019-12-20 | 广州努比互联网科技有限公司 | FlACS real-time analysis method and device |
JP2021182039A (en) * | 2020-05-18 | 2021-11-25 | 日本電信電話株式会社 | Response sentence generation device, reinforcement learning device, response sentence generation method, model generation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6977445B2 (en) | 2021-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102627948B1 (en) | Automated assistants that accommodate multiple age groups and/or vocabulary levels | |
US20200279553A1 (en) | Linguistic style matching agent | |
CN107053186B (en) | Dialogue device, robot, dialogue method, and storage medium | |
Taylor | Text-to-speech synthesis | |
JP6719739B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
AU2015248713A1 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
Aneja et al. | Understanding conversational and expressive style in a multimodal embodied conversational agent | |
JP6682104B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
WO2018163645A1 (en) | Dialogue method, dialogue system, dialogue device, and program | |
JPWO2019160100A1 (en) | Non-verbal information generator, non-verbal information generation model learning device, method, and program | |
Aylett et al. | Building and designing expressive speech synthesis | |
JPWO2019160105A1 (en) | Non-verbal information generator, non-verbal information generation model learning device, method, and program | |
JP2019045867A (en) | Voice control method, voice control device, and program | |
JP6977445B2 (en) | Dialogue device, dialogue method and program | |
Gasparini et al. | Sentiment recognition of Italian elderly through domain adaptation on cross-corpus speech dataset | |
JP6601625B2 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
JPWO2019160104A1 (en) | Non-verbal information generator, non-verbal information generation model learning device, method, and program | |
JP6660770B2 (en) | Dialogue systems and programs | |
JP7172168B2 (en) | Dialogue device, dialogue device control method and program | |
JP2019061487A (en) | Interaction apparatus, interaction method, and program | |
JP2006330060A (en) | Speech synthesizer, speech processor, and program | |
WO2019044534A1 (en) | Information processing device and information processing method | |
JP5251132B2 (en) | Response generation apparatus and response generation program | |
Aller et al. | Adapting Audiovisual Speech Synthesis to Estonian | |
CN117219069A (en) | Man-machine interaction method and device, computer readable storage medium and terminal equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |