JP2016090776A - Response generation apparatus, response generation method, and program - Google Patents
Response generation apparatus, response generation method, and program Download PDFInfo
- Publication number
- JP2016090776A JP2016090776A JP2014224168A JP2014224168A JP2016090776A JP 2016090776 A JP2016090776 A JP 2016090776A JP 2014224168 A JP2014224168 A JP 2014224168A JP 2014224168 A JP2014224168 A JP 2014224168A JP 2016090776 A JP2016090776 A JP 2016090776A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- intimacy
- response
- response generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は応答生成装置、応答生成方法およびプログラムに関し、特に音声対話ロボット等において親密度に応じた感情推定を行い、応答を生成する技術に関する。 The present invention relates to a response generation apparatus, a response generation method, and a program, and more particularly to a technique for generating a response by performing emotion estimation according to intimacy in a voice interactive robot or the like.
特許文献1には、感情をこめて対話を行うロボット装置が開示されている。ロボット装置は、親密度データベースを保持しており、ユーザのインタラクションに応じて、ユーザとロボット装置間の親密度を更新する。インタラクションとは、ユーザのロボット装置に対する接し方のことであり、なでる、たたく、食事を提供する、話しかける、ボール遊びをする、等の動作をいう。ロボット装置は、これらのインタラクションが行われた回数や時間に基づいて親密度を更新する。 Patent Document 1 discloses a robot apparatus that performs dialogue with emotion. The robot apparatus holds a closeness database, and updates the closeness between the user and the robot apparatus in accordance with the user's interaction. The interaction refers to how the user touches the robot apparatus, and refers to actions such as stroking, hitting, providing a meal, talking, playing a ball, and the like. The robot apparatus updates the intimacy based on the number and time of these interactions.
また、ロボット装置は、ユーザの発話を認識し、対話データベースに定義された応答文一覧表から、親密度に応じた応答文を選択する。そして、ユーザの発話内容から推定される感情に応じて、応答文の語尾や抑揚を変化させた応答を行う。 Also, the robot apparatus recognizes the user's utterance and selects a response sentence corresponding to the familiarity from the response sentence list defined in the dialogue database. And the response which changed the ending and the inflection of the response sentence according to the emotion estimated from the user's utterance content is performed.
ここで、ロボット装置が用いる応答文一覧表は、親密度によらず、感情の種類や数は一定である。 Here, in the response sentence list used by the robot apparatus, the types and number of emotions are constant regardless of the familiarity.
特許文献1記載のロボット装置は、親密度と、ユーザの感情と、に応じて定義された応答文を一覧表から選択する。ここで、親密度に対応付けられた感情の種類や数は、親密度に関わらず一定である。そのため、ロボット装置側からの応答のバリエーションが限られるという問題があった。 The robot apparatus described in Patent Literature 1 selects a response sentence defined according to the familiarity and the user's emotion from a list. Here, the type and number of emotions associated with intimacy are constant regardless of intimacy. For this reason, there is a problem that variations in response from the robot apparatus side are limited.
すなわち、ロボット装置が推定できる感情の種類や数が一定であるので、ユーザとより親密になったとしても、ユーザの感情に一定以上踏み込んだ応答ができない。また、さほど親密でないにもかかわらず感情に踏み込みすぎて違和感を与えてしまうこともあり、親密度に応じた距離感を保つ会話が困難であった。これは、親密度に応じて、ユーザの感情への共感の度合いを変化させることができず、適切な応答の選択ができていなかったことに問題がある。 That is, since the types and number of emotions that can be estimated by the robot apparatus are constant, even if the robot device is more intimate with the user, it cannot respond to the emotion of the user more than a certain amount. In addition, even though it is not so intimate, it sometimes gives a sense of incongruity due to too much emotion, making conversation difficult to maintain a sense of distance according to intimacy. This is problematic in that the degree of empathy for the user's emotion cannot be changed according to the familiarity, and an appropriate response has not been selected.
本発明にかかる応答生成装置は、ユーザの発話内容を認識する音声認識部と、前記発話内容に基づいて前記ユーザの感情の種類を推定する感情推定部と、前記推定された感情の種類に応じた応答文を生成する応答生成部と、を有する応答生成装置であって、前記ユーザとの親密度と、複数の感情の種類の組合せと、が対応付けられた感情分類データベースをさらに有し、前記組合せに含まれる感情の種類は、前記ユーザとの親密度の違いに応じて異なっており、前記感情推定部は、感情分類データベースを参照して、前記親密度に応じた前記組合せから、前記発話内容に応じた感情の種類を選択することによって前記ユーザの感情を推定する。 The response generation apparatus according to the present invention includes a voice recognition unit that recognizes a user's utterance content, an emotion estimation unit that estimates a user's emotion type based on the utterance content, and the estimated emotion type. A response generation unit that generates a response sentence, and further includes an emotion classification database in which a closeness with the user and a combination of a plurality of emotion types are associated with each other, The types of emotions included in the combination are different according to a difference in intimacy with the user, and the emotion estimation unit refers to an emotion classification database from the combination according to the intimacy, The user's emotion is estimated by selecting the type of emotion according to the utterance content.
すなわち、本発明の応答生成装置は、ユーザとの親密度を推定し、親密度によって感情推定のための感情分類を変化させ、もって応答を変化させる。具体的には、ユーザと親密度が高い場合は、より詳細な感情の種類を用いることにより、より深い感情推定をし、応答を行う。一方、親密度が低い場合は、表面的な浅い感情推定や印象推定をし、応答を行う。 That is, the response generation apparatus of the present invention estimates the familiarity with the user, changes the emotion classification for emotion estimation according to the familiarity, and changes the response accordingly. Specifically, when the closeness with the user is high, a deeper emotion estimation is performed and a response is made by using a more detailed emotion type. On the other hand, when the intimacy is low, superficial shallow emotion estimation and impression estimation are performed and a response is made.
本発明により、ユーザとの親密度に応じ異なる方法で感情推定を行い、応答を生成する応答生成装置、応答生成方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide a response generation device, a response generation method, and a program that perform emotion estimation using different methods according to intimacy with a user and generate a response.
以下、図面を参照して本発明の実施の形態について説明する。
はじめに、図1のブロック図を用いて、本発明の実施の形態にかかる応答生成装置100の構成について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
First, the configuration of the
応答生成装置100は、ユーザの発話を認識して応答を返す装置であり、典型的には音声対話ロボット装置である。応答生成装置100は、例えば中央処理装置(CPU)、揮発性又は不揮発性のメモリ、及び音声入出力装置(マイク、スピーカ、A/D及びD/A変換装置等)等を含み、CPUがメモリに格納されたプログラムに従って情報処理を実行することにより、目的とする種々の機能を実現することができる。
The
応答生成装置100は、少なくとも音声認識部101、親密度算出部102、親密度データベース103、感情推定部104、感情分類データベース105、応答生成部106を含む。さらに音声合成部107を含んでも良い。
The
音声認識部101は、ユーザの発話内容を認識する処理を行う。すなわち、音声認識部101は、ユーザの発話を音声データとして入力し、音声データからテキストデータを生成する処理を行う。なお、典型的には、マイクがユーザの発話をアナログ音声信号として取得し、A/D変換装置がアナログ音声信号を音声データに変換して、音声認識部101に入力する。音声データからのテキストデータの生成は、公知の種々の音声認識技術等により実現可能である。
The
感情推定部104は、音声認識部101が生成したテキストデータを利用してユーザの発話内容を解析し、ユーザの感情を推定する処理を行う。親密度算出部102は、感情推定部104による感情推定結果を含む、ユーザとの対話に関する情報を用いて、ユーザとの親密度を算出する処理を行う。親密度算出部102は、ユーザとの対話に関する情報や親密度を後述の親密度データベース103に記録する。
The
あるいは、親密度算出部102は、特許文献1記載の従来技術のように、ユーザとのインタラクションに応じてユーザとの親密度を算出しても良い。この場合、親密度算出部102は、感情推定部104による感情推定処理を要せずに親密度の更新を実施できる。
Alternatively, the
親密度データベース103は、ユーザとの対話に関する情報や親密度を記録する記憶手段である。
The
感情推定部104は、親密度算出部102が親密度を算出した後、後述の感情分類データベース105を参照して、再度、ユーザの感情の推定を行う。すなわち、感情の種類を特定する。親密度が高いほど、より深い感情推定を行い、親密度が低いほど、より表面的な感情推定や印象推定を行う。
The
感情分類データベース105は、親密度毎に、異なる感情の種類の組合せを定義している記憶手段である。感情の種類については、親密度が高いほど深く詳細な感情が、親密度が低いほど表面的な感情又は印象が定義されている。
The
応答生成部106は、親密度算出部102が算出したユーザとの親密度と、感情推定部104が推定したユーザの感情とに応じ、当該ユーザに対する応答文を生成する処理を行う。応答文は、典型的にはテキストデータである。
The
音声合成部107は、応答生成部106が生成した応答文を音声データに変換する。テキストデータからの音声データの生成は、公知の種々の音声合成技術等により実現可能である。その後、典型的にはD/A変換装置が音声データをアナログ音声信号に変換し、スピーカがアナログ音声信号を音声として出力する。
The
つぎに、図2のフローチャートを用いて、本発明の実施の形態にかかる応答生成装置100の動作について説明する。
Next, the operation of the
S101:音声認識
ユーザが、応答生成装置100に対して発話を行う。音声認識部101は、ユーザの発話内容を入力、認識し、テキストデータを生成する。
S101: Voice recognition A user speaks to the
具体的には、マイクがユーザの発話をアナログ音声信号として取得し、A/D変換装置がアナログ音声信号を音声データに変換する。音声認識部101は、この音声データを入力し、公知の種々の音声認識技術等を利用して音声データをテキストデータに変換する。例えば、ユーザが「昨日、友達にプレゼントをもらったんだ」と発話すると、音声認識部101は「昨日、友達にプレゼントをもらったんだ」という内容のテキストデータを生成する。
Specifically, the microphone acquires the user's utterance as an analog voice signal, and the A / D converter converts the analog voice signal into voice data. The
S102:感情推定(1)
感情推定部104が、S101で生成されたテキストデータを解析し、ユーザの感情の推定を試みる。ユーザの発話内容のテキストデータを解析し、ユーザの感情を推定する手法としては種々の方法が公知であり、本発明はいずれかの感情推定手法に限定されるものではない。上記感情推定方法のひとつとして、「Webから獲得した感情生起要因コーパスに基づく感情推定」(徳久良子ほか,言語処理学会第14回年次大会論文集,2008年3月)がある。
S102: Emotion estimation (1)
The
感情推定部104は、上記感情推定処理により、ユーザの感情の種類を推定する。例えば、「昨日、友達にプレゼントをもらったんだ」というテキストデータからは、「嬉しい」という種類の感情が推定される。この他、テキストデータの内容に応じ、「楽しい」、「嫌」等の様々な種類の感情が推定され得る。
The
なお、S102における感情推定は、後述の感情分類データベース105を用いた精緻な感情推定を必ずしも要しない。上述のような公知の感情推定方法により、何らかの感情が推定できれば足りる。無論、後述する感情分類データベース105を用いた精緻な感情推定を用いても構わない。
Note that the emotion estimation in S102 does not necessarily require precise emotion estimation using the
S103:親密度算出
親密度算出部102が、親密度データベース103に既に記録されている情報と、S102で推定されたユーザの感情に基づいて、親密度を算出する。
S103: Intimacy Calculation The
ここで、親密度データベース103は、現在までの、ユーザの発話回数及び感情の種類毎の推定回数(感情出現回数)を累積的に記録している。また、親密度データベース103は、過去に算出されたユーザとの親密度を記録していても良い。なお、発話するユーザが複数存在する場合は、親密度データベース103は、上記情報をユーザ毎にそれぞれ記録することができる。
Here, the
親密度算出部102は、親密度データベース103から、現在までのユーザの発話回数、及び、各感情の種類の出現回数を取得する。ここで、S102において何らかの感情が推定されたならば、当該感情の種類の出現回数を更新(+1)する。さらに、発話数を更新(+1)する。そして、親密度算出部102は、更新された発話数及び感情出現回数を用いて、例えば以下の算出式により親密度を算出する。
親密度 = 感情出現回数 / 発話回数
例えば、これまでの発話回数が20回であり、感情の種類として「嬉しい」が12回、「楽しい」が3回、「嫌」が2回それぞれ推定されている場合、親密度は
(12 + 3 + 2) / 20 =0.85
となる。
The
Intimacy = number of emotion appearances / number of utterances For example, the number of utterances so far has been estimated to be 20 times, and “joyful” is estimated as 12 emotions, “fun” is 3 times, and “dislike” is estimated twice. The intimacy is (12 + 3 + 2) /20=0.85
It becomes.
この算出式によれば、親密度は0乃至1.0の数値で表される。親密度が1.0に近いほど、ユーザとの親密度が高いことを意味する。 According to this calculation formula, the familiarity is represented by a numerical value of 0 to 1.0. The closer the familiarity is to 1.0, the higher the familiarity with the user.
親密度算出部102は、S103において更新された発話回数、感情出現回数を親密度データベース103に記録する。S103において算出した親密度を併せて記録しても良い。
The
なお、上述したS102及びS103の処理に代えて、親密度算出部102は、特許文献1記載の従来技術のように、ユーザとのインタラクションに基づいてユーザとの親密度を算出しても良い。あるいは、他の任意の公知の技術を用いて、ユーザとの親密度を算出することとしても良い。
Instead of the processing of S102 and S103 described above, the
S104:感情推定(2)
感情推定部104は、親密度算出部102が算出した親密度を用い、感情分類データベース105を参照して、再度、ユーザの感情の推定を行う。ここでの感情推定は、ユーザとの親密度に応じ、異なる感情の種類の組合せを用いて行う。親密度と、感情の種類の組合せとの対応は、感情分類データベース105において定義される。
S104: Emotion estimation (2)
The
感情分類データベース105は、親密度のレベルに応じて、異なる感情の種類の組合せを保持している。例えば、親密度が高度(例えば0.8以上)である場合に用いられる感情の種類として、「嬉しい」「好き」「安心」「悲しい」「嫌い」「不安」「辛い」「寂しい」等が設定されている。また、親密度が中程度(例えば0.5以上)である場合に用いられる感情の種類として、「楽しい」「面白い」「つまらない」「退屈」「綺麗」「汚い」等が設定されている。さらに、親密度が低度(0.5未満)である場合に用いられる感情の種類として、「いい」「素敵」「すごい」等が設定されている。
The
ここで、感情分類データベース105においては、親密度が高いほど、より深く詳細な感情が、親密度が低いほど、より表面的な感情又は印象が、それぞれ設定されることが好ましい。すなわち、親密度が高くなるほど、感情の種類の数が多く設定される。また、親密度が高くなるほど、より深い内面の感情を示すような、感情の種類が用いられる。
Here, in the
感情推定部104は、S101で生成されたテキストデータを再度解析し、ユーザの感情の推定を行う。ユーザの発話内容のテキストデータを解析し、ユーザの感情を推定する手法としては種々の方法が公知であり、本発明はいずれかの感情推定手法に限定されるものではない。上記感情推定方法のひとつとして、「Webから獲得した感情生起要因コーパスに基づく感情推定」(徳久良子ほか,言語処理学会第14回年次大会論文集,2008年3月)がある。
The
但し、感情推定部104はここで、感情分類データベース105に定義された感情の種類から適切なものを選択することにより、感情推定結果を生成する。すなわち、感情推定部104はまず、感情分類データベース105を参照し、親密度算出部102が算出した親密度に対応付けられた感情の種類の組合せを取得する。ついで、感情推定部104は、公知の感情推定手法を用いて、上述の感情の種類の組合せを候補として、感情を推定する。すなわち、感情の種類の組合せの中から、適切な感情を選択する。
However, the
例えば、親密度算出部102が算出した親密度が「0.85」であれば、感情推定部104はまず、感情分類データベース105において親密度が高度(0.8以上)な場合に対応付けられている感情の種類の組合せ、「嬉しい」「好き」「安心」「悲しい」「嫌い」「不安」「辛い」「寂しい」を取得する。ついで、これらの感情の種類の組合せを推定結果の候補として、公知の手法による感情推定を実施する。結果として、感情推定部104は上述の感情の種類の組合せから、例えば「嬉しい」をユーザの感情として推定することができる。
For example, if the familiarity calculated by the
S105:応答生成
応答生成部106は、S104で推定されたユーザの感情に応じた応答文を生成する。例えば、ユーザの感情推定結果が「嬉しい」であれば、「それは嬉しかったね。」という応答文を作成することができる。あるいは、ユーザの感情推定結果が「いい」であれば、「いいね。」という応答文を作成することができる。
S105: Response Generation The
さらには、例えば親密度が所定のレベル以上である場合などに、ユーザの話を深堀りするための問い返しを含む応答文を生成しても良い。例えば、「それは嬉しかったね。」「何を貰ったの?」という応答文を生成することができる。 Furthermore, for example, when the intimacy is a predetermined level or higher, a response sentence including a question answer for deepening the user's story may be generated. For example, it is possible to generate a response sentence such as “I was happy about it” or “What are you talking about?”.
応答生成部106は、典型的には、図示しない記憶手段が保持する応答文テーブルを参照し、応答文テーブルから適切な応答文を選択することにより、応答文の生成を行うことができる。例えば、応答文テーブルは、感情の種類に対応付けられた応答文をそれぞれ含んでおり、応答生成部106は、応答文テーブルの中から、ユーザの感情の種類に予め対応付けられた応答文を選択する。例えば、「嬉しい」という感情に対応付けられている、「それは嬉しかったね。」という応答文を選択する。
Typically, the
S106:音声合成
音声合成部107は、S105で生成された応答文を、公知の音声合成技術等を用いて音声データに変換する。その後、典型的にはスピーカが、D/A変換された応答文の音声データを音声として出力する。
S106: Speech Synthesis The
本実施の形態によれば、応答生成装置100は、親密度により推定する感情、印象の種類を変化させることで、ユーザとの親密度と気持ちに沿った応答をする。具体的には、親密度がより低い相手には、より浅い感情や印象の推定を行い、距離感を保った応答をする。一方、親密度が高い相手にはより細かい感情推定をし、相手の感情に踏み込んだ応答をする。
According to the present embodiment, the
これにより、親密度が低いときは、浅い感情推定に基づく応答を行うため、感情に踏み込んだ応答を行うことがない。一方、親密度が高いときは、深い感情推定を行うことにより、感情により踏み込んだ応答ができるようになる。すなわち、親密度に応じた適切な応答を行うので、ユーザと応答生成装置100とのより円滑なコミュニケーションを実現できる。
As a result, when the intimacy is low, a response based on shallow emotion estimation is performed, and therefore, a response that goes into emotion is not performed. On the other hand, when the intimacy is high, a deeper emotion estimation makes it possible to respond more deeply to emotions. That is, since an appropriate response according to the intimacy is performed, smoother communication between the user and the
100 応答生成装置
101 音声認識部
102 親密度算出部
103 親密度データベース
104 感情推定部
105 感情分類データベース
106 応答生成部
107 音声合成部
DESCRIPTION OF
Claims (5)
前記発話内容に基づいて前記ユーザの感情の種類を推定する感情推定部と、
前記推定された感情の種類に応じた応答文を生成する応答生成部と、を有する応答生成装置であって、
前記ユーザとの親密度と、複数の感情の種類の組合せと、が対応付けられた感情分類データベースをさらに有し、
前記組合せに含まれる感情の種類は、前記ユーザとの親密度の違いに応じて異なっており、
前記感情推定部は、感情分類データベースを参照して、前記親密度に応じた前記組合せから、前記発話内容に応じた感情の種類を選択することによって前記ユーザの感情を推定する
応答生成装置。 A voice recognition unit for recognizing the user's utterance content;
An emotion estimation unit that estimates the type of emotion of the user based on the utterance content;
A response generation unit that generates a response sentence according to the estimated type of emotion,
An emotion classification database in which a closeness with the user and a combination of a plurality of emotion types are associated with each other;
The types of emotions included in the combination are different depending on the intimacy with the user,
The response estimation device, wherein the emotion estimation unit estimates an emotion of the user by selecting an emotion type corresponding to the utterance content from the combination corresponding to the familiarity with reference to an emotion classification database.
請求項1記載の応答生成装置。 The response generation device according to claim 1, wherein, in the emotion classification database, the higher the intimacy, the more the emotion type combinations include more emotion types.
請求項1又は2記載の応答生成装置。 3. The response generation device according to claim 1, wherein, in the emotion classification database, the higher the intimacy, the more a combination of the emotion types includes an emotion type indicating a deeper emotion.
前記発話内容に基づいて前記ユーザの感情の種類を推定する感情推定ステップと、
前記推定された感情の種類に応じた応答文を生成する応答生成ステップと、を有する応答生成方法であって、
前記感情推定ステップでは、
前記ユーザとの親密度と、複数の感情の種類の組合せと、が対応付けられ、前記組合せに含まれる感情の種類は、前記ユーザとの親密度の違いに応じて異なっている感情分類データベースを参照し、
前記親密度に応じた前記組合せから、前記発話内容に応じた感情の種類を選択することによって前記ユーザの感情を推定する
応答生成方法。 A speech recognition step for recognizing the user's utterance content;
An emotion estimation step of estimating the type of emotion of the user based on the utterance content;
A response generation step of generating a response sentence corresponding to the estimated type of emotion, comprising:
In the emotion estimation step,
An affinity classification database in which the intimacy with the user is associated with a combination of a plurality of emotion types, and the types of emotion included in the combination are different according to the difference in intimacy with the user. Browse
A response generation method of estimating the user's emotion by selecting a type of emotion according to the utterance content from the combination according to the familiarity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224168A JP2016090776A (en) | 2014-11-04 | 2014-11-04 | Response generation apparatus, response generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014224168A JP2016090776A (en) | 2014-11-04 | 2014-11-04 | Response generation apparatus, response generation method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016090776A true JP2016090776A (en) | 2016-05-23 |
Family
ID=56016784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014224168A Pending JP2016090776A (en) | 2014-11-04 | 2014-11-04 | Response generation apparatus, response generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016090776A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6309673B1 (en) * | 2017-06-09 | 2018-04-11 | 六月 林 | Love feeling formation device, love feeling formation method, and program for forming love feeling between device and operator |
CN112992147A (en) * | 2021-02-26 | 2021-06-18 | 平安科技(深圳)有限公司 | Voice processing method, device, computer equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104778A (en) * | 1993-10-07 | 1995-04-21 | Fuji Xerox Co Ltd | Feeling expressing device |
JP2004090109A (en) * | 2002-08-29 | 2004-03-25 | Sony Corp | Robot device and interactive method for robot device |
JP2008276543A (en) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | Interactive processing apparatus, response sentence generation method, and response sentence generation processing program |
JP2009266200A (en) * | 2008-04-24 | 2009-11-12 | Korea Advanced Inst Of Sci Technol | Apparatus and method for forming favorability rating of robot |
-
2014
- 2014-11-04 JP JP2014224168A patent/JP2016090776A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104778A (en) * | 1993-10-07 | 1995-04-21 | Fuji Xerox Co Ltd | Feeling expressing device |
JP2004090109A (en) * | 2002-08-29 | 2004-03-25 | Sony Corp | Robot device and interactive method for robot device |
JP2008276543A (en) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | Interactive processing apparatus, response sentence generation method, and response sentence generation processing program |
JP2009266200A (en) * | 2008-04-24 | 2009-11-12 | Korea Advanced Inst Of Sci Technol | Apparatus and method for forming favorability rating of robot |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6309673B1 (en) * | 2017-06-09 | 2018-04-11 | 六月 林 | Love feeling formation device, love feeling formation method, and program for forming love feeling between device and operator |
JP2018206273A (en) * | 2017-06-09 | 2018-12-27 | 六月 林 | Love emotion forming apparatus, love emotion forming method, and program for forming love emotion between apparatus and operator |
CN112992147A (en) * | 2021-02-26 | 2021-06-18 | 平安科技(深圳)有限公司 | Voice processing method, device, computer equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9653097B2 (en) | Sound output device, network system, and sound output method | |
US8972265B1 (en) | Multiple voices in audio content | |
JP2017215468A (en) | Voice interactive device and voice interactive method | |
JP2009186989A (en) | Voice interactive device and voice interactive program | |
JP2013205842A (en) | Voice interactive system using prominence | |
Fernández-Baena et al. | Gesture synthesis adapted to speech emphasis | |
JPWO2014073612A1 (en) | Conversation sentence generation device, conversation sentence generation method, and conversation sentence generation program | |
JP2018156273A (en) | Dialog system and computer program therefor | |
JP6390264B2 (en) | Response generation method, response generation apparatus, and response generation program | |
JP2016090775A (en) | Response generation apparatus, response generation method, and program | |
JPWO2014073613A1 (en) | Conversation sentence generation device, conversation sentence generation method, and conversation sentence generation program | |
JP6201212B2 (en) | Character generating apparatus and program | |
JP6028556B2 (en) | Dialog control method and computer program for dialog control | |
JP2019101065A (en) | Voice interactive device, voice interactive method and program | |
JP2016151736A (en) | Speech processing device and program | |
JP2016090776A (en) | Response generation apparatus, response generation method, and program | |
JP6709558B2 (en) | Conversation processor | |
JP2018155980A (en) | Dialogue device and dialogue method | |
JP2010282404A (en) | Device, method and program for interactive processing | |
JP2018180459A (en) | Speech synthesis system, speech synthesis method, and speech synthesis program | |
JP6295869B2 (en) | Response generation apparatus, response generation method, and program | |
KR101891495B1 (en) | Method and computer device for controlling a display to display conversational response candidates to a user utterance input, and computer readable recording medium | |
JP2018132623A (en) | Voice interaction apparatus | |
JP4751299B2 (en) | Reading information generation device, reading information generation method, reading information generation program, and speech synthesizer | |
JP2009198871A (en) | Voice interaction apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |