JP2006178063A - 対話処理装置 - Google Patents

対話処理装置 Download PDF

Info

Publication number
JP2006178063A
JP2006178063A JP2004369375A JP2004369375A JP2006178063A JP 2006178063 A JP2006178063 A JP 2006178063A JP 2004369375 A JP2004369375 A JP 2004369375A JP 2004369375 A JP2004369375 A JP 2004369375A JP 2006178063 A JP2006178063 A JP 2006178063A
Authority
JP
Japan
Prior art keywords
emotion
utterance
user
positive
negative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004369375A
Other languages
English (en)
Inventor
Ryoko Tokuhisa
良子 徳久
Ryuta Terajima
立太 寺嶌
Hiroyuki Hoshino
博之 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2004369375A priority Critical patent/JP2006178063A/ja
Publication of JP2006178063A publication Critical patent/JP2006178063A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】システムがユーザ自身に共感しているとユーザが感じ、ユーザとシステムとの間に信頼感を生じさせる対話が行なわれるようにする。
【解決手段】入力されたユーザの発話を認識し、ユーザの発話が意味する感情をポジティブ、ネガティブ、及びニュートラルのいずれか1つの感情かを推定し、推定したポジティブ、ネガティブ、及びニュートラルのいずれか1つの感情に対応する1つの発話を応答として生成し、生成した応答を出力する。
【選択図】 図1

Description

本発明は、対話処理装置にかかり、特に、音声を用いてユーザと対話する場合にユーザの感情に合わせた応答を音声によって行なうことができる対話処理装置に関する。
従来より、複雑な処理を必要とせずに、自然な会話、特に単なる相槌ではなく、相手の真意を問うような、または再考を促すような発話をしながら会話を円滑的に進めることができる会話システムが提案されている(特許文献1)。この会話システムでは、ユーザが「今日は暑苦しかった」と発話した場合には、システム(音声対話装置)は、「あなたは暑苦しいと感じましたね。」というように、ユーザが発話した形容詞や形容動詞をそのまま使用した応答を生成している。
また、従来の会話システムでは、ユーザの発話中に一定以上の無音区間が生じたタイミングで応答を生成している。したがって、例えば、ユーザが「今日は暑苦しかったけど(無音区間1)、学校の中は涼しかったよ(無音区間2)」と発話した場合、従来の会話システムでは、無音区間1が発生した時点(ユーザが「今日は暑苦しかったけど」と発話した直後)で、「あなたは暑苦しいと感じましたね。」と応答され、ユーザが更に「学校の中は涼しかったよ」と発話するつもりでいるのにシステムから応答が発せられる。
特開2004−191407号公報
しかしながら、上記従来の技術では、システムはユーザ自身の発話を単に鸚鵡返しするだけであり、真の意味でシステムがユーザの発話の内容を理解したかどうかはユーザには伝達されないので、ユーザはシステムに対して「共感」することはできない、という問題がある。ここで、共感とは、「他人の体験する感情を自分のもののように感じること」(大辞林第二版)であり、「共感」は「信頼感」と強い関係があり、カウンセラとクライアントの例について「共感」により両者の間に信頼関係が確立されることが説明されている(「感情の心理学」福井康之著、川島書店p234〜p235)。従来の会話システムでは、ユーザの感情を推定したり、推定した感情を対話に生かしたりする機能は設けられていないので、ユーザとシステムとの間に信頼感は発生しない。
また、従来の技術では、ユーザが発話を継続しようとしているにも拘わらず、システムが応答することから、対話がちぐはぐになってしまう、という問題がある。
本発明は、上記従来の問題点を解決するためになされたもので、システムがユーザの感情を推定して応答することにより、システムがユーザ自身に共感しているとユーザが感じ、ユーザとシステムとの間に信頼感を生じさせる会話が行なわれるようにした対話処理装置を提供することを第1の目的とする。
また、本発明は、無音区間の直後ではなく、述語の判定を行なった後に応答を生成することによって、適切なタイミングで応答を生成することができる、対話装置を提供することを第2の目的とする。
上記目的を達成するために本発明は、入力されたユーザの発話を認識するユーザ発話認識手段と、前記ユーザ発話認識手段で認識されたユーザの発話が意味する感情を推定する感情推定手段と、推定した感情と同一の感情を表す応答用の発話を生成する発話生成手段と、前記発話生成手段で生成された発話を合成して出力する音声合成手段と、を含んで構成されている。
本発明は、例えば、ユーザが「今日は暑苦しかった」と発話した場合にはシステム(対話処理装置)はその感情的意味が好ましくない感情状態を表すネガティブであるというように、ユーザの発話が意味する感情を推定し、例えばネガティブの応答用の発話である「大変だったね、大丈夫?」等の推定した感情と同一の感情を表す応答を返答する。これにより、システムがユーザ発話の感情的意味を適切に理解したことがユーザに伝達され、その結果ユーザとシステムとの間に共感が生まれ、ユーザとシステムとの間に信頼感を生じさせることができる。
本発明によれば、システムがユーザの感情を推定して応答しているので、システムがユーザ自身に共感しているとユーザが感じ、ユーザとシステムとの間に信頼感を生じさせるようにすることができる。
また、本発明においては、ユーザの動作及び表情の少なくとも1つを更に認識し、認識されたユーザの発話、及び認識されたユーザの動作及び表情の少なくとも1つを用いて、ユーザの発話が意味する感情を推定し、推定した感情と同一の感情を表す応答用の発話を生成して出力すると共に、推定した感情と同一の感情を表す動作及び表情の少なくとも1つを生成して提示するようにしてもよい。
また、ユーザの発話の述語部分を判定し、判定された述語部分を区切りとして、ユーザの発話が意味する感情を推定するようにしてもよくい。これにより、適切なタイミングで応答用の発話を生成することができる。
以上説明したように本発明によれば、システムがユーザの感情を推定して応答しているので、システムがユーザ自身に共感しているとユーザが感じ、ユーザとシステムとの間に信頼感を生じさせるようにすることができる、という効果が得られる。
また、本発明においては、ユーザの発話の述語部分を判定し、判定された述語部分を区切りとして、ユーザの発話が意味する感情を推定すれば、適切なタイミングで応答を生成することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
第1の実施の形態には、図1に示すように、ユーザの発話を集音して入力するためのマイクロホン10が設けられている。マイクロホン10は、データベース12に登録された音声認識用辞書に基づいて、マイクロホン10から入力されたユーザの発話を認識する発話認識部14に接続されている。
発話認識部14は、データベース16に登録された感情語辞書に基づいて、ユーザの発話の感情的な意味が、ポジティブ、ネガティブ、及びポジティブでもネガティブでもない(ニュートラル)の3つの状態のいずれかに分類して、ユーザの発話が意味する感情を推定する感情推定部18に接続されている。感情語辞書は、ポジティブ、ネガティブ、及びニュートラルのいずれか1つに分類された感情と感情語とを対応させた複数個の組から構成されている。
ここで、ポジティブやネガティブの感情状態は、形容詞、形容動詞、及び動詞等、本来の意味として感情を含む感情語によって表現される。具体的には、「楽しい」、「笑う」、「喜ぶ」等はポジティブの感情的意味を表し、一方、「退屈だ」、「つまらない」、「残念だ」等はネガティブの感情的意味を表している。本実施例においても同様であり、ポジティブは、例えば「嬉しい」とか「楽しい」等の単語(感情語)のように、好ましい感情状態、すなわち出来事が望ましい感情状態を意味し、ネガティブは、例えば「悲しい」や「寂しい」等の単語のように、ポジティブとは逆に好ましくない感情状態、すなわち出来事が望ましくない感情状態を意味する。
なお、「対人行動学研究シリーズ(4) 感情と行動・認知・生理」(土田昭司他)に、因子分析や多次元尺度解析の結果、多くの場合感情次元構造は「快−不快」(ポジティブ−ネガティブ)の次元と、「覚醒−睡眠」(活動性)の次元とで表される、と記載されているが、本実施の形態のポジティブ及びネガティブも従来の心理学の定義に順ずるものである。
データベース16には、「嬉しい=ポジティブ」、「楽しい=ポジティブ」、「悲しい=ネガティブ」、「寂しい=ネガティブ」、「退屈だ=ネガティブ」等のように感情語と3つの感情のいずれか1つの感情とを対応させて構成した感情語辞書を予め登録しておき、感情推定部18において感情語辞書を用いて発話文の感情推定を行い、例えば、ユーザが「この前の週末は楽しかったよ。」と発話した場合には、「楽しい=ポジティブ」という辞書の登録からこのユーザの発話はポジティブの意味を持つと推定する。
しかしながら、「おかしい」等のように文脈によってポジティブの意味もネガティブの意味も持つ単語も存在する。例えば、「昨日、先生が学生時代の失敗談をしてくれて、とてもおかしかったよ。」のように「面白い」の意味で「おかしい」を用いる場合には、「おかしい」はポジティブの感情を表すが、「合計金額が合わないのはおかしい」のように「快訝だ」の意味で「おかしい」を用いる場合には「おかしい」はネガティブの感情を表す。したがって、本実施の形態では、このような語は、感情語辞書には登録しない。
さらに、「見る」、「聞く」、「行く」等のように単語単独ではポジティブかネガティブかが区別できない場合がある。この場合には、感情語辞書には「見る=ニュートラル」と登録し、感情語推定部では、ポジティブでもネガティブでもない感情を表す単語として扱う。
形容詞及び形容動詞(例えば、「楽しい」、「美しい」、「綺麗だ」、及び「嫌だ」)には、その性質から感情的な意味を表現する単語が多く存在する。また、人間の動作を表す動詞の中にも、例えば、「笑う」及び「泣く」等のように感情的な意味を持つ単語が存在する。さらに、名詞にも、例えば、「合格」、「優勝」、「敗北」、及び「失格」等のように感情的な意味を持つ単語が存在する。
従って、感情辞書は、名詞、形容詞、形容動詞、及び動詞の全て、または名詞、形容詞、形容動詞、及び動詞の一部から構成される複数の感情語と、各感情語に対応するポジティブ、ネガティブ、及びニュートラルの感情のいずれか1つとを対応させて構成するのが好ましい。
上記の感情推定部18は、データベース20に登録されたポジティブ、ネガティブ、及びニュートラルの感情の各々に応じて登録された複数の応答用の単語で構成された発話用辞書に基づいて、感情推定部18で推定された感情と同一の感情を表すいずれか1つの応答用の単語を選択し、選択した単語による発話を応答として生成する発話生成部22に接続されている。発話生成部22は、応答を音声で出力するスピーカ24に接続されている。
データベース20には、「へーすごい」及び「へーいいなぁ」等のポジティブな感情に対応した応答用の単語、「それは最悪だね」及び「げー最低」等のポジティブな感情に対応した応答用の単語、「それでそれで?」等のポジティブでもネガティブでもないニュートラルな感情に対応した応答用の単語を、感情に対応させた発話用辞書が登録されている。
次に本実施の形態のシステム(対話処理装置)のユーザとの対話の処理手順について図2のフローチャートを参照して説明する。このフローチャートは、発話認識部14、感情推定部18、及び発話生成部22の処理をまとめて記載したものであり、本実施の形態では、発話認識部14、感情推定部18、及び発話生成部22を各々別々のコンピュータで構成することもできるが、別々のコンピュータに代えて、図2の処理を実行する1つのコンピュータで構成することもできる。
以下では、次の対話例1の対話を行なう場合を例にして説明する。
対話例1
ユーザ 「週末に家族で温泉に行ったよ。」
システム 「よかったね。」
ユーザ 「混雑していたけど紅葉も見頃で素敵だったよ。」
システム 「うわぁ すごい」
また、感情語辞書の上記の対話例1に関連する部分を図5に示し、発話用辞書の上記の対話例に関連する部分を図6に示す。図5に示すように、感情語辞書には、「週末」、「家族」、「温泉」、「紅葉」、「見頃」、及び「素敵」の各単語が、ポジティブの感情を示す単語として登録され、「混雑」及び「渋滞」の各単語がネガティブの感情を示す単語として登録され、単語「行く」がニュートラルの感情を示す単語として登録されている。なお、感情語辞書の各単語は、検索がし易いように品詞毎に登録されている。
また、図6に示すように、発話用辞書には、ポジティブな感情を示す応答語として「よかったね。」、「ヘーすごい。」、「うわぁ すごい」、及び「へーいいなぁ」の単語が登録され、ネガティブな感情を示す応答語として「大変だったね。」、「大丈夫?」、及び「げー最悪だね。」の単語が登録され、ニュートラルな感情を示す応答語として「それでそれで?」及び「ほぉ」の単語が登録されている。
まず、ポジティブの単語の個数をカウントするカウント値P、ネガティブの単語の個数をカウントするカウント値N、及びポジティブでもネガティブでもないニュートラルの単語の個数をカウントするカウント値Ne等のデータの初期化を行なう(ステップ100)。
ユーザが発話するとユーザの発話はマイクロホン12から入力され、マイクロホン12から入力されたユーザの発話は、発話認識部14により認識用辞書を用いて音声認識される(ステップ102)。音声認識の方法は従来と同様であり、ユーザが、対話例1に示すように、「週末に家族で温泉に行ったよ。」と発話した場合には、図4に示すように、「週末」「に」「家族」「で」「温泉」「に」「行っ」「た」「よ」の形態素列が認識されると共に、各形態素に対応する品詞が認識される。
音声認識の結果は感情推定部18に入力され、感情推定部で感情語辞書を用いて発話の感情が認識される(ステップ104)。
感情推定部での感情推定ルーチンについて図3を参照して説明する、ステップ110では、発話認識部で認識された各形態素列から自立語及び自立語の原形を抽出する。対話例1では「週末」「に」「家族」「で」「温泉」「に」「行っ」「た」「よ」の形態素列に対して、「週末」、「家族」、及び「温泉」の自立語、及び「行く」という自立語の原形が抽出される。
次のステップ112及びステップ116では、感情語辞書の認識された品詞に対応する部分を検索して、各自立語及び自立語の原形がポジティブ、ネガティブ、及びニュートラルのいずれであるかが判断され、ステップ114、ステップ118、及びステップ120の各々において、自立語及び自立語の原形がポジティブと判断されたときにはカウント値P、自立語及び自立語の原形がネガティブと判断されたときにはカウント値N、自立語及び自立語の原形がポジティブでもネガティブでもないニュートラルと判断されたときにはカウント値Neを各々1ずつインクリメントする。これにより、ポジティブの認識単語(抽出された自立語及び自立語の原形)の個数、ネガティブの認識単語の個数、及びニュートラル認識単語の個数が各々カウントされる。
ステップ122では、認識単語全てについて感情を判断し、カウントが終了したか否かを判断する。カウントが終了していないと判断された場合は、ステップ112に戻って、上記の処理を繰り返し、カウントが終了したと判断された場合には、ステップ124においてカウント値が最も大きい値に対応する感情がユーザ発話の感情であると推定し、推定した感情を示す情報を出力し、発話生成部22に入力する。
上記の対話例1では、各認識語の感情は「週末=ポジティブ」、「家族=ポジティブ」、「温泉=ポジティブ」、及び「行く=ニュートラル」であるので、カウント値P=3、カウント値N=0、カウント値Ne=1とカウントされ、最大値3を示すカウント値に対応するポジティブの感情がユーザの感情であると推定され、推定された感情を示す情報が出力される。
発話生成部22では、応答用の複数の単語の中から、発話用辞書に基づいて感情推定部18で推定された感情に対応する単語をランダムに1つ選択し、次の発話を促すような応答ようの発話、例えば「よかったね。」を生成して、スピーカ24から出力する。
システムの応答に対する次のユーザ発話に対しても上記と同様に音声認識を行い、音声認識の結果から自立語及び自立語の原形を抽出すると、「混雑」、「紅葉」、「見頃」、「素敵」の自立語が抽出され、カウント値P=3、カウント値N=1、カウント値Ne=0とカウントされるので、感情推定結果はポジティブになる。そして、発話生成部で発話用辞書からランダムに発話が選択され、スピーカから「うわぁ すごい」の発話が応答としてが出力される。
一方、上記の対話例1とは異なり、感情推定結果がネガティブの場合には、「大変だったね」または「大丈夫?」等の応答用の発話がランダムに1つ選択されて出力され、感情推定結果がニュートラルの場合には「それでそれで?」または「ほぉ」がユーザの発話の続きを促す応答用の発話として選択されてスピーカから出力される。
ここで、応答用の発話「それでそれで?」は、陽に対話の続きを促す応答であるが、「ほぉ」という応答も暗に発話を促す効力を持っている。「ほぉ」は、一般的には感心した場合に用いる相槌であるが、システムが「ほぉ」と発話することで、ユーザの発話内容にシステムが興味を持ったと感じ、ユーザは次の発話を継続する。このようにして、ユーザから多くの会話を引出すことができる。
次に、第2の実施の形態について説明する。第2の実施の形態は、上記の第1の実施の形態の感情推定部において、感情語の個数をカウントすることなく、発話中の最終感情語に基づいて感情を推定するようにしたものであるので、第1の実施の形態と同一部分については説明を省略する。
日本語では、発話末に近い部分で発話を支配する意味を表現することが多い。したがって、この変形例では、1つの発話中に複数の感情語が含まれている場合には、上記のように感情語の個数をカウントすることなく、より後に現れる感情語を優先し、最後に現れる感情語に基づいて、ユーザの発話の感情を推定する。
例えば、「温泉は気持ち良かったけど、人が多くて大変だった。」というユーザの発話があり、感情語辞書に、「温泉=ポジティブ」、「気持ち良い=ポジティブ」、及び「大変だ=ネガティブ」の感情語と感情との対応が登録されていた場合について説明すると、ユーザの発話末に近い感情語である「大変だった」を優先し、発話全体の感情を「ネガティブ」と推定する。
また、「週末温泉行って楽しかったよ。」、「温泉が気持ち良かったよ。」、「ピアノの演奏聞きに行ったんだけど素敵だったよ」の発話に対しては、「楽しい」、「気持ち良い」、及び「素敵」の感情語が発話末に近い位置に存在しているので、いずれの発話もポジティブの感情と推定される。
また、「一人ぼっちで心細かったよ。」、「久々に友達に会ったら、冷たくされて悲しかったよ。」、「講演会聴けなくて残念だったよ。」の発話に対しては、「心細い」、「悲しい」、及び「残念」の感情語が発話末に近い位置に存在しているので、いずれの発話もネガティブの感情と推定される。
そして、「温泉にいったよ。」、「友達に会ったよ。」、及び「講演会聞けなかったよ。」の発話に対しては、発話末に近い位置に存在する語がポジティブかネガティブかが区別できないので、ニュートラルの感情と推定される。
次に、本発明の第3の実施の形態について説明する。本実施の形態は、第1の実施の形態に、ユーザの動作及び表情を認識し、認識した感情に応じた動作及び表情で応答する部分を付加したものであるので、第3の実施の形態において第1の実施の形態と対応する部分については同一の符号を付して説明を省略する。
図7に示すように、本実施の形態では、ユーザの発話を入力するマイクロホン10に加えて、ユーザを撮影するカメラ30が設けられている。カメラ30は、データベース32に記憶された動作認識モデルに基づいて画像認識を行なう画像認識部34に接続されている。画像認識部34は、データベース36に登録された感情辞書に基づいてユーザの感情を推定する感情推定部38に接続されている。
感情辞書は、第1の実施の形態で説明した感情語と感情語に対応した感情とを対応させた組を複数個備えた感情語辞書、ユーザの動作とポジティブ、ネガティブ、及びニュートラルの感情のいずれか1つとを対応させた組を複数個備えた動作辞書、及びユーザの表情とポジティブ、ネガティブ、及びニュートラルの感情のいずれか1つとを対応させた組を複数個備えた表情辞書から構成されている。
ポジティブの動作としては、例えば、ユーザが笑ったり胸を張ったりする動作を用いることができ、ネガティブの動作としては、例えば、ユーザが悲しんだり肩を落としたりする動作を用いることができる。また、どちらでもない動作としては、ユーザの感情を表さない動作が用いられる。
感情推定部38には、第1の実施の形態で説明した発話認識部14が接続されている。また、感情推定部38は、第1の実施の形態で説明した発話生成部22に接続されると共に、動作生成モデルを記憶したデータベース40が接続された動作生成部42に接続されている。この動作生成部42は、動作提示部44に接続されている。
本実施の形態では、マイクロホン10で集音されたユーザの発話が発話認識部14に入力されると共に、カメラ30撮影されたユーザの画像データが画像認識部34に入力される。発話認識部14では、上記の第1の実施の形態で説明したのと同様に、マイクロホン10からの入力とデータベース12に記憶された認識用辞書とを用いてユーザの発話を認識し、感情推定部38に出力する。
一方、画像認識部34では、データベース32に記憶された動作認識モデルを用いてユーザが発話しているときの動作及び表情を認識し、認識した動作及び表情を感情推定部38に出力する。
感情推定部38では、認識されたユーザの発話、認識されたユーザの動作及び表情、及びデータベースに登録されている感情辞書を用いて、ユーザの発話、及びユーザの動作及び表情が、ポジティブ、ネガティブ、及びニュートラルのいずれかの感情であるかを推定する。感情辞書には、感情語と感情との対応、動作と感情との対応、及び表情と感情との対応の各組が複数個登録されているので、発話、動作、及び表情のいずれも同じ感情を表している場合に、ユーザの感情はこの同じ感情であると推定する。ユーザ発話の感情は、第1及び第2の実施の形態と同様に推定することができ、動作及び表情による感情は、感情辞書に登録されている動作及び表情に対応する各々の感情を読み出すことにより推定することができる。なお、発話、動作、及び表情のいずれか2つが同じ感情を表している場合に、この同じ感情がユーザの感情であると推定するようにしてもよい。
感情推定部38で推定されたユーザの感情は、発話生成部22及び動作生成部42の各々に入力される。動作生成部42では、上記と同様に、推定された感情に対応する応答用の発話をデータベース20の応答用辞書から選択することにより発話を生成し、スピーカ24から出力する。
また、動作生成部42では、データベース40に登録された動作生成モデルから、推定された感情に対応する動作を生成する。すなわち、推定された感情がポジティブであればポジティブの動作を生成し、推定された感情がネガティブであればネガティブの動作を生成し、ニュートラルであればどちらでもない動作を生成する。
動作生成部42で生成された動作を示すデータは、少なくとも頭部、胸部、及び腕を供えたロボット、またはアニメーションのキャラクタを表示するLCD等のディスプレイで構成された動作提示部44に入力され、動作提示部44において推定された動作が提示される。
ポジティブの動作としては、例えば、ロボットやアニメーションのキャラクタが笑ったり胸を張ったりする動作を用いることができ、ネガティブの動作としては、例えば、ロボットやアニメーションのキャラクタが悲しんだり肩を落としたりする動作を用いることができる。どちらでもない動作としては、ロボットやアニメーションのキャラクタが、感情を表さない動作が用いられる。
なお、上記では、動作及び表情を推定し、動作を提示する例について説明したが、表情、または動作及び表情を提示してもよく、動作または表情を推定し、動作及び表情の少なくとも一方を提示するようにしてもよい。
次に本発明の第4の実施の形態について説明する。本実施の形態は、図8に示すように、第1の実施の形態の発話認識部と感情推定部との間に、述語判定部52を接続したものであるので、第4の実施の形態において第1の実施の形態と対応する部分については同一の符号を付して説明を省略する。
この述語判定部52には、述語判定モデルが登録されたデータベース50が接続されている。この述語判定モデルは、動詞及び形容詞等の品詞情報、連用形等の活用形情報、単語の位置情報、及び単語間の係りうけ情報等を用いて作成されている。
述語判定部52では、発話認識部14で認識された形態素列と述語判定モデルとに基づいて、ユーザの発話の述語部分を判定し、述語部分が判定された時点で、発話認識部14で認識された述語部分までの形態素列を感情推定部18に入力し、第1の実施の形態と同様にして感情を推定し、推定した感情に対応する応答をスピーカから出力する。
第1の実施の形態では、ユーザの発話が終了していない状態で感情が推定され、スピーカから応答が発話される現象が発生する可能性があるが、本実施の形態では、対話処理システムが、述語で区切られた単位で発話の感情を推定し応答するので、ユーザとシステムとの発話のやり取りを自然な状態で行なうことができる。
以下、述語として「行ってきたよ。」が含まれる発話に対して述語部分を判定してポジティブの発話を応答した場合の対話例2と、述語が含まれずにどちらでもない発話を応答した場合の対話例3におけるユーザとシステムとのやり取りの例を示す。
対話例2
ユーザ 「この前の週末、家族で、岐阜の、えっと、ほら、飛騨高山に行ってきたよ。」
システム 「へー、いいなぁ。」
対話例3
ユーザ 「この前の週末、家族で、岐阜の、えっと、」
システム 「おっしゃる意味が良く分かりません。」
対話例2では、ユーザとシステムとの発話のやり取りが自然な状態で行なわれているが、対話例3ではユーザの発話が終了していない状態でシステムから応答が出力され、ユーザとシステムとの発話のやり取りが不自然な状態になっている。
次に本発明の第5の実施の形態について図9を参照して説明する。本実施の形態は、第1の実施の形態の感情推定部18に、対話の履歴を記憶して管理する対話履歴管理部54を接続し、対話履歴に合わせて感情語に対する応答を変更するようにしたものであるので、第5の実施の形態において第1の実施の形態と対応する部分については同一の符号を付して説明を省略する。
感情推定部18では、ユーザの発話がポジティブまたはネガティブと推定された場合でも推定された感情をそのまま発話生成部22に出力することなく、対話履歴管理部54に記憶されている前回の対話の履歴を参照し、推定された感情と共に感情の度合いを表す情報を発話生成部22に出力する。推定された感情及び感情の度合いを示す情報は、対話履歴として対話履歴管理部54にも記憶され、対話履歴が更新される。
発話生成部22では、推定された感情と感情の度合いを表す情報とに基づいて、ポジティブの感情の度合いまたはネガティブの感情の度合いが徐々に強くなる発話を生成し、スピーカから出力する。
本実施の形態では、感情の度合いが徐々に変化するように応答することができるので、ユーザが一度ポジティブの発話をしただけで、感情が過剰な応答が出力さるのを防止することができると共に、対話の進行に連れてより強い感情の応答を出力することができる。
以下、ポジティブの感情の度合いが徐々に強くなる応答を行なった対話例4を示す。この対話例4では、※1の応答より※2の応答で強い感情を表現し、※2の応答より※3の応答で更に強い感情を表現している。
対話例4
ユーザ 「この前の週末、家族で、岐阜の、えっと、ほら、飛騨高山に行ってきたよ。」
システム 「よかったね。」※1
ユーザ 「温泉があってね、すごく気持ちよかったよ。」
システム 「ヘー、すごーい。」※2
ユーザ 「ちょうど紅葉も見頃だったしね。」
システム 「わあー、すごい、よかったねぇ。」※3
なお、上記では対話履歴管理部54を感情推定部18に接続する例について説明したが、対話履歴管理部54は、感情推定部18に接続することなく、発話生成部に接続し、発話生成部22において、対話履歴管理部54に記憶された対話履歴に基づいて、ポジティブの感情の度合いまたはネガティブの感情の度合いが徐々に強くなる発話を生成するようにしてもよい。
上記第4及び第5各実施の形態では、第3の実施の形態のように感情及び表情のいずれか1つを推定し、感情及び表情のいずれか1つを提示する部分を付加するようにしてもよい。
以上説明した各実施の形態によれば、システムがユーザの感情を推定して応答しているので、システムが推定した感情に基づいてユーザの感情に同調することにより、ユーザはシステム自身がユーザに共感していると感じる。したがって、ユーザはシステムがユーザ自身に共感していると感じる結果、ユーザとシステムとの間に信頼感が生じ、機械的なやり取りだけではない感情的な対話を実現することができる。
第1の実施の形態を示すブロック図である。 第1の実施の形態対話処理ルーチンを示すのフローチャートである 図2の感情推定処理の詳細を示すフローチャートである。 音声認識結果の例を示す図である。 認識用辞書の例を示す図である。 発話用辞書の例を示す図である。 第3の実施の形態を示すブロック図である。 第4の実施の形態を示すブロック図である。 第5の実施の形態を示すブロック図である。
符号の説明
10 マイクロホン
12、16、20、32、36、40、50 データベース
12 マイクロホン
14 発話認識部
18 感情推定部
22 発話生成部
24 スピーカ
30 カメラ
34 画像認識部
38 感情推定部
42 動作生成部
44 動作提示部
52 述語判定部
54 対話履歴管理部

Claims (7)

  1. 入力されたユーザの発話を認識するユーザ発話認識手段と、
    前記ユーザ発話認識手段で認識されたユーザの発話が意味する感情を推定する感情推定手段と、
    推定した感情と同一の感情を表す応答用の発話を生成する発話生成手段と、
    前記発話生成手段で生成された発話を合成して出力する音声合成手段と、
    を含む対話処理装置。
  2. 入力されたユーザの発話を認識するユーザ発話認識手段と、
    前記ユーザの動作及び表情の少なくとも1つを認識する動作認識手段と、
    前記ユーザ発話認識手段で認識されたユーザの発話、及び前記動作認識手段で認識されたユーザの動作及び表情の少なくとも1つを用いて、ユーザの発話が意味する感情を推定する感情推定手段と、
    推定した感情と同一の感情を表す応答用の発話を生成する発話生成手段と、
    推定した感情と同一の感情を表す応答用の動作及び表情の少なくとも1つを生成する動作生成手段と、
    前記発話生成手段で生成された発話を合成して出力する音声合成手段と、
    前記動作生成手段で生成された動作及び表情の少なくとも1つを提示する動作提示手段手段と、
    を含む対話処理装置。
  3. 前記感情推定手段は、好ましい感情状態を表すポジティブ、好ましくない感情状態を表すネガティブ、及びポジティブでもネガティブでもない感情状態を表すニュートラルの3つの状態に分類して、ユーザの発話が意味する感情を推定する請求項1または請求項2記載の対話処理装置。
  4. 前記感情推定手段は、好ましい感情状態を表すポジティブ、好ましくない感情状態を表すネガティブ、及びポジティブでもネガティブでもない感情状態を表すニュートラルのいずれか1つと感情語とを対応させて複数組記憶した感情語辞書を用いて、ユーザの発話が意味する感情をポジティブ、ネガティブ、及びニュートラルのいずれか1つで推定し、
    前記発話生成手段は、ポジティブ、ネガティブ、及びニュートラルのいずれか1つに対応させて複数の発話語を記憶した発話辞書を用いて、前記感情推定手段で推定されたポジティブ、ネガティブ、及びニュートラルのいずれか1つに対応する1つの応答用の発話を生成する請求項1〜請求項3のいずれか1項記載の対話処理装置。
  5. 前記ユーザ発話認識手段で認識されたユーザの発話の述語部分を判定する述語判定手段を更に含み、
    前記感情推定手段は、前記述語判定手段で判定された述語部分を区切りとして、前記ユーザ発話認識手段で認識されたユーザの発話が意味する感情を推定する請求項1〜請求項4のいずれか1項記載の対話処理装置。
  6. 前記ユーザとの間の対話履歴を記憶する対話履歴記憶手段を更に含み、
    前記発話生成手段は、前記発話履歴に基づいて、推定した感情と同一の感情を意味し、かつ感情の度合いが徐々に変化する応答用の発話を生成する請求項1〜請求項5のいずれか1項記載の対話処理装置。
  7. 感情推定手段は、1つの発話中に感情語が複数含まれる場合には、該発話中の最終感情語に基づいて感情を推定するか、または同じ感情を示す感情語の個数に基づいて、ユーザの発話が意味する感情を推定する請求項1〜請求項6のいずれか1項記載の対話処理装置。
JP2004369375A 2004-12-21 2004-12-21 対話処理装置 Pending JP2006178063A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004369375A JP2006178063A (ja) 2004-12-21 2004-12-21 対話処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004369375A JP2006178063A (ja) 2004-12-21 2004-12-21 対話処理装置

Publications (1)

Publication Number Publication Date
JP2006178063A true JP2006178063A (ja) 2006-07-06

Family

ID=36732245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004369375A Pending JP2006178063A (ja) 2004-12-21 2004-12-21 対話処理装置

Country Status (1)

Country Link
JP (1) JP2006178063A (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
WO2010047027A1 (ja) * 2008-10-21 2010-04-29 日本電気株式会社 情報処理装置
JP2010152119A (ja) * 2008-12-25 2010-07-08 Toyota Central R&D Labs Inc 応答生成装置及びプログラム
JP2010157081A (ja) * 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 応答生成装置及びプログラム
WO2014181524A1 (ja) * 2013-05-09 2014-11-13 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
JP2016024631A (ja) * 2014-07-18 2016-02-08 ヤフー株式会社 提示装置、提示方法及び提示プログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
JP2016091227A (ja) * 2014-10-31 2016-05-23 株式会社cocotama サポート装置、サポート方法及びサポートプログラム
JP2017117090A (ja) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
CN107103900A (zh) * 2017-06-06 2017-08-29 西北师范大学 一种跨语言情感语音合成方法及系统
JP2017157011A (ja) * 2016-03-02 2017-09-07 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2017215468A (ja) * 2016-05-31 2017-12-07 トヨタ自動車株式会社 音声対話装置および音声対話方法
US9953078B2 (en) 2015-09-01 2018-04-24 Casio Computer Co., Ltd. Dialogue control device, dialogue control method and non-transitory computer-readable information recording medium
JP2018073343A (ja) * 2016-11-04 2018-05-10 トヨタ自動車株式会社 感情推定方法
JP2018534641A (ja) * 2016-07-07 2018-11-22 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. ロボットの感情データ更新方法及びシステム
WO2019049821A1 (ja) * 2017-09-05 2019-03-14 京セラ株式会社 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム
JP2019068153A (ja) * 2017-09-29 2019-04-25 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN110147729A (zh) * 2019-04-16 2019-08-20 深圳壹账通智能科技有限公司 用户情绪识别方法、装置、计算机设备及存储介质
JP2019175432A (ja) * 2018-03-26 2019-10-10 カシオ計算機株式会社 対話制御装置、対話システム、対話制御方法及びプログラム
JP2020134545A (ja) * 2019-02-13 2020-08-31 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2021071883A (ja) * 2019-10-30 2021-05-06 株式会社感性リサーチ 情報処理システム、情報処理方法及びプログラム
WO2021131737A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2022054326A (ja) * 2020-09-25 2022-04-06 Kddi株式会社 ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法
JP7360756B1 (ja) 2022-04-15 2023-10-13 株式会社三鷹ホールディングス 磁性流体を用いた表示装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139044A (ja) * 1992-10-28 1994-05-20 Sony Corp インターフェース方法及び装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH1049188A (ja) * 1996-08-06 1998-02-20 Atr Chinou Eizo Tsushin Kenkyusho:Kk 感情変換装置
JP2000075894A (ja) * 1998-09-01 2000-03-14 Ntt Data Corp 音声認識方法及び装置、音声対話システム、記録媒体
JP2001117581A (ja) * 1999-10-22 2001-04-27 Alpine Electronics Inc 感情認識装置
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06139044A (ja) * 1992-10-28 1994-05-20 Sony Corp インターフェース方法及び装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH1049188A (ja) * 1996-08-06 1998-02-20 Atr Chinou Eizo Tsushin Kenkyusho:Kk 感情変換装置
JP2000075894A (ja) * 1998-09-01 2000-03-14 Ntt Data Corp 音声認識方法及び装置、音声対話システム、記録媒体
JP2001117581A (ja) * 1999-10-22 2001-04-27 Alpine Electronics Inc 感情認識装置
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
WO2010047027A1 (ja) * 2008-10-21 2010-04-29 日本電気株式会社 情報処理装置
JP2010152119A (ja) * 2008-12-25 2010-07-08 Toyota Central R&D Labs Inc 応答生成装置及びプログラム
JP2010157081A (ja) * 2008-12-26 2010-07-15 Toyota Central R&D Labs Inc 応答生成装置及びプログラム
WO2014181524A1 (ja) * 2013-05-09 2014-11-13 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
JP2016024631A (ja) * 2014-07-18 2016-02-08 ヤフー株式会社 提示装置、提示方法及び提示プログラム
JP2016091227A (ja) * 2014-10-31 2016-05-23 株式会社cocotama サポート装置、サポート方法及びサポートプログラム
JP2016090775A (ja) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 応答生成装置、応答生成方法およびプログラム
US9953078B2 (en) 2015-09-01 2018-04-24 Casio Computer Co., Ltd. Dialogue control device, dialogue control method and non-transitory computer-readable information recording medium
JP2017117090A (ja) * 2015-12-22 2017-06-29 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2017157011A (ja) * 2016-03-02 2017-09-07 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
US10438586B2 (en) 2016-05-31 2019-10-08 Toyota Jidosha Kabushiki Kaisha Voice dialog device and voice dialog method
JP2017215468A (ja) * 2016-05-31 2017-12-07 トヨタ自動車株式会社 音声対話装置および音声対話方法
JP2018534641A (ja) * 2016-07-07 2018-11-22 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. ロボットの感情データ更新方法及びシステム
JP2018073343A (ja) * 2016-11-04 2018-05-10 トヨタ自動車株式会社 感情推定方法
CN107103900A (zh) * 2017-06-06 2017-08-29 西北师范大学 一种跨语言情感语音合成方法及系统
WO2019049821A1 (ja) * 2017-09-05 2019-03-14 京セラ株式会社 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム
JP2019045769A (ja) * 2017-09-05 2019-03-22 京セラ株式会社 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム
US11410683B2 (en) 2017-09-05 2022-08-09 Kyocera Corporation Electronic device, mobile terminal, communication system, monitoring method, and program
JP7103769B2 (ja) 2017-09-05 2022-07-20 京セラ株式会社 電子機器、携帯端末、コミュニケーションシステム、見守り方法、およびプログラム
JP2019068153A (ja) * 2017-09-29 2019-04-25 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN110364164B (zh) * 2018-03-26 2023-12-05 卡西欧计算机株式会社 对话控制装置、对话系统、对话控制方法以及存储介质
JP2019175432A (ja) * 2018-03-26 2019-10-10 カシオ計算機株式会社 対話制御装置、対話システム、対話制御方法及びプログラム
CN110364164A (zh) * 2018-03-26 2019-10-22 卡西欧计算机株式会社 对话控制装置、对话系统、对话控制方法以及存储介质
JP7085500B2 (ja) 2019-02-13 2022-06-16 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
JP2020134545A (ja) * 2019-02-13 2020-08-31 ヤフー株式会社 音声処理装置、音声処理方法および音声処理プログラム
CN110147729A (zh) * 2019-04-16 2019-08-20 深圳壹账通智能科技有限公司 用户情绪识别方法、装置、计算机设备及存储介质
JP2021071883A (ja) * 2019-10-30 2021-05-06 株式会社感性リサーチ 情報処理システム、情報処理方法及びプログラム
WO2021131737A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2022054326A (ja) * 2020-09-25 2022-04-06 Kddi株式会社 ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法
JP7423490B2 (ja) 2020-09-25 2024-01-29 Kddi株式会社 ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法
JP7360756B1 (ja) 2022-04-15 2023-10-13 株式会社三鷹ホールディングス 磁性流体を用いた表示装置

Similar Documents

Publication Publication Date Title
JP2006178063A (ja) 対話処理装置
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
US20200279553A1 (en) Linguistic style matching agent
Mairesse et al. Words mark the nerds: Computational models of personality recognition through language
JP4826275B2 (ja) 応答生成装置、方法及びプログラム
Bosseaux Buffy the Vampire Slayer: Characterization in the musical episode of the TV series
Johar Emotion, affect and personality in speech: The Bias of language and paralanguage
JP4729902B2 (ja) 音声対話システム
WO2019160100A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Aneja et al. Understanding conversational and expressive style in a multimodal embodied conversational agent
WO2019160090A1 (ja) 非言語情報生成装置、方法、及びプログラム
WO2019160105A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Treffner et al. Gestures and phases: The dynamics of speech-hand communication
Yilmazyildiz et al. EMOGIB: emotional gibberish speech database for affective human-robot interaction
JP2006120136A (ja) 言語処理装置、言語処理方法、言語処理プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
Pelachaud et al. Multimodal embodied agents
WO2019160104A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Miščević Intuitions: The discrete voice of competence
Desai et al. Understanding and Enhancing The Role of Speechreading in Online d/DHH Communication Accessibility
Mairesse Learning to adapt in dialogue systems: data-driven models for personality recognition and generation.
Bowden et al. I Probe, Therefore I Am: Designing a Virtual Journalist with Human Emotions
Campbell The Man Who Talked Like a Book, Wrote Like He Spoke.
Lee et al. Learning models of speaker head nods with affective information
Quaeghebeur et al. Does the need for linguistic expression constitute a problem to be solved?
Nabilah Women’s language features used by Lara Croft in Tomb Raider (2018) movie

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005