JP2009163620A - 応答生成装置、及び応答生成プログラム - Google Patents

応答生成装置、及び応答生成プログラム Download PDF

Info

Publication number
JP2009163620A
JP2009163620A JP2008002259A JP2008002259A JP2009163620A JP 2009163620 A JP2009163620 A JP 2009163620A JP 2008002259 A JP2008002259 A JP 2008002259A JP 2008002259 A JP2008002259 A JP 2008002259A JP 2009163620 A JP2009163620 A JP 2009163620A
Authority
JP
Japan
Prior art keywords
sentence
word
emotion
response
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008002259A
Other languages
English (en)
Inventor
Ryoko Hotta
良子 堀田
Kentaro Inui
健太郎 乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008002259A priority Critical patent/JP2009163620A/ja
Publication of JP2009163620A publication Critical patent/JP2009163620A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザの感情状態に合った応答を生成できる応答生成装置、及び応答生成プログラムを提供する。
【解決手段】音声入力装置16により、ユーザからの入力となる入力文を示す入力文データを取得し、取得された入力文データにより示される入力文に対する応答文を生成する際に、当該入力文にユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて前記応答文が生成する。
【選択図】図6

Description

本発明は、応答生成装置、及び応答生成プログラムに係り、特に、ユーザからの入力文に対して応答文を生成してユーザと対話を行う応答生成装置、及び応答生成プログラムに関する。
ユーザからの入力文に対して応答文を生成してユーザと対話を行う応答生成装置では、ユーザの感情状態に応じた応答文を生成することが望まれている。
このユーザの感情状態を推定する技術として、特許文献1には、単語毎に当該単語に対応する感情状態を関連付けて予め記憶しておき、ユーザから入力される入力文に含まれる単語などから文全体が表わす感情状態を推定する技術が開示されている。例えば、単語「新年会」に感情状態として「嬉しい」あるいは「positive」、単語「たくさん」に感情状態として「嬉しい」あるいは「positive」、単語「辛い」に感情状態として「辛い」あるいは「negative」と関連付けて予め記憶し、入力文に含まれる単語が示す感情状態の多数決の結果をユーザの感情状態と推定するものとする。この場合、例えば、入力文として、「新年会があるので嬉しい」が入力されると「嬉しい」と感情状態が推定される。
特開2005−332266号公報
しかしながら、上記特許文献1の技術では、入力文のユーザの感情状態を適切に推定できず、ユーザの感情状態に合った応答を生成できない場合がある、という問題点があった。
すなわち、例えば、入力文として「新年会がたくさんあって辛いよ」が入力された場合、単語の感情の多数決により「嬉しい」と感情状態を推定されてしまう。
本発明は上記問題点を解決するためになされたものであり、ユーザの感情状態に合った応答を生成できる応答生成装置、及び応答生成プログラムを提供することを目的とする。
上記目的を達成するため、請求項1に記載の発明は、ユーザからの入力となる入力文を示す入力文データを取得する取得手段と、前記取得手段により取得された入力文データにより示される入力文に対する応答文を生成する際に、当該入力文に前記ユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて前記応答文を生成する生成手段と、を備えている。
請求項1記載の発明では、取得手段により、ユーザからの入力となる入力文を示す入力文データが取得され、生成手段により、取得手段により取得された入力文データにより示される入力文に対する応答文を生成する際に、当該入力文に前記ユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて前記応答文が生成される。なお、上記取得手段は、例えば、キーボード等のユーザから入力文が入力されることにより入力文データを取得するものとしてもよく、また、例えば、ネットワークを介して外部装置から受信することにより入力データを取得するものとしてもよく、また、音声を認識により入力データを取得するものとしてもよい。
このように、請求項1記載の発明によれば、ユーザからの入力となる入力文にユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて応答文を生成するので、ユーザの感情状態に合った応答を生成できる。
なお、請求項1記載の発明は、請求項2記載の発明のように、前記生成手段が、所定の前記感情語を感情語情報として予め記憶した記憶手段と、前記記憶手段に記憶された前記感情語情報により示される感情語が前記入力文に含まれるか検索し、前記感情語が含まれる場合に当該感情語により示される感情状態を前記ユーザの感情状態と推定する推定手段と、前記推定手段による推定結果に基づいて前記入力文に対する応答文を生成する応答生成手段と、を有してもよい。
また、請求項2記載の発明は、請求項3記載の発明のように、前記推定手段が、前記入力文に前記感情語が複数含まれる場合、最も文末に近い感情語に基づいて前記ユーザの感情状態と推定してもよい。
また、請求項2記載の発明は、請求項4記載の発明のように、前記推定手段が、前記入力文の最終文節に前記感情語が含まれる場合、当該最終文節の感情語に基づいて前記ユーザの感情状態と推定してもよい。
また、請求項2〜請求項4記載の発明は、請求項5記載の発明のように、前記記憶手段が、所定の事例を示す文と当該文により示される感情状態を各々対応付けた事例感情情報を予め記憶し、前記推定手段が、前記入力文に前記感情語が含まれない場合に、前記記憶手段に記憶された事例感情情報の各事例を示す文との類似度を求め、前記入力文に最も類似度が高い事例を示す文に対応する感情状態を前記ユーザの感情状態と推定してもよい。
また、請求項2〜請求項5記載の発明は、請求項6記載の発明のように、前記記憶手段が、所定の自立語と当該自立語により示される感情状態を各々対応付けた自立語感情情報を予め記憶し、前記推定手段が、前記入力文に前記感情語が含まれず、前記自立語が1つ含まれる場合に、前記記憶手段に記憶された自立語感情情報において、当該自立語に対応する感情状態を前記ユーザの感情状態と推定してもよい。
また、請求項2〜請求項6記載の発明は、請求項7記載の発明のように、前記生成手段により生成された応答文を出力する出力手段をさらに備えてもよい。なお、上記出力手段は、応答文を表示することにより出力するものしてもよく、また、応答文を示す情報を外部装置へ出力するものとしてもよく、また、用紙等に印刷することにより出力するものしてもよく、また、応答文を音声で出力するものとしてもよい。
さらに、請求項2〜請求項7記載の発明は、請求項8記載の発明のように、前記記憶手段が、所定の相槌文を相槌文情報として予め記憶し、前記応答生成手段が、前記推定手段による推定結果、ユーザの感情状態を推定できない場合に、前記記憶手段に記憶された前記相槌文情報により示される相槌文を前記入力文に対する応答文してもよい。
一方、上記目的を達成するため、請求項9記載の発明の応答生成プログラムは、取得手段により取得された入力文データにより示される入力文に、記憶手段に予め記憶されたユーザの感情状態を表わす所定の感情語が含まれるか検索する検索ステップと、前記感情語が含まれる場合に当該感情語により示される感情状態をユーザの感情状態と推定する推定ステップと、推定結果に基づいて前記入力文に対する応答文を生成する応答生成ステップと、を含んでいる。
よって、請求項9記載の発明によれば、請求項1と同様に、ユーザの感情状態に合った応答を生成できる。
以上説明したように、本発明によれば、ユーザからの入力となる入力文にユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて応答文を生成するので、ユーザの感情状態に合った応答を生成できる、という優れた効果を有する。
以下、図面を参照して本発明の実施の形態について詳細に説明する。なお、以下では、本発明を、ユーザからの入力文に対して応答文を生成してユーザと対話を行う応答生成装をパーソナル・コンピュータを用いて実現した場合を例として説明する。
[第1の実施の形態]
図1には、本実施の形態に係る応答生成装置10の電気系の要部構成を示すブロック図が示されている。
同図に示すように、応答生成装置10は、ユーザからの各種の操作指示が入力される、マウスやキーボードなどの入力装置12と、各種情報を表示するディスプレイ14と、例えば、マイクなどの音声入力装置16と、コンピュータ本体18と、を備えている。
コンピュータ本体18は、装置全体の動作を司るCPU(中央処理装置)20と、CPU20による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)22と、後述する応答処理プログラムや感情推定処理プログラム、応答生成処理プログラムを含む各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)24と、各種情報を記憶するために用いられるハードディスク26と、入力装置12に対して入力された操作指示を検出する操作入力検出部28と、ディスプレイ14への操作画面やメッセージなどの各種情報の表示を制御する表示制御部30と、音声入力装置16から出力された音声信号が入力する外部インタフェース部32と、が備えられており、これら各部はシステムバスBUSにより電気的に相互に接続されている。
従って、CPU20は、RAM22、ROM24、及びハードディスク26に対するアクセス、入力装置12を介した各種入力情報の取得、ディスプレイ14に対する各種情報の表示、及び音声入力装置16より入力される音声の把握、を各々行うことができる。
音声入力装置16には、ユーザと対話を行う際に当該ユーザからの入力となる入力文が音声で入力される。
応答生成装置10は、音声入力装置16より入力された音声を示す音声信号に対して音声認識処理を行なって入力された入力文を示す入力文データを取得し、取得した入力文データにより示される入力文からユーザの感情状態を推定する。そして、応答生成装置10は、推定結果に基づいて入力文に対する応答文を生成し、生成した応答文をディスプレイ14に表示させる制御を行なうものとされている。
図2には、本実施の形態に係る応答生成装置10の機能的な構成を示す機能ブロック図が示されている。
同図に示されるように、応答生成装置10は、入力文認識部40と、感情推定部42と、応答生成部44と、応答表示制御部46と、を備えている。
入力文認識部40は、音声入力装置16、ハードディスク26、及び感情推定部42に接続されており、音声入力装置16より音声信号が入力される。
入力文認識部40は、入力装置12より入力された音声信号に基づき、入力された音声の音声認識処理を行い、音声により入力された入力文を示す入力文データを取得する。この音声認識処理では、音声により入力された入力文の構文的構造を解析して単語の認識も行なう。
なお、本実施の形態では、音声入力装置16に対してユーザから音声により入力文が入力されるものとしたが、入力装置12に対してユーザから入力文が入力されることにより入力文を示す入力文データを取得し、入力文データに対して形態素解析等の解析を行なって単語の認識も行なうものとしてもよい。
感情推定部42は、入力文認識部40、ハードディスク26、及び応答生成部44に接続されており、入力文認識部40より入力文を示す入力文データが入力される。
感情推定部42は、入力文データにより示される入力文にユーザの感情状態を表わす感情語が含まれるか検索する。そして、感情推定部42は、検索の結果、感情語が含まれる場合は当該感情語からユーザの感情状態を推定する。一方、感情推定部42は、検索の結果、感情語が含まれない場合は予めハードディスク26に記憶された事例を示す文と比較して類似度を求め、当該類似度に基づいてユーザの感情状態と推定しており、類似度が低い場合、感情状態の推定結果=なし、とする。
この感情語とは、例えば、「楽しむ」や「嬉しい」などユーザの感情状態を表わした語であり、下記の(1)又は(2)に当てはまる語をいう。
(1)感情語で「感情動作表現」の定義
(1−1)「XはYをZ」または「XはYにZ」という表現が可能(Z=楽しむ,喜ぶ,驚く)
(2)感情語で「感情状態表現」の定義
「XはYがZ」という表現が可能(Z=嬉しい、悲しい、怖い)
ここで、
X=感情主
Y=対象
Z=当該語
また、感情語には、上記の(1)(2)以外に、辞書で定義された(3)「慣用句感情表現」がある。
本実施の形態では、図3に示すような、複数の感情語を感情語情報としてハードディスク26に予め記憶させている。
また、本実施の形態では、図4に示すような、複数の事例を示す文と当該事例により示される感情状態を各々対応付けた事例情報をハードディスク26に予め記憶させている。
応答生成部44は、感情推定部42、ハードディスク26、及び応答表示制御部46に接続されており、感情推定部42より推定結果を示す情報が入力される。
応答生成部44は、ユーザの感情状態が推定された場合、当該感情状態に応じた応答文を生成し、ユーザの感情状態が推定されなかった場合、予めハードディスク26に記憶された複数の相槌文の何れか1つを応答文として選択する。
本実施の形態では、図5に示すような、複数の相槌文を相槌文情報としてハードディスク26に予め記憶させている。
応答表示制御部46は、応答生成部44及びディスプレイ14に接続されており、応答生成部44より応答文を示す応答文データが入力される。
応答表示制御部46は、応答生成部44より応答文データが入力した場合、応答文データにより示される応答文をディスプレイ14に表示させる制御を行なう。
ところで、以上のように構成された応答生成装置10の各構成要素(入力文認識部40、感情推定部42、応答生成部44、応答表示制御部46)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。
以下では、本実施の形態に係る応答生成装置10が、応答処理プログラムを実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該応答生成処理プログラムをROM24やハードディスク26に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。
次に、図6を参照して、本実施の形態に係る応答生成装置10の作用を説明する。なお、図6は、CPU20により実行される応答処理プログラムの処理の流れを示すフローチャートである。当該プログラムは、音声入力装置16に対してユーザから音声により入力文が入力され、当該音声を示す音声信号に対して音声認識処理が行なわれて入力文データが取得された場合にCPU20により実行される。
同図のステップ100では、取得された入力文データに基づいてユーザの感情状態を推定する感情推定処理を実行する。
ここで、図7を参照して、本実施の形態に係る感情推定処理について説明する。なお、図7は、CPU20により実行される感情推定処理プログラムの処理の流れを示すフローチャートであり、当該プログラムも上記応答処理プログラムと同様に予めインストールしておく形態等を適用することができる。
同図のステップ200では、入力文データにより示される入力文にハードディスク26に記憶された感情語情報の感情語が含まれるか検索を行なう。
次のステップ202では、上記ステップ200での検索結果に基づいて入力文に感情語が含まれるか否かを判定し、肯定判定となった場合はステップ204へ移行し、否定判定となった場合はステップ210へ移行する。
ステップ204では、ハードディスク26に記憶された感情語情報において、入力文に含まれる感情語により示される感情状態をユーザの感情状態と推定してステップ102(図6参照。)へ移行する。なお、入力文に感情語が複数含まれる場合は、最も文末に近い感情語により示される感情状態をユーザの感情状態と推定する。
一方、ステップ210では、ハードディスク26に記憶された事例情報の各事例を示す文と入力文を比較し、各事例を示す文毎に、当該事例を示す文の単語と入力文の単語が一致する単語数を求める。そして、本ステップ210では、入力文と各事例を示す文との類似度として、各事例を示す文の単語数に対する一致する単語数の比率(一致率)を導出し、導出された一致率が所定の比率以上のものがある場合、一致率が最も高い事例を示す文に対応付けられた感情状態をユーザの感情状態と推定し、導出された一致率が上記所定の比率未満である場合、推定結果=なし、としてステップ102(図6参照。)へ移行する。
ステップ102では、上記感情推定処理での推定結果に基づいて応答文を生成する応答生成処理を実行する。
ここで、図8を参照して、本実施の形態に係る応答生成処理について説明する。なお、図8は、CPU20により実行される応答生成処理プログラムの処理の流れを示すフローチャートであり、当該プログラムも上記応答処理プログラムと同様に予めインストールしておく形態等を適用することができる。
同図のステップ300では、上記感情推定処理で感情状態が推定できたか否かを判定し、肯定判定であった場合はステップ302へ移行し、否定判定であった場合はステップ304へ移行する。
ステップ302では、推定された感情状態に基づいて応答文を生成してステップ104(図6参照。)へ移行する。
なお、本実施の形態では、推定された感情状態を示す感情語の形態素解析を行なって、感情語の原形の単語及び品詞を解析する。
解析の結果、感情語の品詞が形容詞である場合は、当該感情語を原形に変換すると共に、時制を過去形に変換する。そして、変形した感情語に文末処理として「んですね」を付加することにより応答文を生成する。
これにより、例えば、感情語が「楽しい」である場合、感情語が形容詞であると判断されて、当該感情語を原形に変換されると共に、時制が過去形に変換されて「楽しかった」と変換される。そして、変形した感情語に文末処理が行なわれて応答文として「楽しかったんですね」が生成される。
一方、解析の結果、感情語の品詞が動詞である場合は、当該感情語を形容詞表現した同義語が存在するか否かを判別する。なお、この判別は、形容詞表現した同義語が存在する感情語を、当該同義語と対応付けてハードディスク26に予め記憶させておき、品詞が動詞であると解析された感情語がハードディスク26に記憶されているか否かにより判別する。
形容詞表現の同義語が存在する場合は、感情語が形容詞である場合と同様に、当該同義語を原形に変換すると共に時制を過去形に変換し、上記文末処理を行なって応答文を生成する。
形容詞表現の同義語が存在しない場合は、感情語を、図9に示すように変換ルールに従って「テイル形」もしくは「タ形」に変換し、変形した感情語に上記文末処理を行なうことにより応答文を生成する。
これにより、例えば、感情語が「がっかりする」である場合、感情語が動詞であると判断されて、当該感情語を形容詞表現した同義語が存在しないため、図9に示すように変換ルールに従って「がっかりしている」もしくは「がっかりした」に変換される。そして、変形した感情語に文末処理が行なわれて応答文として「がっかりしているんですね」もしくは「がっかりしたんですね」が生成される。
これにより、例えば、音声入力装置16に対してユーザから音声により入力文として「新年会がたくさんあって辛いよ」が入力された場合、上記ステップ200において感情語として「辛い」が検索され、上記ステップ204においてユーザの感情状態が「辛い」と推定され、上記ステップ302において応答文として「辛いんですね」が生成される。
また、例えば、音声入力装置16に対してユーザから音声により入力文として「連休は旅行に行くんですよ」が入力された場合、感情語が含まれないため、上記ステップ210において入力文と各事例を示す文との一致率が導出されて、事例を示す文として「連休は旅行に行く」が類似すると判断された場合、ユーザの感情状態が「楽しみだ」と推定され、上記ステップ302において「楽しみなんですね」が生成される。
さらに、例えば、音声入力装置16に対してユーザから音声により入力文として「草むしりは辛いけど、広い家に住めるのは幸せだと最近考えるようになったよ」が入力された場合、上記ステップ200において感情語として「辛い」と「幸せだ」とが検索されるが、文末に近い感情語である「幸せだ」がユーザの感情状態と推定され、上記ステップ302において「幸せなんですね」が生成される。
ステップ304では、ハードディスク26に記憶された相槌文情報の相槌文の何れか1つを応答文としてステップ104(図6参照。)へ移行する。
これにより、例えば、音声入力装置16に対してユーザから音声により入力文として「旅館についてしまえばのんびりできるんだけどね」が入力された場合、感情語が含まれないため、上記ステップ210において入力文と各事例を示す文との一致率が導出されて、類似する事例を示す文がないと判断されて、推定結果=なし、とされ、上記ステップ304において相槌として、例えば、「そうですね」が生成される。
ステップ104では、上記応答処理で生成された応答文をディスプレイ14に表示させ、本応答処理プログラムを終了する。
ここで、図10には、ユーザと応答生成装置10とが対話を行った結果の一例が示されている。
音声入力装置16に対してユーザから音声により入力文1「連休は旅行に行くんですよ」が入力された場合は、入力文1が感情語を含まないため、各事例を示す文と比較され、「連休は旅行に行く」と類似すると判断されてユーザの感情状態が「楽しみだ」と推定され、応答1「楽しみなんですね」が応答される。
そして、音声入力装置16に対してユーザから音声により入力文2「どこも混雑してるかもしれないけどね」が入力された場合は、入力文2が感情語を含まないため、各事例を示す文と比較され、「どこも混雑してるかもしれない」と類似すると判断されてユーザの感情状態が「大変だ」と推定され、応答2「大変ですね」が応答される。
そして、音声入力装置16に対してユーザから音声により入力文3「旅館についてしまえばのんびりできるんだけどね」が入力された場合、入力文3が感情語が含まれず、事例を示す文とも類似しないため、応答3「そうですね」の相槌が応答される。
以上のように、本実施の形態によれば、ユーザからの入力となる入力文にユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて応答文を生成するので、ユーザの感情状態に合った応答を生成できる。また、入力文に感情語が含まれる場合、入力文に含まれる各単語から文全体が表わす感情状態を推定する必要がないため、処理が簡易となる。
また、本実施の形態によれば、入力文に感情語が複数含まれる場合、最も文末に近い感情語から感情状態を推定することにより、入力文の感情状態を適切に推定できる。また、入力文の最終文節に感情語が含まれない場合であっても対応できるため、ロバストに感情を推定できる。
[第2の実施の形態]
第2の実施の形態に係る応答生成装置10の電気系の要部構成、及び機能的な構成は、上記第1の実施の形態(図1、図2参照)とほぼ同一であり、感情推定部42のみが一部異なっている。
ところで、日本語では、倒置形や述語を省略した場合を除くと、主節が文末にくる。従って、入力文の文末に近い感情を利用することにより、文全体が表わす感情を推定できる。
そこで、本実施の形態に係る感情推定部42は、入力文データにより示される入力文の最終文節に感情語が含まれるか検索し、入力文の最終文節に感情語が含まれる場合は当該感情語からユーザの感情状態と推定し、入力文の最終文節に感情語が含まれない場合はハードディスク26に記憶された事例を示す文と比較してユーザの感情状態と推定する。
次に、図11を参照して、本実施の形態に係る感情推定処理について説明する。なお、同図における図7と異なる処理部分には符号に「A」を付し、同一の処理部分には図7と同一の符号を付して、その説明を省略する。
同図のステップ200Aでは、入力文データにより示される入力文の最終文節にハードディスク26に記憶された感情語情報の感情語が含まれるか検索を行なう。
次のステップ202Aでは、上記ステップ200Aでの検索結果に基づいて入力文の最終文節に感情語が含まれるか否かを判定し、肯定判定となった場合はステップ204Aへ移行し、否定判定となった場合はステップ210へ移行する。
ステップ204Aでは、ハードディスク26に記憶された感情語情報において、入力文の最終文節に含まれる感情語に対応付けられた感情状態をユーザの感情状態と推定してステップ102(図6参照。)へ移行する。
以上のように、本実施の形態によれば、入力文の最終文節の感情語からユーザの感情状態を推定することにより、入力文全体が表わす感情を適切に推定することができる。
[第3の実施の形態]
第3の実施の形態に係る応答生成装置10の電気系の要部構成、及び機能的な構成は、上記第1の実施の形態(図1、図2参照)とほぼ同一であり、感情推定部42のみが一部異なっている。
ところで、感情語以外の自立語にも感情状態が推定できるものがある。
そこで、本実施の形態では、図12に示すような、複数の自立語と当該自立語により示される感情状態を各々対応付けた自立語感情情報をハードディスク26に予め記憶させている。なお、本実施の形態では、感情状態として感情語を対応付けている。
本実施の形態に係る感情推定部42は、入力文データにより示される入力文の最終文節に感情語が含まれるか検索し、入力文の最終文節に感情語が含まれる場合は当該感情語からユーザの感情状態と推定する。一方、入力文の最終文節に感情語が含まれない場合は入力文にハードディスク26に記憶された自立語が含まれるか検索し、含まれる自立語の個数が1個の場合は当該自立語からユーザの感情状態と推定し、自立語が含まれない又は含まれる自立語の個数が2個以上の場合はハードディスク26に記憶された事例を示す文と比較してユーザの感情状態と推定する。
次に、図13を参照して、本実施の形態に係る感情推定処理について説明する。なお、同図における図9と異なる処理部分には符号に「B」を付し、同一の処理部分には図9と同一の符号を付して、その説明を省略する。
ステップ206Bでは、入力文にハードディスク26に記憶された自立語感情情報の自立語が含まれるか検索を行なう。
ステップ208Bでは、入力文に含まれる自立語の個数が1個であるか否かを判定し、肯定判定となった場合はステップ212Bへ移行し、否定判定となった場合はステップ210へ移行する。
ステップ212Bでは、ハードディスク26に記憶された自立語感情情報において、当該入力文に含まれる自立語に対応付けられた感情語により示される感情状態をユーザの感情状態と推定してステップ102(図6参照。)へ移行する。
これにより、例えば、音声入力装置16に対してユーザから音声により入力文として「突然だ」が入力された場合、感情語が含まれないが自立語感情情報の自立語が含まれるため、上記ステップ212Bにおいて「突然」に対応付けられた感情語である「驚く」が求められ、ユーザの感情状態が「驚く」と推定され、上記ステップ302において「驚いたんですね」が生成される。
また、例えば、音声入力装置16に対してユーザから音声により入力文として「突然北きつねが飛び出してきてびっくりしたよ」が入力された場合、自立語を複数含むため、上記ステップ210において入力文と各事例を示す文との一致率が導出されて、事例を示す文として「突然サルが飛び出してきた」が類似すると判断された場合、ユーザの感情状態が「驚く」と推定され、上記ステップ302において「驚いたんですね」が生成される。
ここで、図14には、ユーザと応答生成装置10とが対話を行った結果の一例が示されている。
音声入力装置16に対してユーザから音声により入力文1「突然北きつねが飛び出してきてびっくりしたよ」が入力された場合は、入力文1が感情語を含まないため、各事例を示す文と比較され、「突然サルが飛び出してきた」と類似すると判断されてユーザの感情状態が「驚く」と推定され、応答1「驚いたんですね」が応答される。
そして、音声入力装置16に対してユーザから音声により入力文2「2度もだよ」が入力された場合は、入力文2が感情語が含まれず、事例を示す文とも類似しないため、応答2「そうなんですね」の相槌が応答される。
そして、音声入力装置16に対してユーザから音声により入力文3「突然だもの」が入力された場合、感情語が含まれず、自立語感情情報の自立語が含まれるため、ユーザの感情状態が「驚く」と推定され、応答3「驚いたんですね」が応答される。
以上のように、本実施の形態によれば、入力文に自立語が含まれる場合に、当該自立語から感情状態を推定することにより、入力文全体が表わす感情を適切に推定することができる。
なお、本実施の形態では、音声を認識する音声認識を行なって、発話された音声を認識することにより入力文が入力される場合について説明したが、本発明はこれに限定されるものではなく、例えば、入力装置12としてキーボードにより入力文が入力されるものとしてもよい。
また、本実施の形態では、応答文をディスプレイ14に表示する場合について説明したが、本発明はこれに限定されるものではなく、例えば、応答文を音声で出力するものとしてもよい。
また、本実施の形態では、入力文に含まれる感情語をそのまま用いて応答文を生成する場合について説明したが、本発明はこれに限定されるものではなく、例えば、感情語と当該感情語により表わされる感情状態を各々対応付けた感情語情報を記憶し、入力文に感情語が含まれる場合に、感情語情報において当該感情語に対応付けられた感情状態をユーザの感情状態と推定するようにしてもよい。これにより、複数の感情語に同一の感情状態を割り当てることができる。
その他、本実施の形態で説明した応答生成装置10の電気系の要部構成(図1参照。)、及び応答生成装置10の機能的な構成(図2参照。)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
また、本実施の形態で説明した各種の情報(図3〜図5、図9、図12参照。)のデータ構造も一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
さらに、本実施の形態で説明した応答処理プログラム(図6参照。)、感情推定処理プログラム(図7、図11、図13参照。)、及び応答生成処理プログラム(図8参照。)の処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
実施の形態に係る応答生成装置の電気系の要部構成を示すブロック図である。 実施の形態に係る応答生成装置の機能的な構成を示すブロック図である。 実施の形態に係る感情語情報のデータ構造の一例を示す図である 実施の形態に係る事例感情情報のデータ構造の一例を示す図である 実施の形態に係る相槌文情報のデータ構造の一例を示す図である 実施の形態に係る応答処理プログラムの処理の流れを示すフローチャートである。 第1の実施の形態に係る感情推定処理プログラムの処理の流れを示すフローチャートである。 実施の形態に係る応答生成処理プログラムの処理の流れを示すフローチャートである。 実施の形態に係る変換ルールの一例を示す図である。 第1の実施の形態に係るユーザからの入力文及び当該入力文に対する応答文を示した図である。 第2の実施の形態に係る感情推定処理プログラムの処理の流れを示すフローチャートである。 第3の実施の形態に係る自立語感情情報のデータ構造の一例を示す図である 第3の実施の形態に係る感情推定処理プログラムの処理の流れを示すフローチャートである。 第3の実施の形態に係るユーザからの入力文及び当該入力文に対する応答文を示した図である。
符号の説明
10 応答生成装置
12 入力装置(取得手段)
14 ディスプレイ(出力手段)
16 音声入力装置(取得手段)
18 コンピュータ本体(生成手段)
20 CPU(推定手段、応答生成手段)
26 ハードディスク(記憶手段)
42 感情推定部(推定手段)
44 応答生成部(応答生成手段)

Claims (9)

  1. ユーザからの入力となる入力文を示す入力文データを取得する取得手段と、
    前記取得手段により取得された入力文データにより示される入力文に対する応答文を生成する際に、当該入力文に前記ユーザの感情状態を表わす感情語が含まれる場合、当該感情語に基づいて前記応答文を生成する生成手段と、
    を備えた応答生成装置。
  2. 前記生成手段は、
    所定の前記感情語を感情語情報として予め記憶した記憶手段と、
    前記記憶手段に記憶された前記感情語情報により示される感情語が前記入力文に含まれるか検索し、前記感情語が含まれる場合に当該感情語により示される感情状態を前記ユーザの感情状態と推定する推定手段と、
    前記推定手段による推定結果に基づいて前記入力文に対する応答文を生成する応答生成手段と、
    を有する請求項1記載の応答生成装置。
  3. 前記推定手段は、前記入力文に前記感情語が複数含まれる場合、最も文末に近い感情語に基づいて前記ユーザの感情状態と推定する
    請求項2記載の応答生成装置。
  4. 前記推定手段は、前記入力文の最終文節に前記感情語が含まれる場合、当該最終文節の感情語に基づいて前記ユーザの感情状態と推定する
    請求項3記載の応答生成装置。
  5. 前記記憶手段は、所定の事例を示す文と当該文により示される感情状態を各々対応付けた事例感情情報を予め記憶し、
    前記推定手段は、前記入力文に前記感情語が含まれない場合に、前記記憶手段に記憶された事例感情情報の各事例を示す文との類似度を求め、前記入力文に最も類似度が高い事例を示す文に対応する感情状態を前記ユーザの感情状態と推定する
    請求項2〜請求項4の何れか1項記載の応答生成装置。
  6. 前記記憶手段は、所定の自立語と当該自立語により示される感情状態を各々対応付けた自立語感情情報を予め記憶し、
    前記推定手段は、前記入力文に前記感情語が含まれず、前記自立語が1つ含まれる場合に、前記記憶手段に記憶された自立語感情情報において、当該自立語に対応する感情状態を前記ユーザの感情状態と推定する
    請求項2〜請求項5の何れか1項記載の応答生成装置。
  7. 前記生成手段により生成された応答文を出力する出力手段をさらに備えた
    請求項1〜請求項6の何れか1項記載の応答生成装置。
  8. 前記記憶手段は、所定の相槌文を相槌文情報として予め記憶し、
    前記応答生成手段は、前記推定手段による推定結果、ユーザの感情状態を推定できない場合に、前記記憶手段に記憶された前記相槌文情報により示される相槌文を前記入力文に対する応答文とする
    請求項2〜請求項7の何れか1項記載の応答生成装置。
  9. 取得手段により取得された入力文データにより示される入力文に、記憶手段に予め記憶されたユーザの感情状態を表わす所定の感情語が含まれるか検索する検索ステップと、
    前記感情語が含まれる場合に当該感情語により示される感情状態をユーザの感情状態と推定する推定ステップと、
    推定結果に基づいて前記入力文に対する応答文を生成する応答生成ステップと、
    をコンピュータに実行させる応答生成プログラム。
JP2008002259A 2008-01-09 2008-01-09 応答生成装置、及び応答生成プログラム Pending JP2009163620A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008002259A JP2009163620A (ja) 2008-01-09 2008-01-09 応答生成装置、及び応答生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008002259A JP2009163620A (ja) 2008-01-09 2008-01-09 応答生成装置、及び応答生成プログラム

Publications (1)

Publication Number Publication Date
JP2009163620A true JP2009163620A (ja) 2009-07-23

Family

ID=40966143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008002259A Pending JP2009163620A (ja) 2008-01-09 2008-01-09 応答生成装置、及び応答生成プログラム

Country Status (1)

Country Link
JP (1) JP2009163620A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034459B1 (ja) * 2015-08-14 2016-11-30 Psソリューションズ株式会社 対話インターフェース
JP2017037602A (ja) * 2015-08-14 2017-02-16 Psソリューションズ株式会社 対話インターフェース
JP2017037601A (ja) * 2015-08-14 2017-02-16 Psソリューションズ株式会社 対話インターフェース
JP2017091570A (ja) * 2017-01-19 2017-05-25 Psソリューションズ株式会社 対話インターフェース
JP2017157011A (ja) * 2016-03-02 2017-09-07 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2018190077A (ja) * 2017-04-28 2018-11-29 日本放送協会 発話生成装置、発話生成方法及び発話生成プログラム
JP2019159878A (ja) * 2018-03-14 2019-09-19 Kddi株式会社 応答装置、応答方法、応答プログラム及び応答システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6034459B1 (ja) * 2015-08-14 2016-11-30 Psソリューションズ株式会社 対話インターフェース
JP2017037602A (ja) * 2015-08-14 2017-02-16 Psソリューションズ株式会社 対話インターフェース
JP2017037601A (ja) * 2015-08-14 2017-02-16 Psソリューションズ株式会社 対話インターフェース
JP2017157011A (ja) * 2016-03-02 2017-09-07 株式会社アイ・ビジネスセンター 対話システムおよびプログラム
JP2017091570A (ja) * 2017-01-19 2017-05-25 Psソリューションズ株式会社 対話インターフェース
JP2018190077A (ja) * 2017-04-28 2018-11-29 日本放送協会 発話生成装置、発話生成方法及び発話生成プログラム
JP2019159878A (ja) * 2018-03-14 2019-09-19 Kddi株式会社 応答装置、応答方法、応答プログラム及び応答システム
JP7014646B2 (ja) 2018-03-14 2022-02-01 Kddi株式会社 応答装置、応答方法、応答プログラム及び応答システム

Similar Documents

Publication Publication Date Title
WO2019200923A1 (zh) 基于拼音的语义识别方法、装置以及人机对话系统
US9805718B2 (en) Clarifying natural language input using targeted questions
CN106486121B (zh) 应用于智能机器人的语音优化方法及装置
US10460034B2 (en) Intention inference system and intention inference method
JP2009163620A (ja) 応答生成装置、及び応答生成プログラム
JP4729902B2 (ja) 音声対話システム
JP2007219149A (ja) 応答生成装置、方法及びプログラム
EP2988298B1 (en) Response generation method, response generation apparatus, and response generation program
JP2010020390A (ja) 感情推定装置及び感情推定プログラム
JP5913394B2 (ja) 音声同期処理装置、音声同期処理プログラム、音声同期処理方法及び音声同期システム
JP2010157081A (ja) 応答生成装置及びプログラム
JP2007206888A (ja) 応答生成装置、方法及びプログラム
JP2008276543A (ja) 対話処理装置、応答文生成方法、及び応答文生成処理プログラム
JP5136512B2 (ja) 応答生成装置及びプログラム
JP2010282404A (ja) 対話処理装置、対話処理方法、及び対話処理プログラム
JP2008152637A (ja) 応答生成装置及び応答生成プログラム
JP2016080981A (ja) 応答生成装置、応答生成方法及び応答生成プログラム
JP2016024384A (ja) 応答生成装置、応答生成方法及びプログラム
JP6176137B2 (ja) 音声対話装置、音声対話システム及びプログラム
JP5251132B2 (ja) 応答生成装置、及び応答生成プログラム
JP2009198871A (ja) 音声対話装置
JP2009129405A (ja) 感情推定装置、事例感情情報生成装置、及び感情推定プログラム
JP5381211B2 (ja) 音声対話装置及びプログラム
WO2019044534A1 (ja) 情報処理装置、及び情報処理方法
JP6773074B2 (ja) 応答生成方法、応答生成装置及び応答生成プログラム