JP2006031467A - 応答生成プログラム、応答生成方法、および応答生成装置 - Google Patents

応答生成プログラム、応答生成方法、および応答生成装置 Download PDF

Info

Publication number
JP2006031467A
JP2006031467A JP2004210396A JP2004210396A JP2006031467A JP 2006031467 A JP2006031467 A JP 2006031467A JP 2004210396 A JP2004210396 A JP 2004210396A JP 2004210396 A JP2004210396 A JP 2004210396A JP 2006031467 A JP2006031467 A JP 2006031467A
Authority
JP
Japan
Prior art keywords
response
user
facial expression
candidate
response generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004210396A
Other languages
English (en)
Other versions
JP4508757B2 (ja
Inventor
Satoko Shiga
聡子 志賀
Aoshi Okamoto
青史 岡本
Takehisa Ando
剛寿 安藤
Hiroya Inakoshi
宏弥 稲越
Akira Sato
陽 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004210396A priority Critical patent/JP4508757B2/ja
Publication of JP2006031467A publication Critical patent/JP2006031467A/ja
Application granted granted Critical
Publication of JP4508757B2 publication Critical patent/JP4508757B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】対話システムにおいて簡易な処理で最適な応答を生成すること。
【解決手段】システムからの「おなか減りましたねー。」という発話に対し、ユーザが「お寿司、食べる?」と応答した場合に、この対話に類似する事例として事例No.101と102との組、および事例No.523と524との組が検索されたとすると、それぞれの直後の事例、すなわち事例No.103および事例No.525のいずれかがシステムからの応答候補となる。そして、事例No.103の発話に対して予測されるユーザの表情(具体的には事例No.104の表情)は望ましい表情であり、事例No.525の発話に対して予測されるユーザの表情(事例No.526の表情)は望ましくない表情だったとすると、事例No.103が最適事例として選出され、ここから「昨日もお寿司でした!」のような応答が生成される。
【選択図】 図9


Description

この発明は、応答生成プログラム、応答生成方法、および応答生成装置に関する。
ユーザとの間で、バーバル情報(言語)およびノンバーバル情報(表情や声のピッチなど)を用いて対話を行うシステムにおいては、現在のユーザ入力やそこまでの話の流れから抽出した言語特徴や感情特徴をキーに応答生成ルールを検索し、検索されたルールを用いて上記入力に対する応答を生成している(たとえば下記特許文献1〜6参照)。
特開平8−339446号公報 特開平9−81632号公報 特開2000−207214号公報 特開2001−215993号公報 特開2002−123289号公報 特開2004−21121号公報
しかしながら上記従来技術では、上記ルールの作成・管理のコストが高く、どのようなルールが必要かも明確ではないため、対話可能な話題のドメインや応答のバリエーションが限定されてしまっていた。また、人間同士が対話する場合は相手の今の感情だけでなく、もし今自分がこう言えば相手はどういう感情になるかを予測して、対話が望ましい展開になるような言葉を選択するものであるが、このようなユーザ反応の先読みまでを含むルールを用意することはさらに困難であった。
この発明は上述した従来技術による問題点を解消するため、(ルールにより応答を生成するのではなく)これまでの話の流れ(過去)や、こう答えたときに予測されるユーザの反応(未来)まで考慮して検索された最適な事例を模倣することで、簡易な処理で最適な応答を生成することが可能な応答生成プログラム、応答生成方法、および応答生成装置を提供することを目的とする。
上述した課題を解決し、目的を達成するため、この発明にかかる応答生成プログラム、応答生成方法、および応答生成装置は、データベース中の複数の事例の中からユーザに対する応答の候補を検索し、当該候補が複数あった場合には、当該各候補を応答とした場合に予測されるユーザの表情の望ましさの程度を算出するとともに、当該望ましさの程度から各候補の適切度を算出して、この適切度が最大となる候補からユーザに対する応答を生成することを特徴とする。
この発明によれば、ユーザに対する応答は従来のような応答生成ルールでなく、データベースから検索された事例を模倣して生成されるとともに、検索された事例が複数あったときは、その事例を応答とした場合のユーザの表情が最も望ましいと予測されるものが優先的に採用される。
また、この発明にかかる応答生成プログラムは、あらかじめ望ましいか望ましくないかが定義された表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする。
この発明によれば、予測されるユーザの表情が、あらかじめ望ましいとされた表情により似ている事例ほど優先的に模倣される。
また、この発明にかかる応答生成プログラムは、対話の現在の状況に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする。
この発明によれば、予測されるユーザの表情が、対話の現在の状況から見て望ましいとされる表情により似ている事例ほど優先的に模倣される。
本発明にかかる応答生成プログラム、応答生成方法、および応答生成装置によれば、これまでの話の流れ(過去)や、こう答えたときに予測されるユーザの反応(未来)まで考慮して検索された最適な事例を模倣することで、簡易な処理で最適な応答を生成することが可能な応答生成プログラム、応答生成方法、および応答生成装置を提供することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる応答生成プログラム、応答生成方法、および応答生成装置の好適な実施の形態を詳細に説明する。
図1は、この発明の実施の形態にかかる応答生成装置のハードウエア構成を示す説明図である。図中、CPU101は装置全体の制御を司る。ROM102はブートプログラムなどを記憶している。RAM103はCPU101のワークエリアとして使用される。
HDD104は、CPU101の制御にしたがってHD105に対するデータのリード/ライトを制御する。HD105は、HDD104の制御にしたがって書き込まれたデータを記憶する。FDD106は、CPU101の制御にしたがってFD107に対するデータのリード/ライトを制御する。FD107は、FDD106の制御にしたがって書き込まれたデータを記憶する。なお、FD107は着脱可能な記録媒体の一例であり、FD107の代わりにCD−ROM(CD−R、CD−RW)、MO、DVD(Digital Versatile Disk)、メモリーカードなどであってもよい。
ディスプレイ108は、カーソル、ウィンドウ、アイコンなどをはじめ、文書や画像などの各種データを表示する。ネットワークI/F109はLAN/WANなどのネットワークに接続され、当該ネットワークと装置内部とのデータの送受信を司る。キーボード110は、文字、数値、各種指示などの入力のための複数のキーを備え、押下されたキーに対応するデータを装置内部へ入力する。マウス111は本体下部のボールの回転量と回転方向、および本体上部の各ボタンのON/OFFを随時装置内部へ入力する。また、バス100は上記各部を接続する。
次に、図2はこの発明の実施の形態にかかる応答生成装置の機能構成を示す説明図である。図示するように上記装置は、テキスト入力部200、表情入力部201、現対話記憶部202、対話事例DB203、適切性基準DB204、適切性基準切り替え部205、対話戦略DB206、最適事例検索部207、応答生成部208および応答出力部209を備えている。また、テキスト入力部200は形態素解析部200a、DA特定部200bおよびキーワード抽出部200cを、最適事例検索部207は類似事例検索部207aおよび適切度算出部207bを、それぞれ備えている。
まず、テキスト入力部200はユーザからのテキストの入力を受け付けるとともに、入力されたテキストの解析結果、具体的にはユーザの発話の意図を表すDA(Dialogue Act)および発話のトピックを表すキーワードを後述する現対話記憶部202に出力する機能部である。本実施の形態ではこのテキストは、図1に示したキーボード110から入力されるものとするが、あるいはマイクから入力された音声を認識することで、ユーザの発話内容に対応するテキストを取得するようにしてもよい。
入力されたテキストは、テキスト入力部200の形態素解析部200aにより一文ごとに区切られた後、さらに形態素ごとに区切られて、それぞれに品詞情報を付加される。次に、コーパスによりあらかじめ学習されたDA特定部200b(DA分類器)で、文ごとに一つのDAが特定される。さらにキーワード抽出部200cで、あらかじめ用意された抽出規則により文中のキーワードが抽出される。なお、ここではキーワードとして、具体的には名詞、動詞および形容詞を抜き出すものとする(そのため「はじめまして。」などの挨拶文ではキーワードが存在しないこともあり得る)。また、キーワードの数が多い場合は何らかのルールでキーワードをランク付けし、上位いくつかを選択的に抽出する。
次に、表情入力部201はユーザからの表情の入力を受け付けるとともに、入力された表情の解析結果、具体的にはその表情パラメータを後述する現対話記憶部202に出力する機能部である。この表情は、たとえばユーザの顔をカメラで撮影し、撮影画像を表情認識して取得するようにしてもよいが、本実施の形態では図3に示すような顔アイコンの操作によりユーザ自身に入力させる。
この顔アイコンでは、図4に示すように特定の箇所が特徴点(図中黒丸で示される)として定義されており、それぞれの特徴点の位置により、その表情を一意に特定することができる。したがって各特徴点の座標を表情パラメータとしてもよいが、ここでは簡易的に、図中両矢印で示される距離(特徴点間の位置関係と言ってもよい)の組み合わせを表情パラメータとする。そして、ディスプレイ108に表示された図3の顔アイコンで、ユーザがたとえば左右の眉尻と左右の口角の4カ所をマウス111で下へドラッグすると、表情入力部201はドラッグ後の顔アイコンの表情パラメータを算出して、その表情を図5のように変化させる。
なお、このように顔の各パーツを逐一操作するのでなく、あらかじめ用意された「笑い顔」「怒り顔」などのテンプレート(基本顔)の中から一つを選択することで、所望の表情を入力できるようにしてもよい。また、たとえば左の眉尻を下にドラッグしたとき、左の眉尻だけが下がる(顔の片方だけが動く)か、左と右の眉尻が同時に下がる(顔の両方が動く)かをユーザが設定できるようにしてもよい。
図2の説明に戻り、次に現対話記憶部202は、本装置(以下では「本システム」ともいう)とユーザとの間で交わされている対話(以下では「現対話」という)中の個々の発話のDA、キーワードおよび表情パラメータ(以下ではこれらをまとめて「発話特徴」という)を保持する機能部である。
図6は、現対話記憶部202に保持される発話特徴の内容を模式的に示す説明図である。たとえば、システムからの「おなか減りましたねー。」という出力に対し、ユーザが「お寿司、食べる?」と入力してきた場合、現対話記憶部202には「おなか減りましたねー。」の発話特徴と、「お寿司、食べる?」の発話特徴とが順次蓄積される。なお、図中「お寿司、食べる?」のDAとキーワードとは上述のテキスト入力部200で、その表情パラメータは上述の表情入力部201で、それぞれ求められたものである。
図2の説明に戻り、次に対話事例DB203は、二者間での対話を構成する個々の発話の事例を多数保持するDB(データベース)である。図7は、対話事例DB203の内容を模式的に示す説明図である。図中、たとえば事例No.1の「はじめまして。」は対話者Aの発話であり、事例No.2の「はじめまして。」は上記に対する対話者Bの発話である。以下同様に、事例No.3はA、事例No.4はBというように、AとBとの発話が交互に、時系列順に格納されている。
なお、図中「対話セッションNo.」が同一の事例は一続きの対話を構成しているが、たとえばセッションNo.21の対話とセッションNo.142の対話とはたまたま似たようなやり取りであるにすぎず、文脈的には無関係である。また、図中「発話No.」とは、同一セッション内での各発話の通し番号である。ある発話No.で特定される一回の発話が、複数の文で構成されることもある。なお、対話事例DB203には図示する項目のほか、個々の事例を発話した対話者のユーザプロファイル(たとえばユーザID、性別、年齢など)を保持するようにしてもよい。
図2の説明に戻り、次に適切性基準DB204は、ユーザの表情として望ましい表情の例と望ましくない表情の例とを多数保持するDBである。図8は、適切性基準DB204の内容を模式的に示す説明図である。図中、フラグが1となっている表情(当該フラグに対応する表情パラメータで決定される表情)は望ましい表情の例、フラグが0となっている表情は望ましくない表情の例である。なお、望ましい表情や望ましくない表情はそれぞれ複数指定できる。
もっとも、たとえばその表情だけを見た場合には望ましい表情でも、ある特定の表情やDAの次に来るのは望ましくないというように、表情の適切性は対話の現在の状況などによって変化するものである。そこで、たとえばどの表情の後なら適切でどの表情の後なら不適切といった、順序面での制約条件を適切性基準DB204に保持するようにしてもよいが、本実施の形態では適切性基準DB204内の各表情のフラグを、現在の対話の状況に応じてその途中で動的に切り替えるようにする。
図2に示す適切性基準切り替え部205は、このフラグの切り替え、すなわち後述する適切度算出部207bで使用される適切性基準の切り替えを行う機能部である。また、対話戦略DB206はこの切り替えのルール、すなわちたとえば特定の表情やDAの直後である、話題が特定のトピックである、対話継続時間が一定値を超えている、ユーザがn才未満であるなどの条件と、当該条件が満足された場合に適切性基準DB204に設定されるべき各表情のフラグの値とを保持するデータベースである(具体的には「対話継続時間が15分を超えた場合は眠そうな表情Aを望ましくないとする」「ユーザが10才未満の場合は怒り顔Bより泣き顔Cのほうが望ましくないとする」など)。
次に、最適事例検索部207はユーザの入力に対する本システムからの出力(応答)として最適な事例を対話事例DB203から検索する機能部である。最適事例検索部207はその類似事例検索部207aにより、対話事例DB203の中から現在のユーザ入力に類似する事例(厳密には、当該入力に至るまでの一連の発話に類似する一連の事例)を検索して、その直後の事例を応答候補とするが、類似する事例が複数あった場合(上記候補が複数あった場合)は、適切度算出部207bにより適切性基準DB204を参照して、そのうち最適な一つを絞り込む。
たとえばシステムからの「おなか減りましたねー。」という発話に対し、ユーザが「お寿司、食べる?」と応答した場合、現対話記憶部202には図9に模式的に示すように、一つ前のシステム出力である「おなか減りましたねー。」の発話特徴と、現在のユーザ入力である「お寿司、食べる?」の発話特徴とが順次蓄積される。そしてこの状態で次のシステム出力、すなわち「お寿司、食べる?」に対するシステムからの応答としてふさわしいものを対話事例DB203から検索する例を考える。
最も単純には、対話事例DB203中の事例で「お寿司、食べる?」との類似度が最も高いものを特定し、その直後の事例を応答候補とすればよい。ここで、ある発話とある事例との類似度は、たとえばそれぞれのDAの類似度、キーワードの類似度、表情パラメータの類似度の3つの和であるものとする(単なる和でなく重み付き和としてもよい)。
なお、DAやキーワードの類似度は従来技術のDPマッチングなどにより算出する。このとき、キーワードがない場合はテキスト全体の類似度を算出する。また、シソーラスを用いてキーワード間の意味的な類似度を算出するようにしてもよい。一方、表情パラメータの類似度Rはたとえば下記(1)式により算出する。
Figure 2006031467
Wpは顔のパーツ(具体的には眉・目・口)ごとの重みであり、上記式はパーツごとの類似度Rpの重み付き和を求めていることになる。なお、Rpは特徴点間の距離Djを用いて下記(2)式により算出する。
Figure 2006031467
もっとも、ただ単に現在のユーザ入力に注目するだけではそこまでの話の流れが無視されてしまうので、本実施の形態では上記入力を含む直近M個の発話に注目する。たとえばM=2のときは、現在のユーザ入力である「お寿司、食べる?」と、一つ前のシステム出力である「おなか減りましたねー。」の2つの発話に注目し、この2つの発話の並び(シーケンス)と類似する事例の並びを対話事例DB203から検索する。その結果、図9に示すように、事例No.101と102との組、および事例No.523と524との組が検索されたとする(なお、複数事例間の類似度は、たとえば個々の事例間の類似度の和または重み付き和であるものとする)。
この場合、事例No.103の「昨日もトンカツでした!」か、事例No.525の「君のラーメンはおいしくないからイヤ。」のいずれかが、現在のユーザ入力「お寿司、食べる?」に対するシステムからの応答候補となる。そして、いずれの候補を最終的に採用するかを、本発明では「その出力に対して予測されるユーザの反応(本実施の形態では表情であるが、このほか声のピッチなどであってもよい)の望ましさの程度」によって決定する。
たとえば事例No.103の「昨日もトンカツでした!」を次のシステム出力とした場合、事例No.104に示すような表情が次のユーザ入力となる可能性が高い。そしてこの表情は、適切性基準DB204内の複数の表情のうち、望ましい表情として定義されているものに類似している。一方、事例No.525の「君のラーメンはおいしくないからイヤ。」を次のシステム出力とした場合、予測されるユーザの表情、すなわち事例No.526の表情は、適切性基準DB204で望ましくないと定義された表情に類似している。なお、表情間の類似度は上述の(1)式および(2)式により算出する。
そこで、たとえば予測されるユーザの表情が望ましい表情と類似している場合はその類似度を、望ましくない表情と類似している場合はその類似度の符号を反転したものを、それぞれ適切度とみなして各候補をランク付けし、適切度が最大となる事例、すなわちそう答えた場合のユーザの反応が最も好ましいもの(上記例では「昨日もトンカツでした!」)を最適事例として採用する。
なお、ここでは処理速度の観点から、まず類似事例を絞り込んだ上で各候補の適切性を判断するようにしたが、逆に望ましい表情の事例を絞り込んでその直前のものを応答候補とし、さらにその直前のM個の発話と現対話との類似度を計算するようにしてもよい。また、先に類似度で絞り込んでから適切度で絞り込む、あるいは逆に適切度で絞り込んでから類似度で絞り込むことのほか、個々の事例につき類似度と適切度を並行して計算し、これらの和や重み付き和が最大となるものを最適事例として選出することも考えられる。
図2の説明に戻り、次に応答生成部208は最適事例検索部207で検索された最適事例を適宜加工することで、現在のユーザ入力にふさわしい次のシステム出力を生成する機能部である。具体的には、たとえば最適事例検索部207で検索された「昨日もトンカツでした!」中のキーワード「トンカツ」を、現在のユーザ入力である「お寿司、食べる?」中のキーワード「お寿司」で置換することで、「昨日もお寿司でした!」を生成する。なお、表情については特に加工しない。そして、生成されたテキストおよび表情は応答出力部209に引き渡されて、たとえば図10のように画面表示されるとともに、その発話特徴が現対話記憶部202中の現対話の末尾に追加される。
次に、図11はこの発明の実施の形態にかかる応答生成装置における、応答生成処理の手順を示すフローチャートである。図示する処理は本装置のユーザから、テキストおよび表情の入力があったときに開始される。
本装置はまず、そのテキスト入力部200の形態素解析部200aにより、上記テキストを一文ごとかつ一形態素ごとに分割する(ステップS1101)。次にそのDA特定部200bにより、各文のDAを特定するとともに(ステップS1102)、キーワード抽出部200cにより、文中のキーワードを抽出する(ステップS1103)。一方、表情入力部201では入力された表情の表情パラメータを算出する(ステップS1104)。なお、ステップS1101〜S1103とステップS1104とは順序が逆であってもよく、あるいは同時に並行して処理されるのでもよい。
そして、上記処理で得られたユーザ入力の発話特徴は現対話記憶部202に保存され(ステップS1105)、次に本装置はその最適事例検索部207により、上記入力に対する応答として最適な事例を対話事例DB203から検索する(ステップS1106〜S1111)。
すなわち、最適事例検索部207はまずその類似事例検索部207aにより、上記入力に至る一連の発話(ここでは現在のユーザ入力および一つ前のシステム出力の2個の発話)に類似する一連の事例を対話事例DB203から検索し(ステップS1106)、検索されたそれぞれの事例の直後の事例を応答候補とする。
そして類似する一連の事例が複数あった場合、すなわち応答候補が複数あった場合(ステップS1107:Yes)は、次に適切性基準切り替え部205に指示して、適切性基準DB204内のフラグを切り替える必要があるかどうか判断させる。そして、現対話記憶部202に蓄積された現対話が、対話戦略DB206に保持された切り替えルールのいずれかの条件を満足する場合(ステップS1108:Yes)、適切性基準切り替え部205は適切性基準DB204内の上記フラグを上記ルールにしたがって書き換える(ステップS1109)。現対話記憶部202に蓄積された現対話が、対話戦略DB206に保持された切り替えルールのいずれの条件も満足しない場合(ステップS1108:No)は、何もせずに、ステップS1110へ移行する。
その後、最適事例検索部207はその適切度算出部207bにより、各応答候補について予測されるユーザ入力の望ましさの程度(適切性基準DB204で定義されている望ましい表情との類似度)、すなわち各候補の適切度を算出する(ステップS1110)。次に、この適切度が最も高い候補一つを絞り込み(ステップS1111)、この絞り込まれた候補を最適事例とする。なお、応答候補が一つのみであった場合は(ステップS1107:No)ステップS1108〜S1111は省略され、当該候補が最適事例となる。
その後、応答生成部208が上記処理で得られた最適事例から次のシステム出力を生成し(ステップS1112)、これを応答出力部209に引き渡して画面表示させる(応答出力する)とともに(ステップS1113)、その発話特徴を現対話記憶部202に保存する(ステップS1114)。この時点で図示するフローチャートによる処理は一旦終了し、ステップS1113で出力した応答に対するユーザ入力が再びあったときに、同一の処理が繰り返される。
以上説明した実施の形態によれば、システムからの応答を対話事例の模倣により生成するので、従来のような複雑な生成ルールを用意しなくとも、単に大量の対話事例を収集・蓄積しておくだけで、様々なドメインにおけるバリエーション豊かな対話が可能となる。話題が変化すると受け答えができなくなるようなこともなく、いつでも何らかの応答が可能なロバストな対話システムが実現できる。また、事例の検索にあたって、これまでの話の流れ(過去)やシステムがこう答えたときに予測されるユーザの反応(未来)も考慮するので、現在のユーザ入力のみに注目するのに比べて、より自然で適切な応答を行い得る。
なお、対話事例DB203内の対話事例は、たとえばシステムのふりをしたオペレータとユーザとを対話させることで収集してもよいし(Wizard of OZ法。たとえば図12に示すようなUI画面を有する専用プログラムにより、オペレータとユーザとを対話させる)、あるいはユーザ間のチャットや掲示板などのデータを収集するようにしてもよい。また対話の終了後、現対話記憶部202に蓄積された現対話を対話事例DB203に追加したり、あるいは入出力の都度、入力あるいは出力された発話を逐一追加したりすれば、システムは対話を経験するごとに新たな事例を獲得・学習するので、事例のメンテナンスの手間がかからない。
なお、上述した実施の形態では表情の類似度=感情の類似度であることを前提としたが、実際には、表情としては似ているがその背景にある感情は大きく異なるものやその逆のものなどがある。そこで、あらかじめコーパスで学習された感情分類器を用いて、ある表情パラメータで決定される表情から喜び度○%、怒り度○%といった感情値を算出し(表情をいったん感情値に落とし込むと言ってもよい)、この感情値の類似度により類似事例の検索や適切度の算出を行うようにしてもよい。
なお、上述した実施の形態では、対話戦略DB206内にあらかじめ適切性基準の切り替えルールを保持するようにしたが、ユーザ自身がどんな対話をしたいかによって、表情の適切性を対話の途中で動的に指定できる(上述のテキストや表情とともに、適切性の基準を入力として与える)ようにしてもよい。たとえばもっとシステムに元気づけてもらいたいユーザは、笑顔を望ましい表情、泣き顔を望ましくない表情として指定することで、自分がより笑顔になれるような肯定的な応答をシステムから期待できるようになる。なお、対話の途中でなく、対話の最初に上記基準を入力することももちろん可能である。
なお、本発明の適用シーンとしては具体的には、たとえば、
(1)ペットロボット
子供や一人暮らしのお年寄りなどの話し相手になるロボット。ユーザの表情を取り込んで認識するためのカメラや、認識した表情・各種設定などを表示するためのディスプレイ、音声認識・合成機能などを搭載してもよい。
(2)Webポータルサービス
図13のようなチャットサービス(ポータルページにチャットキャラがいて全ユーザと会話するサービスや、ユーザのマイHPにそれぞれ別のチャットキャラを置けるサービスなど)、blogコメントサービス(記事に対し自動的にコメントをつけるサービス)、図14のような掲示板自動発言サービス(掲示板を監視し、適宜自動発言を行うサービス。既出の質問への自動回答や、反応してあげることによるユーザ入力の動機付けなど)
(3)e−learning
図15のように、先生やアシスタントなどとしてユーザの学習をサポートするエージェント
(4)会議
会議に参加し、適宜関連情報を提供して、話題を展開させる/話題をまとめるきっかけ発言をするエージェント
などが考えられる。
なお、本実施の形態で説明した応答生成方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク105、フレキシブルディスク107、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体であってもよい。
(付記1)データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索工程と、
前記検索工程で検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出工程と、
前記第1の算出工程で算出された望ましさの程度から前記各候補の適切度を算出する第2の算出工程と、
前記第2の算出工程で算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成工程と、
をコンピュータに実行させることを特徴とする応答生成プログラム。
(付記2)前記第1の算出工程では、あらかじめ望ましいか望ましくないかが定義された表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記1に記載の応答生成プログラム。
(付記3)前記第1の算出工程では、対話の現在の状況に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記1に記載の応答生成プログラム。
(付記4)前記第1の算出工程では、前記ユーザからの指定に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記1に記載の応答生成プログラム。
(付記5)データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索工程と、
前記検索工程で検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出工程と、
前記第1の算出工程で算出された望ましさの程度から前記各候補の適切度を算出する第2の算出工程と、
前記第2の算出工程で算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成工程と、
を含むことを特徴とする応答生成方法。
(付記6)前記第1の算出工程では、あらかじめ望ましいか望ましくないかが定義された表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記5に記載の応答生成方法。
(付記7)前記第1の算出工程では、対話の現在の状況に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記5に記載の応答生成方法。
(付記8)前記第1の算出工程では、前記ユーザからの指定に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記5に記載の応答生成方法。
(付記9)データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索手段と、
前記検索手段により検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出手段と、
前記第1の算出手段により算出された望ましさの程度から前記各候補の適切度を算出する第2の算出手段と、
前記第2の算出手段により算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成手段と、
を備えることを特徴とする応答生成装置。
(付記10)前記第1の算出手段は、あらかじめ望ましいか望ましくないかが定義された表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記9に記載の応答生成装置。
(付記11)前記第1の算出手段は、対話の現在の状況に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記9に記載の応答生成装置。
(付記12)前記第1の算出手段は、前記ユーザからの指定に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記付記9に記載の応答生成装置。
以上のように、本発明にかかる応答生成プログラム、応答生成方法、および応答生成装置は、ユーザからの入力に対してシステムが自動応答する用途に有用であり、特に対話のドメインが多岐にわたるために、従来技術では応答生成ルールの作成・管理に多大なコストがかかってしまう場合に適している。
この発明の実施の形態にかかる応答生成装置のハードウエア構成を示す説明図である。 この発明の実施の形態にかかる応答生成装置の機能構成を示す説明図である。 顔アイコンの一例を示す説明図である。 顔アイコン上の特徴点の配置を示す説明図である。 顔アイコンの他の一例を示す説明図である。 現対話記憶部202に保持される発話特徴の内容を模式的に示す説明図である。 対話事例DB203の内容を模式的に示す説明図である。 適切性基準DB204の内容を模式的に示す説明図である。 最適事例検索部207による最適事例の検索の様子を模式的に示す説明図である。 ユーザ入力に対するシステムからの出力の一例を示す説明図である。 この発明の実施の形態にかかる応答生成装置における、応答生成処理の手順を示すフローチャートである。 対話事例を収集する専用プログラムのUI画面の一例を示す説明図である。 本発明のチャットサービスへの適用例を示す説明図である。 本発明の掲示板サービスへの適用例を示す説明図である。 本発明のe−learningへの適用例を示す説明図である。
符号の説明
200 テキスト入力部
200a 形態素解析部
200b DA特定部
200c キーワード抽出部
201 表情入力部
202 現対話記憶部
203 対話事例DB
204 適切性基準DB
205 適切性基準切り替え部
206 対話戦略DB
207 最適事例検索部
207a 類似事例検索部
207b 適切度算出部
208 応答生成部
209 応答出力部


Claims (5)

  1. データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索工程と、
    前記検索工程で検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出工程と、
    前記第1の算出工程で算出された望ましさの程度から前記各候補の適切度を算出する第2の算出工程と、
    前記第2の算出工程で算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成工程と、
    をコンピュータに実行させることを特徴とする応答生成プログラム。
  2. 前記第1の算出工程では、あらかじめ望ましいか望ましくないかが定義された表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記請求項1に記載の応答生成プログラム。
  3. 前記第1の算出工程では、対話の現在の状況に応じて望ましいか望ましくないかが動的に定義される表情との類似度を算出することで前記各表情の望ましさの程度を算出することを特徴とする前記請求項1に記載の応答生成プログラム。
  4. データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索工程と、
    前記検索工程で検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出工程と、
    前記第1の算出工程で算出された望ましさの程度から前記各候補の適切度を算出する第2の算出工程と、
    前記第2の算出工程で算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成工程と、
    を含むことを特徴とする応答生成方法。
  5. データベース中の複数の事例の中からユーザに対する応答の候補を検索する検索手段と、
    前記検索手段により検索された候補が複数あった場合に、当該各候補を応答とした場合に予測される前記ユーザの表情の望ましさの程度を算出する第1の算出手段と、
    前記第1の算出手段により算出された望ましさの程度から前記各候補の適切度を算出する第2の算出手段と、
    前記第2の算出手段により算出された適切度が最大となる候補から前記ユーザに対する応答を生成する生成手段と、
    を備えることを特徴とする応答生成装置。

JP2004210396A 2004-07-16 2004-07-16 応答生成プログラム、応答生成方法、および応答生成装置 Expired - Fee Related JP4508757B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004210396A JP4508757B2 (ja) 2004-07-16 2004-07-16 応答生成プログラム、応答生成方法、および応答生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004210396A JP4508757B2 (ja) 2004-07-16 2004-07-16 応答生成プログラム、応答生成方法、および応答生成装置

Publications (2)

Publication Number Publication Date
JP2006031467A true JP2006031467A (ja) 2006-02-02
JP4508757B2 JP4508757B2 (ja) 2010-07-21

Family

ID=35897721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004210396A Expired - Fee Related JP4508757B2 (ja) 2004-07-16 2004-07-16 応答生成プログラム、応答生成方法、および応答生成装置

Country Status (1)

Country Link
JP (1) JP4508757B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010027561A1 (en) * 2008-08-27 2010-03-11 Robert Bosch Gmbh System and method for generating natural language phrases from user utterances in dialog systems
JP2012059161A (ja) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> 行動タイミング決定装置、行動タイミング決定方法、およびそのプログラム
JP2016099968A (ja) * 2014-11-26 2016-05-30 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、プログラム、及びデータ構造
JP2017173873A (ja) * 2016-03-18 2017-09-28 ヤフー株式会社 情報提供装置および情報提供方法
JP2019074865A (ja) * 2017-10-13 2019-05-16 ロボットスタート株式会社 会話収集装置、会話収集システム及び会話収集方法
KR20210123150A (ko) * 2020-04-02 2021-10-13 한국과학기술연구원 감정표현을 시각적으로 나타낼 수 있는 챗봇 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2000207214A (ja) * 1999-01-20 2000-07-28 Victor Co Of Japan Ltd 対話装置
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
JP2003044088A (ja) * 2001-07-27 2003-02-14 Sony Corp プログラム、記録媒体、並びに音声対話装置および方法
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2000207214A (ja) * 1999-01-20 2000-07-28 Victor Co Of Japan Ltd 対話装置
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002123289A (ja) * 2000-10-13 2002-04-26 Matsushita Electric Ind Co Ltd 音声対話装置
JP2003044088A (ja) * 2001-07-27 2003-02-14 Sony Corp プログラム、記録媒体、並びに音声対話装置および方法
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010027561A1 (en) * 2008-08-27 2010-03-11 Robert Bosch Gmbh System and method for generating natural language phrases from user utterances in dialog systems
US8874443B2 (en) 2008-08-27 2014-10-28 Robert Bosch Gmbh System and method for generating natural language phrases from user utterances in dialog systems
CN102165518B (zh) * 2008-08-27 2015-11-25 罗伯特·博世有限公司 用于在对话系统中从用户话语产生自然语言短语的系统和方法
JP2012059161A (ja) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> 行動タイミング決定装置、行動タイミング決定方法、およびそのプログラム
JP2016099968A (ja) * 2014-11-26 2016-05-30 株式会社ユニバーサルエンターテインメント 情報提供システム、情報提供方法、プログラム、及びデータ構造
JP2017173873A (ja) * 2016-03-18 2017-09-28 ヤフー株式会社 情報提供装置および情報提供方法
JP2019074865A (ja) * 2017-10-13 2019-05-16 ロボットスタート株式会社 会話収集装置、会話収集システム及び会話収集方法
JP7055327B2 (ja) 2017-10-13 2022-04-18 ロボットスタート株式会社 会話収集装置、会話収集システム及び会話収集方法
KR20210123150A (ko) * 2020-04-02 2021-10-13 한국과학기술연구원 감정표현을 시각적으로 나타낼 수 있는 챗봇 시스템
KR102390068B1 (ko) * 2020-04-02 2022-04-26 한국과학기술연구원 감정표현을 시각적으로 나타낼 수 있는 챗봇 시스템

Also Published As

Publication number Publication date
JP4508757B2 (ja) 2010-07-21

Similar Documents

Publication Publication Date Title
KR102580322B1 (ko) 컨퍼런스 기능을 갖는 자동화된 어시스턴트
US7797261B2 (en) Consultative system
Schroder et al. Building autonomous sensitive artificial listeners
JP7352115B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム
Lee et al. Predicting speaker head nods and the effects of affective information
JP2006178063A (ja) 対話処理装置
Nishida Conversational informatics: An engineering approach
Ma et al. Question-answering virtual humans based on pre-recorded testimonies for holocaust education
Olinger Visual embodied actions in interview-based writing research: A methodological argument for video
JPWO2019160090A1 (ja) 非言語情報生成装置、方法、及びプログラム
US7383171B2 (en) Semantic stenography using short note input data
Rayar et al. ALCOVE: An accessible comic reader for people with low vision
JP4508757B2 (ja) 応答生成プログラム、応答生成方法、および応答生成装置
JP2000259601A (ja) 会話装置および方法
Nijholt Conversational agents and the construction of humorous acts
Smith et al. Multimodal input for computer access and augmentative communication
Rydeman The growth of phrases. User-centred design for activity-based voice output communication aids
WO2019160104A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Lee et al. Learning a model of speaker head nods using gesture corpora.
Maybury Multimedia interaction for the new millennium.
JP3787623B2 (ja) 会話表現生成装置、及び会話表現生成プログラム
Padilha Modelling turn-taking in a simulation of small group discussion
JP7425945B1 (ja) コンピュータ会話装置、コンピュータ会話方法およびコンピュータ会話装置用のプログラム
Steinfeld The benefit to the deaf of real-time captions in a mainstream classroom environment
Schmauks et al. Integration of communicative hand movements into human-computer-interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4508757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees