JP2003255990A - 対話処理装置及び方法並びにロボット装置 - Google Patents

対話処理装置及び方法並びにロボット装置

Info

Publication number
JP2003255990A
JP2003255990A JP2002060427A JP2002060427A JP2003255990A JP 2003255990 A JP2003255990 A JP 2003255990A JP 2002060427 A JP2002060427 A JP 2002060427A JP 2002060427 A JP2002060427 A JP 2002060427A JP 2003255990 A JP2003255990 A JP 2003255990A
Authority
JP
Japan
Prior art keywords
response
dialogue
generating means
responses
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002060427A
Other languages
English (en)
Other versions
JP2003255990A5 (ja
JP4062591B2 (ja
Inventor
Kazumi Aoyama
一美 青山
Hideki Shimomura
秀樹 下村
Keiichi Yamada
敬一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002060427A priority Critical patent/JP4062591B2/ja
Publication of JP2003255990A publication Critical patent/JP2003255990A/ja
Publication of JP2003255990A5 publication Critical patent/JP2003255990A5/ja
Application granted granted Critical
Publication of JP4062591B2 publication Critical patent/JP4062591B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】自然な対話を行い得る簡易な構成の対話処理装
置及びロボット装置、並びに装置構成を簡易化させなが
ら、自然な対話を行い得るようにすることができる対話
処理方法を提案する。 【解決手段】それぞれ別個の応答生成ルールに従って、
対話相手の発話に対する複数の応答を生成し、生成され
た各応答の中から1つの応答を所定の評価関数を用いた
評価結果に基づいて選択し、選択した応答を外部に音声
出力するようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、対話処理装置及び
方法並びにロボット装置に関し、例えばエンターテイン
メントロボットに適用して好適なものである。
【0002】
【従来の技術】従来の音声対話システムとしては、例え
ばテレフォンショッピングの受け付けや、電話番号案内
など、あるタスクの達成を目的としたものがほとんどで
ある。かかるタスク指向の対話は、ユーザに何を聞けば
よいのかが所定の一連の流れに従ってある程度決まって
いるので、通常は、シナリオが予め定められた対話の記
述に適した状態遷移図やスロットフィリングによって対
話が記述される。
【0003】
【発明が解決しようとする課題】ところで、近年、一般
家庭向けのエンターテインメントロボットが数多く商品
化されている。このようなエンターテインメントロボッ
トに対し、例えば人間同士が日常的に行う対話と同様の
対話をユーザとの間で行い得るような音声対話機能を搭
載することができれば、当該エンターテインメントロボ
ットに対するユーザの親近感を向上させてエンターテイ
ンメント性を格段的に向上させ得、さらには一人暮らし
の老人の話し相手にもなり得る等、その有用性を格段的
に向上させ得るものと考えられる。
【0004】しかしながら、人間同士の対話の中には、
上述のようなある一定の目的を達成するための対話以外
に対話そのものが目的となる雑談がある。そして雑談時
には、ユーザが何を喋るのかを予測することが難しく、
例えば状態遷移図やスロットフィリングによって、全て
のユーザ発話を予測してシステムの応答を記述しておく
ことは大変困難であり、従来提案されている手法では実
用上十分には対応し得ない問題がある。
【0005】またユーザとの対話では、カウンセリング
を例とするような受動的に聞くというインタラクション
も必要となってくるが、この際のロボットの応答の仕方
にも工夫が必要であり、単にロボットが機械的にうなず
いているだけでは対話が成立せず、不自然さをユーザに
感じさせる問題がある。
【0006】本発明は以上の点を考慮してなされたもの
で、自然な対話を行い得る簡易な構成の対話処理装置及
びロボット装置、並びに装置構成を簡易化させながら、
自然な対話を行い得るようにすることができる対話処理
方法を提案しようとするものである。
【0007】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、対話処理装置において、対話相手
の発話を音声認識する音声認識手段と、それぞれ音声認
識手段の認識結果に基づき、別個の応答生成ルールに従
って、対話相手の発話に対する応答を生成する複数の応
答生成手段と、各応答生成手段によりそれぞれ生成され
た応答の中から1つの応答を所定の評価関数を用いた評
価結果に基づいて選択する選択手段と、選択手段により
選択された応答を外部に音声出力する音声出力手段とを
設けるようにした。
【0008】この結果、この対話処理装置においては、
例えば雑談等の目的のない対話にも実用上十分に対応す
ることができ、また例えば状態遷移図やスロットフィリ
ングによって全てのユーザ発話を予測してシステムの応
答を記述しておく場合に比べて設計や構成を格段的に容
易化及び簡易化させることができる。
【0009】また本発明においては、対話処理方法にお
いて、対話相手の発話を音声認識する第1のステップ
と、それぞれ認識結果に基づき、それぞれ別個の応答生
成ルールに従って、対話相手の発話に対する複数の応答
を生成する第2のステップと、生成された各応答の中か
ら1つの応答を所定の評価関数を用いた評価結果に基づ
いて選択する第3のステップと、選択した応答を外部に
音声出力する第4のステップとを設けるようにした。
【0010】この結果、この対話処理方法によれば、例
えば雑談等の目的のない対話にも実用上十分に対応する
ことができ、また例えば状態遷移図やスロットフィリン
グによって全てのユーザ発話を予測してシステムの応答
を記述しておく場合に比べて装置の設計や構成を格段的
に容易化及び簡易化させることができる。
【0011】さらに本発明においては、ロボット装置に
おいて、対話相手の発話を音声認識する音声認識手段
と、それぞれ音声認識手段の認識結果に基づき、別個の
応答生成ルールに従って、対話相手の発話に対する応答
を生成する複数の応答生成手段と、各応答生成手段によ
りそれぞれ生成された応答の中から1つの応答を所定の
評価関数を用いた評価結果に基づいて選択する選択手段
と、選択手段により選択された応答を外部に音声出力す
る音声出力手段とを設けるようにした。
【0012】この結果、このロボット装置においては、
例えば雑談等の目的のない対話にも実用上十分に対応す
ることができ、また例えば状態遷移図やスロットフィリ
ングによって全てのユーザ発話を予測してシステムの応
答を記述しておく場合に比べて設計や構成を格段的に容
易化及び簡易化させることができる。
【0013】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0014】(1)本実施の形態によるロボット1の構
成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ同じ構成の腕部ユニッ
ト4A、4Bがそれぞれ配設され、かつ胴体部ユニット
2の下部左右にそれぞれ同じ構成の脚部ユニット5A、
5Bがそれぞれ所定位置に取り付けられることにより構
成されている。
【0015】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA、Aをそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させることができるようになされている。
【0016】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA、Aをそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させることができるよ
うになされている。
【0017】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA、Aをそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させることができるようになされて
いる。
【0018】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータAの出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータAが連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
【0019】そして各腕部ユニット4A、4Bでは、ア
クチュエータAを駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
【0020】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。
【0021】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
【0022】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA
12を駆動することによって、下腿部を図3に示すピッ
チ軸35の回りに回転させることができ、また足首関節
機構33のアクチュエータA 、A14をそれぞれ駆
動することによって、足部34を図3に示す直交するピ
ッチ軸36及びロール軸37の回りにそれぞれ独立に回
転させることができるようになされている。
【0023】一方、胴体部ユニット2の体幹下部を形成
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
【0024】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行ったりすることができるようになさ
れている。
【0025】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA
14と接続されており、当該構成ユニット内の各アク
チュエータA〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
【0026】さらに頭部ユニット3には、図5に示すよ
うに、このロボット1の「目」として機能するCCD
(Charge Coupled Device )カメラ50及び「耳」とし
て機能するマイクロホン51及びタッチセンサ52など
からなる外部センサ部53と、「口」として機能するス
ピーカ54となどがそれぞれ所定位置に配設され、制御
ユニット42内には、バッテリセンサ55及び加速度セ
ンサ56などからなる内部センサ部57が配設されてい
る。
【0027】そして外部センサ部53のCCDカメラ5
0は、周囲の状況を撮像し、得られた画像信号S1Aを
メイン制御部に送出する一方、マイクロホン51は、ユ
ーザから音声入力として与えられる「歩け」、「伏せ」
又は「ボールを追いかけろ」等の各種命令音声を集音
し、かくして得られた音声信号S1Bをメイン制御部4
0に送出するようになされている。
【0028】またタッチセンサ52は、図1及び図2に
おいて明らかなように頭部ユニット3の上部に設けられ
ており、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出し、検出結果を
圧力検出信号S1Cとしてメイン制御部40に送出す
る。
【0029】さらに内部センサ部57のバッテリセンサ
55は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ56は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。
【0030】メイン制御部40は、外部センサ部53の
CCDカメラ50、マイクロホン51及びタッチセンサ
52等からそれぞれ供給される画像信号S1A、音声信
号S1B及び圧力検出信号S1C等(以下、これらをま
とめて外部センサ信号S1と呼ぶ)と、内部センサ部5
7のバッテリセンサ55及び加速度センサ等からそれぞ
れ供給されるバッテリ残量検出信号S2A及び加速度検
出信号S2B等(以下、これらをまとめて内部センサ信
号S2と呼ぶ)に基づいて、ロボット1の周囲及び内部
の状況や、ユーザからの指令、ユーザからの働きかけの
有無などを判断する。
【0031】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ58に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンドを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンドに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA〜A14が駆
動され、かくして頭部ユニット3を上下左右に揺動させ
たり、腕部ユニット4A、4Bを上にあげたり、歩行す
るなどの行動がロボット1により発現されることとな
る。
【0032】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。
【0033】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。
【0034】(2)音声対話機能に関するメイン制御部
40の処理 次にこのロボット1に搭載された音声対話機能について
説明する。
【0035】このロボット1には、ユーザの発話に対し
て複数種類の応答を順次生成し、その中から1つの応答
を所定の規則に従って選択して音声出力することによ
り、雑談等の目的のない対話にも実用上十分に対応しな
がら、ユーザに不自然さを感じさせずに当該対話を行わ
せ得る音声対話機能が搭載されている。そしてこの音声
対話機能は、メイン制御部40におけるソフトウェア処
理により実現されている。
【0036】ここで、かかる音声対話機能に関するメイ
ン制御部40の処理内容を機能的に分類すると、図6に
示すように、ユーザの発話を音声認識する音声認識部6
0と、当該音声認識部60の認識結果に基づいて、複数
種類の応答を生成する応答生成部61と、応答生成部6
1が生成した複数種類の応答の中から1つの応答を選択
する対話制御部62と、対話制御部62により選択され
た応答の音声信号を生成する音声合成部63とに分ける
ことができる。以下、これら音声認識部60、応答生成
部61、対話制御部62及び音声合成部63の処理につ
いて説明する。
【0037】(2−1)音声認識部60の処理 音声認識部60においては、マイクロホン51(図5)
から与えられる音声信号S1Bに基づいてユーザの発話
内容を音声認識し、当該認識結果を文字列のデータ(以
下、これを認識文字列データと呼ぶ)D1として対話制
御部62を介して応答生成部61に送出する。なお、認
識文字列データD1には、かかる認識処理時に得られた
イントネーションやアクセント等の韻律情報などのパラ
言語も含まれ、例えばユーザ発話の語尾の韻律が何らか
の質問をするときの韻律であると判断された場合には、
「?」という文字がその発話に対する一連の文字列の最
後尾に付加される。
【0038】(2−2)応答生成部61の処理 応答生成部61においては、ユーザの発話に対して相槌
を打つような応答を生成する「あいづち」用の応答生成
モジュール61Aと、ユーザの発話内容に応じて当該ユ
ーザに次の発話を促すような応答を生成する「発話を促
す」用の応答生成モジュール61Bと、ユーザの発話を
繰り返した応答を生成する「繰り返し」用の応答生成モ
ジュール61Cと、ユーザの発話内容に共感した応答を
生成する「共感」用の応答生成モジュール61Dと、ユ
ーザからの明らかな質問に対して答えるための応答を生
成する「質問応答」用の応答生成モジュール61Eとか
ら構成される。
【0039】この場合、各応答生成モジュール61A〜
61Eは、それぞれユーザの発話内容に応じてどのよう
な応答を返すべきかを予め規定したルールのデータ(以
下、このルールを応答生成ルールと呼び、そのデータを
応答生成ルールデータと呼ぶ)を例えば外部メモリ58
(図5)内に有しており、音声認識部60から認識文字
列データD1が与えられると、対応する応答生成ルール
に従って、この文認識字列データD1に基づき得られる
ユーザの発話内容に対する応答を生成し、その文字列デ
ータ(以下、これを応答文字列データと呼ぶ)D2A〜
D2Eを対話制御部62に送出する。
【0040】具体的には、応答生成ルールは、例えば図
7に示すように、音声認識部からの認識文字列データD
1に基づき得られる一連の文字列内に含まれると予想さ
れる(すなわちユーザが発話すると予想される)予め登
録された文字列(以下、これを登録文字列と呼ぶ)と、
これに対するロボットの予め定められた応答の候補(以
下、これを単に応答候補と呼ぶ)との対応付けとして規
定されている。
【0041】この図7において、「→」の記号は登録文
字列と応答候補との対応付けを意味し、これよりも上側
に記述された「″″」内の「|」で区切られた各文字列
がそれぞれ登録文字列を示し、下側に記述され
た「″″」内の「|」で区切られた各文字列が、それぞ
れ「→」によりその登録文字列に対応付けられた応答候
補を示す。
【0042】そして各応答生成モジュール61A〜61
Eには、それぞれ生成すべき応答のカテゴリ(「あいづ
ち」、「発話を促す」、「繰り返し」、「共感」又は
「質問応答」)に対応させた、このような応答生成ルー
ルがそれぞれ別個に1又は複数予め用意され、これらの
データが応答生成ルールデータとして外部メモリ58に
格納されている。
【0043】そして各応答生成モジュール61A〜61
Eは、音声認識部60から与えられる認識文字列データ
D1に基づき得られる一連の文字列(以下、これを入力
文字列と呼ぶ)内に、対応するいずれかの応答生成ルー
ルのいずれかの登録文字列と一致する文字列が存在する
か否かを、当該入力文字列と、対応する全ての登録入力
文字列との文字列マッチング処理により常時監視する。
さらに各応答生成モジュール61A〜61Eは、この文
字列マッチング処理により入力文字列内に登録文字列を
検出すると、その登録文字列に対応する応答生成ルール
に従って、対応する1又は複数の応答候補の中から1つ
の応答候補をランダムに選択し、当該選択した応答候補
に基づいて応答の認識文字列データD2A〜D2Eを生
成して、これを対話制御部62に送出する。
【0044】従って、例えば図7に示す場合において、
入力文字列内に『こんにちは』又は『おっす』が含まれ
ることを文字列マッチング処理により検出したときに
は、『こんにちは』又は『やあ』という応答候補の中か
ら1つの応答候補が選択され、その文字列データが生成
されて、これが応答文字列データD2A〜D2Eとして
対話制御部62に送出されることとなる。
【0045】また登録文字列及び応答候補については正
規表現が利用でき、例えば図8に示すように応答生成ル
ールが記述されている場合には、入力文字列内に『ごめ
ん』、『ごめんね』、『ごめんなさい』、『ごめんよ』
という文字列が含まれていることを文字列マッチング処
理により検出したときには、『いや、そういうつもりじ
ゃなかったんだ』、『そんな、あやまらなくてもいい
よ』という応答候補の中から1つの応答候補が選択さ
れ、その文字列データが生成されて、応答文字列データ
D2A〜D2Eとして対話制御部62に送出されること
となる。
【0046】さらに応答生成ルールはユーザの発話を応
答で引用することが可能であり、例えば図9のように応
答生成ルールが記述されている場合には、「<.+>」で
マッチした文字列が「$ADJ$」という変数に格納され、
次のロボットの応答における「$ADJ$」の部分で利用さ
れる。なお、「<.+>」は、予め登録されたいずれかの
1文字以上の文字列(以下、繰返し用登録文字列)とマ
ッチすることを意味する。従って、入力文字列内に例え
ば『明日は晴れないかなあ』、『明日は晴れないかな
ぁ』という文字列が含まれていることを文字列マッチン
グ処理により検出した場合において、『明日は晴れな』
という文字列が繰返し用文字列として登録されていたと
きには、この応答生成ルールが発火して、『明日は晴れ
ないと思っているんだ』という応答文字列データD2A
〜D2Eが生成されて対話制御部63に送出されること
となる。
【0047】なお、各応答生成モジュールD2A〜D2
Eに対するいくつかの応答生成ルールの例を図10〜図
14にそれぞれ示す。
【0048】この場合、図10は、「あいづち」用の応
答生成モジュール61Aに対して用意された応答生成ル
ールの一例であり、「<.+>$UNKNOWN ANY$」は「全て
の入力文字列」を意味する。従って、「あいづち」用の
応答生成モジュール61Aは、音声認識部からの文字列
データに基づいてどのような文字列の入力があった場合
においても、『へぇ』、『ふーん』、『なるほどなるほ
ど』等の応答候補の中から1つの応答候補を選択し、そ
の文字列データを生成して応答文字列データD2Aとし
て対話制御部62に送出することとなる。
【0049】また図11は、「発話を促す」用の応答生
成モジュール61Bに対して用意される一部の応答生成
ルールを例示したものであり、当該応答生成モジュール
61Bは、例えば入力文字列の最後(すなわちユーザが
発話の語尾に相当する部分であり、「 END 」がこれを
示す)に『るし』、『だし』、『ないし』という文字列
を検出したときには、『うんうん。』『それで?』、
『それから?』という3種類の応答候補の中から1つの
応答候補をランダムに選択し、当該選択した応答候補の
文字列データを生成して、これを応答文字列データD2
Bとして対話制御部62に送出することとなる。
【0050】さらに図12〜図14は、それぞれ「繰り
返し」、「共感」又は「質問応答」用の各応答生成モジ
ュール61C〜61Eに対するものであり、これら応答
生成ルールに基づく各応答生成モジュール61C〜61
Eの処理は上述と同様であるので、説明は省略する。
【0051】因みに、各応答生成モジュール61A〜6
1Eは、入力文字列と、対応する全ての登録文字列との
文字列マッチング処理によりマッチングがとれなかった
(すなわち入力文字列内に、対応する全ての応答生成ル
ールで規定された全ての登録文字列が含まれていなかっ
た)場合には、応答文字列データD2A〜D2Eを生成
することができず、この場合には「失敗」した旨の情報
を対話制御部62に通知する。
【0052】従って、例えば全ての応答生成モジュール
61A〜61Eが応答生成に失敗してしまった場合に
は、ロボット1が応答が返せないという事態が発生する
こととなるが、本実施の形態によるロボット1において
は、上述のように「あいづち」用の応答生成モジュール
61Aが音声認識部60からの認識文字列データD1に
基づいてどのような文字列の入力があった場合にも必ず
何らかの応答文字列データD2Aを対話制御部62に送
出するため、対話が不自然に途切れるのを防止すること
ができる。
【0053】(2−3)対話制御部62の処理 一方、対話制御部62においては、全ての応答生成モジ
ュール61A〜61Eから上述のように応答文字列デー
タD2A〜D2E又は応答生成に失敗した旨の通知が与
えられると、そのうち応答生成に成功した各応答生成モ
ジュール61A〜61Eから与えられた応答文字列デー
タD2A〜D2Eのうちの1つを選択し、これを応答デ
ータD3として音声合成部63に送出する。
【0054】ここで、この実施の形態においては、カウ
ンセリング分野における相手の話を聞く際のテクニック
を利用して、ユーザとの対話が自然なかたちで円滑に行
い得るように、対話制御部62が応答生成に成功した各
応答生成モジュール61A〜61Dの出力の中から1つ
を選択するような工夫がなされている。
【0055】すなわちカウンセリング分野においては、
相手の話の聞き方として、「うなずく」、「沈黙する」
等のように、受動的に相手の話を聞くパッシブリスニン
グと呼ばれる聞き方と、相手の話を「繰り返す」、「ま
とめる」、「発話を促す」等のように、積極的に相手の
話を聞くアクティブリスニングと呼ばれる聞き方の2種
類があるとされ、これらパッシブリスニング及びアクテ
ィブリスニングを3:6の割合で行い、残り1割を相手
からの明らかな質問に対する答えとする聞き方が良いと
されている。
【0056】そこで本実施の形態においては、パッシブ
リスニングに該当する応答を出力する「あいづち」用の
応答生成モジュール61Aにより生成された応答が最終
的にロボット1の応答として出力される割合(以下、こ
れを出力割合と呼ぶ)として0.3を割り当て、アクティ
ブリスニングに該当する応答を出力する「発話を促す」
用の応答生成モジュール61B及び「繰り返し」用の応
答生成モジュール61Cにより生成された応答の出力割
合としてそれぞれ0.35及び0.25を割り当て、残りの0.1
を「共感」用の応答生成モジュール61Dから出力され
る応答の出力割合に割り当てている。
【0057】そして対話制御部62は、ユーザの発話に
対して応答生成に成功した各応答生成モジュール61A
〜61Eからそれぞれ応答文字列データD2A〜D2E
が与えられると、「質問応答」用の応答生成モジュール
61Eを除く残りの各応答生成モジュール61A〜61
Dについて、それぞれ事前設定された上述の出力割合に
対する実際の出力割合を所定の評価関数を用いて評価
し、この評価結果に基づいて、これら与えられた各応答
文字列データD2A〜D2Dの中から1つを選択するよ
うになされている。
【0058】この場合、かかる評価関数としては種々の
ものを利用することができるが、この実施の形態におい
ては、最小二乗誤差を利用するようになされており、例
えば「あいづち」用の応答生成モジュール61Aについ
ての最小二乗誤差は、そのときの応答を含めたロボット
1全体としての応答回数をn、「あいづち」用、「発話
を促す」用、「繰り返し」用又は「共感」用の各応答応
答生成モジュール61A〜61Dに対して予め設定され
た出力割合をそれぞれpm、pm、pm、p
、これら各応答生成モジュール61A〜61Eのそ
のときまでの実際の出力割合をそれぞれpm(n)、
pm(n)、pm(n)、pm(n)として、次
【0059】
【数1】
【0060】により算出することとしている。また他の
応答生成モジュール61B〜61Dについても同様であ
る。
【0061】そして対話制御部62は、このようにして
得られた「質問応答」用の応答生成モジュール61E以
外の応答生成に成功した各応答生成モジュール61A〜
61Dについての評価結果(算出された最小二乗誤差)
に基づいて、最小二乗誤差が最も小さい応答生成モジュ
ール61A〜61Dからの応答文字列データD2A〜D
2Dを選択し、これを応答データD3として音声合成部
63に送出する。なお、対話制御部62は、応答生成に
成功した応答生成モジュールが「あいづち」用の応答生
成モジュール61Aだけであった場合には、上述のよう
な評価を行わず、当該応答生成モジュール61Aからの
応答文字列データD2Aを応答データD3として音声合
成部63に送出する。
【0062】ただし、このような所定の評価関数を用い
た評価による選択だけでは、例えばユーザからの明らか
な質問に対してその質問に対する答え以外の応答が出力
されると会話が不自然となる問題がある。
【0063】そこでこの実施の形態においては、「質問
応答」用の応答生成モジュール61Eを特別の応答生成
モジュールとし、この応答生成モジュール61Eから応
答文字列データD2Eが出力された場合には、他の応答
生成モジュール61A〜61Dからの応答文字列データ
D2A〜D2Dの出力の有無に拘わりなく、対話制御部
62がこれを優先的に選択して、音声合成部63に応答
データD3として出力するようになされている。これに
よりこのロボット1においては、ユーザとより自然なか
たちでの対話を行い得るようになされている。
【0064】なお図15に、このような応答選択処理の
具体例を示す。この図15において、例えば『ねえ、聞
いてよ。』というユーザの発話に対して「あいづち」用
及び「発話を促す」用の応答生成モジュール61A、6
1Bが応答生成に成功しており、このとき対話制御部6
2は、これら「あいづち」用及び「発話を促す」用の応
答生成モジュール61A、61Bについて、そのときの
評価値を上述のように最小二乗誤差を利用して演算す
る。そしてこれら応答生成モジュール61A、61Bに
対する評価値がそれぞれ「0.685」及び「0.585」であっ
たので、対話制御部62は、評価値が小さい「発話を促
す」用の応答生成モジュール61Bからの応答文字列デ
ータD2Bを選択し、これを応答データD3として音声
合成部63に送出する。なおこの図15においては、各
ユーザ発話に対応する欄が空白の応答生成モジュール6
1A〜61Eは、応答生成に失敗したことを意味する。
【0065】またこれに続く『昨日彼とデートしたんだ
けどね。』というユーザの発話に対して「あいづち」用
の応答生成モジュール61Aのみが応答生成に成功して
おり、このため対話制御部62は、この応答生成モジュ
ール61Aからの応答文字列データD2Aを応答データ
D3として音声合成部63に送出する。
【0066】さらにこの後、『デートでけんかしちゃう
なんて最悪だと思わない?』というユーザの発話に対し
て「質問応答」用の応答生成モジュール61Eが応答生
成に成功しており、このため対話制御部62は、他の応
答生成に成功した応答生成モジュール61A、61Dに
対する評価を行うことなく、「質問応答」用の応答生成
モジュール61Eからの応答文字列データD2Eを応答
データD3として音声合成部63に送出する。
【0067】この結果、このような対話制御部62の制
御により、ユーザ及びロボット1間で図16に示すよう
な対話が行われることとなる。
【0068】(2−4)音声合成部63の処理 音声合成部63においては、対話制御部62から与えら
れる応答データD3に基づいて音声合成処理を行うこと
により音声信号S3を生成し、これをスピーカ54(図
5)に出力する。この結果、この音声信号S3に基づい
て、かかる応答データD3に応じた応答がロボット1か
ら外部に出力される。
【0069】(3)応答生成に関する対話制御部62の
処理 ここで対話制御部62は、図17に示す応答処理手順R
T1に従って上述のような各種処理を実行する。
【0070】すなわち対話制御部62は、ロボット1の
電源が投入されると、図17に示す応答処理手順RT1
をステップSP0において開始し、続くステップSP1
において、外部メモリ58(図5)に格納された応答生
成モジュール61A〜61Eごとの事前設定された出力
割合のデータを読み込んだ後、ステップSP2に進ん
で、「あいづち」用、「発話を促す」用、「繰り返し」
用、「共感」用及び「質問応答」用の各対話生成モジュ
ール61A〜61Eを起動し、この後ステップSP3に
進んで、音声認識部60からユーザ発話の音声認識結果
(すなわち認識文字列データD1)が与えられるのを待
ち受ける。
【0071】そして対話制御部62は、やがてユーザが
ロボット1に話し掛けることにより音声認識部60から
認識文字列データD1が与えられると、ステップSP4
に進んで、この認識文字列データD1を各応答生成モジ
ュール61A〜61Eに送出し、この後ステップSP5
に進んで、これら全ての応答生成モジュール61A〜6
1Eから応答文字列データD2A〜D2E又は応答生成
が失敗した旨の情報が与えられるのを待ち受ける。
【0072】また対話制御部62は、やがて全ての応答
生成モジュール61A〜61Eから応答文字列データD
2A〜D2E又は応答生成が失敗した旨の情報が供給さ
れると、ステップSP6に進んで、「質問応答」用の応
答生成モジュール61Eから応答文字列データD2Eが
供給されたか否かを判断する。
【0073】そして対話制御部62は、このステップS
P6において肯定結果を得ると、ステップSP7に進ん
で、応答データD3として出力すべき応答文字列データ
として「質問応答」用の応答生成モジュール61Eから
与えられた応答文字列データD2Eを選択し、これを音
声合成部63に送出する。また対話制御部62は、この
後ステップSP3に戻って、音声認識部60から次の認
識文字列データD1が供給されるのを待ち受ける。
【0074】これに対して対話制御部62は、ステップ
SP6において否定結果を得ると、ステップSP7に進
んで、「質問応答」用の応答生成モジュール61E以外
の応答生成に成功した各応答生成モジュール61A〜6
1Dについて、上述の(1)式で与えられる評価関数f
(n)を用いた評価値の演算処理を実行する。
【0075】次いで、対数制御部62は、ステップSP
9に進み、ステップSP8において算出した各応答生成
モジュール61A〜61Dの評価値に基づいて、これら
応答生成に成功した各応答生成モジュール61A〜61
Dの中から当該評価値が最も小さい応答生成モジュール
61A〜61Dから与えられた応答文字列データD2A
〜D2Dを応答データD3として音声合成部63に送出
する。
【0076】さらに対話制御部62は、ステップSP1
0に進んで、当該応答文字列データD2を出力した(す
なわち、そのとき最も評価値が小さかった)応答生成モ
ジュール61A〜61Dに対応するカウンタのカウント
値を1つ増加させた後、ステップSP3に戻って、この
後は上述と同様の処理を繰り返す。
【0077】このようにしてこのロボット1において
は、対話制御部62の制御のもとに、ユーザとの自然な
かたちでの円滑な対話を行い得るようになされている。
【0078】(4)本実施の形態の動作及び効果 以上の構成において、このロボット1では、ユーザが発
話すると、その音声認識結果が各応答生成ジュール61
A〜61Eに与えられ、これら各応答生成ジュール61
A〜61Eによりそのユーザの発話内容に応じた応答が
一斉に生成される。
【0079】そしてこれら各応答生成ジュール61A〜
61Eにより生成された応答の中から1つの応答が対話
制御部62によって選択され、その選択された応答がス
ピーカ54から音声出力される。
【0080】従ってこのロボット1では、例えば状態遷
移図やスロットフィリングによって全てのユーザ発話を
予測してシステムの応答を記述しておく場合に比べて設
計や構成を格段的に容易化及び簡易化させることがで
き、また雑談等の目的のない対話にも実用上十分に対応
することができる。
【0081】さらにこのロボット1では、この際「あい
づち」用の応答生成ジュール61Aが必ず応答を生成す
るようにしているためロボット1が応答できないという
事態の発生を防止することができ、その分ユーザとより
自然な対話を行うことができる。
【0082】さらにこのロボット1では、所定の評価関
数を用いてロボット1の応答全体としてシステム作成者
が意図した割合で各種カテゴリ(「あいづち」、「発話
を促す」等)の応答を出力させることができるため、そ
の割合を調整することによって種種の個性を有するロボ
ット1を容易に作製できる。
【0083】以上の構成によれば、ユーザ発話に対する
応答を生成する応答生成モジュール61A〜61Eを複
数設け、これら応答生成モジュール61A〜61Eが生
成した応答の中から1つの応答を選択して出力するよう
にしたことにより、雑談等の目的のない対話にも実用上
十分に対応することができ、また例えば状態遷移図やス
ロットフィリングによって全てのユーザ発話を予測して
システムの応答を記述しておく場合に比べて設計や構成
を格段的に容易化及び簡易化させることができ、かくし
て自然な対話を行い得る簡易な構成のロボット1を実現
できる。
【0084】(5)他の実施の形態 なお上述の実施の形態においては、本発明を図1〜図5
のように構成されたヒューマノイド型のロボット1に適
用するようにした場合について述べたが、本発明はこれ
に限らず、この他種々の構成の装置に広く適用すること
ができる。
【0085】また上述の実施の形態においては、音声認
識部60の認識結果に基づき、別個の応答生成ルールに
従って、対話相手の発話に対する応答を生成する複数の
応答生成手段として、ユーザの発話に対して相槌を打つ
ような応答を生成する「あいづち」用の応答生成モジュ
ール61Aと、ユーザの発話内容に応じて当該ユーザに
次の発話を促すような応答を生成する「発話を促す」用
の応答生成モジュール61Bと、ユーザの発話を繰り返
した応答を生成する「繰り返し」用の応答生成モジュー
ル61Cと、ユーザの発話内容に共感した応答を生成す
る「共感」用の応答生成モジュール61Dと、ユーザか
らの明らかな質問に対して答えるための応答を生成する
「質問応答」用の応答生成モジュール61Eとの5つの
応答生成モジュール61A〜61Eを設けるようにした
場合について述べたが、本発明はこれに限らず、応答生
成手段の数及びこれら応答生成手段がそれぞれ生成する
応答のカテゴリ(「あいづち」、「発話を促す」、「繰
り返し」、「共感」及び「質問応答」)として、これ以
外の数及びカテゴリを適用するようにしても良い。この
場合において、「冗談」というカテゴリを設け、ロボッ
ト1に適当な割合で冗談を音声出力させるようにしても
良く、このようにすることによってロボット1のエンタ
ーテインメント性を向上させることができる。
【0086】さらに上述の実施の形態においては、応答
生成ルールを図7〜図9について説明したように規定す
るようにした場合について述べたが、本発明はこれに限
らず、これ以外の種々のルールを適用するようにしても
良い。
【0087】さらに上述の実施の形態においては、各応
答生成モジュール61A〜61Eによりそれぞれ生成さ
れた応答の中から1つの応答を所定の評価関数を用いた
評価結果に基づいて選択する選択手段としての対話制御
部62が、当該評価関数として最小二乗誤差の演算関数
を用いる(すなわち最小二乗誤差を用いて1つの応答を
選択する)ようにした場合について述べたが、本発明は
これに限らず、この他種々の評価関数を用いることがで
きる。
【0088】さらに上述の実施の形態においては、対話
制御部62により選択された応答を外部に音声出力する
音声出力手段を、音声合成部63及びスピーカから構成
するようにした場合について述べたが、本発明はこれに
限らず、この他種々の構成を広く適用することができ
る。
【0089】さらに上述の実施の形態においては、各応
答生成モジュール61A〜61Eによりそれぞれ生成さ
れた応答の中から1つの応答を選択する際に利用する評
価関数を1つのみしか用いないようにした場合について
述べたが、本発明はこれに限らず、例えば評価関数を複
数種類用意し、対話相手の話し方の特徴を踏まえた上
で、その特徴に合わせた評価関数を用いたり、又は1つ
の評価関数のパラメータを対話相手に応じて変化させる
ようにしても良い。このようにすることによって、例え
ばロボット1と初対面の人との会話は、なるべく自分の
ことを多く話すように、またロボット1自身のことをよ
く知っていて、自分のことを話すことが好きな人との会
話では、なるべくその人の話を聞くような応答を返すと
いった対話相手に応じた応答を返すことができるように
なる。
【0090】さらに上述の実施の形態においては、応答
として音声出力を行うだけの場合について述べたが、本
発明はこれに限らず、例えば『うんうん』という応答に
併せてうなずきながら首を縦に振るというように、音声
による応答と共にこの内容に応じた動作をロボット1に
発現させるようにしても良い。
【0091】さらに上述の実施の形態においては、音声
認識部60からの認識文字列データD1に基づいてどの
ような文字列の入力があった場合にも必ず何らかの応答
文字列データD2Aを対話制御部62に送出する応答生
成モジュールを1つ(「あいづち」用の応答生成モジュ
ール61)設けるようにした場合について述べたが、本
発明はこれに限らず、このような応答生成モジュールを
複数設けるようにしても良い。
【0092】さらに上述の実施の形態においては、「質
問応答」用の応答生成モジュール61Eを、その出力を
優先的に出力する特別の応答生成モジュールとするよう
にした場合について述べたが、本発明はこれに限らず、
これ以外の例えば「あいさつ」用の応答生成モジュール
を設けて、これを特別の応答生成モジュールとするよう
にしても良い。またこのような特別の応答生成モジュー
ルを複数種類設けるようにしても良く、このようにする
ことによってロボット1により自然な対話を行わせるよ
うにすることができる。
【0093】さらに上述の実施の形態においては、本発
明を、エンターテインメント用のロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、例えば医療現場におけるカウンセリング用のロボッ
ト等にも適用することができる。
【0094】
【発明の効果】以上のように本発明によれば、対話処理
装置において、対話相手の発話を音声認識する音声認識
手段と、それぞれ音声認識手段の認識結果に基づき、別
個の応答生成ルールに従って、対話相手の発話に対する
応答を生成する複数の応答生成手段と、各応答生成手段
によりそれぞれ生成された応答の中から1つの応答を所
定の評価関数を用いた評価結果に基づいて選択する選択
手段と、選択手段により選択された応答を外部に音声出
力する音声出力手段とを設けるようにしたことにより、
雑談等の目的のない対話にも実用上十分に対応すること
ができ、また例えば状態遷移図やスロットフィリングに
よって全てのユーザ発話を予測してシステムの応答を記
述しておく場合に比べて設計や構成を格段的に容易化及
び簡易化させることができ、かくして自然な対話を行い
得る簡易な構成の対話処理装置を実現できる。
【0095】また本発明によれば、対話処理方法におい
て、対話相手の発話を音声認識する第1のステップと、
それぞれ認識結果に基づき、それぞれ別個の応答生成ル
ールに従って、対話相手の発話に対する複数の応答を生
成する第2のステップと、生成された各応答の中から1
つの応答を所定の評価関数を用いた評価結果に基づいて
選択する第3のステップと、選択した応答を外部に音声
出力する第4のステップとを設けるようにしたことによ
り、雑談等の目的のない対話にも実用上十分に対応する
ことができ、また例えば状態遷移図やスロットフィリン
グによって全てのユーザ発話を予測してシステムの応答
を記述しておく場合に比べて装置の設計や構成を格段的
に容易化及び簡易化させることができ、かくして装置構
成を簡易化させながら、自然な対話を行い得るようにす
ることができる対話処理方法を実現できる。
【0096】さらに本発明によれば、ロボット装置にお
いて、対話相手の発話を音声認識する音声認識手段と、
それぞれ音声認識手段の認識結果に基づき、別個の応答
生成ルールに従って、対話相手の発話に対する応答を生
成する複数の応答生成手段と、各応答生成手段によりそ
れぞれ生成された応答の中から1つの応答を所定の評価
関数を用いた評価結果に基づいて選択する選択手段と、
選択手段により選択された応答を外部に音声出力する音
声出力手段とを設けるようにしたことにより、雑談等の
目的のない対話にも実用上十分に対応することができ、
また例えば状態遷移図やスロットフィリングによって全
てのユーザ発話を予測してシステムの応答を記述してお
く場合に比べて設計や構成を格段的に容易化及び簡易化
させることができ、かくして自然な対話を行い得る簡易
な構成のロボット装置を実現できる。
【0097】
【図面の簡単な説明】
【図1】本実施の形態によるロボットの外部構成を示す
斜視図である。
【図2】ロボットの外部構成を示す斜視図である。
【図3】ロボットの外部構成の説明に供する略線図であ
る。
【図4】ロボットの内部構成の説明に供するブロック図
である。
【図5】ロボットの内部構成の説明に供するブロック図
である。
【図6】メイン制御部の処理内容の説明に供するブロッ
ク図である。
【図7】応答生成ルールの説明に供する概念図である。
【図8】応答生成ルールの説明に供する概念図である。
【図9】応答生成ルールの説明に供する概念図である。
【図10】「あいづち」用の応答生成ルール例を示す概
念図である。
【図11】「発話を促す」用の応答生成ルール例を示す
概念図である。
【図12】「繰り返し」用の応答生成ルール例を示す概
念図である。
【図13】「共感」用の応答生成ルール例を示す概念図
である。
【図14】「質問応答」用の応答生成ルール例を示す概
念図である。
【図15】対話制御の具体例の説明に供する図表であ
る。
【図16】ユーザ及びロボットの対話例を示す概念図で
ある。
【図17】応答処理手順を示すフローチャートである。
【符号の説明】
1……ロボット、40……メイン制御部、51……マイ
クロホン、54……スピーカ、58……外部メモリ、6
0……音声認識部、61……応答生成部、61A〜61
E……応答生成モジュール、62……対話制御部、63
……音声合成部、D1……認識文字列データ、D2A〜
D2E……応答文字列データ、D3……応答データ、S
1B、S3……音声信号、RT1……応答処理手順。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山田 敬一 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 5D015 KK02 KK04 LL02 5D045 AB11

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】対話相手の発話を音声認識する音声認識手
    段と、 それぞれ上記音声認識手段の認識結果に基づき、別個の
    応答生成ルールに従って、上記対話相手の上記発話に対
    する応答を生成する複数の応答生成手段と、 各上記応答生成手段によりそれぞれ生成された上記応答
    の中から1つの上記応答を、所定の評価関数を用いた評
    価結果に基づいて選択する選択手段と、 上記選択手段により選択された上記応答を外部に音声出
    力する音声出力手段とを具えることを特徴とする対話処
    理装置。
  2. 【請求項2】上記複数の応答生成手段のうちの少なくと
    も1つの上記応答生成手段が、上記対話相手の上記発話
    の内容に拘わりなく、必ず上記応答を生成することを特
    徴とする請求項1に記載の対話処理装置。
  3. 【請求項3】上記選択手段は、 各上記応答生成手段に対してそれぞれ予め設定された出
    力割合と、各上記応答生成手段の現実の出力割合とに基
    づいて、各上記応答生成手段によりそれぞれ生成された
    上記応答の中から1つの応答を選択することを特徴とす
    る請求項1に記載の対話処理装置。
  4. 【請求項4】上記選択手段は、 上記複数の応答生成手段のうちの特定の上記応答生成手
    段が上記応答を生成したときには、当該応答を優先的に
    選択することを特徴とする請求項1に記載の対話処理装
    置。
  5. 【請求項5】上記選択手段は、 上記対話相手ごとに上記評価関数を変更することを特徴
    とする請求項1に記載の対話処理装置。
  6. 【請求項6】対話相手の発話を音声認識する第1のステ
    ップと、 それぞれ上記認識結果に基づき、それぞれ別個の応答生
    成ルールに従って、上記対話相手の上記発話に対する複
    数の応答を生成する第2のステップと、 生成された各上記応答の中から1つの上記応答を所定の
    評価関数を用いた評価結果に基づいて選択する第3のス
    テップと、 選択した上記応答を外部に音声出力する第4のステップ
    とを具えることを特徴とする対話処理方法。
  7. 【請求項7】上記複数の応答は、それぞれ別個の上記応
    答生成手段により生成され、 少なくとも1つの上記応答生成手段が、上記対話相手の
    上記発話の内容に拘わりなく、必ず上記応答を生成する
    ことを特徴とする請求項6に記載の対話処理方法。
  8. 【請求項8】上記第3のステップでは、 各上記応答生成手段に対してそれぞれ予め設定された出
    力割合と、各上記応答生成手段の現実の出力割合とに基
    づいて、各上記応答生成手段によりそれぞれ生成された
    上記応答の中から1つの応答を選択することを特徴とす
    る請求項7に記載の対話処理方法。
  9. 【請求項9】上記第3のステップでは、 上記複数の応答生成手段のうちの特定の上記応答生成手
    段が上記応答を生成したときには、当該応答を優先的に
    選択することを特徴とする請求項7に記載の対話処理方
    法。
  10. 【請求項10】上記第3のステップでは、 上記対話相手ごとに上記評価関数を変更することを特徴
    とする請求項7に記載の対話処理方法。
  11. 【請求項11】対話相手の発話を音声認識する音声認識
    手段と、 それぞれ上記音声認識手段の認識結果に基づき、別個の
    応答生成ルールに従って、上記対話相手の上記発話に対
    する応答を生成する複数の応答生成手段と、各上記応答
    生成手段によりそれぞれ生成された各上記応答の中から
    1つの上記応答を所定の評価関数を用いた評価結果に基
    づいて選択する選択手段と、 上記選択手段により選択された上記応答を外部に音声出
    力する音声出力手段とを具えることを特徴とするロボッ
    ト装置。
  12. 【請求項12】上記複数の応答生成手段のうちの少なく
    とも1つの上記応答生成手段が、上記対話相手の上記発
    話の内容に拘わりなく、必ず上記応答を生成することを
    特徴とする請求項11に記載のロボット装置。
  13. 【請求項13】上記選択手段は、 各上記応答生成手段に対してそれぞれ予め設定された出
    力割合と、各上記応答生成手段の現実の出力割合とに基
    づいて、各上記応答生成手段によりそれぞれ生成された
    上記応答の中から1つの応答を選択することを特徴とす
    る請求項11に記載のロボット装置。
  14. 【請求項14】上記選択手段は、 上記複数の応答生成手段のうちの特定の上記応答生成手
    段が上記応答を生成したときには、当該応答を優先的に
    選択することを特徴とする請求項11に記載のロボット
    装置。
  15. 【請求項15】上記選択手段は、 上記対話相手ごとに上記評価関数を変更することを特徴
    とする請求項11に記載のロボット装置。
JP2002060427A 2002-03-06 2002-03-06 対話処理装置及び方法並びにロボット装置 Expired - Fee Related JP4062591B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002060427A JP4062591B2 (ja) 2002-03-06 2002-03-06 対話処理装置及び方法並びにロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002060427A JP4062591B2 (ja) 2002-03-06 2002-03-06 対話処理装置及び方法並びにロボット装置

Publications (3)

Publication Number Publication Date
JP2003255990A true JP2003255990A (ja) 2003-09-10
JP2003255990A5 JP2003255990A5 (ja) 2005-09-02
JP4062591B2 JP4062591B2 (ja) 2008-03-19

Family

ID=28669791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002060427A Expired - Fee Related JP4062591B2 (ja) 2002-03-06 2002-03-06 対話処理装置及び方法並びにロボット装置

Country Status (1)

Country Link
JP (1) JP4062591B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219149A (ja) * 2006-02-16 2007-08-30 Toyota Central Res & Dev Lab Inc 応答生成装置、方法及びプログラム
JP2008186027A (ja) * 2008-04-03 2008-08-14 Toyota Central R&D Labs Inc 対話処理装置
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
JP2009198614A (ja) * 2008-02-19 2009-09-03 Toyota Central R&D Labs Inc 対話装置及びプログラム
JP2010140282A (ja) * 2008-12-11 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 対話装置、対話方法、対話プログラムおよび記録媒体
WO2015098306A1 (ja) * 2013-12-27 2015-07-02 シャープ株式会社 応答制御装置、制御プログラム
JP2018067100A (ja) * 2016-10-18 2018-04-26 株式会社日立製作所 ロボット対話システム
JP2020042184A (ja) * 2018-09-11 2020-03-19 株式会社デンソーアイティーラボラトリ 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム
JP2020067585A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 コミュニケーション装置およびコミュニケーション装置の制御プログラム
WO2021059771A1 (ja) * 2019-09-25 2021-04-01 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219149A (ja) * 2006-02-16 2007-08-30 Toyota Central Res & Dev Lab Inc 応答生成装置、方法及びプログラム
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
JP2009198614A (ja) * 2008-02-19 2009-09-03 Toyota Central R&D Labs Inc 対話装置及びプログラム
JP2008186027A (ja) * 2008-04-03 2008-08-14 Toyota Central R&D Labs Inc 対話処理装置
JP2010140282A (ja) * 2008-12-11 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 対話装置、対話方法、対話プログラムおよび記録媒体
WO2015098306A1 (ja) * 2013-12-27 2015-07-02 シャープ株式会社 応答制御装置、制御プログラム
JP2018067100A (ja) * 2016-10-18 2018-04-26 株式会社日立製作所 ロボット対話システム
JP2020042184A (ja) * 2018-09-11 2020-03-19 株式会社デンソーアイティーラボラトリ 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム
JP7117951B2 (ja) 2018-09-11 2022-08-15 株式会社デンソーアイティーラボラトリ 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム
JP2020067585A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 コミュニケーション装置およびコミュニケーション装置の制御プログラム
JP7063230B2 (ja) 2018-10-25 2022-05-09 トヨタ自動車株式会社 コミュニケーション装置およびコミュニケーション装置の制御プログラム
WO2021059771A1 (ja) * 2019-09-25 2021-04-01 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP4062591B2 (ja) 2008-03-19

Similar Documents

Publication Publication Date Title
JP6505748B2 (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
US7526363B2 (en) Robot for participating in a joint performance with a human partner
KR100988708B1 (ko) 학습 장치, 학습 방법 및 로봇 장치
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
US20190371318A1 (en) System and method for adaptive detection of spoken language via multiple speech models
US20180257236A1 (en) Apparatus, robot, method and recording medium having program recorded thereon
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
US20220101856A1 (en) System and method for disambiguating a source of sound based on detected lip movement
JP2006123136A (ja) コミュニケーションロボット
JP4062591B2 (ja) 対話処理装置及び方法並びにロボット装置
WO2004084183A1 (ja) 音声対話装置及び方法並びにロボット装置
Tsiami et al. Multi3: Multi-sensory perception system for multi-modal child interaction with multiple robots
WO2019181144A1 (ja) 情報処理装置及び情報処理方法、並びにロボット装置
JP2006243555A (ja) 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2005202076A (ja) 発話制御装置及び方並びにロボット装置
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
JP4539313B2 (ja) 音声認識辞書作成システム、音声認識辞書作成方法、音声認識システムおよびロボット
JP4635486B2 (ja) 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees