JP2003255990A - 対話処理装置及び方法並びにロボット装置 - Google Patents
対話処理装置及び方法並びにロボット装置Info
- Publication number
- JP2003255990A JP2003255990A JP2002060427A JP2002060427A JP2003255990A JP 2003255990 A JP2003255990 A JP 2003255990A JP 2002060427 A JP2002060427 A JP 2002060427A JP 2002060427 A JP2002060427 A JP 2002060427A JP 2003255990 A JP2003255990 A JP 2003255990A
- Authority
- JP
- Japan
- Prior art keywords
- response
- dialogue
- generating means
- responses
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
置及びロボット装置、並びに装置構成を簡易化させなが
ら、自然な対話を行い得るようにすることができる対話
処理方法を提案する。 【解決手段】それぞれ別個の応答生成ルールに従って、
対話相手の発話に対する複数の応答を生成し、生成され
た各応答の中から1つの応答を所定の評価関数を用いた
評価結果に基づいて選択し、選択した応答を外部に音声
出力するようにした。
Description
方法並びにロボット装置に関し、例えばエンターテイン
メントロボットに適用して好適なものである。
ばテレフォンショッピングの受け付けや、電話番号案内
など、あるタスクの達成を目的としたものがほとんどで
ある。かかるタスク指向の対話は、ユーザに何を聞けば
よいのかが所定の一連の流れに従ってある程度決まって
いるので、通常は、シナリオが予め定められた対話の記
述に適した状態遷移図やスロットフィリングによって対
話が記述される。
家庭向けのエンターテインメントロボットが数多く商品
化されている。このようなエンターテインメントロボッ
トに対し、例えば人間同士が日常的に行う対話と同様の
対話をユーザとの間で行い得るような音声対話機能を搭
載することができれば、当該エンターテインメントロボ
ットに対するユーザの親近感を向上させてエンターテイ
ンメント性を格段的に向上させ得、さらには一人暮らし
の老人の話し相手にもなり得る等、その有用性を格段的
に向上させ得るものと考えられる。
上述のようなある一定の目的を達成するための対話以外
に対話そのものが目的となる雑談がある。そして雑談時
には、ユーザが何を喋るのかを予測することが難しく、
例えば状態遷移図やスロットフィリングによって、全て
のユーザ発話を予測してシステムの応答を記述しておく
ことは大変困難であり、従来提案されている手法では実
用上十分には対応し得ない問題がある。
を例とするような受動的に聞くというインタラクション
も必要となってくるが、この際のロボットの応答の仕方
にも工夫が必要であり、単にロボットが機械的にうなず
いているだけでは対話が成立せず、不自然さをユーザに
感じさせる問題がある。
で、自然な対話を行い得る簡易な構成の対話処理装置及
びロボット装置、並びに装置構成を簡易化させながら、
自然な対話を行い得るようにすることができる対話処理
方法を提案しようとするものである。
め本発明においては、対話処理装置において、対話相手
の発話を音声認識する音声認識手段と、それぞれ音声認
識手段の認識結果に基づき、別個の応答生成ルールに従
って、対話相手の発話に対する応答を生成する複数の応
答生成手段と、各応答生成手段によりそれぞれ生成され
た応答の中から1つの応答を所定の評価関数を用いた評
価結果に基づいて選択する選択手段と、選択手段により
選択された応答を外部に音声出力する音声出力手段とを
設けるようにした。
例えば雑談等の目的のない対話にも実用上十分に対応す
ることができ、また例えば状態遷移図やスロットフィリ
ングによって全てのユーザ発話を予測してシステムの応
答を記述しておく場合に比べて設計や構成を格段的に容
易化及び簡易化させることができる。
いて、対話相手の発話を音声認識する第1のステップ
と、それぞれ認識結果に基づき、それぞれ別個の応答生
成ルールに従って、対話相手の発話に対する複数の応答
を生成する第2のステップと、生成された各応答の中か
ら1つの応答を所定の評価関数を用いた評価結果に基づ
いて選択する第3のステップと、選択した応答を外部に
音声出力する第4のステップとを設けるようにした。
えば雑談等の目的のない対話にも実用上十分に対応する
ことができ、また例えば状態遷移図やスロットフィリン
グによって全てのユーザ発話を予測してシステムの応答
を記述しておく場合に比べて装置の設計や構成を格段的
に容易化及び簡易化させることができる。
おいて、対話相手の発話を音声認識する音声認識手段
と、それぞれ音声認識手段の認識結果に基づき、別個の
応答生成ルールに従って、対話相手の発話に対する応答
を生成する複数の応答生成手段と、各応答生成手段によ
りそれぞれ生成された応答の中から1つの応答を所定の
評価関数を用いた評価結果に基づいて選択する選択手段
と、選択手段により選択された応答を外部に音声出力す
る音声出力手段とを設けるようにした。
例えば雑談等の目的のない対話にも実用上十分に対応す
ることができ、また例えば状態遷移図やスロットフィリ
ングによって全てのユーザ発話を予測してシステムの応
答を記述しておく場合に比べて設計や構成を格段的に容
易化及び簡易化させることができる。
施の形態を詳述する。
成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ同じ構成の腕部ユニッ
ト4A、4Bがそれぞれ配設され、かつ胴体部ユニット
2の下部左右にそれぞれ同じ構成の脚部ユニット5A、
5Bがそれぞれ所定位置に取り付けられることにより構
成されている。
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させることができるようになされている。
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させることができるよ
うになされている。
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させることができるようになされて
いる。
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA9〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
いては、膝関節機構31を形成するアクチュエータA
12を駆動することによって、下腿部を図3に示すピッ
チ軸35の回りに回転させることができ、また足首関節
機構33のアクチュエータA1 3、A14をそれぞれ駆
動することによって、足部34を図3に示す直交するピ
ッチ軸36及びロール軸37の回りにそれぞれ独立に回
転させることができるようになされている。
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行ったりすることができるようになさ
れている。
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アク
チュエータA1〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
うに、このロボット1の「目」として機能するCCD
(Charge Coupled Device )カメラ50及び「耳」とし
て機能するマイクロホン51及びタッチセンサ52など
からなる外部センサ部53と、「口」として機能するス
ピーカ54となどがそれぞれ所定位置に配設され、制御
ユニット42内には、バッテリセンサ55及び加速度セ
ンサ56などからなる内部センサ部57が配設されてい
る。
0は、周囲の状況を撮像し、得られた画像信号S1Aを
メイン制御部に送出する一方、マイクロホン51は、ユ
ーザから音声入力として与えられる「歩け」、「伏せ」
又は「ボールを追いかけろ」等の各種命令音声を集音
し、かくして得られた音声信号S1Bをメイン制御部4
0に送出するようになされている。
おいて明らかなように頭部ユニット3の上部に設けられ
ており、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出し、検出結果を
圧力検出信号S1Cとしてメイン制御部40に送出す
る。
55は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ56は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。
CCDカメラ50、マイクロホン51及びタッチセンサ
52等からそれぞれ供給される画像信号S1A、音声信
号S1B及び圧力検出信号S1C等(以下、これらをま
とめて外部センサ信号S1と呼ぶ)と、内部センサ部5
7のバッテリセンサ55及び加速度センサ等からそれぞ
れ供給されるバッテリ残量検出信号S2A及び加速度検
出信号S2B等(以下、これらをまとめて内部センサ信
号S2と呼ぶ)に基づいて、ロボット1の周囲及び内部
の状況や、ユーザからの指令、ユーザからの働きかけの
有無などを判断する。
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ58に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンドを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンドに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA1〜A14が駆
動され、かくして頭部ユニット3を上下左右に揺動させ
たり、腕部ユニット4A、4Bを上にあげたり、歩行す
るなどの行動がロボット1により発現されることとな
る。
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。
40の処理 次にこのロボット1に搭載された音声対話機能について
説明する。
て複数種類の応答を順次生成し、その中から1つの応答
を所定の規則に従って選択して音声出力することによ
り、雑談等の目的のない対話にも実用上十分に対応しな
がら、ユーザに不自然さを感じさせずに当該対話を行わ
せ得る音声対話機能が搭載されている。そしてこの音声
対話機能は、メイン制御部40におけるソフトウェア処
理により実現されている。
ン制御部40の処理内容を機能的に分類すると、図6に
示すように、ユーザの発話を音声認識する音声認識部6
0と、当該音声認識部60の認識結果に基づいて、複数
種類の応答を生成する応答生成部61と、応答生成部6
1が生成した複数種類の応答の中から1つの応答を選択
する対話制御部62と、対話制御部62により選択され
た応答の音声信号を生成する音声合成部63とに分ける
ことができる。以下、これら音声認識部60、応答生成
部61、対話制御部62及び音声合成部63の処理につ
いて説明する。
から与えられる音声信号S1Bに基づいてユーザの発話
内容を音声認識し、当該認識結果を文字列のデータ(以
下、これを認識文字列データと呼ぶ)D1として対話制
御部62を介して応答生成部61に送出する。なお、認
識文字列データD1には、かかる認識処理時に得られた
イントネーションやアクセント等の韻律情報などのパラ
言語も含まれ、例えばユーザ発話の語尾の韻律が何らか
の質問をするときの韻律であると判断された場合には、
「?」という文字がその発話に対する一連の文字列の最
後尾に付加される。
を打つような応答を生成する「あいづち」用の応答生成
モジュール61Aと、ユーザの発話内容に応じて当該ユ
ーザに次の発話を促すような応答を生成する「発話を促
す」用の応答生成モジュール61Bと、ユーザの発話を
繰り返した応答を生成する「繰り返し」用の応答生成モ
ジュール61Cと、ユーザの発話内容に共感した応答を
生成する「共感」用の応答生成モジュール61Dと、ユ
ーザからの明らかな質問に対して答えるための応答を生
成する「質問応答」用の応答生成モジュール61Eとか
ら構成される。
61Eは、それぞれユーザの発話内容に応じてどのよう
な応答を返すべきかを予め規定したルールのデータ(以
下、このルールを応答生成ルールと呼び、そのデータを
応答生成ルールデータと呼ぶ)を例えば外部メモリ58
(図5)内に有しており、音声認識部60から認識文字
列データD1が与えられると、対応する応答生成ルール
に従って、この文認識字列データD1に基づき得られる
ユーザの発話内容に対する応答を生成し、その文字列デ
ータ(以下、これを応答文字列データと呼ぶ)D2A〜
D2Eを対話制御部62に送出する。
7に示すように、音声認識部からの認識文字列データD
1に基づき得られる一連の文字列内に含まれると予想さ
れる(すなわちユーザが発話すると予想される)予め登
録された文字列(以下、これを登録文字列と呼ぶ)と、
これに対するロボットの予め定められた応答の候補(以
下、これを単に応答候補と呼ぶ)との対応付けとして規
定されている。
字列と応答候補との対応付けを意味し、これよりも上側
に記述された「″″」内の「|」で区切られた各文字列
がそれぞれ登録文字列を示し、下側に記述され
た「″″」内の「|」で区切られた各文字列が、それぞ
れ「→」によりその登録文字列に対応付けられた応答候
補を示す。
Eには、それぞれ生成すべき応答のカテゴリ(「あいづ
ち」、「発話を促す」、「繰り返し」、「共感」又は
「質問応答」)に対応させた、このような応答生成ルー
ルがそれぞれ別個に1又は複数予め用意され、これらの
データが応答生成ルールデータとして外部メモリ58に
格納されている。
Eは、音声認識部60から与えられる認識文字列データ
D1に基づき得られる一連の文字列(以下、これを入力
文字列と呼ぶ)内に、対応するいずれかの応答生成ルー
ルのいずれかの登録文字列と一致する文字列が存在する
か否かを、当該入力文字列と、対応する全ての登録入力
文字列との文字列マッチング処理により常時監視する。
さらに各応答生成モジュール61A〜61Eは、この文
字列マッチング処理により入力文字列内に登録文字列を
検出すると、その登録文字列に対応する応答生成ルール
に従って、対応する1又は複数の応答候補の中から1つ
の応答候補をランダムに選択し、当該選択した応答候補
に基づいて応答の認識文字列データD2A〜D2Eを生
成して、これを対話制御部62に送出する。
入力文字列内に『こんにちは』又は『おっす』が含まれ
ることを文字列マッチング処理により検出したときに
は、『こんにちは』又は『やあ』という応答候補の中か
ら1つの応答候補が選択され、その文字列データが生成
されて、これが応答文字列データD2A〜D2Eとして
対話制御部62に送出されることとなる。
規表現が利用でき、例えば図8に示すように応答生成ル
ールが記述されている場合には、入力文字列内に『ごめ
ん』、『ごめんね』、『ごめんなさい』、『ごめんよ』
という文字列が含まれていることを文字列マッチング処
理により検出したときには、『いや、そういうつもりじ
ゃなかったんだ』、『そんな、あやまらなくてもいい
よ』という応答候補の中から1つの応答候補が選択さ
れ、その文字列データが生成されて、応答文字列データ
D2A〜D2Eとして対話制御部62に送出されること
となる。
答で引用することが可能であり、例えば図9のように応
答生成ルールが記述されている場合には、「<.+>」で
マッチした文字列が「$ADJ$」という変数に格納され、
次のロボットの応答における「$ADJ$」の部分で利用さ
れる。なお、「<.+>」は、予め登録されたいずれかの
1文字以上の文字列(以下、繰返し用登録文字列)とマ
ッチすることを意味する。従って、入力文字列内に例え
ば『明日は晴れないかなあ』、『明日は晴れないかな
ぁ』という文字列が含まれていることを文字列マッチン
グ処理により検出した場合において、『明日は晴れな』
という文字列が繰返し用文字列として登録されていたと
きには、この応答生成ルールが発火して、『明日は晴れ
ないと思っているんだ』という応答文字列データD2A
〜D2Eが生成されて対話制御部63に送出されること
となる。
Eに対するいくつかの応答生成ルールの例を図10〜図
14にそれぞれ示す。
答生成モジュール61Aに対して用意された応答生成ル
ールの一例であり、「<.+>$UNKNOWN ANY$」は「全て
の入力文字列」を意味する。従って、「あいづち」用の
応答生成モジュール61Aは、音声認識部からの文字列
データに基づいてどのような文字列の入力があった場合
においても、『へぇ』、『ふーん』、『なるほどなるほ
ど』等の応答候補の中から1つの応答候補を選択し、そ
の文字列データを生成して応答文字列データD2Aとし
て対話制御部62に送出することとなる。
成モジュール61Bに対して用意される一部の応答生成
ルールを例示したものであり、当該応答生成モジュール
61Bは、例えば入力文字列の最後(すなわちユーザが
発話の語尾に相当する部分であり、「 END 」がこれを
示す)に『るし』、『だし』、『ないし』という文字列
を検出したときには、『うんうん。』『それで?』、
『それから?』という3種類の応答候補の中から1つの
応答候補をランダムに選択し、当該選択した応答候補の
文字列データを生成して、これを応答文字列データD2
Bとして対話制御部62に送出することとなる。
返し」、「共感」又は「質問応答」用の各応答生成モジ
ュール61C〜61Eに対するものであり、これら応答
生成ルールに基づく各応答生成モジュール61C〜61
Eの処理は上述と同様であるので、説明は省略する。
1Eは、入力文字列と、対応する全ての登録文字列との
文字列マッチング処理によりマッチングがとれなかった
(すなわち入力文字列内に、対応する全ての応答生成ル
ールで規定された全ての登録文字列が含まれていなかっ
た)場合には、応答文字列データD2A〜D2Eを生成
することができず、この場合には「失敗」した旨の情報
を対話制御部62に通知する。
61A〜61Eが応答生成に失敗してしまった場合に
は、ロボット1が応答が返せないという事態が発生する
こととなるが、本実施の形態によるロボット1において
は、上述のように「あいづち」用の応答生成モジュール
61Aが音声認識部60からの認識文字列データD1に
基づいてどのような文字列の入力があった場合にも必ず
何らかの応答文字列データD2Aを対話制御部62に送
出するため、対話が不自然に途切れるのを防止すること
ができる。
ュール61A〜61Eから上述のように応答文字列デー
タD2A〜D2E又は応答生成に失敗した旨の通知が与
えられると、そのうち応答生成に成功した各応答生成モ
ジュール61A〜61Eから与えられた応答文字列デー
タD2A〜D2Eのうちの1つを選択し、これを応答デ
ータD3として音声合成部63に送出する。
ンセリング分野における相手の話を聞く際のテクニック
を利用して、ユーザとの対話が自然なかたちで円滑に行
い得るように、対話制御部62が応答生成に成功した各
応答生成モジュール61A〜61Dの出力の中から1つ
を選択するような工夫がなされている。
相手の話の聞き方として、「うなずく」、「沈黙する」
等のように、受動的に相手の話を聞くパッシブリスニン
グと呼ばれる聞き方と、相手の話を「繰り返す」、「ま
とめる」、「発話を促す」等のように、積極的に相手の
話を聞くアクティブリスニングと呼ばれる聞き方の2種
類があるとされ、これらパッシブリスニング及びアクテ
ィブリスニングを3:6の割合で行い、残り1割を相手
からの明らかな質問に対する答えとする聞き方が良いと
されている。
リスニングに該当する応答を出力する「あいづち」用の
応答生成モジュール61Aにより生成された応答が最終
的にロボット1の応答として出力される割合(以下、こ
れを出力割合と呼ぶ)として0.3を割り当て、アクティ
ブリスニングに該当する応答を出力する「発話を促す」
用の応答生成モジュール61B及び「繰り返し」用の応
答生成モジュール61Cにより生成された応答の出力割
合としてそれぞれ0.35及び0.25を割り当て、残りの0.1
を「共感」用の応答生成モジュール61Dから出力され
る応答の出力割合に割り当てている。
対して応答生成に成功した各応答生成モジュール61A
〜61Eからそれぞれ応答文字列データD2A〜D2E
が与えられると、「質問応答」用の応答生成モジュール
61Eを除く残りの各応答生成モジュール61A〜61
Dについて、それぞれ事前設定された上述の出力割合に
対する実際の出力割合を所定の評価関数を用いて評価
し、この評価結果に基づいて、これら与えられた各応答
文字列データD2A〜D2Dの中から1つを選択するよ
うになされている。
ものを利用することができるが、この実施の形態におい
ては、最小二乗誤差を利用するようになされており、例
えば「あいづち」用の応答生成モジュール61Aについ
ての最小二乗誤差は、そのときの応答を含めたロボット
1全体としての応答回数をn、「あいづち」用、「発話
を促す」用、「繰り返し」用又は「共感」用の各応答応
答生成モジュール61A〜61Dに対して予め設定され
た出力割合をそれぞれpm1、pm2、pm3、p
m4、これら各応答生成モジュール61A〜61Eのそ
のときまでの実際の出力割合をそれぞれpm1(n)、
pm2(n)、pm3(n)、pm4(n)として、次
式
応答生成モジュール61B〜61Dについても同様であ
る。
得られた「質問応答」用の応答生成モジュール61E以
外の応答生成に成功した各応答生成モジュール61A〜
61Dについての評価結果(算出された最小二乗誤差)
に基づいて、最小二乗誤差が最も小さい応答生成モジュ
ール61A〜61Dからの応答文字列データD2A〜D
2Dを選択し、これを応答データD3として音声合成部
63に送出する。なお、対話制御部62は、応答生成に
成功した応答生成モジュールが「あいづち」用の応答生
成モジュール61Aだけであった場合には、上述のよう
な評価を行わず、当該応答生成モジュール61Aからの
応答文字列データD2Aを応答データD3として音声合
成部63に送出する。
た評価による選択だけでは、例えばユーザからの明らか
な質問に対してその質問に対する答え以外の応答が出力
されると会話が不自然となる問題がある。
応答」用の応答生成モジュール61Eを特別の応答生成
モジュールとし、この応答生成モジュール61Eから応
答文字列データD2Eが出力された場合には、他の応答
生成モジュール61A〜61Dからの応答文字列データ
D2A〜D2Dの出力の有無に拘わりなく、対話制御部
62がこれを優先的に選択して、音声合成部63に応答
データD3として出力するようになされている。これに
よりこのロボット1においては、ユーザとより自然なか
たちでの対話を行い得るようになされている。
具体例を示す。この図15において、例えば『ねえ、聞
いてよ。』というユーザの発話に対して「あいづち」用
及び「発話を促す」用の応答生成モジュール61A、6
1Bが応答生成に成功しており、このとき対話制御部6
2は、これら「あいづち」用及び「発話を促す」用の応
答生成モジュール61A、61Bについて、そのときの
評価値を上述のように最小二乗誤差を利用して演算す
る。そしてこれら応答生成モジュール61A、61Bに
対する評価値がそれぞれ「0.685」及び「0.585」であっ
たので、対話制御部62は、評価値が小さい「発話を促
す」用の応答生成モジュール61Bからの応答文字列デ
ータD2Bを選択し、これを応答データD3として音声
合成部63に送出する。なおこの図15においては、各
ユーザ発話に対応する欄が空白の応答生成モジュール6
1A〜61Eは、応答生成に失敗したことを意味する。
けどね。』というユーザの発話に対して「あいづち」用
の応答生成モジュール61Aのみが応答生成に成功して
おり、このため対話制御部62は、この応答生成モジュ
ール61Aからの応答文字列データD2Aを応答データ
D3として音声合成部63に送出する。
なんて最悪だと思わない?』というユーザの発話に対し
て「質問応答」用の応答生成モジュール61Eが応答生
成に成功しており、このため対話制御部62は、他の応
答生成に成功した応答生成モジュール61A、61Dに
対する評価を行うことなく、「質問応答」用の応答生成
モジュール61Eからの応答文字列データD2Eを応答
データD3として音声合成部63に送出する。
御により、ユーザ及びロボット1間で図16に示すよう
な対話が行われることとなる。
れる応答データD3に基づいて音声合成処理を行うこと
により音声信号S3を生成し、これをスピーカ54(図
5)に出力する。この結果、この音声信号S3に基づい
て、かかる応答データD3に応じた応答がロボット1か
ら外部に出力される。
処理 ここで対話制御部62は、図17に示す応答処理手順R
T1に従って上述のような各種処理を実行する。
電源が投入されると、図17に示す応答処理手順RT1
をステップSP0において開始し、続くステップSP1
において、外部メモリ58(図5)に格納された応答生
成モジュール61A〜61Eごとの事前設定された出力
割合のデータを読み込んだ後、ステップSP2に進ん
で、「あいづち」用、「発話を促す」用、「繰り返し」
用、「共感」用及び「質問応答」用の各対話生成モジュ
ール61A〜61Eを起動し、この後ステップSP3に
進んで、音声認識部60からユーザ発話の音声認識結果
(すなわち認識文字列データD1)が与えられるのを待
ち受ける。
ロボット1に話し掛けることにより音声認識部60から
認識文字列データD1が与えられると、ステップSP4
に進んで、この認識文字列データD1を各応答生成モジ
ュール61A〜61Eに送出し、この後ステップSP5
に進んで、これら全ての応答生成モジュール61A〜6
1Eから応答文字列データD2A〜D2E又は応答生成
が失敗した旨の情報が与えられるのを待ち受ける。
生成モジュール61A〜61Eから応答文字列データD
2A〜D2E又は応答生成が失敗した旨の情報が供給さ
れると、ステップSP6に進んで、「質問応答」用の応
答生成モジュール61Eから応答文字列データD2Eが
供給されたか否かを判断する。
P6において肯定結果を得ると、ステップSP7に進ん
で、応答データD3として出力すべき応答文字列データ
として「質問応答」用の応答生成モジュール61Eから
与えられた応答文字列データD2Eを選択し、これを音
声合成部63に送出する。また対話制御部62は、この
後ステップSP3に戻って、音声認識部60から次の認
識文字列データD1が供給されるのを待ち受ける。
SP6において否定結果を得ると、ステップSP7に進
んで、「質問応答」用の応答生成モジュール61E以外
の応答生成に成功した各応答生成モジュール61A〜6
1Dについて、上述の(1)式で与えられる評価関数f
(n)を用いた評価値の演算処理を実行する。
9に進み、ステップSP8において算出した各応答生成
モジュール61A〜61Dの評価値に基づいて、これら
応答生成に成功した各応答生成モジュール61A〜61
Dの中から当該評価値が最も小さい応答生成モジュール
61A〜61Dから与えられた応答文字列データD2A
〜D2Dを応答データD3として音声合成部63に送出
する。
0に進んで、当該応答文字列データD2を出力した(す
なわち、そのとき最も評価値が小さかった)応答生成モ
ジュール61A〜61Dに対応するカウンタのカウント
値を1つ増加させた後、ステップSP3に戻って、この
後は上述と同様の処理を繰り返す。
は、対話制御部62の制御のもとに、ユーザとの自然な
かたちでの円滑な対話を行い得るようになされている。
話すると、その音声認識結果が各応答生成ジュール61
A〜61Eに与えられ、これら各応答生成ジュール61
A〜61Eによりそのユーザの発話内容に応じた応答が
一斉に生成される。
61Eにより生成された応答の中から1つの応答が対話
制御部62によって選択され、その選択された応答がス
ピーカ54から音声出力される。
移図やスロットフィリングによって全てのユーザ発話を
予測してシステムの応答を記述しておく場合に比べて設
計や構成を格段的に容易化及び簡易化させることがで
き、また雑談等の目的のない対話にも実用上十分に対応
することができる。
づち」用の応答生成ジュール61Aが必ず応答を生成す
るようにしているためロボット1が応答できないという
事態の発生を防止することができ、その分ユーザとより
自然な対話を行うことができる。
数を用いてロボット1の応答全体としてシステム作成者
が意図した割合で各種カテゴリ(「あいづち」、「発話
を促す」等)の応答を出力させることができるため、そ
の割合を調整することによって種種の個性を有するロボ
ット1を容易に作製できる。
応答を生成する応答生成モジュール61A〜61Eを複
数設け、これら応答生成モジュール61A〜61Eが生
成した応答の中から1つの応答を選択して出力するよう
にしたことにより、雑談等の目的のない対話にも実用上
十分に対応することができ、また例えば状態遷移図やス
ロットフィリングによって全てのユーザ発話を予測して
システムの応答を記述しておく場合に比べて設計や構成
を格段的に容易化及び簡易化させることができ、かくし
て自然な対話を行い得る簡易な構成のロボット1を実現
できる。
のように構成されたヒューマノイド型のロボット1に適
用するようにした場合について述べたが、本発明はこれ
に限らず、この他種々の構成の装置に広く適用すること
ができる。
識部60の認識結果に基づき、別個の応答生成ルールに
従って、対話相手の発話に対する応答を生成する複数の
応答生成手段として、ユーザの発話に対して相槌を打つ
ような応答を生成する「あいづち」用の応答生成モジュ
ール61Aと、ユーザの発話内容に応じて当該ユーザに
次の発話を促すような応答を生成する「発話を促す」用
の応答生成モジュール61Bと、ユーザの発話を繰り返
した応答を生成する「繰り返し」用の応答生成モジュー
ル61Cと、ユーザの発話内容に共感した応答を生成す
る「共感」用の応答生成モジュール61Dと、ユーザか
らの明らかな質問に対して答えるための応答を生成する
「質問応答」用の応答生成モジュール61Eとの5つの
応答生成モジュール61A〜61Eを設けるようにした
場合について述べたが、本発明はこれに限らず、応答生
成手段の数及びこれら応答生成手段がそれぞれ生成する
応答のカテゴリ(「あいづち」、「発話を促す」、「繰
り返し」、「共感」及び「質問応答」)として、これ以
外の数及びカテゴリを適用するようにしても良い。この
場合において、「冗談」というカテゴリを設け、ロボッ
ト1に適当な割合で冗談を音声出力させるようにしても
良く、このようにすることによってロボット1のエンタ
ーテインメント性を向上させることができる。
生成ルールを図7〜図9について説明したように規定す
るようにした場合について述べたが、本発明はこれに限
らず、これ以外の種々のルールを適用するようにしても
良い。
答生成モジュール61A〜61Eによりそれぞれ生成さ
れた応答の中から1つの応答を所定の評価関数を用いた
評価結果に基づいて選択する選択手段としての対話制御
部62が、当該評価関数として最小二乗誤差の演算関数
を用いる(すなわち最小二乗誤差を用いて1つの応答を
選択する)ようにした場合について述べたが、本発明は
これに限らず、この他種々の評価関数を用いることがで
きる。
制御部62により選択された応答を外部に音声出力する
音声出力手段を、音声合成部63及びスピーカから構成
するようにした場合について述べたが、本発明はこれに
限らず、この他種々の構成を広く適用することができ
る。
答生成モジュール61A〜61Eによりそれぞれ生成さ
れた応答の中から1つの応答を選択する際に利用する評
価関数を1つのみしか用いないようにした場合について
述べたが、本発明はこれに限らず、例えば評価関数を複
数種類用意し、対話相手の話し方の特徴を踏まえた上
で、その特徴に合わせた評価関数を用いたり、又は1つ
の評価関数のパラメータを対話相手に応じて変化させる
ようにしても良い。このようにすることによって、例え
ばロボット1と初対面の人との会話は、なるべく自分の
ことを多く話すように、またロボット1自身のことをよ
く知っていて、自分のことを話すことが好きな人との会
話では、なるべくその人の話を聞くような応答を返すと
いった対話相手に応じた応答を返すことができるように
なる。
として音声出力を行うだけの場合について述べたが、本
発明はこれに限らず、例えば『うんうん』という応答に
併せてうなずきながら首を縦に振るというように、音声
による応答と共にこの内容に応じた動作をロボット1に
発現させるようにしても良い。
認識部60からの認識文字列データD1に基づいてどの
ような文字列の入力があった場合にも必ず何らかの応答
文字列データD2Aを対話制御部62に送出する応答生
成モジュールを1つ(「あいづち」用の応答生成モジュ
ール61)設けるようにした場合について述べたが、本
発明はこれに限らず、このような応答生成モジュールを
複数設けるようにしても良い。
問応答」用の応答生成モジュール61Eを、その出力を
優先的に出力する特別の応答生成モジュールとするよう
にした場合について述べたが、本発明はこれに限らず、
これ以外の例えば「あいさつ」用の応答生成モジュール
を設けて、これを特別の応答生成モジュールとするよう
にしても良い。またこのような特別の応答生成モジュー
ルを複数種類設けるようにしても良く、このようにする
ことによってロボット1により自然な対話を行わせるよ
うにすることができる。
明を、エンターテインメント用のロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、例えば医療現場におけるカウンセリング用のロボッ
ト等にも適用することができる。
装置において、対話相手の発話を音声認識する音声認識
手段と、それぞれ音声認識手段の認識結果に基づき、別
個の応答生成ルールに従って、対話相手の発話に対する
応答を生成する複数の応答生成手段と、各応答生成手段
によりそれぞれ生成された応答の中から1つの応答を所
定の評価関数を用いた評価結果に基づいて選択する選択
手段と、選択手段により選択された応答を外部に音声出
力する音声出力手段とを設けるようにしたことにより、
雑談等の目的のない対話にも実用上十分に対応すること
ができ、また例えば状態遷移図やスロットフィリングに
よって全てのユーザ発話を予測してシステムの応答を記
述しておく場合に比べて設計や構成を格段的に容易化及
び簡易化させることができ、かくして自然な対話を行い
得る簡易な構成の対話処理装置を実現できる。
て、対話相手の発話を音声認識する第1のステップと、
それぞれ認識結果に基づき、それぞれ別個の応答生成ル
ールに従って、対話相手の発話に対する複数の応答を生
成する第2のステップと、生成された各応答の中から1
つの応答を所定の評価関数を用いた評価結果に基づいて
選択する第3のステップと、選択した応答を外部に音声
出力する第4のステップとを設けるようにしたことによ
り、雑談等の目的のない対話にも実用上十分に対応する
ことができ、また例えば状態遷移図やスロットフィリン
グによって全てのユーザ発話を予測してシステムの応答
を記述しておく場合に比べて装置の設計や構成を格段的
に容易化及び簡易化させることができ、かくして装置構
成を簡易化させながら、自然な対話を行い得るようにす
ることができる対話処理方法を実現できる。
いて、対話相手の発話を音声認識する音声認識手段と、
それぞれ音声認識手段の認識結果に基づき、別個の応答
生成ルールに従って、対話相手の発話に対する応答を生
成する複数の応答生成手段と、各応答生成手段によりそ
れぞれ生成された応答の中から1つの応答を所定の評価
関数を用いた評価結果に基づいて選択する選択手段と、
選択手段により選択された応答を外部に音声出力する音
声出力手段とを設けるようにしたことにより、雑談等の
目的のない対話にも実用上十分に対応することができ、
また例えば状態遷移図やスロットフィリングによって全
てのユーザ発話を予測してシステムの応答を記述してお
く場合に比べて設計や構成を格段的に容易化及び簡易化
させることができ、かくして自然な対話を行い得る簡易
な構成のロボット装置を実現できる。
斜視図である。
る。
である。
である。
ク図である。
念図である。
概念図である。
念図である。
である。
念図である。
る。
ある。
クロホン、54……スピーカ、58……外部メモリ、6
0……音声認識部、61……応答生成部、61A〜61
E……応答生成モジュール、62……対話制御部、63
……音声合成部、D1……認識文字列データ、D2A〜
D2E……応答文字列データ、D3……応答データ、S
1B、S3……音声信号、RT1……応答処理手順。
Claims (15)
- 【請求項1】対話相手の発話を音声認識する音声認識手
段と、 それぞれ上記音声認識手段の認識結果に基づき、別個の
応答生成ルールに従って、上記対話相手の上記発話に対
する応答を生成する複数の応答生成手段と、 各上記応答生成手段によりそれぞれ生成された上記応答
の中から1つの上記応答を、所定の評価関数を用いた評
価結果に基づいて選択する選択手段と、 上記選択手段により選択された上記応答を外部に音声出
力する音声出力手段とを具えることを特徴とする対話処
理装置。 - 【請求項2】上記複数の応答生成手段のうちの少なくと
も1つの上記応答生成手段が、上記対話相手の上記発話
の内容に拘わりなく、必ず上記応答を生成することを特
徴とする請求項1に記載の対話処理装置。 - 【請求項3】上記選択手段は、 各上記応答生成手段に対してそれぞれ予め設定された出
力割合と、各上記応答生成手段の現実の出力割合とに基
づいて、各上記応答生成手段によりそれぞれ生成された
上記応答の中から1つの応答を選択することを特徴とす
る請求項1に記載の対話処理装置。 - 【請求項4】上記選択手段は、 上記複数の応答生成手段のうちの特定の上記応答生成手
段が上記応答を生成したときには、当該応答を優先的に
選択することを特徴とする請求項1に記載の対話処理装
置。 - 【請求項5】上記選択手段は、 上記対話相手ごとに上記評価関数を変更することを特徴
とする請求項1に記載の対話処理装置。 - 【請求項6】対話相手の発話を音声認識する第1のステ
ップと、 それぞれ上記認識結果に基づき、それぞれ別個の応答生
成ルールに従って、上記対話相手の上記発話に対する複
数の応答を生成する第2のステップと、 生成された各上記応答の中から1つの上記応答を所定の
評価関数を用いた評価結果に基づいて選択する第3のス
テップと、 選択した上記応答を外部に音声出力する第4のステップ
とを具えることを特徴とする対話処理方法。 - 【請求項7】上記複数の応答は、それぞれ別個の上記応
答生成手段により生成され、 少なくとも1つの上記応答生成手段が、上記対話相手の
上記発話の内容に拘わりなく、必ず上記応答を生成する
ことを特徴とする請求項6に記載の対話処理方法。 - 【請求項8】上記第3のステップでは、 各上記応答生成手段に対してそれぞれ予め設定された出
力割合と、各上記応答生成手段の現実の出力割合とに基
づいて、各上記応答生成手段によりそれぞれ生成された
上記応答の中から1つの応答を選択することを特徴とす
る請求項7に記載の対話処理方法。 - 【請求項9】上記第3のステップでは、 上記複数の応答生成手段のうちの特定の上記応答生成手
段が上記応答を生成したときには、当該応答を優先的に
選択することを特徴とする請求項7に記載の対話処理方
法。 - 【請求項10】上記第3のステップでは、 上記対話相手ごとに上記評価関数を変更することを特徴
とする請求項7に記載の対話処理方法。 - 【請求項11】対話相手の発話を音声認識する音声認識
手段と、 それぞれ上記音声認識手段の認識結果に基づき、別個の
応答生成ルールに従って、上記対話相手の上記発話に対
する応答を生成する複数の応答生成手段と、各上記応答
生成手段によりそれぞれ生成された各上記応答の中から
1つの上記応答を所定の評価関数を用いた評価結果に基
づいて選択する選択手段と、 上記選択手段により選択された上記応答を外部に音声出
力する音声出力手段とを具えることを特徴とするロボッ
ト装置。 - 【請求項12】上記複数の応答生成手段のうちの少なく
とも1つの上記応答生成手段が、上記対話相手の上記発
話の内容に拘わりなく、必ず上記応答を生成することを
特徴とする請求項11に記載のロボット装置。 - 【請求項13】上記選択手段は、 各上記応答生成手段に対してそれぞれ予め設定された出
力割合と、各上記応答生成手段の現実の出力割合とに基
づいて、各上記応答生成手段によりそれぞれ生成された
上記応答の中から1つの応答を選択することを特徴とす
る請求項11に記載のロボット装置。 - 【請求項14】上記選択手段は、 上記複数の応答生成手段のうちの特定の上記応答生成手
段が上記応答を生成したときには、当該応答を優先的に
選択することを特徴とする請求項11に記載のロボット
装置。 - 【請求項15】上記選択手段は、 上記対話相手ごとに上記評価関数を変更することを特徴
とする請求項11に記載のロボット装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060427A JP4062591B2 (ja) | 2002-03-06 | 2002-03-06 | 対話処理装置及び方法並びにロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002060427A JP4062591B2 (ja) | 2002-03-06 | 2002-03-06 | 対話処理装置及び方法並びにロボット装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2003255990A true JP2003255990A (ja) | 2003-09-10 |
JP2003255990A5 JP2003255990A5 (ja) | 2005-09-02 |
JP4062591B2 JP4062591B2 (ja) | 2008-03-19 |
Family
ID=28669791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002060427A Expired - Fee Related JP4062591B2 (ja) | 2002-03-06 | 2002-03-06 | 対話処理装置及び方法並びにロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4062591B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219149A (ja) * | 2006-02-16 | 2007-08-30 | Toyota Central Res & Dev Lab Inc | 応答生成装置、方法及びプログラム |
JP2008186027A (ja) * | 2008-04-03 | 2008-08-14 | Toyota Central R&D Labs Inc | 対話処理装置 |
JP2009163619A (ja) * | 2008-01-09 | 2009-07-23 | Toyota Central R&D Labs Inc | 応答生成装置、及び応答生成プログラム |
JP2009198614A (ja) * | 2008-02-19 | 2009-09-03 | Toyota Central R&D Labs Inc | 対話装置及びプログラム |
JP2010140282A (ja) * | 2008-12-11 | 2010-06-24 | Nippon Telegr & Teleph Corp <Ntt> | 対話装置、対話方法、対話プログラムおよび記録媒体 |
WO2015098306A1 (ja) * | 2013-12-27 | 2015-07-02 | シャープ株式会社 | 応答制御装置、制御プログラム |
JP2018067100A (ja) * | 2016-10-18 | 2018-04-26 | 株式会社日立製作所 | ロボット対話システム |
JP2020042184A (ja) * | 2018-09-11 | 2020-03-19 | 株式会社デンソーアイティーラボラトリ | 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム |
JP2020067585A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | コミュニケーション装置およびコミュニケーション装置の制御プログラム |
WO2021059771A1 (ja) * | 2019-09-25 | 2021-04-01 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
-
2002
- 2002-03-06 JP JP2002060427A patent/JP4062591B2/ja not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007219149A (ja) * | 2006-02-16 | 2007-08-30 | Toyota Central Res & Dev Lab Inc | 応答生成装置、方法及びプログラム |
JP2009163619A (ja) * | 2008-01-09 | 2009-07-23 | Toyota Central R&D Labs Inc | 応答生成装置、及び応答生成プログラム |
JP2009198614A (ja) * | 2008-02-19 | 2009-09-03 | Toyota Central R&D Labs Inc | 対話装置及びプログラム |
JP2008186027A (ja) * | 2008-04-03 | 2008-08-14 | Toyota Central R&D Labs Inc | 対話処理装置 |
JP2010140282A (ja) * | 2008-12-11 | 2010-06-24 | Nippon Telegr & Teleph Corp <Ntt> | 対話装置、対話方法、対話プログラムおよび記録媒体 |
WO2015098306A1 (ja) * | 2013-12-27 | 2015-07-02 | シャープ株式会社 | 応答制御装置、制御プログラム |
JP2018067100A (ja) * | 2016-10-18 | 2018-04-26 | 株式会社日立製作所 | ロボット対話システム |
JP2020042184A (ja) * | 2018-09-11 | 2020-03-19 | 株式会社デンソーアイティーラボラトリ | 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム |
JP7117951B2 (ja) | 2018-09-11 | 2022-08-15 | 株式会社デンソーアイティーラボラトリ | 対話プラン作成支援装置、対話プラン作成支援方法、及びプログラム |
JP2020067585A (ja) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | コミュニケーション装置およびコミュニケーション装置の制御プログラム |
JP7063230B2 (ja) | 2018-10-25 | 2022-05-09 | トヨタ自動車株式会社 | コミュニケーション装置およびコミュニケーション装置の制御プログラム |
WO2021059771A1 (ja) * | 2019-09-25 | 2021-04-01 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4062591B2 (ja) | 2008-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6505748B2 (ja) | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット | |
US7526363B2 (en) | Robot for participating in a joint performance with a human partner | |
KR100988708B1 (ko) | 학습 장치, 학습 방법 및 로봇 장치 | |
JP2003255991A (ja) | 対話制御システム、対話制御方法及びロボット装置 | |
EP1256931A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
US20190371318A1 (en) | System and method for adaptive detection of spoken language via multiple speech models | |
US20180257236A1 (en) | Apparatus, robot, method and recording medium having program recorded thereon | |
JP2003271174A (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置 | |
JP2004090109A (ja) | ロボット装置およびロボット装置の対話方法 | |
US20220101856A1 (en) | System and method for disambiguating a source of sound based on detected lip movement | |
JP2006123136A (ja) | コミュニケーションロボット | |
JP4062591B2 (ja) | 対話処理装置及び方法並びにロボット装置 | |
WO2004084183A1 (ja) | 音声対話装置及び方法並びにロボット装置 | |
Tsiami et al. | Multi3: Multi-sensory perception system for multi-modal child interaction with multiple robots | |
WO2019181144A1 (ja) | 情報処理装置及び情報処理方法、並びにロボット装置 | |
JP2006243555A (ja) | 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法 | |
JP4433273B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP4600736B2 (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2005202076A (ja) | 発話制御装置及び方並びにロボット装置 | |
JP4706893B2 (ja) | 音声認識装置および方法、並びに、プログラムおよび記録媒体 | |
JP2004283927A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2003271172A (ja) | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 | |
JP2004286805A (ja) | 話者識別装置および話者識別方法、並びにプログラム | |
JP4539313B2 (ja) | 音声認識辞書作成システム、音声認識辞書作成方法、音声認識システムおよびロボット | |
JP4635486B2 (ja) | 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050304 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071220 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120111 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |