JP2005335053A - ロボット、ロボット制御装置およびロボットの制御方法 - Google Patents

ロボット、ロボット制御装置およびロボットの制御方法 Download PDF

Info

Publication number
JP2005335053A
JP2005335053A JP2004241523A JP2004241523A JP2005335053A JP 2005335053 A JP2005335053 A JP 2005335053A JP 2004241523 A JP2004241523 A JP 2004241523A JP 2004241523 A JP2004241523 A JP 2004241523A JP 2005335053 A JP2005335053 A JP 2005335053A
Authority
JP
Japan
Prior art keywords
robot
behavior
state
listener
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004241523A
Other languages
English (en)
Other versions
JP4622384B2 (ja
Inventor
Shinichi Onaka
慎一 大中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004241523A priority Critical patent/JP4622384B2/ja
Priority to US11/116,436 priority patent/US7526363B2/en
Publication of JP2005335053A publication Critical patent/JP2005335053A/ja
Priority to US12/401,927 priority patent/US20090182453A1/en
Priority to US12/401,873 priority patent/US20090177321A1/en
Application granted granted Critical
Publication of JP4622384B2 publication Critical patent/JP4622384B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00

Abstract

【課題】 人間との対話や人間の問いかけに対する動作を自然に行うことのできるロボットを提供する。
【解決手段】 ロボット120は、相方の言動を認識する相方言動認識部51Aと、観客の状態を認識する観客状態認識部51Bと、ロボットと相方との対話における相方の言動およびロボットの言動を記述したシナリオを記憶するシナリオ記憶部52と、シナリオ記憶部52を参照して、ロボットの発話および動作を決定して、ロボットに当該発話および動作を実行させる全体制御部54と、を含む。全体制御部54は、シナリオ記憶部52を参照して、観客の状態を考慮するか否かを判断し、その判断に基づき、観客の状態を考慮する必要がある場合、観客状態認識部51Bの認識結果を考慮して、ロボットの発話および動作を決定する。
【選択図】 図6

Description

本発明は、ロボット、ロボットの制御装置およびロボットの制御方法に関し、とくに対話型のロボット、その制御装置およびその制御方法に関する。
近年、コンピュータ技術の発達により、コンピュータを応用したロボットが開発され、その一部は商品化されている。たとえば、ソニー株式会社が商品化しているAIBO(商標)や本田技研工業株式会社が開発中のASIMO(商標)等が知られている。
特開2000−353012号公報
従来のロボットは、たとえば、人間の発話を音声認識し、光や音をつかって感情を表現した振る舞いを行うように構成されている。しかし、従来のロボットは、断片化された音声認識結果を使って振る舞いを決定しているに過ぎず、利用者との対話が成立しないことが多々ある。
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、人間との対話や人間の問いかけに対する動作を自然に行うことのできるロボットを提供することにある。
本発明によれば、ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボット制御装置であって、特定の相手の言動を認識する言動認識部と、ロボットと特定の相手との対話の聞き手の状態を認識する聞き手状態認識部と、ロボットと特定の相手との対話における特定の相手の言動およびロボットの言動を記述したシナリオを記憶するシナリオ記憶部と、言動認識部による認識結果および聞き手状態認識部による認識結果を考慮するとともにシナリオ記憶部を参照してロボットの発話および動作を決定し、ロボットに当該発話および動作を実行させる制御部と、を含むことを特徴とするロボット制御装置が提供される。
ここで、シナリオは、たとえば漫才のねたや教育用の説明プログラム等、人物とロボットが、第三者の聞き手に対して披露したり説明したりする筋書きとすることができる。聞き手状態認識部は、ロボットが漫才の相方や教育現場の教師等の特定の相手と対話する際に、その対話の聞き手であるたとえば観客や生徒等の状態を認識する。聞き手の状態とは、聞き手が多い/少ない、笑い声が大きい/小さい等の聞き手の反応や、聞き手の性別や年齢層等の聞き手の種類等である。
本発明のロボット制御装置によれば、ロボットに、特定の相手と対話を行う際に、特定の相手以外の聞き手の状態も考慮して発話させたり行動させたりするので、聞き手の興味をひき、聞き手を楽しませることができる。
本発明のロボット制御装置において、シナリオ記憶部は、聞き手の状態を考慮する必要があるか否かを示す情報を、特定の相手の言動およびロボットの言動に対応づけて記憶することができ、制御部は、シナリオ記憶部を参照して、聞き手の状態を考慮するか否かを判断し、その判断に基づき、聞き手の状態を考慮する必要がある場合、聞き手状態認識部の認識結果を考慮して、ロボットの発話および動作を決定することができる。
シナリオは、基本的な筋書きと、聞き手の状況に応じて適宜変更される部分とを含むことができる。
本発明のロボット制御装置は、特定の相手以外のロボットの周囲の状態を示す情報を取得する周囲状態取得部をさらに含むことができ、聞き手状態認識部は、周囲の状態を示す情報に基づき、聞き手の状態を認識することができる。
ここで、周囲状態取得部は、たとえばロボット本体に設けられたマイクロフォン、CCDカメラ、感温センサ等とすることができる。この場合、ロボット本体には、複数のマイクロフォンやCCDカメラを設けることができ、一部を特定の相手の情報を取得するために用い、他のマイクロフォンやCCDカメラを、特定の相手以外のロボットの周囲の状態を示す情報を取得するために用いるように構成することができる。
また、周囲状態取得部は、聞き手近傍に配置されたマイクロフォン、CCDカメラ、感温センサ等から無線等を介して情報を取得する装置とすることもできる。
本発明のロボット制御装置において、聞き手状態認識部は、言動認識部が認識した特定の相手の言動に基づき、聞き手の状態を認識することができる。
本発明のロボット制御装置において、シナリオ記憶部は、特定の相手の言動およびロボットの言動を、時間の流れに沿って記述したシナリオを記憶することができる。
本発明のロボット制御装置において、シナリオ記憶部は、特定の相手の言動およびロボットの言動毎に、聞き手の状態を考慮する必要があるか否かを示す情報を対応づけて記憶することができる。
このようにすれば、聞き手の状態を考慮せずに予め設定した筋書き通りにロボットと相手との対話を進めるとともに、ところどころ、聞き手の状態に応じて筋書きを適宜変更して対話を進めることができる。これにより、ロボットと相手との対話は、ある程度ストーリー性を保ちつつ、その場の状態に応じたアドリブ的な要素も取り入れられるので、聞き手がよりリアリティを持ってロボットと相手との対話を楽しんで聞くことができる。
本発明のロボット制御装置において、制御部は、ロボットの言動に、聞き手の状態を考慮する必要がある旨が対応づけられている場合、聞き手状態認識部の認識結果を反映させてロボットの言動を決定することができる。
これにより、聞き手がよりリアリティを持ってロボットと相手との対話を楽しんで聞くことができる。
本発明のロボット制御装置において、シナリオ記憶部は、聞き手の状態を考慮する必要がある特定の相手の言動およびロボットの言動に、予測される聞き手の状態を対応づけて記憶することができ、制御部は、聞き手状態認識部の認識結果が、予測される聞き手の状態と一致するか否かを判断し、一致しない場合には、ロボットに、聞き手に当該聞き手の状態が予測と違うことを発話させることができる。
たとえば、ロボットと相手が漫才をする場合、聞き手に笑って欲しいところで聞き手が笑わなかったりしたら、ロボットに、「ここは笑うところやで」等の言葉を発話させることができる。また、本来聞き手が笑うような場面ではない場合に、聞き手が笑っている場合、ロボットに「ここはうけるところじゃないでっせ〜」等の言葉を発話させることができる。このように、聞き手の状況に応じて、ロボットが聞き手に対して話しかけるようにすることにより、聞き手がロボットと相手との対話をより楽しむことができる。
本発明のロボット制御装置において、シナリオ記憶部は、ロボットの発話および動作を、聞き手の複数の状態に対応づけて複数記憶することができ、制御部は、聞き手状態認識部の認識結果に基づき、シナリオ記憶部から、対応するロボットの発話および動作を読み出し、ロボットの発話および動作を決定することができる。
本発明のロボット制御装置は、ロボットの発話情報および動作情報を、キー情報に対応づけて記憶するロボット発話動作情報記憶部をさらに含むことができ、シナリオ記憶部は、聞き手の状態を考慮する必要がある特定の相手の言動およびロボットの言動に、予測される聞き手の状態を対応づけて記憶することができ、制御部は、聞き手状態認識部の認識結果が、予測される聞き手の状態と一致するか否かを判断し、一致する場合には、シナリオ記憶部に記憶されたロボットの言動に基づき、ロボットの発話および動作を決定し、一致しない場合には、聞き手状態認識部の認識結果をキー情報として、ロボット発話動作情報記憶部を参照して、ロボットの発話および動作を決定することができる。
本発明のロボット制御装置において、シナリオ記憶部は、特定の相手の言動およびロボットの言動毎に、ロボットと特定の相手のいずれに発話権があるかを示す情報を記憶することができ、制御部は、特定の相手に発話権がある場合、言動認識部の認識結果に基づき、ロボットの発話および動作を決定することができる。
本発明のロボット制御装置において、制御部は、特定の相手に発話権がある場合に、言動認識部の認識結果に基づき、特定の相手がシナリオ記憶部に記憶されたシナリオ通りの言動を行っているか否かを判断し、特定の相手がシナリオとは異なる言動を行った場合、特定の相手に、シナリオ通りの言動を行うことを促す処理をロボットに実行させることができる。
これにより、ロボットと相手との対話をシナリオに沿って進めることができる。
本発明のロボット制御装置において、周囲状態取得部は、聞き手の音声を取得することができ、聞き手状態認識部は、音声に基づき、聞き手の反応を認識することができる。
本発明によれば、上述したいずれかのロボット制御装置を含み、前記ロボット制御装置により制御されることを特徴とするロボットが提供される。
本発明のロボットによれば、ロボットが、特定の相手と対話を行う際に、特定の相手以外の聞き手の状態も考慮して発話させたり行動させたりするので、聞き手の興味をひき、聞き手を楽しませることができる。
本発明のロボットは、特定の相手がロボットに触れたことを感知するセンサをさらに含むことができ、言動認識部は、特定の相手がロボットに触れたことを認識することができる。
これにより、たとえばロボットと相手が漫才をする場合、相手がセンサに触れることにより、言動認識部が「つっこまれた」と認識することができる。漫才をするためのロボットの場合、センサは、ロボットの頭上に設置することができる。これにより、聞き手から見ても、ロボットが相手につっこまれていることを把握することができ、ロボットと相手との漫才を、人間同士の漫才と同様に感じることができる。
本発明によれば、ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボットの制御方法であって、特定の相手の言動を認識するステップと、ロボットと特定の相手との対話の聞き手の状態を認識するステップと、特定の相手の言動を認識するステップで認識された結果と、特定の相手との対話の聞き手の状態を認識するステップで認識された結果とを考慮するとともに、ロボットと特定の相手との対話における特定の相手の言動およびロボットの言動を記述したシナリオを記憶するシナリオ記憶部を参照して、ロボットの発話および動作を決定するステップと、ロボットにロボットの発話および動作を決定するステップで決定された発話および動作を実行させるステップと、を含むことを特徴とするロボットの制御方法が提供される。
本発明によれば、ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボットの制御方法であって、特定の相手の言動を認識するステップと、ロボットと特定の相手との対話の聞き手の状態を認識するステップと、ロボットと特定の相手との対話における特定の相手の言動およびロボットの言動を記述したシナリオを記憶するシナリオ記憶部を参照して、ロボットの発話および動作を決定するステップと、ロボットにロボットの発話および動作を決定するステップで決定された発話および動作を実行させるステップと、を含み、シナリオ記憶部は、聞き手の状態を考慮する必要があるか否かを示す情報を、特定の相手の言動およびロボットの言動に対応づけて記憶し、ロボットの発話および動作を決定するステップにおいて、シナリオ記憶部を参照して、聞き手の状態を考慮するか否かを判断し、その判断に基づき、聞き手の状態を考慮する必要がある場合、聞き手状態認識部の認識結果を考慮して、ロボットの発話および動作を決定することを特徴とするロボットの制御方法が提供される。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置の間で変換したものもまた、本発明の態様として有効である。
本発明によれば、人間との対話や人間の問いかけに対する動作を自然に行うことのできるロボットを提供することができる。
次に、本発明の実施の形態について図面を参照して詳細に説明する。なお、以下の実施の形態において、同様の構成要素には同様の符号を付し、適宜説明を省略する。
(第一の実施の形態)
図1は、本実施の形態におけるロボット制御装置の構成を示すブロック図である。
ロボット制御装置110は、シナリオ記憶手段100、相方言動認識手段200、空間状態認識手段300、ロボット発話動作DB400、および全体制御手段500を含む。
シナリオ記憶手段100には、人物の言動とロボットの動作等の情報が格納されている。相方言動認識手段200は、特定の人物の言動を認識する。空間状態認識手段300は、たとえばCCDカメラや温度センサ等のセンサからなり、ロボットの置かれた空間における状況を認識する。ロボット発話動作DB400には、ロボットの発話データと動作データが格納されている。全体制御手段500は、シナリオ記憶手段に格納されている情報と相方言動認識手段200による認識結果と空間状態認識手段300による認識結果とからロボットの行う行動を決定し、ロボット発話動作DB400を参照して発話動作データを取得し、それをロボットに行わせる。
図2は、ロボット制御装置110の具体的な構成を示すブロック図である。ここで、シナリオ記憶手段100は、空間状態認識手段300の一例として、観客状態認識手段301を有する。
図3は、本実施の形態におけるロボットの一例を示す外観構成図である。ロボット120は、ロボット制御装置110により制御される。
ロボット120は、たとえば、胴体部1および頭部2が連結されることにより構成される。胴体部1の下部には左右にそれぞれ車輪3Aおよび車輪3Bが取り付けられており、これらの車輪は、独立に前後に回転することができる。
頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。
胴体部1の表面には、スピーカ12およびマイクロフォン13が設けられる。また、頭部2の表面には、CCDカメラ21AおよびCCDカメラ21B、ならびにタッチセンサ23が設けられる。
図4は、ロボット120の電気的構成の一例を示すブロック図である。
胴体部1には、ロボット全体の制御を行うコントローラ10(図1および図2の全体制御手段500とロボット発話動作DB400に相当)、ロボットの動力源となるバッテリ11、スピーカ12、マイクロフォン13(図1および図2の相方言動認識手段200に相当)、2つの車輪を動かすためのアクチュエータ14Aおよびアクチュエータ14B等が収納されている。
マイクロフォン13は、特定の対話相手からの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する。また、ここではマイクロフォン13を一つしか図示してないが、ロボット120には複数のマイクロフォン13を設けることができる。これらの一部を用いて対話相手の音声を取得し、他の一部を用いて、対話相手以外の周囲の音声を取得するようにすることができる。
コントローラ10は、CPU10A(図1および図2の全体制御手段500に相当)やメモリ10B(図1および2のロボットロボット発話動作DB400およびシナリオ記憶手段100に相当)を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
頭部2には、CCDカメラ21AおよびCCDカメラ21B(図2の観客状態認識手段301に相当)、頭部2を回転するためのアクチュエータ22Aおよびアクチュエータ22B、ならびにタッチセンサ23等が収納されている。
CCDカメラ21AおよびCCDカメラ21Bは、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。タッチセンサ23は、たとえば人が触れたことを感知する。アクチュエータ22Aおよびアクチュエータ22Bは、ロボット120の頭部2を上下左右に回転させる。
コントローラ10は、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから得られる音声信号や画像信号に基づいて、メモリ10Bから適宜情報を読み出し、周囲の状況や、人間からの指令を解析し、行動を行うか、合成音を生成するかを判断する。
行動を行う場合、コントローラ10は、続く行動を決定し、その決定結果に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを制御して頭部2を上下左右に回転させたり、ロボット120を移動または回転させる等の行動を行わせる。
合成音を生成する場合、コントローラ10は、合成音を生成し、スピーカ12に供給して出力させる。
図5は、ロボット制御装置110の動作を示すフローチャートである。
マイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する(S1)。また、CCDカメラ21AおよびCCDカメラ21Bは、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する(S2)。コントローラ10は、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから送出された音声信号および画像信号に基づいて、適宜メモリ10Bを読み出し、周囲の状況や、人間からの指令を解析し、それらに応じてロボット120の動作を決定する(S3)。
ステップS3で決定された動作に音声出力が含まれる場合(S4のYES)、コントローラ10は、必要に応じて、合成音を生成し、スピーカ12に供給して音声を出力させる(S5)。
また、ステップS3で決定された動作にロボット120の行動が含まれる場合(S6のYES)、コントローラ10は、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22B等を駆動させる(S7)。これによりロボット120の頭部2を上下左右に回転させたり、ロボット120を移動または回転させる等の行動が行われる。
以上のような構成および動作により、ロボット120は、周囲の状況等に基づいて、自律的に行動をとることができる。
図6は、図5に示したコントローラ10の機能的構成例を示すブロック図である。なお、図6に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現される。
コントローラ10は、特定の外部状態を認識するセンサ入力処理部51、シナリオが格納されているシナリオ記憶部52、特定の状況におけるロボットの発話データおよび動作データが格納されているロボット言動データベース53、ロボット120の行動を決定する全体制御部54、全体制御部54の決定結果に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを制御するメカ制御部55、合成音を生成する音声合成部56、音声合成部56において合成された合成音の出力を制御する出力部57、を含む。全体制御部54は、センサ入力処理部51の認識結果、シナリオ記憶部52に記憶されているシナリオ情報、およびロボット言動データベース53に格納されている発話動作情報に基づいて、ロボット120の行動を決定する。
センサ入力処理部51は、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから送出される音声信号および画像信号等や、タッチセンサ23から送出される信号に基づいて、対話相手の言動や、周囲の観客の状態を認識し、その認識結果を、全体制御部54に通知する。
センサ入力処理部51は、相方言動認識部51Aおよび観客状態認識部51Bを有する。相方言動認識部51Aは、マイクロフォン13、CCDカメラ21A、CCDカメラ21B、およびタッチセンサ23から送出される情報を用いて、特定の人物(本実施の形態においては相方)の言動を認識し、認識結果を全体制御部54に通知する。ここでは図示していないが、コントローラ10は、相方に関する情報を記憶する相方情報記憶を含むことができる。ここで、相方に関する情報は、たとえば相方の顔画像や音声データである。相方言動認識部51Aは、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから入力された音声や画像に基づき、相方の言動を認識する際に、相方情報記憶部を参照することにより、入力された音声や画像が相方に関するものか否かを判断することができ、相方の言動を認識する精度を高めることができる。
観客状態認識部51Bは、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから与えられる情報を処理し、観客が多い/少ない、笑い声が大きい/小さい等の聞き手(観客)の状態を認識し、全体制御部54に通知する。観客状態認識部51Bは、たとえば、CCDカメラ21AやCCDカメラ21Bが取得した観客の画像に基づき、たとえば観客の顔画像を識別して、観客の人数や、女性が多いとか男性が多い等の観客の種類を把握することができる。また、ロボット120は、感温センサを含むことができ、感温センサにより人の存在を感知し、観客が多いか少ないか等の観客の状態を識別することができる。また、観客状態認識部51Bは、相方言動認識部51Aが認識した相方の言動に基づき、観客状態を認識することもできる。たとえば、相方が「今日は若いお客さんが多いね〜」等の発話をした場合、観客状態認識部51Bは、相方の発話に基づき、「若い人が多い」という観客の状況を認識することができる。
全体制御部54は、センサ入力処理部51からの通知、シナリオ記憶部52に格納されているシナリオ情報、およびロボット言動データベース53に格納されている発話動作情報に基づいて、ロボット120の次の動作を決定し、決定された動作の内容を、メカ制御部55と音声合成部56に送出する。
メカ制御部55は、全体制御部54から送出された行動指令に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを駆動するための制御信号を生成し、これをアクチュエータ14A、14B、22A、および22Bへ送出する。これにより、アクチュエータ14A、14B、22A、および22Bは、制御信号にしたがって駆動する。
出力部57には、音声合成部56からの合成音のディジタルデータが供給されるようになっており、出力部57は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。
図7は、シナリオ記憶部52に記憶されたシナリオの一例を示す図である。
ここでは、ロボット120が特定の人物(相方)と漫才をする場合のシナリオを例として示す。
シナリオは、番号欄と、相方の言動欄と、ロボットの言動欄と、発話権欄と、観客状態考慮欄と、予測欄とを有する。番号欄には、時間の流れを示す数値が記憶される。ここで、シナリオには、番号に対応づけて、相方の言動、ロボットの言動、発話権の所在、観客状態を考慮するか否か、および観客状態の予測が記述されている。相方の言動欄およびロボットの言動欄において、相方およびロボットの発話内容は「 」で囲まれている。また、相方およびロボットの行動は、“ ”で囲まれている。
たとえば、番号「01」では、発話権は「相方」にあり、相方の言動として「こんにちは〜、山田太郎と申します」という発話が記憶されている。ここで、ロボットの言動欄には、[D001]が記憶されている。発話権が相方にある場合、ロボットは、相方の言動を認識する。相方がシナリオ通りの言動をしない場合、ロボットは、相方との対話がスムーズに進むように、[ ]で囲まれた処理を行う。ロボットは、たとえば、相方がシナリオ通りの言動をするよう促す処理を行う。
番号「02」では、発話権は「ロボット」にあり、ロボットの言動として、「○○○でございます」という発話と、“A001”という行動が記憶されている。ここでは、観客状態考慮欄は「×」となっており、観客状態にかかわらず、ロボット120が「○○○でございます」という発話と、“A001”という行動を行うことが設定されている。
番号「06」では、発話権は「ロボット」にあり、ロボットの言動として、「B001」という発話と、“A003”という行動が記憶されている。ここでは、観客状態考慮欄が「○」となっており、ロボット120は、観客状態を考慮して発話および行動を行う。観客状態を考慮する場合、観客状態の予測も対応づけられる。たとえば、番号「06」では、観客状態の予測として、「観客が多い」が対応づけられている。シナリオは、観客が多いことを想定して作成されている。
ロボット言動データベース53には、「A001」等のキーや「B001」等のキーにロボット120の発話や行動が対応づけて記憶される。
図8は、ロボット言動データベース53の内部構成の一部の一例を示す図である。ここでは、キーとロボット120の行動とが対応づけられた例を示す。
ロボット言動データベース53は、キー欄と、行動欄とを含む。たとえば、キー「A001」には、「回転する」という行動が対応づけられている。また、キー「A003」には、「(a)おじぎをする、(b)回転する」という行動が対応づけられている。この場合、全体制御部54は、観客状態認識部51Bからの認識結果に基づき、観客の状態に応じて、(a)または(b)の行動のいずれかを選択する。ここでは、観客状態が予測通りであれば、(a)の行動が選択され、観客状態が予測通りではない場合に(b)の行動が選択される。全体制御部54は、選択した行動をメカ制御部55に通知する。
図9は、ロボット言動データベース53の内部構成の一部の一例を示す図である。ここでは、キーとロボット120の発話とが対応づけられた例を示す。
ロボット言動データベース53は、キー欄と、発話欄とを含む。たとえば、キー「B001」には、「(a)ほんとにね、ありがたいですね、(b)ららら〜」という行動が対応づけられている。この場合、全体制御部54は、観客状態認識部51Bからの認識結果に基づき、観客の状態に応じて、(a)または(b)の発話のいずれかを選択する。ここでは、観客状態が予測通りであれば、(a)の行動が選択され、観客状態が予測通りではない場合に(b)の行動が選択される。全体制御部54は、選択した発話を音声合成部56に通知する。
図10は、シナリオ記憶部52の内部構成の一部の一例を示す図である。ここでは、発話権が相方にある場合に、相方がシナリオ通りの言動をしない場合に、ロボット120が行う処理が、キーに対応づけて記憶される。
たとえば、キー「D001」には、「次の番号に進む」という処理が対応づけられている。また、キー「D002」には、「ここはつっこむところやで」という発話が対応づけられている。
以下、図7に示したシナリオに沿って、相方とロボットが漫才をする場合のロボット120の動作手順を説明する。以下、図8〜図10も参照して説明する。
プログラムが開始すると、全体制御部54は、まず番号「01」の行を参照する。番号「01」の行では、相方の言動が「こんにちは〜、山田太郎と申します」であり、発話権が“相方”となっている。相方の言動の欄が空欄でなく、かつ、発話権が“相方”である場合、全体制御部54は、相方言動認識部51Aの認識結果を待つ。相方がシナリオ通り「こんにちは〜、山田太郎と申します」と発話した場合、全体制御部54は、次の番号「02」の行を参照する。一方、相方がシナリオ通りの言動を行わなかった場合、全体制御部54は、ロボットの言動欄を参照し、[D001]の処理(図10では次の番号に進む)を実行する。
以下、番号xにおける、相方の言動をA(x)、ロボットの言動をR(x)、発話権をH(x)と記載する。
番号「02」の行では、A(02)が空欄であり、R(02)が「○○○でございます」“A001”であり、H(02)が“ロボット”、観客状態考慮は「×」である。この場合、全体制御部54は、R(02)を参照し、「○○○でございます」という発話と“A001”という行動を行うよう、メカ制御部55と音声合成部56へ指示を送る。このとき、全体制御部54は、ロボット言動データベース53を参照して、ロボット言動データベース53から、“A001”というキーに対応づけられたロボット120の行動情報(図9に示した例では回転する)を読み出し、その行動情報をメカ制御部55に通知する。
次に全体制御部54は、次の番号「03」の行を参照する。番号「03」の行では、A(03)が“叩く”、R(03)が[D002]、H(03)が“相方”、観客状態考慮は「×」である。全体制御部54は、番号「01」の時と同様に、相方言動認識部51Aの認識結果を待ち、認識結果が“叩く”である場合、次の番号「04」の行を参照する、というように続いていく。一方、認識結果が“叩く”でない場合、全体制御部54は、ロボットの行動欄を参照し、たとえばロボットに「ここはつっこむところやで」と発話させる処理を行う。これにより、相方に、シナリオに“叩く”と記憶されていることを思い出させることが期待できる。この場合、相方は、ロボット120のタッチセンサ23を叩く。これにより、ロボット120は、叩かれた(つっこまれた)ことを認識することができる。
番号「06」では、R(06)が「B001」という発話と“A003”という行動であり、H(06)が“ロボット”、観客状態考慮が「○」となっている。また、観客状態の予測は「多い」となっている。観客状態考慮が「○」である場合、全体制御部54は、その番号において行うロボットの言動を、観客状態認識部51Bの認識結果を参照して決定する。観客状態認識部51Bは、たとえば、観客が多いか少ないかを認識することができ、全体制御部54に「観客が多い」または「観客が少ない」等の認識結果を通知する。全体制御部54は、観客状態認識部51Bからの通知に基づき、観客の状態が予測通りか否かに応じて、全体制御部54の言動を選択する。
全体制御部54は、観客状態認識部51Bから、予測と同じ「観客が多い」という認識結果の通知を受けている場合、番号「05」における相方の「今日はね、たくさんのお客様にきていただいてね」という発話に同意して図9のキー「B001」に対応づけられた(a)の「ほんとにね、ありがたいですね」という発話を選択する。また、このとき、全体制御部54は、図8のキー「A003」に対応づけられた(a)の「おじぎをする」という行動を選択する。この結果、番号「06」において、ロボット120は、おじぎをしながら「ほんとにね、ありがたいですね」と発話する。
一方、全体制御部54は、観客状態認識部51Bから、予測とは異なる「観客が少ない」という認識結果の通知を受けている場合、図9のキー「B001」に対応づけられた(b)の「ららら〜」という発話を選択する。また、このとき、全体制御部54は、図8のキー「A003」に対応づけられた(b)の「回転する」という行動を選択する。この結果、番号「06」において、ロボット120は、回転しながら「ららら〜」と発話する。
また、番号「11」では、R(06)が「B002」という発話であり、H(06)が“ロボット”、観客状態考慮が「○」となっている。また、観客状態の予測は「注目」となっている。全体制御部54は、観客状態認識部51Bから、観客が注目しているか否かの認識結果を取得する。観客が注目しているか否かは、マイクロフォン13から取得される音声や、CCDカメラ21AやCCDカメラ21Bから取得される観客の画像に基づき判断することができる。全体制御部54は、観客状態認識部51Bからの通知に基づき、観客が注目している場合は、図9のキー「B002」に対応する(a)の「はいな」という発話を選択し、ロボット120に「はいな」と音声出力させる。一方、全体制御部54は、観客が注目していない場合は、図9のキー「B002」に対応する(b)の「やだよ」という発話を選択し、ロボット120に「やだよ」と音声出力させる。
また、他の例において、シナリオ記憶部52には、観客状態が予測通りの場合の言動のみを記憶させておき、全体制御部54は、観客状態が予測と異なる場合には、観客の状態をキーとしてロボット言動データベース53に対して検索を行い、キーに対応する発話動作データを取得し、その発話と動作を行うよう、メカ制御部55と音声合成部56へ指示を送ることもできる。たとえば、番号「06」のロボットの言動として「ほんとにね、ありがたいですね」という発話と“おじぎをする”という行動を記憶させておき、観客状態認識部51Bから通知された観客状態が予測通りの場合には、シナリオ記憶部52に記憶された通りの言動を行うようにすることもできる。一方、観客状態認識部51Bから、“観客が少ない”という通知を受けた場合、全体制御部54は“観客が少ない”というキーにより、ロボット言動データベース53に対して検索を行い、キーに対応する発話動作データを取得し、その発話と動作を行うよう、メカ制御部55と音声合成部56へ指示を送ることもできる。
図11は、全体制御部54の動作を整理して示した図である。
たとえば、パターン(a)では、相方の言動が「A(x)」で、ロボットの言動は「(無し)/[×××]」で、発話権は相方にあり、観客状態は考慮しないことになっている。この場合、全体制御部54は、相方言動認識部51Aの認識結果を待ち、それがA(x)である場合、次の番号のシナリオを参照する。一方、全体制御部54は、相方言動認識部51Aの認識結果が、A(x)とは異なる場合、[×××]の処理を行い、相方にA(x)の言動を促す。
パターン(b)では、相方の言動が「(無し)」で、ロボットの言動は「R(x)」で、発話権はロボットにあり、観客状態は考慮しないことになっている。この場合、全体制御部54は、R(x)を実行し、次の番号のシナリオを参照する。
パターン(c)では、相方の言動が「(無し)」で、ロボットの言動は「R(x)」で、発話権はロボットにあり、観客状態を考慮することになっている。この場合、全体制御部54は、観客状態認識部51Bの認識結果を参照し、予測通りであれば、R(x)を実行し、次の番号のシナリオを参照する。一方、観客状態認識部51Bの認識結果が予測通りでない場合、全体制御部54は、観客状態認識部51Bからの認識結果に基づき、それをキーとしてロボット言動データベース53を参照して、そのキーに対応する発話動作データを取得し、その発話と動作を行う。
パターン(d)では、相方の言動が「A(x)」で、ロボットの言動は「(無し)/[×××]」で、発話権は相方にあり、観客状態を考慮することになっている。この場合、全体制御部54は、観客状態認識部51Bの認識結果を参照し、予測通りであれば、パターン(a)と同様の処理を行う。一方、観客状態認識部51Bの認識結果が予測通りでない場合、相方言動認識部51Aの認識結果を待ち、相方の言動に応じて動作が必要であれば対応し、次の番号のシナリオを参照する。
図12は、本実施の形態におけるロボット制御装置110の全体制御部54の処理手順を示すフローチャートである。
新しい番号のシナリオを参照すると、全体制御部54は、発話権がロボットにあるか相方にあるかを判断する(S100)。発話権がロボットにある場合(S100のYES)、全体制御部54は、観客状態を考慮するか否かを判断する(S102)。観客状態を考慮する場合(S102のYES)、全体制御部54は、観客状態認識部51Bからの認識結果を取得する(S104)。観客状態認識部51Bからの認識結果が予測通りの場合(S106のYES)、シナリオ記憶部52を参照して、設定された言動を実行させる(S110)。一方、ステップS106において、観客状態認識部51Bからの認識結果が予測通りでない場合(S106のNO)、全体制御部54は、認識結果に基づき、それをキーとしてロボット言動データベース53を参照し、そのキーに対応する発話動作データを取得し、言動を決定する(S108)。その後、決定した言動を実行させる(S110)。
なお、図8および図9を参照して説明したように、ロボット言動データベース53に、観客状態認識部51Bの認識結果に応じて複数の言動が記憶されている場合、全体制御部54は、ステップS106の判断結果に応じて、ロボット言動データベース53から言動を選択し、ステップS110において、選択された言動を実行させる。
ステップS102において、観客状態を考慮しない場合(S102のNO)、ステップS110に進み、シナリオ記憶部52を参照して、設定された言動を実行させる(S110)。
ステップS110の処理の後、ロボット120の言動を終了するか否かを判断し(S112)、終了しない場合は次の番号のシナリオを参照し(S114)、再びステップS100に戻り、同様の処理を行う。
一方、ステップS100において、発話権がロボットにない場合(S100のNO)、全体制御部54は、観客状態を考慮するか否かを判断する(S116)。観客の言動を考慮しない場合(S116のNO)、相方言動認識部51Aの認識結果を取得する(S118)。相方言動認識部51Aの認識結果がシナリオ記憶部52のシナリオ通りの場合(S120のYES)、ステップS112に進む。
一方、ステップS120において、相方言動認識部51Aの認識結果がシナリオ通りでない場合(S120のNO)、相方にシナリオ通りの言動を促す処理を行うか否かを判断する(S121)。相方にシナリオ通りの言動を促す処理を行う場合(S121のYES)、相方にシナリオ通りの言動を促す処理を行う(S122)。その後、ステップS118に戻り、相方の言動がシナリオ通りか否かを再び判断する(S120)。
また、ステップS121において、何度かステップS122の処理を行っても相方の言動がシナリオ通りにならない場合や、相方の言動がシナリオ通りでなくてもいい場合は、相方にシナリオ通りの言動を促すことなく(S121のNO)、ステップS112に進み、以上と同様の処理を行う。
ステップS116において、観客状態を考慮する場合(S116のYES)、全体制御部54は、観客状態認識部51Bからの認識結果を取得する(S124)。観客状態認識部51Bからの認識結果が予測通りの場合(S126のYES)、ステップS118に進み、上記と同様の処理を行う。
ステップS126において、観客状態認識部51Bからの認識結果が予測通りではない場合(S126のNO)、全体制御部54は、相方言動認識部51Aからの認識結果を取得する(S128)。全体制御部54は、相方言動認識部51Aからの認識結果に基づき、対応が必要か否かを判断する(S130)。対応が必要な場合(S130のYES)、ステップS108に進み、たとえば相方の発話内容等をキーとしてロボット言動データベース53を検索し、そのキーに対応する発話動作データを取得し、言動を決定する。ステップS130において、対応が必要でない場合(S130のNO)、ステップS112に進み、以上と同様の処理を行う。
図13は、図7に示したシナリオの他の例を示す図である。
ここで、番号「03」では、発話権はロボットにあり、ロボットの発話が「E001」、行動が“F001”、観客の状態の予測として、「笑い」が対応づけられている。漫才等のシナリオを考える場合、漫才師は、予め観客にうける箇所をいくつか設けてシナリオを作成する。たとえば、図13に示した例では、番号「02」でロボット120が自分の本当の名前を言わず、観客にうけるような名前を発話することが設定されている。「○○○でございます」の「○○○」には、たとえばそのときに話題になっている人や、観客がうけそうな人の名前を入れることができる。番号「02」の次の番号「03」では、観客がうけて笑っていることが予測される。観客状態認識部51Bは、マイクロフォン13から得られる観客の音声等に基づき、観客がうけているか否かを判断する。シナリオ記憶部52には、たとえば、予測通り観客がうけている場合のロボット120の言動として、「E001」に「うけた、うけた」という言葉、および“F001”に「回転する」という行動を記憶しておくことができ、また、観客がうけていない場合のロボット120の言動として、「E001」に「ここは笑うところやで」という言葉、および“F001”に「客席の方向に前進」という行動を記憶しておくことができる。これにより、番号「03」において、ロボット120は、観客状態認識部51Bの認識結果が「笑い」の場合、「うけた、うけた」と発話して、回転するようにする。また、ロボット120は、観客状態認識部51Bの認識結果が「静か」等の場合、「ここは笑うところやで」と発話しながら観客の方に前進する。
このようにすれば、ロボット120が観客の反応に応じた振る舞いをするので、観客はよりリアリティを持ってロボット120と相方との漫才を楽しむことができる。
図14は、図7に示したシナリオのまた他の例を示す図である。
ここでは、ロボット120が、相方の言動に基づき、観客の状態を認識する例を示す。番号「05」では、相方の言動が「<観客状態紹介>」となっている。相方がたとえば「今日はきれいなお客さんばっかりや、うれしいねー」と発話すると、相方言動認識部51Aは、相方の言動を認識し、それを観客状態認識部51Bに通知する。観客状態認識部51Bは、「きれいな人がたくさんいる」ということを認識する。また、相方がたとえば「今日はじいさんばっかりやー」と発話すると、同様に、観客状態認識部51Bは相方言動認識部51Aの通知に基づき、「おじいさんがたくさんいる」ということを認識する。
次の番号「06」では、番号「05」で観客状態認識部51Bが認識した観客の状態に基づき、ロボット120の言動が決定される。たとえば、観客状態認識部51Bが「きれいな人がたくさんいる」と認識した場合は、ロボット120が「やったー」と発話して、回転するようにすることができる。一方、観客状態認識部51Bが「おじいさんがたくさんいる」と認識した場合は、ロボット120が「えー、がっかり」と発話して、うつむくようにすることができる。
ここで、たとえば、予め想定される観客の状態と番号「06」におけるロボット120の言動とを対応づけてロボット言動データベース53に記憶しておくことができる。この場合、全体制御部54は、観客状態認識部51Bの認識結果に基づき、ロボット言動データベース53から対応する言動を読み出してロボット120にその言動を実行させることができる。また、全体制御部54は、番号「05」における相方の言葉をキーとして、ロボット言動データベース53に対して検索を行い、キーに対応する発話動作データを取得し、その発話と動作をロボット120に実行させることもできる。番号「07」では、相方の言動が「<応答>」となっている。相方は、番号「06」のロボット120の言動に応じた応答を自由に発言する。
このようにすれば、相方およびロボット120が観客の反応に応じた振る舞いをするので、観客はよりリアリティを持ってロボット120と相方との漫才を楽しむことができる。
図15は、図6に示したロボット120を含むシステムの構成を示すブロック図である。コントローラ10は、通信制御部130をさらに含むことができる。通信制御部130は、ネットワーク600を介して、サーバ630、CCDカメラ620、およびマイクロフォン610との間でデータの送受信を行う。ここで、CCDカメラ620は、たとえば観客の様子を撮影するように設置されている。また、マイクロフォン610は、観客席の近くに設けられ、観客の音声を取得するようにされている。サーバ630は、観客の人数や観客の種類等が記憶された記憶部を含むことができる。この場合、観客の人数や観客の種類は、たとえばロボット120と相方との漫才が行われる会場に入場した観客のチケットを読み込むことにより取得することができる。
ここで、ネットワーク600は、たとえば無線LANとすることができる。また、マイクロフォン610、CCDカメラ620、およびサーバ630からのデータが、たとえばブルートゥース(Bluetooth)や赤外線を用いて送受信される構成とすることもできる。
また、観客にICタグを付しておき、それらを読み取った結果を取得することにより、観客の人数や種類を取得することもできる。
本実施の形態におけるロボット制御装置110を含むロボット120によれば、ロボット120が、特定の相手と対話を行う際に、特定の相手以外の聞き手の状態も考慮して発話したり行動したりするので、聞き手の興味をひき、聞き手を楽しませることができる。上述したように、シナリオ記憶部52に漫才のシナリオを記憶させておくことにより、特定の相手(相方)と漫才をして観客を喜ばせることができる。
(第二の実施の形態)
本実施の形態においては、ロボット120が教育現場で、教師と対話を行いながら聞き手(生徒)に教育を行う例を示す。
図16は、本実施の形態におけるロボット制御装置のコントローラの機能的構成例を示すブロック図である。
本実施の形態において、センサ入力処理部51は、相手言動認識部51Cと聞き手状態認識部51Dを含む。
相手言動認識部51Cは、図6に示した相方言動認識部51Aと同様の機能を有し、マイクロフォン13、CCDカメラ21A、CCDカメラ21B、およびタッチセンサ23から送出される情報を用いて、特定の人物(本実施の形態においては教師)の言動を認識し、認識結果を全体制御部54に通知する。
また、聞き手状態認識部51Dは、図6に示した観客状態認識部51Bと同様の機能を有し、マイクロフォン13、CCDカメラ21A、およびCCDカメラ21Bから与えられる情報を処理し、聞き手が注目している/よそ見をしている、話の内容を理解している/理解していない等の聞き手(本実施の形態においては生徒)状態を認識し、全体制御部54に通知する。
また、コントローラ10は、通信制御部130を含む。通信制御部130は、ネットワーク600を介してモニタ640や聞き手端末650に接続される。全体制御部54は、通信制御部130を介して、モニタ640に表示する画像の制御を行う。たとえば、コントローラ10は、教師やロボットの説明の参考となる映像や文字情報を記憶する記憶部(不図示)を含むことができる。全体制御部54は、当該記憶部から必要な情報を読み出し、その情報がモニタ640に表示されるように通信制御部130に指示をすることができる。また、教師やロボットの説明の参考となる映像や文字情報は、ロボット120外の装置(不図示)に記憶しておくこともでき、全体制御部54は、それらの情報が適切なタイミングでモニタ640に表示されるように、通信制御部130にタイミング信号を送信する指示をすることもできる。所望の画像をモニタ640に表示するタイミングは、シナリオ記憶部52に記憶しておくことができる。
また、通信制御部130は、ネットワーク600を介して聞き手端末650から、聞き手の反応を取得することができる。たとえば、生徒が机に座って教師とロボットとの対話を聞いている場合、各机に聞き手端末650を設置しておくことができる。教師またはロボットが「みんなわかりましたか?」と問いかけたときに、生徒に聞き手端末650から理解したか否かを示す情報を送信させるようにすることができる。
ここで、ネットワーク600は、たとえば無線LANとすることができる。また、モニタ640や聞き手端末650との間のデータは、たとえばブルートゥース(Bluetooth)や赤外線を用いて送受信される構成とすることもできる。
また、ロボット120は、教師またはロボットが「みんなわかりましたか?」と問いかけたときに、生徒が「はーい」と返事をした場合に、その音声に基づき、生徒が理解したか否かを判断することもできる。
本実施の形態におけるロボット制御装置110を含むロボット120によれば、ロボット120が、特定の相手と対話を行う際に、特定の相手以外の聞き手の状態も考慮して発話したり行動したりするので、聞き手の興味をひき、聞き手を楽しませることができる。
また、以上の実施の形態で説明したロボット制御装置を含むシステムの各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた上記各図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以上で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。
以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
以上の実施の形態においては、相方や先生等の対話相手の音声をロボット120のマイクロフォン13で取得する構成を説明したが、対話相手にマイクロフォンを付けておき、対話相手の音声をそのマイクロフォンから取得するようにすることもできる。対話相手に付けられたマイクロフォンからの音声は、たとえば無線でロボット制御装置に送信されるようにすることができる。これにより、雑音の影響を低減して、対話相手の音声を正確に取得することができる。
以上の実施の形態においては、たとえば図7、図13および図14に示したように、シナリオ記憶部52が、ロボットが観客状態を考慮するか否かを相方の言動やロボットの言動ごとに対応づけて記憶する例を示したが、シナリオ記憶部52は、観客状態考慮欄や予測欄を含まない形態とすることもできる。たとえば、どの場面であっても、観客の音声が所定のレベル以上となると、観客が笑っていると判断して、「うけてるうけてる」とロボット120が発話するとともに、くるくる回転して喜んでいるような動作をするように設定することもできる。
また、ロボット120には、GPS等の位置取得機能を設けることもでき、全体制御部54は、位置情報に基づき、現在いる位置に関する情報をキーとしてロボット言動データベース53に対して検索を行い、キーに対応する発話動作データを取得し、その発話と動作をロボットに行わせることもできる。これにより、聞き手が親しみを持ってロボットと対話相手の対話を楽しむことができる。
また、ロボットの形状は、図3に示したものに限定されず、種々の形状とすることができる。本発明は、人の音声を認識して応答するロボットに広く適用することができる。また、本発明は、現実世界のロボットだけでなく、たとえば、液晶ディスプレイ等の表示装置に表示される仮想的なロボットにも適用可能である。
さらに、以上の実施の形態においては、上述した一連の処理を、CPU10A(図4)にプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウエアによって行うことも可能である。
なお、プログラムは、あらかじめメモリ10B(図4)に記憶させておく他、フロッピー(登録商標)(R)ディスク、CD−ROM、MOディスク、DVD、磁気ディスク、半導体メモリ等のリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウェアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。
また、プログラムは、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理も含むものである。
また、プログラムは、1つのCPUにより処理されるものであってもよいし、複数のCPUによって分散処理されるものであってもよい。
また、本発明は、以下の態様も含む。
(1)ロボットにおける対話を制御するロボット制御装置において
人物の言動を認識する人物言動認識手段と、
前記ロボットにおける空間的な状態を認識する空間状態認識手段と、
前記人物の言動および前記ロボットの行動を時間の流れに沿って記述するシナリオを格納するシナリオ記憶手段と、
前記ロボットの発話情報および動作情報を格納するロボット発話動作情報記憶手段と、
前記人物言動認識手段の結果と前記空間状態認識手段の結果と前記シナリオ記憶手段に格納されているシナリオと前記ロボット発話動作情報記憶手段に格納されているロボットの発話情報および動作情報を基に、前記ロボットの発話と動作を決定する全体制御部と、
からなる、ロボット制御装置。
(2)前記空間状態認識手段が、一人または不特定多数の人物の状態を認識する人物状態認識手段を含むことを特徴とする(1)のロボット制御装置。
(3)ロボットにおける対話を制御するロボット制御方法において、
人物の言動を認識する人物言動認識ステップと、
前記ロボットにおける空間的な状態を認識する空間状態認識ステップと、
前記人物言動認識ステップの結果と前記空間状態認識ステップの結果と、記憶手段に格納されている前記人物の言動および前記ロボットの行動を時間の流れに沿って記述するシナリオと記憶手段に格納されている前記ロボットの発話情報および動作情報を基に、前記ロボットの発話と動作を決定する全体制御ステップと、
を含むロボット制御方法。
(4)前記空間状態認識ステップが、一人または不特定多数の人物の状態を認識する人物状態認識ステップからなることを特徴とする(3)のロボット制御方法。
実施の形態におけるロボット制御装置の構成を示すブロック図である。 ロボット制御装置の具体的な構成を示すブロック図である。 実施の形態におけるロボットの一例を示す外観構成図である。 ロボットの電気的構成の一例を示すブロック図である。 ロボット制御装置の動作を示すフローチャートである。 図5に示したコントローラの機能的構成例を示すブロック図である。 シナリオ記憶部に記憶されたシナリオの一例を示す図である。 ロボット言動データベースの内部構成の一部の一例を示す図である。 ロボット言動データベースの内部構成の一部の一例を示す図である。 シナリオ記憶部の内部構成の一部の一例を示す図である。 全体制御部の動作を整理して示した図である。 実施の形態におけるロボット制御装置の全体制御部の処理手順を示すフローチャートである。 シナリオ記憶部に記憶されたシナリオの一例を示す図である。 シナリオ記憶部に記憶されたシナリオの一例を示す図である。 図6に示したコントローラの機能的構成例を示すブロック図である。 実施の形態におけるロボットの具体的な構成を示すブロック図である。
符号の説明
1 胴体部
2 頭部
3A、3B 車輪
10 コントローラ
10A CPU
10B メモリ
11 バッテリ
12 スピーカ
13 マイクロフォン
14A、14B アクチュエータ
21A、21B CCDカメラ
22A、22B アクチュエータ
23 タッチセンサ
51 センサ入力処理部
51A 相方言動認識部
51B 観客状態認識部
51C 相手言動認識部
51D 聞き手状態認識部
52 シナリオ記憶部
53 ロボット言動データベース
54 全体制御部
55 メカ制御部
56 音声合成部
57 出力部
100 シナリオ記憶手段
110 ロボット制御装置
120 ロボット
200 相方言動認識手段
300 空間状態認識手段
301 観客状態認識手段
400 ロボット言動データベース
500 全体制御手段
600 ネットワーク
610 マイクロフォン
620 CCDカメラ
630 サーバ
640 モニタ
650 聞き手端末

Claims (17)

  1. ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボット制御装置であって、
    特定の相手の言動を認識する言動認識部と、
    前記ロボットと前記特定の相手との対話の聞き手の状態を認識する聞き手状態認識部と、
    前記ロボットと前記特定の相手との対話における前記特定の相手の言動および前記ロボットの言動を記述したシナリオを記憶するシナリオ記憶部と、
    前記言動認識部による認識結果および前記聞き手状態認識部による認識結果を考慮するとともに前記シナリオ記憶部を参照して前記ロボットの発話および動作を決定し、前記ロボットに当該発話および動作を実行させる制御部と、
    を含むことを特徴とするロボット制御装置。
  2. 請求項1に記載のロボット制御装置において、
    前記シナリオ記憶部は、前記聞き手の状態を考慮する必要があるか否かを示す情報を、前記特定の相手の言動および前記ロボットの言動に対応づけて記憶し、
    前記制御部は、前記シナリオ記憶部を参照して、前記聞き手の状態を考慮するか否かを判断し、その判断に基づき、前記聞き手の状態を考慮する必要がある場合、前記聞き手状態認識部の認識結果を考慮して、前記ロボットの発話および動作を決定することを特徴とするロボット制御装置。
  3. 請求項2に記載のロボット制御装置において、
    前記シナリオ記憶部は、前記特定の相手の言動および前記ロボットの言動毎に、前記聞き手の状態を考慮する必要があるか否かを示す情報を対応づけて記憶することを特徴とするロボット制御装置。
  4. 請求項3に記載のロボット制御装置において、
    前記制御部は、前記ロボットの言動に、前記聞き手の状態を考慮する必要がある旨が対応づけられている場合、前記聞き手状態認識部の認識結果を反映させて前記ロボットの言動を決定することを特徴とするロボット制御装置。
  5. 請求項3または4に記載のロボット制御装置において、
    前記シナリオ記憶部は、前記聞き手の状態を考慮する必要がある前記特定の相手の言動および前記ロボットの言動に、予測される前記聞き手の状態を対応づけて記憶し、
    前記制御部は、前記聞き手状態認識部の認識結果が、前記予測される前記聞き手の状態と一致するか否かを判断し、一致しない場合には、ロボットに、前記聞き手に当該聞き手の状態が予測と違うことを発話させることを特徴とするロボット制御装置。
  6. 請求項2乃至5いずれかに記載のロボット制御装置において、
    前記シナリオ記憶部は、前記ロボットの発話および動作を、前記聞き手の複数の状態に対応づけて複数記憶し、
    前記制御部は、前記聞き手状態認識部の認識結果に基づき、前記シナリオ記憶部から、対応する前記ロボットの発話および動作を読み出し、前記ロボットの発話および動作を決定することを特徴とするロボット制御装置。
  7. 請求項2乃至6いずれかに記載のロボット制御装置において、
    前記ロボットの発話情報および動作情報を、キー情報に対応づけて記憶するロボット発話動作情報記憶部をさらに含み、
    前記シナリオ記憶部は、前記聞き手の状態を考慮する必要がある前記特定の相手の言動および前記ロボットの言動に、予測される前記聞き手の状態を対応づけて記憶し、
    前記制御部は、前記聞き手状態認識部の認識結果が、前記予測される前記聞き手の状態と一致するか否かを判断し、一致する場合には、前記シナリオ記憶部に記憶された前記ロボットの言動に基づき、前記ロボットの発話および動作を決定し、一致しない場合には、前記聞き手状態認識部の認識結果をキー情報として、前記ロボット発話動作情報記憶部を参照して、前記ロボットの発話および動作を決定することを特徴とするロボット制御装置。
  8. 請求項1乃至7いずれかに記載のロボット制御装置において、
    前記特定の相手以外の前記ロボットの周囲の状態を示す情報を取得する周囲状態取得部をさらに含み、
    前記聞き手状態認識部は、前記周囲の状態を示す情報に基づき、前記聞き手の状態を認識することを特徴とするロボット制御装置。
  9. 請求項1乃至8いずれかに記載のロボット制御装置において、
    前記聞き手状態認識部は、前記言動認識部が認識した前記特定の相手の言動に基づき、前記聞き手の状態を認識することを特徴とするロボット制御装置。
  10. 請求項1乃至9いずれかに記載のロボット制御装置において、
    前記シナリオ記憶部は、前記特定の相手の言動および前記ロボットの言動を、時間の流れに沿って記述したシナリオを記憶することを特徴とするロボット制御装置。
  11. 請求項1乃至10いずれかに記載のロボット制御装置において、
    前記シナリオ記憶部は、前記特定の相手の言動および前記ロボットの言動毎に、前記ロボットと前記特定の相手のいずれに発話権があるかを示す情報を記憶し、
    前記制御部は、前記特定の相手に発話権がある場合、前記言動認識部の認識結果に基づき、前記ロボットの発話および動作を決定することを特徴とするロボット制御装置。
  12. 請求項11に記載のロボット制御装置において、
    前記制御部は、前記特定の相手に発話権がある場合に、前記言動認識部の認識結果に基づき、前記特定の相手が前記シナリオ記憶部に記憶された前記シナリオ通りの言動を行っているか否かを判断し、前記特定の相手が前記シナリオとは異なる言動を行った場合、前記特定の相手に、前記シナリオ通りの言動を行うことを促す処理を前記ロボットに実行させることを特徴とするロボット制御装置。
  13. 請求項1乃至12いずれかに記載のロボット制御装置において、
    前記周囲状態取得部は、前記聞き手の音声を取得し、
    前記聞き手状態認識部は、前記音声に基づき、前記聞き手の反応を認識することを特徴とするロボット制御装置。
  14. 請求項1乃至13いずれかに記載のロボット制御装置を含み、当該ロボット制御装置に制御されることを特徴とするロボット。
  15. 請求項14に記載のロボットにおいて、
    前記特定の相手がロボットに触れたことを感知するセンサをさらに含み、
    前記言動認識部は、前記特定の相手が前記ロボットに触れたことを認識することを特徴とするロボット。
  16. ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボットの制御方法であって、
    特定の相手の言動を認識するステップと、
    前記ロボットと前記特定の相手との対話の聞き手の状態を認識するステップと、
    特定の相手の言動を認識するステップで認識された結果と、前記特定の相手との対話の聞き手の状態を認識するステップで認識された結果とを考慮するとともに、前記ロボットと前記特定の相手との対話における前記特定の相手の言動および前記ロボットの言動を記述したシナリオを記憶するシナリオ記憶部を参照して、前記ロボットの発話および動作を決定するステップと、
    前記ロボットに前記ロボットの発話および動作を決定するステップで決定された発話および動作を実行させるステップと、
    を含むことを特徴とするロボットの制御方法。
  17. ロボットが特定の相手と対話する際の、ロボットの発話および動作を制御するロボットの制御用プログラムであって、コンピュータを、
    特定の相手の言動を認識する言動認識手段、
    前記ロボットと前記特定の相手との対話の聞き手の状態を認識する聞き手状態認識手段、
    前記ロボットと前記特定の相手との対話における前記特定の相手の言動および前記ロボットの言動を記述したシナリオを記憶するシナリオ記憶手段、
    前記言動認識手段による認識結果および前記聞き手状態認識手段による認識結果を考慮するとともに前記シナリオ記憶手段を参照して前記ロボットの発話および動作を決定し、前記ロボットに当該発話および動作を実行させる制御手段、
    として機能させることを特徴とするプログラム。
JP2004241523A 2004-04-28 2004-08-20 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム Expired - Fee Related JP4622384B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004241523A JP4622384B2 (ja) 2004-04-28 2004-08-20 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
US11/116,436 US7526363B2 (en) 2004-04-28 2005-04-28 Robot for participating in a joint performance with a human partner
US12/401,927 US20090182453A1 (en) 2004-04-28 2009-03-11 Robot for participating in a joint performance with a human partner
US12/401,873 US20090177321A1 (en) 2004-04-28 2009-03-11 Robot for participating in a joint performance with a human partner

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004132789 2004-04-28
JP2004241523A JP4622384B2 (ja) 2004-04-28 2004-08-20 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム

Publications (2)

Publication Number Publication Date
JP2005335053A true JP2005335053A (ja) 2005-12-08
JP4622384B2 JP4622384B2 (ja) 2011-02-02

Family

ID=35188137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004241523A Expired - Fee Related JP4622384B2 (ja) 2004-04-28 2004-08-20 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム

Country Status (2)

Country Link
US (3) US7526363B2 (ja)
JP (1) JP4622384B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2018156365A (ja) * 2017-03-17 2018-10-04 ヤマハ株式会社 制御方法及び制御装置
JP2018205771A (ja) * 2018-09-05 2018-12-27 カシオ計算機株式会社 ロボット制御装置、ロボット制御方法及びプログラム
JP2019053351A (ja) * 2017-09-12 2019-04-04 大日本印刷株式会社 応対装置、コンピュータプログラム及び応対方法
JP2019053156A (ja) * 2017-09-14 2019-04-04 日本電信電話株式会社 音声処理装置、方法およびプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
WO2008076445A2 (en) * 2006-12-18 2008-06-26 Disney Enterprises, Inc. Method, system and computer program product for providing group interactivity with entertainment experiences
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
US8060255B2 (en) * 2007-09-12 2011-11-15 Disney Enterprises, Inc. System and method of distributed control of an interactive animatronic show
US8140188B2 (en) * 2008-02-18 2012-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
TWI392983B (zh) * 2008-10-06 2013-04-11 Sonix Technology Co Ltd 利用音調的自動控制方法及其裝置
CN101727074B (zh) * 2008-10-24 2011-12-21 鸿富锦精密工业(深圳)有限公司 具有生物时钟的类生物装置及其行为控制方法
FR2965375B1 (fr) * 2010-09-27 2013-04-05 Ivan Lovric Systeme et procede d'agent conversationnel numerique a caractere evolutif
CN104914815A (zh) * 2015-04-15 2015-09-16 北汽福田汽车股份有限公司 处理器监控方法、装置及系统
CN106325118A (zh) * 2015-06-30 2017-01-11 芋头科技(杭州)有限公司 机器人活跃程度智能控制系统及方法
CN105892469A (zh) * 2016-06-14 2016-08-24 苏州迈奇杰智能技术有限公司 一种基于多存储器可见光机器人控制管理系统
JP6707671B2 (ja) * 2017-01-19 2020-06-10 シャープ株式会社 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法
CN109015664A (zh) * 2018-05-31 2018-12-18 芜湖星途机器人科技有限公司 用于机器人的控制系统
KR20200079054A (ko) * 2018-12-24 2020-07-02 엘지전자 주식회사 로봇 및 그의 제어 방법
CN112147929A (zh) * 2020-09-16 2020-12-29 芜湖宏嘉科技有限公司 一种用于教学的智能教室系统
CN113942009B (zh) * 2021-09-13 2023-04-18 苏州大学 机器人仿生手抓取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131468A (ja) * 1995-11-09 1997-05-20 Matsushita Electric Ind Co Ltd 漫才人形
JP2000155606A (ja) * 1998-11-24 2000-06-06 Ricoh Elemex Corp 動作制御システム
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
JP2004024867A (ja) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd 音声対話玩具

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US210345A (en) * 1878-11-26 Improvement in removable covers for show-boxes
US4221927A (en) * 1978-08-08 1980-09-09 Scott Dankman Voice responsive "talking" toy
US5281143A (en) * 1992-05-08 1994-01-25 Toy Biz, Inc. Learning doll
US6292713B1 (en) * 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
JP3318539B2 (ja) 1999-06-10 2002-08-26 株式会社エイ・ティ・アール知能映像通信研究所 対話システムを有する自立移動ロボット
US6585556B2 (en) * 2000-05-13 2003-07-01 Alexander V Smirnov Talking toy
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
US6971943B1 (en) * 2003-09-30 2005-12-06 Arne Schulze Interactive sound producing toy
US20050154265A1 (en) * 2004-01-12 2005-07-14 Miro Xavier A. Intelligent nurse robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09131468A (ja) * 1995-11-09 1997-05-20 Matsushita Electric Ind Co Ltd 漫才人形
JP2000155606A (ja) * 1998-11-24 2000-06-06 Ricoh Elemex Corp 動作制御システム
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
JP2004024867A (ja) * 2003-06-09 2004-01-29 Matsushita Electric Ind Co Ltd 音声対話玩具

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
JP2018156365A (ja) * 2017-03-17 2018-10-04 ヤマハ株式会社 制御方法及び制御装置
JP2019053351A (ja) * 2017-09-12 2019-04-04 大日本印刷株式会社 応対装置、コンピュータプログラム及び応対方法
JP2019053156A (ja) * 2017-09-14 2019-04-04 日本電信電話株式会社 音声処理装置、方法およびプログラム
JP2018205771A (ja) * 2018-09-05 2018-12-27 カシオ計算機株式会社 ロボット制御装置、ロボット制御方法及びプログラム

Also Published As

Publication number Publication date
US7526363B2 (en) 2009-04-28
US20090177321A1 (en) 2009-07-09
US20050246063A1 (en) 2005-11-03
US20090182453A1 (en) 2009-07-16
JP4622384B2 (ja) 2011-02-02

Similar Documents

Publication Publication Date Title
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
US11017779B2 (en) System and method for speech understanding via integrated audio and visual based speech recognition
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
JP4595436B2 (ja) ロボット、その制御方法及び制御用プログラム
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
US20150298315A1 (en) Methods and systems to facilitate child development through therapeutic robotics
US11017551B2 (en) System and method for identifying a point of interest based on intersecting visual trajectories
WO2019161193A2 (en) System and method for adaptive detection of spoken language via multiple speech models
US20090254826A1 (en) Portable Communications Device
CN111801730A (zh) 用于人工智能驱动的自动伴侣的系统和方法
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
US11200902B2 (en) System and method for disambiguating a source of sound based on detected lip movement
US11501768B2 (en) Dialogue method, dialogue system, dialogue apparatus and program
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
US20190202061A1 (en) System and method for detecting physical proximity between devices
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20220241977A1 (en) System and method for dynamic program configuration
WO2019161237A1 (en) System and method for inferring scenes based on visual context-free grammar model
WO2019161229A1 (en) System and method for reconstructing unoccupied 3d space
JP2019061098A (ja) 対話装置、サーバ装置、対話方法及びプログラム
JP2006243555A (ja) 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
JP2020067877A (ja) 対話装置および対話装置の制御プログラム
JP2003285286A (ja) ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R150 Certificate of patent or registration of utility model

Ref document number: 4622384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees