JP2005335001A - ロボット制御装置および方法、記録媒体、並びにプログラム - Google Patents

ロボット制御装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP2005335001A
JP2005335001A JP2004155608A JP2004155608A JP2005335001A JP 2005335001 A JP2005335001 A JP 2005335001A JP 2004155608 A JP2004155608 A JP 2004155608A JP 2004155608 A JP2004155608 A JP 2004155608A JP 2005335001 A JP2005335001 A JP 2005335001A
Authority
JP
Japan
Prior art keywords
unit
robot
distance
user
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004155608A
Other languages
English (en)
Other versions
JP2005335001A5 (ja
Inventor
Haru Kato
晴 加藤
Hiroaki Ogawa
浩明 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004155608A priority Critical patent/JP2005335001A/ja
Publication of JP2005335001A publication Critical patent/JP2005335001A/ja
Publication of JP2005335001A5 publication Critical patent/JP2005335001A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットに、より人間味のある動作を実行させる。
【解決手段】 アプリケーション選択部401は、ロボットからユーザまでの距離が距離計算部より通知されると、ユーザが遠くに位置しているか近くに位置しているかを判定する。ユーザが遠くに位置すると判定した場合、アプリケーション選択部401は、遠距離用アプリケーション部402を起動し、ユーザが近くに位置すると判定した場合、アプリケーション選択部401は、近距離用アプリケーション部403を起動する。また、アプリケーション選択部401は、遠距離用と近距離用のいずれを選択したかを示す選択信号を音量制御部404に通知する。音量制御部404は、出力する音声が、ユーザとの距離に応じた音量になるように制御する。本発明は、例えば、ヒューマノイドやペット型ロボットに適用することができる。
【選択図】図14

Description

本発明は、ロボット制御装置および方法、記録媒体、並びにプログラムに関し、特に、ロボットに、より人間味のある動作を実行させることができるようにしたロボット制御装置および方法、記録媒体、並びにプログラムに関する。
従来のロボットに搭載された音声認識システムではロボットの近くにユーザがいることを前提としていた。そのため、ユーザが離れているという情報を検知した場合には、ユーザに近づくよう指示を出したり、ロボット自身がユーザに近づくといった物理的な距離を縮める方法が提案されていた。
ユーザまでの距離を測定してユーザに近づくロボットがある(例えば、特許文献1参照)。また、顔画像から口の位置を取り出し、マイクから離れていればマイクに近づくようメッセージを出すシステムが提案されている(例えば、特許文献2参照)。
また、ユーザの位置に応じてロボットのマイクの感度、指向性を調整する方法が提案されている。また、画像や音声など複数のセンサの認識結果を相互に参照しあい、相互に矛盾のない信号獲得制御を行うシステムが提案されている(例えば、特許文献3参照)。
特開2000−326274号公報 特開平1−155430号公報 特開2002−251234号公報
例えば歩行したりして、移動することができるロボットは、ユーザに近寄ったり、ユーザから離れたりすることがある。しかしながら、ロボットは、ユーザの近くにいる場合も遠くにいる場合も、同様の動作をするため、人間味に欠けるという課題があった。
例えば、特許文献3に記載の方法では、ユーザの位置、距離をより正しく把握することが可能であるが、ユーザの位置、距離の情報を使って対話の内容を制御するものではない。
また、ユーザがロボットの近くに居る場合に、ロボットが大ぶりな動作をすると、ユーザに接触する危険性があるという課題があった。
また、特許文献1や特許文献2に記載の方法では、ユーザは、常にロボットの近くにいなければ対話ができないため、ユーザがマイクの位置にあわせて移動する必要があり、ユーザに移動を強いるという課題があった。
本発明のロボット制御装置は、ロボットからユーザまでの距離を算出する算出手段と、算出手段により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替え手段とを備えることを特徴とする。
前記切り替え手段により切り替えられた前記ロボットの前記機械的動作に応じて、異なる情報を利用して、前記ユーザの発話を音声認識する音声認識手段をさらに設けるようにすることができる。
前記切り替え手段には、前記算出手段により算出された前記距離に基づいて、前記ロボットから出力する音声の音量をさらに切り替えるようにさせることができる。
前記切り替え手段には、前記算出手段により算出された前記距離が長い場合、前記距離が短い場合と比較して、前記ロボットの前記機械的動作をより大きい動作に切り替えるようにさせることができる。
本発明のロボット制御方法は、ロボットからユーザまでの距離を算出する算出ステップと、算出ステップの処理により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替えステップとを含むことを特徴とする。
本発明の記録媒体のプログラムは、ロボットからユーザまでの距離を算出する算出ステップと、算出ステップの処理により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替えステップとを含むことを特徴とする。
本発明のプログラムは、ロボットからユーザまでの距離を算出する算出ステップと、算出ステップの処理により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替えステップとをコンピュータに実行させることを特徴とする。
本発明のロボット制御装置および方法、記録媒体、並びにプログラムにおいては、ロボットからユーザまでの距離が算出され、算出された距離に基づいて、ロボットの機械的動作が切り替えられる。
本発明は、例えば、ヒューマノイドやペット型ロボットに適用することができる。
本発明によれば、ロボットに動作させることができる。特に、より人間味のある動作を行わせることが可能となる。また、ロボットがユーザの近くに位置する場合、ロボットがユーザに接触することを防止することができ、ロボットがユーザの遠くに位置する場合、ユーザが、ロボットの動作を明瞭に確認できるようにすることができる。
以下に本発明の最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。明細書中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。
本発明によればロボット制御装置が提供される。このロボット制御装置(例えば、図4のメイン制御部61)は、ロボット(例えば、図1のロボット1)からユーザまでの距離を算出する算出手段(例えば、図7の距離計算部301)と、算出手段により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替え手段(例えば、図14のアプリケーション選択部401)とを備える。
本発明によればロボット制御装置が提供される。このロボット制御装置は、前記切り替え手段により切り替えられた前記ロボットの前記機械的動作に応じて、異なる情報(例えば、図13の近距離用タスク355および遠距離用タスク356)を利用して、前記ユーザの発話を音声認識する音声認識手段(例えば、図13の音声認識部223)をさらに備えることができる。
本発明によればロボット制御装置が提供される。このロボット制御装置では、前記切り替え手段は、前記算出手段により算出された前記距離に基づいて、前記ロボットから出力する音声の音量をさらに切り替える(例えば、図14の音量制御部404に遠距離用アプリケーション部402および近距離用アプリケーション部403のいずれを選択したかを示す選択情報を通知することにより、音量制御部404を介して、スピーカ72から出力される音声の音量を切り替える)ことができる。
本発明によればロボット制御装置が提供される。このロボット制御装置では、前記切り替え手段は、前記算出手段により算出された前記距離が長い場合、前記距離が短い場合と比較して、前記ロボットの前記機械的動作をより大きい動作に切り替える(例えば、ユーザがロボットから遠い位置にいる場合、図14の遠距離ジェスチャ用アプリケーション部424を起動し、ユーザがロボットの近い位置にいる場合、図14の近距離ジェスチャ用アプリケーション部434を起動する)ことができる。
本発明によればロボット制御方法が提供される。このロボット制御方法は、ロボット(例えば、図1のロボット1)からユーザまでの距離を算出する算出ステップ(例えば、図15のステップS102)と、算出ステップの処理により算出された距離に基づいて、ロボットの機械的動作を切り替える切り替えステップ(例えば、図15のステップS103)とを含む。
本発明によれば、ロボット制御方法と同様のプログラムが提供される。
以下、図を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した2足歩行型のロボット1の正面方向の斜視図であり、図2は、ロボット1の背面方向からの斜視図である。また、図3は、ロボット1の軸構成について説明するための図である。
ロボット1は、胴体部ユニット11、胴体部ユニット11の上部に配設された頭部ユニット12、胴体部ユニット11の上部左右の所定位置に取り付けられた腕部ユニット13Aおよび腕部ユニット13B、並びに胴体部ユニット11の下部左右の所定位置に取り付けられた脚部ユニット14Aおよび脚部ユニット14Bにより構成されている。腕部ユニット13Aおよび腕部ユニット13Bは、同様の構成とされる。また、脚部ユニット14Aおよび脚部ユニット14Bも、同様の構成とされる。頭部ユニット12には、頭部センサ51が設けられている。
胴体部ユニット11は、体幹上部を形成するフレーム21および体幹下部を形成する腰ベース22が腰関節機構23を介して連結することにより構成されている。胴体部ユニット11は、体幹下部の腰ベース22に固定された腰関節機構23のアクチュエータA1、および、アクチュエータA2をそれぞれ駆動することによって、体幹上部を、図3に示す直交するロール軸24およびピッチ軸25の回りに、それぞれ独立に回転させることができるようになされている。
頭部ユニット12は、フレーム21の上端に固定された肩ベース26の上面中央部に首関節機構27を介して取り付けられており、首関節機構27のアクチュエータA3、およびアクチュエータA4をそれぞれ駆動することによって、図3に示す直交するピッチ軸28およびヨー軸29の回りに、それぞれ独立に回転させることができるようになされている。
腕部ユニット13A、および腕部ユニット13Bは、肩関節機構30を介して肩ベース26の左右にそれぞれ取り付けられており、対応する肩関節機構30のアクチュエータA5、および、アクチュエータA6をそれぞれ駆動することによって、図3に示す、直交するピッチ軸31およびロール軸32の回りに、それぞれを独立に回転させることができるようになされている。
この場合、腕部ユニット13A、および腕部ユニット13Bは、上腕部を形成するアクチュエータA7の出力軸に、肘関節機構44を介して、前腕部を形成するアクチュエータA8が連結され、前腕部の先端に手部34が取り付けられることにより構成されている。
そして腕部ユニット13A、および腕部ユニット13Bでは、アクチュエータA7を駆動することによって、前腕部を図3に示すヨー軸35に対して回転させることができ、アクチュエータA8を駆動することによって、前腕部を図3に示すピッチ軸36に対して回転させることができるようになされている。
脚部ユニット14A、および、脚部ユニット14Bは、股関節機構37を介して、体幹下部の腰ベース22にそれぞれ取り付けられており、対応する股関節機構37のアクチュエータA9乃至A11をそれぞれ駆動することによって、図3に示す、互いに直交するヨー軸38、ロール軸39、およびピッチ軸40に対して、それぞれ独立に回転させることができるようになされている。
脚部ユニット14A、および、脚部ユニット14Bにおいては、大腿部を形成するフレーム41の下端が、膝関節機構42を介して、下腿部を形成するフレーム43に連結されるとともに、フレーム43の下端が、足首関節機構44を介して、足部45に連結されている。
これにより脚部ユニット14A、および、脚部ユニット14Bにおいては、膝関節機構42を形成するアクチュエータA12を駆動することによって、図3に示すピッチ軸46に対して、下腿部を回転させることができ、また足首関節機構44のアクチュエータA13、および、アクチュエータA14をそれぞれ駆動することによって、図3に示す直交するピッチ軸47およびロール軸48に対して、足部45をそれぞれ独立に回転させることができるようになされている。
脚部ユニット14A、および脚部ユニット14Bの、足部45の足底面(床と接する面)には、それぞれ足底センサ91(図5)が配設されており、足底センサ91のオン・オフに基づいて、足部45が床に接地しているか否かが判別される。
また、胴体部ユニット11の体幹下部を形成する腰ベース22の背面側には、後述するメイン制御部61(図4)などを内蔵したボックスである、制御ユニット52が配設されている。
図4は、ロボット1のアクチュエータとその制御系等について説明する図である。
制御ユニット52には、ロボット1全体の動作制御をつかさどるメイン制御部61、並びに、後述するD/A変換部101、A/D変換部102、バッテリ103、バッテリセンサ131、加速度センサ132、通信部105、および外部メモリ106(いずれも図5)等を含む周辺回路62が収納されている。
そしてこの制御ユニット52は、各構成ユニット(胴体部ユニット11、頭部ユニット12、腕部ユニット13Aおよび腕部ユニット13B、並びに、脚部ユニット14Aおよび脚部ユニット14B)内にそれぞれ配設されたサブ制御部63A乃至63Dと接続されており、サブ制御部63A乃至63Dに対して必要な電源電圧を供給したり、サブ制御部63A乃至63Dと通信を行う。
また、サブ制御部63A乃至63Dは、対応する構成ユニット内のアクチュエータA1乃至A14と、それぞれ接続されており、メイン制御部61から供給された各種制御コマンドに基づいて、構成ユニット内のアクチュエータA1乃至A14を、指定された状態に駆動させるように制御する。
図5は、ロボット1の内部構成を示すブロック図である。
頭部ユニット12には、このロボット1の「目」として機能する左右一対のCCD(Charge Coupled Device )カメラ81(81Lおよび81R。図6に図示)、「耳」として機能するマイクロホン82、頭部センサ51などからなる外部センサ部71、および、「口」として機能するスピーカ72となどがそれぞれ所定位置に配設され、制御ユニット52内には、バッテリセンサ131および加速度センサ132などからなる内部センサ部104が配設されている。また、脚部ユニット14A、および脚部ユニット14Bの足部45の足底面には、このロボット1の「体性感覚」の1つとして機能する足底センサ91が配設されている。
そして、外部センサ部71のCCDカメラ81Lおよび81Rは、周囲の状況を撮像し、得られた画像信号を、A/D変換部102を介して、メイン制御部61に送出する。マイクロホン82は、ユーザから音声入力として与えられる「歩け」、「とまれ」または「右手を挙げろ」等の各種命令音声を集音し、得られた音声信号を、A/D変換部102を介して、メイン制御部61に送出する。
また、頭部センサ51は、例えば、図1および図2に示されるように頭部ユニット12の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、検出結果としての圧力検出信号を、A/D変換部102を介して、メイン制御部61に送出する。
足底センサ91は、足部45の足底面に配設されており、足部45が床に接地している場合、接地信号を、A/D変換部102を介して、メイン制御部61に送出する。メイン制御部61は、接地信号に基づいて、足部45が床に接地しているか否かを判定する。足底センサ91は、脚部ユニット14A、および脚部ユニット14Bの両方の足部45に配設されているため、メイン制御部61は、接地信号に基づいて、ロボット1の両足が床に接地しているか、片足が床に接地しているか、両足とも床に接地していないかを判定することができる。
制御ユニット52は、メイン制御部61、D/A変換部101、A/D変換部102、バッテリ103、内部センサ部104、通信部105、および外部メモリ106等により構成される。
D/A(Digital/Analog)変換部101は、メイン制御部61から供給されるデジタル信号をD/A変換することによりアナログ信号とし、スピーカ72に供給する。A/D(Analog/Digital)変換部102は、CCDカメラ81、マイクロフォン82、頭部センサ51、および足底センサ91が出力するアナログ信号をA/D変換することによりデジタル信号とし、メイン制御部61に供給する。
内部センサ部104のバッテリセンサ131は、バッテリ103のエネルギ残量を所定の周期で検出し、検出結果をバッテリ残量検出信号として、メイン制御部61に送出する。加速度センサ132は、ロボット1の移動について、3軸方向(x軸、y軸、およびz軸)の加速度を、所定の周期で検出し、検出結果を、加速度検出信号として、メイン制御部61に送出する。
メイン制御部61は、メイン制御部61全体の動作を制御するCPU111と、CPU111が各部を制御するために実行するOS(Operating System)121、アプリケーションプログラム122、その他の必要なデータ等が記憶されている内部メモリ112等を内蔵している。
メイン制御部61は、外部センサ部71のCCDカメラ81Lおよび81R、マイクロホン82並びに頭部センサ51からそれぞれ供給される、画像信号、音声信号および圧力検出信号、並びに足底センサ91から供給される接地信号(以下、これらをまとめて外部センサ信号S1と称する)と、内部センサ部104のバッテリセンサ131および加速度センサ132等からそれぞれ供給される、バッテリ残量検出信号および加速度検出信号(以下、これらをまとめて内部センサ信号S2と称する)に基づいて、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無などを判断する。
そして、メイン制御部61は、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無の判断結果と、内部メモリ112に予め格納されている制御プログラム、あるいは、そのとき装填されている外部メモリ106に格納されている各種制御パラメータなどに基づいて、ロボット1の行動を決定し、決定結果に基づく制御コマンドCOMを生成して、対応するサブ制御部63A乃至63Dに送出する。サブ制御部63A乃至63Dは、供給された制御コマンドCOMに基づいて、アクチュエータA1乃至A14のうち、対応するものの駆動を制御するので、ロボット1は、例えば、頭部ユニット12を上下左右に揺動させたり、腕部ユニット13A、あるいは、腕部ユニット13Bを上に挙げたり、脚部ユニット14Aおよび脚部ユニット14Bを交互に駆動させて、歩行するなどの機械的動作を行うことが可能となる。
また、メイン制御部61は、必要に応じて、所定の音声信号をスピーカ72に与えることにより、音声信号に基づく音声を外部に出力させる。更に、メイン制御部61は、外見上の「目」として機能する、頭部ユニット12の所定位置に設けられた、図示しないLED(Light Emitting Diode)に対して駆動信号を出力することにより、LEDを点灯、消灯、または点滅させる。
このようにして、ロボット1は、周囲および内部の状況や、ユーザからの指令および働きかけの有無などに基づいて、自律的に行動することができるようになされている。
通信部105は、外部と無線または有線で通信するときの通信制御を行う。これにより、OS121やアプリケーションプログラム122がバージョンアップされたときに、通信部105を介して、そのバージョンアップされたOSやアプリケーションプログラムをダウンロードして、内部メモリ112に記憶させたり、また、所定のコマンドを、通信部105で受信し、CPU111に与えることができるようになっている。
外部メモリ106は、例えば、EEPROM(Electrically Erasable Programmable Read-only Memory)等で構成され、胴体部ユニット11に設けられた図示せぬスロットに対して、着脱可能になっている。外部メモリ106には、例えば、後述するような感情モデル等が記憶される。
次に、図6は、図5のメイン制御部61の機能的構成例を示している。なお、図6に示す機能的構成は、メイン制御部61が、内部メモリ112に記憶されたOS121およびアプリケーションプログラム122を実行することで実現されるようになっている。また、図6では、D/A変換部101およびA/D変換部102の図示を省略してある。
メイン制御部61のセンサ入力処理部201は、頭部センサ51、足底センサ91、加速度センサ132、マイクロフォン82、並びにCCDカメラ81Lおよび81Rからそれぞれ与えられる圧力検出信号、接地信号、加速度検出信号、音声信号、画像信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示、ユーザまでの距離等を認識し、その認識結果を表す状態認識情報を、モデル記憶部202および行動決定機構部203に通知する。
すなわち、センサ入力処理部201は、圧力処理部221、加速度処理部222、音声認識部223、および画像認識部224を有している。
圧力処理部221は、頭部センサ51から与えられる圧力検出信号を処理する。そして、圧力処理部221は、例えば、その処理の結果、所定の閾値以上で、かつ短時間の圧力を検出したときには、「叩かれた(しかられた)」と認識し、所定の閾値未満で、かつ長時間の圧力を検出しなときには、「なでれらた(ほめられた)」と認識して、その認識結果を、状態認識情報として、モデル記憶部202および行動決定機構部203に通知する。
また、圧力処理部221は、足底センサ91から与えられる接地信号を処理する。そして、圧力処理部221は、例えば、その処理の結果、脚部ユニット14Aの足部45に配設された足底センサ91から接地信号が与えられている場合、脚部ユニット14Aの足部45が床(地面)に接地していると認識し、足底センサ91から接地信号が与えられていない場合、脚部ユニット14Aの足部45が床(地面)に接地していないと認識する。脚部ユニット14Bについても、同様にして、足底センサ91からの接地信号に基づいて、脚部ユニット14Bの足部45が床(地面)に接地しているか否かを認識する。そして、圧力処理部221は、その認識結果を、状態認識情報として、モデル記憶部202および行動決定機構部203に通知する。
加速度処理部222は、加速度センサ132から与えられる加速度検出信号に基づいて、胴体部ユニット11の加速度の方向および大きさを、状態認識情報として、モデル記憶部202および行動決定機構部203に通知する。
音声認識部223は、マイクロフォン82から与えられる音声信号を対象とした音声認識を行う。そして、音声認識部223は、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の単語列を、状態認識情報として、モデル記憶部202および行動決定機構部203に通知する。
画像認識部224は、CCDカメラ81Lおよび81Rから与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部224は、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」等の画像認識結果を、状態認識情報として、モデル記憶部202および行動制御部203に通知する。また、画像認識部224は、CCDカメラ81Lおよび81Rから与えられる画像信号を用いて、人の顔を認識して、周囲にいるユーザが誰なのかを特定し、その認識結果を、状態認識情報として、モデル記憶部202および行動制御部203に通知する。また、画像認識部224は、CCDカメラ81Lおよび81Rから与えられる画像信号を用いて、周囲に存在する対象物(例えばユーザ)までの距離を計算し、計算結果を、状態識別情報として、モデル記憶部202および行動制御部203に通知する。
モデル記憶部202は、ロボット1の感情、本能、成長の状態を表現する感情モデル、本能モデル、成長モデルをそれぞれ記憶し、管理している。
ここで、感情モデルは、例えば、「うれしさ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状態(度合い)を、所定の範囲(例えば、−1.0乃至1.0等)の値によってそれぞれ表し、センサ入力処理部201からの状態認識情報や時間経過等に基づいて、その値を変化させる。
本能モデルは、例えば、「食欲」、「睡眠欲」、「運動欲」等の本能による欲求の状態(度合い)を、所定の範囲の値によってそれぞれ表し、センサ入力処理部201からの状態認識情報や時間経過等に基づいて、その値を変化させる。
成長モデルは、例えば、「幼年期」、「青年期」、「熟年期」、「老年期」等の成長の状態(度合い)を、所定の範囲の値によってそれぞれ表し、センサ入力処理部201からの状態認識情報や時間経過等に基づいて、その値を変化させる。
モデル記憶部202は、上述のようにして感情モデル、本能モデル、成長モデルの値で表される感情、本能、成長の状態を、状態情報として、行動決定機構部203に送出する。
なお、モデル記憶部202には、センサ入力処理部201から状態認識情報が供給される他に、行動決定機構部203から、ロボット1の現在または過去の行動、具体的には、例えば、「長時間歩いた」などの行動の内容を示す行動情報が供給されるようになっており、モデル記憶部202は、同一の状態認識情報が与えられても、行動情報が示すロボット1の行動に応じて、異なる状態情報を生成するようになっている。
例えば、ロボット1が、ユーザに挨拶をし、ユーザに頭を撫でられた場合には、ユーザに挨拶をしたという行動情報と、頭を撫でられたという状態認識情報とが、モデル記憶部202に与えられ、この場合、モデル記憶部202では、「うれしさ」を表す感情モデルの値が増加される。
行動決定機構部203は、センサ入力処理部201からの状態認識情報や、モデル記憶部202からの状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部204に出力する。
すなわち、行動決定機構部203は、ロボット1がとり得る行動をステート(状態)(state)に対応させた有限オートマトンを、ロボット1の行動を規定する行動モデルとして管理している。そして、行動決定機構部203は、この行動モデルとしての有限オートマトンにおけるステートを、センサ入力処理部201からの状態認識情報(例えば、ユーザまでの距離)や、モデル記憶部202における感情モデル、本能モデル、または成長モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
ここで、行動決定機構部203は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。すなわち、行動決定機構部203は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、モデル記憶部202から供給される状態情報が示す感情や、本能、成長の状態の値が所定の閾値以下または以上になったとき等に、ステートを遷移させる。
なお、行動決定機構部203は、上述したように、センサ入力処理部201からの状態認識情報だけでなく、モデル記憶部202における感情モデルや、本能モデル、成長モデルの値等にも基づいて、行動モデルにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや、本能モデル、成長モデルの値(状態情報)によっては、ステートの遷移先は異なるものとなる。
また、行動決定機構部203はアプリケーション管理部231を含んでおり、アプリケーション管理部231は、ロボット1からユーザまでの距離に応じて、ロボット1の行動を制御するアプリケーションプログラムを、近距離用または遠距離用に切り替える。従って、ロボット1からユーザまでの距離に応じて、ステートの遷移先は異なるものとなる。アプリケーション管理部231は、ロボット1からユーザまでの距離に基づいて、遷移先のステートに対応する行動のパラメータとしての、例えば、歩行の速度や、手足を動かす際の動きの大きさおよび速度などを決定させることができ、この場合、それらのパラメータを含む行動指令情報が、姿勢遷移機構部204に送出される。
姿勢遷移機構部204は、行動決定機構部203から供給される行動指令情報に基づいて、ロボット1の姿勢を、現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部205に送出する。
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体部ユニット11、頭部ユニット12、腕部ユニット13Aおよび13B、並びに脚部ユニット14Aおよび14Bの形状、重さ、各部の結合状態のようなロボット1の物理的形状と、関節が曲がる方向や角度のようなアクチュエータの機構とによって決定される。
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、ロボット1は、手足を大きく投げ出して仰向けに寝転んでいる状態から、うつ伏せ状態へ直接遷移することはできるが、仰向けの状態から、起立状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せてしゃがみこんだ姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。
このため、姿勢遷移機構部204は、直接遷移可能な姿勢をあらかじめ登録しておき、行動決定機構部203から供給される行動指令情報が、直接遷移可能な姿勢を示す場合には、その行動指令情報を制御機構部205に送出する。
一方、行動指令情報が、直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部204は、遷移可能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し、制御機構部205に送出する。これによりロボット1が、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
制御機構部205は、姿勢遷移機構部204からの姿勢遷移情報にしたがって、アクチュエータA1乃至A14を駆動するための制御信号を生成し、これを、サブ制御部63A乃至63Dに送出する。サブ制御部63A乃至63Dは、この制御信号に基づいて、適宜のアクチュエータを駆動し、ロボット1に種々の動作を実行させる。
音声合成部206は、行動決定機構部203から、ロボット1に発話を指令する発話指令情報を受信し、その発話指令情報に従って、例えば、規則音声合成を行い、生成した合成音をスピーカ72に供給して出力させる。
図7は、センサ入力処理部201の画像認識部224の機能を示す機能ブロック図である。
図5のCCDカメラ81Lおよび81Rから画像認識部224に入力される画像データは、距離計算部301および人物検出部302に供給される。
距離計算部301には、CCDカメラ81Lおよび81Rが出力する画像データが供給されるようになっている。距離計算部301は、CCDカメラ81Lおよび81Rからの画像データを用いてステレオ処理(ステレオマッチング法による処理)を行うことにより、CCDカメラ81Lおよび81Rによって撮像された画像に表示されたユーザ等からロボット1までの距離を求め、求められた距離情報を行動決定機構部203に供給する。
ここで、距離計算部301で行われるステレオ処理は、2つ以上の方向(異なる視線方向)からカメラで同一対象物を撮影して得られる複数の画像間の画素同士を対応付けることで、対応する画素間の視差情報や、カメラから対象物までの距離を求めるものである。
即ち、いま、CCDカメラ81Lと81Rを、それぞれ基準カメラ81Lと検出カメラ81Rというとともに、それぞれが出力する画像を、基準カメラ画像と検出カメラ画像というものとして、例えば、図8に示すように、基準カメラ81Lおよび検出カメラ81Rで、撮像対象物としてのユーザを撮影すると、基準カメラ81Lからはユーザの投影像を含む基準カメラ画像が得られ、検出カメラ81Rからもユーザの投影像を含む検出カメラ画像が得られる。そして、いま、例えば、ユーザの口部上のある点Pが、基準カメラ画像および検出カメラ画像の両方に表示されているとすると、その点Pが表示されている基準カメラ画像上の位置と、検出カメラ画像上の位置、つまり対応点(対応画素)とから、視差情報を求めることができ、さらに、三角測量の原理を用いて、点Pの3次元空間における位置(3次元位置)を求めることができる。
従って、ステレオ処理では、まず、対応点を検出することが必要となるが、その検出方法としては、例えば、エピポーラライン(Epipolar Line)を用いたエリアベースマッチング法などがある。
即ち、図9に示すように、基準カメラ81Lにおいては、ユーザ上の点Pは、その点Pと基準カメラ81Lの光学中心(レンズ中心)O1とを結ぶ直線L上の、基準カメラ1の撮像面S1との交点naに投影される。
また、検出カメラ81Rにおいては、ユーザ上の点Pは、その点Pと検出カメラ81Rの光学中心(レンズ中心)O2とを結ぶ直線上の、検出カメラ81Rの撮像面S2との交点nbに投影される。
この場合、直線Lは、光学中心O1およびO2、並びに点na(または点P)の3点を通る平面と、検出カメラ画像が形成される撮像面S2との交線L2として、撮像面S2上に投影される。点Pは、直線L上の点であり、従って、撮像面S2において、点Pを投影した点nbは、直線Lを投影した直線L2上に存在し、この直線L2はエピポーララインと呼ばれる。即ち、点naの対応点nbが存在する可能性のあるのは、エピポーララインL2上であり、従って、対応点nbの探索は、エピポーララインL2上を対象に行えば良い。
ここで、エピポーララインは、例えば、撮像面S1に形成される基準カメラ画像を構成する画素ごとに考えることができるが、基準カメラ81Lと検出カメラ81Rの位置関係が既知であれば、その画素ごとに存在するエピポーララインは、例えば計算によって求めることができる。
エピポーララインL2上の点からの対応点nbの検出は、例えば、次のようなエリアベースマッチングによって行うことができる。
即ち、エリアベースマッチングでは、図10Aに示すように、基準カメラ画像上の点naを中心(例えば、対角線の交点)とする、例えば長方形状の小ブロック(以下、適宜、基準ブロックという)が、基準カメラ画像から抜き出されるとともに、図10Bに示すように、検出カメラ画像に投影されたエピポーララインL2上の、ある点を中心とする、基準ブロックと同一の大きさの小ブロック(以下、適宜、検出ブロックという)が、検出カメラ画像から抜き出される。
ここで、図10Bの実施の形態においては、エピポーララインL2上に、検出ブロックの中心とする点として、点nb1乃至nb6の6点が設けられている。この6点nb1乃至nb6は、図9に示した3次元空間における直線Lを、所定の一定距離ごとに区分する点、即ち、基準カメラ81Lからの距離が、例えば、1m,2m,3m,4m,5m,6mの点それぞれを、検出カメラ81Rの撮像面S2に投影した点で、従って、基準カメラ81Lからの距離が1m,2m,3m,4m,5m,6mの点にそれぞれ対応している。
エリアベースマッチングでは、検出カメラ画像から、エピポーララインL2上に設けられている点nb1乃至nb6それぞれを中心とする検出ブロックが抜き出され、各検出ブロックと、基準ブロックとの相関が、所定の評価関数を用いて演算される。そして、点naを中心とする基準ブロックとの相関が最も高い検出ブロックの中心の点nbが、点naの対応点として求められる。
即ち、例えば、いま、評価関数として、相関が高いほど小さな値をとる関数を用いた場合に、エピポーララインL2上の点nb1乃至nb6それぞれについて、例えば、図11に示すような評価値(評価関数の値)が得られたとする。この場合、評価値が最も小さい(相関が最も高い)点nb3が、点naの対応点として検出される。なお、図11において、点nb1乃至nb6それぞれについて求められた評価値(図11において●印で示す)のうちの最小値付近のものを用いて補間を行い、評価値がより小さくなる点(図11において×印で示す)を求めて、その点を、最終的な対応点として検出することも可能である。
図10の実施の形態では、上述したように、3次元空間における直線Lを所定の等距離ごとに区分する点を、検出カメラ81Rの撮像面S2に投影した点が設定されているが、この設定は、例えば、基準カメラ81Lおよび検出カメラ81Rのキャリブレーション時に行うことができる。そして、このような設定を、基準カメラ81Lの撮像面S1を構成する画素ごとに存在するエピポーララインごとに行い、図12Aに示すように、エピポーラライン上に設定された点(以下、適宜、設定点という)と、基準カメラ81Lからの距離とを対応付ける設定点/距離テーブルをあらかじめ作成しておけば、対応点となる設定点を検出し、設定点/距離テーブルを参照することで、即座に、基準カメラ81Lからの距離(ユーザまでの距離)を求めることができる。即ち、いわば、対応点から、直接、距離を求めることができる。
一方、基準カメラ画像上の点naについて、検出カメラ画像上の対応点nbを検出すれば、その2点naおよびnbの間の視差(視差情報)を求めることができる。さらに、基準カメラ81Lと検出カメラ81Rの位置関係が既知であれば、2点naおよびnbの間の視差から、三角測量の原理によって、ユーザまでの距離を求めることができる。視差から距離の算出は、所定の演算を行うことによって行うことができるが、あらかじめその演算を行っておき、図12Bに示すように、視差ζと距離との対応付ける視差/距離テーブルをあらかじめ作成しておけば、対応点を検出し、視差を求め、視差/距離テーブルを参照することで、やはり、即座に、基準カメラ81Lからの距離を求めることができる。
ここで、視差と、ユーザまでの距離とは一対一に対応するものであり、従って、視差を求めることとと、ユーザまでの距離を求めることとは、いわば等価である。
また、対応点の検出に、基準ブロックおよび検出ブロックといった複数画素でなるブロックを用いるのは、ノイズの影響を軽減し、基準カメラ画像上の画素(点)naの周囲の画素のパターンの特徴と、検出カメラ画像上の対応点(画素)nbの周囲の画素のパターンの特徴との相関性を明確化して判断することにより、対応点の検出の確実を期すためであり、特に、変化の少ない基準カメラ画像および検出カメラ画像に対しては、画像の相関性により、ブロックの大きさが大きければ大きいほど対応点の検出の確実性が増す。
なお、エリアベースマッチングにおいて、基準ブロックと検出ブロックとの相関性を評価する評価関数としては、基準ブロックを構成する画素と、それぞれの画素に対応する、検出ブロックを構成する画素の画素値の差分の絶対値の総和や、その差分の自乗和、正規化された相互相関(normalized cross correlation)などを用いることができる。
以上、ステレオ処理について簡単に説明したが、ステレオ処理(ステレオマッチング法)については、その他、例えば、安居院、長尾、「C言語による画像処理入門」、昭晃堂 pp.127ページなどにも記載されている。
なお、本実施の形態においては、上記のステレオ処理により、ロボット1からユーザまでの距離を測定しているが、ステレオ処理以外の方法により、ロボット1からユーザまでの距離を測定するようにしても良い。例えば、CCDカメラ81Lまたは81Rのフォーカス状態に基づいて、ロボット1からユーザまでの距離を測定するようにしても良い。また、例えば、ロボット1に、ロボット1からユーザまでの距離を測定するための赤外線センサなどを備えるようにしてもよい。また、例えば、ロボット1に、予めユーザの顔の大きさを登録しておき、CCDカメラ81Lまたは81Rにより撮像された画像データからユーザの顔を抽出し、その画像データ中の顔の大きさに基づいて、ロボット1からユーザまでの距離を算出しても良い。勿論、上記した以外の距離測定手段により、ロボット1からユーザまでの距離を測定するようにしても良い。
図7に戻って、人物検出部302は、CCDカメラ81Lまたは81Rから供給された画像データに基づいて、CCDカメラ81Lまたは81Rにより撮像された像の中で人物を検出し、人物認識部303に通知する。人物認識部303は、人物検出部302からの通知に基づいて、顔面認識処理を実行し、CCDカメラ81Lまたは81Rから供給された画像データに写っている人物の個人を特定する。そして、人物認識部303は、認識結果を、状態認識情報として、行動決定機構部203に通知する。
次に、図13は、センサ入力処理部201の音声認識部223の機能を示す機能ブロック図である。
図5のマイクロフォン82およびA/D変換部102を介して、音声認識部223に入力される音声データは、音声区間検出部351および特徴抽出部352に供給される。
音声区間検出部351は、A/D変換部102の出力に基づいて、音声区間を検出し、その検出結果を表すメッセージを、特徴抽出部352に供給する。ここで、音声区間を検出する方法としては、例えば、所定のフレームごとに、A/D変換部102の出力のパワーを計算し、そのパワーが所定の閾値以上であるかどうかを判定する方法がある。
特徴抽出部352は、音声区間検出部351からのメッセージに基づいて、A/D変換部102からの音声データのうち、音声区間検出部351により音声区間として検出された音声データについて、適当なフレームごとに音響分析処理を施し、これにより、例えば、MFCC(Mel Frequency Cepstrum Coefficient)等の特徴量としての特徴ベクトルを抽出する。なお、特徴抽出部352では、その他、例えば、スペクトルや、線形予測係数、ケプストラム係数、線スペクトル対等の特徴ベクトル(特徴パラメータ)を抽出することが可能である。
特徴抽出部352においてフレームごとに得られる特徴ベクトルは、特徴ベクトルバッファ353に順次供給されて記憶される。従って、特徴ベクトルバッファ353では、フレームごとの特徴ベクトルが時系列に記憶されていく。
なお、特徴ベクトルバッファ353は、例えば、ある発話の開始から終了まで(音声区間)に得られる時系列の特徴ベクトルを記憶する。
マッチング部354は、特徴ベクトルバッファ353に記憶された特徴ベクトルを用いて、セレクタ357を介して、近距離用タスク355の音響モデルデータベース371、辞書データベース372、および文法データベース373、または遠距離用タスク356の音響モデルデータベース381、辞書データベース382、および文法データベース383を必要に応じて参照しながら、マイクロフォン82に入力された音声(入力音声)を、例えば、連続分布HMM法等に基づいて音声認識する。
即ち、音声認識部223は、ユーザがロボット1の近くにいる場合に利用する近距離用タスク355、およびユーザがロボット1の遠くにいる場合に利用する遠距離用タスク356を含んでいる。近距離用タスク355は、音響モデルデータベース371、辞書データベース372、および文法データベース373を含み、遠距離用タスク356は、音響モデルデータベース381、辞書データベース382、および文法データベース383を含んでいる。
音響モデルデータベース371および381は、それぞれ音声認識する音声の言語における個々の音素や音節などの所定の単位(PLU(Phonetic-Linguistic-Units))ごとの音響的な特徴を表す音響モデルのセットを記憶している。ここでは、連続分布HMM法に基づいて音声認識を行うので、音響モデルとしては、例えば、ガウス分布等の確率密度関数を用いたHMM(Hidden Markov Model)が用いられる。
なお、ロボット1がユーザから離れた位置にある場合、マイクロフォン82により集音される音声には、周辺の雑音が多く含まれていることが考えられるため、遠距離用タスク356の音響モデルデータベース381は、雑音を含んだ環境で学習された音響モデルを含んでいる。一方、ロボット1がユーザの近くに位置する場合、マイクロフォン82により集音される音声に含まれる雑音は、ロボット1がユーザから離れた位置にある場合と比べて、少ないと考えられるため、近距離用タスク355の音響モデルデータベース371は、雑音の無い環境で学習された音響モデルを含んでいる。
辞書データベース372および382は、それぞれ認識対象の各単語(語彙)について、その発音に関する情報(音韻情報)が記述された単語辞書を記憶している。
文法データベース373および383は、それぞれ辞書データベース372および382の単語辞書に登録されている各単語が、どのように連鎖する(つながる)かを記述した文法規則(言語モデル)を記憶している。
なお、ロボット1がユーザから離れた位置にある場合、ユーザからの発話は比較的小語彙で単純であることが考えられるため、遠距離用タスク356に含まれている文法データベース383には、文脈自由文法(CFG)などの、短い文法のみを受け付けるような文法規則を利用する。一方、ロボット1がユーザの近くに位置する場合、ユーザからの発話は比較的大語彙で複雑であることが考えられるため、近距離用タスク355に含まれている文法データベース373には、統計的な単語連鎖確率(N-gram)などの、大語彙で複雑な対話に対応できる文法規則を利用する。
マッチング部354は、セレクタ357により選択された近距離用タスク355または遠距離用タスク356に含まれている辞書データベースの単語辞書を参照することにより、音響モデルデータベースに記憶されている音響モデルを接続することで、単語の音響モデル(単語モデル)を構成する。さらに、マッチング部354は、幾つかの単語モデルを、文法データベースに記憶された文法規則を参照することにより接続し、そのようにして接続された単語モデルを用いて、時系列の特徴ベクトルとのマッチングを、連続分布HMM法によって行い、マイクロフォン82に入力された音声を認識する。即ち、マッチング部354は、上述したようにして構成された各単語モデルの系列から、特徴ベクトルバッファ353に記憶された時系列の特徴ベクトルが観測される尤度を表すスコアを計算する。そして、マッチング部354は、例えば、そのスコアが最も高い単語モデルの系列を検出し、その単語モデルの系列に対応する単語列を、音声の認識結果として出力する。
なお、ここでは、HMM法により音声認識が行われるため、マッチング部354は、音響的には、接続された単語モデルに対応する単語列について、各特徴ベクトルの出現確率を累積し、その累積値をスコアとする。
即ち、マッチング部354におけるスコア計算は、音響モデルデータベース371(または381)に記憶された音響モデルによって与えられる音響的なスコア(以下、適宜、音響スコアという)と、文法データベース373(または383)に記憶された文法規則によって与えられる言語的なスコア(以下、適宜、言語スコアという)とを総合評価することで行われる。
具体的には、音響スコアは、例えば、HMM法による場合には、単語モデルを構成する音響モデルから、特徴抽出部352が出力する特徴ベクトルの系列が観測される確率(出現する確率)に基づいて、単語ごとに計算される。また、言語スコアは、例えば、バイグラムによる場合には、注目している単語と、その単語の直前の単語とが連鎖(連接)する確率に基づいて求められる。そして、各単語についての音響スコアと言語スコアとを総合評価して得られる最終的なスコア(以下、適宜、最終スコアという)に基づいて、音声認識結果が確定される。
ここで、音声認識部223は、文法データベースを設けずに構成することも可能である。但し、文法データベースに記憶された規則によれば、接続する単語モデルが制限され、その結果、マッチング部354における音響スコアの計算の対象とする単語数が限定されるので、マッチング部354の計算量を低減し、処理速度を向上させることができる。
音声認識部223は、ユーザがロボット1の近くにいる場合に利用する近距離用タスク355、およびユーザがロボット1から遠くにいる場合に利用する遠距離用タスク356を含んでおり、セレクタ357により、近距離用タスク355および遠距離用タスク356のうちいずれかが選択されて、マッチング部354によるマッチング処理に利用される。例えば、近距離用タスク355が選択された状態においては、大語彙でトライグラム文法を用いた大語彙連続音声認識の言語モデルによりマッチング処理が実行される。一方、遠距離用タスク356が選択された状態においては、小語彙のコマンドだけ受け付ける孤立単語認識の言語モデルによりマッチング処理が実行される。
選択制御部358は、行動決定機構部203のアプリケーション選択部401から、遠距離および近距離のうちいずれかを選択する選択情報が通知されると、通知された選択情報に基づいて、セレクタ357によるタスクの選択を制御する。すなわち、選択制御部358は、アプリケーション選択部401から、近距離を選択する選択情報が通知された場合、セレクタ357に、近距離用タスク355を選択させ、アプリケーション選択部401から、遠距離を選択する選択情報が通知された場合、セレクタ357に、遠距離用タスク356を選択させる。
次に、図14は、行動決定機構部203の機能を示す機能ブロック図である。
アプリケーション選択部401は、画像認識部224の距離計算部301から通知された、ロボット1からユーザまでの距離を示す距離情報に基づいて、ユーザがロボット1の近くにいるか否かを判定する。すなわち、アプリケーション選択部401は、予め距離の基準値を保持しており、距離計算部301から通知された、ロボット1からユーザまでの距離が基準値より短い距離である場合、ユーザはロボット1の近くにいると判定し、距離計算部301から通知された、ロボット1からユーザまでの距離が基準値より長い距離である場合、ユーザはロボット1の遠くにいると判定する。そして、アプリケーション選択部401は、ユーザがロボット1の近くにいると判定した場合、近距離用アプリケーション部403を起動すると共に、音量制御部404および音声認識部223の選択制御部358に、近距離用アプリケーション部402を選択したことを示す選択情報を通知する。一方、アプリケーション選択部401は、ユーザがロボット1から遠くにいると判定した場合、遠距離用アプリケーション部402を起動すると共に、音量制御部404および音声認識部223の選択制御部358に、遠距離用アプリケーション部403を選択したことを示す選択情報を通知する。
遠距離用アプリケーション部402は、ユーザがロボット1の遠くにいる場合に起動されるアプリケーションプログラムにより構成されている。図14においては、遠距離用アプリケーション部402に含まれるアプリケーションプログラムの例として、挨拶用アプリケーション部421、遠距離発話用アプリケーション部422、緊急動作用アプリケーション部423、および遠距離ジェスチャ用アプリケーション部424が記載されている。
挨拶用アプリケーション部421は、遠くにユーザを発見した場合に、ユーザに向かってお辞儀したり、手を振ったり、「こんにちは」などの音声を出力する動作を制御するプログラムである。
遠距離発話用アプリケーション部422は、遠くにいるユーザと対話するための動作(例えば「おーい」、「ここだよ」などの発話)を制御するためのプログラムである。
緊急動作用アプリケーション部423は、緊急性の高い動作(例えば、ユーザからの「止まれ」の指示に対応して、機械的動作を停止する)の実行を制御するためのプログラムである。
遠距離ジェスチャ用アプリケーション部424は、遠くにいるユーザにも動作がはっきりと分かるように、大ぶりな動作を実行させるプログラムである。遠距離ジェスチャ用アプリケーション部424は、例えば、大きな動作でお辞儀したり、ダンスを踊ったりする動作を制御する。
図示は省略するが、遠距離アプリケーション部402には、上記の他にも、遠距離用のアプリケーションプログラムが含まれている。
近距離用アプリケーション部403は、ユーザがロボット1の近くにいる場合に起動されるアプリケーションプログラムにより構成されている。図14においては、近距離用アプリケーション部403に含まれるアプリケーションプログラムの例として、名前登録用アプリケーション部431、雑談用アプリケーション部432、緊急動作用アプリケーション部433、および近距離ジェスチャ用アプリケーション部434が記載されている。
名前登録用アプリケーション部431は、ユーザの名前やロボット1の名前などを取得し、辞書データベースに登録する登録処理を制御するプログラムである。
雑談用アプリケーション部432は、ユーザと音声で雑談させる処理を制御するプログラムである。
緊急動作用アプリケーション部433は、緊急性の高い動作(例えば、ユーザからの「止まれ」の指示に対応して、機械的動作を停止する)の実行を制御するためのプログラムである。なお、緊急動作用アプリケーション部は、遠距離用アプリケーション部402にも近距離用アプリケーション部403にも設けられている。これにより、緊急性の高い動作は、ロボット1とユーザとの距離にかかわらず、実行させることが可能となる。
近距離ジェスチャ用アプリケーション部434は、近くにいるユーザに衝突しないように、ロボット1に比較的小ぶりな動作を実行させるプログラムである。近距離ジェスチャ用アプリケーション部434は、例えば、小さく会釈したり、首をかしげたりする動作を制御する。
図示は省略するが、近距離アプリケーション部403には、上記の他にも、近距離用のアプリケーションプログラムが含まれている。
また、図14においては、緊急動作用アプリケーション部のみが、遠距離用アプリケーション部402および近距離用アプリケーション部403の両方に含まれているが、緊急動作用アプリケーション部以外のプログラムを遠距離用アプリケーション部402および近距離用アプリケーション部403の両方に含ませるようにすることも、勿論可能である。例えば、ロボット1とユーザの距離に影響を受けない動作を制御するプログラムは、遠距離用アプリケーション部402および近距離用アプリケーション部403の両方に含まれる。
音量制御部404は、アプリケーション選択部401からの選択情報に基づいて、スピーカ72から出力する音声の音量をコントロールする。例えば、アプリケーション選択部401から、遠距離用アプリケーション部402を選択する選択情報が通知された場合、音量制御部404は、スピーカ72から出力させる音声を大音量になるように制御する。これにより、ロボット1の遠くにいるユーザに、ロボット1から出力した音声を十分聞こえるようにすることができる。また、アプリケーション選択部401から、近距離用アプリケーション部403を選択する選択情報が通知された場合、音量制御部404は、スピーカ72から出力させる音声を大音量になるように制御する。これにより、ロボット1の近くにいるユーザに煩さを感じさせない程度の音量で、音声を出力することができる。
次に、図15のフローチャートを参照して、ロボット1の動作を制御する動作制御処理を説明する。
A/D変換部102は、マイクロフォン82により集音された音声を順次A/D変換して、音声データを生成し、生成した音声データを音声区間検出部351および特徴抽出部352に供給している。そこで、ステップS101において、音声区間検出部351は、A/D変換部102から供給された音声データに基づいて、ユーザからの音声入力があったかどうかを判定する。即ち、音声区間検出部351は、音声区間かどうかを判定し、音声区間であると判定するまで、ステップS101の処理を繰り返して待機する。そして、音声区間検出部351が、音声区間であると判定した場合、音声区間検出部351は、音声区間である旨のメッセージを特徴抽出部352に通知する。なお、音声区間検出部351は、音声区間であると判定した場合、画像認識部224内の距離計算部301に、ロボット1からユーザまでの距離を算出するように要求する。その後、処理はステップS102に進む。
ステップS102において、距離計算部301は、音声区間検出部351からの要求に応じて、ロボット1から発話を行っているユーザまでの距離を算出し、算出結果である距離情報をアプリケーション管理部231内のアプリケーション選択部401に通知する。
ここで、ユーザは、一般に、ロボット1の正面方向から話しかけることが多いと予想されるため、ユーザまでの距離を計算するためにそのユーザを撮像するCCDカメラ81Lおよび81Rは、その撮像方向が、ロボットの正面方向になるように、頭部ユニット12(図1)設置されているものとする。
なお、この場合、ユーザが、ロボット1の正面方向からはずれた、例えば、側面や背面方向などから話しかけてきた場合には、CCDカメラ81Lおよび81Rにおいて、ユーザを撮像することができないことになる。そこで、例えば、マイクロフォン82として、CCDカメラ81Lおよび81Rの撮像方向と同一方向の指向性を有するマイクロフォンを採用し、マイクロフォン82に入力される音声レベルが最大となる方向に、頭部ユニット12を動かし、これにより、CCDカメラ81Lおよび81Rにおいて、ユーザを撮像することができるようにすることが可能である。
また、ロボット1には、複数のマイクを設け、その複数のマイクに到達する音声信号のパワー差や位相差から音源の方向を推定し、その方向に、その複数のマイクのうち、最大の音声レベルが得られるものの方向に、頭部ユニット12を動かすことによって、CCDカメラ81Lおよび81Rにおいて、ユーザを撮像することができるようにすることも可能である。なお、ロボット1に、複数のマイクを設ける場合には、例えば、最大の音声レベルが得られるマイク(ロボットがユーザの方向を向いた場合には、基本的には、正面方向に設けられているマイク)が出力する音声データが、音声認識の対象とされる。
ここで、図7の距離計算部301において、CCDカメラ81Lおよび81Rから得られる画像を用いてステレオ処理を行うことにより、ユーザまでの距離を計算するには、CCDカメラ81Lおよび81Rが出力する画像から、ユーザが表示されている画素(以下、適宜、ユーザ画素という)を検出する必要があるが、例えば、いわゆる肌色などの所定の色が表示されている画素を、ユーザ画素として検出するようにすることが可能である。あるいは、また、例えば、CCDカメラ81Lや81Rによって、ユーザの顔を、あらかじめ撮像しておき、その顔画像を標準パターンとして、画像認識を行うことにより、ユーザ画素を検出することも可能である。
ステップS103において、アプリケーション選択部401は、距離計算部301からの距離情報に基づいて、ユーザが基準値より遠い位置にいるか否かを判定し、ユーザが基準値より遠い位置にいる場合、処理はステップS104に進む。
ステップS104において、アプリケーション選択部401は、遠距離用アプリケーション部402を起動すると共に、音量制御部404および音声認識部223内の選択制御部358に対して、遠距離用アプリケーション部402を選択したことを示す選択情報を通知する。
ステップS105において、音声認識部223の選択制御部358は、アプリケーション選択部401からの選択情報に従って、セレクタ357に遠距離用タスク356を選択させる。これにより、マッチング部354は、遠距離用タスク356を参照してマッチング処理を実行することになる。
ステップS106において、音声認識部223は音声認識処理を実行する。ここで、図16のフローチャートを参照して、音声認識処理について詳細に説明する。
図16のステップS151において、特徴抽出部352は、A/D変換部102から供給された音声データについて、適当な時間間隔で音響分析処理を施し、音声の音響的特徴を表すパラメータ(特徴ベクトル)に変換し、特徴量として抽出する。なお、特徴抽出部352は、抽出した特徴ベクトルに、その特徴ベクトルの抽出元となる音声の発話時刻を付加する。抽出された特徴ベクトルは、特徴ベクトルバッファ353に順次供給され、記憶される。
ステップS152において、マッチング部354は、特徴ベクトルバッファ353に記憶された時系列の特徴ベクトルを読み出し、セレクタ357により選択されたタスクに含まれている音響モデルデータベースに記憶された音響モデル、セレクタ357により選択されたタスクに含まれている辞書データベースに記憶された、音韻情報が記述された単語辞書、およびセレクタ357により選択されたタスクに含まれている文法データベースに記憶された言語モデルを利用して、時系列の特徴ベクトルに対応する単語列を生成し、これを状態認識情報として、モデル記憶部202および行動決定機構部203に出力する。
例えば、セレクタ357により、近距離用タスク355が選択されていた場合、マッチング354は、近距離用タスク355に含まれている音響モデルデータベース371、辞書データベース372、および文法データベース373を参照して、特徴ベクトルに対応する単語列を生成する。また、例えば、セレクタ357により、遠距離用タスク356が選択されていた場合、マッチング部354は、遠距離用タスク356に含まれている音響モデルデータベース381、辞書データベース382、および文法データベース383を参照して、特徴ベクトルに対応する単語列を生成する。
以上のようにして、音声認識処理が実行される。なお、ステップS106の音声認識処理においては、ステップS104でセレクタ357により遠距離用タスク356が選択されているため、マッチング部354は、遠距離用タスク356に含まれている音響モデルデータベース381、辞書データベース382、および文法データベース383を参照して、特徴ベクトルに対応する単語列を生成する。
図15に戻って、ステップS106の音声認識処理が実行された後、ステップS107において、遠距離用アプリケーション部402に含まれる各アプリケーション部は、音声認識部223のマッチング部354から供給された状態認識情報(音声認識結果の単語列)に対応する処理を実行する。その結果、ロボット1は、例えば、挨拶用アプリケーション部421の制御により、ユーザに向かってお辞儀したり手を振ったりし、遠距離発話用アプリケーション部423の制御により、ユーザに向かって「おーい」などと呼びかけたり、遠距離ジェスチャ用アプリケーション部424の制御により、大きな動作を実行したりする。また、音声認識部223により、「止まれ」、「ストップ」などの緊急性の高い単語が認識された場合、緊急動作用アプリケーション部423の制御により、ロボット1は、動作を停止したりする。ステップS107の処理の後、処理はステップS101に戻り、上述したステップS101以降の処理が繰り返される。
ステップS103において、アプリケーション選択部401が、ユーザが基準値より遠い位置にいない(ユーザは基準値より近くの位置にいる)と判定した場合、処理はステップS108に進む。
ステップS108において、アプリケーション選択部401は、近距離用アプリケーション部403を起動すると共に、音量制御部404および音声認識部223内の選択制御部358に対して、近距離用アプリケーション部403を選択したことを示す選択情報を通知する。
ステップS109において、音声認識部223の選択制御部358は、アプリケーション選択部401からの選択情報に従って、セレクタ357に近距離用タスク355を選択させる。これにより、マッチング部354は、近距離用タスク355を参照してマッチング処理を実行することになる。
ステップS110において、音声認識部223は、ステップS108で選択された近距離用タスク355に含まれている音響モデルデータベース381、辞書データベース382、および文法データベース383を利用して、図16のフローチャートで説明した音声認識処理を実行する。音声認識部223による音声認識結果は、状態認識情報として、モデル記憶部202および行動決定機構部203に供給される。
ステップS111において、近距離用アプリケーション部403に含まれる各アプリケーション部は、音声認識部223のマッチング部354から供給された状態認識情報(音声認識結果の単語列)に対応する処理を実行する。その結果、ロボット1は、例えば名前登録用アプリケーション部431の制御により、音声認識部223から供給された文字列を、ユーザやロボット1の名前として登録する処理を実行したり、雑談用アプリケーション部433の制御により、ユーザに対して、比較的大語彙で、1発話に含まれる単語数が多い音声を音声合成部206およびスピーカ72を介して出力させたり、近距離ジェスチャ用アプリケーション部434の制御により、小さい動作でお辞儀したり、首をかしげたりする動作を実行する。また、音声認識部223により、「止まれ」、「ストップ」などの緊急性の高い単語が認識された場合、緊急動作用アプリケーション部423の制御により、ロボット1は、動作を停止したりする。ステップS111の後、処理はステップS101に戻り、上述したステップS101以降の処理が繰り返される。
次に、図17のフローチャートを参照して、ロボット1から出力する音声の音量を制御する処理、すなわち、音量制御処理について図17のフローチャートを参照して説明する。
ステップS201において、音声合成部206は、行動決定機構部203から、ロボット1に発話を指令する発話指令情報を受信したとき、その発話指令情報に従って、例えば、規則音声合成を行い、生成した合成音の音声信号をスピーカ72に供給する。
ステップS202において、音量制御部404は、アプリケーション選択部401からの選択情報に基づいて、遠距離用アプリケーション部402が選択(起動)されているか否かを判定し、遠距離用アプリケーション部402が選択(起動)されていた場合、処理はステップS203に進む。
ステップS203において、音量制御部404は、音声合成部206からスピーカ72に供給された音声信号に対応する音声を、大きい音量でスピーカ72から出力させる。
ステップS202において、音量制御部404が、遠距離用アプリケーション部402が選択(起動)されていない(近距離用アプリケーション部403が選択(起動)去れている)と判定した場合、処理はステップS204に進む。
ステップS203において、音量制御部404は、音声合成部206からスピーカ72に供給された音声信号に対応する音声を、小さい音量でスピーカ72から出力させる。
以上のようにして、音量制御処理が実行される。これにより、ロボット1から出力された音声を、ロボット1からユーザまでの距離に応じて、最適な音量にすることができる。
以上に説明したように、ロボット1においては、ロボット1とユーザ間の距離に応じて、ロボット1の行動を切り替えるようにすることにより、ロボット1により人間味のある動作をさせることができる。また、ロボットがユーザの遠くにある場合、もしロボットが小さい機械的動作しかしないと、ユーザは、ロボットの動作を明確に確認することができない。それに対して、本発明を適用したロボット1は、ユーザから遠くに位置する場合、より大きな機械的動作を行う。これにより、ロボット1がユーザから遠くに位置する場合でも、ユーザは、ロボット1の動作を明瞭に確認することができる。
一方、ロボットがユーザの近くにある場合、もしロボットが大きな機械的動作をすると、ユーザにぶつかってしまう危険性がある。それに対して、本発明を適用したロボット1は、ユーザの近くに位置する場合、より小さな機械的動作を行う。これにより、ロボット1がユーザの近くにある場合には、ロボット1がユーザにぶつかることを防止することができる。
なお、以上の説明においては、ロボット1からユーザまでの距離を、近距離と遠距離の2つに場合分けして、対応する動作を実行する場合を例にして説明したが、ロボット1からユーザまでの距離は、3つ以上に場合分けして、それぞれの距離に対応する動作をロボット1に実行させるようにしても良い。例えば、ロボット1からユーザまでの距離を、近距離、中距離、および遠距離の3つに場合分けしても良い。この場合、音声認識部223は、近距離用タスク、中距離用タスク、および遠距離用タスクを有し、アプリケーション管理部231は、近距離用アプリケーション部、中距離用アプリケーション部、および遠距離用アプリケーション部を有するようにしても良い。そして、この場合、アプリケーション選択部401は、近距離用アプリケーション部、中距離用アプリケーション部、および遠距離用アプリケーション部からいずれかを選択して起動し、音量制御部404は、近距離、中距離、および遠距離にそれぞれ対応した音量になるように、スピーカ72から出力する音声を制御し、セレクタ223は、アプリケーション選択部401の選択結果に応じて、近距離用タスク、中距離用タスク、および遠距離用タスクのうちいずれかを選択する。
また、以上の説明においては、本発明を2足歩行型ロボット(ヒューマノイド)に適用した場合を例として説明したが、本発明は、その他のロボット(例えば、4足歩行型のロボットなど)に適用することも勿論可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、上述したようにソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体等からインストールされる。
図18は、このような処理を実行するパーソナルコンピュータ900の内部構成例を示す図である。パーソナルコンピュータのCPU(Central Processing Unit)901は、ROM(Read Only Memory)902に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。入出力インタフェース905には、マウス、キーボード、マイクロフォン、AD変換器などから構成される入力部906が接続され、入力部906に入力された信号をCPU901に出力する。また、入出力インタフェース905は、ディスプレイ、スピーカ、およびDA変換器などから構成される出力部907も接続されている。
さらに、入出力インタフェース905には、ハードディスクなどから構成される記憶部908、および、インターネットなどのネットワークを介して他の装置とデータの通信を行う通信部909も接続されている。ドライブ910は、磁気ディスク921、光ディスク922、光磁気ディスク923、半導体メモリ934などの記録媒体からデータを読み出したり、データを書き込んだりするときに用いられる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図18に示すように、磁気ディスク921(フレキシブルディスクを含む)、光ディスク922(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク923(MD(Mini-Disk)を含む)、もしくは半導体メモリ924などよりなるパッケージメディア、または、プログラムが一時的もしくは永続的に格納されるROM902や、記憶部908を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明を適用したロボットの外観構成を示す斜視図である。 図1のロボットの外観構成を示す、背後側の斜視図である。 図1のロボットについて説明するための略線図である。 図1のロボットの内部構成を示すブロック図である。 図1のロボットの制御に関する部分を主に説明するためのブロック図である。 図5のメイン制御部の構成を示すブロック図である。 図6の画像認識部の構成を示すブロック図である。 基準カメラおよび検出カメラで、ユーザを撮影している状態を示す図である。 エピポーララインを説明するための図である。 基準カメラ画像および検出カメラ画像を示す図である。 評価値の推移を示す図である。 設定点/距離テーブルおよび視差/距離テーブルを示す図である。 図6の音声認識部の構成例を示すブロック図である。 図6のアプリケーション管理部の構成例を示すブロック図である。 動作制御処理を説明するフローチャートである。 音声認識処理を説明するフローチャートである。 音量制御処理を説明するフローチャートである。 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
1 ロボット, 72 スピーカ, 81L,81R CCDカメラ, 82 マイクロフォン, 201 センサ入力部, 203 行動決定機構部, 206 音声合成部, 223 音声認識部, 224 画像認識部, 231 アプリケーション管理部, 301 距離計算部, 351 音声区間検出部, 352 特徴抽出部, 353 特徴ベクトルバッファ, 354 マッチング部, 355 近距離用タスク, 356 遠距離用タスク, 357 セレクタ, 358 選択制御部, 401 アプリケーション選択部, 402 遠距離用アプリケーション部, 403 近距離用アプリケーション部, 404 音量制御部, 421 挨拶用アプリケーション部, 422 遠距離発話用アプリケーション部, 423 緊急動作用アプリケーション部, 424 遠距離ジェスチャ用アプリケーション部, 431 名前登録用アプリケーション部, 432 雑談用アプリケーション部, 433 緊急動作用アプリケーション部, 434 近距離ジェスチャ用アプリケーション部

Claims (7)

  1. ロボットの動作を制御するロボット制御装置において、
    前記ロボットからユーザまでの距離を算出する算出手段と、
    前記算出手段により算出された前記距離に基づいて、前記ロボットの機械的動作を切り替える切り替え手段と
    を備えることを特徴とするロボット制御装置。
  2. 前記切り替え手段により切り替えられた前記ロボットの前記機械的動作に応じて、異なる情報を利用して、前記ユーザの発話を音声認識する音声認識手段をさらに備える
    ことを特徴とする請求項1に記載のロボット制御装置。
  3. 前記切り替え手段は、前記算出手段により算出された前記距離に基づいて、前記ロボットから出力する音声の音量をさらに切り替える
    ことを特徴とする請求項1に記載のロボット制御装置。
  4. 前記切り替え手段は、前記算出手段により算出された前記距離が長い場合、前記距離が短い場合と比較して、前記ロボットの前記機械的動作をより大きい動作に切り替える
    ことを特徴とする請求項1に記載のロボット制御装置。
  5. ロボットの動作を制御するロボット制御方法において、
    前記ロボットからユーザまでの距離を算出する算出ステップと、
    前記算出ステップの処理により算出された前記距離に基づいて、前記ロボットの機械的動作を切り替える切り替えステップと
    を含むことを特徴とするロボット制御方法。
  6. ロボットの動作を制御するプログラムであって、
    前記ロボットからユーザまでの距離を算出する算出ステップと、
    前記算出ステップの処理により算出された前記距離に基づいて、前記ロボットの機械的動作を切り替える切り替えステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  7. ロボットの動作を制御するプログラムであって、
    前記ロボットからユーザまでの距離を算出する算出ステップと、
    前記算出ステップの処理により算出された前記距離に基づいて、前記ロボットの機械的動作を切り替える切り替えステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2004155608A 2004-05-26 2004-05-26 ロボット制御装置および方法、記録媒体、並びにプログラム Pending JP2005335001A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004155608A JP2005335001A (ja) 2004-05-26 2004-05-26 ロボット制御装置および方法、記録媒体、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004155608A JP2005335001A (ja) 2004-05-26 2004-05-26 ロボット制御装置および方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2005335001A true JP2005335001A (ja) 2005-12-08
JP2005335001A5 JP2005335001A5 (ja) 2007-08-16

Family

ID=35489100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004155608A Pending JP2005335001A (ja) 2004-05-26 2004-05-26 ロボット制御装置および方法、記録媒体、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2005335001A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JPWO2017187620A1 (ja) * 2016-04-28 2018-11-22 富士通株式会社 ロボット
JP2019055463A (ja) * 2017-09-21 2019-04-11 パナソニック株式会社 移動体
US10540972B2 (en) 2017-03-27 2020-01-21 Casio Computer Co., Ltd. Speech recognition device, speech recognition method, non-transitory recording medium, and robot
WO2020044511A1 (ja) * 2018-08-30 2020-03-05 株式会社日本ビジネスデータープロセシングセンター 汎用キャラクタベースロボット
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
CN112092017A (zh) * 2019-06-17 2020-12-18 株式会社日立大厦系统 引导机器人
CN115366084A (zh) * 2022-08-08 2022-11-22 泉州市河兴陈列用品有限公司 一种用于运动模特的仿真手臂

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2002323900A (ja) * 2001-04-24 2002-11-08 Sony Corp ロボット装置、プログラム及び記録媒体
JP2004066367A (ja) * 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2002323900A (ja) * 2001-04-24 2002-11-08 Sony Corp ロボット装置、プログラム及び記録媒体
JP2004066367A (ja) * 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JPWO2017187620A1 (ja) * 2016-04-28 2018-11-22 富士通株式会社 ロボット
US11331808B2 (en) 2016-04-28 2022-05-17 Fujitsu Limited Robot
US10540972B2 (en) 2017-03-27 2020-01-21 Casio Computer Co., Ltd. Speech recognition device, speech recognition method, non-transitory recording medium, and robot
JP2019055463A (ja) * 2017-09-21 2019-04-11 パナソニック株式会社 移動体
WO2020044511A1 (ja) * 2018-08-30 2020-03-05 株式会社日本ビジネスデータープロセシングセンター 汎用キャラクタベースロボット
JP2020055066A (ja) * 2018-10-02 2020-04-09 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP7275518B2 (ja) 2018-10-02 2023-05-18 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
CN112092017A (zh) * 2019-06-17 2020-12-18 株式会社日立大厦系统 引导机器人
JP2020203339A (ja) * 2019-06-17 2020-12-24 株式会社日立ビルシステム 案内ロボット
JP7174673B2 (ja) 2019-06-17 2022-11-17 株式会社日立ビルシステム 案内ロボット
CN115366084A (zh) * 2022-08-08 2022-11-22 泉州市河兴陈列用品有限公司 一种用于运动模特的仿真手臂

Similar Documents

Publication Publication Date Title
US6509707B2 (en) Information processing device, information processing method and storage medium
US7031917B2 (en) Speech recognition apparatus using distance based acoustic models
US7885727B2 (en) Robot apparatus, information processing method and program
JP5366048B2 (ja) 情報提供システム
JP4131392B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
CN113056315B (zh) 信息处理装置、信息处理方法和程序
JP2005335001A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
WO2019181144A1 (ja) 情報処理装置及び情報処理方法、並びにロボット装置
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体
JP2004304714A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2007241304A (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
WO2020004213A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004170756A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4742415B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004258289A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2004258290A (ja) 音声処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110127