JP4373903B2 - 自律移動ロボット - Google Patents

自律移動ロボット Download PDF

Info

Publication number
JP4373903B2
JP4373903B2 JP2004361530A JP2004361530A JP4373903B2 JP 4373903 B2 JP4373903 B2 JP 4373903B2 JP 2004361530 A JP2004361530 A JP 2004361530A JP 2004361530 A JP2004361530 A JP 2004361530A JP 4373903 B2 JP4373903 B2 JP 4373903B2
Authority
JP
Japan
Prior art keywords
unit
voice
robot
voice input
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004361530A
Other languages
English (en)
Other versions
JP2006167838A (ja
Inventor
直秀 小川
拓郎 小柳
あす香 椎名
さち恵 橋本
由希子 江原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004361530A priority Critical patent/JP4373903B2/ja
Priority to US11/294,366 priority patent/US7894941B2/en
Publication of JP2006167838A publication Critical patent/JP2006167838A/ja
Application granted granted Critical
Publication of JP4373903B2 publication Critical patent/JP4373903B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

本発明は、自律移動ロボットに関し、特に耳部を有する頭部が胴体部に連結されている自律移動ロボットに関する。
近年、自律移動ロボットに人間とのコミュニケーションを行えるように、例えば、外見上の目として機能する部分に配置した複数のLEDを人間の働きかけ等に対して所定の発光パターンで点滅させて感情を表現したり、さらに、人間からの話しかけに対しても所定の動作を行わせることができるように構成されたものが提案されている(例えば、特許文献1参照)。
特開2002−120181号公報(図1、図3)
ところで、前記特許文献1のようなロボット装置(ペットロボット)では、「耳」として機能するマイクロホンで人間からの音声を入力して、その入力音声情報に基づいて予め設定されている動作を行うように構成されているが、このロボット装置の電源OFF状態から電源ONして起動した初期時には、ロボット装置に話しかけて、このロボット装置が所定の動作を行うまでは、人間はロボット装置の「耳」として機能するマイクロホンを含む音声入力手段が正常に機能しているか否かを判断することができなかった。
そこで、本発明は、電源OFF状態から電源ONして起動した初期時における音声入力手段の初期状態チェックを容易に行うことができる自律移動ロボットを提供することを目的とする。
前記目的を達成するために請求項1に記載の発明は、胴体部に連結された駆動自在な頭部の両側に、外見上の耳として機能する音声入力手段を備え、前記胴体部の下部に連結された脚部の駆動により自律移動自在な自律移動ロボットであって、前記各音声入力手段は、外部から音声を入力する音声入力部と、前記音声入力部の外側に半円弧状に配置され、複数の発光部が一体的に連結されて構成された表示手段と、を備え、さらに、制御手段を有し、御手段を有し、前記制御手段は、前記頭部に設けられたCCDカメラから入力される画像情報に基づいて、画像処理を行い、その撮影範囲内にある物体の形状認識および距離と位置を算出する画像情報処理部と、前記音声入力部から入力される音声情報に基づいて、音源からの音声入力の有無、音源定位の特定、音声入力レベルの各状況を得るための演算を行う音声情報処理部と、前記画像情報処理部で処理された画像情報に基づいて、人間がいるかを判断すると共に、前記音声情報処理部で処理された音声情報に基づいて、音声入力の有無、音源定位の特定、音声入力レベルの大きさを判断する状況判断部と、この状況判断部で得られた判断状況に基づいて、予め記憶している動作シナリオの中から前記判断状況に応じた動作シナリオを選択する動作シナリオ作成部と、前記動作シナリオ作成部で選択された動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作を選択するロボット動作選択部と、前記動作シナリオ作成部で選択された動作シナリオに基づいて、前記発光部の点灯、点滅、消灯の動作を選択すると共に、前記自律移動ロボットを電源ONして起動したときに前記各音声入力手段が正常であるか否かの初期状態チェックの判定を、前記各発光部の点灯状態で行うLED動作選択部と、前記ロボット動作選択部で選択したロボット動作に基づいて、頭部、腕部、脚部を駆動制御するロボット動作制御部と、を備え、前記状況判断部により音源定位となる人間が当該自律移動ロボットの左45度よりも大きな角度方向にいると判断したときには、左側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させ、前記状況判断部により音源定位となる人間が当該自律移動ロボットの左右に45度の範囲内にいると判断したときには、左右側の前記発光部を前記音声入力レベルに基づいて、LED動作選択部により個別に点灯させ、前記状況判断部により音源定位となる人間が当該自律移動ロボットの右45度よりも大きな角度方向にいると判断したときには、右側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させることを特徴としている。
請求項1に記載の発明によれば、自律移動ロボットを電源ONして起動したときに各音声入力手段が正常であるか否かの初期状態チェックの判定を、各発光部の点灯状態で行うことができる。また、音声の方向および音声入力レベルに対応して発光部が点灯することができる。
また、請求項2に記載の発明は、前記音声入力レベルに対応して予め複数の発話情報が記憶されている発話関係選択手段をさらに備え、前記シナリオ作成部は、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカから、前記発話関係選択手段から選択した発話を音声出力することを特徴としている。
さらに、請求項3に記載の発明は、前記ロボット動作制御部が少なくとも前記頭部を駆動制御して、前記音源定位となる人間の方向を向くようにすることを特徴としている。
また、請求項4に記載の発明において、前記制御手段前記LED動作選択部が、前記初期状態チェックの判定後に、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御することを特徴としている。
請求項4に記載の発明によれば、初期状態チェックの判定後に、直ちに音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して各発光部を個別にON/OFF制御することができる。
また、請求項5に記載の発明において、前記制御手段、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて、前記ロボット動作制御部が少なくとも前記頭部を駆動制御することを特徴としている。
請求項5に記載の発明によれば、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて少なくとも頭部を駆動することができる。
請求項1に記載の発明によれば、自律移動ロボットを電源ONして起動したときに各音声入力手段が正常であるか否かの初期状態チェックの判定を、各発光部の点灯状態で行うことができるので、この初期状態チェックの判定を人間が可視的に容易に認識することができる。また、音声の方向および音声入力レベルに対応して発光部を個別に点灯することができる。
請求項2に記載の発明によれば、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカーから音声出力を行うことができるので、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
請求項3に記載の発明によれば、前記音源定位となる人間の方向を向くので、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
請求項4に記載の発明によれば、初期状態チェックの判定後に、直ちに音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して各発光部を個別にON/OFF制御することができるので、自律移動ロボットが入力した音声を認識している状況を、人間が可視的に知ることができる。
請求項5に記載の発明によれば、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて少なくとも頭部を駆動することができるので、自律移動ロボットが音声入力しているときにおける、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
以下、本発明を図示の実施形態に基づいて説明する。
図1は、本発明の実施形態に係る自律移動ロボットとしての自律移動2脚ロボット(以下、「ロボット」という)を示す正面図、図2は、本実施形態に係るロボットの頭部を示す側面図、図3は、本実施形態に係るロボットの制御装置の構成を示すブロック図である。
[ロボットの構成]
図1、図2に示すように、本実施形態に係るロボット1は、胴体部2の上部に首部3を介して頭部4を備え、胴体部2の上部両側に2本の腕部5を有するとともに、胴体部2の下部に2本の脚部6を有している。
頭部4(首部3)、腕部5、および脚部6の人間とほぼ対応する各関節部分はアクチュエータ(不図示)によりそれぞれ動作可能であり、ロボット動作制御部28(図3参照)によって頭部4(首部3)、腕部5、脚部6の各動作が制御される。
ロボット1の頭部4には、その前面部(顔部)4a内に所定間隔で左右に並べた2個のCCDカメラ7a,7bと、その下側にスピーカ8が配置されており、さらに、頭部4の両側面に音声入力手段としての耳部9a,9bが設けられている。なお、頭部4の前面部4aは、可視光透過自在な材質で形成されている。
2個のCCDカメラ7a,7bは、ロボット1の前方移動方向側を撮影するカメラであり、各CCDカメラ7a,7bで撮像した各画像情報は画像情報処理部21(図3参照)に入力される。スピーカ8は、発話関係選択部27(図3参照)に予め記憶されている所定の発話情報に基づいて所定の音声を発することができる。
耳部9a,9bは、音声入力部としてのマイクロホン10a,10bとその外側に半円弧状の表示手段としてのLED表示部11a,11bをそれぞれ備えており、マイクロホン10a,10bで検出した音声情報は音声情報処理部22(図3参照)に入力される。図2に示すように、耳部9aのLED表示部11aは、3つの発光部L1,L2,L3が下から順に分割されて一体的に構成されており、各発光部L1,L2,L3は、ロボット1の電源ONによる起動時、マイクロホン10aの音声認識の状態、および音源(人間)の方向に応じて個別に点灯(点滅)と消灯を行うことができる(詳細は後述する)なお、他方側(頭部4の右側)の耳部9bにおいても、同様に構成されている。また、発光部L1,L2,L3内にはそれぞれ複数のLED(例えば、白色LED)が設置されており、全点灯時にはLED表示部11a,11b全体が半円弧状に点灯する。
[ロボットの制御装置]
図3は、ロボット1の制御装置20を示すブロック構成図である。図3に示すように、制御装置20は、画像情報処理部21、音声情報処理部22、状況判断部23、動作シナリオ作成部24、ロボット動作選択部25、LED動作選択部26、発話関係選択部27およびロボット動作制御部28を有している。
画像情報処理部21は、各CCDカメラ7a,7bから入力される各画像情報に基づいて画像処理を行い、その撮像範囲(例えば、ロボット1が前方移動方向を向いた起立状態で、水平方向および垂直方向の視野が150度程度でロボット1の少し前方から数m先程度の範囲)内にある物体(障害物や人間など)の形状認識、およびこの物体(障害物や人間など)までの距離と位置を算出(認識)する。
音声情報処理部22は、各耳部9a,9bのマイクロホン10a,10bからそれぞれ入力される音声情報に基づいて、音源(本実施形態では、人間)からの音声入力の有無(以下、「音声認識」という)、音源(人間)の方向の特定(以下、「音源定位」という)、および音声入力のレベル(以下、「マイクレベル」という)の各状況を得るための演算処理を行う。本実施形態に係るロボット1は、頭部4の両横の各耳部9a,9bにそれぞれマイクロホン10a,10bを設けているので、音声情報処理部22は、各マイクロホン10a,10bから入力される音声情報の時間的ずれによって、音源定位を特定することができる。各マイクロホン10a,10bの良好な可聴範囲は、例えば、真横から前方側の周囲数m程度までの範囲である。
状況判断部23は、画像情報処理部21で処理された画像情報に基づいて移動方向に人間がいるか障害物があるかなどを判断し、さらに、音声情報処理部22で処理された音声情報に基づいて、音声認識の有無、音源定位の特定、マイクレベルの大きさを判断する。
動作シナリオ作成部24は、状況判断部23で得た状況判断に基づいて、例えば、前方近くに人間がいると判断し、かつ音声が入力されていると判断した場合は、ロボット1に対して人間が話しかけていると判断して、予め記憶している複数の動作シナリオの中からその状況に応じた動作シナリオを選択し(詳細は後述する)、選択した動作シナリオに基づいてロボット動作選択部25、LED動作選択部26、発話関係選択部27を制御する。
ロボット動作選択部25は、動作シナリオ作成部24で選択した動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作(例えばロボット1の頭部4(首部3)を横に傾けたりする動作)を選択する。
LED動作選択部26は、動作シナリオ作成部24で選択した動作シナリオと音声情報処理部22からの処理情報(音声認識、音源定位、マイクレベル)に基づいて、各耳部9a,9bのLED表示部11a,11b(発光部L1,L2,L3)のLED点灯(点滅)と消灯動作を選択する(詳細は後述する)。
また、LED動作選択部26は、ロボット1の電源をONして起動した直後に、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bに故障が生じていないときには、LED表示部11a,11bの発光部L1,L2,L3を一旦全て点灯させる初期状態チェック機能と、この初期状態チェック後に、マイクロホン10a,10bに入力される音声に対し、音声認識、音源定位、マイクレベルに応じて発光部L1,L2,L3を個別に点灯させる機能を有している(詳細は後述する)。なお、マイクロホン10a,10bのマイクレベルが所定の閾値以下の場合には、発光部L1,L2,L3は全て消灯する。
発話関係選択部27は、動作シナリオ作成部24で選択した動作シナリオに基づいて、予め記憶している複数の発話関係のうちから適切な発話を選択する。
ロボット動作制御部28は、ロボット動作選択部25で選択したロボット動作に基づいて、頭部4(首部3)、腕部5、脚部6を駆動制御する。
[耳部の初期状態チェックと音声認識動作]
次に、図4に示すフローチャートを参照して、ロボット1の電源ONによる起動時の耳部9a,9bの初期状態チェックと、耳部9a,9bによる音声認識動作について説明する。
ロボット1の電源(不図示)をONして起動すると、前記LED動作選択部26の初期状態チェック機能により、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常であるか否かの判定を行う(ステップS1,S2)。ステップS2の判定で正常であると判定した場合(ステップS2、YES)には、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3を一旦全て点灯させる(ステップS3)。これにより、人間に対して耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能していることを可視的に知らせることができる。
また、ステップS2で、仮に耳部9a,9bのLED表示部11a,11bまたはマイクロホン10a,10bに故障が生じていると判定した場合には、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3は消灯のままである。よって、人間に対して耳部9a,9bのLED表示部11a,11bまたはマイクロホン10a,10bの機能に故障が生じていることを可視的に知らせることができる。
そして、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能している場合には、ステップS3の状態から耳部9a,9bのマイクロホン10a,10bは、直ぐに音声入力可能状態となる(ステップS4)。そして、ステップS4で、マイクロホン10a,10bに音声入力がない場合(ステップS4、NO)、すなわち、各CCDカメラ7a,7bの撮像範囲に人間がいなくて、ロボット1に対して話しかけていないときには、マイクロホン10a,10bのマイクレベルが所定の閾値以下と判断し、LED表示部11a,11bの発光部L1,L2,L3を全て消灯状態にする(ステップS5)。
そして、ステップS4で、音声入力がある場合(ステップS4、YES)、すなわち、例えば図5に示すように、各CCDカメラ7a,7bの撮像範囲(斜線部分)Aに人間Mがいて、ロボット1に対して話しかけているときには音声認識動作に入る(ステップS6)。
このとき、ロボット1の制御装置20の状況判断部23は、図5に示す状況において、各CCDカメラ7a,7bの画像情報を処理する画像情報処理部21からの処理情報に基づいて、ロボット1の左斜め前方に人間Mがいることを検知し、さらに、マイクロホン10a,10bの音声情報を処理する音声情報処理部22に基づいて、音声認識の有無、音源定位、マイクレベルの大きさを検知する。そして、動作シナリオ作成部24は、状況判断部23による状況判断に基づいて、このときの動作シナリオ(例えば、図5に示すような、人間Mが前方左斜め方向から話しかけている状況)を作成する。
そして、ステップS6で、音源(図では人間M)から発せられる音声に対して音声認識ができた場合(ステップS6、YES)、その音声認識状況に応じて、動作シナリオ作成部24はLED動作選択部26に対して、例えば、以下のようにLED表示部11a,11bの発光部L1,L2,L3を点灯させる(ステップS47)。
すなわち、ステップS7において、例えば、図5に示すように、人間Mがロボット1の左斜め前方から話しかけている場合、動作シナリオ作成部24は、音源定位としての人間Mが左斜め前方にいると認識していることを、この人間Mに対して可視的に知らせるために、左側の耳部9aのLED表示部11aの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させる。
例えば、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が小さいと判断した場合には発光部L1のみを点灯させ、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が普通(ちょうどよい)である判断した場合には発光部L1,L2の2つを点灯させ、人間Mから左側のマイクロホン10aに入力される音声のレベル(マイクレベル)が大きいと判断した場合には発光部L1,L2,L3の3つを全て点灯させる。
ステップS7で、マイクレベルが小さく発光部L1だけを点灯させたときにおいて、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、頭部4(首部3)を斜め横に傾けるような動作を選択させ、ロボット動作制御部28の制御により頭部4(首部3)が斜め横を向くように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発話関係のうちから、例えば、「もっと大きな声でもう一度はなしてください」を選択して、スピーカ8から発話(音声出力)する。
また、ステップS7で、マイクレベルが大きく発光部L1,L2,L3の全てを点灯させたときにおいて、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、脚部6を一歩後ずさりするような動作を選択させ、ロボット動作制御部28の制御により脚部6を一歩後ずさりするように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発話関係のうちから、例えば、「もう少し小さな声で話してね」を選択して、スピーカ8から発話(音声出力)する。
また、ステップS7で、マイクレベルがちょうどよく発光部L1,L2の2つを点灯させたときにおいては、動作シナリオ作成部24はロボット動作選択部25に対して、今の姿勢を保持するようにし、また、このときには、発話関係選択部27から発音を選択することなく、スピーカ8から発話しないようにする。
また、ステップS6で、音声認識ができなく、各発光部L1,L2,L3を点滅させたとき(ステップS6、NO)において、動作シナリオ作成部24はロボット動作選択部25に対して、例えば、頭部4(首部3)を斜め横に傾けるような動作を選択させ、ロボット動作制御部28の制御により頭部4(首部3)が斜め横を向くように駆動する。また、このとき同時に、動作シナリオ作成部24は発話関係選択部27から記憶されている複数の発音関係のうちから、例えば、「もう一度言って下さい」を選択して、スピーカ8から発話(音声出力)する。
また、音源定位が、前記した図5の状況のように、ロボット1の真正面方向に対して左側に約45度もしくは45度よりも大きい角度方向にいる人間Mのときには、左側の耳部9aのLED表示部11aの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させるが、音源である人間Mがロボット1の真正面方向に対して左右に約45度程度の範囲内にいる人間Mのときには、左右側の耳部9a,9bのLED表示部11a,11bの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させ、また、人間Mがロボット1の真正面方向に対して右側に約45度もしくは45度よりも大きい角度方向にいるときには、右側の耳部9bのLED表示部11bの各発光部L1,L2,L3をマイクレベルの大きさに応じて個別に点灯させる。また、音源定位である人間Mの位置に合わせて、頭部4(首部3)を、ロボット動作制御部28の制御により人間Mがいる方向に向けるように駆動してもよい。
このように、本実施形態に係るロボット1は、耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bの初期状態をチェックするチェック機能を有しており、ロボット1の電源をONして起動したときに、消灯状態にあるLED表示部11a,11bの発光部L1,L2,L3が一旦全て点灯することにより、人間に対して耳部9a,9bのLED表示部11a,11bとマイクロホン10a,10bが正常に機能していることを可視的に容易に知らせることができる。
また、ロボット1が音源である人間Mが発した音声のマイクレベル、音声認識状態および音源定位を、各耳部9a,9bのLED表示部11a,11bの発光部L1,L2,L3の点灯(点滅)および消灯状態によって、人間に対して可視的に知らせることができる。また、このときに、例えば、頭部4(首部3)も合わせて動作させることにより、ロボット1が音声入力(音声認識)しているときにおける、人間とのコミュニケーション状況をより親しみのあるものにすることができる。
また、前記した実施形態では、耳部9a,9bのLED表示部11a,11bは3つに分割された発光部L1,L2,L3によって形成されていたが、これに限定されることなく、例えば、2つまたは4つ以上に分割された発光部で形成してもよい。
本発明の実施形態に係るロボットを示す正面図。 本実施形態に係るロボットの頭部を示す側面図。 本発明の本実施形態に係るロボットの制御装置の構成を示すブロック図。 本実施形態に係るロボットの初期状態チェックと音声認識動作を示すフローチャート。 本実施形態に係るロボットの左斜め前方に音源としての人間がいる状態を示す平面図。
符号の説明
1 ロボット(自律移動ロボット)
2 胴体部
3 首部
4 頭部
5 腕部
6 脚部
7a,7b CCDカメラ
8 スピーカ
9a,9b 耳部(音声入力手段)
10a,10b マイクロホン(音声入力部)
11a,11b LED表示部(表示手段)
20 制御装置(制御手段)
21 画像情報処理部
22 音声情報処理部
23 状況判断部
24 動作シナリオ作成部
25 ロボット動作選択部
26 LED動作選択部
27 発話関係選択部
28 ロボット動作制御部
L1,L2,L3 発光部

Claims (5)

  1. 胴体部に連結された駆動自在な頭部の両側に、外見上の耳として機能する音声入力手段を備え、前記胴体部の下部に連結された脚部の駆動により自律移動自在な自律移動ロボットであって、
    前記各音声入力手段は、外部から音声を入力する音声入力部と、前記音声入力部の外側に半円弧状に配置され、複数の発光部が一体的に連結されて構成された表示手段と、を備え、
    さらに、制御手段を有し、
    前記制御手段は、前記頭部に設けられたCCDカメラから入力される画像情報に基づいて、画像処理を行い、その撮影範囲内にある物体の形状認識および距離と位置を算出する画像情報処理部と、
    前記音声入力部から入力される音声情報に基づいて、音源からの音声入力の有無、音源定位の特定、音声入力レベルの各状況を得るための演算を行う音声情報処理部と、
    前記画像情報処理部で処理された画像情報に基づいて、人間がいるかを判断すると共に、前記音声情報処理部で処理された音声情報に基づいて、音声入力の有無、音源定位の特定、音声入力レベルの大きさを判断する状況判断部と、
    この状況判断部で得られた判断状況に基づいて、予め記憶している動作シナリオの中から前記判断状況に応じた動作シナリオを選択する動作シナリオ作成部と、
    前記動作シナリオ作成部で選択された動作シナリオに基づいて、予め記憶している複数のロボット動作のうちから適切なロボット動作を選択するロボット動作選択部と、
    前記動作シナリオ作成部で選択された動作シナリオに基づいて、前記発光部の点灯、点滅、消灯の動作を選択すると共に、前記自律移動ロボットを電源ONして起動したときに前記各音声入力手段が正常であるか否かの初期状態チェックの判定を、前記各発光部の点灯状態で行うLED動作選択部と、
    前記ロボット動作選択部で選択したロボット動作に基づいて、頭部、腕部、脚部を駆動制御するロボット動作制御部と、を備え、
    前記状況判断部により音源定位となる人間が当該自律移動ロボットの左45度よりも大きな角度方向にいると判断したときには、左側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させ、
    前記状況判断部により音源定位となる人間が当該自律移動ロボットの左右に45度の範囲内にいると判断したときには、左右側の前記発光部を前記音声入力レベルに基づいて、LED動作選択部により個別に点灯させ、
    前記状況判断部により音源定位となる人間が当該自律移動ロボットの右45度よりも大きな角度方向にいると判断したときには、右側の前記発光部を前記音声入力レベルに基づいて前記LED動作選択部により個別に点灯させることを特徴とする自律移動ロボット。
  2. 前記音声入力レベルに対応して予め複数の発話情報が記憶されている発話関係選択手段をさらに備え、
    前記シナリオ作成部は、入力された音声入力レベルに基づいて、前記発話関係選択手段から発話を選択して前記頭部に設けたスピーカから、前記発話関係選択手段から選択した発話を音声出力することを特徴とする請求項1に記載の自律移動ロボット。
  3. 前記ロボット動作制御部が少なくとも前記頭部を駆動制御して、前記音源定位となる人間の方向を向くようにすることを特徴とする請求項1に記載の自律移動ロボット。
  4. 前記制御手段は、前記LED動作選択部が、前記初期状態チェックの判定後に、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御する、
    ことを特徴とする請求項1に記載の自律移動ロボット。
  5. 前記制御手段は、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応して前記各発光部を個別にON/OFF制御するときに、前記音声入力部に入力される音声の大きさ、音声認識の有無および音声方向に対応させて、前記ロボット動作制御部が少なくとも前記頭部を駆動制御する、
    ことを特徴とする請求項1ないし請求項3のいずれか一項に記載の自律移動ロボット。
JP2004361530A 2004-12-14 2004-12-14 自律移動ロボット Expired - Fee Related JP4373903B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004361530A JP4373903B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット
US11/294,366 US7894941B2 (en) 2004-12-14 2005-12-06 Sound detection and associated indicators for an autonomous moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361530A JP4373903B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット

Publications (2)

Publication Number Publication Date
JP2006167838A JP2006167838A (ja) 2006-06-29
JP4373903B2 true JP4373903B2 (ja) 2009-11-25

Family

ID=36585117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361530A Expired - Fee Related JP4373903B2 (ja) 2004-12-14 2004-12-14 自律移動ロボット

Country Status (2)

Country Link
US (1) US7894941B2 (ja)
JP (1) JP4373903B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2025478B1 (en) * 2006-05-16 2011-09-14 Murata Kikai Kabushiki Kaisha Robot
EP1870215A1 (en) * 2006-06-22 2007-12-26 Honda Research Institute Europe GmbH Robot head with artificial ears
EP1870212A1 (en) * 2006-06-22 2007-12-26 Honda Research Institute Europe GmbH Robot having a head with artificial ears
US20080055836A1 (en) * 2006-08-25 2008-03-06 The Boeing Company System and method for compartment control
US8180486B2 (en) 2006-10-02 2012-05-15 Honda Motor Co., Ltd. Mobile robot and controller for same
JP4658891B2 (ja) * 2006-10-02 2011-03-23 本田技研工業株式会社 ロボットの制御装置
US20080119959A1 (en) * 2006-11-21 2008-05-22 Park Cheonshu Expression of emotions in robot
KR20080061901A (ko) * 2006-12-28 2008-07-03 주식회사 유진로봇 로봇의 입출력 장치에 의한 효율적인 음성인식 방법 및시스템
JP5326934B2 (ja) * 2009-01-23 2013-10-30 株式会社Jvcケンウッド 電子機器
JP5577605B2 (ja) * 2009-02-27 2014-08-27 トヨタ自動車株式会社 車載ロボット装置
US20120109375A1 (en) * 2009-06-26 2012-05-03 Lizard Technology Sound localizing robot
ES2358139B1 (es) * 2009-10-21 2012-02-09 Thecorpora, S.L. Robot social.
TW201434600A (zh) * 2013-03-01 2014-09-16 Compal Electronics Inc 具有可因應不同聲音信號產生相對應肢體動作之機器人
US9310800B1 (en) * 2013-07-30 2016-04-12 The Boeing Company Robotic platform evaluation system
KR102392113B1 (ko) * 2016-01-20 2022-04-29 삼성전자주식회사 전자 장치 및 전자 장치의 음성 명령 처리 방법
US10379534B2 (en) * 2016-01-28 2019-08-13 Qualcomm Incorporated Drone flight control
JP2019123055A (ja) * 2018-01-18 2019-07-25 株式会社ユピテル 装置
CN112771463A (zh) * 2019-02-19 2021-05-07 松下知识产权经营株式会社 无人飞行体、信息处理方法以及程序
CN113056419B (zh) 2019-04-18 2024-08-06 松下知识产权经营株式会社 无人飞行体、控制方法以及存储有程序的记录介质
KR102306437B1 (ko) * 2019-07-05 2021-09-28 엘지전자 주식회사 이동 로봇 및 그 제어방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3911618A (en) * 1974-12-19 1975-10-14 Joel Lee Gerst Finger puppet
JP2002116792A (ja) 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4524524B2 (ja) 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
KR20020067921A (ko) * 2000-10-23 2002-08-24 소니 가부시끼 가이샤 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
JP3824920B2 (ja) 2001-12-07 2006-09-20 ヤマハ発動機株式会社 マイクロホンユニット及び音源方向同定システム
JP3714268B2 (ja) 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
JP4281286B2 (ja) 2002-03-18 2009-06-17 ソニー株式会社 ロボット装置及びその制御方法
JP2003285285A (ja) 2002-03-27 2003-10-07 Nec Corp ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
DE60336852D1 (de) * 2003-02-14 2011-06-01 Honda Motor Co Ltd Fehlerdetektor für mobilen roboter
JP2003326479A (ja) 2003-05-26 2003-11-18 Nec Corp 自律行動ロボット

Also Published As

Publication number Publication date
US20060129275A1 (en) 2006-06-15
JP2006167838A (ja) 2006-06-29
US7894941B2 (en) 2011-02-22

Similar Documents

Publication Publication Date Title
JP4373903B2 (ja) 自律移動ロボット
JP5526942B2 (ja) ロボット装置、ロボット装置の制御方法およびプログラム
JP6203696B2 (ja) ロボット
JP5987842B2 (ja) コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP4131392B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP4315872B2 (ja) 移動ロボットの制御装置
CN208543477U (zh) 一种迎宾机器人
US11474499B2 (en) Communication robot and control program of communication robot
JP5755011B2 (ja) ロボット群制御装置および方法
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2007216363A (ja) コミュニケーションロボット
EP3450118A1 (en) Robot
JP2006272471A (ja) コミュニケーションロボット
WO2021006547A3 (en) Moving robot and method of controlling the same
JP4617428B2 (ja) 動作生成システム
JP2006231447A (ja) 指示位置または特定物の確認方法及び座標獲得方法並びに装置
JP2007156689A (ja) 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット
JP2022078741A (ja) ロボット
JP2018183856A (ja) 音声対話ロボットおよび音声対話システム
CN110971815B (zh) 图像处理装置、机器人、图像处理方法以及存储介质
JP6686583B2 (ja) ロボット及びプログラム
KR102613040B1 (ko) 영상 통화 방법 및 이를 구현하는 로봇
JP2003271196A (ja) ロボット装置及びその制御方法
JP2008040075A (ja) ロボット装置及びロボット装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4373903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140911

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees