JP2003266363A - ロボット装置 - Google Patents

ロボット装置

Info

Publication number
JP2003266363A
JP2003266363A JP2002073767A JP2002073767A JP2003266363A JP 2003266363 A JP2003266363 A JP 2003266363A JP 2002073767 A JP2002073767 A JP 2002073767A JP 2002073767 A JP2002073767 A JP 2002073767A JP 2003266363 A JP2003266363 A JP 2003266363A
Authority
JP
Japan
Prior art keywords
robot apparatus
head
fixing member
action
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002073767A
Other languages
English (en)
Inventor
Masaki Nagatsuka
正樹 永塚
Takeshi Igarashi
健 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002073767A priority Critical patent/JP2003266363A/ja
Publication of JP2003266363A publication Critical patent/JP2003266363A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 (修正有) 【課題】 外力による衝撃を受けても、正確な測距を実
施するロボット装置及びロボット装置のカメラ支持機構
を提供する。 【解決手段】 内部状態に応じて自律的に行動するロボ
ット装置において、対象物体を撮像する少なくとも2つ
の撮像手段と、撮像手段を所定の位置に固定する固定部
材225と、撮像手段の各々において取得された画像の
差分から被写体との距離を算出する演算手段を備え、固
定部材225は頭部シャーシ224に弾性部材251を
介して連結されている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ステレオビジョン
を用いて対象物体との距離を計測するロボット装置に関
する。
【0002】
【従来の技術】従来、周囲の物体との距離を把握し自律
的に行動するロボット装置が存在する。このようなロボ
ット装置が周囲の物体との距離を把握する方法として
は、ステレオビジョンを用いた測距方法がある。
【0003】ステレオビジョンとは、三角測量の原理に
より、物体の3次元空間における位置を検出する手法で
あり、複数のカメラを用いてステレオ画像を撮像し、各
カメラが撮像した画像のずれと各カメラの位置関係とに
基づいて撮像した物体との距離を算出する。
【0004】
【発明が解決しようとする課題】ところで、ロボット装
置は、人間とのコミュニケーションや障害物との接触の
ために様々な衝撃を受けることがある。ロボット装置に
衝撃が与えられると、カメラを固定するフレームにも衝
撃が加わりカメラの配置がずれてしまい正確な測距がで
きなくなる恐れがある。特に、CCDカメラを用いて画
像のずれを検出する場合、各画像間に1ラインのずれが
生じただけでもずれの検出が不正確になってしまう。
【0005】本発明の目的は、このような問題を鑑みて
提案されたものであり、外力を受けても正確な測距を実
施するロボット装置およびロボット装置のカメラ支持機
構を提供することである。
【0006】
【課題を解決するための手段】上述した課題を解決する
ために、本発明に係るロボット装置は、内部状態に応じ
て自律的に行動するロボット装置において、対象物体を
撮像する少なくとも2つの撮像手段と、上記少なくとも
2つの撮像手段を所定の位置に固定する固定部材と、上
記撮像手段の各々において取得された画像の差分を用い
て被写体との距離を算出する演算手段とを備え、上記固
定部材は、弾性部材を介して当該ロボット装置の所定位
置に取り付けられる。
【0007】
【発明の実施の形態】以下、本発明の一構成例として示
す2足歩行タイプのロボット装置について、図面を参照
して詳細に説明する。この人間型のロボット装置は、住
環境その他の日常生活上の様々な場面における人的活動
を支援する実用ロボットであり、内部状態(怒り、悲し
み、喜び、楽しみ等)に応じて行動できるほか、人間が
行う基本的な動作を表出できるエンターテインメントロ
ボットである。
【0008】図1に示すように、ロボット装置1は、体
幹部ユニット2の所定の位置に頭部ユニット3が連結さ
れるとともに、左右2つの腕部ユニット4R/Lと、左
右2つの脚部ユニット5R/Lが連結されて構成されて
いる(但し、R及びLの各々は、右及び左の各々を示す
接尾辞である。以下において同じ。)。
【0009】このロボット装置1が具備する関節の自由
度を図2に模式的に示す。頭部ユニット3を支持する首
関節は、首関節ヨー軸101と、首関節ピッチ軸102
と、首関節ロール軸103という3自由度を有してい
る。
【0010】また、上肢を構成する各々の腕部ユニット
4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸
108と、上腕ヨー軸109と、肘関節ピッチ軸110
と、前腕ヨー軸111と、手首関節ピッチ軸112と、
手首関節ロール軸113と、手部114とで構成され
る。手部114は、実際には、複数本の指を含む多関節
・多自由度構造体である。但し、手部114の動作は、
ロボット装置1の姿勢制御や歩行制御に対する寄与や影
響が少ないので、本明細書ではゼロ自由度と仮定する。
したがって、各腕部は7自由度を有するとする。
【0011】また、体幹部ユニット2は、体幹ピッチ軸
104と、体幹ロール軸105と、体幹ヨー軸106と
いう3自由度を有する。
【0012】また、下肢を構成する各々の脚部ユニット
5R/Lは、股関節ヨー軸115と、股関節ピッチ軸1
16と、股関節ロール軸117と、膝関節ピッチ軸11
8と、足首関節ピッチ軸119と、足首関節ロール軸1
20と、足部121とで構成される。本明細書中では、
股関節ピッチ軸116と股関節ロール軸117の交点
は、ロボット装置1の股関節位置を定義する。人体の足
部121は、実際には多関節・多自由度の足底を含んだ
構造体であるが、ロボット装置1の足底は、ゼロ自由度
とする。したがって、各脚部は、6自由度で構成され
る。
【0013】以上を総括すれば、ロボット装置1全体と
しては、合計で3+7×2+3+6×2=32自由度を
有することになる。但し、エンターテインメント向けの
ロボット装置1が必ずしも32自由度に限定されるわけ
ではない。設計・制作上の制約条件や要求仕様等に応じ
て、自由度すなわち関節数を適宜増減することができる
ことはいうまでもない。
【0014】上述したようなロボット装置1がもつ各自
由度は、実際にはアクチュエータを用いて実装される。
外観上で余分な膨らみを排してヒトの自然体形状に近似
させること、2足歩行という不安定構造体に対して姿勢
制御を行うことなどの要請から、アクチュエータは小型
且つ軽量であることが好ましい。
【0015】次に、ロボット装置1の頭部ユニット3に
ついて、図3〜図6を用いて詳細に説明する。図3は、
頭部ユニット3の正面外観を示し、図4は、頭部ユニッ
トの側面外観を示す。また、図5及び図6は、頭部ユニ
ットをロボット装の頭頂部方向からみた平面図を示して
いる。
【0016】頭部ユニット3は、頭部201と頸部20
2とからなる。頭部201には、CCDカメラ203
と、前方に位置する物体までの距離を測定するための距
離センサ204と、外部音を集音するためのマイクロフ
ォン205と、音声を出力するためのスピーカ206な
どがそれぞれ所定位置に配置されている。
【0017】本具体例では、特に、このロボット装置1
の親近感を増すとともにエンターテインメント性を高め
るため、外部の状況を撮影するためのCCDカメラ20
3は、ヒトでいう「眼」の位置に設け、マイクロフォン
205は、ヒトでいう「耳」の位置に設け、音声を出力
するためのスピーカ206は、ヒトの「口」に相当する
位置に設けている。
【0018】頭部201は、頭部外装筐体207によっ
て保護されており、この頭部外装筐体207は、眼用開
口部208、センサ用開口部209、マイクロフォン取
付部210、スピーカ用開口部211所定の位置に有し
ており、ユーザに「ヒト」を想起させる頭部形状となっ
ている。
【0019】頭部外装筐体207には、頭頂部に開口部
212が設けられている(以下、頭頂開口部212と記
す。)。頭頂開口部212は、このロボット装置1の頭
頂部の一部をなすように湾曲球面状に加工された頭頂部
カバー213で覆われている。頭頂部カバー213は、
その輪郭を該頭頂開口部212の開口形状と略同形状で
あるが若干小になるような形状に加工され、図示しない
取付用爪部が頭頂開口部212に設けられた取付孔21
4と係合されることによって、頭頂開口部212を覆っ
ている。
【0020】頭頂開口部212には、図6に示すよう
に、所定箇所にセンサ215a〜215dが設けられて
いる。このセンサ215は、例えば、所定の押圧を受け
るとこれを電気的に検出する押圧検出センサであり、頭
頂部カバー213は、これらのセンサと接触して取り付
けられている。
【0021】したがって、このような頭頂部センサ21
5を備えることにより、ロボット装置1は、ユーザから
の働きかけ、例えばロボット装置1の頭部を「撫でる」
「叩く」「軽く叩く」等を検出することができ、これに
応じた内部状態の変化を動作として表出することができ
る。
【0022】なお、ここでのセンサとは、所定圧の接触
を検出できるものであればよく、汎用のセンサが適用で
きる。例えば、機械式スイッチのオンオフによって、押
圧を検出するものであってもよい。
【0023】また頭部201は、この頭部201を駆動
するための頭部駆動機構221を備えており、頸部20
2は、この頸部を駆動するための頸部駆動機構222を
備えている。頭部ユニット3の頭部外装筐体207及び
頸部外装筐体216を取り外した外観図7及び8に基づ
いて、頭部201及び頸部202をさらに詳細に説明す
る。図7は、ロボット装置1の正面外観を示し、図8
は、ロボット装置1の側面外観を示している。
【0024】頭部201は、頭部駆動機構221と一体
化された頭部碗状部材223と、頭部碗状部材223に
対して頭部駆動機構221を介して回動自在に取り付け
られた頭部シャーシ224とから構成されている。頭部
碗状部材223は、内部に配設された回路等を保護する
役割を果たすとともに、ロボット装置1の顔・顎部の一
部を構成している。
【0025】ここで、頭部駆動機構221は、図示しな
いが回転駆動モータと歯車機構とから構成されており、
特にロボット装置頭部のロール方向の動き、すなわち
「傾げ」の動作を創出するために設けられている。
【0026】頸部駆動機構222は、頭部ユニット3の
体幹部ユニット2に対する動作を表出するための駆動機
構である。頸部駆動機構222は、後述する頸部主駆動
部234と、この頸部主駆動部234によって駆動され
る頸部円筒部材235とからなる。頸部主駆動部234
には、ヒトの「頸椎」に相当する頸部円筒部材235を
駆動するための第1の駆動モータを備えている。そし
て、頸部駆動機構222が頸部主駆動部234の一部で
体幹部ユニット2の骨格構造に取り付けられることによ
って、頭部ユニット3全体が体幹部ユニット2に固定さ
れている。
【0027】頭部シャーシ224には、顔前面に相当す
る位置に、カメラ固定部材225が取り付けられてい
る。図9はカメラ固定部材225を正面から見た平面
図、図10はカメラ固定部材225を裏面からみた斜視
図である。カメラ固定部材225は、このカメラ固定部
材225の歪み、変形を防止するための補強フレーム2
40を備えている。補強フレーム240は、カメラ取付
部227を形成する円形フレーム241と、カメラ固定
部材225の外縁を構成する外縁フレーム242と、外
縁フレーム242と円形フレーム241を固定し、外力
に対する耐性を向上する補助フレーム243とから構成
されている。
【0028】また、カメラ固定部材225には、測距セ
ンサ取付部226が設けられている。測距センサ取付部
226に取り付けられる測距センサ204は、2つのC
CDカメラ203と同一平面上に配置され、測距センサ
204とCCDカメラ203の相対位置が変化しない。
そのため、測距センサ204とCCDカメラ203の相
対誤差を補正するための演算を省略することができる。
【0029】円形フレーム241の内部には、CCDカ
メラ203を装着するためのカメラ固定部227が形成
されている。カメラ取付部227には開口部が形成され
ており、CCDカメラ203のレンズは開口部に挿入さ
れ開口部を通じて画像を取り込む。カメラ取付部227
に取り付けられるCCDカメラ203の光軸は一致する
ように配置されており、カメラ取付部227に取り付け
られたCCDカメラ203はステレオ画像を取得する。
【0030】CCDカメラ203は、頭部碗状部材22
3の内部に設けられた画像処理回路と接続されており、
撮像したステレオ画像を画像処理回路に出力する。画像
処理回路は、例えば、ステレオマッチング処理などのス
テレオビジョンを用いた処理を実行するための距離検出
用信号処理モジュール64を内蔵し、このモジュールに
記載したプログラムに従ってロボット装置1と周囲の物
体との距離を算出する。
【0031】上述のように、本具体例におけるロボット
装置1は、ステレオビジョンの原理を用いて測距を行う
ため、CCDカメラ203の位置関係は固定されていな
ければならない。しかしながら、このロボット装置1
は、ユーザとコミュニケーションをとるエンターテイメ
ント性の高いロボット装置であるため、ユーザとの接触
によってロボット装置の頭部201に衝撃が加わる場合
がある。また、このロボット装置は、頭部駆動機構22
1および頸部駆動機構222により頭部201を駆動
し、「頷き」や「傾げ」のような行動を行う。このよう
な行動により、頭部シャーシ224に取り付けられたカ
メラ固定部材225は移動し、カメラ固定部材225の
歪みを引き起こす。そのため、本具体例におけるロボッ
ト装置1は、上述したように、補強フレーム240を用
いてカメラ固定部材225の強度を高め、CCDカメラ
203の位置関係がずれない構造になっている。
【0032】また、本具体例では、カメラ固定部材22
5と頭部シャーシ224の連結部に弾性部材を使用する
ことにより、カメラ固定部材225に加わる力を緩衝し
ている。図11は、カメラ固定部材225と頭部シャー
シ224の連結部分を示す断面図である。カメラ固定部
材225と頭部シャーシ224は、弾性部材としてのゴ
ムブッシュ251とねじ252によって連結される。ゴ
ムブッシュ251は、外周面に沿って溝が掘られてお
り、この溝はカメラ固定部材225の厚さと略同一にな
っている。また、カメラ固定部材225には弾性部材取
付口が形成されており、この弾性部材取付口はゴムブッ
シュ251の外周に設けられた溝とはめ合わされるよう
になっている。ねじ252は、頭部201が比較的大き
く、ゴムブッシュ251の内側にねじ252を挿入し、
頭部シャーシ224に設けられたねじ穴に挿入すると、
ねじ252の頭部201と頭部シャーシ224に挟まれ
たカメラ固定部材225は、ゴムブッシュ251を介し
て頭部シャーシ224に固定される。
【0033】また、カメラ固定部材225と頭部シャー
シ224は2点で連結されている。これは、CCDカメ
ラ203の光軸をずらすことなくカメラ固定部材225
を取り付けるためである。すなわち、カメラ固定部材2
25と頭部シャーシ224を1点で連結すると、カメラ
固定部材225は連結部を中心として回動する。カメラ
固定部材225が回動すると、CCDカメラ203の位
置関係が変化し、CCDカメラ203の光軸がずれてし
まう。また。カメラ固定部材225と頭部シャーシ22
4を3点以上で連結すると、カメラ固定部材225の頭
部シャーシ224に対する変位量が制限され、弾性部材
の緩衝力が低下する。そのため、本具体例では、カメラ
固定部材225と頭部シャーシ224を2点で連結して
いる。なお、本具体例では、カメラ固定部材225を連
結する最適な場合として2点で連結すると記述したが、
連結部の個数はカメラ固定部材225と頭部シャーシ2
24の連結部の個数が2点に限定されることはない。
【0034】また、頭部外装筐体207は、頭部に装着
される際に、CCDカメラ203及び距離センサ204
に対応する箇所にそれぞれ眼用開口部208、距離セン
サ用開口部209が設けられているため、ここからCC
Dカメラ203及び距離センサ204が外部に露呈され
る。
【0035】図12には、ロボット装置1の制御システ
ム構成を模式的に示している。同図に示すように、ロボ
ット装置1は、ヒトの四肢を表現した体幹部ユニット
2,頭部ユニット3,腕部ユニット4R/L,脚部ユニ
ット5R/Lと、各ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット10とで構成される。
【0036】ロボット装置1全体の動作は、制御ユニッ
ト10によって統括的に制御される。制御ユニット10
は、CPU(Central Processing Unit)や、DRA
M、フラッシュROM等の主要回路コンポーネント(図
示しない)で構成される主制御部11と、電源回路やロ
ボット装置1の各構成要素とのデータやコマンドの授受
を行うインターフェイス(何れも図示しない)などを含
んだ周辺回路12とで構成される。
【0037】本発明を実現するうえで、この制御ユニッ
ト10の設置場所は、特に限定されない。図12では体
幹部ユニット2に搭載されているが、頭部ユニット3に
搭載してもよい。或いは、ロボット装置1外に制御ユニ
ット10を配備して、ロボット装置1の機体とは有線又
は無線で交信するようにしてもよい。
【0038】図2に示したロボット装置1内の各関節自
由度は、それぞれに対応するアクチュエータによって実
現される。すなわち、頭部ユニット3には、首関節ヨー
軸101、首関節ピッチ軸102、首関節ロール軸10
3の各々を表現する首関節ヨー軸アクチュエータA
首関節ピッチ軸アクチュエータA、首関節ロール軸ア
クチュエータAが配設されている。
【0039】また、頭部ユニット3には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラが設けられているほか、前方に位置する物体までの距
離を測定するための測距センサ204、外部音を集音す
るためのマイク、音声を出力するためのスピーカ20
6、使用者からの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出するためのタッチセ
ンサ等が配設されている。
【0040】また、体幹部ユニット2には、体幹ピッチ
軸104、体幹ロール軸105、体幹ヨー軸106の各
々を表現する体幹ピッチ軸アクチュエータA、体幹ロ
ール軸アクチュエータA、体幹ヨー軸アクチュエータ
が配設されている。また、体幹部ユニット2には、
このロボット装置1の起動電源となるバッテリを備えて
いる。このバッテリは、充放電可能な電池によって構成
されている。
【0041】また、腕部ユニット4R/Lは、上腕ユニ
ット4R/Lと、肘関節ユニット4R/Lと、前腕
ユニット4R/Lに細分化されるが、肩関節ピッチ軸
107、肩関節ロール軸108、上腕ヨー軸109、肘
関節ピッチ軸110、前腕ヨー軸111、手首関節ピッ
チ軸112、手首関節ロール軸113の各々表現する肩
関節ピッチ軸アクチュエータA、肩関節ロール軸アク
チュエータA、上腕ヨー軸アクチュエータA10、肘
関節ピッチ軸アクチュエータA11、肘関節ロール軸ア
クチュエータA12、手首関節ピッチ軸アクチュエータ
13、手首関節ロール軸アクチュエータA14が配備
されている。
【0042】また、脚部ユニット5R/Lは、大腿部ユ
ニット5R/Lと、膝ユニット5 R/Lと、脛部ユ
ニット5R/Lに細分化されるが、股関節ヨー軸11
5、股関節ピッチ軸116、股関節ロール軸117、膝
関節ピッチ軸118、足首関節ピッチ軸119、足首関
節ロール軸120の各々を表現する股関節ヨー軸アクチ
ュエータA16、股関節ピッチ軸アクチュエータ
17、股関節ロール軸アクチュエータA18、膝関節
ピッチ軸アクチュエータA19、足首関節ピッチ軸アク
チュエータA20、足首関節ロール軸アクチュエータA
21が配備されている。各関節に用いられるアクチュエ
ータA,A・・・は、より好ましくは、ギア直結型で
旦つサーボ制御系をワンチップ化してモータ・ユニット
内に搭載したタイプの小型ACサーボ・アクチュエータ
で構成することができる。
【0043】体幹部ユニット2、頭部ユニット3、各腕
部ユニット4R/L、各脚部ユニット5R/Lなどの各
機構ユニット毎に、アクチュエータ駆動制御部の副制御
部20,21,22R/L,23R/Lが配備されてい
る。さらに、各脚部ユニット5R/Lの足底が着床した
か否かを検出する接地確認センサ30R/Lを装着する
とともに、体幹部ユニット2内には、姿勢を計測する姿
勢センサ31を装備している。
【0044】接地確認センサ30R/Lは、例えば足底
に設置された近接センサ又はマイクロ・スイッチなどで
構成される。また、姿勢センサ31は、例えば、加速度
センサとジャイロ・センサの組み合わせによって構成さ
れる。
【0045】接地確認センサ30R/Lの出力によっ
て、歩行・走行などの動作期間中において、左右の各脚
部が現在立脚又は遊脚何れの状態であるかを判別するこ
とができる。また、姿勢センサ31の出力により、体幹
部分の傾きや姿勢を検出することができる。
【0046】主制御部11は、各センサ30R/L,3
1の出力に応答して制御目標をダイナミックに補正する
ことができる。より具体的には、副制御部20,21,
22R/L,23R/Lの各々に対して適応的な制御を
行い、ロボット装置1の上肢、体幹、及び下肢が協調し
て駆動する全身運動パターンを実現できる。
【0047】ロボット装置1の機体上での全身運動は、
足部運動、ZMP(Zero Moment Point)軌道、体幹運
動、上肢運動、腰部高さなどを設定するとともに、これ
らの設定内容にしたがった動作を指示するコマンドを各
副制御部20,21,22R/L,23R/Lに転送す
る。そして、各々の副制御部20,21,・・・等で
は、主制御部11からの受信コマンドを解釈して、各ア
クチュエータA,A・・・等に対して駆動制御信号
を出力する。ここでいう「ZMP」とは、歩行中の床反
力によるモーメントがゼロとなる床面上の点のことであ
り、また、「ZMP軌道」とは、例えばロボット装置1
の歩行動作期間中にZMPが動く軌跡を意味する。な
お、ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩
行ロボットと人工の足』(日刊工業新聞社))に記載さ
れている。
【0048】以上のように、ロボット装置1は、各々の
副制御部20,21,・・・等が、主制御部11からの
受信コマンドを解釈して、各アクチュエータA,A
・・・に対して駆動制御信号を出力し、各ユニットの駆
動を制御している。これにより、ロボット装置1は、目
標の姿勢に安定して遷移し、安定した姿勢で歩行でき
る。
【0049】また、ロボット装置1における制御ユニッ
ト10では、上述したような姿勢制御のほかに、加速度
センサ、タッチセンサ、接地確認センサ等の各種セン
サ、及びCCDカメラ203からの画像情報、マイクか
らの音声情報等を統括して処理している。制御ユニット
10では、図示しないが加速度センサ、ジャイロ・セン
サ、タッチセンサ、測距センサ204、マイク、スピー
カ206などの各種センサ、各アクチュエータ、CCD
カメラ203及びバッテリが各々対応するハブを介して
主制御部11と接続されている。
【0050】主制御部11は、上述の各センサから供給
されるセンサデータや画像データ及び音声データを順次
取り込み、これらをそれぞれ内部インターフェイスを介
してDRAM内の所定位置に順次格納する。また、主制
御部11は、バッテリから供給されるバッテリ残量を表
すバッテリ残量データを順次取り込み、これをDRAM
内の所定位置に格納する。DRAMに格納された各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータは、主制御部11がこのロボット装置1の動作制御
を行う際に利用される。
【0051】主制御部11は、ロボット装置1の電源が
投入された初期時、制御プログラムを読み出し、これを
DRAMに格納する。また、主制御部11は、上述のよ
うに主制御部11よりDRAMに順次格納される各セン
サデータ、画像データ、音声データ及びバッテリ残量デ
ータに基づいて自己及び周囲の状況や、使用者からの指
示及び働きかけの有無などを判断する。
【0052】さらに、主制御部11は、この判断結果及
びDRAMに格納した制御プログラムに基づいて自己の
状況に応じて行動を決定するとともに、当該決定結果に
基づいて必要なアクチュエータを駆動させることにより
ロボット装置1に、いわゆる「身振り」、「手振り」と
いった行動をとらせる。
【0053】このようにしてロボット装置1は、制御プ
ログラムに基づいて自己及び周囲の状況を判断し、使用
者からの指示及び働きかけに応じて自律的に行動でき
る。
【0054】ところで、このロボット装置1は、内部状
態に応じて自律的に行動することができる。そこで、ロ
ボット装置1における制御プログラムのソフトウェア構
成例について、図13〜図14を用いて説明する。な
お、この制御プログラムは、上述したように、予めフラ
ッシュROM12に格納されており、ロボット装置1の
電源投入初期時において読み出される。
【0055】図13において、デバイス・ドライバ・レ
イヤ40は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット41から構成されている。この場合、各デバイス・
ドライバは、CCDカメラ203やタイマ等の通常のコ
ンピュータで用いられるハードウェアに直接アクセスす
ることを許されたオブジェクトであり、対応するハード
ウェアからの割り込みを受けて処理を行う。
【0056】また、ロボティック・サーバ・オブジェク
ト42は、デバイス・ドライバ・レイヤ40の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜28等のハードウェアにアクセスするためのイ
ンターフェイスを提供するソフトウェア群でなるバーチ
ャル・ロボット43と、電源の切換えなどを管理するソ
フトウェア群でなるパワーマネジャ44と、他の種々の
デバイス・ドライバを管理するソフトウェア群でなるデ
バイス・ドライバ・マネジャ45と、ロボット装置1の
機構を管理するソフトウェア群でなるデザインド・ロボ
ット46とから構成されている。
【0057】マネジャ・オブジェクト47は、オブジェ
クト・マネジャ48及びサービス・マネジャ49から構
成されている。オブジェクト・マネジャ48は、ロボテ
ィック・サーバ・オブジェクト42、ミドル・ウェア・
レイヤ50、及びアプリケーション・レイヤ51に含ま
れる各ソフトウェア群の起動や終了を管理するソフトウ
ェア群であり、サービス・マネジャ49は、メモリカー
ドに格納されたコネクションファイルに記述されている
各オブジェクト間の接続情報に基づいて各オブジェクト
の接続を管理するソフトウェア群である。
【0058】ミドル・ウェア・レイヤ50は、ロボティ
ック・サーバ・オブジェクト42の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ51は、ミドル・ウェア
・レイヤ50の上位層に位置し、当該ミドル・ウェア・
レイヤ50を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0059】なお、ミドル・ウェア・レイヤ50及びア
プリケーション・レイヤ51の具体なソフトウェア構成
をそれぞれ図14に示す。
【0060】ミドル・ウェア・レイヤ50は、図14に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール6
0〜68並びに入力セマンティクスコンバータモジュー
ル69などを有する認識系70と、出力セマンティクス
コンバータモジュール78並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール71〜7
7などを有する出力系79とから構成されている。
【0061】認識系70の各信号処理モジュール60〜
68は、ロボティック・サーバ・オブジェクト42のバ
ーチャル・ロボット43によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール69に与える。ここで、例えば、バーチ
ャル・ロボット43は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。
【0062】入力セマンティクスコンバータモジュール
69は、これら各信号処理モジュール60〜68から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41に出力する。
【0063】アプリケーション・レイヤ51は、図15
に示すように、行動モデルライブラリ80、行動切換モ
ジュール81、学習モジュール82、感情モデル83及
び本能モデル84の5つのモジュールから構成されてい
る。
【0064】行動モデルライブラリ80には、図16に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデルが設けられている。
【0065】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール69から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したときなどに、必要に応じて後述の
ように感情モデル83に保持されている対応する情動の
パラメータ値や、本能モデル84に保持されている対応
する欲求のパラメータ値を参照しながら続く行動をそれ
ぞれ決定し、決定結果を行動切換モジュール81に出力
する。
【0066】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図17に示すよ
うな1つのノード(状態)NODE〜NODEから
他のどのノードNODE〜NODEに遷移するかを
各ノードNODE〜NODEに間を接続するアーク
ARC〜ARCn1に対してそれぞれ設定された遷移
確率P〜Pに基づいて確率的に決定する有限確率オ
ートマトンと呼ばれるアルゴリズムを用いる。
【0067】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE〜NODE
にそれぞれ対応させて、これらノードNODE〜NO
DE 毎に図18に示すような状態遷移表90を有して
いる。
【0068】この状態遷移表90では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
【0069】したがって、図17の状態遷移表90で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられた場合
に、当該認識結果とともに与えられるその障害物までの
「距離(DISTANCE)」が「0から100」の範囲であること
が他のノードに遷移するための条件となっている。
【0070】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル83及び本能モデル84にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル83に保持された「喜び(Joy)」、
「驚き(Surprise)」又は「悲しみ(Sadness)」の何
れかのパラメータ値が「50から100」の範囲であるとき
には他のノードに遷移することができるようになってい
る。
【0071】また、状態遷移表90では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜NODEから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できるほかの各ノードNO
DE〜NODEへの遷移確率が「他のノードヘの遷
移確率」の欄内の対応する箇所にそれぞれ記述され、そ
のノードNODE〜NODEに遷移する際に出力す
べき行動が「他のノードヘの遷移確率」の欄における
「出力行動」の行に記述されている。なお、「他のノー
ドヘの遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0072】したがって、図17の状態遷移表90で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0073】各行動モデルは、それぞれこのような状態
遷移表90として記述されたノードNODE〜 NO
DEが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール69から認識結果
が与えられたときなどに、対応するノードNODE
NODEの状態遷移表を利用して確率的に次の行動を
決定し、決定結果を行動切換モジュール81に出力する
ようになされている。
【0074】図18に示す行動切換モジュール81は、
行動モデルライブラリ80の各行動モデルからそれぞれ
出力される行動のうち、予め定められた優先順位の高い
行動モデルから出力された行動を選択し、当該行動を実
行すべき旨のコマンド(以下、行動コマンドという。)
をミドル・ウェア・レイヤ50の出力セマンティクスコ
ンバータモジュール78に送出する。なお、この実施の
形態においては、図14において下側に表記された行動
モデルほど優先順位が高く設定されている。
【0075】また、行動切換モジュール81は、行動完
了後に出力セマンティクスコンバータモジュール78か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール82、感情モデル83及び本
能モデル84に通知する。
【0076】一方、学習モジュール82は、入力セマン
ティクスコンバータモジュール69から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0077】そして、学習モジュール82は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。
【0078】他方、感情モデル83は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル83は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
69から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果や、経過時間及び行動切換モジュー
ル81からの通知などに基づいて周期的に更新する。
【0079】具体的には、感情モデル83は、入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル83は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0080】
【数1】
【0081】なお、各認識結果や出力セマンティクスコ
ンバータモジュール78からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0082】ここで、出力セマンティクスコンバータモ
ジュール78からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル83は、このような情報によっ
ても感情を変化させる。これは、例えば、「叫ぶ」とい
った行動により怒りの感情レベルが下がるといったよう
なことである。なお、出力セマンティクスコンバータモ
ジュール78からの通知は、上述した学習モジュール8
2にも入力されており、学習モジュール82は、その通
知に基づいて行動モデルの対応する遷移確率を変更す
る。
【0083】なお、行動結果のフィードバックは、行動
切換モジュール81の出力(感情が付加された行動)に
よりなされるものであってもよい。
【0084】一方、本能モデル84は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル84
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール69から与えられる認
識結果や、経過時間及び行動切換モジュール81からの
通知などに基づいて周期的に更新する。
【0085】具体的には、本能モデル84は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール78からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル84は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0086】
【数2】
【0087】なお、認識結果及び出力セマンティクスコ
ンバータモジュール78からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール78からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0088】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から10
0までの範囲で変動するように規制されており、また係
数k 、kの値も各情動及び各欲求毎に個別に設定さ
れている。
【0089】一方、ミドル・ウェア・レイヤ50の出力
セマンティクスコンバータモジュール78は、図16に
示すように、上述のようにしてアプリケーション・レイ
ヤ51の行動切換モジュール81から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系79の対応する信号処理モジュール71〜77に与え
る。
【0090】そしてこれら信号処理モジュール71〜7
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカ206から出
力する音の音声データ及び又はLEDに与える駆動デー
タを生成し、これらのデータをロボティック・サーバ・
オブジェクト42のバーチャル・ロボット43及び信号
処理回路を順次介して対応するアクチュエータ又はスピ
ーカ206又はLEDに順次送出する。
【0091】このようにしてロボット装置1は、上述し
た制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動ができる。
【0092】このような制御プログラムは、ロボット装
置が読取可能な形式で記録された記録媒体を介して提供
される。制御プログラムを記録する記録媒体としては、
磁気読取方式の記録媒体(例えば、磁気テープ、フレキ
シブルディスク、磁気カード)、光学読取方式の記録媒
体(例えば、CD−ROM、MO、CD−R、DVD)
等が考えられる。記録媒体には、半導体メモリ(いわゆ
るメモリカード(矩形型、正方形型など形状は問わな
い。)、ICカード)等の記憶媒体も含まれる。また、
制御プログラムは、いわゆるインターネット等を介して
提供されてもよい。
【0093】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によってロボット装置1に伝
送されて読み込まれる。また、ロボット装置1は、半導
体メモリ、又はICカード等の小型化された記憶媒体の
ドライブ装置を備える場合、これら記憶媒体から制御プ
ログラムを直接読み込むこともできる。
【0094】なお、本発明は上記実施例に限定されるも
のではなく、本発明の要旨を含む範囲での変形、改良は
本発明に含まれるものとする。例えば、カメラ固定部材
225を頭部シャーシ224に連結するゴムブッシュ2
51は、必ずしもゴムを材料とする必要はなく、必要な
弾性を有し、力を緩衝する機能を有するその他の材料を
用いてもよい。
【0095】
【発明の効果】以上説明したように、本発明に係るロボ
ット装置は、内部状態に応じて自律的に行動するロボッ
ト装置において、対象物体を撮像する少なくとも2つの
撮像手段と、上記少なくとも2つの撮像手段を所定の位
置に固定する固定部材と、上記撮像手段の各々において
取得された画像の差分を用いて被写体との距離を算出す
る演算手段とを備え、固定部材は弾性部材を介してロボ
ット装置に取り付けられることにより、ロボット装置を
介して固定部材に伝達される力を緩衝することができ
る。
【図面の簡単な説明】
【図1】本実施の形態におけるロボット装置の外観構成
を示す斜視図である。
【図2】同ロボット装置の自由度構成モデルを模式的に
示す図である。
【図3】頭部ユニットの正面外観を示す図である。
【図4】頭部ユニットの側面外観を示す図である。
【図5】頭部ユニットを頭頂部方向からみた平面図であ
る。
【図6】頭部ユニットを頭頂部方向からみた平面図であ
る。
【図7】ロボット装置の正面外観を示す図である。
【図8】ロボット装置の側面外観を示す図である。
【図9】カメラ固定部材の正面からみた図である。
【図10】カメラ固定部材を裏面からみた斜視図であ
る。
【図11】カメラ固定部材と頭部シャーシの連結部分を
示す断面図である。
【図12】ロボット装置の回路構成を示すブロック図で
ある。
【図13】ロボット装置のソフトウェア構成を示すブロ
ック図である。
【図14】ロボット装置のソフトウェア構成におけるミ
ドル・ウェア・レイヤの構成を示すブロック図である。
【図15】ロボット装置のソフトウェア構成におけるア
プリケーション・レイヤの構成を示すブロック図であ
る。
【図16】アプリケーション・レイヤの行動モデルライ
ブラリの構成を示すブロック図である。
【図17】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明する図である。
【図18】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【符号の説明】
1 ロボット装置、64 距離検出信号処理モジュー
ル、203 CCDカメラ、204 測距センサ、22
4 頭部シャーシ、225 カメラ固定部材、226
測距センサ取付部、251 ゴムブッシュ、252 ね
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A63H 11/18 A63H 11/18 A Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 EB01 EC03 EC15 EC16 ED10 ED42 ED52 EF07 EF09 EF13 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 2F065 AA06 AA20 BB05 CC14 CC16 DD14 FF05 FF09 JJ03 JJ05 JJ26 PP25 UU03 2F112 AC03 AC06 BA18 CA04 3C007 AS36 CS08 CY32 HT35 KS36 KT03 KT04 MS11 WA03 WA13 WC25

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 内部状態に応じて自律的に行動するロボ
    ット装置において、 対象物体を撮像する少なくとも2つの撮像手段と、 上記少なくとも2つの撮像手段を所定の位置に固定する
    固定部材と、 上記撮像手段の各々において取得された画像の差分を用
    いて被写体との距離を算出する演算手段とを備え、 上記固定部材は、弾性部材を介して当該ロボット装置の
    所定位置に取り付けられることを特徴とするロボット装
    置。
  2. 【請求項2】 上記固定部材には、上記対象物体と当該
    ロボット装置との距離を測定する測距センサを固定する
    測距センサ固定部を有することを特徴とする請求項1記
    載のロボット装置。
JP2002073767A 2002-03-18 2002-03-18 ロボット装置 Withdrawn JP2003266363A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002073767A JP2003266363A (ja) 2002-03-18 2002-03-18 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002073767A JP2003266363A (ja) 2002-03-18 2002-03-18 ロボット装置

Publications (1)

Publication Number Publication Date
JP2003266363A true JP2003266363A (ja) 2003-09-24

Family

ID=29203342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002073767A Withdrawn JP2003266363A (ja) 2002-03-18 2002-03-18 ロボット装置

Country Status (1)

Country Link
JP (1) JP2003266363A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100724792B1 (ko) * 2006-04-24 2007-06-04 한국과학기술원 로봇용 안구장치
WO2015169894A1 (fr) * 2014-05-07 2015-11-12 Aldebaran Robotics Dispositif amortisseur de chocs pour un robot humanoide
JP2019051332A (ja) * 2016-05-12 2019-04-04 Groove X株式会社 緊急停止機能を有する自律行動型ロボット

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100724792B1 (ko) * 2006-04-24 2007-06-04 한국과학기술원 로봇용 안구장치
AU2015257687B2 (en) * 2014-05-07 2017-09-14 Softbank Robotics Europe Shock-absorbing device for a humanoid robot
FR3020847A1 (fr) * 2014-05-07 2015-11-13 Aldebaran Robotics Dispositif amortisseur de chocs pour un robot humanoide
KR20170058332A (ko) * 2014-05-07 2017-05-26 소프트뱅크 로보틱스 유럽 휴머노이드 로봇용 충격 흡수 장치
JP2017514711A (ja) * 2014-05-07 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ヒューマノイドロボットのための衝撃吸収装置
CN107073724A (zh) * 2014-05-07 2017-08-18 软银机器人欧洲公司 用于类人机器人的减振装置
WO2015169894A1 (fr) * 2014-05-07 2015-11-12 Aldebaran Robotics Dispositif amortisseur de chocs pour un robot humanoide
RU2652475C1 (ru) * 2014-05-07 2018-04-26 Софтбэнк Роботикс Юроп Устройство амортизации ударов для робота-гуманоида
KR101969208B1 (ko) 2014-05-07 2019-04-15 소프트뱅크 로보틱스 유럽 휴머노이드 로봇용 충격 흡수 장치
US10300613B2 (en) 2014-05-07 2019-05-28 Softbank Robotics Europe Shock-absorbing device for a humanoid robot
CN107073724B (zh) * 2014-05-07 2019-10-18 软银机器人欧洲公司 用于类人机器人的减振装置
JP2019051332A (ja) * 2016-05-12 2019-04-04 Groove X株式会社 緊急停止機能を有する自律行動型ロボット
US10953542B2 (en) 2016-05-12 2021-03-23 Groove X, Inc. Autonomously acting robot having emergency stop function

Similar Documents

Publication Publication Date Title
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP3714268B2 (ja) ロボット装置
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
US6381515B1 (en) Robot apparatus
JP3945279B2 (ja) 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2004298977A (ja) 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2002144260A (ja) 脚式移動ロボット及びその制御方法
US20190366554A1 (en) Robot interaction system and method
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003266363A (ja) ロボット装置
JP4281286B2 (ja) ロボット装置及びその制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP3961892B2 (ja) ロボット装置および緩衝装置
JP2003269579A (ja) 動力伝達装置及びロボット装置
JP2003266361A (ja) 動力伝達装置及びロボット装置
JP2006285898A (ja) 制御装置および方法、並びにプログラム
JP2003266350A (ja) ロボット装置及び内部状態表出装置
JP2003266364A (ja) ロボット装置
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP2004299006A (ja) ロボット装置及びロボット装置による顔認識状況の提示方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607