JP2002205290A - 脚式移動ロボットの制御装置及び制御方法 - Google Patents

脚式移動ロボットの制御装置及び制御方法

Info

Publication number
JP2002205290A
JP2002205290A JP2001000395A JP2001000395A JP2002205290A JP 2002205290 A JP2002205290 A JP 2002205290A JP 2001000395 A JP2001000395 A JP 2001000395A JP 2001000395 A JP2001000395 A JP 2001000395A JP 2002205290 A JP2002205290 A JP 2002205290A
Authority
JP
Japan
Prior art keywords
mobile robot
input data
legged mobile
detection unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001000395A
Other languages
English (en)
Inventor
Hiroki Saijo
弘樹 西條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001000395A priority Critical patent/JP2002205290A/ja
Publication of JP2002205290A publication Critical patent/JP2002205290A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 ロボットの自律的な作用によって正確な外部
環境情報を取得する。 【解決手段】 ロボットは画像、音声、接触、感圧とい
った複数の入力装置を備えている。頭部、腕部、下肢、
体幹など、機体の構成部位の一部又は全部の動作を用い
て、視覚センサ、マイク、スイッチ、感圧センサなどか
ら入力される情報に対して意図的に変化を生じさせるこ
とにより、行動決定に用いるための外部要因が適切に得
られるようにする。例えば、「眩しいときに、手をかざ
して物体を認識する」、「後向きの人物の額を確認した
いときに、声をかけて振り向かせる」といったしぐさを
発現する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数の関節アクチ
ュエータで構成される多関節型のロボットに係り、特
に、例えばヒトやサルなどの2足直立歩行動物をモデル
にした脚式移動ロボットに関する。
【0002】更に詳しくは、本発明は、画像入力装置、
音声入出力装置、姿勢センサ、接触センサ、感圧センサ
など外部環境の情報を入力して外的要因に基づいて行動
計画を立案して自律的に動作するタイプの脚式移動ロボ
ットに係り、特に、自律的な作用によって正確な外部環
境情報を取得することができる脚式移動ロボットに関す
る。
【0003】
【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語のROBOT
A(奴隷機械)に由来すると言われている。わが国では、
ロボットが普及し始めたのは1960年代末からである
が、その多くは、工場における生産作業の自動化・無人
化などを目的としたマニピュレータや搬送ロボットなど
の産業用ロボット(industrial robot)であった。
【0004】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上または無経路上を
自在に移動して、所定の若しくは任意の人的作業を代行
したり、ヒトやイヌあるいはその他の生命体に置き換わ
る種々の幅広いサービスを提供することができる。なか
でも脚式の移動ロボットは、クローラ式やタイヤ式のロ
ボットに比し不安定で姿勢制御や歩行制御が難しくなる
が、階段や梯子の昇降や障害物の乗り越えや、整地・不
整地の区別を問わない柔軟な歩行・走行動作を実現でき
るという点で優れている。
【0005】最近では、ヒトのような2足直立歩行を行
う動物の身体メカニズムや動作をモデルにしてデザイン
された「人間形」若しくは「人間型」のロボット(huma
noidrobot)など、脚式移動ロボットに関する研究開発
が進展し、実用化への期待も高まってきている。例え
ば、ソニー株式会社は、11月25日に2足歩行の人間
型ロボット"SDR−3X"を公表した。
【0006】人間形若しくは人間型と呼ばれる脚式移動
ロボットを研究・開発する意義を、例えば以下の2つの
視点から把握することができよう。
【0007】1つは、人間科学的な視点である。すなわ
ち、人間の下肢及び/又は上肢に似た構造のロボットを
作り、その制御方法を考案して、人間の歩行動作をシミ
ュレートするというプロセスを通じて、歩行を始めとす
る人間の自然な動作のメカニズムを工学的に解明するこ
とができる。このような研究成果は、人間工学、リハビ
リテーション工学、あるいはスポーツ科学など、人間の
運動メカニズムを扱う他のさまざまな研究分野の進展に
大いに還元することができるであろう。
【0008】もう1つは、人間のパートナーとして生活
を支援する、すなわち住環境その他の日常生活上の様々
な場面における人的活動の支援を行う実用ロボットの開
発である。この種のロボットは、人間の生活環境のさま
ざまな局面において、人間から教わりながら個々に個性
の相違する人間又は環境への適応方法を学習し、機能面
でさらに成長していく必要がある。このとき、ロボット
が「人間形」すなわち人間と同じ形又は同じ構造をして
いる方が、人間とロボットとのスムースなコミュニケー
ションを行う上で有効に機能するものと考えられる。
【0009】例えば、踏んではならない障害物を避けな
がら部屋を通り抜ける方法を実地においてロボットに教
示するような場合、クローラ式や4足式ロボットのよう
に教える相手が自分と全く違う構造をしているよりも、
同じような格好をしている2足歩行ロボットの方が、ユ
ーザ(作業員)ははるかに教え易く、またロボットにと
っても教わり易い筈である(例えば、高西著「2足歩行
ロボットのコントロール」(自動車技術会関東支部<高
塑>No.25,1996APRIL)を参照のこ
と)。
【0010】脚式移動ロボットの用途の1つとして、産
業活動・生産活動等における各種の難作業の支援や代行
が挙げられる。例えば、原子力発電プラントや火力発電
プラント、石油化学プラントにおけるメンテナンス作
業、製造工場における部品の搬送・組立作業、高層ビル
における清掃、火災現場その他における救助といったよ
うな危険作業や難作業をロボットに代行してもらうこと
ができる。
【0011】また、脚式移動ロボットの他の用途とし
て、上述の作業支援というよりも、生活密着型、すなわ
ち人間との「共生」あるいは「エンターティンメント」
という用途が挙げられる。この種のロボットは、ヒトあ
るいはイヌ(ペット)などの比較的知性の高い脚式歩行
動物の動作メカニズムや四肢を利用した豊かな感情表現
をエミュレートする。また、あらかじめ入力された行動
パターン(ビヘイビア)を単に忠実に実行するだけでは
なく、相手の言葉や態度(「褒める」とか「叱る」、
「叩く」など)に対して動的に対応した、生き生きとし
た応答表現を実現することも要求される。
【0012】従来の玩具機械は、ユーザ操作と応答動作
との関係が固定的であり、玩具の動作をユーザの好みに
合わせて変更することはできない。この結果、ユーザは
同じ動作しか繰り返さない玩具をやがては飽きてしまう
ことになる。
【0013】これに対し、インテリジェントなロボット
は、ロボットの行動や動作の規範を制御パラメータや制
御プログラムを用いてモデル化して備えている。そし
て、外部からの音声や画像、触覚などの入力情報すなわ
ち外部要因に基づいてモデルが持つ指示値を時々刻々と
変化させて、発現すべき動作を決定することによって、
自律的な思考及び動作制御を実現することができる。例
えば、ロボットが感情モデルや本能モデルを用意するこ
とにより、ロボット自身の感情や本能といった内部状態
に従った自律的な行動を表出することができる。また、
ロボットが画像入力装置や音声入出力装置を装備し、画
像認識処理や音声認識処理を行うことにより、より高度
な知的レベルで人間とのリアリスティックなコミュニケ
ーションを実現することも可能となる。
【0014】ユーザ操作などの外部からの刺激を検出し
たことに応答してこのモデルを変更する、すなわち学習
効果を有する「学習モデル」を付与することによって、
ユーザにとって飽きない、あるいはユーザ毎の好みに適
応した行動シーケンスを実行することができる。すなわ
ち、ロボットのエンターテインメント性がより一層高ま
る。
【0015】外部要因に応じて行動シーケンスを変容さ
せると、ロボットはユーザにとって意外で予期しない行
動をとることができるので、ユーザは飽きずにロボット
と付き合い続けることができる。
【0016】ロボットが、例えば一般家庭内などのユー
ザとの共有作業空間において、ユーザや他のロボットと
協調的な作業を行っている最中に、ロボットが、時間の
変化、季節の変化、あるいはユーザの感情変化などの外
部要因を検出して、行動シーケンスを変容させると、ユ
ーザはロボットに対してより深い愛着を覚えることもで
きる。
【0017】言い換えれば、生活密着型でエンターテイ
ンメント性が追求されるロボットにおいては、外部環境
の変化に追従して自律的に行動を決定するので、外部要
因を正確に入力し認識することが極めて重要となる。
【0018】自律型ロボットは、カメラなどの画像入力
装置、マイクなどの音声入力装置、各種スイッチ、感圧
センサなど、外部環境の変化を検出するための装置を備
えている。これらセンサ類による検出値は電気信号とし
て取り込まれ、デジタル化され、所定の情報処理によっ
て各外部要因として認識され、以後の行動シーケンスに
反映される。
【0019】各センサから得られる情報をより正確に扱
うために、センサ入力信号をフィルタなどの処理により
ノイズ成分を除去又は低減させるといった、信号処理を
施すのが一般的である。
【0020】しかしながら、「対象物の向きが悪い」、
「強い光源がある」といったような、フィルタリングな
どの信号処理だけでは、行動の決定に充分な又は正確な
外部要因に関する情報を得られない場合がある。
【0021】他方、最先端の脚式移動ロボットは、充分
高いインテリジェンスを備えてさまざまな自律的駆動を
体現するとともに、四肢を利用した優れた運動能力を備
えているが、これらの能力は外部要因の認識のために活
用されているわけではない。
【0022】
【発明が解決しようとする課題】本発明の目的は、例え
ばヒトやサルなどの2足直立歩行動物をモデルにした、
優れた脚式移動ロボットを提供することにある。
【0023】本発明の更なる目的は、画像入力装置、音
声入出力装置、姿勢センサ、接触センサ、感圧センサな
ど外部環境の情報を入力して外的要因に基づいて行動計
画を立案して自律的に動作するタイプの、優れた脚式移
動ロボットを提供することにある。
【0024】本発明の更なる目的は、自律的な作用によ
って正確な外部環境情報を取得することができる、優れ
た脚式移動ロボットを提供することにある。
【0025】
【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、複数の関節アクチ
ュエータで構成され、外部環境を検出する1以上の検出
部から入力されたデータに基づいて自律的に動作するタ
イプの脚式移動ロボットの制御装置又は制御方法であっ
て、前記検出部における入力データが外部環境を認識す
るために充分な値か否かを判別する判別手段又はステッ
プと、前記判別手段又はステップにおける判別結果が否
定的であることに応答して、前記関節アクチュエータを
駆動させることにより前記検出部における入力データの
変化を試みる行動・姿勢管理手段又はステップと、を具
備することを特徴とする脚式移動ロボットの制御装置で
ある。
【0026】本発明に係る脚式移動ロボットは、画像セ
ンサ、音声センサ、感圧センサなど、外部環境を検出す
るための1以上の検出部を装備している。そして、検出
部における入力データが外部環境を認識するために充分
な値ではない場合には、関節アクチュエータを駆動させ
て、視覚センサ、マイク、スイッチ、感圧センサなどか
ら入力される情報に対して意図的に変化を生じさせるこ
とにより、行動決定に用いるための外部要因が適切に得
られるようにすることができる。
【0027】例えば、「眩しいときに、手をかざして物
体を認識する」、「後向きの人物の額を確認したいとき
に、声をかけて振り向かせる」といったしぐさを発現す
ることによって、検出部における入力データを自律的に
改善することができる。
【0028】脚式移動ロボットは、前記判別手段又はス
テップにおいて肯定的な判別結果が得られたときの前記
検出部における入力データを基に外部環境を認識して行
動を立案する行動計画手段又はステップを備えていても
よい。
【0029】また、脚式移動ロボットは認識物に関する
特徴を記述したデータを保管する認識物データベースを
備えていてもよい。このような場合、前記判別手段又は
ステップは、該認識物データベースを参照して前記検出
部における入力データが適切か否かを判別することがで
きる。
【0030】また、脚式移動ロボットは外部環境の認識
に必要な情報に対応したアルゴリズムを保管する入力補
助データベースを備えていてもよい。このような場合、
前記検出部の入力データから特徴を抽出できるが対象物
を特定できないときに、前記行動・姿勢管理手段又はス
テップは、該入力補助データベースを参照することによ
って、前記検出部における入力データを改善するための
対応方法を特定することができる。
【0031】また、脚式移動ロボットは、外部環境を認
識できなかったトラブルの事例と、各事例が発生したと
きに実行した対応方法を保管する履歴データベースを備
えていてもよい。このような場合、前記検出部の入力デ
ータから特徴を抽出できないときに、前記行動・姿勢管
理手段又はステップは、該履歴データベースを参照して
前記検出部における入力データを改善するための対応方
法を特定することができる。
【0032】また、前記判別手段又はステップは、前記
検出部による入力データに含まれる認識対象が自律的な
エンティティか否かを判別するようにしてもよい。そし
て、自律的なエンティティであると判別された場合、前
記行動・姿勢管理手段又はステップは、該エンティティ
に対して前記検出部の入力データの改善するための動作
を促すメッセージを送るようにしてもよい。
【0033】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
【0034】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
【0035】図1及び図2には、本発明の実施に供され
る脚式移動ロボット100が直立している様子を前方及
び後方の各々から眺望した様子を示している。この脚式
移動ロボット100は、「人間形」又は「人間型」と呼
ばれるタイプであり、後述するように、音声や画像など
の入力に基づくユーザとの対話によって行動計画を立て
たり、ユーザ入力に頼らず(すなわち、ユーザから独立
して)ロボット100が自律的に行動計画を立てたりす
ることができる。図示の通り、脚式移動ロボット100
は、脚式移動を行う左右2足の下肢と、体幹部と、左右
の上肢と、頭部とで構成される。
【0036】左右各々の下肢は、大腿部と、膝関節と、
脛部と、足首と、足平とで構成され、股関節によって体
幹部の略最下端にて連結されている。また、左右各々の
上肢は、上腕と、肘関節と、前腕とで構成され、肩関節
によって体幹部上方の左右各側縁にて連結されている。
また、頭部は、首関節によって体幹部の略最上端中央に
連結されている。
【0037】体幹部ユニット内には、図1及び図2上で
は見えていない制御部が配備されている。この制御部
は、脚式移動ロボット100を構成する各関節アクチュ
エータの駆動制御や各センサ(後述)などからの外部入
力を処理するコントローラ(主制御部)や、電源回路そ
の他の周辺機器類を搭載した筐体である。制御部は、そ
の他、遠隔操作用の通信インターフェースや通信装置を
含んでいてもよい。
【0038】図3には、本実施例に係る脚式移動ロボッ
ト100が具備する関節自由度構成を模式的に示してい
る。図示の通り、脚式移動ロボット100は、2本の腕
部と頭部1を含む上体と、移動動作を実現する2本の脚
部からなる下肢と、上肢と下肢とを連結する体幹部とで
構成される。
【0039】頭部1を支持する首関節は、首関節ヨー軸
2と、首関節ピッチ軸3と、首関節ロール軸4という3
自由度を有している。
【0040】また、各腕部は、肩関節ピッチ軸8と、肩
関節ロール軸9と、上腕ヨー軸10と、肘関節ピッチ軸
11と、前腕ヨー軸12と、手首関節ピッチ軸13と、
手首関節ロール軸14と、手部15とで構成される。手
部15は、実際には、複数本の指を含む多関節・多自由
度構造体である。但し、手部15の動作自体は、ロボッ
ト100の姿勢安定制御や歩行動作制御に対する寄与や
影響が少ないので、本明細書ではゼロ自由度と仮定す
る。したがって、左右の各腕部は7自由度を有するとす
る。
【0041】また、体幹部は、体幹ピッチ軸5と、体幹
ロール軸6と、体幹ヨー軸7という3自由度を有する。
【0042】また、下肢を構成する左右各々の脚部は、
股関節ヨー軸16と、股関節ピッチ軸17と、股関節ロ
ール軸18と、膝関節ピッチ軸19と、足首関節ピッチ
軸20と、関節ロール軸21と、足部(足底又は足平)
22とで構成される。人体の足部(足底)22は、実際
には多関節・多自由度の足底を含んだ構造体であるが、
本実施例に係る脚式移動ロボット100の足底はゼロ自
由度とする。したがって、左右の各脚部は6自由度で構
成される。
【0043】以上を総括すれば、本実施例に係る脚式移
動ロボット100全体としては、合計で3+7×2+3
+6×2=32自由度を有することになる。但し、脚式
移動ロボット100が必ずしも32自由度に限定される
訳ではない。設計・製作上の制約条件や要求仕様等に応
じて、自由度すなわち関節数を適宜増減することができ
ることは言うまでもない。
【0044】脚式移動ロボット100が持つ上述の各関
節自由度は、実際にはアクチュエータによる能動的な動
作として実現される。装置の外観上で余分な膨らみを排
してヒトの自然体形状に近似させることや、2足歩行と
いう不安定構造体に対して姿勢制御を行うことなどの種
々の要請から、関節アクチュエータは小型且つ軽量であ
ることが好ましい。本実施例では、ギア直結型で且つサ
ーボ制御系をワンチップ化してモータ・ユニットに内蔵
したタイプの小型ACサーボ・アクチュエータを搭載す
ることとした。なお、脚式ロボットに適用可能な小型A
Cサーボ・アクチュエータに関しては、例えば本出願人
に既に譲渡されている特願平11−33386号明細書
に開示されている。
【0045】図4には、本実施例に係る脚式移動ロボッ
ト100の制御システム構成を模式的に示している。同
図に示すように、該システムは、ユーザ入力などに動的
に反応して情緒判断や感情表現を司る思考制御モジュー
ル200と、関節アクチュエータの駆動などロボットの
全身協調運動を制御する運動制御モジュール300とで
構成される。
【0046】思考制御モジュール200は、情緒判断や
感情表現に関する演算処理を実行するCPU(Central
Processing Unit)211や、RAM(Random Access M
emory)212、ROM(Read Only Memory)213、
及び、外部記憶装置(ハード・ディスク・ドライブなど)
214で構成される、自己完結処理を行うことができる
独立した情報処理装置である。
【0047】思考制御モジュール200には、CCD
(Charge Coupled Device)カメラなどの画像入力装置
251や、マイクなどの音声入力装置252、スピーカ
などの音声出力装置253、LAN(Local Area Netwo
rk:図示しない)などを経由してロボット100外のシ
ステムとデータ交換を行う通信インターフェース254
など各種の装置が、バス・インターフェース201経由
で接続されている。
【0048】思考制御モジュール200では、画像入力
装置251から入力される視覚データや音声入力装置2
52から入力される聴覚データなど、外界からの刺激な
どに従って、脚式移動ロボット100の現在の感情や意
思を決定する。さらに、意思決定に基づいた動作(アク
ション)又は行動シーケンス(ビヘイビア)、すなわち
四肢の運動を実行するように、運動制御モジュール30
0に対して指令を発行する。
【0049】一方の運動制御モジュール300は、ロボ
ット100の全身協調運動を制御するCPU(Central
Processing Unit)311や、RAM(Random Access M
emory)312、ROM(Read Only Memory)313、
及び、外部記憶装置(ハード・ディスク・ドライブなど)
314で構成される、自己完結処理を行うことができる
独立した情報処理装置である。外部記憶装置314に
は、例えば、オフラインで算出された歩行パターンやZ
MP目標軌道、その他の行動計画を蓄積することができ
る(「ZMP(Zero Moment Point)」とは、歩行中の
床反力によるモーメントがゼロとなる床面上の点のこと
であり、また、「ZMP軌道」とは、例えばロボット1
00の歩行動作期間中などにZMPが動く軌跡を意味す
る)。
【0050】運動制御モジュール300には、ロボット
100の全身に分散するそれぞれの関節自由度を実現す
る関節アクチュエータ(図3を参照のこと)、体幹部の
姿勢や傾斜を計測する姿勢センサ351、左右の足底の
離床又は着床を検出する接地確認センサ352及び35
3、バッテリなどの電源を管理する電源制御装置などの
各種の装置が、バス・インターフェース301経由で接
続されている。
【0051】運動制御モジュール300では、思考制御
モジュール200から指示された行動を体現すべく、各
関節アクチュエータによる全身協調運動を制御する。す
なわち、CPU311は、思考制御モジュール200か
ら指示された行動に応じた動作パターンを外部記憶装置
314から取り出し、又は、内部的に動作パターンを生
成する。そして、CPU311は、指定された動作パタ
ーンに従って、足部運動、ZMP軌道、体幹運動、上肢
運動、腰部水平位置及び高さなどを設定するとともに、
これらの設定内容に従った動作を指示する指令値を各関
節アクチュエータに転送する。
【0052】また、CPU311は、姿勢センサ351
の出力信号によりロボット100の体幹部分の姿勢や傾
きを検出するとともに、各接地確認センサ352及び3
53の出力信号により各可動脚が遊脚又は立脚のいずれ
の状態であるかを検出することによって、脚式移動ロボ
ット100の全身協調運動を適応的に制御することがで
きる。
【0053】さらに、運動制御モジュール300は、思
考制御モジュール200において決定された意思通りの
行動がどの程度体現されたか、すなわち処理の状況を、
思考制御モジュール200に返すようになっている。
【0054】思考制御モジュール200と運動制御モジ
ュール300は、共通のプラットフォーム上で構築さ
れ、両者間はバス・インターフェース201及び301
を介して相互接続されている。
【0055】本実施形態に係る脚式移動ロボット100
は、充分高いインテリジェンスを備えてさまざまな自律
的駆動を体現するとともに、四肢を利用した優れた運動
能力を備えており、自律的な作用によって正確な外部環
境情報を取得することができる。
【0056】図5には、脚式移動ロボット100が自律
的な作用によって正確な外部環境情報を取得するための
機能構成を模式的に示している。
【0057】脚式移動ロボット100は、温度センサな
どの各センサからの入力信号や、マイクロフォンなどの
音声入力装置252からの音声入力信号、カメラなどの
画像入力装置251からの画像入力信号などを、外部環
境情報として入力する。これらセンサ入力信号、音声入
力信号、画像入力信号は、それぞれ特徴抽出部51〜5
3に入力され、信号処理に基づく特徴抽出を行う。
【0058】比較認識処理部54は、入力補助アルゴリ
ズム・データベース55、認識物データベース56、並
びに履歴データベース57を利用しながら、外部環境の
認識処理を行う。
【0059】入力補助アルゴリズム・データベース55
は、外部環境の認識に必要な情報に対応したアルゴリズ
ムを保管する。
【0060】認識物データベース56は、認識物に関す
る特徴を記述したデータを保管する。
【0061】履歴データベース57は、「外部環境を認
識できなかった」などのトラブルの事例と、各事例が発
生したときに実行した対応方法を保管する。
【0062】比較認識処理部54は、外部環境を正確に
認識できなかった場合には、行動・姿勢管理部58に対
して指令を発行して、四肢の動作により入力信号の改善
と外部環境の特定を試行する。
【0063】行動・姿勢管理部58は、比較認識処理部
54からの指令に基づいて、該当する動作を体現するた
めの動作データを動作データベース59から取り出し
て、実機動作処理部60に順次投入する。
【0064】動作データベース59には、各関節駆動な
ど脚式移動ロボット100の動作データ(アクション)
がデータベース管理されている。
【0065】実機動作処理部60は、動作データを発現
するための各関節アクチュエータの回転量や回転速度な
どを演算処理して、各関節アクチュエータの駆動制御部
に対して制御指令並びに制御パラメータを送出する。こ
の結果、脚式移動ロボット100の機体上では、入力信
号の改善を試みた四肢動作が実行される。
【0066】次いで、本実施形態に係る脚式移動ロボッ
ト100において、機体の一部又は全部の動作を利用し
て外部環境の認識精度を改善するための処理について説
明する。
【0067】図6〜図8には、脚式移動ロボット100
が機体の一部又は全部の動作を利用して外部環境の認識
精度を改善するための処理手順をフローチャートの形式
で示している。以下、これらのフローチャートに従って
機体の一部又は全部の動作を利用して対象物の認識精度
を改善する処理について説明する。
【0068】まず、ステップS1において、センサ入力
信号、音声入力信号、画像入力信号など、対象物を表す
各種の入力信号が通常値であるか否かを判別する。
【0069】各入力信号が通常値を示す場合には、対象
物を検知する外部環境情報を改善するための処理は不要
なので、後続の処理ステップをすべてスキップして、本
処理ルーチン全体を終了する。
【0070】他方、いずれかの入力信号が予想されたも
のとは異なる値であった場合には、該当する特徴抽出部
において特徴の抽出が可能であるか否かを判別する(ス
テップS2)。
【0071】特徴抽出が不可能であった場合には、図7
に示す、入力が適正に得られない場合の対応処理ルーチ
ンにジャンプするが、この点については後述に譲る。
【0072】特徴抽出が可能であった場合には、さら
に、認識物データベース56中の既知の情報と一致する
か否かを判別する(ステップS3)。
【0073】認識物データベース56中の既知の情報と
一致する場合には、該一致に至るまでに"未知の状況"を
経ていれば、これまでに試行した動作データを、トラブ
ルの事例と、各事例が発生したときに実行した対応方法
を保管する履歴データベース57に登録する(ステップ
S4)。そして、各入力信号によって捉えられた対象物
を"既知の対象物"として認識して(ステップS5)、本
処理ルーチン全体を終了する。
【0074】また、認識物データベース56中の既知の
情報と一致しない場合には、さらに部分的に一致するか
否かを判別する(ステップS6)。
【0075】部分的に一致する場合には、図8に示す、
初期の入力情報だけでは正確に認識できない場合の対応
処理ルーチンにジャンプするが、この点については後述
に譲る。
【0076】また、部分的にさえ一致しない場合には、
各入力信号によって捉えられた対象物を"未知の対象物"
として認識して(ステップS7)、本処理ルーチン全体
を終了する。
【0077】ステップS2において、各入力信号から特
徴抽出が不可能と判定された場合には、図7に示す、入
力が適正に得られていない場合の対応処理ルーチンにジ
ャンプする。
【0078】当該処理ルーチンでは、まず、認識処理を
開始してからの経過時間が制限時間を越えていないか否
かを判別する(ステップS11)。制限時間を既に徒過
している場合には、今回の認識対象を"認識不可能"と判
断して(ステップS12)、本処理ルーチン全体を終了
する。
【0079】認識処理が制限時間内である場合、履歴デ
ータベース57を探索して、今回の障害に一致するトラ
ブル事例があるか否かを判別する(ステップS13)。
【0080】一致するトラブル事例が発見された場合に
は、履歴データベース57からその対応方法を取り出し
て(ステップS14)、対応する動作バターン(モーシ
ョン)として選択する。
【0081】また、一致するトラブル事例を履歴データ
ベース57中から発見することができなかった場合に
は、"未知の状況"と認識する(ステップS15)。そし
て、履歴データベース57中から、他のトラブルで対応
方法に用いるモーションとして試していないものを試行
モーションとして選択する(ステップS16)。
【0082】次いで、ステップS14又はステップS1
6により選択されたモーションを、実機動作処理部60
に投入して、脚式移動ロボット100の機体上で再生す
る(ステップS17)。その後、ステップS1に復帰し
て、上述したように各入力信号から対象物の認識を試行
する。
【0083】ステップS6において、各入力信号による
特徴抽出結果からは、部分的にさえ一致する物体を認識
することができないと判定された場合には、図8に示
す、初期の入力情報だけでは正確に認識できない場合の
対応処理ルーチンにジャンプする。
【0084】当該処理ルーチンでは、まず、認識処理を
開始してからの経過時間が制限時間を越えていないか否
かを判別する(ステップS21)。制限時間を既に徒過
している場合には、現状の認識でよしと判断して、認識
を終了し、認識物データベース56内の類似する物体に
カテゴリに今回の認識対象を登録して(ステップS2
2)、本処理ルーチン全体を終了する。
【0085】認識処理が制限時間内である場合、認識物
データベース56を探索して、これまでの認識結果では
未だ不足している情報を特定する(ステップS23)。
【0086】次いで、入力補助アルゴリズム・データベ
ース55を探索して、不足している情報に対応する方法
を特定する(ステップS24)。
【0087】次いで、認識物データベース56を探索し
て、今回の認識対象が自律的な存在か否かを判別する
(ステップS25)。
【0088】認識対象が自律的な存在である場合には、
入力補助アルゴリズム・データベース55から取り出さ
れた情報を基に、音声出力、四肢の動作、発光部などの
作動により対象物に対してメッセージを送ってみる(ス
テップS26)。
【0089】また、認識対象が自律的な存在でない場合
には、ステップS24により特定された対応モーション
を選択し(ステップS27)、これを実機動作処理部6
0に投入して、脚式移動ロボット100の機体上で再生
する(ステップS28)。その後、ステップS1に復帰
して、上述したように各入力信号から対象物の認識を試
行する。
【0090】次いで、脚式移動ロボット100自律的な
作用により外部環境情報を取得する機能について、事例
に従って説明する。
【0091】(1)機体の構成部位の一部を用いて入力
値を変化させる(図9を参照のこと)直射日光を浴びる
炎天下など、極めて明るい作業環境下で、ロボット10
0はカメラなどの画像入力装置251から周囲の映像を
入力しているとする。
【0092】図9の左側に示すように、みかんのような
特定の対象物の画像を入力しても、明る過ぎるため、入
力画像にはっきりしないイメージを発見するにとどま
り、みかんを認識することができない。
【0093】太陽の直射日光のように光源が強過ぎる場
合、フィルタリングなどの信号処理だけでは入力画像中
のイメージを鮮明にすることができない。このような場
合、「入力画像が全体的に白い」という症状を基に、履
歴データベース57の中から対応方法を検索する。
【0094】データベース検索の結果、「腕部を用い
て、カメラに入る強い光を遮る」を選択して、図9の右
側に示すように機体上でこのモーションを実行する。
【0095】モーション実行の結果として、外部情報を
入力する環境が変化して、太陽の強い直射日光を遮るこ
とができ、物体を認識するために必要な画像入力を得る
ことができる。
【0096】そして、得られた画像から、認識対象とな
る物体が「みかん」であることを特定することができ
る。
【0097】(2)機体以外の物体の、構成部位の一部
を用いて外力を与えることで、入力値を変化させる(図
10を参照のこと)図10の左側に示すように、ロボッ
ト100が入力画像中に何かの物体のイメージを発見す
る。
【0098】このような場合、まず、入力画像から特徴
を抽出して、次いで、抽出された特徴を基に認識物デー
タベース56を検索する。
【0099】データベース検索の結果、入力画像中の物
体のイメージが「箱」グループに含まれることを認識す
る。
【0100】「箱」グループには、幾つかの異なる認識
対象が含まれ、「ラベル」や「重さ」などが相違する。
【0101】そこで、ロボットは、正確に「何の箱」で
あるかを特定するために、判断し易いラベルを調べるこ
とを選ぶ。そして、入力補助アルゴリズム・データベー
ス55の中から、「箱がわからないとき」の対処方法を
検索する。
【0102】データベース検索の結果、「箱の向きを変
えること」という対処方法を選択して、図10の中央に
示すように、そのモーションを脚式移動ロボット100
の機体上で実行する。
【0103】モーション実行の結果として、外部情報を
入力する環境が変化、すなわち箱の向きが変わり、ラベ
ルに印刷された「宝」という文字を画像入力し、特徴抽
出し、認識することができる。
【0104】そして、認識物データベース56の「箱」
グループを検索して、今回の認識対象が「宝物」である
ことを認識することができる。
【0105】(3)機体以外の自律的に行動可能なエン
ティティにメッセージを与えることで、エンティティの
行動を誘発して、入力値を変化させる(図11を参照の
こと)図11の左側に示すように、ロボット100が入
力画像中に何かの物体のイメージを発見する。
【0106】このような場合、まず、入力画像から特徴
を抽出して、次いで、抽出された特徴を基に認識物デー
タベース56を検索する。
【0107】データベース検索の結果、入力画像中の物
体のイメージが「人物」グループに含まれることを認識
する。
【0108】ロボット100が知っている「人物」は、
それぞれ「顔」や「声」などの身体的特徴が相違する。
言い換えれば、ロボット100は、正確に「誰」である
かを特定するために、「顔」や「声」に関するデータを
取得しなければならない。
【0109】そこで、ロボット100は、より結果が得
られ易くなるように、「顔」、「声」ともに満たす対処
方法を入力補助アルゴリズム・データベース55の中か
ら検索する。
【0110】データベース検索の結果、「声をかける」
という対処方法を選択して、図11の中央に示すよう
に、そのモーションを脚式移動ロボット100の機体上
で実行する。
【0111】「おーい」と声をかけることに誘発され
て、認識対象である人物がロボット100の方を向く。
そして、ロボット100は、その人物の「顔」の画像を
取得することができる。
【0112】そして、入力した「顔」の画像から特徴抽
出し、認識物データベース56と照合することにより、
その人物が「Aさん」であることを認識することができ
る。
【0113】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。
【0114】本発明の要旨は、必ずしも「ロボット」と
称される製品には限定されない。すなわち、電気的若し
くは磁気的な作用を用いて人間の動作に似せた運動を行
う機械装置であるならば、例えば玩具等のような他の産
業分野に属する製品であっても、同様に本発明を適用す
ることができる。
【0115】要するに、例示という形態で本発明を開示
してきたのであり、限定的に解釈されるべきではない。
本発明の要旨を判断するためには、冒頭に記載した特許
請求の範囲の欄を参酌すべきである。
【0116】
【発明の効果】以上詳記したように、本発明によれば、
画像入力装置、音声入出力装置、姿勢センサ、接触セン
サ、感圧センサなど外部環境の情報を入力して外的要因
に基づいて行動計画を立案して自律的に動作するタイプ
の、優れた脚式移動ロボットを提供することができる。
【0117】また、本発明によれば、自律的な作用によ
って正確な外部環境情報を取得することができる、優れ
た脚式移動ロボットを提供することができる。
【0118】本発明に係る脚式移動ロボットは、ロボッ
トは画像、音声、接触、感圧といった複数の入力装置を
備えている。頭部、腕部、下肢、体幹など、機体の構成
部位の一部又は全部の動作を用いて、視覚センサ、マイ
ク、スイッチ、感圧センサなどから入力される情報に対
して意図的に変化を生じさせることにより、行動決定に
用いるための外部要因が適切又は有利な形式で、能動的
に得られるようにすることができる。すなわち、自律型
ロボットの情報収集の自由度を大幅に拡張することがで
きる。この結果、対象物を認識する際に、より多くの情
報を獲得することができ、対象物を正確に把握すること
が可能となる。
【0119】また、本発明に係る脚式移動ロボットは、
機体以外の物体に対して、機体の一部又は全部を用いて
外力を印加することによって、認識対象となる物体から
得られる入力値に変化を与えることができる。
【0120】また、本発明に係る脚式移動ロボットは、
機体以外の、自律的な行動を行う存在(人間、動物、他
の自律型ロボットなど)に対して、音声や動作の発現な
どによりメッセージを与えることにより、その行動の変
化を促して、認識対象から得られる入力値に変化を生じ
させることができる。
【0121】したがって、本発明に係る脚式移動ロボッ
トによれば、例えば、「眩しいときに、手をかざして物
体を認識する」、「後向きの人物の額を確認したいとき
に、声をかけて振り向かせる」といったしぐさを発現し
て、各センサがより正確な情報を入力できるような状況
に誘導することができる。
【図面の簡単な説明】
【図1】本発明の実施に供される脚式移動ロボット10
0を前方から眺望した様子を示た図である。
【図2】本発明の実施に供される脚式移動ロボット10
0を後方から眺望した様子を示た図である。
【図3】本実施例に係る脚式移動ロボット100が具備
する自由度構成モデルを模式的に示した図である。
【図4】本実施例に係る脚式移動ロボット100の制御
システム構成を模式的に示した図である。
【図5】脚式移動ロボット100が自律的な作用によっ
て正確な外部環境情報を取得するための機能構成を模式
的に示した図である。
【図6】脚式移動ロボット100が機体の一部又は全部
の動作を利用して外部環境の認識精度を改善するための
処理手順を示したフローチャートである。
【図7】脚式移動ロボット100が機体の一部又は全部
の動作を利用して外部環境の認識精度を改善するための
処理手順を示したフローチャートであり、より具体的に
は、入力が適正に得られない場合の対応処理ルーチンを
示した図である。
【図8】脚式移動ロボット100が機体の一部又は全部
の動作を利用して外部環境の認識精度を改善するための
処理手順を示したフローチャートであり、より具体的に
は、初期の入力情報だけでは正確に認識できない場合の
対応処理ルーチンを示した図である。
【図9】本実施形態に係る脚式移動ロボット100が機
体の構成部位の一部を用いて入力値を変化させる様子を
描写した図である。
【図10】本実施形態に係る脚式移動ロボット100が
機体以外の物体の、構成部位の一部を用いて外力を与え
ることで、入力値を変化させる様子を描写した図であ
る。
【図11】本実施形態に係る脚式移動ロボット100が
機体以外の自律的に行動可能なエンティティにメッセー
ジを与えることで、エンティティの行動を誘発して、入
力値を変化させる様子を描写した図である。
【符号の説明】
1…頭部,2…首関節ヨー軸 3…首関節ピッチ軸,4…首関節ロール軸 5…体幹ピッチ軸,6…体幹ロール軸 7…体幹ヨー軸,8…肩関節ピッチ軸 9…肩関節ロール軸,10…上腕ヨー軸 11…肘関節ピッチ軸,12…前腕ヨー軸 13…手首関節ピッチ軸,14…手首関節ロール軸 15…手部,16…股関節ヨー軸 17…股関節ピッチ軸,18…股関節ロール軸 19…膝関節ピッチ軸,20…足首関節ピッチ軸 21…足首関節ロール軸,22…足部(足底) 51,52,53…特徴抽出部 54…比較認識処理部 55…入力補助アルゴリズム・データベース 56…認識物データベース,57…履歴データベース 58…行動・姿勢管理部,59…動作データベース 60…実機動作処理部 100…脚式移動ロボット 200…思考制御モジュール 201…バス・インターフェース 211…CPU,212…RAM,213…ROM 214…外部記憶装置 251…画像入力装置(CCDカメラ) 252…音声入力装置(マイク) 253…音声出力装置(スピーカ) 254…通信インターフェース 300…運動制御モジュール 301…バス・インターフェース 311…CPU,312…RAM,313…ROM 314…外部記憶装置, 351…姿勢センサ 352,353…接地確認センサ 354…電源制御装置

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】複数の関節アクチュエータで構成され、外
    部環境を検出する1以上の検出部から入力されたデータ
    に基づいて自律的に動作するタイプの脚式移動ロボット
    の制御装置であって、 前記検出部における入力データが外部環境を認識するた
    めに充分な値か否かを判別する判別手段と、 前記判別手段における判別結果が否定的であることに応
    答して、前記関節アクチュエータを駆動させることによ
    り前記検出部における入力データの変化を試みる行動・
    姿勢管理手段と、を具備することを特徴とする脚式移動
    ロボットの制御装置。
  2. 【請求項2】前記検出部は、画像センサ、音声センサ、
    温度センサ、感圧センサ、姿勢センサ、接触センサのう
    ち少なくとも1つを含む、ことを特徴とする請求項1に
    記載の脚式移動ロボットの制御装置。
  3. 【請求項3】前記判別手段において肯定的な判別結果が
    得られたときの前記検出部における入力データを基に外
    部環境を認識して行動を立案する行動計画手段をさらに
    備えることを特徴とする請求項1に記載の脚式移動ロボ
    ットの制御装置。
  4. 【請求項4】認識物に関する特徴を記述したデータを保
    管する認識物データベースをさらに備え、 前記判別手段は、該認識物データベースを参照して前記
    検出部における入力データが適切か否かを判別する、こ
    とを特徴とする請求項1に記載の脚式移動ロボットの制
    御装置。
  5. 【請求項5】外部環境の認識に必要な情報に対応したア
    ルゴリズムを保管する入力補助データベースをさらに備
    え、 前記検出部の入力データから特徴を抽出できるが対象物
    を特定できないときに、前記行動・姿勢管理手段は、該
    入力補助データベースを参照して前記検出部における入
    力データを改善するための対応方法を特定する、ことを
    特徴とする請求項1に記載の脚式移動ロボットの制御装
    置。
  6. 【請求項6】外部環境を認識できなかったトラブルの事
    例と、各事例が発生したときに実行した対応方法を保管
    する履歴データベースをさらに備え、 前記検出部の入力データから特徴を抽出できないとき
    に、前記行動・姿勢管理手段は、該履歴データベースを
    参照して前記検出部における入力データを改善するため
    の対応方法を特定する、ことを特徴とする請求項1に記
    載の脚式移動ロボットの制御装置。
  7. 【請求項7】前記判別手段は、前記検出部による入力デ
    ータに含まれる認識対象が自律的なエンティティか否か
    を判別し、 自律的なエンティティであると判別された場合、前記行
    動・姿勢管理手段は、該エンティティに対して前記検出
    部の入力データの改善するための動作を促すメッセージ
    を送る、ことを特徴とする請求項1に記載の脚式移動ロ
    ボットの制御装置。
  8. 【請求項8】複数の関節アクチュエータで構成され、外
    部環境を検出する1以上の検出部から入力されたデータ
    に基づいて自律的に動作するタイプの脚式移動ロボット
    の制御方法であって、 前記検出部における入力データが外部環境を認識するた
    めに充分な値か否かを判別する判別ステップと、 前記判別ステップにおける判別結果が否定的であること
    に応答して、前記関節アクチュエータを駆動させること
    により前記検出部における入力データの変化を試みる行
    動・姿勢管理ステップと、を具備することを特徴とする
    脚式移動ロボットの制御方法。
  9. 【請求項9】前記検出部は、画像センサ、音声センサ、
    温度センサ、感圧センサ、姿勢センサ、接触センサのう
    ち少なくとも1つを含む、ことを特徴とする請求項8に
    記載の脚式移動ロボットの制御方法。
  10. 【請求項10】前記判別ステップにおいて肯定的な判別
    結果が得られたときの前記検出部における入力データを
    基に外部環境を認識して行動を立案する行動計画ステッ
    プをさらに備えることを特徴とする請求項8に記載の脚
    式移動ロボットの制御方法。
  11. 【請求項11】認識物に関する特徴を記述したデータを
    保管する認識物データベースをさらに備え、 前記判別ステップでは、該認識物データベースを参照し
    て前記検出部における入力データが適切か否かを判別す
    る、ことを特徴とする請求項8に記載の脚式移動ロボッ
    トの制御方法。
  12. 【請求項12】外部環境の認識に必要な情報に対応した
    アルゴリズムを保管する入力補助データベースをさらに
    備え、 前記検出部の入力データから特徴を抽出できるが対象物
    を特定できないときに、前記行動・姿勢管理ステップで
    は、該入力補助データベースを参照して前記検出部にお
    ける入力データを改善するための対応方法を特定する、
    ことを特徴とする請求項8に記載の脚式移動ロボットの
    制御方法。
  13. 【請求項13】外部環境を認識できなかったトラブルの
    事例と、各事例が発生したときに実行した対応方法を保
    管する履歴データベースをさらに備え、 前記検出部の入力データから特徴を抽出できないとき
    に、前記行動・姿勢管理ステップでは、該履歴データベ
    ースを参照して前記検出部における入力データを改善す
    るための対応方法を特定する、ことを特徴とする請求項
    8に記載の脚式移動ロボットの制御方法。
  14. 【請求項14】前記判別ステップでは、前記検出部によ
    る入力データに含まれる認識対象が自律的なエンティテ
    ィか否かを判別し、 自律的なエンティティであると判別された場合、前記行
    動・姿勢管理ステップでは、該エンティティに対して前
    記検出部の入力データの改善するための動作を促すメッ
    セージを送る、ことを特徴とする請求項8に記載の脚式
    移動ロボットの制御方法。
JP2001000395A 2001-01-05 2001-01-05 脚式移動ロボットの制御装置及び制御方法 Pending JP2002205290A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001000395A JP2002205290A (ja) 2001-01-05 2001-01-05 脚式移動ロボットの制御装置及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001000395A JP2002205290A (ja) 2001-01-05 2001-01-05 脚式移動ロボットの制御装置及び制御方法

Publications (1)

Publication Number Publication Date
JP2002205290A true JP2002205290A (ja) 2002-07-23

Family

ID=18869190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001000395A Pending JP2002205290A (ja) 2001-01-05 2001-01-05 脚式移動ロボットの制御装置及び制御方法

Country Status (1)

Country Link
JP (1) JP2002205290A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009056528A (ja) * 2007-08-30 2009-03-19 Honda Motor Co Ltd 脚式移動ロボット
US7551980B2 (en) 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
US8026955B2 (en) 2007-08-30 2011-09-27 Honda Motor Co., Ltd. Camera exposure controller including imaging devices for capturing an image using stereo-imaging
CN110254554A (zh) * 2019-06-24 2019-09-20 重庆大学 一种老年人关怀机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2000263482A (ja) * 1999-03-17 2000-09-26 Denso Corp ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2000263482A (ja) * 1999-03-17 2000-09-26 Denso Corp ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7551980B2 (en) 2003-04-01 2009-06-23 Honda Motor Co., Ltd. Apparatus, process, and program for controlling movable robot control
JP2009056528A (ja) * 2007-08-30 2009-03-19 Honda Motor Co Ltd 脚式移動ロボット
US8026955B2 (en) 2007-08-30 2011-09-27 Honda Motor Co., Ltd. Camera exposure controller including imaging devices for capturing an image using stereo-imaging
CN110254554A (zh) * 2019-06-24 2019-09-20 重庆大学 一种老年人关怀机器人

Similar Documents

Publication Publication Date Title
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
KR100898435B1 (ko) 로봇 장치 및 그 제어 방법
JP3714268B2 (ja) ロボット装置
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP2001277163A (ja) ロボットの制御装置及び制御方法
JP2001150374A (ja) ロボットの故障診断システム
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP2001322079A (ja) 脚式移動ロボット及びその動作教示方法
JP2004298977A (ja) 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
JP2001179663A (ja) 脚式移動ロボット及び脚式移動ロボットの制御方法、並びに充電ステーション
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP2002144260A (ja) 脚式移動ロボット及びその制御方法
Han et al. Dav: A humanoid robot platform for autonomous mental development
JP4281286B2 (ja) ロボット装置及びその制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP4506249B2 (ja) ロボット装置及びその動作比較方法
Bischoff System reliability and safety concepts of the humanoid service robot hermes
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP2002144261A (ja) 脚式移動ロボット及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705