JP2006082150A - ロボット装置及びその行動制御方法 - Google Patents

ロボット装置及びその行動制御方法 Download PDF

Info

Publication number
JP2006082150A
JP2006082150A JP2004267401A JP2004267401A JP2006082150A JP 2006082150 A JP2006082150 A JP 2006082150A JP 2004267401 A JP2004267401 A JP 2004267401A JP 2004267401 A JP2004267401 A JP 2004267401A JP 2006082150 A JP2006082150 A JP 2006082150A
Authority
JP
Japan
Prior art keywords
action
subject
information
motion
robot apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004267401A
Other languages
English (en)
Other versions
JP4086024B2 (ja
Inventor
Fumihide Tanaka
文英 田中
Hiroaki Ogawa
浩明 小川
Hirotaka Suzuki
洋貴 鈴木
Osamu Hanagata
理 花形
Tsutomu Sawada
務 澤田
Masato Ito
真人 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004267401A priority Critical patent/JP4086024B2/ja
Priority to US11/224,154 priority patent/US8315454B2/en
Priority to EP05255571A priority patent/EP1653397A3/en
Priority to CNB2005100995241A priority patent/CN100351054C/zh
Publication of JP2006082150A publication Critical patent/JP2006082150A/ja
Application granted granted Critical
Publication of JP4086024B2 publication Critical patent/JP4086024B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

【課題】状況に応じて適切な動作を発現することができるロボット装置及びその行動制御方法を提供する。
【解決手段】CCDカメラ41及びマイクロホン42のセンサを用いて人物認識器44により動作主体を認識すると共に状況認識器43により状況を認識し、見まねを通じて動作獲得器45により獲得した動作を動作主体及び状況と結び付けて記憶装置46に記憶する。そして、動作発現装置47は、記憶装置46から動作主体及び状況に応じた動作を出力し、アクチュエータ48を制御する。
【選択図】図4

Description

本発明は、例えば人間の動作を見まねを通じて獲得し、その動作を発現するロボット装置及びその行動制御方法に関する。
従来、ロボット装置は、センサ入力を用いた認識技術により動作主体の動作を見まねることができる。このような見まね動作等のいわゆる模倣動作は、動作獲得やコミュニケーションの基本であるとの考察から、ロボット装置と動作主体(人間)との間の円滑なコミュニケーションやインタラクションの実現のために、ロボット装置に動作主体の動作の模倣能力を与えようとする研究がなされている(非特許文献1〜3参照)。
これらの技術を使えば、ロボット装置は見まねを通じて動作を自分の動作に置き換えて保存することができ、それにIDを付与して管理すればいつでも該当する動作を出力することが可能となる。
Christopher Lee, Yangsheng Xu, 徹nline, Interactive Learning of Gestures for Human/Robot Interfaces 1996 IEEE International Conference on Robotics and Automation, Vol.4, pp.2982-2987 Gordon Cheng, Akihiko Nagakubo and Yasuo Kuniyoshi, 鼎ontinuous Humanoid Interaction: An Integrated Perspective Gaining Adaptivity, Redundancy, Flexibility- In One Robotics and Autonomous Systems Vol.37, No.2-3, pp.161-183, November 2001 稲邑哲也,戸嶋巌樹,中村仁彦、「ミメシスに基づくヒューマノイドの行動獲得と原始シンボルの創発」、第16回人工知能学会全国大会(発表論文番号1D1‐02)、2002
しかしながら、このようにして獲得した動作をいつどのような状況で発現するかについては提案されていない。
本発明は、このような従来の実情に鑑みて提案されたものであり、状況に応じて適切な動作を発現することができるロボット装置及びその行動制御方法を提供することを目的とする。
そこで、上述した目的を達成するために、本発明に係るロボット装置は、自身の外部及び/又は内部の情報を取得する情報取得手段と、上記自身の外部の情報を用いて動作主体を識別する動作主体識別手段と、上記自身の外部及び/又は内部の情報を用いて自身の外部及び/又は内部の状況を認識する状況認識手段と、上記自身の外部の情報を用いて上記動作主体の動作を獲得する動作獲得手段と、上記動作主体の動作を、当該動作を獲得した際の上記自身の外部及び/又は内部の状況と上記動作主体の識別情報とに結び付けて記憶する記憶手段と、自身の動作を発現する動作発現手段とを有し、上記動作発現手段は、上記動作主体識別手段によって動作主体が識別された場合、当該動作主体の識別情報と自身の外部及び/又は内部の状況とに応じて上記記憶手段に記憶された動作を発現することを特徴としている。
また、本発明に係るロボット装置の行動制御方法は、自身の外部及び/又は内部の情報を取得する情報取得工程と、上記自身の外部の情報を用いて動作主体を識別する動作主体識別工程と、上記自身の外部及び/又は内部の情報を用いて自身の外部及び/又は内部の状況を認識する状況認識工程と、上記自身の外部の情報を用いて上記動作主体の動作を獲得する動作獲得工程と、上記動作主体の動作を、当該動作を獲得した際の上記自身の外部及び/又は内部の状況と上記動作主体の識別情報とに結び付けて記憶手段に記憶する記憶工程と、動作主体が識別された場合、当該動作主体の識別情報と自身の外部及び/又は内部の状況とに応じて上記記憶手段に記憶された動作を発現する動作発現工程とを有することを特徴としている。
本発明に係るロボット装置及びその行動制御方法によれば、動作主体と、ロボット装置の外部及び/又は内部の状況と、動作主体の動作とを結び付けて記憶することにより、ロボット装置が動作主体を識別し、記憶された状況と同様な状況に面した際に、その動作主体の動作を発現することができる。これにより、動作主体とロボット装置との間の親近感を増大させることができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、見まねを通じて動作主体の動作を獲得し、行動に反映させる2足歩行タイプのロボット装置に適用したものである。このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、人間が行う基本的な動作を表出できるエンターテインメントロボットでもある。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置の行動制御方法について詳細に説明する。
(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などにしたがって、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンにしたがって、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定すると共に、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出すると共に、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
(2)ロボット装置の行動制御方法
次に、ロボット装置1の行動制御方法について説明する。図4はロボット装置1が有する行動制御システム40の構成を示すブロック図である。行動制御システム40は、図3に示す画像入力装置251に相当するCCDカメラ41と、音声入力装置252に相当するマイクロホン42と、状況を認識する状況認識器43と、動作主体を認識する人物認識器44と、見まねを通じて動作を獲得する動作獲得器45と、獲得した動作データと動作主体の識別情報と状況データとを結び付けて記憶する記憶装置46と、動作主体の識別情報と状況データに応じて記憶装置46に記憶された動作を発現する動作発現装置47と、動作発現装置47により制御されるアクチュエータ48とを有して構成されている。
状況認識器43は、例えばCCDカメラ41やマイクロホン42などのセンサにより、ロボット装置1を含む状況を認識し、状況データを出力する。この状況データは、机、椅子などの物体の識別情報、ロボット装置1周辺の画像情報及び音声情報だけでなく、ロボット装置1のバッテリ残量や関節角集合ベクトルなどの情報も含むものである。
人物認識器44は、例えばCCDカメラ41やマイクロホン42などのセンサを用い、顔認識や音声認識により動作主体を識別し、人物IDを付与する。
動作獲得器45は、見まねを通じて人物認識器44で識別された動作主体の動作をロボット装置1自身の動作として再構成する。動作獲得器44は、上記非特許文献1〜3などに記載されたような方法で獲得した動作を自らの動作にマッピングし、各動作データに動作IDを割り当てる。動作IDが付与された動作データは、記憶装置46に出力される。
記憶装置46は、動作獲得器45から出力された動作データを、その動作を獲得した際の状況データ及び動作主体の人物IDに結び付けて記憶する。この動作データは、例えば動作IDと人物IDと状況データとの対応関係を保持したルールベースにより結び付けられて記憶されている。
動作発現装置47は、状況認識器43から出力された状況データ及び人物認識器44から出力された人物IDに応じて該当する動作IDを記憶装置46から読み出し、該当する動作IDが付与された動作データに基づいてアクチュエータ48を制御する。
次に、このような行動制御システム40を有するロボット装置1の行動制御について、図5及び図6に示すフローチャートを用いて説明する。図5は行動制御システム40の記憶動作を示すフローチャートであり、図6は行動制御システム40の行動発現動作を示すフローチャートである。
先ず、行動制御システム40の記憶動作について説明する。例えば動作主体がロボット装置1のCCDカメラ41の前で動作を行うと、ロボット装置1は人物認識器44で動作主体を特定すると共に、その動作を行った状況を状況認識器43で認識する(ステップS51)。状況認識器43は、CCDカメラ41やマイクロホン42などにより、例えば動作を行った状況における物体などを認識する。
また、動作主体が動作を行った状況を認識すると共に動作獲得器45により動作主体の動作を見まねを通じて獲得する(ステップS52)。動作主体の動作は、例えば動作主体がCCDカメラ41で撮像された画像に存在する間記録される。また、動作の切り出しの開始点と終端点は、動作主体又はオペレータが指示することもできる。例えば、動作主体が声で動作の切りだしの開始点及び終端点を指示することにより、動作獲得器45は動作主体の動作を獲得する。又は、オペレータが動作の切り出しを指示することにより動作を獲得する。また、例えば、動作主体の手足の動きを判別し、その動きの加速度の絶対値がある閾値を超えた場合を始点又は終点としてもよい。
動作を行った動作主体がCCDカメラ41で撮像された画像に存在しなくなると、記憶装置46は、動作獲得器45から出力された動作主体の動作データを、例えば、その動作中の任意時点の状況データと動作主体の人物IDとに結び付けて記憶する(ステップS53)。
例えば、嫌いなものを見ると右手を顔の前で左右に振る癖のあるAさんが、苦手な食べ物のピーマンを目にして、右手を顔前で振る場面では、人物認識器44によりAさんの顔画像や発話音声に基づいてAさんの人物IDを生成するとともに、状況認識器43によりピーマンの物体IDを予め記憶された画像に基づいて生成する。また、動作獲得器45により右手を顔前で左右に振る動作を獲得して動作IDを生成し、Aさんの人物IDと状況データであるピーマンの物体IDと動作IDとを単純に結び付けて記憶する。
次に、行動制御システム40の行動発現動作について説明する。例えば動作主体がロボット装置1のCCDカメラ41で撮像された画像に現れると、ロボット装置1は人物認識器44で動作主体を特定すると共に、現在の状況を状況認識器43で認識する(ステップS61)。状況認識器43は、CCDカメラ41やマイクロホン42などにより、例えば動作主体の周囲の物体などを認識する。
動作発現装置47は、状況認識器43及び人物識別器44から出力された状況データ及び人物IDに応じて、上述した記憶動作により記憶された動作を検索する(ステップS62)。ここで、動作の検索は、例えば動作を行った動作主体の人物IDや動作中の任意の時点の状況データなどに基づいて行われる。
ステップ63において、検索の結果、例えば記憶装置46に状況データ及び人物IDに対応する動作IDがない場合、ステップS61に戻り現在の状況を認識する。検索の結果、例えば記憶装置46のルールベースに状況データ及び人物IDに対応する動作IDがある場合、その動作IDを出力する(ステップS64)。そして、動作発現装置47は、その動作IDに該当する動作データに基づいてアクチュエータ48を制御し、ロボット装置1に動作を発現させる。
例えば、上述したように嫌いなものを見ると右手を顔の前で左右に振る癖のあるAさんが、苦手な食べ物のピーマンを目にした場面では、状況認識器43及び人物識別器44により、ピーマンの物体ID及びAさんの人物IDが動作発現装置47へ出力される。動作発現装置47は、ピーマンの物体ID及びAさんの人物IDと単純に結び付けられた右手を顔前で左右に振る動作の動作IDを出力し、当該動作IDの動作データを記憶装置46から取得する。
このように、本発明に係るロボット装置及びその行動制御方法によれば、例えば動作主体の動作とその動作を行った状況とを結び付けて記憶することにより、ロボット装置1が同様な状況に面した際に、動作主体の動作を模倣することができる。また、ロボット装置1は、動作主体の動作とその動作を行った状況とを結び付けて記憶することにより、動作主体が持つ癖を発現すること可能となるので、動作主体とロボット装置1との間の親密性が深まる。
なお、本実施の形態では、状況データとして物体ID等の外部情報を用いて説明したが、ロボット装置1のバッテリ残量や関節角集合ベクトルなどの内部状態を用いてもよい。これにより、ロボット装置1はより複雑な挙動を見せることができる。
また、状況データとして背景などの生画像データを用いてもよい。この場合、画像の色ヒストグラムを計算し、その各成分毎の値を集めてベクトルとする。
また、記憶装置46のルールベースは、更新されるようにしてもよい。例えば、人物IDなどの識別子以外のデータ値は毎回異なるので、更新の度に平均値を算出するようにしてもよい。
また、動作IDを出力する際に、厳密にすべての人物IDや各々データ値が一致しなくても、例えば全要素値からなるベクトルを考えて、記憶装置中のベクトルと現時点のベクトルとの間でハミング距離を計算し、その距離に応じて動作の出力確率を変化させるようにしてもよい。
また、記憶装置46に蓄積された状況データ及び動作データから一般的なルールを抽出するようにしてもよい。例えば、Aさん、Bさん及びCさんのすべてがピーマンを目の前にすると、右手を顔の前で左右に振る動作をする場合、動作主体に関係なく、ピーマンを見ると右手を顔の前で左右に振るように汎化してもよい。
また、本実施の形態では、動作IDと状況データとの対応関係を保持したルールベースを用いて説明したが、例えば動作IDと状況データとをニューラルネットワークにより結び付けて記憶するようにしてもよい。例えば、階層型ニューラルネットワークにおいて、入力層に人物IDや状況データを入力し、出力層からは動作IDが出力されるようにしてもよい。
また、本実施の形態では、動作獲得器45により獲得した動作主体の動作を発現することとしたが、例えば、犬や猫などの動物や他のロボット装置の動作を獲得し、発現することも可能である。
本実施の形態におけるロボット装置の外観を示す斜視図である。 同ロボット装置の機能構成を模式的に示すブロック図である。 同ロボット装置の制御ユニットの構成を詳細に示すブロック図である。 同ロボット装置が有する行動制御システムの構成を示すブロック図である。 行動制御システムの記憶動作を説明するフローチャートである。 行動制御システムの行動発現動作を説明するフローチャートである。
符号の説明
40 行動制御システム、 41 CCDカメラ、 42 マイクロホン、 43 状況認識器、 44 人物認識器、 45 動作獲得器、 46 記憶装置、 47 動作発現装置、 48 アクチュエータ

Claims (8)

  1. 自身の外部及び/又は内部の情報を取得する情報取得手段と、
    上記自身の外部の情報を用いて動作主体を識別する動作主体識別手段と、
    上記自身の外部及び/又は内部の情報を用いて自身の外部及び/又は内部の状況を認識する状況認識手段と、
    上記自身の外部の情報を用いて上記動作主体の動作を獲得する動作獲得手段と、
    上記動作主体の動作を、当該動作を獲得した際の上記自身の外部及び/又は内部の状況と上記動作主体の識別情報とに結び付けて記憶する記憶手段と、
    自身の動作を発現する動作発現手段とを有し、
    上記動作発現手段は、上記動作主体識別手段によって動作主体が識別された場合、当該動作主体の識別情報と自身の外部及び/又は内部の状況とに応じて上記記憶手段に記憶された動作を発現することを特徴とするロボット装置。
  2. 上記情報取得手段は、画像を撮像する撮像手段と、音を集音する集音手段とを有することを特徴とする請求項1記載のロボット装置。
  3. 上記動作獲得手段は、上記情報取得手段によって取得された画像に上記動作主体が含まれる間又は音声により指示された間、動作を獲得することを特徴とする請求項2記載のロボット装置。
  4. 上記記憶手段は、上記動作主体の動作中の任意時点における自身の外部及び/又は内部の状況を記録することを特徴とする請求項1記載のロボット装置。
  5. 自身の外部及び/又は内部の情報を取得する情報取得工程と、
    上記自身の外部の情報を用いて動作主体を識別する動作主体識別工程と、
    上記自身の外部及び/又は内部の情報を用いて自身の外部及び/又は内部の状況を認識する状況認識工程と、
    上記自身の外部の情報を用いて上記動作主体の動作を獲得する動作獲得工程と、
    上記動作主体の動作を、当該動作を獲得した際の上記自身の外部及び/又は内部の状況と上記動作主体の識別情報とに結び付けて記憶手段に記憶する記憶工程と、
    動作主体が識別された場合、当該動作主体の識別情報と自身の外部及び/又は内部の状況とに応じて上記記憶手段に記憶された動作を発現する動作発現工程と
    を有することを特徴とするロボット装置の行動制御方法。
  6. 上記情報取得工程では、画像を撮像する撮像工程と、音を集音する集音工程とを有することを特徴とする請求項5記載のロボット装置の行動制御方法。
  7. 上記動作獲得工程では、上記情報取得手段によって取得された画像に上記動作主体が含まれる間又は音声により指示された間、動作を獲得することを特徴とする請求項6記載のロボット装置の行動制御方法。
  8. 上記記憶工程では、上記動作主体の動作中の任意時点における自身の外部及び/又は内部の状況を上記記憶手段に記録することを特徴とする請求項5記載のロボット装置の行動制御方法。
JP2004267401A 2004-09-14 2004-09-14 ロボット装置及びその行動制御方法 Expired - Fee Related JP4086024B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004267401A JP4086024B2 (ja) 2004-09-14 2004-09-14 ロボット装置及びその行動制御方法
US11/224,154 US8315454B2 (en) 2004-09-14 2005-09-12 Robot apparatus and method of controlling the behavior thereof
EP05255571A EP1653397A3 (en) 2004-09-14 2005-09-12 Robot apparatus and method of controlling the behavior thereof
CNB2005100995241A CN100351054C (zh) 2004-09-14 2005-09-13 机器人设备和控制其行为的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004267401A JP4086024B2 (ja) 2004-09-14 2004-09-14 ロボット装置及びその行動制御方法

Publications (2)

Publication Number Publication Date
JP2006082150A true JP2006082150A (ja) 2006-03-30
JP4086024B2 JP4086024B2 (ja) 2008-05-14

Family

ID=35431135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004267401A Expired - Fee Related JP4086024B2 (ja) 2004-09-14 2004-09-14 ロボット装置及びその行動制御方法

Country Status (4)

Country Link
US (1) US8315454B2 (ja)
EP (1) EP1653397A3 (ja)
JP (1) JP4086024B2 (ja)
CN (1) CN100351054C (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121264A (ja) * 2004-10-20 2006-05-11 Fuji Xerox Co Ltd 動画像処理装置、動画像処理方法およびプログラム
JP2008080431A (ja) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International ロボットシステム
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
CN105182757A (zh) * 2015-06-05 2015-12-23 普天智能照明研究院有限公司 一种移动式智能管家机器人控制方法
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦系统 机器人管理系统
JP2020534567A (ja) * 2017-09-20 2020-11-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ロボット対話方法およびデバイス
WO2021112401A1 (en) * 2019-12-03 2021-06-10 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5148619B2 (ja) * 2006-10-18 2013-02-20 ユタカ・ジェイ・カナヤマ 移動ロボットによる地図作成方法
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
TW200915896A (en) * 2007-06-14 2009-04-01 Sharp Kk Image data receiving device, operation device, operation system, data structure of image data, control method, operation method, and storage medium
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
JP4386954B2 (ja) * 2008-05-29 2009-12-16 シャープ株式会社 データ処理装置、データ処理システム、データ処理装置の制御方法、制御プログラム、および該プログラムを記録したコンピュータ読み取り可能な記録媒体
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
CN102147985A (zh) * 2010-02-09 2011-08-10 鑫承科技股份有限公司 自动闪卡机器人及闪卡教学方法
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR101429962B1 (ko) * 2010-11-22 2014-08-14 한국전자통신연구원 기억 회상용 데이터 처리 시스템 및 그 방법
US9079113B2 (en) * 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
US9868211B2 (en) 2015-04-09 2018-01-16 Irobot Corporation Restricting movement of a mobile robot
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
CN105752195B (zh) * 2016-03-31 2018-09-21 重庆交通大学 桥梁检测用机器人
JP6660242B2 (ja) * 2016-04-25 2020-03-11 本田技研工業株式会社 ロボットの制御信号を伝送するための光ファイバ配線構造
TW201805598A (zh) * 2016-08-04 2018-02-16 鴻海精密工業股份有限公司 自主移動設備及建立導航路徑的方法
CN106625670B (zh) * 2016-12-26 2019-05-24 迈赫机器人自动化股份有限公司 一种多功能人机交互仿人教育机器人的控制系统和方法
CN108127664A (zh) * 2017-12-27 2018-06-08 重庆柚瓣家科技有限公司 互动型游戏npc机器人
JP7205148B2 (ja) * 2018-10-04 2023-01-17 カシオ計算機株式会社 ロボット、制御方法、及び、プログラム
WO2019226033A2 (ko) * 2019-08-28 2019-11-28 엘지전자 주식회사 모방대상체의 모방 학습을 통해 자율주행이 가능한 로봇 및 로봇의 자율주행 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP2001105363A (ja) * 1999-08-04 2001-04-17 Yamaha Motor Co Ltd ロボットにおける自律的行動表現システム
US6347261B1 (en) 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP2001246580A (ja) 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2002160185A (ja) * 2000-03-31 2002-06-04 Sony Corp ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
EP1299165B1 (en) * 2000-07-01 2009-12-09 Smirnov, Alexander V. Interacting toys
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
EP1262844A1 (en) 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
JP2003039362A (ja) 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd ペット型ロボット
US7278501B2 (en) * 2001-08-01 2007-10-09 Sony Corporation Legged walking robot and motion control method therefor
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
AU2003234995A1 (en) * 2002-04-25 2003-11-10 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004066367A (ja) 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JP2004090109A (ja) 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
KR100485696B1 (ko) * 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
JP2005078376A (ja) * 2003-08-29 2005-03-24 Sony Corp 対象物検出装置、対象物方法、及びロボット装置
JP2005103679A (ja) 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121264A (ja) * 2004-10-20 2006-05-11 Fuji Xerox Co Ltd 動画像処理装置、動画像処理方法およびプログラム
JP4649944B2 (ja) * 2004-10-20 2011-03-16 富士ゼロックス株式会社 動画像処理装置、動画像処理方法およびプログラム
JP2008080431A (ja) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International ロボットシステム
JP2011067941A (ja) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc 人間型ロボットのための視覚認知システムおよび方法
CN105182757A (zh) * 2015-06-05 2015-12-23 普天智能照明研究院有限公司 一种移动式智能管家机器人控制方法
CN105182757B (zh) * 2015-06-05 2019-03-05 普天智能照明研究院有限公司 一种移动式智能管家机器人控制方法
JP2020534567A (ja) * 2017-09-20 2020-11-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited ロボット対話方法およびデバイス
JP7260221B2 (ja) 2017-09-20 2023-04-18 アリババ・グループ・ホールディング・リミテッド ロボット対話方法およびデバイス
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦系统 机器人管理系统
CN109709947B (zh) * 2017-10-26 2021-11-16 株式会社日立大厦系统 机器人管理系统
WO2021112401A1 (en) * 2019-12-03 2021-06-10 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Also Published As

Publication number Publication date
EP1653397A3 (en) 2009-02-11
US20060056678A1 (en) 2006-03-16
US8315454B2 (en) 2012-11-20
JP4086024B2 (ja) 2008-05-14
EP1653397A2 (en) 2006-05-03
CN1748958A (zh) 2006-03-22
CN100351054C (zh) 2007-11-28

Similar Documents

Publication Publication Date Title
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
JP3714268B2 (ja) ロボット装置
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP4396273B2 (ja) ロボット装置及びその制御方法
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US7689322B2 (en) Robot apparatus and method of controlling the motion thereof
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
Fitzpatrick et al. Humanoids
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP4649913B2 (ja) ロボット装置及びロボット装置の移動制御方法
JP2002307350A (ja) ロボット装置、ロボット装置の動作制御方法、ロボット装置の制御システム、プログラム及び記録媒体
JP4281286B2 (ja) ロボット装置及びその制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP4635486B2 (ja) 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法
JP2005297095A (ja) ロボット装置及びその動作比較方法
JP4552490B2 (ja) ロボット装置及びその情動制御方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4086024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees