JP2006123127A - ロボット装置及びその動作制御方法 - Google Patents

ロボット装置及びその動作制御方法 Download PDF

Info

Publication number
JP2006123127A
JP2006123127A JP2004317001A JP2004317001A JP2006123127A JP 2006123127 A JP2006123127 A JP 2006123127A JP 2004317001 A JP2004317001 A JP 2004317001A JP 2004317001 A JP2004317001 A JP 2004317001A JP 2006123127 A JP2006123127 A JP 2006123127A
Authority
JP
Japan
Prior art keywords
motion
motion vector
subject
vector derived
robot apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004317001A
Other languages
English (en)
Other versions
JP4539291B2 (ja
Inventor
Fumihide Tanaka
文英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004317001A priority Critical patent/JP4539291B2/ja
Publication of JP2006123127A publication Critical patent/JP2006123127A/ja
Application granted granted Critical
Publication of JP4539291B2 publication Critical patent/JP4539291B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 ユーザ等のコミュニケーション対象をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なロボット装置及びその動作制御方法を提供する。
【解決手段】 自己モーション算出器12は、全関節角の時系列情報に基づいて、自身の動作のみに由来する動きベクトルを算出する。モーション混合器13は、この自身の動作のみに由来する動きベクトルに基づいて入力画像の動きベクトルを補正することで、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する。そしてBR抽出器14は、生成された動きベクトル等から動き特徴量を抽出し、動作生成器15は、動作ルールベース記憶器16に記憶された動作ルールベースを参照しながら、抽出された動き特徴量に応じた動作を生成する。
【選択図】 図4

Description

本発明は、自律的に動作可能なロボット装置及びその動作制御方法に関する。
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、これらのロボット装置の中には、自律的に動作を行うものが存在する。
ところで、このようなエンターテインメントロボットにおける最重要課題の1つとして、ユーザを飽きさせない仕組みの追及が挙げられる。しかしながら、人間が飽きる現象の仕組みが未だ解明されていない現状では完全に飽きさせない仕組みを用意することが困難であるため、ユーザが興味を持てるような仕組みを予め数多く作り込んでおく方法がとられる。
ここで、そのような仕組みの例として、特許文献1及び非特許文献1には、ユーザの音声や動作と同調した動作をロボット装置に行わせる技術が開示されている。しかしながら、この特許文献1や非特許文献1に記載された技術では、予め内蔵された仕組みに基づく同調関係を変化させることができないため、人間とのインタラクションに用いた場合には、次第に飽きられてしまう可能性があった。一方、本件発明者らは、非特許文献2において、ユーザの動作の見まねとその変調とを繰り返すことにより、ロボット装置と人間との間のより親密なインタラクションを実現する技術を提案している。
特開2001−246174号公報 Masato Ito, Jun Tani,"On-line Imitative Interaction with a Humanoid Robot Using a Mirror Neuron Model", IEEE International Conference on Robotics and Automation (2004, in press) Fumihide Tanaka, Hirotaka Suzuki,"Dance Interaction with QRIO: A Case Study for Non-Boring Interaction by using an Entertainment Ensemble Model", 13th IEEE International Workshop on Robot and Human Interactive Communication (2004, in press)
しかしながら、この非特許文献2における変調の方法は、基本的にはプログラマの設計によるため、予測可能なものであったり、或いは完全にランダムなものであったりするなど、長期的なインタラクションには向かないものであった。
最近の基礎研究によれば、予測可能でもランダムでもない、その中間に存在するクラスの1つであるカオス的な挙動が、人間にとって快適さを与えるという報告がなされている(文献「武者利光監修、『ゆらぎの科学1〜9』、森北出版」等を参照)。そこで、プログラマがカオスを設計して例えばロボット装置の動作パターンに組み入れる方法をとることが考えられるが、カオスを組み入れたとしても、それがロボット装置の固有の身体性(物理特性)と合致したものでない場合には、有効に機能しないものと思われる。
本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザ等の相互作用対象をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なロボット装置及びその動作制御方法を提供することを目的とする。
上述した目的を達成するために、本発明に係るロボット装置は、自律的に動作可能なロボット装置であって、他の動作主体の動作を示すデータをセンサを介して入力する動作入力手段と、上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する動作混合手段と、生成された動きベクトルに基づいて動き特徴量を抽出する動き特徴量抽出手段と、上記動き特徴量に基づいて、発現する動作を生成する動作生成手段とを備える。
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、自律的に動作可能なロボット装置の動作制御方法であって、他の動作主体の動作を示すデータをセンサを介して入力する動作入力工程と、上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する動作混合工程と、生成された動きベクトルに基づいて動き特徴量を抽出する動き特徴量抽出工程と、上記動き特徴量に基づいて、発現する動作を生成する動作生成工程とを有する。
本発明に係るロボット装置及びその動作制御方法によれば、ユーザ等の他の動作主体の動作のみに由来する動きベクトルと自身の動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトルに基づいて動作を生成するため、ユーザ等をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、本能や感情といった情動をモデル化した情動モデルを有する2足歩行タイプのロボット装置に適用したものである。後述するが、このロボット装置は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置がカオス的な動作を発現するための動作制御方法について詳細に説明する。
(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定すると共に、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出すると共に、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
(2)ロボット装置の動作制御方法
次に、上述したロボット装置1がカオス的な動作を発現するための動作制御方法について説明する。上述したように、ロボット装置1は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。ロボット装置1の機能ブロック構成のうち、このカオス的な動作を発現するために必要な部分を図4に示す。
図4に示すように、ロボット装置1は、カメラ画像入力器10と、動き特徴量抽出器11と、動作生成器15と、動作ルールベース記憶器16と、アクチュエータ17とを有している。また、動き特徴量抽出器11は、自己モーション算出器12と、モーション混合器13と、BR抽出器14とからなる。
カメラ画像入力器10は、図3の画像入力装置251に相当し、単位時間毎のユーザのフレーム画像を入力し、差分画像又は画素毎の動きベクトルと、画素毎の距離情報を集めた距離画像とをフレーム毎に生成する。そして、カメラ画像入力器10は、生成した差分画像又は画素毎の動きベクトルと距離画像とをフレーム番号と共に動き特徴量抽出器11に供給する。
動き特徴量抽出器11は、カメラ画像入力器10から供給された差分画像又は画素毎の動きベクトルと距離画像とからフレーム毎の動き特徴量を生成し、この動き特徴量を動作生成器15に供給する。以下、動き特徴量抽出器11内の各ブロックにおける処理について具体的に説明する。
ここで、ロボット装置1は、ユーザの動作の見まねを行うが、自身の動作によって頭部ユニット3に設けられたCCDカメラが動くため、ユーザの動作がない場合にも、自身の動作だけでカメラ画像上に動きを等価的に発生させてしまう。これが自己モーション(エゴモーション)問題として公知の現象であり、ロボット装置1が純粋にユーザの動作のみを知りたい場合には、自身の動作の影響を差し引いた動きベクトルを得る必要がある。
そこで、自己モーション算出器12は、単位時間毎にロボット装置1の全関節角情報を監視し、全関節角の時系列情報に基づいて、特定の点(例えばロボット装置1の重心)を原点としたときの頭部ユニット3の動きベクトルを動力学的に算出する。動きベクトルの算出は、公知の方法に従って行うことができる。このようにして算出した自身の動作のみに由来する動きベクトルで入力画像の動きベクトルを補正することにより、例えば純粋にユーザの動作のみに由来する動きベクトルを得ることができる。
モーション混合器13は、自己モーション算出器12から供給された自身の動作のみに由来する動きベクトルに基づいて入力画像の補正を行う。この際、モーション混合器13は、入力画像の動きベクトルから自身の動作のみに由来する動きベクトルを減じることでユーザの動作のみに由来する動きベクトルを生成するのではなく、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する。具体的には、カメラ画像入力器10から供給された動きベクトルMと、自己モーション算出器12から供給された動きベクトルの画像平面射影vとから、以下の式(1)に従って動きベクトルM’を算出する。ここで、式(1)において、Iは行列Mと同じ大きさの単位行列であり、α,βはロボット装置1が適宜設定するパラメータである。パラメータα,βの設定方法については後述する。
M’=α×M−β×v・I ・・・ (1)
なお、上述の例では簡単のため、自己モーション算出器12から供給された動きベクトルの画像平面射影vが行列の全成分において同じと仮定しているが、より厳密さが要求される場合には、ロボット装置1の身体特性(ロボット装置1の大きさやCCDカメラの画角等)をさらに加えた上で計算を行い、行列中のピクセル毎の正確な動きベクトル射影を算出することもできる。これにより、例えば頭部ユニット3が複雑に回転した場合等においても、より正確に入力画像の動きベクトルを補正することが可能となる。
BR抽出器14は、図5に示すように、動き領域を囲むブロック領域(Block Region;BR)と呼ばれる矩形領域を抽出し、このブロック領域に関する情報を動作生成器15に供給する。ここで、ブロック領域に関する情報とは、具体的にはブロック領域の中心座標(nx,ny)、ブロック領域の縦横値ベクトル(sx,sy)、及びロボット装置1の重心から実際の動き対象までの距離dを合わせた5要素からなるベクトル(nx,ny,sx,sy,d)である。
なお、ブロック領域の中心座標や縦横値ベクトルは、フレーム中の相対位置として求められるが、距離画像と合わせることによりロボット装置1の重心を原点とした実際の3次元位置や大きさに変換し、これらの値を上述のベクトル要素として用いるようにしても構わない。
動作生成器15は、BR抽出器14から供給されたブロック領域に関する情報を自らの関節角制御情報にマッピングする。具体的に、動作生成器15は、動作ルールベース記憶器16から予めプログラマが決定した動作ルールベース、例えば
肩関節ピッチ軸のピッチ角=γ1×nx
肩関節ロール軸のロール角=γ2×sx
体幹ピッチ軸のピッチ角=γ3×d
のようなものを読み出し、これを用いて関節角制御情報を得る。ここで、γ1,γ2,γ3はそれぞれ所定のパラメータである。動作生成器15は、このようにして得られた関節角制御情報をアクチュエータ17に供給して駆動し、動作として発現させる。
次に、モーション混合器13におけるパラメータα,βの設定方法について説明する。
上述した式(1)におけるパラメータα,βをα=β=1.0とした場合、動きベクトルM’はM−v・I、すなわちユーザの動作のみに由来するものとなるため、動作生成器15では完全にユーザの動作のみに基づいて動作が生成される。これは、ロボット装置1がユーザの動作に引き込まれて見まね動作を発現することに対応する。ここで、ユーザの動作が規則的である場合、例えばユーザがロボット装置1の前で左右一定周期で手を振るような場合、ブロック領域のt時点における中心座標nxをx座標とし、t+1時点における中心座標nxをy座標としてプロットしたトラジェクトリは図6のような周期アトラクタになる。
また、式(1)におけるパラメータα,βをα=1,β=0とした場合、動作生成器15ではユーザの動作のみならず自身の動作にも基づいて動作が生成されるため、複雑な挙動となる。上述と同様にユーザがロボット装置1の前で左右一定周期で手を振るような場合、そのトラジェクトリは図7のようなカオス性を有するものとなる。これは、ユーザの動作が規則的なものであったとしても、それが自身の動作と組み合わさることでランダム性がブートストラップ的に加算されていき、長期的に予測の困難な複雑な軌跡がロボット装置1の身体性(物理特性)に基づき生成されているためと説明できる。
さらに、モーション混合器13においてパラメータα,βを調整することにより、自身の動作の影響を自在に制御することができ、これにより、動作出力におけるカオス性の強さをコントロールすることが可能となる。具体的には、例えばインタラクション対象であるユーザから飽き具合を音声やボタンなどで指示してもらい、飽き具合が高い場合にはカオス性の強いより複雑な動作を発現するようにすることができる。
以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトル等に基づいて動作を生成するため、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、上述の実施の形態では、動作ルールベース記憶器16から読み出した動作ルールベースに基づいて関節角制御情報を得るものとして説明したが、これに限定されるものではなく、画像処理分野でよく用いられる基本的なテンプレートマッチングやカラーヒストグラム情報を用いて例えばユーザの頭と左右両手の位置を求め、この位置情報を逆キネマティクスを用いてロボット装置1自身の関節角制御情報に変換するようにしても構わない。
また、上述の実施の形態では、入力情報としてカメラ画像を用いたが、これに限定されるものではなく、音響信号等の別のモーダルを用いるようにしても構わない。
また、上述の実施の形態では、コミュニケーション対象としてユーザを想定したが、これに限定されるものではなく、ロボット装置等の非生物や動物などの他の動作主体をコミュニケーション対象としても構わない。
本実施の形態におけるロボット装置の外観を示す斜視図である。 同ロボット装置の機能構成を模式的に示すブロック図である。 同ロボット装置の制御ユニットの構成を詳細に示すブロック図である。 同ロボット装置の機能ブロック構成のうち、カオス的な挙動を発生させるために必要な部分を示す図である。 同ロボット装置のBR抽出器で抽出されるブロック領域を示す図である。 ユーザの動作のみに基づいて動作を生成する場合のトラジェクトリを示す図である。 ユーザ及び自身の動作に基づいて動作を生成する場合のトラジェクトリを示す図である。
符号の説明
1 ロボット装置、10 カメラ画像入力器、11 動き特徴量抽出器、12 自己モーション算出器、13 モーション混合器、14 BR抽出器、15 動作生成器、16 動作ルールベース記憶器、17 アクチュエータ

Claims (6)

  1. 自律的に動作可能なロボット装置であって、
    他の動作主体の動作を示すデータをセンサを介して入力する動作入力手段と、
    上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する動作混合手段と、
    生成された動きベクトルに基づいて動き特徴量を抽出する動き特徴量抽出手段と、
    上記動き特徴量に基づいて、発現する動作を生成する動作生成手段と
    を備えることを特徴とするロボット装置。
  2. 上記動作入力手段は、上記他の動作主体の動作を少なくとも撮像する撮像手段であることを特徴とする請求項1記載のロボット装置。
  3. 上記他の動作主体の状態を検出する状態検出手段をさらに備え、
    上記動作混合手段は、上記他の動作主体の状態に応じて、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの比率を調整する
    ことを特徴とする請求項1記載のロボット装置。
  4. 自律的に動作可能なロボット装置の動作制御方法であって、
    他の動作主体の動作を示すデータをセンサを介して入力する動作入力工程と、
    上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する動作混合工程と、
    生成された動きベクトルに基づいて動き特徴量を抽出する動き特徴量抽出工程と、
    上記動き特徴量に基づいて、発現する動作を生成する動作生成工程と
    を有することを特徴とするロボット装置の動作制御方法。
  5. 上記動作入力工程では、撮像手段を介して上記他の動作主体の動作を示すデータを入力することを特徴とする請求項4記載のロボット装置の動作制御方法。
  6. 上記他の動作主体の状態を検出する状態検出工程をさらに有し、
    上記動作混合工程では、上記他の動作主体の状態に応じて、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの比率を調整する
    ことを特徴とする請求項4記載のロボット装置の動作制御方法。
JP2004317001A 2004-10-29 2004-10-29 ロボット装置及びその動作制御方法 Expired - Fee Related JP4539291B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004317001A JP4539291B2 (ja) 2004-10-29 2004-10-29 ロボット装置及びその動作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004317001A JP4539291B2 (ja) 2004-10-29 2004-10-29 ロボット装置及びその動作制御方法

Publications (2)

Publication Number Publication Date
JP2006123127A true JP2006123127A (ja) 2006-05-18
JP4539291B2 JP4539291B2 (ja) 2010-09-08

Family

ID=36718335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004317001A Expired - Fee Related JP4539291B2 (ja) 2004-10-29 2004-10-29 ロボット装置及びその動作制御方法

Country Status (1)

Country Link
JP (1) JP4539291B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160669A (ja) * 2009-01-08 2010-07-22 Linfops Kk ロボットの制御方法
JP2010535385A (ja) * 2007-08-22 2010-11-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
WO2019220733A1 (ja) 2018-05-15 2019-11-21 ソニー株式会社 制御装置、制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08187364A (ja) * 1995-01-10 1996-07-23 Sony Corp 動作玩具駆動方法および装置
JP2004299001A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 2足歩行ロボットの制御装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08187364A (ja) * 1995-01-10 1996-07-23 Sony Corp 動作玩具駆動方法および装置
JP2004299001A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 2足歩行ロボットの制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010535385A (ja) * 2007-08-22 2010-11-18 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
JP2010160669A (ja) * 2009-01-08 2010-07-22 Linfops Kk ロボットの制御方法
WO2019220733A1 (ja) 2018-05-15 2019-11-21 ソニー株式会社 制御装置、制御方法及びプログラム
KR20210007965A (ko) 2018-05-15 2021-01-20 소니 주식회사 제어 장치, 제어 방법 및 프로그램

Also Published As

Publication number Publication date
JP4539291B2 (ja) 2010-09-08

Similar Documents

Publication Publication Date Title
JP3714268B2 (ja) ロボット装置
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US7689322B2 (en) Robot apparatus and method of controlling the motion thereof
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
Vanderborght Dynamic stabilisation of the biped Lucy powered by actuators with controllable stiffness
Zuher et al. Recognition of human motions for imitation and control of a humanoid robot
Sripada et al. Teleoperation of a humanoid robot with motion imitation and legged locomotion
Fitzpatrick et al. Humanoids
JP2002144260A (ja) 脚式移動ロボット及びその制御方法
Barros et al. Bimanual haptics for humanoid robot teleoperation using ROS and V-REP
Kopacek Cost oriented humanoid robots
Park et al. Control hardware integration of a biped humanoid robot with an android head
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP2005111654A (ja) ロボット装置及びロボット装置の歩行制御方法
Muecke et al. Darwin’s evolution: Development of a humanoid robot
JP4281286B2 (ja) ロボット装置及びその制御方法
Lee et al. Development and walking control of emotional humanoid robot, KIBO
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
Zielinska et al. Biologically inspired motion synthesis method of two-legged robot with compliant feet
JP4506249B2 (ja) ロボット装置及びその動作比較方法
JP2005088175A (ja) ロボット装置及びロボット装置の動作制御方法
JP4552490B2 (ja) ロボット装置及びその情動制御方法
Wasielica et al. Design and applications of a miniature anthropomorphic robot
CN117207203B (zh) 机器人控制方法、装置、机器人及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090305

A131 Notification of reasons for refusal

Effective date: 20090324

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees