JP4539291B2 - Robot apparatus and operation control method thereof - Google Patents
Robot apparatus and operation control method thereof Download PDFInfo
- Publication number
- JP4539291B2 JP4539291B2 JP2004317001A JP2004317001A JP4539291B2 JP 4539291 B2 JP4539291 B2 JP 4539291B2 JP 2004317001 A JP2004317001 A JP 2004317001A JP 2004317001 A JP2004317001 A JP 2004317001A JP 4539291 B2 JP4539291 B2 JP 4539291B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- subject
- motion vector
- robot apparatus
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、自律的に動作可能なロボット装置及びその動作制御方法に関する。 The present invention relates to an autonomously operable robot apparatus and an operation control method thereof.
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。 A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、これらのロボット装置の中には、自律的に動作を行うものが存在する。 Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use. Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. Some of these robot apparatuses autonomously operate.
ところで、このようなエンターテインメントロボットにおける最重要課題の1つとして、ユーザを飽きさせない仕組みの追及が挙げられる。しかしながら、人間が飽きる現象の仕組みが未だ解明されていない現状では完全に飽きさせない仕組みを用意することが困難であるため、ユーザが興味を持てるような仕組みを予め数多く作り込んでおく方法がとられる。 By the way, as one of the most important issues in such an entertainment robot, there is a search for a mechanism that does not make the user bored. However, since the mechanism of the phenomenon that humans get tired of has not yet been elucidated, it is difficult to prepare a mechanism that does not completely get bored, so a method that creates many mechanisms that the user can be interested in is taken in advance .
ここで、そのような仕組みの例として、特許文献1及び非特許文献1には、ユーザの音声や動作と同調した動作をロボット装置に行わせる技術が開示されている。しかしながら、この特許文献1や非特許文献1に記載された技術では、予め内蔵された仕組みに基づく同調関係を変化させることができないため、人間とのインタラクションに用いた場合には、次第に飽きられてしまう可能性があった。一方、本件発明者らは、非特許文献2において、ユーザの動作の見まねとその変調とを繰り返すことにより、ロボット装置と人間との間のより親密なインタラクションを実現する技術を提案している。
Here, as an example of such a mechanism,
しかしながら、この非特許文献2における変調の方法は、基本的にはプログラマの設計によるため、予測可能なものであったり、或いは完全にランダムなものであったりするなど、長期的なインタラクションには向かないものであった。
However, since the modulation method in Non-Patent
最近の基礎研究によれば、予測可能でもランダムでもない、その中間に存在するクラスの1つであるカオス的な挙動が、人間にとって快適さを与えるという報告がなされている(文献「武者利光監修、『ゆらぎの科学1〜9』、森北出版」等を参照)。そこで、プログラマがカオスを設計して例えばロボット装置の動作パターンに組み入れる方法をとることが考えられるが、カオスを組み入れたとしても、それがロボット装置の固有の身体性(物理特性)と合致したものでない場合には、有効に機能しないものと思われる。 According to recent basic research, it has been reported that chaotic behavior, which is not predictable or random, one of the classes existing in between, gives comfort to humans (supervised by Toshimitsu Takeshi , "Fluctuation Science 1-9", Morikita Publishing, etc.). Therefore, it is conceivable for the programmer to design the chaos and incorporate it into the movement pattern of the robot device, for example, but even if chaos is incorporated, it matches the specific physicality (physical characteristics) of the robot device. If it is not, it will not function effectively.
本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザ等の相互作用対象をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なロボット装置及びその動作制御方法を提供することを目的とする。 The present invention has been proposed in view of such a conventional situation, and it is possible to express chaotic motion based on one's own physicality without causing the user or other interaction object to get bored. An object of the present invention is to provide a simple robot apparatus and its operation control method.
上述した目的を達成するために、本発明に係るロボット装置は、自律的に動作可能なロボット装置であって、他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力手段と、上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合手段と、生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出手段と、上記ブロック領域に基づいて、発現する動作を生成する動作生成手段と、外部からの指示を入力する指示入力手段とを備え、上記指示入力手段からの指示が与えられたとき、上記動作混合手段が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整して混合する。 In order to achieve the above-described object, a robot apparatus according to the present invention is a robot apparatus that can operate autonomously, and the above-mentioned other units per unit time via an imaging unit that images the operation of another operation subject. Based on the data input by the motion input unit, the motion input unit that inputs the motion subject image, and the motion vector derived from the motion of the other motion subject and the motion vector derived from its own motion are mixed. Motion mixing means for generating a motion vector, block area extraction means for extracting information on a rectangular block area surrounding a portion indicating motion in the image of the other motion subject based on the generated motion vector, based on the above block area, it includes a motion generating means for generating an operation that express, an instruction input means for inputting an external instruction, the instruction from the instruction input means When given, the operation mixing means for mixing by adjusting the mixing ratio of the motion vectors derived from the operation of the motion vector and the own derived from the operation of the other main operation.
また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、自律的に動作可能なロボット装置の動作制御方法であって、他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力工程と、上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合工程と、生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出工程と、上記ブロック領域に基づいて、発現する動作を生成する動作生成工程と、外部からの指示を入力する指示入力工程とを備え、上記動作混合工程では、上記指示入力工程での指示が与えられたとき、上記ロボット装置が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整する。 In order to achieve the above-described object, an operation control method for a robot apparatus according to the present invention is an operation control method for a robot apparatus that can operate autonomously, and is an imaging unit that images the operation of another operation subject. A motion input step for inputting the image of the other motion subject for each unit time via a motion vector, and a motion vector derived from the motion of the other motion subject based on the data input in the motion input step and itself A rectangular block region surrounding a portion indicating a motion in the image of the other motion subject based on the motion vector, and a motion mixing step for generating a motion vector mixed with the motion vector derived from the motion Bei the block area extracting step of extracting information on, based on the block area, and a motion generation step of generating an operation of expressing, an instruction input step of inputting an instruction from the outside In the above operation the mixing step, when the instruction in the instruction input step is provided, mixed with the motion vector which the robot apparatus is derived from the operation of the motion vector and the own derived from the operation of the other operation subject Adjust the ratio.
本発明に係るロボット装置及びその動作制御方法によれば、ユーザ等の他の動作主体の動作のみに由来する動きベクトルと自身の動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトルに基づいて動作を生成するため、ユーザ等をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。 According to the robot apparatus and the motion control method thereof according to the present invention, a motion in which a motion vector derived only from the motion of another motion subject such as a user and a motion vector derived only from its own motion are mixed in a desired ratio. Since a vector is generated and a motion is generated based on the motion vector, a chaotic motion that does not make the user more tired can be expressed based on his / her physicality.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、本能や感情といった情動をモデル化した情動モデルを有する2足歩行タイプのロボット装置に適用したものである。後述するが、このロボット装置は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置がカオス的な動作を発現するための動作制御方法について詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In this embodiment, the present invention is applied to a bipedal walking type robot apparatus having an emotion model in which emotions such as instinct and emotion are modeled. As will be described later, this robotic device is capable of expressing chaotic motion that does not make the user more bored based on his / her physicality when imitating the user's motion. In the following, first, the configuration of such a robot apparatus will be described, and then an operation control method for causing the robot apparatus to exhibit a chaotic operation will be described in detail.
(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
(1) Configuration of Robot Device First, the configuration of the robot device in the present embodiment will be described. As shown in FIG. 1, the
このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。
The joint degree-of-freedom configuration of the
また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。
Each
また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。
The
また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。
Each
以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
In summary, the
上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
Each degree of freedom of the
図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。
FIG. 3 schematically shows a control system configuration of the
思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。
The
この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。
The
また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。
In addition, the
一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。
One
運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。
The
思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。
The
運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定すると共に、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。
The
また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出すると共に、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。
In addition, the CPU 311 detects the posture and inclination of the
また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。
Further, the CPU 311 controls the posture and operation of the
さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。
Furthermore, the
このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。
In this way, the
(2)ロボット装置の動作制御方法
次に、上述したロボット装置1がカオス的な動作を発現するための動作制御方法について説明する。上述したように、ロボット装置1は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。ロボット装置1の機能ブロック構成のうち、このカオス的な動作を発現するために必要な部分を図4に示す。
(2) Operation Control Method of Robot Device Next, an operation control method for causing the above-described
図4に示すように、ロボット装置1は、カメラ画像入力器10と、動き特徴量抽出器11と、動作生成器15と、動作ルールベース記憶器16と、アクチュエータ17とを有している。また、動き特徴量抽出器11は、自己モーション算出器12と、モーション混合器13と、BR抽出器14とからなる。
As shown in FIG. 4, the
カメラ画像入力器10は、図3の画像入力装置251に相当し、単位時間毎のユーザのフレーム画像を入力し、差分画像又は画素毎の動きベクトルと、画素毎の距離情報を集めた距離画像とをフレーム毎に生成する。そして、カメラ画像入力器10は、生成した差分画像又は画素毎の動きベクトルと距離画像とをフレーム番号と共に動き特徴量抽出器11に供給する。
The camera
動き特徴量抽出器11は、カメラ画像入力器10から供給された差分画像又は画素毎の動きベクトルと距離画像とからフレーム毎の動き特徴量を生成し、この動き特徴量を動作生成器15に供給する。以下、動き特徴量抽出器11内の各ブロックにおける処理について具体的に説明する。
The motion feature amount extractor 11 generates a motion feature amount for each frame from the difference image or the motion vector for each pixel and the distance image supplied from the camera
ここで、ロボット装置1は、ユーザの動作の見まねを行うが、自身の動作によって頭部ユニット3に設けられたCCDカメラが動くため、ユーザの動作がない場合にも、自身の動作だけでカメラ画像上に動きを等価的に発生させてしまう。これが自己モーション(エゴモーション)問題として公知の現象であり、ロボット装置1が純粋にユーザの動作のみを知りたい場合には、自身の動作の影響を差し引いた動きベクトルを得る必要がある。
Here, the
そこで、自己モーション算出器12は、単位時間毎にロボット装置1の全関節角情報を監視し、全関節角の時系列情報に基づいて、特定の点(例えばロボット装置1の重心)を原点としたときの頭部ユニット3の動きベクトルを動力学的に算出する。動きベクトルの算出は、公知の方法に従って行うことができる。このようにして算出した自身の動作のみに由来する動きベクトルで入力画像の動きベクトルを補正することにより、例えば純粋にユーザの動作のみに由来する動きベクトルを得ることができる。
Therefore, the self-
モーション混合器13は、自己モーション算出器12から供給された自身の動作のみに由来する動きベクトルに基づいて入力画像の補正を行う。この際、モーション混合器13は、入力画像の動きベクトルから自身の動作のみに由来する動きベクトルを減じることでユーザの動作のみに由来する動きベクトルを生成するのではなく、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する。具体的には、カメラ画像入力器10から供給された動きベクトルMと、自己モーション算出器12から供給された動きベクトルの画像平面射影vとから、以下の式(1)に従って動きベクトルM’を算出する。ここで、式(1)において、Iは行列Mと同じ大きさの単位行列であり、α,βはロボット装置1が適宜設定するパラメータである。パラメータα,βの設定方法については後述する。
The
M’=α×M−β×v・I ・・・ (1)
なお、上述の例では簡単のため、自己モーション算出器12から供給された動きベクトルの画像平面射影vが行列の全成分において同じと仮定しているが、より厳密さが要求される場合には、ロボット装置1の身体特性(ロボット装置1の大きさやCCDカメラの画角等)をさらに加えた上で計算を行い、行列中のピクセル毎の正確な動きベクトル射影を算出することもできる。これにより、例えば頭部ユニット3が複雑に回転した場合等においても、より正確に入力画像の動きベクトルを補正することが可能となる。
M ′ = α × M−β × v · I (1)
In the above example, for simplicity, it is assumed that the image plane projection v of the motion vector supplied from the self-
BR抽出器14は、図5に示すように、動き領域を囲むブロック領域(Block Region;BR)と呼ばれる矩形領域を抽出し、このブロック領域に関する情報を動作生成器15に供給する。ここで、ブロック領域に関する情報とは、具体的にはブロック領域の中心座標(nx,ny)、ブロック領域の縦横値ベクトル(sx,sy)、及びロボット装置1の重心から実際の動き対象までの距離dを合わせた5要素からなるベクトル(nx,ny,sx,sy,d)である。
As shown in FIG. 5, the
なお、ブロック領域の中心座標や縦横値ベクトルは、フレーム中の相対位置として求められるが、距離画像と合わせることによりロボット装置1の重心を原点とした実際の3次元位置や大きさに変換し、これらの値を上述のベクトル要素として用いるようにしても構わない。
The center coordinates and vertical / horizontal value vectors of the block area are obtained as relative positions in the frame, but are converted into actual three-dimensional positions and sizes with the center of gravity of the
動作生成器15は、BR抽出器14から供給されたブロック領域に関する情報を自らの関節角制御情報にマッピングする。具体的に、動作生成器15は、動作ルールベース記憶器16から予めプログラマが決定した動作ルールベース、例えば
肩関節ピッチ軸のピッチ角=γ1×nx
肩関節ロール軸のロール角=γ2×sx
体幹ピッチ軸のピッチ角=γ3×d
のようなものを読み出し、これを用いて関節角制御情報を得る。ここで、γ1,γ2,γ3はそれぞれ所定のパラメータである。動作生成器15は、このようにして得られた関節角制御情報をアクチュエータ17に供給して駆動し、動作として発現させる。
The motion generator 15 maps the information regarding the block area supplied from the
Roll angle of shoulder joint roll axis = γ2 × sx
Pitch angle of trunk pitch axis = γ3 × d
Is obtained, and joint angle control information is obtained using this. Here, γ1, γ2, and γ3 are predetermined parameters. The motion generator 15 supplies the joint angle control information obtained in this way to the
次に、モーション混合器13におけるパラメータα,βの設定方法について説明する。
Next, a method for setting the parameters α and β in the
上述した式(1)におけるパラメータα,βをα=β=1.0とした場合、動きベクトルM’はM−v・I、すなわちユーザの動作のみに由来するものとなるため、動作生成器15では完全にユーザの動作のみに基づいて動作が生成される。これは、ロボット装置1がユーザの動作に引き込まれて見まね動作を発現することに対応する。ここで、ユーザの動作が規則的である場合、例えばユーザがロボット装置1の前で左右一定周期で手を振るような場合、ブロック領域のt時点における中心座標nxをx座標とし、t+1時点における中心座標nxをy座標としてプロットしたトラジェクトリは図6のような周期アトラクタになる。
When the parameters α and β in the above equation (1) are set to α = β = 1.0, the motion vector M ′ is derived from Mv · I, that is, only the user's motion. At 15, the motion is generated based solely on the user's motion. This corresponds to the
また、式(1)におけるパラメータα,βをα=1,β=0とした場合、動作生成器15ではユーザの動作のみならず自身の動作にも基づいて動作が生成されるため、複雑な挙動となる。上述と同様にユーザがロボット装置1の前で左右一定周期で手を振るような場合、そのトラジェクトリは図7のようなカオス性を有するものとなる。これは、ユーザの動作が規則的なものであったとしても、それが自身の動作と組み合わさることでランダム性がブートストラップ的に加算されていき、長期的に予測の困難な複雑な軌跡がロボット装置1の身体性(物理特性)に基づき生成されているためと説明できる。
Further, when the parameters α and β in the equation (1) are α = 1 and β = 0, the motion generator 15 generates a motion based on not only the user's motion but also its own motion. It becomes a behavior. In the same manner as described above, when the user shakes his / her hand in front of the
さらに、モーション混合器13においてパラメータα,βを調整することにより、自身の動作の影響を自在に制御することができ、これにより、動作出力におけるカオス性の強さをコントロールすることが可能となる。具体的には、例えばインタラクション対象であるユーザから飽き具合を音声やボタンなどで指示してもらい、飽き具合が高い場合にはカオス性の強いより複雑な動作を発現するようにすることができる。
Furthermore, by adjusting the parameters α and β in the
以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトル等に基づいて動作を生成するため、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。
As described above, according to the
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
例えば、上述の実施の形態では、動作ルールベース記憶器16から読み出した動作ルールベースに基づいて関節角制御情報を得るものとして説明したが、これに限定されるものではなく、画像処理分野でよく用いられる基本的なテンプレートマッチングやカラーヒストグラム情報を用いて例えばユーザの頭と左右両手の位置を求め、この位置情報を逆キネマティクスを用いてロボット装置1自身の関節角制御情報に変換するようにしても構わない。
For example, in the above-described embodiment, it has been described that the joint angle control information is obtained based on the operation rule base read from the operation rule
また、上述の実施の形態では、入力情報としてカメラ画像を用いたが、これに限定されるものではなく、音響信号等の別のモーダルを用いるようにしても構わない。 In the above-described embodiment, a camera image is used as input information. However, the present invention is not limited to this, and another modal such as an acoustic signal may be used.
また、上述の実施の形態では、コミュニケーション対象としてユーザを想定したが、これに限定されるものではなく、ロボット装置等の非生物や動物などの他の動作主体をコミュニケーション対象としても構わない。 In the above-described embodiment, a user is assumed as a communication target. However, the present invention is not limited to this, and other moving subjects such as non-living animals such as robot devices and animals may be set as communication targets.
1 ロボット装置、10 カメラ画像入力器、11 動き特徴量抽出器、12 自己モーション算出器、13 モーション混合器、14 BR抽出器、15 動作生成器、16 動作ルールベース記憶器、17 アクチュエータ
DESCRIPTION OF
Claims (4)
他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力手段と、
上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合手段と、
生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出手段と、
上記ブロック領域に基づいて、発現する動作を生成する動作生成手段と、
外部からの指示を入力する指示入力手段とを備え、
上記指示入力手段からの指示が与えられたとき、上記動作混合手段が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整して混合する
ロボット装置。 A robot device that can operate autonomously,
An operation input means for inputting the image of the other operation subject per unit time via an imaging means for imaging the operation of the other operation subject;
Based on the data input by the motion input means, motion mixing means for generating a motion vector in which a motion vector derived from the motion of the other motion subject and a motion vector derived from its own motion are mixed;
Block area extraction means for extracting information on a rectangular block area surrounding a portion indicating the movement in the image of the other operation subject based on the generated motion vector;
Based on the block region, action generating means for generating an action to be expressed,
An instruction input means for inputting an instruction from the outside,
When an instruction is given from the instruction input means , the motion mixing means adjusts and mixes the mixing ratio of the motion vector derived from the motion of the other motion subject and the motion vector derived from the own motion. Yes Robotic device.
上記動作生成手段は、上記ブロック領域抽出手段からの上記ブロック領域に関する情報に基づいて、発現する動作を生成する請求項1記載のロボット装置。 The block area extracting means outputs said other operation the block center coordinates and vertical and horizontal value vector region of the subject, as well as information about the block area including the elements of the distance to the other operation subject,
The robot apparatus according to claim 1, wherein the motion generation unit generates a motion to be expressed based on information related to the block region from the block region extraction unit.
他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力工程と、
上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合工程と、
生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出工程と、
上記ブロック領域に基づいて、発現する動作を生成する動作生成工程と、
外部からの指示を入力する指示入力工程とを備え、
上記動作混合工程では、上記指示入力工程での指示が与えられたとき、上記ロボット装置が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整する
ロボット装置の動作制御方法。 An operation control method for an autonomously operable robotic device,
An operation input step of inputting the image of the other operation subject per unit time via an imaging means for imaging the operation of the other operation subject;
Based on the data input in the motion input step, a motion mixing step of generating a motion vector in which a motion vector derived from the motion of the other motion subject and a motion vector derived from its own motion are mixed,
A block region extraction step for extracting information on a rectangular block region surrounding a portion indicating the motion in the image of the other operation subject based on the generated motion vector;
Based on the block area, an action generation step for generating an action to be expressed,
An instruction input process for inputting instructions from the outside,
In the motion mixing step, when an instruction in the instruction input step is given, the robot apparatus mixes a motion vector derived from the motion of the other motion subject and a motion vector derived from the motion of the robot device. A method for controlling the operation of a robot apparatus.
上記動作生成工程では、上記ブロック領域抽出工程からの上記ブロック領域に関する情報に基づいて、発現する動作を生成する請求項3記載のロボット装置の動作制御方法。 In the block area extracting step, information on a block area including a center coordinate and a vertical / horizontal value vector of a rectangular block area surrounding the motion area of the other action subject, and an element of a distance to the other action subject is output. ,
The robot apparatus motion control method according to claim 3, wherein in the motion generation step, a motion to be expressed is generated based on information on the block region from the block region extraction step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004317001A JP4539291B2 (en) | 2004-10-29 | 2004-10-29 | Robot apparatus and operation control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004317001A JP4539291B2 (en) | 2004-10-29 | 2004-10-29 | Robot apparatus and operation control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006123127A JP2006123127A (en) | 2006-05-18 |
JP4539291B2 true JP4539291B2 (en) | 2010-09-08 |
Family
ID=36718335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004317001A Expired - Fee Related JP4539291B2 (en) | 2004-10-29 | 2004-10-29 | Robot apparatus and operation control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4539291B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4967062B2 (en) * | 2007-08-22 | 2012-07-04 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | A method to estimate the appropriate motion of an object using optical flow, kinematics and depth information |
JP2010160669A (en) * | 2009-01-08 | 2010-07-22 | Linfops Kk | Control method for robot |
EP3795225A4 (en) | 2018-05-15 | 2022-03-30 | Sony Group Corporation | Control device, control method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299001A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Biped walking robot control device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08187364A (en) * | 1995-01-10 | 1996-07-23 | Sony Corp | Driving of movable toy and device therefor |
-
2004
- 2004-10-29 JP JP2004317001A patent/JP4539291B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004299001A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Biped walking robot control device |
Also Published As
Publication number | Publication date |
---|---|
JP2006123127A (en) | 2006-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3714268B2 (en) | Robot device | |
US7689322B2 (en) | Robot apparatus and method of controlling the motion thereof | |
JP3855812B2 (en) | Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus | |
JP4086024B2 (en) | Robot apparatus and behavior control method thereof | |
JP4239635B2 (en) | Robot device, operation control method thereof, and program | |
Sripada et al. | Teleoperation of a humanoid robot with motion imitation and legged locomotion | |
JP2002144260A (en) | Leg type moving robot and its control method | |
Barros et al. | Bimanual haptics for humanoid robot teleoperation using ROS and V-REP | |
Kemp et al. | Humanoids | |
Kopacek | Cost oriented humanoid robots | |
Park et al. | Control hardware integration of a biped humanoid robot with an android head | |
JP2001138272A (en) | Leg type mobile robot and control method for its motion | |
JP4539291B2 (en) | Robot apparatus and operation control method thereof | |
WO2013121469A1 (en) | Legged robot | |
Muecke et al. | Darwin’s evolution: Development of a humanoid robot | |
JP2005111654A (en) | Robot device and walking control method for robot device | |
Lee et al. | Development and walking control of emotional humanoid robot, KIBO | |
Zielinska et al. | Biologically inspired motion synthesis method of two-legged robot with compliant feet | |
JP4506249B2 (en) | Robot apparatus and operation comparison method thereof | |
JP2003266348A (en) | Robot device and control method therefor | |
JP4552490B2 (en) | Robot apparatus and emotion control method thereof | |
CN117207203B (en) | Robot control method, device, robot and storage medium | |
JP2003266350A (en) | Robot device and internal condition expressing device | |
Wasielica et al. | Design and applications of a miniature anthropomorphic robot | |
JP2003266352A (en) | Robot device and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100601 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100614 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130702 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |