JP4539291B2 - Robot apparatus and operation control method thereof - Google Patents

Robot apparatus and operation control method thereof Download PDF

Info

Publication number
JP4539291B2
JP4539291B2 JP2004317001A JP2004317001A JP4539291B2 JP 4539291 B2 JP4539291 B2 JP 4539291B2 JP 2004317001 A JP2004317001 A JP 2004317001A JP 2004317001 A JP2004317001 A JP 2004317001A JP 4539291 B2 JP4539291 B2 JP 4539291B2
Authority
JP
Japan
Prior art keywords
motion
subject
motion vector
robot apparatus
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004317001A
Other languages
Japanese (ja)
Other versions
JP2006123127A (en
Inventor
文英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004317001A priority Critical patent/JP4539291B2/en
Publication of JP2006123127A publication Critical patent/JP2006123127A/en
Application granted granted Critical
Publication of JP4539291B2 publication Critical patent/JP4539291B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自律的に動作可能なロボット装置及びその動作制御方法に関する。   The present invention relates to an autonomously operable robot apparatus and an operation control method thereof.

電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。   A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.

最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、これらのロボット装置の中には、自律的に動作を行うものが存在する。   Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use. Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. Some of these robot apparatuses autonomously operate.

ところで、このようなエンターテインメントロボットにおける最重要課題の1つとして、ユーザを飽きさせない仕組みの追及が挙げられる。しかしながら、人間が飽きる現象の仕組みが未だ解明されていない現状では完全に飽きさせない仕組みを用意することが困難であるため、ユーザが興味を持てるような仕組みを予め数多く作り込んでおく方法がとられる。   By the way, as one of the most important issues in such an entertainment robot, there is a search for a mechanism that does not make the user bored. However, since the mechanism of the phenomenon that humans get tired of has not yet been elucidated, it is difficult to prepare a mechanism that does not completely get bored, so a method that creates many mechanisms that the user can be interested in is taken in advance .

ここで、そのような仕組みの例として、特許文献1及び非特許文献1には、ユーザの音声や動作と同調した動作をロボット装置に行わせる技術が開示されている。しかしながら、この特許文献1や非特許文献1に記載された技術では、予め内蔵された仕組みに基づく同調関係を変化させることができないため、人間とのインタラクションに用いた場合には、次第に飽きられてしまう可能性があった。一方、本件発明者らは、非特許文献2において、ユーザの動作の見まねとその変調とを繰り返すことにより、ロボット装置と人間との間のより親密なインタラクションを実現する技術を提案している。   Here, as an example of such a mechanism, Patent Document 1 and Non-Patent Document 1 disclose a technique for causing a robot device to perform an operation synchronized with a user's voice and operation. However, since the techniques described in Patent Document 1 and Non-Patent Document 1 cannot change the tuning relationship based on a mechanism built in in advance, they are gradually bored when used for human interaction. There was a possibility. On the other hand, the present inventors have proposed a technique in Non-Patent Document 2 that realizes closer interaction between a robot apparatus and a human by repeating imitation of a user's motion and its modulation.

特開2001−246174号公報JP 2001-246174 A Masato Ito, Jun Tani,“On-line Imitative Interaction with a Humanoid Robot Using a Mirror Neuron Model”, IEEE International Conference on Robotics and Automation (2004, in press)Masato Ito, Jun Tani, “On-line Imitative Interaction with a Humanoid Robot Using a Mirror Neuron Model”, IEEE International Conference on Robotics and Automation (2004, in press) Fumihide Tanaka, Hirotaka Suzuki,“Dance Interaction with QRIO: A Case Study for Non-Boring Interaction by using an Entertainment Ensemble Model”, 13th IEEE International Workshop on Robot and Human Interactive Communication (2004, in press)Fumihide Tanaka, Hirotaka Suzuki, “Dance Interaction with QRIO: A Case Study for Non-Boring Interaction by using an Entertainment Ensemble Model”, 13th IEEE International Workshop on Robot and Human Interactive Communication (2004, in press)

しかしながら、この非特許文献2における変調の方法は、基本的にはプログラマの設計によるため、予測可能なものであったり、或いは完全にランダムなものであったりするなど、長期的なインタラクションには向かないものであった。   However, since the modulation method in Non-Patent Document 2 is basically based on the design of the programmer, it is suitable for long-term interaction such as predictable or completely random. It wasn't.

最近の基礎研究によれば、予測可能でもランダムでもない、その中間に存在するクラスの1つであるカオス的な挙動が、人間にとって快適さを与えるという報告がなされている(文献「武者利光監修、『ゆらぎの科学1〜9』、森北出版」等を参照)。そこで、プログラマがカオスを設計して例えばロボット装置の動作パターンに組み入れる方法をとることが考えられるが、カオスを組み入れたとしても、それがロボット装置の固有の身体性(物理特性)と合致したものでない場合には、有効に機能しないものと思われる。   According to recent basic research, it has been reported that chaotic behavior, which is not predictable or random, one of the classes existing in between, gives comfort to humans (supervised by Toshimitsu Takeshi , "Fluctuation Science 1-9", Morikita Publishing, etc.). Therefore, it is conceivable for the programmer to design the chaos and incorporate it into the movement pattern of the robot device, for example, but even if chaos is incorporated, it matches the specific physicality (physical characteristics) of the robot device. If it is not, it will not function effectively.

本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザ等の相互作用対象をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なロボット装置及びその動作制御方法を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and it is possible to express chaotic motion based on one's own physicality without causing the user or other interaction object to get bored. An object of the present invention is to provide a simple robot apparatus and its operation control method.

上述した目的を達成するために、本発明に係るロボット装置は、自律的に動作可能なロボット装置であって、他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力手段と、上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合手段と、生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出手段と、上記ブロック領域に基づいて、発現する動作を生成する動作生成手段と、外部からの指示を入力する指示入力手段とを備え、上記指示入力手段からの指示が与えられたとき、上記動作混合手段が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整して混合する。 In order to achieve the above-described object, a robot apparatus according to the present invention is a robot apparatus that can operate autonomously, and the above-mentioned other units per unit time via an imaging unit that images the operation of another operation subject. Based on the data input by the motion input unit, the motion input unit that inputs the motion subject image, and the motion vector derived from the motion of the other motion subject and the motion vector derived from its own motion are mixed. Motion mixing means for generating a motion vector, block area extraction means for extracting information on a rectangular block area surrounding a portion indicating motion in the image of the other motion subject based on the generated motion vector, based on the above block area, it includes a motion generating means for generating an operation that express, an instruction input means for inputting an external instruction, the instruction from the instruction input means When given, the operation mixing means for mixing by adjusting the mixing ratio of the motion vectors derived from the operation of the motion vector and the own derived from the operation of the other main operation.

また、上述した目的を達成するために、本発明に係るロボット装置の動作制御方法は、自律的に動作可能なロボット装置の動作制御方法であって、他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力工程と、上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合工程と、生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出工程と、上記ブロック領域に基づいて、発現する動作を生成する動作生成工程と、外部からの指示を入力する指示入力工程とを備え、上記動作混合工程では、上記指示入力工程での指示が与えられたとき、上記ロボット装置が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整する。 In order to achieve the above-described object, an operation control method for a robot apparatus according to the present invention is an operation control method for a robot apparatus that can operate autonomously, and is an imaging unit that images the operation of another operation subject. A motion input step for inputting the image of the other motion subject for each unit time via a motion vector, and a motion vector derived from the motion of the other motion subject based on the data input in the motion input step and itself A rectangular block region surrounding a portion indicating a motion in the image of the other motion subject based on the motion vector, and a motion mixing step for generating a motion vector mixed with the motion vector derived from the motion Bei the block area extracting step of extracting information on, based on the block area, and a motion generation step of generating an operation of expressing, an instruction input step of inputting an instruction from the outside In the above operation the mixing step, when the instruction in the instruction input step is provided, mixed with the motion vector which the robot apparatus is derived from the operation of the motion vector and the own derived from the operation of the other operation subject Adjust the ratio.

本発明に係るロボット装置及びその動作制御方法によれば、ユーザ等の他の動作主体の動作のみに由来する動きベクトルと自身の動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトルに基づいて動作を生成するため、ユーザ等をより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。   According to the robot apparatus and the motion control method thereof according to the present invention, a motion in which a motion vector derived only from the motion of another motion subject such as a user and a motion vector derived only from its own motion are mixed in a desired ratio. Since a vector is generated and a motion is generated based on the motion vector, a chaotic motion that does not make the user more tired can be expressed based on his / her physicality.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、本能や感情といった情動をモデル化した情動モデルを有する2足歩行タイプのロボット装置に適用したものである。後述するが、このロボット装置は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。以下では先ず、このようなロボット装置の構成について説明し、次いで、このロボット装置がカオス的な動作を発現するための動作制御方法について詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In this embodiment, the present invention is applied to a bipedal walking type robot apparatus having an emotion model in which emotions such as instinct and emotion are modeled. As will be described later, this robotic device is capable of expressing chaotic motion that does not make the user more bored based on his / her physicality when imitating the user's motion. In the following, first, the configuration of such a robot apparatus will be described, and then an operation control method for causing the robot apparatus to exhibit a chaotic operation will be described in detail.

(1)ロボット装置の構成
先ず、本実施の形態におけるロボット装置の構成について説明する。図1に示すように、本実施の形態におけるロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。
(1) Configuration of Robot Device First, the configuration of the robot device in the present embodiment will be described. As shown in FIG. 1, the robot apparatus 1 according to the present embodiment includes a head unit 3 connected to a predetermined position of the trunk unit 2, two left and right arm units 4 </ b> R / L, The leg units 5R / L are connected to each other (provided that R and L are suffixes indicating right and left, respectively, and the same applies hereinafter).

このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。   The joint degree-of-freedom configuration of the robot apparatus 1 is schematically shown in FIG. The neck joint that supports the head unit 3 has three degrees of freedom: a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 103.

また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部ユニット4R/Lは、7自由度で構成される。   Each arm unit 4R / L constituting the upper limb includes a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, an elbow joint pitch axis 110, a forearm yaw axis 111, and a wrist. A joint pitch axis 112, a wrist joint roll axis 113, and a hand part 114 are included. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the operation of the hand 114 has little contribution or influence on the posture control or walking control of the robot apparatus 1, it is assumed in this specification that the degree of freedom is zero. Therefore, each arm unit 4R / L is configured with seven degrees of freedom.

また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。   The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.

また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足部121は、ゼロ自由度とする。したがって、各脚部ユニット5R/Lは、6自由度で構成される。   Each leg unit 5R / L constituting the lower limb includes a hip joint yaw axis 115, a hip joint pitch axis 116, a hip joint roll axis 117, a knee joint pitch axis 118, an ankle joint pitch axis 119, and an ankle joint. A roll shaft 120 and a foot 121 are included. In the present specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. Although the foot part of the human body is actually a structure including a multi-joint / multi-degree-of-freedom sole, the foot part 121 of the robot apparatus 1 has zero degrees of freedom. Accordingly, each leg unit 5R / L is configured with six degrees of freedom.

以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。   In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / production constraints or required specifications.

上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。   Each degree of freedom of the robot apparatus 1 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the appearance of extra bulges on the appearance and approximating the shape of a human body, and performing posture control on an unstable structure such as biped walking. .

図3には、ロボット装置1の制御システム構成を模式的に示している。図3に示すように、制御システムは、ユーザ入力などに動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動などロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。   FIG. 3 schematically shows a control system configuration of the robot apparatus 1. As shown in FIG. 3, the control system is a motion that controls the whole body cooperative motion of the robot apparatus 1 such as driving the actuator 350 and the actuator 350 and the thought control module 200 that dynamically controls emotion judgment and emotional expression in response to user input. And a control module 300.

思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213、及び外部記憶装置(ハード・ディスク・ドライブなど)214で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。   The thought control module 200 includes a CPU (Central Processing Unit) 211, a RAM (Random Access Memory) 212, a ROM (Read Only Memory) 213, and an external storage device (hard disk) that execute arithmetic processing related to emotion judgment and emotion expression. A drive or the like) 214 and is an independent drive type information processing apparatus capable of performing self-contained processing in a module.

この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データなど、外界からの刺激などに従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを左右に1つずつ備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。また、思考制御モジュール200は、スピーカを備える音声出力装置253を介して、音声を出力することができる。   The thought control module 200 determines the current emotion and intention of the robot device 1 according to stimuli from the outside such as image data input from the image input device 251 and sound data input from the sound input device 252. Here, the image input device 251 includes, for example, one CCD (Charge Coupled Device) camera on each side, and the audio input device 252 includes, for example, a plurality of microphones. Moreover, the thought control module 200 can output a voice via a voice output device 253 provided with a speaker.

また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。   In addition, the thought control module 200 issues a command to the motion control module 300 to execute an action or action sequence based on decision making, that is, exercise of the limbs.

一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313、及び外部記憶装置(ハード・ディスク・ドライブなど)314で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。ここで、ZMPとは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、ZMP軌道とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic 著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。   One motion control module 300 includes a CPU 311 for controlling the whole body cooperative motion of the robot apparatus 1, a RAM 312, a ROM 313, and an external storage device (hard disk drive, etc.) 314, and performs self-contained processing within the module. It is an independent drive type information processing apparatus that can be performed. The external storage device 314 can store, for example, walking patterns calculated offline, target ZMP trajectories, and other action plans. Here, the ZMP is a point on the floor where the moment due to the floor reaction force during walking is zero, and the ZMP trajectory is, for example, a trajectory in which the ZMP moves during the walking operation period of the robot apparatus 1. Means. Regarding the concept of ZMP and the point where ZMP is applied to the stability criteria for walking robots, “LEGGED LOCOMOTION ROBOTS” written by Miomir Vukobratovic (“Walking Robot and Artificial Feet” written by Ichiro Kato (Nikkan Kogyo Shimbun)) It is described in.

運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、バッテリなどの電源を管理する電源制御装置354などの各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチなどで構成される。   The motion control module 300 includes an actuator 350 that realizes the degrees of freedom of joints distributed throughout the body of the robot apparatus 1 shown in FIG. 2, a posture sensor 351 that measures the posture and inclination of the trunk unit 2, and left and right soles Various devices such as ground check sensors 352 and 353 for detecting the leaving or landing of the vehicle and a power supply control device 354 for managing the power supply of the battery or the like are connected via a bus interface (I / F) 301. Here, the posture sensor 351 is configured by, for example, a combination of an acceleration sensor and a gyro sensor, and the grounding confirmation sensors 352 and 353 are configured by proximity sensors, micro switches, or the like.

思考制御モジュール200と運動制御モジュール300とは、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。   The thought control module 200 and the motion control module 300 are constructed on a common platform, and are interconnected via bus interfaces 201 and 301.

運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さなどを設定すると共に、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。   The motion control module 300 controls the whole body cooperative motion by each actuator 350 in order to embody the action instructed from the thought control module 200. That is, the CPU 311 extracts an operation pattern corresponding to the action instructed from the thought control module 200 from the external storage device 314 or internally generates an operation pattern. Then, the CPU 311 sets a foot movement, a ZMP trajectory, a trunk movement, an upper limb movement, a waist horizontal position, a height, and the like according to the specified movement pattern, and commands that instruct the movement according to these setting contents. The value is transferred to each actuator 350.

また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出すると共に、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚の何れの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。   In addition, the CPU 311 detects the posture and inclination of the trunk unit 2 of the robot apparatus 1 from the output signal of the posture sensor 351, and each leg unit 5R / L is caused to move freely by the output signals of the ground contact confirmation sensors 352 and 353. Alternatively, the whole body cooperative movement of the robot apparatus 1 can be adaptively controlled by detecting whether the robot is standing or standing.

また、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。   Further, the CPU 311 controls the posture and operation of the robot apparatus 1 so that the ZMP position is always directed to the center of the ZMP stable region.

さらに、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。   Furthermore, the motion control module 300 returns to the thought control module 200 the level of behavior as intended as determined by the thought control module 200, that is, the processing status.

このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。   In this way, the robot apparatus 1 can determine its own and surrounding conditions based on the control program and act autonomously.

(2)ロボット装置の動作制御方法
次に、上述したロボット装置1がカオス的な動作を発現するための動作制御方法について説明する。上述したように、ロボット装置1は、ユーザの動作の見まねを行う際に、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することが可能なものである。ロボット装置1の機能ブロック構成のうち、このカオス的な動作を発現するために必要な部分を図4に示す。
(2) Operation Control Method of Robot Device Next, an operation control method for causing the above-described robot device 1 to exhibit a chaotic operation will be described. As described above, the robot apparatus 1 is capable of expressing a chaotic motion that does not make the user more bored based on his / her physical property when imitating the user's motion. Of the functional block configuration of the robot apparatus 1, FIG. 4 shows a portion necessary for expressing this chaotic operation.

図4に示すように、ロボット装置1は、カメラ画像入力器10と、動き特徴量抽出器11と、動作生成器15と、動作ルールベース記憶器16と、アクチュエータ17とを有している。また、動き特徴量抽出器11は、自己モーション算出器12と、モーション混合器13と、BR抽出器14とからなる。   As shown in FIG. 4, the robot apparatus 1 includes a camera image input device 10, a motion feature amount extractor 11, a motion generator 15, a motion rule base storage device 16, and an actuator 17. The motion feature quantity extractor 11 includes a self-motion calculator 12, a motion mixer 13, and a BR extractor 14.

カメラ画像入力器10は、図3の画像入力装置251に相当し、単位時間毎のユーザのフレーム画像を入力し、差分画像又は画素毎の動きベクトルと、画素毎の距離情報を集めた距離画像とをフレーム毎に生成する。そして、カメラ画像入力器10は、生成した差分画像又は画素毎の動きベクトルと距離画像とをフレーム番号と共に動き特徴量抽出器11に供給する。   The camera image input device 10 corresponds to the image input device 251 in FIG. 3, and inputs a user frame image for each unit time, and collects a difference image or a motion vector for each pixel and distance information for each pixel. Are generated for each frame. Then, the camera image input unit 10 supplies the generated difference image or the motion vector for each pixel and the distance image to the motion feature amount extractor 11 together with the frame number.

動き特徴量抽出器11は、カメラ画像入力器10から供給された差分画像又は画素毎の動きベクトルと距離画像とからフレーム毎の動き特徴量を生成し、この動き特徴量を動作生成器15に供給する。以下、動き特徴量抽出器11内の各ブロックにおける処理について具体的に説明する。   The motion feature amount extractor 11 generates a motion feature amount for each frame from the difference image or the motion vector for each pixel and the distance image supplied from the camera image input device 10, and sends the motion feature amount to the motion generator 15. Supply. Hereinafter, the processing in each block in the motion feature quantity extractor 11 will be specifically described.

ここで、ロボット装置1は、ユーザの動作の見まねを行うが、自身の動作によって頭部ユニット3に設けられたCCDカメラが動くため、ユーザの動作がない場合にも、自身の動作だけでカメラ画像上に動きを等価的に発生させてしまう。これが自己モーション(エゴモーション)問題として公知の現象であり、ロボット装置1が純粋にユーザの動作のみを知りたい場合には、自身の動作の影響を差し引いた動きベクトルを得る必要がある。   Here, the robot apparatus 1 imitates the user's operation. However, since the CCD camera provided in the head unit 3 moves by its own operation, the camera can be operated only by its own operation even when there is no user operation. Equivalent motion is generated on the image. This is a phenomenon known as a self-motion (ego-motion) problem. When the robot apparatus 1 wants to know only a user's motion, it is necessary to obtain a motion vector from which the influence of its own motion is subtracted.

そこで、自己モーション算出器12は、単位時間毎にロボット装置1の全関節角情報を監視し、全関節角の時系列情報に基づいて、特定の点(例えばロボット装置1の重心)を原点としたときの頭部ユニット3の動きベクトルを動力学的に算出する。動きベクトルの算出は、公知の方法に従って行うことができる。このようにして算出した自身の動作のみに由来する動きベクトルで入力画像の動きベクトルを補正することにより、例えば純粋にユーザの動作のみに由来する動きベクトルを得ることができる。   Therefore, the self-motion calculator 12 monitors all joint angle information of the robot apparatus 1 every unit time, and based on the time series information of all joint angles, a specific point (for example, the center of gravity of the robot apparatus 1) is used as the origin. Then, the motion vector of the head unit 3 is dynamically calculated. The motion vector can be calculated according to a known method. By correcting the motion vector of the input image with the motion vector derived only from the own motion calculated in this way, for example, a motion vector derived purely from the user motion can be obtained.

モーション混合器13は、自己モーション算出器12から供給された自身の動作のみに由来する動きベクトルに基づいて入力画像の補正を行う。この際、モーション混合器13は、入力画像の動きベクトルから自身の動作のみに由来する動きベクトルを減じることでユーザの動作のみに由来する動きベクトルを生成するのではなく、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成する。具体的には、カメラ画像入力器10から供給された動きベクトルMと、自己モーション算出器12から供給された動きベクトルの画像平面射影vとから、以下の式(1)に従って動きベクトルM’を算出する。ここで、式(1)において、Iは行列Mと同じ大きさの単位行列であり、α,βはロボット装置1が適宜設定するパラメータである。パラメータα,βの設定方法については後述する。   The motion mixer 13 corrects the input image based on a motion vector derived only from its own motion supplied from the self-motion calculator 12. At this time, the motion mixer 13 does not generate a motion vector derived only from the user's motion by subtracting a motion vector derived only from the motion itself from the motion vector of the input image, but derives only from the motion itself. A motion vector in which a motion vector to be generated and a motion vector derived only from the user's motion are mixed in a desired ratio is generated. Specifically, the motion vector M ′ is obtained from the motion vector M supplied from the camera image input device 10 and the image plane projection v of the motion vector supplied from the self-motion calculator 12 according to the following equation (1). calculate. Here, in Expression (1), I is a unit matrix having the same size as the matrix M, and α and β are parameters that the robot apparatus 1 sets as appropriate. A method for setting the parameters α and β will be described later.

M’=α×M−β×v・I ・・・ (1)
なお、上述の例では簡単のため、自己モーション算出器12から供給された動きベクトルの画像平面射影vが行列の全成分において同じと仮定しているが、より厳密さが要求される場合には、ロボット装置1の身体特性(ロボット装置1の大きさやCCDカメラの画角等)をさらに加えた上で計算を行い、行列中のピクセル毎の正確な動きベクトル射影を算出することもできる。これにより、例えば頭部ユニット3が複雑に回転した場合等においても、より正確に入力画像の動きベクトルを補正することが可能となる。
M ′ = α × M−β × v · I (1)
In the above example, for simplicity, it is assumed that the image plane projection v of the motion vector supplied from the self-motion calculator 12 is the same in all components of the matrix. It is also possible to calculate an accurate motion vector projection for each pixel in the matrix by further adding the physical characteristics of the robot apparatus 1 (the size of the robot apparatus 1, the angle of view of the CCD camera, etc.). Thereby, for example, even when the head unit 3 rotates in a complicated manner, the motion vector of the input image can be corrected more accurately.

BR抽出器14は、図5に示すように、動き領域を囲むブロック領域(Block Region;BR)と呼ばれる矩形領域を抽出し、このブロック領域に関する情報を動作生成器15に供給する。ここで、ブロック領域に関する情報とは、具体的にはブロック領域の中心座標(nx,ny)、ブロック領域の縦横値ベクトル(sx,sy)、及びロボット装置1の重心から実際の動き対象までの距離dを合わせた5要素からなるベクトル(nx,ny,sx,sy,d)である。   As shown in FIG. 5, the BR extractor 14 extracts a rectangular region called a block region (BR) surrounding the motion region, and supplies information related to the block region to the motion generator 15. Here, the information regarding the block area specifically includes the center coordinates (nx, ny) of the block area, the vertical / horizontal value vector (sx, sy) of the block area, and the center of gravity of the robot apparatus 1 to the actual movement target. This is a vector (nx, ny, sx, sy, d) consisting of five elements with the distance d combined.

なお、ブロック領域の中心座標や縦横値ベクトルは、フレーム中の相対位置として求められるが、距離画像と合わせることによりロボット装置1の重心を原点とした実際の3次元位置や大きさに変換し、これらの値を上述のベクトル要素として用いるようにしても構わない。   The center coordinates and vertical / horizontal value vectors of the block area are obtained as relative positions in the frame, but are converted into actual three-dimensional positions and sizes with the center of gravity of the robot apparatus 1 as the origin by combining with the distance image, These values may be used as the vector elements described above.

動作生成器15は、BR抽出器14から供給されたブロック領域に関する情報を自らの関節角制御情報にマッピングする。具体的に、動作生成器15は、動作ルールベース記憶器16から予めプログラマが決定した動作ルールベース、例えば
肩関節ピッチ軸のピッチ角=γ1×nx
肩関節ロール軸のロール角=γ2×sx
体幹ピッチ軸のピッチ角=γ3×d
のようなものを読み出し、これを用いて関節角制御情報を得る。ここで、γ1,γ2,γ3はそれぞれ所定のパラメータである。動作生成器15は、このようにして得られた関節角制御情報をアクチュエータ17に供給して駆動し、動作として発現させる。
The motion generator 15 maps the information regarding the block area supplied from the BR extractor 14 to its own joint angle control information. Specifically, the motion generator 15 is a motion rule base previously determined by the programmer from the motion rule base storage 16, for example, the pitch angle of the shoulder joint pitch axis = γ1 × nx.
Roll angle of shoulder joint roll axis = γ2 × sx
Pitch angle of trunk pitch axis = γ3 × d
Is obtained, and joint angle control information is obtained using this. Here, γ1, γ2, and γ3 are predetermined parameters. The motion generator 15 supplies the joint angle control information obtained in this way to the actuator 17 and drives it to express it as a motion.

次に、モーション混合器13におけるパラメータα,βの設定方法について説明する。   Next, a method for setting the parameters α and β in the motion mixer 13 will be described.

上述した式(1)におけるパラメータα,βをα=β=1.0とした場合、動きベクトルM’はM−v・I、すなわちユーザの動作のみに由来するものとなるため、動作生成器15では完全にユーザの動作のみに基づいて動作が生成される。これは、ロボット装置1がユーザの動作に引き込まれて見まね動作を発現することに対応する。ここで、ユーザの動作が規則的である場合、例えばユーザがロボット装置1の前で左右一定周期で手を振るような場合、ブロック領域のt時点における中心座標nxをx座標とし、t+1時点における中心座標nxをy座標としてプロットしたトラジェクトリは図6のような周期アトラクタになる。   When the parameters α and β in the above equation (1) are set to α = β = 1.0, the motion vector M ′ is derived from Mv · I, that is, only the user's motion. At 15, the motion is generated based solely on the user's motion. This corresponds to the robot device 1 being drawn into the user's motion and exhibiting a mimicking motion. Here, when the user's movement is regular, for example, when the user shakes his / her hand in front of the robot apparatus 1 at a constant left / right period, the center coordinate nx at the time t in the block region is set as the x coordinate, and at the time t + 1. A trajectory in which the center coordinate nx is plotted as the y coordinate is a periodic attractor as shown in FIG.

また、式(1)におけるパラメータα,βをα=1,β=0とした場合、動作生成器15ではユーザの動作のみならず自身の動作にも基づいて動作が生成されるため、複雑な挙動となる。上述と同様にユーザがロボット装置1の前で左右一定周期で手を振るような場合、そのトラジェクトリは図7のようなカオス性を有するものとなる。これは、ユーザの動作が規則的なものであったとしても、それが自身の動作と組み合わさることでランダム性がブートストラップ的に加算されていき、長期的に予測の困難な複雑な軌跡がロボット装置1の身体性(物理特性)に基づき生成されているためと説明できる。   Further, when the parameters α and β in the equation (1) are α = 1 and β = 0, the motion generator 15 generates a motion based on not only the user's motion but also its own motion. It becomes a behavior. In the same manner as described above, when the user shakes his / her hand in front of the robot apparatus 1 at a fixed period, the trajectory has chaotic properties as shown in FIG. This is because even if the user's movement is regular, it is combined with its own movement, and randomness is added in a bootstrap manner, resulting in a complicated trajectory that is difficult to predict in the long run. This can be explained as being generated based on the physicality (physical characteristics) of the robot apparatus 1.

さらに、モーション混合器13においてパラメータα,βを調整することにより、自身の動作の影響を自在に制御することができ、これにより、動作出力におけるカオス性の強さをコントロールすることが可能となる。具体的には、例えばインタラクション対象であるユーザから飽き具合を音声やボタンなどで指示してもらい、飽き具合が高い場合にはカオス性の強いより複雑な動作を発現するようにすることができる。   Furthermore, by adjusting the parameters α and β in the motion mixer 13, it is possible to freely control the influence of its own operation, thereby controlling the strength of chaoticity in the operation output. . Specifically, for example, a user who is an object of interaction is instructed by voice or a button to get tired, and when the degree of tiredness is high, a more complicated operation with strong chaos can be expressed.

以上説明したように、本実施の形態におけるロボット装置1及びその動作制御方法によれば、自身の動作のみに由来する動きベクトルとユーザの動作のみに由来する動きベクトルとが所望の比率で混合された動きベクトルを生成し、その動きベクトル等に基づいて動作を生成するため、ユーザをより飽きさせることのないカオス的な動作を自身の身体性に基づいて発現することができる。   As described above, according to the robot apparatus 1 and the motion control method thereof in the present embodiment, the motion vector derived only from its own motion and the motion vector derived only from the user's motion are mixed in a desired ratio. Since a motion vector is generated and a motion is generated based on the motion vector or the like, a chaotic motion that does not make the user more tired can be expressed based on his / her physicality.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上述の実施の形態では、動作ルールベース記憶器16から読み出した動作ルールベースに基づいて関節角制御情報を得るものとして説明したが、これに限定されるものではなく、画像処理分野でよく用いられる基本的なテンプレートマッチングやカラーヒストグラム情報を用いて例えばユーザの頭と左右両手の位置を求め、この位置情報を逆キネマティクスを用いてロボット装置1自身の関節角制御情報に変換するようにしても構わない。   For example, in the above-described embodiment, it has been described that the joint angle control information is obtained based on the operation rule base read from the operation rule base storage unit 16, but the present invention is not limited to this, and may be used in the image processing field. For example, the position of the user's head and both left and right hands is obtained using basic template matching and color histogram information used, and this position information is converted into joint angle control information of the robot apparatus 1 itself using inverse kinematics. It doesn't matter.

また、上述の実施の形態では、入力情報としてカメラ画像を用いたが、これに限定されるものではなく、音響信号等の別のモーダルを用いるようにしても構わない。   In the above-described embodiment, a camera image is used as input information. However, the present invention is not limited to this, and another modal such as an acoustic signal may be used.

また、上述の実施の形態では、コミュニケーション対象としてユーザを想定したが、これに限定されるものではなく、ロボット装置等の非生物や動物などの他の動作主体をコミュニケーション対象としても構わない。   In the above-described embodiment, a user is assumed as a communication target. However, the present invention is not limited to this, and other moving subjects such as non-living animals such as robot devices and animals may be set as communication targets.

本実施の形態におけるロボット装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of the robot apparatus in this Embodiment. 同ロボット装置の機能構成を模式的に示すブロック図である。3 is a block diagram schematically showing a functional configuration of the robot apparatus. FIG. 同ロボット装置の制御ユニットの構成を詳細に示すブロック図である。It is a block diagram which shows the structure of the control unit of the robot apparatus in detail. 同ロボット装置の機能ブロック構成のうち、カオス的な挙動を発生させるために必要な部分を示す図である。It is a figure which shows a part required in order to generate chaotic behavior among the functional block structures of the robot apparatus. 同ロボット装置のBR抽出器で抽出されるブロック領域を示す図である。It is a figure which shows the block area | region extracted with BR extractor of the robot apparatus. ユーザの動作のみに基づいて動作を生成する場合のトラジェクトリを示す図である。It is a figure which shows the trajectory in the case of producing | generating an operation | movement based only on a user's operation | movement. ユーザ及び自身の動作に基づいて動作を生成する場合のトラジェクトリを示す図である。It is a figure which shows the trajectory in the case of producing | generating an operation | movement based on a user and own operation | movement.

符号の説明Explanation of symbols

1 ロボット装置、10 カメラ画像入力器、11 動き特徴量抽出器、12 自己モーション算出器、13 モーション混合器、14 BR抽出器、15 動作生成器、16 動作ルールベース記憶器、17 アクチュエータ   DESCRIPTION OF SYMBOLS 1 Robot apparatus, 10 Camera image input device, 11 Motion feature-value extractor, 12 Self-motion calculator, 13 Motion mixer, 14 BR extractor, 15 Action generator, 16 Action rule base memory | storage device, 17 Actuator

Claims (4)

自律的に動作可能なロボット装置であって、
他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力手段と、
上記動作入力手段によって入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合手段と、
生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出手段と、
上記ブロック領域に基づいて、発現する動作を生成する動作生成手段と、
外部からの指示を入力する指示入力手段とを備え、
上記指示入力手段からの指示が与えられたとき、上記動作混合手段が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整して混合する
ロボット装置。
A robot device that can operate autonomously,
An operation input means for inputting the image of the other operation subject per unit time via an imaging means for imaging the operation of the other operation subject;
Based on the data input by the motion input means, motion mixing means for generating a motion vector in which a motion vector derived from the motion of the other motion subject and a motion vector derived from its own motion are mixed;
Block area extraction means for extracting information on a rectangular block area surrounding a portion indicating the movement in the image of the other operation subject based on the generated motion vector;
Based on the block region, action generating means for generating an action to be expressed,
An instruction input means for inputting an instruction from the outside,
When an instruction is given from the instruction input means , the motion mixing means adjusts and mixes the mixing ratio of the motion vector derived from the motion of the other motion subject and the motion vector derived from the own motion. Yes Robotic device.
上記ブロック領域抽出手段は、上記他の動作主体の上記ブロック領域の中心座標及び縦横値ベクトル、並びに上記他の動作主体までの距離の要素を含むブロック領域に関する情報を出力し、
上記動作生成手段は、上記ブロック領域抽出手段からの上記ブロック領域に関する情報に基づいて、発現する動作を生成する請求項1記載のロボット装置。
The block area extracting means outputs said other operation the block center coordinates and vertical and horizontal value vector region of the subject, as well as information about the block area including the elements of the distance to the other operation subject,
The robot apparatus according to claim 1, wherein the motion generation unit generates a motion to be expressed based on information related to the block region from the block region extraction unit.
自律的に動作可能なロボット装置の動作制御方法であって、
他の動作主体の動作を撮像する撮像手段を介して単位時間毎の上記他の動作主体の画像を入力する動作入力工程と、
上記動作入力工程にて入力されたデータに基づいて、上記他の動作主体の動作に由来する動きベクトルと自身の動作に由来する動きベクトルとが混合された動きベクトルを生成する動作混合工程と、
生成された動きベクトルに基づいて上記他の動作主体の画像中での動きを示す部分を囲む矩形のブロック領域に関する情報を抽出するブロック領域抽出工程と、
上記ブロック領域に基づいて、発現する動作を生成する動作生成工程と、
外部からの指示を入力する指示入力工程とを備え、
上記動作混合工程では、上記指示入力工程での指示が与えられたとき、上記ロボット装置が、上記他の動作主体の動作に由来する動きベクトルと上記自身の動作に由来する動きベクトルとの混合比率を調整する
ロボット装置の動作制御方法。
An operation control method for an autonomously operable robotic device,
An operation input step of inputting the image of the other operation subject per unit time via an imaging means for imaging the operation of the other operation subject;
Based on the data input in the motion input step, a motion mixing step of generating a motion vector in which a motion vector derived from the motion of the other motion subject and a motion vector derived from its own motion are mixed,
A block region extraction step for extracting information on a rectangular block region surrounding a portion indicating the motion in the image of the other operation subject based on the generated motion vector;
Based on the block area, an action generation step for generating an action to be expressed,
An instruction input process for inputting instructions from the outside,
In the motion mixing step, when an instruction in the instruction input step is given, the robot apparatus mixes a motion vector derived from the motion of the other motion subject and a motion vector derived from the motion of the robot device. A method for controlling the operation of a robot apparatus.
上記ブロック領域抽出工程では、上記他の動作主体の上記動き領域を囲む矩形のブロック領域の中心座標及び縦横値ベクトル、並びに上記他の動作主体までの距離の要素を含むブロック領域に関する情報を出力し、
上記動作生成工程では、上記ブロック領域抽出工程からの上記ブロック領域に関する情報に基づいて、発現する動作を生成する請求項3記載のロボット装置の動作制御方法。
In the block area extracting step, information on a block area including a center coordinate and a vertical / horizontal value vector of a rectangular block area surrounding the motion area of the other action subject, and an element of a distance to the other action subject is output. ,
The robot apparatus motion control method according to claim 3, wherein in the motion generation step, a motion to be expressed is generated based on information on the block region from the block region extraction step.
JP2004317001A 2004-10-29 2004-10-29 Robot apparatus and operation control method thereof Expired - Fee Related JP4539291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004317001A JP4539291B2 (en) 2004-10-29 2004-10-29 Robot apparatus and operation control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004317001A JP4539291B2 (en) 2004-10-29 2004-10-29 Robot apparatus and operation control method thereof

Publications (2)

Publication Number Publication Date
JP2006123127A JP2006123127A (en) 2006-05-18
JP4539291B2 true JP4539291B2 (en) 2010-09-08

Family

ID=36718335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004317001A Expired - Fee Related JP4539291B2 (en) 2004-10-29 2004-10-29 Robot apparatus and operation control method thereof

Country Status (1)

Country Link
JP (1) JP4539291B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4967062B2 (en) * 2007-08-22 2012-07-04 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー A method to estimate the appropriate motion of an object using optical flow, kinematics and depth information
JP2010160669A (en) * 2009-01-08 2010-07-22 Linfops Kk Control method for robot
EP3795225A4 (en) 2018-05-15 2022-03-30 Sony Group Corporation Control device, control method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299001A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Biped walking robot control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08187364A (en) * 1995-01-10 1996-07-23 Sony Corp Driving of movable toy and device therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299001A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Biped walking robot control device

Also Published As

Publication number Publication date
JP2006123127A (en) 2006-05-18

Similar Documents

Publication Publication Date Title
JP3714268B2 (en) Robot device
US7689322B2 (en) Robot apparatus and method of controlling the motion thereof
JP3855812B2 (en) Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
JP4086024B2 (en) Robot apparatus and behavior control method thereof
JP4239635B2 (en) Robot device, operation control method thereof, and program
Sripada et al. Teleoperation of a humanoid robot with motion imitation and legged locomotion
JP2002144260A (en) Leg type moving robot and its control method
Barros et al. Bimanual haptics for humanoid robot teleoperation using ROS and V-REP
Kemp et al. Humanoids
Kopacek Cost oriented humanoid robots
Park et al. Control hardware integration of a biped humanoid robot with an android head
JP2001138272A (en) Leg type mobile robot and control method for its motion
JP4539291B2 (en) Robot apparatus and operation control method thereof
WO2013121469A1 (en) Legged robot
Muecke et al. Darwin’s evolution: Development of a humanoid robot
JP2005111654A (en) Robot device and walking control method for robot device
Lee et al. Development and walking control of emotional humanoid robot, KIBO
Zielinska et al. Biologically inspired motion synthesis method of two-legged robot with compliant feet
JP4506249B2 (en) Robot apparatus and operation comparison method thereof
JP2003266348A (en) Robot device and control method therefor
JP4552490B2 (en) Robot apparatus and emotion control method thereof
CN117207203B (en) Robot control method, device, robot and storage medium
JP2003266350A (en) Robot device and internal condition expressing device
Wasielica et al. Design and applications of a miniature anthropomorphic robot
JP2003266352A (en) Robot device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees