JP4649913B2 - Robot apparatus and movement control method of robot apparatus - Google Patents

Robot apparatus and movement control method of robot apparatus Download PDF

Info

Publication number
JP4649913B2
JP4649913B2 JP2004241380A JP2004241380A JP4649913B2 JP 4649913 B2 JP4649913 B2 JP 4649913B2 JP 2004241380 A JP2004241380 A JP 2004241380A JP 2004241380 A JP2004241380 A JP 2004241380A JP 4649913 B2 JP4649913 B2 JP 4649913B2
Authority
JP
Japan
Prior art keywords
category
movement
walking
movement control
moving surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004241380A
Other languages
Japanese (ja)
Other versions
JP2005111654A (en
Inventor
健一 日台
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004241380A priority Critical patent/JP4649913B2/en
Publication of JP2005111654A publication Critical patent/JP2005111654A/en
Application granted granted Critical
Publication of JP4649913B2 publication Critical patent/JP4649913B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、自律的に動作する脚式移動型のロボット装置及びロボット装置の移動制御方法に関し、床面等の歩行面の状態が大きく変わるような領域でも移動を可能とするロボット装置及びロボット装置の移動制御方法に関する。 The present invention relates to a legged mobile robot apparatus that operates autonomously and a movement control method for the robot apparatus, and a robot apparatus and a robot apparatus that can move even in a region where the state of a walking surface such as a floor surface changes greatly. The present invention relates to a movement control method.

電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータ及び搬送ロボット等の産業用ロボット(Industrial Robot)であった。   A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots started to spread in Japan from the end of the 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.

最近では、人間のパートナーとして生活を支援する、即ち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬又は猫のように4足歩行の動物の身体メカニズム及びその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズム及びその動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。   Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, a “pet-type” robot that mimics the body mechanism and movement of a four-legged animal such as a dog or cat, or a body mechanism and movement of a human that walks upright on two legs. Robot devices such as “humanoid” or “humanoid robots” are already in practical use.

これらのロボット装置は、産業用ロボットと比較して、例えばエンターテインメント性を重視した様々な動作等を行うことができるため、エンターテインメントロボットと呼称される場合もある。また、そのようなロボット装置には、カメラ等の撮像手段や、各種センサ等を搭載して外部からの情報を取得し、これらの外部情報(外部刺激)と、自己の内部の状態に応じて自律的に行動することができる。   Since these robot devices can perform various operations with an emphasis on entertainment, for example, compared to industrial robots, they may be referred to as entertainment robots. In addition, such a robot apparatus is equipped with imaging means such as a camera, various sensors, etc., to acquire information from the outside, and depending on these external information (external stimuli) and the internal state of itself Can act autonomously.

ところで、このようなロボット装置のうち、脚式移動型のロボット装置、特に2足歩行タイプのロボット装置が実際の環境下において機体全体のバランスを保ちつつ例えば傾斜があったり障害物があったりするような床面を歩行することは容易ではない。通常は、足底に設けられたセンサ等から得られる床反力等や各関節角度等を基に各関節に設けられたアクチュエータへ出力する制御信号を算出することにより歩行が可能となる。   By the way, among such robotic devices, legged mobile robotic devices, particularly bipedal walking type robotic devices, for example, are inclined or have obstacles while maintaining the balance of the entire body in an actual environment. Walking on such a floor is not easy. Usually, walking is possible by calculating a control signal to be output to an actuator provided at each joint based on a floor reaction force obtained from a sensor or the like provided on the sole or each joint angle.

例えば下記特許文献1には、足平(足部)の接地面傾斜と両足平接地面間の高低差とを同時に推定しながら歩行する脚式移動型ロボット装置の床形状推定装置の技術が開示されている。   For example, the following Patent Document 1 discloses a technology of a floor shape estimation device for a legged mobile robot device that walks while simultaneously estimating a ground contact surface inclination of a foot (foot) and a height difference between both foot contact surfaces. Has been.

特開2001−328083号公報JP 2001-328083 A

しかしながら、上記特許文献1に記載の技術においては、床面の局所的な形状を推定することでスムーズな歩行を可能としているものの、実際に足部が着床するまで、床面に関する情報は全くもっておらず、このような視点からでは非常に短期的な歩行計画の修正をしているにすぎない。   However, in the technique described in Patent Document 1, although smooth walking is possible by estimating the local shape of the floor surface, there is absolutely no information about the floor surface until the foot actually landed. From this point of view, it is only a very short amendment to the walking plan.

すなわち、床面に着床しながら適応的に軌道の補正量(適応操作量)を算出することは可能だが、床面に関する一歩毎の知識をその一歩の着床前に取得することはできず、歩行制御時に、一歩単位ではなくより広い範囲(の床面)を想定した、床面に最適な制御形態を自動的に判別することができず、予め決められた制御形態に基づき適応操作量を算出する必要がある。ここで、上記特許文献1等における適応操作量とは、ある基準となる歩行制御モデルに対して、床面の傾斜や自身の姿勢等に応じた補正量である。したがって、連続的な変化、即ち歩行制御モデルの制御内容をゆっくりは変えられても、このような適応操作のみでは対応できない場合には歩行が困難になってしまうという問題点がある。   In other words, it is possible to adaptively calculate the correction amount of the trajectory (adaptive operation amount) while landing on the floor, but it is not possible to acquire knowledge of each step about the floor before landing one step. During walking control, it is not possible to automatically determine the optimal control form for the floor, assuming a wider range (of the floor) instead of one step unit, and the adaptive operation amount based on the predetermined control form Need to be calculated. Here, the adaptive operation amount in the above-mentioned patent document 1 or the like is a correction amount corresponding to the inclination of the floor surface, its own posture, or the like with respect to a certain walking control model. Accordingly, there is a problem that even if the change of the continuous control, that is, the control content of the walking control model can be changed slowly, it is difficult to walk if such adaptive operation alone cannot be used.

例えば、板面や大理石、コンクリート等の硬い接地面(床面)を歩行する場合と、絨毯や芝生のような柔らかい接地面上を歩行する場合とでは、基準となる歩行制御形態である例えば歩行制御モデルからの現在の床面に応じた適応操作量を算出するためのパラメータや係数、又は歩行アルゴリズム(歩行モデル)が全く異なり、歩行制御形態を変更せずに適応操作量を算出するのみでは、硬い接地面からやわらかい接地面へというような床面の状態が大きく変わるような領域へ移動することはできない。したがって、そのような移動の際には、ロボット装置自身では、歩行可能か否かの判別もできず、人間が手動で床面に関する知識を設定し直す、具体的には例えば床面に応じて適応操作量を算出するためのパラメータを設定し直す等の必要があった。   For example, when walking on a hard ground surface (floor surface) such as a plate surface, marble, or concrete, and when walking on a soft ground surface such as a carpet or lawn, it is a standard walking control mode, for example, walking. The parameters and coefficients for calculating the adaptive operation amount according to the current floor surface from the control model, or the walking algorithm (walking model) are completely different, and simply calculating the adaptive operation amount without changing the walking control form It is not possible to move to a region where the floor surface state changes greatly, such as from a hard ground surface to a soft ground surface. Therefore, during such movement, the robot apparatus itself cannot determine whether or not walking is possible, and a person manually resets the knowledge about the floor surface. Specifically, for example, according to the floor surface It was necessary to reset parameters for calculating the adaptive operation amount.

本発明は、このような従来の実情に鑑みて提案されたものであり、歩行する床面の状態を判別することで、一歩毎の歩行計画の修正ではなく、床面に応じて歩行制御形態を変更し、床面の状態が大きく変化するような場合でも安定した歩行を可能とするロボット装置及びロボット装置の移動制御方法を提供することを目的とする。 The present invention has been proposed in view of such a conventional situation, and by determining the state of the floor on which to walk, the walking control mode is not corrected according to the walking plan for each step, but according to the floor. It is an object of the present invention to provide a robot apparatus and a movement control method for the robot apparatus that enable stable walking even when the floor surface state changes greatly.

上述した目的を達成するために、本発明のロボット装置は、自律的に動作可能な脚式移動型ロボット装置において、現在の移動面に関する情報に基づき、予め用意された複数のカテゴリから現在の移動面のカテゴリである移動面カテゴリを判別する移動面判別手段と、上記移動面判別手段により判別された上記移動面カテゴリに応じて所定の移動制御形態を選択し、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている移動制御形態に基づき移動制御量を算出して移動を制御する移動制御手段とを有し、上記移動制御手段は、上記カテゴリ毎に異なる移動制御モデル又は移動アルゴリズムを有し、入力される上記移動面カテゴリに対応した移動制御モデル又は移動アルゴリズムを選択し、上記センサ値を使用して上記移動制御モデルからの補正量又は上記移動アルゴリズムに従った適応操作量を上記移動制御量として算出し、上記移動面判別手段は、上記移動制御量を上記現在の移動面に関する情報として使用する。 To achieve the above object, a robot apparatus of the present invention, in autonomously operable legged mobile robot apparatus, based on information about the current moving surface, the movement of the current from the previously prepared plurality of categories were a moving surface determining means for determining a moving surface category is a category of the surface, to select the predetermined movement control mode in response to the movement plane category is determined by the movement plane determining means, sensor provided on at least the leg portion from the sensor value output from possess a movement controlling means for controlling the movement by calculating the movement control amount based on the movement control mode being selected, the movement control means, movement control different models for each of the categories Or having a movement algorithm, selecting a movement control model or a movement algorithm corresponding to the input moving plane category, and using the sensor value A correction amount or adaptive operation amount in accordance with the moving algorithm from serial movement control model calculated as the movement control amount, the moving surface determining means uses the movement control amount as information relating to the current movement plane.

本発明においては、従来のように歩行中に適宜歩行モデルの補正量を算出する方法とは異なり、床面の状態を予め用意された所定の床面カテゴリに判別し、この判別結果に応じて所定の歩行制御形態を選択することで、床面に最適な歩行制御形態に従って歩行を制御することができる。   In the present invention, unlike the conventional method of calculating the correction amount of the walking model as appropriate during walking, the floor surface state is determined to a predetermined floor surface category prepared in advance, and according to the determination result. By selecting a predetermined walking control form, walking can be controlled according to the walking control form optimal for the floor surface.

また、上記歩行制御手段は、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている歩行制御形態に基づき歩行制御量を算出し、上記歩行面判別手段は、上記歩行制御量を上記現在の歩行面に関する情報として使用することができ、例えば脚部に関節等を有する場合には、それら関節の角度を検出したり、足底の歩行面からの反力を検出したりする各種センサのセンサ値から換算される歩行制御量はそのときの床面に関する情報を含むものであり、これを使用して床面カテゴリ判別を行うことができる。   The walking control means calculates a walking control amount based on a selected walking control form from sensor values output from at least sensors provided on the legs, and the walking surface discrimination means includes the walking control The amount can be used as information regarding the current walking surface. For example, when the legs have joints, the angles of the joints are detected, the reaction force from the foot walking surface is detected, The walking control amount converted from the sensor values of the various sensors includes information on the floor surface at that time, and can be used to determine the floor surface category.

更に、上記歩行制御手段は、上記カテゴリ毎に異なる歩行制御モデルを有し、入力される上記歩行面カテゴリに対応した歩行制御モデルを選択し、上記センサ値を使用して該歩行制御モデルからの補正量を上記歩行制御量として算出するか、上記歩行制御手段は、上記センサ値を所定のパラメータを使用して上記歩行制御量に換算するものであって、上記カテゴリ毎に異なるパラメータを有し、入力される上記歩行面カテゴリに対応したパラメータを使用して上記歩行制御量を算出することができ、このことにより、入力される床面カテゴリに応じて、最適な歩行制御モデル又は最適なパラメータを選択して歩行制御量を算出することができるので、安定した歩行を行うことができる。   Further, the walking control means has a different walking control model for each category, selects a walking control model corresponding to the input walking plane category, and uses the sensor value to determine from the walking control model. The correction amount is calculated as the walking control amount, or the walking control means converts the sensor value into the walking control amount using a predetermined parameter, and has different parameters for each category. The amount of walking control can be calculated using parameters corresponding to the input walking surface category, and thus, the optimal walking control model or the optimal parameter can be calculated according to the input floor surface category. Since the walking control amount can be calculated by selecting, stable walking can be performed.

更にまた、上記歩行面判別手段は、少なくとも脚部に設けられたセンサから出力されるセンサ値を上記現在の床面に関する情報として使用したり、撮像手段を有し、上記歩行面判別手段は、上記撮像手段により撮像された入力画像から歩行面領域を抽出し該歩行面領域を上記現在の歩行面に関する情報として使用したりすることができ、センサ値及び床面領域は現在の床面に関する情報を含むものであり、これらを使用して床面カテゴリ判別を行うことができる。   Furthermore, the walking surface discriminating means uses at least a sensor value output from a sensor provided on a leg as information relating to the current floor surface, or has an imaging unit. The walking surface area can be extracted from the input image captured by the imaging means, and the walking surface area can be used as information regarding the current walking surface. The sensor value and the floor surface area are information regarding the current floor surface. The floor category classification can be performed using these.

また、上記歩行面判別手段は、上記現在の歩行面に関する情報のパターン識別により歩行面カテゴリを判別することができ、例えば上記床面判別手段は、所定の基準に応じて分類されたカテゴリ毎に、その床面に関する情報の特徴量を予め学習した学習済特徴量を有し、現在の床面に関する情報の特徴量と上記学習済特徴量とを比較して床面カテゴリを判別することができ、各種の床面を必要と考えられる床面カテゴリに分類してから学習させることができる。   Further, the walking surface discriminating means can discriminate a walking surface category by pattern identification of information relating to the current walking surface. For example, the floor surface discriminating means is provided for each category classified according to a predetermined standard. , Having a learned feature amount that has been learned in advance with respect to the feature amount of the information relating to the floor surface, and comparing the feature amount of the information relating to the current floor surface with the learned feature amount, to determine the floor category It is possible to learn after classifying various floors into floor categories considered necessary.

更に、上記複数のカテゴリは、歩行面に関する情報の特徴量を予め学習した学習済特徴量に応じて分類されたものであって、上記歩行面判別手段は、現在の歩行面に関する情報の特徴量と上記学習済特徴量とを比較して歩行面カテゴリを判別することができ、床面から得られる特徴量に応じて床面カテゴリを分類してもよい。   Further, the plurality of categories are classified according to learned feature values obtained by previously learning feature amounts of information relating to the walking surface, and the walking surface determination means includes the feature amount of information relating to the current walking surface. And the learned feature value can be compared to determine the walking surface category, and the floor surface category may be classified according to the feature value obtained from the floor surface.

更にまた、歩行面カテゴリを判別するための足踏み動作を生成する動作生成手段を有し、上記歩行制御手段は、上記足踏み動作時に、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている歩行制御形態に基づき歩行制御量を算出し、上記歩行面判別手段は、上記歩行制御量を上記歩行面に関する情報として使用してもよく、足踏み動作により歩行前に床面カテゴリを判別することができる。   Furthermore, it has an action generation means for generating a stepping action for discriminating the walking surface category, and the walking control means is configured to obtain at least a sensor value output from a sensor provided on a leg during the stepping action. The walking control amount may be calculated based on the selected walking control mode, and the walking surface determination unit may use the walking control amount as information on the walking surface, and the floor category may be determined before walking by the stepping action. Can be determined.

また、上記歩行面判別手段は、歩行中に連続的に歩行面カテゴリを判別することができ、歩行中常時床面カテゴリを判別することで、歩行により床面の状態が大きく変化するような場合であっても、安定した歩行を可能とする。   Further, the walking surface discriminating means can continuously discriminate the walking surface category during walking, and the floor surface state changes greatly by walking by constantly determining the floor surface category during walking. Even so, stable walking is possible.

本発明に係るロボット装置の移動制御方法は、自律的に動作可能な脚式移動型ロボット装置の移動制御方法において、現在の移動面に関する情報に基づき、予め用意された複数のカテゴリから現在の移動面のカテゴリである移動面カテゴリを判別する移動面判別工程と、上記移動面判別工程にて判別された上記移動面カテゴリに応じて所定の移動制御形態を選択し、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている移動制御形態に基づき移動制御量を算出して移動を制御する移動制御工程とを有し、上記移動制御工程では、上記カテゴリ毎に異なる移動制御モデル又は移動アルゴリズムを有し、入力される上記移動面カテゴリに対応した移動制御モデル又は移動アルゴリズムを選択し、上記センサ値を使用して上記移動制御モデルからの補正量又は上記移動アルゴリズムに従った適応操作量を上記移動制御量として算出し、上記移動面判別工程では、上記移動制御量を上記現在の移動面に関する情報として使用する Movement control method for a robot apparatus according to the present invention is a movement control method for autonomously operable legged mobile robot apparatus, based on information about the current moving surface, from a plurality of categories, which are prepared in advance of the current mobile a moving surface determination step of determining a moving surface category is a category of the surface, to select the predetermined movement control mode in accordance with the discriminated said movement plane category in the movement plane determination step, provided on at least the leg portion from the sensor value output from the sensor, it has a movement control step of controlling the movement by calculating the movement control amount based on the movement control mode being selected, in the movement control step, movement control different for each of the categories Select a movement control model or a movement algorithm corresponding to the input movement plane category, and use the sensor value. A correction amount or adaptive operation amount in accordance with the moving algorithms from the mobile control model calculated as the movement control amount in the above movement plane determination step, using the movement control amount as information relating to the current movement plane.

本発明によれば、現在の床面等の歩行面に応じて算出される、基準となる歩行制御モデルからの補正量である歩行制御量、足底や関節等に設けられたセンサからのセンサ値、又は入力画像に含まれる歩行面領域等の歩行面に関する情報を入力として現在の歩行面のカテゴリを判別し、この判別結果に応じて、歩行制御するための歩行制御形態を選択して歩行を制御するため、予め歩行面の状態を歩行面カテゴリとして認識してから歩行制御することができ、特に歩行面の状態が大きく変化するような領域間を歩行するような場合などにおいては、歩行中に適宜補正しながら歩行制御する従来の方法に比して格段に安定した歩行制御を行うことができるロボット装置及びその歩行制御方法を提供することができる。   According to the present invention, a walking control amount that is a correction amount from a reference walking control model that is calculated according to a current walking surface such as a floor surface, a sensor from sensors provided on a sole, a joint, or the like. The current walking surface category is determined using the value or information about the walking surface such as the walking surface area included in the input image as input, and the walking control mode for walking control is selected according to the determination result and walking In order to control walking, it is possible to control walking after recognizing the state of the walking surface as a walking surface category in advance, especially when walking between areas where the state of the walking surface changes greatly. It is possible to provide a robot apparatus and its walking control method that can perform walking control that is much more stable than conventional methods that control walking while appropriately correcting the movement.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、対象物に、装置の一部分等を接触させるような動作制御を行うロボット装置に適用したものである。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. This embodiment is applied to a robot apparatus that performs operation control such that a part of the apparatus is brought into contact with an object.

本実施の形態においては、2足歩行型のロボット装置を例にとって説明するが、2足歩行のロボット装置に拘わらず、4足又は車輪等により移動可能なロボット装置に適用できることはいうまでもない。ここでは、先ず、2足歩行型のロボット装置について説明し、次に、そのようなロボット装置の歩行の制御方法について説明する。   In the present embodiment, a bipedal walking robot device will be described as an example, but it goes without saying that the present invention can be applied to a robotic device that can be moved by four feet or wheels regardless of the bipedal walking robot device. . Here, a bipedal walking robot apparatus will be described first, and then a walking control method of such a robot apparatus will be described.

(1)ロボット装置
この人間型のロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。図1は、本実施の形態におけるロボット装置の概観を示す斜視図である。
(1) Robotic device This humanoid robotic device is a practical robot that supports human activities in various situations in the living environment and other daily lives, depending on the internal state (anger, sadness, joy, fun, etc.) It is an entertainment robot that can express basic actions performed by humans. FIG. 1 is a perspective view showing an overview of the robot apparatus according to the present embodiment.

図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。   As shown in FIG. 1, the robot apparatus 1 includes a head unit 3 connected to a predetermined position of the trunk unit 2, and two left and right arm units 4R / L and two right and left leg units 5R /. L is connected to each other (provided that R and L are suffixes indicating right and left, respectively, and the same applies hereinafter).

このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。   The joint degree-of-freedom configuration of the robot apparatus 1 is schematically shown in FIG. The neck joint that supports the head unit 3 has three degrees of freedom: a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 103.

また、上肢を構成する各々の腕部ユニット4R/Lは、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール輪113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書では簡単のため、ゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。   Each arm unit 4R / L constituting the upper limb includes a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, an elbow joint pitch axis 110, a forearm yaw axis 111, and a wrist. A joint pitch axis 112, a wrist joint roll wheel 113, and a hand portion 114 are included. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the operation of the hand unit 114 has little contribution or influence on the posture control or walking control of the robot apparatus 1, it is assumed in the present specification that the degree of freedom is zero. Therefore, it is assumed that each arm portion has seven degrees of freedom.

また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。   The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.

また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、本明細書においては、簡単のためロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。   Each leg unit 5R / L constituting the lower limb includes a hip joint yaw axis 115, a hip joint pitch axis 116, a hip joint roll axis 117, a knee joint pitch axis 118, an ankle joint pitch axis 119, and an ankle joint. A roll shaft 120 and a foot 121 are included. In the present specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The human foot 121 is actually a structure including a multi-joint / multi-degree-of-freedom sole, but in the present specification, for the sake of simplicity, the foot of the robot apparatus 1 has zero degrees of freedom. . Accordingly, each leg is configured with 6 degrees of freedom.

以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。   In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / production constraints or required specifications.

上述したようなロボット装置1がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うこと等の要請から、アクチュエータは小型且つ軽量であることが好ましい。   Each degree of freedom of the robot apparatus 1 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the extra bulge on the appearance and approximating the shape of a natural human body, and performing posture control on an unstable structure such as biped walking. .

このようなロボット装置は、ロボット装置全体の動作を制御する制御システムを例えば体幹部ユニット2等に備える。図3は、ロボット装置1の制御システム構成を示す模式図である。図3に示すように、制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール200と、アクチュエータ350の駆動等ロボット装置1の全身協調運動を制御する運動制御モジュール300とで構成される。   Such a robot apparatus includes a control system for controlling the operation of the entire robot apparatus, for example, in the trunk unit 2. FIG. 3 is a schematic diagram showing a control system configuration of the robot apparatus 1. As shown in FIG. 3, the control system is a motion that controls the whole body cooperative motion of the robot device 1 such as driving of an actuator 350 and a thought control module 200 that dynamically controls emotion judgment and emotional expression in response to a user input or the like. And a control module 300.

思考制御モジュール200は、情緒判断や感情表現に関する演算処理を実行するCPU(Central Processing Unit)211や、RAM(Random Access Memory)212、ROM(Read Only Memory)213及び外部記憶装置(ハード・ディスク・ドライブ等)214等で構成され、モジュール内で自己完結した処理を行うことができる、独立駆動型の情報処理装置である。   The thought control module 200 includes a CPU (Central Processing Unit) 211, a RAM (Random Access Memory) 212, a ROM (Read Only Memory) 213, and an external storage device (hard disk / disk This is an independent drive type information processing apparatus that is configured with 214 and the like and can perform self-contained processing within the module.

この思考制御モジュール200は、画像入力装置251から入力される画像データや音声入力装置252から入力される音声データ等、外界からの刺激等に従って、ロボット装置1の現在の感情や意思を決定する。ここで、画像入力装置251は、例えばCCD(Charge Coupled Device)カメラを複数備えており、また、音声入力装置252は、例えばマイクロホンを複数備えている。   This thought control module 200 determines the current emotion and intention of the robot apparatus 1 according to stimuli from the outside such as image data input from the image input apparatus 251 and audio data input from the audio input apparatus 252. Here, the image input device 251 includes a plurality of CCD (Charge Coupled Device) cameras, for example, and the sound input device 252 includes a plurality of microphones, for example.

また、思考制御モジュール200は、意思決定に基づいた動作又は行動シーケンス、すなわち四肢の運動を実行するように、運動制御モジュール300に対して指令を発行する。   In addition, the thought control module 200 issues a command to the motion control module 300 to execute an action or action sequence based on decision making, that is, exercise of the limbs.

一方の運動制御モジュール300は、ロボット装置1の全身協調運動を制御するCPU311や、RAM312、ROM313及び外部記憶装置(ハード・ディスク・ドライブ等)314等で構成され、モジュール内で自己完結した処理を行うことができる独立駆動型の情報処理装置である。また、外部記憶装置314には、例えば、オフラインで算出された歩行パターンや目標とするZMP軌道、その他の行動計画を蓄積することができる。   One motion control module 300 includes a CPU 311 for controlling the whole body cooperative motion of the robot apparatus 1, a RAM 312, a ROM 313, an external storage device (hard disk drive, etc.) 314, etc., and performs self-contained processing within the module. It is an independent drive type information processing apparatus that can be performed. Also, the external storage device 314 can store, for example, walking patterns calculated offline, target ZMP trajectories, and other action plans.

この運動制御モジュール300には、図2に示したロボット装置1の全身に分散するそれぞれの関節自由度を実現するアクチュエータ350、対象物との距離を測定する距離計測センサ(図示せず)、体幹部ユニット2の姿勢や傾斜を計測する姿勢センサ351、左右の足底の離床又は着床を検出する接地確認センサ352,353、足部121の足底121に設けられる荷重センサ、バッテリ等の電源を管理する電源制御装置354等の各種の装置が、バス・インターフェース(I/F)301経由で接続されている。ここで、姿勢センサ351は、例えば加速度センサとジャイロ・センサの組み合わせによって構成され、接地確認センサ352,353は、近接センサ又はマイクロ・スイッチ等で構成される。   The motion control module 300 includes an actuator 350 that realizes degrees of freedom of joints distributed throughout the body of the robot apparatus 1 shown in FIG. 2, a distance measurement sensor (not shown) that measures the distance to the object, a body Posture sensor 351 that measures the posture and inclination of the trunk unit 2, grounding confirmation sensors 352 and 353 that detect the floor or landing of the left and right soles, a load sensor provided on the sole 121 of the foot 121, a power source such as a battery Various devices such as a power supply control device 354 for managing the network are connected via a bus interface (I / F) 301. Here, the posture sensor 351 is configured by, for example, a combination of an acceleration sensor and a gyro sensor, and the grounding confirmation sensors 352 and 353 are configured by proximity sensors, micro switches, or the like.

思考制御モジュール200と運動制御モジュール300は、共通のプラットフォーム上で構築され、両者間はバス・インターフェース201,301を介して相互接続されている。   The thought control module 200 and the motion control module 300 are constructed on a common platform, and are interconnected via bus interfaces 201 and 301.

運動制御モジュール300では、思考制御モジュール200から指示された行動を体現すべく、各アクチュエータ350による全身協調運動を制御する。すなわち、CPU311は、思考制御モジュール200から指示された行動に応じた動作パターンを外部記憶装置314から取り出し、又は、内部的に動作パターンを生成する。そして、CPU311は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置及び高さ等を設定するとともに、これらの設定内容に従った動作を指示する指令値を各アクチュエータ350に転送する。   The motion control module 300 controls the whole body cooperative motion by each actuator 350 in order to embody the action instructed from the thought control module 200. That is, the CPU 311 extracts an operation pattern corresponding to the action instructed from the thought control module 200 from the external storage device 314 or generates an operation pattern internally. Then, the CPU 311 sets a foot movement, a ZMP trajectory, a trunk movement, an upper limb movement, a horizontal waist position, a height, and the like in accordance with the designated movement pattern, and commands for instructing the movement according to these setting contents. The value is transferred to each actuator 350.

また、CPU311は、姿勢センサ351の出力信号によりロボット装置1の体幹部ユニット2の姿勢や傾きを検出するとともに、各接地確認センサ352,353の出力信号により各脚部ユニット5R/Lが遊脚又は立脚のいずれの状態であるかを検出することによって、ロボット装置1の全身協調運動を適応的に制御することができる。更に、CPU311は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット装置1の姿勢や動作を制御する。   Further, the CPU 311 detects the posture and inclination of the trunk unit 2 of the robot apparatus 1 from the output signal of the posture sensor 351, and each leg unit 5R / L is caused to move freely by the output signals of the grounding confirmation sensors 352 and 353. Alternatively, the whole body cooperative movement of the robot apparatus 1 can be adaptively controlled by detecting whether the robot is standing or standing. Further, the CPU 311 controls the posture and operation of the robot apparatus 1 so that the ZMP position always moves toward the center of the ZMP stable region.

また、運動制御モジュール300は、思考制御モジュール200において決定された意思通りの行動がどの程度発現されたか、すなわち処理の状況を、思考制御モジュール200に返すようになっている。このようにしてロボット装置1は、制御プログラムに基づいて自己及び周囲の状況を判断し、自律的に行動することができる。   In addition, the motion control module 300 returns to the thought control module 200 the degree to which the intended behavior determined by the thought control module 200 has been expressed, that is, the processing status. In this way, the robot apparatus 1 can determine its own and surrounding conditions based on the control program and act autonomously.

(2)歩行制御方法
次に、上述したロボット装置1のように、歩行機能を有する脚式移動型ロボット装置が歩行するための歩行制御方法について説明する。本ロボット装置は、歩行面に関する情報の統計的なパターン認識を行って歩行面の状態を判別し、この判別結果に対応して予め用意されている最適な歩行制御形態を選択して歩行制御するものである。具体的には、ロボット装置が歩行時又は後述するその場足踏み動作時において、各種センサ情報、歩行制御量及び画像情報等を歩行面に関する情報として取得し、これにより現在の歩行面のカテゴリ(以下、歩行面カテゴリという。)を判別し、この歩行面ガテゴリに応じて歩行制御形態を選択することにより、安定した歩行を実現するものである。
(2) Walking Control Method Next, a walking control method for walking a legged mobile robot device having a walking function like the robot device 1 described above will be described. This robot apparatus discriminates the state of the walking surface by performing statistical pattern recognition of information related to the walking surface, and selects the optimal walking control mode prepared in advance corresponding to the determination result to perform walking control. Is. Specifically, when the robot apparatus is walking or when it is stepping on the spot, which will be described later, various sensor information, walking control amounts, image information, and the like are acquired as information on the walking surface, and thereby the current walking surface category (hereinafter referred to as the walking surface category). Is called a walking surface category), and a stable walking is realized by selecting a walking control mode according to the walking surface category.

ここで、本実施の形態においては、ロボット装置が歩行する平面である歩行面を床面とし、床面がカテゴライズされるカテゴリを床面カテゴリとするが、歩行面は、床面のみならず、ロボット装置が歩行可能な例えば屋外の地面、芝生等や、階段等の面等についても同様に、それらの歩行面を予めカテゴリに分類しておき、判別して歩行制御形態を選択すればよいことはいうまでもない。   Here, in this embodiment, the walking surface that is a plane on which the robot apparatus walks is the floor surface, and the category in which the floor surface is categorized is the floor surface category, but the walking surface is not only the floor surface, Similarly, with respect to surfaces such as outdoor ground, lawn, and stairs that can be walked by the robot device, the walking surfaces should be classified into categories in advance, and the walking control mode selected after selection. Needless to say.

上述したように、従来のロボット装置は、歩行時の姿勢や床面からの反力等の各種センサ値に応じて、例えば所定の歩行制御モデル(モーション再生)からの軌道補正量である歩行制御量(以下、適応操作量という。)を算出して歩行制御モデルの補正を行うことで、歩行時の足部が接地する床面の傾斜等に応じてロボット装置の姿勢バランスを保って安定して歩行できるよう適応的な制御を実行するものである。しかしながら、このような歩行中のセンサ値等から算出する適応操作量等による歩行制御では、例えば、板材等をはった床面(フローリング)、又は大理石やコンクリート等の硬い床面から、毛足の長い絨毯や芝生等のやわらかい床面へ移動するというような床面の状態が大きく変わる領域を移動する場合には歩行ができなくなってしまう。これは、硬い床面を歩く際に使用するべき歩行制御形態と、やわらかい床面を歩く際に使用すべき歩行制御形態とが全く異なるものであるためである。   As described above, the conventional robot apparatus is, for example, walking control that is a trajectory correction amount from a predetermined walking control model (motion reproduction) according to various sensor values such as posture during walking and reaction force from the floor surface. By calculating the amount (hereinafter referred to as the adaptive operation amount) and correcting the walking control model, the posture balance of the robot apparatus is maintained and stabilized according to the inclination of the floor surface where the foot part contacts the ground during walking. It performs adaptive control so that it can walk. However, in the walking control by the adaptive operation amount calculated from the sensor value or the like during walking, for example, from a floor surface (flooring) with a plate material or the like, or a hard floor surface such as marble or concrete, If you move in a region where the floor condition changes greatly, such as moving to a soft floor such as a long carpet or lawn, you will not be able to walk. This is because the walking control mode to be used when walking on a hard floor and the walking control mode to be used when walking on a soft floor are completely different.

したがって、歩行中の各種センサ値から適応操作量を算出して歩行制御した場合、連続的なゆるやかな変化等には対応できても、硬い床面からやわらかい床面への移動する場合のように、床面の状態がドラスティックに変化するような場合においては、歩行制御形態を変更しない限りは歩行することが困難になる。   Therefore, when walking control is performed by calculating the amount of adaptive operation from various sensor values during walking, it is possible to respond to continuous gradual changes, as in the case of moving from a hard floor surface to a soft floor surface. When the floor surface state changes drastically, it becomes difficult to walk unless the walking control mode is changed.

そこで、本願発明者らが鋭意研究した結果、床面に応じて得られる各種センサ値や適応操作量に基づき、現在の床面を予め用意した床面カテゴリに分類すると共にこの床面カテゴリに応じた歩行制御形態を用意しておき、現在の床面の床面カテゴリを判別することでその床面カテゴリに応じた最適な歩行制御形態を選択させてから上記適応操作量を算出することで歩行制御すると床面の状態が劇的に変化するような場合であっても、脚式移動型ロボット装置を上手に歩行させられることを見出した。   Therefore, as a result of intensive studies by the inventors of the present application, based on various sensor values and adaptive operation amounts obtained according to the floor surface, the current floor surface is classified into a floor surface category prepared in advance and according to this floor surface category. Walking by calculating the adaptive operation amount after preparing the walking control form and selecting the optimal walking control form corresponding to the floor category by discriminating the floor category of the current floor It has been found that even if the floor condition changes dramatically when controlled, the legged mobile robot device can be walked well.

ここで、歩行制御形態が異なるとは、上記適応操作量を各種センサ値から換算又は算出する際に使用されるパラメータ若しくは係数等が異なる場合、及び歩行に際して使用される歩行モーション(歩行制御モデル)又は歩行アルゴリズムが異なる場合等をいう。また、この適応操作量とは、目標とする制御値からのずれ、例えば各アクチュエータの回転角のずれ等を修正するための補正値を示す。なお、本明細書においては、速く歩いたりゆっくりあるいたり等の歩き方(歩行制御モデル)、及び、上記適応操作量等の歩行動作における一連の動作制御値をまとめて歩容という。   Here, different walking control modes mean that the parameters or coefficients used when the adaptive operation amount is converted or calculated from various sensor values are different, and the walking motion used when walking (walking control model). Or when the walking algorithm is different. The adaptive operation amount indicates a correction value for correcting a deviation from a target control value, for example, a deviation of a rotation angle of each actuator. In the present specification, a series of motion control values in a walking motion such as walking fast and slowly walking (walking control model) and walking motion such as the adaptive operation amount are collectively referred to as a gait.

以下、このように、現在の床面がいずれの床面カテゴリに分類されるかの床面カテゴリ判別を行って適応的に歩行制御することができるロボット装置の床面別歩行制御装置について説明する。   Hereinafter, the floor-specific walking control device of the robot apparatus capable of adaptively controlling walking by performing floor surface category determination as to which floor surface category the current floor surface is classified in this way will be described below. .

図4は、ロボット装置のうち、床面別歩行制御装置に必要な要部のみを機能的に示すブロック図である。床面別歩行制御装置は、ロボット装置の行動を制御する行動制御部11と、床面を認識して床面カテゴリを出力する床面判別部12と、行動制御部11からの行動指令と床面判別部12からの床面カテゴリとに基づき歩行制御形態を選択して歩行を制御する歩行制御部13とを有する。   FIG. 4 is a block diagram functionally showing only the main parts necessary for the floor-based walking control device of the robot device. The floor-specific walking control device includes a behavior control unit 11 that controls the behavior of the robot device, a floor surface determination unit 12 that recognizes the floor surface and outputs a floor category, and a behavior command and a floor from the behavior control unit 11. A walking control unit 13 that controls walking by selecting a walking control mode based on the floor category from the surface determination unit 12 is provided.

行動制御部11は、状況に応じたロボット装置の行動を選択し実行させる。この行動制御部11が動作指令(歩行指令)D1を出すことで、歩行制御部13が稼動して歩行制御を実行する。なお、床面の状況、例えば障害物があるか否か等も、ロボット装置の行動に影響を与える一要因(外部刺激)となる。   The behavior control unit 11 selects and executes the behavior of the robot apparatus according to the situation. When the behavior control unit 11 issues an operation command (walking command) D1, the walking control unit 13 operates and executes walking control. Note that the situation of the floor surface, for example, whether there is an obstacle or the like, is also one factor (external stimulus) that affects the behavior of the robot apparatus.

床面判別部12は、歩行制御部13の適応操作量D2及び各種センサ360の出力値(センサ値)D3等、ロボット装置の機体が床面の状態を感じ取る量や、カメラ等の画像入力手段251からの画像データD4等を入力として、統計的な床面カテゴリのパターン識別問題を解くことをもって、予め用意された床面カテゴリの中から現在の床面の床面カテゴリを選択する。   The floor discriminating unit 12 is an amount by which the body of the robot apparatus senses the state of the floor, such as an adaptive operation amount D2 of the walking control unit 13 and output values (sensor values) D3 of various sensors 360, and an image input means such as a camera. By inputting the image data D4 and the like from 251 and solving the pattern identification problem of the statistical floor category, the floor category of the current floor is selected from the floor categories prepared in advance.

ここで、センサ360nは、各関節に設けられたアクチュエータ350nの回転角や位置を検出するポテンショメータ、歩行の際の足部(足底)の加速度を検出する加速度センサ、足底に設けられ床面からの反力を検出する力センサ等であり、これらの回転角、加速度、反力等がセンサ値として入力される。   Here, the sensor 360n includes a potentiometer that detects the rotation angle and position of the actuator 350n provided at each joint, an acceleration sensor that detects the acceleration of the foot (plantar) during walking, and a floor surface provided on the sole. A force sensor or the like for detecting the reaction force from the sensor, and the rotation angle, acceleration, reaction force and the like are input as sensor values.

また、パターン認識は、適応操作量D2、各種センサ値D3、又は画像データD4等の入力データが入り次第行うことができるため、ロボット装置1が歩行中は常に床面カテゴリを判別し続けることが可能である。判別結果である床面カテゴリD5は、行動制御部11及び歩行制御部13等の他の要素に対して出力される。   In addition, since pattern recognition can be performed as soon as input data such as the adaptive operation amount D2, various sensor values D3, or image data D4 enters, the robot apparatus 1 can always continue to determine the floor category while walking. Is possible. The floor category D5 that is the determination result is output to other elements such as the behavior control unit 11 and the walking control unit 13.

歩行制御部13は、動作指令D1により起動され、上述したような各種センサ値D3から、所定の歩行制御形態に従ってその歩行制御形態における歩行制御モデルからの補正量を適応操作量D2として算出して床面判別部12に出力する。そして、床面判別部12にて現在の床面のカテゴリが判別され、その床面カテゴリD5を受け取ることで、現在の床面の状態に対応した歩行制御形態を選択し、選択した歩行制御形態における歩行制御モデルからの補正量として適応操作量を算出することで歩容の生成を行う。すなわち、歩行制御部13には、予め床面カテゴリに対応した歩行制御形態、例えば基準となる歩行モデルと、適応的な歩行を行わせるために、その歩行モデルからの補正量をそのときの各種センサ値から換算又は算出するための係数又はパラメータ等が用意されている。   The walking control unit 13 is activated by the operation command D1, and calculates the correction amount from the walking control model in the walking control form as the adaptive operation amount D2 from the various sensor values D3 as described above according to the predetermined walking control form. The data is output to the floor surface determination unit 12. Then, the floor surface determination unit 12 determines the current floor surface category, receives the floor surface category D5, selects the walking control mode corresponding to the current floor surface state, and selects the selected walking control mode. A gait is generated by calculating an adaptive operation amount as a correction amount from the walking control model in FIG. That is, in order to cause the walking control unit 13 to perform a walking control form corresponding to the floor category in advance, for example, a reference walking model and adaptive walking, various correction amounts from the walking model at that time Coefficients or parameters for conversion or calculation from sensor values are prepared.

ここで、床面カテゴリに対応した歩行制御形態を選択するものとするが、これは、例えば床面カテゴリAと床面カテゴリBとでは、床面の状態が大きく異なり、歩行アルゴリズムを全く別のものに変更する必要があるような場合は、歩行アルゴリズムを選択することを示し、床面カテゴリAと床面カテゴリBとで、同一の歩行制御モデルとしセンサ値から適応操作量を算出するためのパラメータを変えるのみでよい場合は、パラメータを選択することを示す。また、適応操作量D2とは、床面の形状等に応じて歩行中に適応的に姿勢を安定させて歩行を行わせるための例えば歩行モデルからの補正量、具体的にはロール軸、ピッチ軸及びヨー軸等における目標となる軌道からのずれを修正するため補正量等を示す。   Here, it is assumed that the walking control mode corresponding to the floor category is selected. For example, the floor category A and the floor category B are greatly different in the state of the floor, and the walking algorithm is completely different. When it is necessary to change to a thing, it indicates that the walking algorithm is selected, and the floor category A and the floor category B use the same walking control model to calculate the adaptive operation amount from the sensor value. When it is only necessary to change the parameter, this indicates that the parameter is selected. The adaptive operation amount D2 is a correction amount from, for example, a walking model for adaptively stabilizing the posture during walking according to the shape of the floor surface, specifically, a roll axis, pitch, and the like. A correction amount or the like for correcting a deviation from a target trajectory in the axis and the yaw axis is shown.

床面判別部12に出力する適応操作量D2の算出及び床面カテゴリに応じて選択される歩行アルゴリズムに従って次の歩行タイミングにて再度算出される適応操作量の算出に際しては、各種センサ値をその適応操作量に換算するための後述するパラメータ等が存在する。ここで、従来は、予め外部から入力する等して所定の歩行アルゴリズム又は所定のパラメータ等の歩行制御形態が選択されており、この歩行制御形態に従って適応操作量が算出されていたが、上述したように、この方法であると予め決められた歩行制御形態からの適応操作量のみしか換算できず、床面によっては、歩行制御形態を変更しなければ適切な適応操作量が算出できない場合がある。従って、歩行制御部13では、先ず、標準として使用される所定の歩行制御形態から、各種センサ値に応じて適応操作量を算出し、床面判別部12にて床面カテゴリを判別させる。そして、この床面カテゴリD5を受け取り、この床面カテゴリD5に応じて、上記標準の歩行制御形態から歩行制御形態を選択する。具体的には、例えば床面に応じた歩行アルゴリズム、歩行制御モデル(歩行タイプ)又は適応操作量を算出する際のパラメータ等を選択し、この床面カテゴリによって定まる歩行制御形態に従って適応操作量を再度算出することで、より安定した歩行を実現することが可能となる。なお、歩行制御形態の変更には、床面カテゴリのみでなく、機体の状態など他の要因もありうる。ここで、床面カテゴリを判別するために使用する適応操作量D2を算出するための標準の歩行制御形態とは、例えば最も標準的な歩行アルゴリズム、例えば家庭内にて使用することを目的とする場合は、板材などの床面を歩行するための歩行制御モデル等を用意しておけばよい。また、連続的に床面判別を行わせる場合には、床面判別部12にて前回のタイミングで入力された床面カテゴリに対応した歩行制御形態に従って適応操作量D2を算出すればよい。   When calculating the adaptive operation amount D2 output to the floor surface determination unit 12 and the adaptive operation amount calculated again at the next walking timing according to the walking algorithm selected according to the floor surface category, various sensor values are used. There are parameters to be described later for conversion into the adaptive operation amount. Here, conventionally, a walking control form such as a predetermined walking algorithm or a predetermined parameter is selected by inputting from the outside in advance, and the adaptive operation amount is calculated according to this walking control form. Thus, in this method, only an adaptive operation amount from a predetermined walking control mode can be converted, and depending on the floor, an appropriate adaptive operation amount may not be calculated unless the walking control mode is changed. . Accordingly, the walking control unit 13 first calculates an adaptive operation amount according to various sensor values from a predetermined walking control form used as a standard, and the floor surface determination unit 12 determines the floor surface category. And this floor surface category D5 is received, and according to this floor surface category D5, a walk control form is selected from the said standard walk control form. Specifically, for example, a walking algorithm corresponding to the floor surface, a walking control model (walking type), or a parameter for calculating an adaptive operation amount is selected, and the adaptive operation amount is determined according to the walking control form determined by the floor surface category. By calculating again, more stable walking can be realized. Note that the change in the walking control mode may include other factors such as the state of the aircraft as well as the floor category. Here, the standard walking control mode for calculating the adaptive operation amount D2 used for discriminating the floor category is intended to be used, for example, in the most standard walking algorithm, for example, at home. In this case, a walking control model or the like for walking on a floor surface such as a plate material may be prepared. In addition, when the floor surface is continuously determined, the adaptive operation amount D2 may be calculated according to the walking control mode corresponding to the floor surface category input at the previous timing by the floor surface determination unit 12.

こうして、歩行制御部13は、行動制御部11からの行動指令D1に応じて最適な歩行制御形態を選択して適応操作量を算出することで歩容を生成し、各関節のアクチュエータ350nを駆動するコマンド(制御値)D6を出力する。   In this way, the walking control unit 13 generates a gait by selecting an optimal walking control mode according to the behavior command D1 from the behavior control unit 11 and calculating an adaptive operation amount, and drives the actuator 350n of each joint. Command (control value) D6 to be output.

また、床面の種類としては、例えば、硬い床面(板、コンクリート)、カーペット、畳、ゴム等が挙げられるが、これら各種の床面は、例えば弾性係数、摩擦係数、ころがり係数、絨毯の毛足の長さ、又はこれらの組み合わせを基準にして床面カテゴリに分類することができる。分類した床面のカテゴリ毎に、予め、カテゴリ判別にて使用する適応操作量D2、センサ値D3、及び画像データD4のいずれか1以上の判別用入力データの特徴量を学習しておき、この学習済特徴量が床面カテゴリ別に学習データベースとして床面判別部12に保持されているものとする。なお、上述したように、屋内のみならず屋外の地面や芝生等、ロボット装置が歩行可能な面であれば、同様にカテゴライズして学習しておけばよい。   Examples of the floor surface include hard floor surfaces (plates, concrete), carpets, tatami mats, rubbers, etc. These various floor surfaces include, for example, an elastic coefficient, a friction coefficient, a rolling coefficient, and a carpet. It can classify | categorize into a floor surface category on the basis of the length of a hair foot, or these combination. For each category of the classified floor surface, a feature amount of input data for discrimination one or more of adaptive operation amount D2, sensor value D3, and image data D4 used in category discrimination is learned in advance, and this It is assumed that the learned feature amount is held in the floor discriminating unit 12 as a learning database for each floor category. In addition, as described above, if the robot apparatus is a surface on which the robot apparatus can be walked, such as an outdoor ground or a lawn, it may be categorized and learned in the same manner.

または、上述したような基準により床面カテゴリを予め分類してから学習するのではなく、ロボット装置が複数種の床面にて適応操作量D2、センサ値D3及び画像データD4のいずれか1以上の判別用入力データを獲得しておき、その判別用入力データから得られる特徴量が所定の範囲で類似するものを1つのクラス(カテゴリ)に分類した学習結果や、その特徴量からクラスタ数既知としてクラスタリングを行った学習結果を使用して、ロボット装置自身が床面カテゴリの分類を行ってもよい。この場合も、同様に学習結果を床面カテゴリ別に学習データベースとして床面判別部12に保持しておくものとする。   Alternatively, the robot apparatus does not learn after previously classifying the floor surface category according to the above-described criteria, but the robot apparatus performs any one or more of the adaptive operation amount D2, the sensor value D3, and the image data D4 on a plurality of types of floor surfaces. Is obtained, and the number of clusters is known from the learning result obtained by classifying similar features in the predetermined range into a single class (category) As a result, the robot apparatus itself may classify the floor category using the learning results obtained by performing clustering. In this case as well, the learning result is similarly stored in the floor discriminating unit 12 as a learning database for each floor category.

なお、以上、適応操作量D2、センサ値D3及び画像データD4等のうち1以上の判別用入力データを受け取って床面カテゴリを判別し、適切な歩容を生成する処理は、上述した運動制御モジュール300にて行われる。   The process of receiving one or more discrimination input data from the adaptive operation amount D2, the sensor value D3, the image data D4, etc., discriminating the floor surface category, and generating an appropriate gait is the motion control described above. This is done in module 300.

次に、この床面判別から歩行制御までの処理動作について説明する。図5は、床面別歩行制御処理の流れを示すフローチャートである。図5に示すように、先ず、行動制御部11が、歩行制御部13に対して歩行の指令を出す(ステップS1)。これにより歩行制御部13が起動され、各種センサ値D3を入力させるための動作を行い適応制御により適応操作量を算出する(ステップS2)。このときの適応操作量D2は、上述したように標準の歩行制御形態に基づき算出されるものとする。ここで、各種センサ値D3を入力させるための動作としては、後述するようなその場で足踏みする動作や、通常の歩行動作等があるが、通常の歩行動作を行わせる場合、この時点では床面に応じた最適な歩行制御形態が選択されていないために予め用意された標準の歩行制御形態に従って歩行を行う。また、床面判別を継続して行うような場合は、前回の床面判別にて判別された床面カテゴリに応じて選択された歩行制御形態に従って歩行を行う。   Next, processing operations from the floor discrimination to walking control will be described. FIG. 5 is a flowchart showing the flow of the floor-specific walking control process. As shown in FIG. 5, first, the behavior control unit 11 issues a walking command to the walking control unit 13 (step S1). As a result, the walking control unit 13 is activated, performs an operation for inputting various sensor values D3, and calculates an adaptive operation amount by adaptive control (step S2). The adaptive operation amount D2 at this time is calculated based on the standard walking control mode as described above. Here, as an operation for inputting the various sensor values D3, there are an operation of stepping on the spot as will be described later, a normal walking operation, and the like. Since the optimal walking control mode corresponding to the surface is not selected, walking is performed according to a standard walking control mode prepared in advance. Further, when the floor surface discrimination is continuously performed, the walking is performed according to the walking control mode selected according to the floor category determined in the previous floor surface discrimination.

次に、歩行又は足踏み動作を実行中、床面判別部12は、歩行制御部13の適応操作量D2、足センサ360等の各種センサのセンサ値D3、及びカメラ等の画像入力装置251からの画像データD4等を入力とし、これらの特徴量を用いて床面カテゴリのパターン認識を行う(ステップS3)。そして、床面判別部12は、現在の床面が床面カテゴリのいずれに該当するかを判別し、その床面判別結果である床面カテゴリを歩行制御部13に出力する(ステップS4)。歩行制御部13は、供給される床面カテゴリに応じて、最適な歩行制御形態を選択し歩行制御を行う(ステップS5)。具体的には、例えば適応操作量を算出するためのパラメータを選択し直し、適応操作量を歩行制御量として再度算出する。そして、歩行を継続する場合には(ステップS6:Yes)、再びステップS3からの処理、即ち床面カテゴリ判別を繰り返す。ここで、床面カテゴリ判別は、歩行中常に行っても、所定のタイミングで行ってもよい。   Next, during the walking or stepping motion, the floor surface determination unit 12 receives the adaptive operation amount D2 of the walking control unit 13, the sensor value D3 of various sensors such as the foot sensor 360, and the image input device 251 such as a camera. Using the image data D4 and the like as input, pattern recognition of the floor category is performed using these feature quantities (step S3). Then, the floor surface determination unit 12 determines which of the floor surface categories the current floor surface corresponds to, and outputs the floor surface category as a result of the floor surface determination to the walking control unit 13 (step S4). The walking control unit 13 selects an optimal walking control mode according to the supplied floor category and performs walking control (step S5). Specifically, for example, the parameter for calculating the adaptive operation amount is selected again, and the adaptive operation amount is calculated again as the walking control amount. And when continuing a walk (step S6: Yes), the process from step S3, ie, a floor surface category discrimination | determination, is repeated again. Here, the floor category determination may be performed at all times during walking or at a predetermined timing.

次に、床面カテゴリ判別を行う際に使用される適応操作量D2の算出方法の一具体例について説明する。上述のステップS2において、現在の床面の状態に関する各種センサ値を入力させて適応操作量D2を算出する必要がある。これは、歩行をしながら獲得してもよいが、例えば床面カテゴリを判別するための動作を用意し、この動作により床面判別を行うようにすることができる。ここでは、そのような床面判別動作として、その場で足踏み動作を行うことにより、現在の床面を判別する方法について説明する。   Next, a specific example of a method for calculating the adaptive operation amount D2 used when performing floor category determination will be described. In step S2 described above, it is necessary to calculate the adaptive operation amount D2 by inputting various sensor values relating to the current floor surface state. Although this may be acquired while walking, for example, an operation for discriminating the floor category can be prepared, and the floor can be discriminated by this operation. Here, as such a floor surface determination operation, a method of determining the current floor surface by performing a stepping operation on the spot will be described.

図6(a)乃至図6(d)及び図7(a)乃至図7(d)は、ロボット装置1が足踏み動作を行っている様子を示す図である。先ず、直立の状態(図6(a))から、機体のバランスを取りつつ(図6(b))、右足を一旦上げて(図6(c))、床面に接地させ(図6(d))、同じく機体のバランスを取りつつ(図7(a))、左足を一旦上げて(図7(b))、床面に接地させ(図7(c))、直立の状態に戻る(図7(d))。   6 (a) to 6 (d) and FIGS. 7 (a) to 7 (d) are diagrams showing how the robot apparatus 1 performs a stepping motion. First, from the upright state (FIG. 6 (a)), while balancing the aircraft (FIG. 6 (b)), the right foot is raised once (FIG. 6 (c)) and grounded to the floor (FIG. 6 (c)). d)), while also balancing the aircraft (Fig. 7 (a)), raising the left foot (Fig. 7 (b)), grounding it to the floor (Fig. 7 (c)) and returning to the upright state (FIG. 7D).

このような一連の足踏み動作により、床面に応じたセンサ値が取得でき、このセンサ値D3により歩行制御部13が適応操作量D2を算出する。そして、床面判別部12は、センサ値D3及び適応操作量D4により、現在の床面のカテゴリを判別する。ここで示す足踏み動作は、例えば歩行周期が600msec、足上げ高さが20mm、一連の足踏み動作中に両足が接地している時間の割合を示す両脚支持の割合が30%等とすることができる。これらの値は、足踏み動作におけるパラメータとなるものである。   By such a series of stepping actions, a sensor value corresponding to the floor surface can be acquired, and the walking control unit 13 calculates an adaptive operation amount D2 based on the sensor value D3. And the floor surface discrimination | determination part 12 discriminate | determines the present category of a floor surface with the sensor value D3 and the adaptive operation amount D4. The stepping motion shown here can be, for example, a walking cycle of 600 msec, a foot-lifting height of 20 mm, and a ratio of both-leg support that indicates the proportion of time that both feet are in contact during a series of stepping motions. . These values are parameters in the stepping motion.

なお、この足踏み動作等によりセンサ値及び適応操作量を獲得して床面カテゴリ判別を行うものとして説明するが、上述したように、歩行しながら床面カテゴリ判別を行ってもよく、また床面カテゴリ判別において、センサ値及び適応操作量に合わせて又は個別に画像データD4を使用して床面カテゴリを判別してもよい。   In addition, although it demonstrates as what acquires a sensor value and adaptive operation amount by this stepping motion etc. and performs floor surface category determination, as mentioned above, you may perform floor surface category determination while walking, and floor surface In the category determination, the floor category may be determined using the image data D4 according to the sensor value and the adaptive operation amount or individually.

次に、床面判別部12の床面カテゴリ判別方法について詳細に説明する。床面判別部12が実効するパターン認識手法としては、適応操作量D2、各種センサ値D3、及び画像データD4のいずれか1以上の判別用入力データに応じて床面カテゴリを判別できるものであれば、どのようなパターン認識手法を用いてもよいが、ここでは、床面判別部12が床面カテゴリを判別する際に入力とする入力データの一具体例として、例えば、以下の表1に示すもの等を使用してフィッシャー(Fisher)判別によりカテゴリ判別する例について説明する。   Next, a floor surface category determination method of the floor surface determination unit 12 will be described in detail. As a pattern recognition method that the floor discriminating unit 12 performs, the floor category can be discriminated according to one or more discrimination input data of the adaptive operation amount D2, various sensor values D3, and image data D4. Any pattern recognition method may be used, but here, as a specific example of input data to be input when the floor surface determination unit 12 determines the floor surface category, for example, the following Table 1 is used. An example will be described in which categories are determined by Fisher determination using what is shown.

Figure 0004649913
Figure 0004649913

ここで、ロール軸操作量及びピッチ軸操作量は、計画軌道(目標となる軌道)と実際の軌道との差を示すものであり、これを適応操作により補正する補正量として使用することができる。また、これら全ての値を用いて床面カテゴリ判別を行ってもよく、これらから選択されたいくつかの値を使用して床面判別を行ってもよいことは勿論である。   Here, the roll axis operation amount and the pitch axis operation amount indicate the difference between the planned trajectory (target trajectory) and the actual trajectory, and can be used as a correction amount to be corrected by the adaptive operation. . Of course, the floor surface category determination may be performed using all these values, or the floor surface determination may be performed using some values selected from these values.

これらの値は、例えば、4msec毎等、運動制御の制御ループの周期毎に出力される。例えば足底加速度は図8に示す時系列データをとして入力される。図8は、横軸に時間をとり、縦軸に加速度をとって、正面方向及び横方向の足底加速度の時系列値を示すグラフ図である。図8において、破線が正面方向(進行方向)の足底加速度、実線が横方向の足底加速度についてのデータを示す。   These values are output for each period of the control loop of the motion control, for example, every 4 msec. For example, the plantar acceleration is input as time series data shown in FIG. FIG. 8 is a graph showing time series values of plantar acceleration in the front direction and the lateral direction, with time on the horizontal axis and acceleration on the vertical axis. In FIG. 8, the broken line indicates data regarding the plantar acceleration in the front direction (traveling direction), and the solid line indicates data regarding the plantar acceleration in the horizontal direction.

図8に示すように、入力される足底加速度を時系列で保存する。このようにして得られる上記の入力データから特徴量を抽出する。例えば、足底加速度の時系列値を所定のウィンドウサイズでフーリエ変換(fast Fourier transform:FFT)して時間軸上のデータを周波数軸上のデータに変換することで、特徴量に変換する。   As shown in FIG. 8, the input foot sole acceleration is stored in time series. A feature amount is extracted from the input data obtained as described above. For example, the time series values of the plantar acceleration are Fourier transformed with a predetermined window size (fast Fourier transform: FFT), and the data on the time axis is converted into the data on the frequency axis, thereby converting the data into the feature amount.

図9は、横軸に周波数成分をとり縦軸にパワーをとって、図8に示す正面方向及び横方向の足底加速度の時系列値をフーリエ変換したフーリエパワースペクトルを示すグラフ図である。図9においても、破線が正面方向(進行方向)の足底加速度、実線が横方向の足底加速度についてのデータを示す。なお、図8及び図9では、上述の入力データのうち、簡単のため、正面及び横方向の足底加速度を入力データのみを示すが、他のデータにおいても、床面カテゴリ判別に使用する入力データを同様に時系列で保存し、その時系列値をフーリエ変換して特徴量として用いることができる。   FIG. 9 is a graph showing a Fourier power spectrum obtained by Fourier-transforming time series values of front and lateral plantar accelerations shown in FIG. 8 with frequency components on the horizontal axis and power on the vertical axis. Also in FIG. 9, the broken line indicates data regarding the plantar acceleration in the front direction (traveling direction), and the solid line indicates data regarding the plantar acceleration in the horizontal direction. In FIGS. 8 and 9, for the sake of simplicity, only the input data for the front and lateral sole acceleration are shown in the above input data, but the input used for floor category determination is also used for other data. Similarly, data can be stored in time series, and the time series values can be Fourier transformed to be used as feature quantities.

このフーリエパワースペクトルが、一の値についてd次元の情報を持つとすると、例えば4つの入力値を使用する場合、合計で4d次元の特徴ベクトルとみなすことができる。図8に示す例の場合は、d=35次元である。したがって、このままでは次元数が多いため、主成分分析による次元圧縮を行い、更にフィッシャー規範の線形判別分析にかける。線形判別分析は、床面カテゴリの数だけのクラス数を持つマルチクラスの判別問題となる。   If this Fourier power spectrum has d-dimensional information for one value, for example, when four input values are used, it can be regarded as a 4d-dimensional feature vector in total. In the example shown in FIG. 8, d = 35 dimensions. Therefore, since the number of dimensions is large as it is, dimension compression by principal component analysis is performed, and further, it is subjected to linear discriminant analysis according to the Fisher standard. Linear discriminant analysis becomes a multi-class discriminant problem having the number of classes corresponding to the number of floor categories.

次に、床面カテゴリの分類方法について説明する。床面カテゴリは、上述したように、所定の基準に従って分類した床面カテゴリ毎に判別用入力データの特徴量を学習してもよく、又は判別用入力データの特徴量を多量に学習し、この特徴量の類似性等により分類してもよい。すなわち、この床面カテゴリの分類は、必要とされるカテゴリを予め用意してもよいし、実際に歩行させ、分類が必要と判断されたら分類するようにしてもよい。また、必要に応じてカテゴリを追加して追加学習を行ってもよい。   Next, a method for classifying floor categories will be described. As described above, the floor category may learn the feature quantity of the input data for discrimination for each floor category classified according to a predetermined standard, or may learn a large amount of the feature quantity of the input data for discrimination. You may classify | categorize by the similarity etc. of a feature-value. That is, for the classification of the floor category, a required category may be prepared in advance, or it may be actually walked and classified when it is determined that classification is necessary. Further, additional learning may be performed by adding categories as necessary.

ここでは、人間側で例えば下記の床面カテゴリ分類の基準(特徴)を用いて床面カテゴリを分類する場合について説明する。
1:弾性係数(ヤング係数)
2:摩擦係数
3:ころがり係数
4:カーペット・絨毯の毛足の長さ
5:1〜4の組み合わせ
Here, a case where the floor category is classified on the human side using, for example, the following floor category classification criteria (features) will be described.
1: Elastic modulus (Young's modulus)
2: Friction coefficient 3: Rolling coefficient 4: Combination of lengths of hairs of carpets and carpets 5: 1 to 4

即ち、これら1以上の特徴が異なる床面毎に、異なる床面カテゴリを用意すれば、その床面カテゴリに応じた歩行制御形態を用意しておくことができる。この床面カテゴリは、対象となるロボット装置の構造と、実際に歩行対象となる床面に応じて、どの特徴が歩行に影響を与えるかが異なってくるため、その影響力の大きさに応じてカテゴリ分類の基準を選ぶ必要がある。   That is, if a different floor surface category is prepared for each floor surface having different one or more features, a walking control mode corresponding to the floor surface category can be prepared. This floor category depends on the size of the influence of the robot device, because the features that affect walking differ depending on the structure of the target robot device and the floor that is actually the target of walking. Therefore, it is necessary to select a categorization standard.

各種センサ、適応操作量、及び画像データのうち床面カテゴリ判別の際に使用する入力データ(判別用入力データ)の特徴量を、分類した床面(床面カテゴリ)毎に予め学習させ、床面判別部12に学習データベースとして保持しておき、上述の足踏み動作又は歩行中に得られる現在の床面から得られる判別用入力データの特徴量と比較することで、床面カテゴリを判別することができる。   Of the various sensors, adaptive operation amounts, and image data, the feature amount of the input data (determination input data) used for floor category discrimination is learned in advance for each classified floor (floor category). A floor database is stored in the surface determination unit 12 as a learning database, and the floor surface category is determined by comparing with the above-described stepping motion or the feature amount of the input data for determination obtained from the current floor surface during walking. Can do.

本実施の形態においては、家庭用のコンシューマ製品としてのロボット装置を想定し、家庭環境において必要となると考えられる床面カテゴリについて説明する。家庭環境における床面カテゴリの分類するために、「4:カーペット・絨毯の毛足の長さ」を分類基準として用いることができる。   In the present embodiment, a floor category considered to be necessary in a home environment will be described assuming a robot apparatus as a consumer product for home use. In order to classify the floor surface category in the home environment, “4: length of hairs of carpets and carpets” can be used as a classification standard.

具体的には、家庭環境における一般的な床面を「板材(フローリング)」と「絨毯」とし、上記分類基準において分類すると、以下の3つのカテゴリ分類が必要となる。
床面1:毛足が長い絨毯(毛足の長さ6mm以上)
床面2:毛足が短い絨毯(毛足の長さ6mm未満)
床面3:フローリング(毛足の長さ0mmに相当)
Specifically, when the general floor surface in the home environment is defined as “plate material (flooring)” and “carpet” and classified according to the above classification criteria, the following three categories are required.
Floor 1: carpet with long bristle feet (length of bristle feet 6mm or more)
Floor 2: carpet with short hairs (length of hairs less than 6mm)
Floor 3: Flooring (corresponds to 0mm hair length)

ここで、毛足の長さを分類基準として使用するのは、本願発明者らが、ロボット装置に実際に歩行させて実験した際、毛足の長さが最も歩行性能に影響を与えることを知見したからである。すなわち、歩行制御部13にて、これらの3つの床面カテゴリ別に異なる歩行制御形態(パラメータ又は歩行アルゴリズム)を用意する必要があることを知見したものである。   Here, the length of the hairy feet is used as a classification standard because the inventors of the present application have the most influence on the walking performance when the robot apparatus actually walks and conducts the experiment. This is because they have found out. That is, it has been found that the walking control unit 13 needs to prepare different walking control modes (parameters or walking algorithms) for each of these three floor surface categories.

次に、上記3つの床面カテゴリに、実際の床面を分類するために利用する情報(判別用入力データ)について説明する。床面判別部12の入力となる上述の入力データのうち、一又は複数の組み合わせを判別用入力データとして床面カテゴリ判別をおこなう。この判別用入力データは、上述のような時系列値を何らかの手法で加工(前処理)し、後段の線形判別にて床面カテゴリに当てはめるものである。   Next, information (determination input data) used for classifying actual floor surfaces into the above three floor surface categories will be described. Of the above-mentioned input data to be input to the floor surface determination unit 12, floor category determination is performed using one or a plurality of combinations as input data for determination. This input data for discrimination is obtained by processing (pre-processing) the time series values as described above by some method and applying it to the floor category in the subsequent linear discrimination.

この前処理としては、以下の方法が挙げられる。先ず、1次元情報である場合、すなわち上述のセンサ値及び適応操作量は、例えば、例えば上述した場足踏み動作時又は歩行時に得られるものであるが、このような動作時に得られるセンサ値及び適応操作量は、床面に関する情報を何らかの形で含むものである。この床面に関する情報、すなわち床面の特徴量としては例えば、フーリエパワースペクトル特徴、又は自己相関特徴等が挙げられる。   Examples of the pretreatment include the following methods. First, in the case of one-dimensional information, that is, the above-described sensor value and adaptive operation amount are obtained, for example, at the time of the above-described stepping action or walking, the sensor value and adaptation obtained at the time of such operation The operation amount includes information about the floor surface in some form. Examples of the information relating to the floor surface, that is, the feature amount of the floor surface include, for example, a Fourier power spectrum feature or an autocorrelation feature.

また、2次元情報である場合、すなわち例えばカメラ等の画像入力手段251からの入力画像の場合、情報が2次元的であり、領域分割する必要があるために処理が異なるが、基本的には上記1次元の場合と同じ特徴量を用いることが可能である。入力画像の特徴量としてフーリエパワースペクトルの特徴を得る方法としては、例えば、先ず、入力画像中から床面領域を分離又は抽出する。入力画像から床面領域を抽出する方法としては、両眼ステレオ視差値からのハフ変換により、支配的な平面を抽出し、座標変換して床面であるか否かを判定して床面領域を抽出する方法等がある。   In the case of two-dimensional information, that is, for example, an input image from an image input unit 251 such as a camera, the information is two-dimensional and processing is different because it is necessary to divide the region. It is possible to use the same feature amount as in the one-dimensional case. As a method for obtaining the feature of the Fourier power spectrum as the feature amount of the input image, for example, first, a floor area is separated or extracted from the input image. As a method of extracting the floor area from the input image, a dominant plane is extracted by Hough transform from the binocular stereo parallax value, and coordinate conversion is performed to determine whether or not the floor area is the floor area. There is a method of extracting.

次に、抽出された床面領域の二次元フーリエパワースペクトルを求める。そして、この2次元のフーリエパワースペクトルを、走査法により1次元ベクトルに展開する。これにより、上述の1次元における床面の特徴量と同様に入力画像等の2次元情報を取り扱うことができる。   Next, a two-dimensional Fourier power spectrum of the extracted floor area is obtained. Then, this two-dimensional Fourier power spectrum is developed into a one-dimensional vector by a scanning method. Accordingly, two-dimensional information such as an input image can be handled in the same manner as the above-described one-dimensional floor feature.

以下、床面カテゴリ判別の一具体例として、判別用入力データとしてロール軸操作量及びピッチ軸操作量の2つの入力データを特徴量に変換して床面カテゴリを判別する方法について説明する。図10及び図11は、それぞれロール軸操作量及びピッチ軸操作量のある時点における時系列値をフーリエ変換して得られたフーリエパワースペクトルを示すグラフ図である。図10及び図11においては、横軸は周波数、縦軸はパワーに対応したものとなっている。そして、この2つのデータを1つのデータの塊として図12のように扱う。すなわち、ロール軸操作量のフーリエパワースペクトルの横軸(周波数成分)を例えば0〜50とし、ピッチ軸操作量のフーリエパワースペクトルの横軸(周波数成分)を例えば50〜100として換算しておくことで、2つのデータを連続させて1つのデータとして取り扱うことができる。このような操作をもって、複数の特徴量を複合して利用することができる。   Hereinafter, as a specific example of the floor surface category determination, a method for determining the floor surface category by converting two pieces of input data of the roll axis operation amount and the pitch axis operation amount as the determination input data into feature amounts will be described. 10 and 11 are graphs showing Fourier power spectra obtained by Fourier transforming time series values at a certain point in time for the roll axis operation amount and the pitch axis operation amount, respectively. 10 and 11, the horizontal axis corresponds to the frequency, and the vertical axis corresponds to the power. These two data are handled as one data block as shown in FIG. That is, the horizontal axis (frequency component) of the Fourier power spectrum of the roll axis manipulated variable is converted to, for example, 0 to 50, and the horizontal axis (frequency component) of the Fourier power spectrum of the pitch axis manipulated variable is converted to, for example, 50 to 100. Thus, two pieces of data can be handled as one piece of data. With such an operation, a plurality of feature quantities can be used in combination.

こうして得られたロール軸操作量とピッチ軸操作量との特徴量を複合したフーリエパワースペクトルを線形判別分析の入力とし、これにより床面カテゴリを判別する。この複合フーリエパワースペクトルは、例えば歩行周期8msecのロボット装置の場合、1秒間に最大125回生成することができる。なお、線形判別分析は、所定のタイミングで行ってもよく、歩行周期毎に行わなくてもよいことは勿論である。   The Fourier power spectrum obtained by combining the feature amounts of the roll axis operation amount and the pitch axis operation amount obtained in this way is used as an input for linear discriminant analysis, and thereby the floor surface category is discriminated. For example, in the case of a robot apparatus having a walking cycle of 8 msec, this composite Fourier power spectrum can be generated up to 125 times per second. Of course, the linear discriminant analysis may be performed at a predetermined timing and may not be performed every walking cycle.

また図10に示すデータは、下記(1)に示すようなベクトル表現をとることができる。   Further, the data shown in FIG. 10 can take a vector representation as shown in (1) below.

Figure 0004649913
Figure 0004649913

ここで、上述したように、ロボット装置は、予め床面カテゴリ別に、線形判別分析の入力とされる特徴量を学習しておく必要がある。床面カテゴリの学習は、例えば、各床面カテゴリに属する床面上で、上述の足踏み動作をさせることで、上記式(1)に示すベクトルxを大量に集めておけばよい。例えば、10秒間の場足踏み動作で1250個のベクトルxを集めることができる。ここでは、3つの床面カテゴリ、すなわち、「フローリング」、「毛足の短い絨毯(毛足の長さ6mm未満)」、「毛足の長い絨毯(毛足の長さ6mm以上)」、の床面カテゴリを用意するものとして説明するため、これら3つの床面において、例えば10秒間、その場足踏み動作を行い、各1250個のベクトルxを集めることで、床面カテゴリの学習を行っておく。   Here, as described above, it is necessary for the robot apparatus to learn in advance the feature quantity that is input to the linear discriminant analysis for each floor category. For learning of floor categories, for example, a large amount of vectors x shown in the above equation (1) may be collected by performing the above-mentioned stepping motion on the floors belonging to each floor category. For example, 1250 vectors x can be collected in a 10-second stepping motion. Here, there are three floor surface categories: “flooring”, “short-haired carpet (less than 6 mm long hair)”, “long-haired carpet (more than 6 mm long hair)” In order to explain that the floor category is prepared, the floor category is learned by performing stepping on the spot for 10 seconds on each of the three floors and collecting 1250 vectors x each. .

この学習を行った際に、分類した床面カテゴリ別に特徴量の差が現れない場合は、床面カテゴリ判別が難しいことを示す。この場合には、本質的に2つの可能性が考えられる。1つは、本質的に分類不可能なカテゴリを分類しようと試みている場合である。具体的には、例えば、平らな石と平らなガラスは、いずれも硬い平らな床面であり、ロボット装置にとってほとんど違いが無く分類が不可能である場合などである。もう1つは、判別に用いた特徴量が学習アルゴリズムが解こうとしている判別問題に対して十分な自由度が無い、又は自由度が弱い場合である。例えば、たった1つのポテンショメータの値を使用するのみでは、情報量が足りないなどにより分類不可能である場合である。いずれにせよ、予めの学習により床面カテゴリを判別用入力データの特徴量別に分類することができれば、実際にその特徴量を使用してカテゴリ判別することができることを示す。   When this learning is performed, if there is no difference in the feature amount for each classified floor category, this indicates that it is difficult to determine the floor category. In this case, there are essentially two possibilities. One is when trying to classify categories that are essentially unclassifiable. Specifically, for example, a flat stone and a flat glass are both hard and flat floor surfaces, and there is almost no difference for the robot apparatus and classification is impossible. The other is a case where the feature quantity used for discrimination does not have a sufficient degree of freedom or a low degree of freedom for the discrimination problem that the learning algorithm is trying to solve. For example, it is a case where classification cannot be performed by using only one potentiometer value due to an insufficient amount of information. In any case, if the floor category can be classified according to the feature quantity of the input data for discrimination by learning in advance, it indicates that the category can be actually discriminated using the feature quantity.

本実施の形態においては、この床面カテゴリ判別のため、フィッシャー規範の線形判別分析を行う。これは、各カテゴリ内の分散を最小化し各カテゴリ間の分散を最大化する空間(判別空間)への投影を行い、その空間内での距離をもってカテゴリ判別を行う手法である。   In this embodiment, a Fisher discriminant linear discriminant analysis is performed for this floor category discrimination. This is a technique for performing projection on a space (discriminant space) that minimizes the variance in each category and maximizes the variance between the categories, and performs category discrimination based on the distance in the space.

ここで、床面カテゴリのことを床面クラスと表し、K個のクラスのうちk番目のクラスをクラスCという。線形判別分析は、入力ベクトルxを下記式(2)に示す変換式によって図13に示す判別空間におけるベクトルyに変換し、その空間内での各点(ベクトル)間の距離を見ることで行う。 Here, the floor category is referred to as a floor class, and the k-th class among the K classes is referred to as a class C k . The linear discriminant analysis is performed by converting the input vector x into the vector y in the discriminant space shown in FIG. 13 by the conversion formula shown in the following formula (2), and looking at the distance between each point (vector) in the space. .

Figure 0004649913
Figure 0004649913

入力ベクトルxに対する判別空間での値yと、クラスCのデータの平均値(クラス中心)の判別空間におけるクラス中心との距離が他のクラス中心との距離と比べて短いと、その入力ベクトルxはクラスCに属していると判定する。即ち、距離が短いことは、データの値が類似していることを示す。以下、本明細書においては、クラスCのデータの平均値(クラス中心)を<x>とし、判別空間におけるクラス中心を<y>と記載する。 If the distance y between the value y in the discriminant space for the input vector x and the class center in the discriminant space of the average value (class center) of the data of class C k is shorter than the distance from other class centers, the input vector It is determined that x belongs to class C k . That is, a short distance indicates that the data values are similar. Hereinafter, in this specification, the average value (class center) of data of class C k is denoted as <x k >, and the class center in the discriminant space is denoted as <y k >.

上記(2)の変換式における係数行列Aは以下のようにして求める。すなわち、クラス平均を<x>、全平均を<x>として、クラス内共分散Σ及びクラス間共分散Σをそれぞれ下記式(3)及び式(4)のように定義すると、係数行列Aは、下記(5)に示す固有値問題の解として求まる。 The coefficient matrix A in the conversion formula (2) is obtained as follows. That is, if the class average is <x k >, the total average is <x T >, and the intra-class covariance Σ W and inter-class covariance Σ B are defined as in the following formulas (3) and (4), respectively, The coefficient matrix A is obtained as a solution to the eigenvalue problem shown in (5) below.

Figure 0004649913
Figure 0004649913

:クラスCkのデータの平均値(クラス中心)=<x
:全データの平均値=<x
: Average value of data of class Ck (class center) = <x k >
: Average value of all data = <x T >

Figure 0004649913
Figure 0004649913

Figure 0004649913
Figure 0004649913

係数行列Aは、最初に述べた多くのベクトルxを用いて予め作成しておくものであり、実際にロボット装置が床面の判別をおこなう際には、そのあらかじめ用意された係数行列Aと、同じく予め計算しておいたクラス中心<y>とを用いて、入力データPのカテゴリ判別をおこなう。すなわち、入力データPと、クラス中心<y>との距離Lが最も小さいクラスに、入力データPを分類することができる。 The coefficient matrix A is prepared in advance using the many vectors x described above. When the robot apparatus actually determines the floor surface, the coefficient matrix A prepared in advance, Similarly, category classification of the input data P is performed using the class center <y k > calculated in advance. That is, the input data P can be classified into a class having the smallest distance L n between the input data P and the class center <y k >.

こうして得られた床面判別結果としての床面カテゴリは、歩行制御部13に供給される。歩行制御部13は、こうして入力される床面カテゴリに応じて、ロール軸やピッチ軸等の軌道計算のためのアルゴリズムや、軌道計算に用いるパラメータ(係数)を変更することが可能となる。変更可能なパラメータとしては、例えば、歩幅、歩行周期(一歩にかける時間)、両脚支持の割合、又はPIDゲイン等が挙げられる。下記表2にパラメータ変更の具体例を示す。   The floor category as the floor discrimination result obtained in this way is supplied to the walking control unit 13. The walking control unit 13 can change an algorithm for calculating a trajectory such as a roll axis and a pitch axis and a parameter (coefficient) used for the trajectory calculation in accordance with the floor category thus input. Examples of the parameters that can be changed include a stride, a walking cycle (time taken for one step), a ratio of supporting both legs, or a PID gain. Table 2 below shows specific examples of parameter changes.

Figure 0004649913
Figure 0004649913

このように、床面カテゴリに応じて、最適な、歩行制御(適応操作量)を各種センサ値から換算するためのパラメータ等の歩行制御形態を選択させることが可能となり、床面の状態に応じて適切な歩行アルゴリズムを採用し、これにより床面の状態が大きく変化するような場合であっても安定した歩行が実現可能となる。また、床面カテゴリを認識することで、安定した歩行に最も適した歩行制御形態を選択するため、通常よりも早く歩くなどの他の性能を引き出すことが可能となる。   In this way, according to the floor category, it becomes possible to select the optimal walking control (adaptive operation amount), such as a parameter for converting from various sensor values, and to select a walking control mode, depending on the state of the floor. By adopting an appropriate walking algorithm, stable walking can be realized even when the floor surface state changes greatly. In addition, by recognizing the floor category, the most suitable walking control mode for stable walking is selected, so that it is possible to bring out other performance such as walking faster than usual.

更に、歩行に適さない床面を認識することで、「歩けない」として歩行を中止させるような制御が可能となり、うまくあるけないまま歩行を続行して転倒してしまうようなことがない。   Furthermore, by recognizing a floor surface that is not suitable for walking, it is possible to control to stop walking as “cannot walk”.

更にまた、床面カテゴリの情報を環境地図と関連付けさせることで、環境地図の性能を向上させることができる。即ち、床面カテゴリの情報を記憶しておけば、例えばフローリングからカーペットの部屋に移動した際に上述した足踏み動作をすることなく、自動的に歩行アルゴリズムなどの歩行制御形態を変更して適応的に歩容を生成することができる。   Furthermore, the performance of the environmental map can be improved by associating the floor category information with the environmental map. In other words, if the floor category information is stored, the walking control mode such as the walking algorithm is automatically changed and adaptively performed without moving the stepping action described above when moving from the floor to the carpet room, for example. A gait can be generated.

更にまた、床面に関する知識を用いて、好きな床・嫌いな床や、得意な床・不得意な床などを識別でき、これをユーザとの対話コンテンツとして提供することができる。   Furthermore, using the knowledge about the floor surface, it is possible to identify a favorite floor, a disliked floor, a good floor, a poor floor, etc., and provide this as interactive content with the user.

次に、実際のデータを用いて床面カテゴリ判別を行った本発明の実施例について説明する。ここでは、簡略化のために1つの判別用入力データのみを利用しているが、上述したように、複数のデータを1つに統合して床面判別を行ってもよいことは勿論である。また、このように、判別用入力データを適切に選択すれば、1つの判別用入力データにて床面カテゴリを判別することが可能となる。   Next, an embodiment of the present invention in which floor category determination is performed using actual data will be described. Here, for the sake of simplification, only one piece of input data for determination is used. However, as described above, it is a matter of course that a plurality of data may be integrated into one to perform floor surface determination. . In addition, as described above, if the discrimination input data is appropriately selected, it is possible to discriminate the floor category with a single discrimination input data.

本実施例においては、床面判別に使用するデータとして、上述した足踏み動作時におけるロール軸操作量の時系列値を用いた。図14(a)、図15(a)、及び図16(a)は、それぞれ床面がフローリングF、毛足の長さが6mm未満の絨毯F、毛足の長さが6mm以上の絨毯Fを示す模式図、図14(b)、図15(b)、及び図16(b)は、各床面にてそれぞれ足踏み動作した際に得られた時系列値、図14(c)、図15(c)、及び図16(c)は、各時系列値をそれぞれフーリエ変換して床面の特徴量としたグラフ図を示す。また、図17は、これら3クラスを判別する際の決定境界を説明する図、図18は、ロボット装置が足踏み動作して床面判別を行っている様子を示す模式図である。 In this embodiment, the time series value of the roll axis operation amount during the stepping motion described above is used as the data used for the floor surface discrimination. 14 (a), 15 (a), and 16 (a), the floor surface is a flooring F A , a carpet F B with a hairy foot length of less than 6 mm, and a hairy foot length of 6 mm or more. schematically shows a carpet F C diagram, FIG. 14 (b), the FIG. 15 (b), the and FIG. 16 (b), the time series values obtained upon stepping action respectively at each floor, Fig. 14 (c ), FIG. 15C, and FIG. 16C are graphs showing the floor surface feature values by Fourier transforming each time series value. FIG. 17 is a diagram for explaining a decision boundary when discriminating these three classes, and FIG. 18 is a schematic diagram showing a state where the robot apparatus performs a stepping operation to perform floor surface discrimination.

先ず、床面カテゴリを判別するために、各床面ガテゴリにおけるロール軸操作量の特徴量を学習しておく。学習時には、図18に示すように、床面カテゴリに分類する床面を用意し、これをロボット装置に足踏みさせて多数の特徴量を確保しておく。すなわち、図14乃至図16に示すように、各床面のロール軸操作量の時系列データから各床面の特徴量を求める。3クラスの判別問題は、線形判別分析によって、図17に示す2次元空間へ投影される。図17に示すように、各床面F〜Fにて、複数の特徴量を集めて投影することで、データの分布が得られ、これにより、図中実線で示す床面毎の境界決定線を引くことができる。 First, in order to determine the floor surface category, the feature amount of the roll axis operation amount in each floor surface category is learned. At the time of learning, as shown in FIG. 18, a floor surface to be classified into the floor surface category is prepared, and a large number of feature quantities are secured by causing the robot device to step on the floor surface. That is, as shown in FIGS. 14 to 16, the feature value of each floor surface is obtained from the time series data of the roll axis operation amount of each floor surface. The three-class discriminant problem is projected onto the two-dimensional space shown in FIG. 17 by linear discriminant analysis. As shown in FIG. 17, a distribution of data is obtained by collecting and projecting a plurality of feature amounts on each of the floor surfaces F A to F C , thereby obtaining a boundary for each floor surface indicated by a solid line in the figure. A decision line can be drawn.

このように学習されクラス境界決定線が引かれた2次元空間に対して、ロボット装置が床面の状態に応じた歩行制御を行う場合は、歩行又は上述の足踏み動作により、ロール軸操作量の時系列値を獲得し、これをフーリエ変換して特徴量に変換し、図17に示す2次元空間へ投影する。そして、各クラス中心点からのユークリッド距離を比較し、もっとも距離が短いクラスに分類することで、床面カテゴリを判別(クラス判別する)ことができる。   When the robot apparatus performs walking control according to the state of the floor surface with respect to the two-dimensional space learned in this manner and drawn with the class boundary decision line, the roll axis operation amount is reduced by walking or the above-described stepping action. A time series value is acquired, is converted into a feature value by Fourier transform, and is projected onto a two-dimensional space shown in FIG. Then, by comparing the Euclidean distance from each class center point and classifying the class into the class with the shortest distance, the floor surface category can be determined (class determination).

歩行制御部では、3つの床面カテゴリ、即ちフローリングF、毛足の短い絨毯F、毛足の長い絨毯Fに応じた例えば歩行アルゴリズム等の歩行制御形態が用意されており、上述の方法にて床面カテゴリが入力されると、その床面カテゴリに対応した歩行アルゴリズムに従って適応操作量を算出し、安定した歩行を行うことができる。 The walking control unit, three floor category, i.e. flooring F A, short carpet F B haired, walking control forms are prepared, such as, for example, walking algorithm corresponding to long carpet F C haired, above When a floor category is input by the method, an adaptive operation amount is calculated according to a walking algorithm corresponding to the floor category, and stable walking can be performed.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。上述の実施の形態においては、床面カテゴリの分類は予め床面を所定のカテゴリに分類し、カテゴリ毎に判別用入力データの特徴量を学習しておくものとしたが、複数種類の床面にて判別用入力データの特徴量(特徴ベクトル)を多量に取得し、パターン空間上のデータ(特徴ベクトル)を、パターン空間上のユークリッド距離等や分散に基づく類似度を使用して類似したいくつかの部分集合に分割するクラスタリングを行うことで、床面のカテゴリの分類を行ってもよい。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. In the above-described embodiment, the floor category is classified into a predetermined category in advance, and the feature amount of the input data for discrimination is learned for each category. A large amount of features (feature vectors) in the input data for discrimination are obtained at, and the data (feature vectors) in the pattern space is similar using the Euclidean distance in the pattern space and similarities based on variance. Classification of floor categories may be performed by performing clustering to divide into such subsets.

本発明の実施の形態におけるロボット装置の概観を示す斜視図である。1 is a perspective view showing an overview of a robot apparatus according to an embodiment of the present invention. 同ロボット装置が具備する関節自由度構成を模式的に示す図である。It is a figure which shows typically the joint freedom degree structure which the robot apparatus comprises. 同ロボット装置の制御システム構成を示す模式図である。It is a schematic diagram which shows the control system structure of the robot apparatus. 同ロボット装置のうち、床面別歩行制御装置に必要な要部のみを機能的に示すブロック図である。It is a block diagram which shows functionally only the principal part required for the walk control apparatus classified by floor among the robot apparatus. 床面別歩行制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the walk control processing classified by floor surface. (a)乃至(d)は、ロボット装置が足踏み動作を行っている様子を示す図である。(A) thru | or (d) is a figure which shows a mode that the robot apparatus is performing stepping motion. 同じく、(a)乃至(d)は、ロボット装置1が足踏み動作を行っている様子を示す図であって、図6(d)の後の動作を示す図である。Similarly, (a) to (d) are diagrams illustrating a state in which the robot apparatus 1 is performing a stepping motion, and are diagrams illustrating an operation after FIG. 6 (d). 横軸に時間をとり、縦軸に加速度をとって、正面方向及び横方向の足底加速度の時系列値を示すグラフ図である。It is a graph which shows the time series value of the plantar acceleration of a front direction and a horizontal direction by taking time on a horizontal axis and taking acceleration on a vertical axis. 横軸に周波数をとり縦軸にパワーをとって、図8に示す正面方向及び横方向の足底加速度の時系列値をフーリエ変換したフーリエパワースペクトルを示すグラフ図である。FIG. 9 is a graph showing a Fourier power spectrum obtained by performing a Fourier transform on the time series values of the front and lateral sole accelerations shown in FIG. 8 with the frequency on the horizontal axis and the power on the vertical axis. ロール軸操作量のある時点における時系列値をフーリエ変換して得られたフーリエパワースペクトル特徴を示すグラフ図である。It is a graph which shows the Fourier power spectrum characteristic obtained by carrying out the Fourier transform of the time series value in a certain time of the roll axis operation amount. ピッチ軸操作量のある時点における時系列値をフーリエ変換して得られたフーリエパワースペクトル特徴を示すグラフ図である。It is a graph which shows the Fourier power spectrum characteristic obtained by carrying out the Fourier transform of the time series value in a certain time of a pitch axis manipulated variable. 2つのデータを1つのデータの塊りとして扱う例を示す図である。It is a figure which shows the example which handles two data as one lump of data. 特徴量を投影して床面カテゴリを判別するための判別空間を示す図である。It is a figure which shows the discrimination | determination space for projecting the feature-value and discriminating a floor surface category. (a)は、フローリングの床面を示す模式図、(b)はフローリングの床面にて足踏み動作した際に得られた時系列値、(c)は、得られた時系列値をフーリエ変換してフローリングの床面の特徴量としたグラフ図である。(A) is a schematic diagram showing a floor surface of the flooring, (b) is a time series value obtained when a stepping action is performed on the floor surface of the flooring, and (c) is a Fourier transform of the obtained time series value. It is the graph which made it the feature-value of the floor surface of a flooring. (a)は、毛足の長さが6mm未満の絨毯の床面を示す模式図、(b)は毛足の長さが6mm未満の絨毯の床面にて足踏み動作した際に得られた時系列値、(c)は、得られた時系列値をフーリエ変換して毛足の長さが6mm未満の絨毯の床面の特徴量としたグラフ図である。(A) is a schematic diagram showing the floor of a carpet with a hairy foot length of less than 6 mm, and (b) is obtained when a stepping action is performed on the floor of a carpet with a hairy foot length of less than 6 mm. A time series value, (c), is a graph showing the characteristic amount of the floor surface of a carpet having a length of hair foot of less than 6 mm by Fourier transforming the obtained time series value. (a)は、毛足の長さが6mm以上の絨毯の床面を示す模式図、(b)は毛足の長さが6mm以上の絨毯の床面にて足踏み動作した際に得られた時系列値、(c)は、得られた時系列値をフーリエ変換して毛足の長さが6mm以上の絨毯の床面の特徴量としたグラフ図である。(A) is a schematic diagram showing the floor surface of a carpet having a hair length of 6 mm or more, and (b) is obtained when a stepping action is performed on the floor surface of a carpet having a hair foot length of 6 mm or more. A time series value, (c), is a graph showing the characteristic amount of the floor surface of a carpet having a length of a hair foot of 6 mm or more by Fourier-transforming the obtained time series value. 3クラスを判別する際の2次元空間におけるクラス決定境界を説明する図である。It is a figure explaining the class decision boundary in the two-dimensional space at the time of discriminating 3 classes. ロボット装置が足踏み動作して床面判別を行っている様子を示す模式図である。It is a schematic diagram which shows a mode that the robot apparatus is stepping on and performing floor surface discrimination.

符号の説明Explanation of symbols

1 ロボット装置、 2 体幹部ユニット、 4R/L 腕部ユニット、 104 体幹ピッチ軸、 105 体幹ロール軸、 106 体幹ヨー軸、 11 行動制御部、 12 床面判別部、 13 歩行制御部   DESCRIPTION OF SYMBOLS 1 Robot apparatus, 2 trunk unit, 4R / L arm unit, 104 trunk pitch axis, 105 trunk roll axis, 106 trunk yaw axis, 11 action control part, 12 floor surface discrimination | determination part, 13 walking control part

Claims (13)

自律的に動作可能な脚式移動型ロボット装置において、
現在の移動面に関する情報に基づき、予め用意された複数のカテゴリから現在の移動面のカテゴリである移動面カテゴリを判別する移動面判別手段と、
上記移動面判別手段により判別された上記移動面カテゴリに応じて所定の移動制御形態を選択し、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている移動制御形態に基づき移動制御量を算出して移動を制御する移動制御手段とを有し、
上記移動制御手段は、上記カテゴリ毎に異なる移動制御モデル又は移動アルゴリズムを有し、入力される上記移動面カテゴリに対応した移動制御モデル又は移動アルゴリズムを選択し、上記センサ値を使用して上記移動制御モデルからの補正量又は上記移動アルゴリズムに従った適応操作量を上記移動制御量として算出し、
上記移動面判別手段は、上記移動制御量を上記現在の移動面に関する情報として使用する
ロボット装置。
In a legged mobile robot that can operate autonomously,
Based on information about the current moving surface, the moving surface determining means for determining a moving surface category is a category of the current moving surface from a plurality of categories, which are prepared in advance,
A predetermined movement control mode is selected according to the moving plane category determined by the moving plane determination unit , and at least based on a selected movement control mode from sensor values output from sensors provided on the legs. calculating a movement control amount to have a movement control means for controlling the movement,
The movement control means has a different movement control model or movement algorithm for each category, selects a movement control model or movement algorithm corresponding to the input moving surface category, and uses the sensor value to move the movement. A correction amount from the control model or an adaptive operation amount according to the movement algorithm is calculated as the movement control amount,
The moving surface determination means is a robot apparatus that uses the movement control amount as information on the current moving surface .
上記移動制御手段は、上記センサ値を所定のパラメータを使用して上記移動制御量に換算するものであって、上記カテゴリ毎に異なるパラメータを有し、入力される上記移動面カテゴリに対応したパラメータを使用して上記移動制御量を算出す
請求項記載のロボット装置。
The movement control means converts the sensor value into the movement control amount using a predetermined parameter, has a parameter different for each category, and is a parameter corresponding to the input moving surface category. robot apparatus according to claim 1, wherein you calculate the movement control amount using.
上記移動面判別手段は、少なくとも脚部に設けられたセンサから出力されるセンサ値を上記現在の移動面に関する情報として使用す
請求項1記載のロボット装置。
The moving surface discriminating means, the sensor value output from the sensor provided to at least the leg portions of that use according to claim 1, wherein the information relating to the current movement plane robot apparatus.
撮像手段を有し、
上記移動面判別手段は、上記撮像手段により撮像された入力画像から移動面領域を抽出し該移動面領域を上記現在の移動面に関する情報として使用す
請求項1記載のロボット装置。
Having imaging means;
The moving surface discriminating means, a robot apparatus according to claim 1, wherein the extracted the moving surface region moving surface region from an input image captured by the image pickup means to use as information on the current movement plane.
上記移動面判別手段は、上記現在の移動面に関する情報のパターン識別により移動面カテゴリを判別す
請求項1記載のロボット装置。
The moving surface discriminating means, the robot apparatus to that claim 1, wherein determining the moving surface category by pattern identification information relating to the current movement plane.
上記移動面判別手段は、所定の基準に応じて分類されたカテゴリ毎に、その移動面に関する情報の特徴量を予め学習した学習済特徴量を有し、現在の移動面に関する情報の特徴量と上記学習済特徴量とを比較して移動面カテゴリを判別す
請求項1記載のロボット装置。
The moving surface discriminating means has a learned feature amount in which a feature amount of information related to the moving surface is learned in advance for each category classified according to a predetermined criterion, and includes a feature amount of information related to the current moving surface, robot apparatus according to claim 1, wherein you determine the moving surface category by comparing the trained feature amount.
上記複数のカテゴリは、移動面に関する情報の特徴量を予め学習した学習済特徴量に応じて分類されたものであって、
上記移動面判別手段は、現在の移動面に関する情報の特徴量と上記学習済特徴量とを比較して移動面カテゴリを判別す
請求項1記載のロボット装置。
The plurality of categories are classified according to learned feature amounts learned in advance with respect to feature amounts of information on moving surfaces,
The movement plane determining means that the current moving surface information of the feature amount and the trained features and robot apparatus to that claim 1, wherein determining the moving surface category by comparing related.
上記移動面カテゴリを判別するための足踏み動作を生成する動作生成手段を有す
請求項1記載のロボット装置。
Robot apparatus according to claim 1, wherein that having a motion generating means for generating a stepping motion to determine the movement plane category.
上記移動制御手段は、上記足踏み動作時に、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている移動制御形態に基づき移動制御量を算出し、
上記移動面判別手段は、上記移動制御量を上記移動面に関する情報として使用す
請求項記載のロボット装置。
The movement control means calculates a movement control amount based on a selected movement control form from a sensor value output from at least a sensor provided on a leg during the stepping action,
The movement plane determining means, robotic apparatus of claim 8, wherein to use the movement control amount as information relating to the movement plane.
上記移動制御手段は、少なくとも脚部に設けられたセンサから出力される時系列のセンサ値から、選択されている移動制御形態に基づき時系列の移動制御量を算出し、
上記移動面判別手段は、上記時系列の移動制御量をフーリエ変換したデータを特徴量とし、該特徴量のパターン識別により移動面カテゴリを判別す
請求項記載のロボット装置。
The movement control means calculates a time-series movement control amount based on a selected movement control form from at least a time-series sensor value output from a sensor provided on the leg.
The movement plane determining means, the time the movement control amount of the sequence features using Fourier transform data, the feature quantity of pattern identified by the robot apparatus according to claim 5, wherein you determine moving surface category.
上記移動面判別手段は、少なくとも脚部に設けられたセンサから出力される時系列のセンサ値をフーリエ変換したデータを特徴量とし、該特徴量のパターン識別により移動面カテゴリを判別す
請求項記載のロボット装置。
The movement plane determining means, and the feature amount data obtained by Fourier transform of the sensor values of the time series output from the sensor provided on at least the legs, claim you determine moving surface category by a pattern identification of the feature quantity 5. The robot apparatus according to 5 .
上記移動面判別手段は、移動中に連続的に移動面カテゴリを判別す
請求項1記載のロボット装置。
The movement plane determining means, determine the moving surface category continuously during movement claim 1, wherein the robotic device.
自律的に動作可能な脚式移動型ロボット装置の移動制御方法において、
現在の移動面に関する情報に基づき、予め用意された複数のカテゴリから現在の移動面のカテゴリである移動面カテゴリを判別する移動面判別工程と、
上記移動面判別工程にて判別された上記移動面カテゴリに応じて所定の移動制御形態を選択し、少なくとも脚部に設けられたセンサから出力されるセンサ値から、選択されている移動制御形態に基づき移動制御量を算出して移動を制御する移動制御工程とを有し、
上記移動制御工程では、上記カテゴリ毎に異なる移動制御モデル又は移動アルゴリズムを有し、入力される上記移動面カテゴリに対応した移動制御モデル又は移動アルゴリズムを選択し、上記センサ値を使用して上記移動制御モデルからの補正量又は上記移動アルゴリズムに従った適応操作量を上記移動制御量として算出し、
上記移動面判別工程では、上記移動制御量を上記現在の移動面に関する情報として使用する
ロボット装置の移動制御方法。
In a movement control method of a legged mobile robot device that can operate autonomously,
Based on information about the current moving surface, the moving surface determination step of determining a moving surface category is a category of the current moving surface from a plurality of categories, which are prepared in advance,
A predetermined movement control mode is selected according to the moving plane category determined in the moving plane determination step, and at least a sensor value output from a sensor provided on the leg is selected as the selected movement control mode. calculating a movement control amount to have a movement control step of controlling the movement based,
In the movement control step, a movement control model or a movement algorithm that is different for each category is selected, a movement control model or a movement algorithm corresponding to the input movement plane category is selected, and the movement is performed using the sensor value. A correction amount from the control model or an adaptive operation amount according to the movement algorithm is calculated as the movement control amount,
In the moving surface discrimination step, a movement control method for a robot apparatus that uses the movement control amount as information on the current moving surface .
JP2004241380A 2003-09-19 2004-08-20 Robot apparatus and movement control method of robot apparatus Expired - Fee Related JP4649913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004241380A JP4649913B2 (en) 2003-09-19 2004-08-20 Robot apparatus and movement control method of robot apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003329131 2003-09-19
JP2004241380A JP4649913B2 (en) 2003-09-19 2004-08-20 Robot apparatus and movement control method of robot apparatus

Publications (2)

Publication Number Publication Date
JP2005111654A JP2005111654A (en) 2005-04-28
JP4649913B2 true JP4649913B2 (en) 2011-03-16

Family

ID=34554680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004241380A Expired - Fee Related JP4649913B2 (en) 2003-09-19 2004-08-20 Robot apparatus and movement control method of robot apparatus

Country Status (1)

Country Link
JP (1) JP4649913B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326437B2 (en) * 2004-09-10 2009-09-09 本田技研工業株式会社 Robot control device
US7840308B2 (en) 2004-09-10 2010-11-23 Honda Motor Co., Ltd. Robot device control based on environment and position of a movable robot
US8652046B2 (en) * 2009-01-15 2014-02-18 Immersion Corporation Palpation algorithms for computer-augmented hand tools
JP5400595B2 (en) * 2009-12-11 2014-01-29 トヨタ自動車株式会社 Operation assistance device
JP4933636B2 (en) * 2010-03-15 2012-05-16 富士ソフト株式会社 Learning walking robot apparatus and control program thereof
JP5286429B2 (en) * 2012-02-16 2013-09-11 富士ソフト株式会社 Learning walking robot apparatus and control program thereof
CN104061907B (en) * 2014-07-16 2016-08-24 中南大学 The most variable gait recognition method in visual angle based on the coupling synthesis of gait three-D profile
CN108227691A (en) * 2016-12-22 2018-06-29 深圳光启合众科技有限公司 Control method, system and the device and robot of robot
JP7301701B2 (en) * 2019-09-26 2023-07-03 株式会社ソニー・インタラクティブエンタテインメント Control device, control method and program
EP4101376A4 (en) 2020-02-06 2023-06-21 Takenaka Civil Engineering&Construction Co., Ltd. Determination device and posture control device
JP7474440B2 (en) 2020-08-26 2024-04-25 株式会社アイシン Walking robot control device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001062766A (en) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd User interface system for remote control of bipedal walking robot
JP2001277159A (en) * 2000-04-03 2001-10-09 Sony Corp Legged locomotion robot, controlling method for it, and ralative movement measuring sensor for it
JP2001347476A (en) * 2000-06-05 2001-12-18 Sony Corp Leg moving robot
JP2001353686A (en) * 2000-06-14 2001-12-25 Sony Corp Foot structure for leg type mobile robot and road surface detection apparatus
JP2003068455A (en) * 2001-08-28 2003-03-07 Sharp Corp Manufacturing method of organic el element
JP2003181781A (en) * 2001-12-19 2003-07-02 Japan Science & Technology Corp Biped walking movable apparatus, and walk control apparatus and method for the same
JP2003346150A (en) * 2002-05-24 2003-12-05 Sony Corp Floor surface recognition device, floor surface recognition method, and robot device
JP2004167663A (en) * 2002-11-22 2004-06-17 Sony Corp Leg type moving robot and foot mechanism of leg type moving robot
JP2004524981A (en) * 2001-02-16 2004-08-19 ザ プロクター アンド ギャンブル カンパニー Obstacle handling system for robots
JP2005216022A (en) * 2004-01-30 2005-08-11 Funai Electric Co Ltd Autonomous run robot cleaner

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232057B2 (en) * 1998-03-25 2009-03-04 ソニー株式会社 Artificial ankle joint mechanism

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001062766A (en) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd User interface system for remote control of bipedal walking robot
JP2001277159A (en) * 2000-04-03 2001-10-09 Sony Corp Legged locomotion robot, controlling method for it, and ralative movement measuring sensor for it
JP2001347476A (en) * 2000-06-05 2001-12-18 Sony Corp Leg moving robot
JP2001353686A (en) * 2000-06-14 2001-12-25 Sony Corp Foot structure for leg type mobile robot and road surface detection apparatus
JP2004524981A (en) * 2001-02-16 2004-08-19 ザ プロクター アンド ギャンブル カンパニー Obstacle handling system for robots
JP2003068455A (en) * 2001-08-28 2003-03-07 Sharp Corp Manufacturing method of organic el element
JP2003181781A (en) * 2001-12-19 2003-07-02 Japan Science & Technology Corp Biped walking movable apparatus, and walk control apparatus and method for the same
JP2003346150A (en) * 2002-05-24 2003-12-05 Sony Corp Floor surface recognition device, floor surface recognition method, and robot device
JP2004167663A (en) * 2002-11-22 2004-06-17 Sony Corp Leg type moving robot and foot mechanism of leg type moving robot
JP2005216022A (en) * 2004-01-30 2005-08-11 Funai Electric Co Ltd Autonomous run robot cleaner

Also Published As

Publication number Publication date
JP2005111654A (en) 2005-04-28

Similar Documents

Publication Publication Date Title
US8315454B2 (en) Robot apparatus and method of controlling the behavior thereof
JP4609584B2 (en) Robot device, face recognition method, and face recognition device
US7515992B2 (en) Robot apparatus and emotion representing method therefor
US7418312B2 (en) Robot apparatus and walking control method thereof
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP3855812B2 (en) Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
KR100898435B1 (en) Robot apparatus and control method thereof
US20060064202A1 (en) Environment identification device, environment identification method, and robot device
JP3714268B2 (en) Robot device
JP4649913B2 (en) Robot apparatus and movement control method of robot apparatus
US20030060930A1 (en) Robot device and behavior control method for robot device
JP2002301674A (en) Leg type moving robot, its motion teaching method and storage medium
KR20050028859A (en) Apparatus and method for recognizing environment, apparatus and method for designing path, and robot apparatus
JP2004326693A (en) Image recognition device and method as well as robot device
JP4329398B2 (en) Face detection apparatus and method, program, and recording medium
JP2003285288A (en) Charging system, charge control method, robot, charger, and charge control program and recording medium
Walas et al. Terrain classification and locomotion parameters adaptation for humanoid robots using force/torque sensing
JP2003266345A (en) Path planning device, path planning method, path planning program, and moving robot device
Kemp et al. Humanoids
JP2008009999A (en) Plane extraction method, and device, program, and storage medium therefor, and imaging device
JP2005238422A (en) Robot device, its state transition model construction method and behavior control method
JP2003266349A (en) Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2003271958A (en) Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor
JP2004302645A (en) Face registration device, face registration method, recording medium and robot device
Kouppas et al. SARAH: The bipedal robot with machine learning step decision making

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees