JP4453076B2 - Humanoid robot - Google Patents

Humanoid robot Download PDF

Info

Publication number
JP4453076B2
JP4453076B2 JP2004105530A JP2004105530A JP4453076B2 JP 4453076 B2 JP4453076 B2 JP 4453076B2 JP 2004105530 A JP2004105530 A JP 2004105530A JP 2004105530 A JP2004105530 A JP 2004105530A JP 4453076 B2 JP4453076 B2 JP 4453076B2
Authority
JP
Japan
Prior art keywords
environment
action
sensor
humanoid robot
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004105530A
Other languages
Japanese (ja)
Other versions
JP2005288600A (en
Inventor
敬宏 宮下
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004105530A priority Critical patent/JP4453076B2/en
Publication of JP2005288600A publication Critical patent/JP2005288600A/en
Application granted granted Critical
Publication of JP4453076B2 publication Critical patent/JP4453076B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Description

この発明はヒューマノイドロボットおよびマップ作成方法に関し、特にたとえば、環境を認識し、その環境に適した行動をするヒューマノイドロボット、およびそのようなヒューマノイドロボットのための、環境と行動とセンサ出力とを対応付けたマップを作成するマップ作成方法に関する。   The present invention relates to a humanoid robot and a map creation method, and particularly relates to, for example, a humanoid robot that recognizes an environment and performs an action suitable for the environment, and associates an environment, an action, and a sensor output for such a humanoid robot. The present invention relates to a map creation method for creating a map.

たとえば非特許文献1に紹介されるASIMO(商品名)のような2足歩行型のヒューマノイドロボットは、環境を認識しきれないと転倒して潰れてしまうおそれがある。そのため、たとえば適当に行動を起こして、その後に環境を認識するようなことはできないので、行動の前にロボットの置かれている環境を認識してやる必要があった。従来のヒューマノイドロボットでは、環境のほかにも人間や障害物などを認識するために多くのセンサが設けられるので、あらゆるセンサの出力を活用して、環境を認識してから行動している。
“ASIMO SPECIAL SITE”、本田技研工業株式会社、インタネット<URL:http://www.honda.co.jp/ASIMO/>
For example, a biped walking humanoid robot such as ASIMO (trade name) introduced in Non-Patent Document 1 may fall over and collapse if it cannot recognize the environment. For this reason, for example, it is not possible to appropriately take action and then recognize the environment, so it is necessary to recognize the environment where the robot is placed before the action. In conventional humanoid robots, in addition to the environment, many sensors are provided for recognizing humans and obstacles. Therefore, the outputs of all sensors are used to recognize the environment before acting.
“ASIMO SPECIAL SITE”, Honda Motor Co., Ltd., Internet <URL: http://www.honda.co.jp/ASIMO/>

従来技術では、環境の認識のために多くのセンサを必要とするので、コスト、配線および消費電力などの面で問題があった。   In the prior art, many sensors are required for environment recognition, and thus there are problems in terms of cost, wiring, and power consumption.

それゆえに、この発明の主たる目的は、センサの数や種類が少なくても、環境を認識することができる、ヒューマノイドロボット、およびそのようなヒューマノイドロボットのための環境と行動とセンサ出力とを対応付けたマップを作成するマップ作成方法を提供することである。   Therefore, a main object of the present invention is to associate a humanoid robot capable of recognizing the environment even if the number and types of sensors are small, and to associate the environment, behavior, and sensor output for such a humanoid robot. It is to provide a map creation method for creating a map.

請求項1の発明は、環境を認識するヒューマノイドロボットであって、センサ、ヒューマノイドロボットの置かれる環境と、ヒューマノイドロボットの行動と、センサの出力の時系列データとを対応付けたマップを記憶するマップ記憶手段、および環境認識のための行動を実行する第1実行手段と、第1実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する第1計測手段とを含み、第1計測手段によって計測されたセンサの出力の時系列データと、マップに基づいて作成された環境を判別対象とした決定木とに基づいて、環境を認識する認識手段を備える、ヒューマノイドロボットである。   The invention of claim 1 is a humanoid robot that recognizes the environment, and stores a map in which a sensor, the environment in which the humanoid robot is placed, the behavior of the humanoid robot, and time-series data of the output of the sensor are associated with each other Storage means, first execution means for executing an action for environment recognition, and first measurement means for measuring time series data of an output of a sensor when the action is executed by the first execution means, A humanoid robot comprising recognition means for recognizing an environment based on time-series data output from a sensor measured by a first measurement means and a decision tree based on the environment created based on a map. .

請求項1の発明では、ヒューマノイドロボット(以下、単にロボットともいう。)は環境を認識するものであり、センサを含む。マップ記憶手段は、ロボットの置かれる環境と、ロボットの行動と、センサの出力の時系列データとを対応付けたマップを記憶していて、ロボットは、このマップを用いて、実際にロボットの存在している環境がいずれであるかを認識する。環境は認識手段によって認識される。つまり、認識手段の第1実行手段は環境認識のための行動を実行し、第1計測手段は、第1実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する。そして、この認識手段は、第1計測手段によって計測されたセンサの出力の時系列データと、マップに基づいて作成された環境を判別対象とした決定木に基づいて、環境を認識する。決定木は、ロボットの実行した行動とそのときのセンサ出力とによってロボットの存在する環境を判定していく決定手順の適用順序を定めたものである。したがって、認識手段は、決定木において環境が決定されるまで、決定木に従って行動の実行とそのときのセンサ出力による判定とを繰り返していくことで、環境を認識することができる。したがって、請求項1の発明によれば、センサ出力の時系列データとロボットの行動と環境とを対応付けたマップを備えているので、センサが少なくても、マップに基づいて作成された環境を判別対象とした決定木に基づいて、環境を認識することができる。   In the invention of claim 1, the humanoid robot (hereinafter also simply referred to as a robot) recognizes the environment and includes a sensor. The map storage means stores a map in which the environment in which the robot is placed, the behavior of the robot, and the time-series data of the sensor output are associated with each other. Recognize which environment is working. The environment is recognized by the recognition means. That is, the first execution unit of the recognition unit executes an action for environment recognition, and the first measurement unit measures time-series data of the sensor output when the first execution unit executes the action. Then, the recognizing unit recognizes the environment based on the time series data of the sensor output measured by the first measuring unit and the decision tree having the environment created based on the map as a discrimination target. The decision tree defines the order of application of the decision procedure for determining the environment in which the robot exists based on the action performed by the robot and the sensor output at that time. Therefore, the recognition means can recognize the environment by repeating the execution of the action and the determination based on the sensor output at that time according to the decision tree until the environment is determined in the decision tree. Therefore, according to the first aspect of the present invention, since the map in which the time series data of the sensor output is associated with the behavior of the robot and the environment is provided, the environment created based on the map can be obtained even if the number of sensors is small. The environment can be recognized based on the decision tree as the discrimination target.

請求項2の発明は、請求項1の発明に従属し、認識手段は、マップに基づいて環境を判別対象とした決定木を作成する決定木作成手段をさらに含む。   The invention of claim 2 is dependent on the invention of claim 1, and the recognizing means further includes a decision tree creating means for creating a decision tree having the environment as a discrimination target based on the map.

請求項2の発明では、決定木作成手段は、マップに基づいて環境を判別対象とした決定木を作成する。これにより、環境を認識しようとするたびごとにマップに基づいて決定木を作成することができる。したがって、請求項2の発明によれば、環境認識を行う際に、最初の行動を任意に選択することができる。   In the invention according to claim 2, the decision tree creating means creates a decision tree having the environment as a discrimination target based on the map. This makes it possible to create a decision tree based on the map each time an attempt is made to recognize the environment. Therefore, according to the invention of claim 2, when performing environment recognition, the first action can be arbitrarily selected.

請求項3の発明は、請求項1または2の発明に従属し、センサは加速度センサを含み、行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである。   The invention of claim 3 is dependent on the invention of claim 1 or 2, wherein the sensor includes an acceleration sensor, the action includes at least one of walking, sleeping, and getting up, and the environment to be recognized is at least Classified by floor hardness or floor slip.

請求項3の発明では、ロボットに設けられるセンサは加速度センサを含み、ロボットの実行する行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、そして、認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである。したがって、請求項3の発明によれば、歩く、寝ころぶ、起き上がる動作のような床との接触を伴う行動を実行しているときの、加速度センサの出力の時系列データを計測することによって、床の硬さまたは床の滑り(摩擦)などの違いのある環境を認識することができる。   In the invention of claim 3, the sensor provided in the robot includes an acceleration sensor, the action performed by the robot includes at least one of walking, sleeping, and getting up, and the environment to be recognized is at least a floor Are classified according to their hardness or floor slip. Therefore, according to the invention of claim 3, by measuring the time series data of the output of the acceleration sensor when performing an action involving contact with the floor such as walking, lying down, and getting up, the floor is measured. It is possible to recognize an environment having a difference such as hardness or floor slip (friction).

請求項4の発明は、請求項1ないし3のいずれかに従属し、認識手段によって認識された環境に適した行動を実行する第2実行手段をさらに備える。   The invention according to claim 4 is dependent on any one of claims 1 to 3, and further comprises second execution means for executing an action suitable for the environment recognized by the recognition means.

請求項4の発明では、第2実行手段は、認識手段によって認識された環境に適した行動を実行する。したがって、請求項4の発明によれば、環境を認識した後には、当該環境に適した行動を実行することができるので、環境に合わせて、望み通りの動作を行うことができる。   In the invention of claim 4, the second execution means executes an action suitable for the environment recognized by the recognition means. Therefore, according to the fourth aspect of the invention, after recognizing the environment, an action suitable for the environment can be executed, so that a desired operation can be performed according to the environment.

請求項5の発明は、請求項4の発明に従属し、第2実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する第2計測手段、および第2計測手段によって計測されたセンサの出力の時系列データが、認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かをマップに基づいて判断する環境変化判別手段をさらに備え、環境変化判別手段によってセンサの出力の時系列データが環境と行動とに対応するものではないと判断されたとき、認識手段によって環境を認識する。   The invention according to claim 5 is dependent on the invention according to claim 4, and includes a second measuring unit that measures time-series data of the output of the sensor when the action is being executed by the second executing unit, and a second measuring unit. Environment change determination means for determining whether the time-series data of the measured sensor output corresponds to the environment recognized by the recognition means and the action executed by the second execution means based on the map When the environment change determination unit determines that the time series data of the sensor output does not correspond to the environment and the action, the recognition unit recognizes the environment.

請求項5の発明では、第2計測手段は、第2実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する。環境変化判別手段は、第2計測手段によって計測されたセンサの出力の時系列データが、認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かをマップに基づいて判断する。認識している環境に適した行動を実行したときのセンサ出力は、マップで対応付けられているセンサ出力となるはずであるので、この環境変化判別手段によって、センサ出力に基づいて環境の変化を判別している。そして、環境変化判別手段によってセンサの出力の時系列データが環境と行動とに対応するものではないと判断されたときには、環境が変化したことがわかるので、認識手段によって環境を認識する。したがって、請求項5の発明では、一旦環境を認識した後でも環境の変化を把握することができるので、変化後の環境を認識することができる。   In the invention of claim 5, the second measuring means measures the time series data of the output of the sensor when the action is being executed by the second executing means. The environmental change determination means determines whether the time-series data of the sensor output measured by the second measurement means corresponds to the environment recognized by the recognition means and the action executed by the second execution means. Is determined based on the map. Since the sensor output when the action suitable for the recognized environment is executed should be the sensor output associated with the map, the environment change determination unit can change the environment based on the sensor output. Judging. When the environment change determination means determines that the time series data of the sensor output does not correspond to the environment and the action, the environment is recognized by the recognition means because the environment has changed. Therefore, in the invention of claim 5, since the change of the environment can be grasped even after the environment is recognized once, the environment after the change can be recognized.

請求項6の発明は、センサを備えて環境を認識するヒューマノイドロボットのための、ヒューマノイドロボットの置かれる環境と、ヒューマノイドロボットの行動と、センサの出力の時系列データとを対応付けたマップを作成するマップ作成方法であって、(a) ヒューマノイドロボットが認識すべき複数の環境において各環境に適した行動を実行するように複数の行動がそれぞれ調整されているヒューマノイドロボットを準備し、(b) ヒューマノイドロボットを用いて、認識すべき複数の環境で複数の行動をそれぞれ実行することによって、各行動を実行しているときのセンサの出力の時系列データを計測し、(c) 環境と、当該環境で実行した行動と、当該行動を実行しているときに計測されたセンサの出力の時系列データとを対応付ける、マップ作成方法である。   The invention of claim 6 creates a map for a humanoid robot having a sensor and recognizing the environment by associating the environment where the humanoid robot is placed, the behavior of the humanoid robot, and the time-series data of the sensor output. (A) preparing a humanoid robot in which a plurality of behaviors are adjusted so as to execute a behavior suitable for each environment in a plurality of environments to be recognized by the humanoid robot, and (b) By using a humanoid robot to perform multiple actions in multiple environments that should be recognized, the time series data of the sensor output when each action is being executed is measured. A mapping that associates actions performed in the environment with time-series data of sensor outputs measured when the actions are executed. It is the creation method.

請求項6の発明によれば、環境と行動とセンサ出力とを対応付けたマップを作成することができるので、センサを備えたヒューマノイドロボットがこのマップを用いて環境を認識することが可能になる。   According to the invention of claim 6, since a map in which the environment, the action, and the sensor output are associated with each other can be created, the humanoid robot equipped with the sensor can recognize the environment using this map. .

この発明によれば、センサ出力の時系列データとロボットの行動と環境とを対応付けたマップを備えているので、このマップに基づいて作成された環境を判別対象とした決定木と、行動中のセンサ出力とに基づいて、環境を判定することができる。したがって、センサが少なくても環境を認識することができる。さらに、認識した環境に適した行動を実行することができるので、環境内を円滑に動作することができる。   According to the present invention, since the map in which the time series data of the sensor output, the robot action and the environment are associated with each other is provided, the decision tree for which the environment created based on this map is a discrimination target, The environment can be determined based on the sensor output. Therefore, the environment can be recognized even if there are few sensors. Furthermore, since an action suitable for the recognized environment can be executed, the environment can be smoothly operated.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のヒューマノイドロボット(以下、単に「ロボット」ともいう。)10の外観を示し、図2はこのロボット10をモデル表記した図解図である。図2を参照して、この実施例のロボット10は、垂直方向または縦方向に間隔を隔てて設けられる2つの横杆12および14を含み、この上下横杆12および14の間には、胴体16が形成される。   FIG. 1 shows the appearance of a humanoid robot (hereinafter also simply referred to as “robot”) 10 according to one embodiment of the present invention, and FIG. 2 is an illustrative view showing the robot 10 as a model. Referring to FIG. 2, the robot 10 of this embodiment includes two recumbent arms 12 and 14 that are spaced apart in the vertical direction or the longitudinal direction, and between the upper and lower recumbent surfaces 12 and 14, 16 is formed.

胴体16の上部には、胸の自由度を形成する1つのヨー(Yaw)軸関節18が設けられ、その下方には腰の自由度を形成する1つのピッチ(Pitch)軸関節20が設けられる。なお、よく知られているように、ヨー軸とは鉛直回転軸(Z軸)であり、ピッチ軸とはこのヨー軸に直行する2つの軸の一方、たとえばX軸であり、そして、後述のロール(Roll)軸がヨー軸に直行する2つの軸の他方、たとえばY軸である。X軸(ピッチ軸)は図2の紙面に平行な方向に延びる回転軸であり、Y軸(ロール軸)は図2の紙面に直行する方向に延びる回転軸である。   One yaw shaft joint 18 that forms the degree of freedom of the chest is provided on the upper portion of the body 16, and one pitch shaft joint 20 that forms the degree of freedom of the waist is provided below the body 16. . As is well known, the yaw axis is a vertical rotation axis (Z axis), the pitch axis is one of two axes perpendicular to the yaw axis, for example, the X axis, and will be described later. The roll axis is the other of the two axes perpendicular to the yaw axis, for example, the Y axis. The X axis (pitch axis) is a rotation axis extending in a direction parallel to the paper surface of FIG. 2, and the Y axis (roll axis) is a rotation axis extending in a direction perpendicular to the paper surface of FIG.

上横杆12の両端には、腕22Rおよび22Lがそれぞれ取り付けられる。これら左右の腕22Rおよび22Lは同じ構成である。なお、右左を区別する必要があるときは、右を示す「R」または左を表す「L」を付し、また区別する必要がないときはこの「R」や「L」を付けないで示すようにして、重複する説明はできるだけ省く。このことは、後述の足についても同様である。   Arms 22 </ b> R and 22 </ b> L are attached to both ends of the upper horizontal arm 12, respectively. These left and right arms 22R and 22L have the same configuration. When it is necessary to distinguish between right and left, “R” indicating right or “L” representing left is added, and when it is not necessary to distinguish, “R” or “L” is not added. In this way, duplicate descriptions are omitted as much as possible. The same applies to the feet described later.

腕22は、肩の自由度を形成するロール軸関節24を含み、この肩関節24によって上横杆12に、ロール軸周りに回転可能に取り付けられる。この肩関節24の先には、それぞれ1つずつのピッチ軸関節26、ヨー軸関節28、およびロール軸関節30の直列接続が設けられる。したがって、この実施例のロボット10の場合、腕22は、4自由度であり、左右で8自由度である。   The arm 22 includes a roll shaft joint 24 that forms a degree of freedom of the shoulder, and is attached to the upper lateral reed 12 by the shoulder joint 24 so as to be rotatable around the roll shaft. In front of the shoulder joint 24, one pitch shaft joint 26, one yaw shaft joint 28, and one roll shaft joint 30 are connected in series. Therefore, in the robot 10 of this embodiment, the arm 22 has 4 degrees of freedom and 8 degrees of freedom on the left and right.

また、下横杆14の両端には、足32Rおよび32Lがそれぞれ取り付けられる。足32は、股関節の自由度を形成する1つのロール軸関節34によって下横杆14に取り付けられ、この股関節32から先の下端方向には、連続する3つのピッチ軸関節36、38および40、および1つのロール軸関節42、さらには1つのヨー軸関節44の直列接続が取り付けられる。したがって、この実施例のロボット10の場合、足32は、6自由度であり、左右で12自由度である。   In addition, legs 32R and 32L are attached to both ends of the lower lying heel 14, respectively. The foot 32 is attached to the lower recumbent joint 14 by one roll shaft joint 34 that forms a degree of freedom of the hip joint. In the lower end direction from the hip joint 32, three pitch shaft joints 36, 38 and 40, which are continuous, And a series connection of one roll shaft joint 42 and one yaw shaft joint 44 is attached. Therefore, in the case of the robot 10 of this embodiment, the foot 32 has 6 degrees of freedom and 12 degrees of freedom on the left and right.

図1の実施例のロボット10の電気的構成が図2のブロック図に示される。図2に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU46を含み、このCPU46には、バス48を通して、メモリ50,モータ制御ボード52,およびセンサ入力/出力ボード54が接続される。   The electrical configuration of the robot 10 of the embodiment of FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 2, the robot 10 includes a microcomputer or CPU 46 for overall control. The CPU 46 includes a memory 50, a motor control board 52, and a sensor input / output board 54 through a bus 48. Connected.

メモリ50は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムおよびデータが予め書き込まれていて、RAMは、一時記憶メモリとして用いられるとともにワーキングメモリとして利用され得る。なお、このメモリ50には、図4に示すような環境‐最適行動テーブルや、図5に示すようなセンサ出力時系列‐行動‐環境対応付けマップが予め記憶されているが、これらの説明は後述する。   Although not shown, the memory 50 includes a ROM and a RAM. In the ROM, the control program and data of the robot 10 are written in advance, and the RAM can be used as a temporary storage memory and a working memory. The memory 50 stores in advance an environment-optimal behavior table as shown in FIG. 4 and a sensor output time series-behavior-environment association map as shown in FIG. It will be described later.

センサ入力/出力ボード54には、図2の胴体16に設けられる1つの2軸加速度センサ56と、関節角度センサ58とが接続される。なお、関節角度センサ58は1つのブロックで示すが、実際には、上で説明した22個の関節にそれぞれ個別に設けられ、それぞれの関節角を検出する22個の関節角度センサを含む。2軸加速度センサ56は、ロボット10の前後方向および左右方向の2軸で加速度を検出することができる。この2軸加速度センサ56の出力を用いて、CPU46は、ロボット10の2足歩行や反動起き上がり等を制御する。また、CPU46は、この2軸加速度センサ56の出力時系列を計測して、メモリ50に記憶された対応付けマップを用いて環境を認識する。   The sensor input / output board 54 is connected with one biaxial acceleration sensor 56 provided on the body 16 of FIG. 2 and a joint angle sensor 58. The joint angle sensor 58 is shown as one block, but actually includes 22 joint angle sensors that are individually provided for the 22 joints described above and detect the respective joint angles. The biaxial acceleration sensor 56 can detect acceleration with two axes in the front-rear direction and the left-right direction of the robot 10. Using the output of the biaxial acceleration sensor 56, the CPU 46 controls the bipedal walking, reaction rise, and the like of the robot 10. Further, the CPU 46 measures the output time series of the biaxial acceleration sensor 56 and recognizes the environment using the association map stored in the memory 50.

モータ制御ボード52は、たとえばDSP(Digital Signal Processor) で構成され、各腕、各足、胸、腰の各関節軸モータ60を制御する。図3では図の簡略化のために、関節軸モータ60は1つのブロックで示すが、実際には、上で説明した22個の関節のそれぞれに1つのモータ(サーボモータ)が設けられ、それぞれの関節角度を制御する22個のモータを含む。   The motor control board 52 is composed of, for example, a DSP (Digital Signal Processor), and controls each joint shaft motor 60 for each arm, each leg, chest, and waist. In FIG. 3, the joint shaft motor 60 is shown as one block for the sake of simplification, but in reality, one motor (servo motor) is provided for each of the 22 joints described above. It includes 22 motors that control the joint angle.

図4には、メモリ50に予め記憶された、環境と最適行動とを対応付けたテーブルの一例が示される。この実施例のロボット10では、当該ロボット10が置かれることになるすなわちロボット10が認識すべき多数の環境E1,E2,…Ei(iは所定の整数)が予め把握されている。環境は、たとえばその床(または地面)の反力および形状等によって分類される。具体的には、床の硬さ(硬<>柔)、および床の滑り(摩擦:小<>大)などの要素の違いで分類され、この実施例ではi個の環境が想定される。この図4の例では、たとえば、環境E1は、硬さが硬くかつ摩擦が小さいものであり、環境E2は、硬さが硬くかつ摩擦が中程度のものであり、また、環境Eiは、硬さが柔らかくかつ摩擦が大きいものである。   FIG. 4 shows an example of a table stored in advance in the memory 50 in which the environment and the optimum behavior are associated with each other. In the robot 10 of this embodiment, the robot 10 is placed, that is, a large number of environments E1, E2,... Ei (i is a predetermined integer) that the robot 10 should recognize are known in advance. The environment is classified by, for example, the reaction force and shape of the floor (or the ground). Specifically, it is classified by the difference in factors such as floor hardness (hard <> soft) and floor slip (friction: small <> large). In this embodiment, i environments are assumed. In the example of FIG. 4, for example, the environment E1 is hard and has low friction, the environment E2 is hard and has moderate friction, and the environment Ei is hard. Is soft and has high friction.

また、このロボット10では、たとえば「歩く」、「寝ころぶ」、「反動起き上がり」等の複数(j個:jは所定の整数)の基本行動の全てについて、各環境で最適になるように予め調整された環境ごとの行動制御データが準備されている。そして、この環境‐最適行動テーブルでは、各環境に対応付けられて当該環境に最適な行動(識別子)が記憶されている。したがって、このテーブルを用いて各行動はどの環境に最適な行動であるのかを把握することが可能である。この図4の例では、たとえば、環境E1に最適な行動は、「歩く」行動に関しては行動A11であり、「寝ころぶ」行動に関しては行動A12であり、また、「反動起き上がり」行動に関しては行動A1jであることが分かる。   Further, in this robot 10, for example, all of a plurality of basic actions (j: j is a predetermined integer) such as “walking”, “falling down”, “rebound rising”, etc. are adjusted in advance so as to be optimal in each environment. Action control data for each environment is prepared. In this environment-optimal action table, an action (identifier) that is optimal for the environment is stored in association with each environment. Therefore, using this table, it is possible to grasp which environment is the most suitable action for each action. In the example of FIG. 4, for example, the optimal action for the environment E1 is the action A11 for the “walking” action, the action A12 for the “falling down” action, and the action A1j for the “wake-up reaction” action. It turns out that it is.

図5には、メモリ50に予め記憶された、センサ出力時系列‐行動‐環境対応付けマップの一例が示される。対応付けマップは、2軸加速度センサ56の出力の時系列データと、ロボット10の実行した行動と、ロボット10の置かれた環境とを対応付けたものである。   FIG. 5 shows an example of a sensor output time series-behavior-environment association map stored in advance in the memory 50. The association map associates the time-series data of the output of the biaxial acceleration sensor 56, the action performed by the robot 10, and the environment where the robot 10 is placed.

ここで、この対応付けマップの作成方法について説明する。本発明者等は、外界の情報を検知するセンサの出力は、ロボットの行動と環境の特徴とに密接な関係があると考え、ロボットに環境を認識させ、また環境に適した行動を選択させるために、「ロボットの行動」と「センサ出力の時系列」と「環境」とを対応付けたマップを作成することとした。   Here, a method for creating this association map will be described. The present inventors consider that the output of a sensor that detects information of the outside world is closely related to the behavior of the robot and the characteristics of the environment, and allows the robot to recognize the environment and to select a behavior suitable for the environment. Therefore, a map in which “robot behavior”, “time series of sensor outputs”, and “environment” are associated with each other is created.

対応付けマップを作成する際には、まず、ユーザが、ロボット10の全て(j個)の基本行動について、認識すべき多数(i個)の環境E1−Eiのそれぞれに最適なものになるようにチューニングをそれぞれ行って、各環境での最適行動A11−Aijとして各制御データを作成し、メモリ50に格納しておく。たとえば、「歩く」行動については、滑り易い環境と滑り難い環境とでは足の下ろし方を変えたりするなど各環境で動作するのに適するようなチューニングが行われる。こうして、このロボット10では、認識すべき多数の環境において各環境に適した行動を実行するように全ての行動がそれぞれ調整されている。   When creating a correspondence map, first, the user is optimal for each of a large number (i) of environments E1-Ei to be recognized for all (j) basic actions of the robot 10. Each control data is created as optimum behavior A11-Aij in each environment, and stored in the memory 50. For example, the “walking” behavior is tuned so as to be suitable for operation in each environment, such as changing the way the foot is lowered in a slippery environment and a slippery environment. Thus, in this robot 10, all the actions are adjusted so as to execute actions suitable for each environment in a large number of environments to be recognized.

なお、図3では図示を省略してあるが、このロボット10には外部インタフェース(たとえばRS232C)が設けられ、図示しない外部のコンピュータとの間でデータを通信することが可能にされており、したがって、外部のコンピュータ上で作成した最適行動の制御データ等をロボット10のメモリ50に書き込むことができる。   Although not shown in FIG. 3, the robot 10 is provided with an external interface (for example, RS232C) so that data can be communicated with an external computer (not shown). The control data of the optimum behavior created on the external computer can be written in the memory 50 of the robot 10.

そして、このチューニングされたロボット10を用いて、認識すべき多数の環境E1−Eiにおいて、全ての行動A11−Aijを実行することによって、各行動を実行しているときの2軸加速度センサ56の出力の時系列データを計測してメモリ50に蓄積する。具体的には、この実施例では、(j×i)個の行動をi個の環境で実行するので、(j×i×i)個のセンサ出力時系列データが得られる。メモリ50に蓄積したセンサ出力データは、たとえば、上述の外部インタフェースを介して外部コンピュータに転送する。   Then, by using this tuned robot 10, by executing all the actions A11-Aij in a large number of environments E1-Ei to be recognized, the two-axis acceleration sensor 56 when executing each action Output time-series data is measured and stored in the memory 50. Specifically, in this embodiment, since (j × i) actions are executed in i environments, (j × i × i) sensor output time-series data can be obtained. The sensor output data stored in the memory 50 is transferred to an external computer via the above external interface, for example.

そして、たとえば外部コンピュータ上で、ロボット10の置かれた環境と、当該環境でロボット10の実行した行動と、当該行動を実行しているときのセンサ出力の時系列データとを対応付けることによって、図5に示すようなマップを作成する。作成されたマップデータは、外部コンピュータからロボット10に転送されてメモリ50に格納される。   For example, on an external computer, the environment in which the robot 10 is placed, the action performed by the robot 10 in the environment, and the time-series data of the sensor output when the action is executed are associated with each other. A map as shown in FIG. The created map data is transferred from the external computer to the robot 10 and stored in the memory 50.

なお、上述では、外部コンピュータ上でマップを作成する場合を説明したが、環境と行動とセンサ出力の対応付けは、ロボット10上でそのまま行うようにしてもよい。   In the above description, the map is created on the external computer. However, the environment, the action, and the sensor output may be associated on the robot 10 as they are.

図5の例では、たとえば、センサ出力(時系列データ)D1と、行動A11と、環境E1,E2およびE5とが対応付けられていることが分かる。これは、行動A11を環境E1,E2およびE5で実行すると、同じセンサ出力D1が得られることを意味している。なお、行動A11は環境E1に最適になるようにチューニングされたものであるので、環境E1で行動A11を実行したときに得られたセンサ出力D1は、最適なセンサ出力と表現できる。   In the example of FIG. 5, for example, it can be seen that the sensor output (time-series data) D1, the action A11, and the environments E1, E2, and E5 are associated with each other. This means that when the action A11 is executed in the environments E1, E2, and E5, the same sensor output D1 is obtained. Since the action A11 is tuned to be optimal for the environment E1, the sensor output D1 obtained when the action A11 is executed in the environment E1 can be expressed as an optimum sensor output.

この実施例のロボット10は、当該ロボット10がどのような環境に置かれているのかを、最初に、あるいは環境の変化を検出したときなどに判定して、環境を認識する。環境を認識する際には、上述のようなセンサ出力時系列‐行動‐環境対応付けマップに基づいて、環境を認識するための決定木(decision tree)が作成される。つまり、ロボット10のメモリ50には、たとえばID3やC4.5等のような決定木自動生成アルゴリズムによる決定木作成プログラムが備えられていて、CPU46はその決定木作成プログラムを実行して、対応付けマップに基づいて環境を判別対象として決定木を作成する。この実施例では、ロボット10の内部で決定木を自動作成することができるので、環境認識のために最初に実行する行動をランダムに選択することができる。   The robot 10 of this embodiment recognizes the environment by determining in what environment the robot 10 is placed at the beginning or when a change in the environment is detected. When recognizing the environment, a decision tree for recognizing the environment is created based on the sensor output time series-behavior-environment association map as described above. That is, the memory 50 of the robot 10 is provided with a decision tree creation program based on a decision tree automatic generation algorithm such as ID3 or C4.5, for example, and the CPU 46 executes the decision tree creation program to associate Based on the map, a decision tree is created with the environment as a discrimination target. In this embodiment, since a decision tree can be automatically created inside the robot 10, an action to be executed first for environment recognition can be selected at random.

なお、決定木は、入力パターンのクラスを決定するための多段決定過程(multistage decision process)の一手法である。決定木では、各決定手順の適用順序が予め完全に定まっており、決定手順(分類器)の結果によって、次の段でどの分類器に行くかが定まる(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用―」、コロナ社、1993)。   The decision tree is a technique for determining the input pattern class. In the decision tree, the order of application of each decision procedure is completely determined in advance, and the decision step (classifier) determines which classifier to go to in the next stage (Reference: Junichiro Toriwaki, Television Society) Textbook series 9 “Cognitive engineering: pattern recognition and its application”, Corona, 1993).

この実施例の決定木では、ロボット10の実行した行動とそのときのセンサ出力とによってロボットの存在する環境を判定していく決定手順の適用順序が定められている。したがって、決定木において環境が決定されるまで、決定木に従って行動の実行とそのときのセンサ出力による判定とを繰り返していくことで、環境を認識することができる。   In the decision tree of this embodiment, the application order of the decision procedure for determining the environment in which the robot exists is determined by the action performed by the robot 10 and the sensor output at that time. Therefore, until the environment is determined in the decision tree, the environment can be recognized by repeating the execution of the action and the determination based on the sensor output at that time according to the decision tree.

詳しくは、このロボット10は、決定木に基づいて、その未認識の環境で行動するとともに、その行動中のセンサ出力の時系列を計測する。そして、センサ出力の計測結果に基づいて、環境の判定を試みる。環境が認識できなかった場合には、決定木に基づいて次の行動を選択し、再び行動、計測および判定を繰り返す。このようにして、このロボット10は、決定木に基づいて、行動をしてじたばたするうちに、どの環境にいるのかを認識することができる。   Specifically, the robot 10 acts in the unrecognized environment based on the decision tree, and measures a time series of sensor outputs during the behavior. Then, based on the measurement result of the sensor output, an attempt is made to determine the environment. If the environment cannot be recognized, the next action is selected based on the decision tree, and the action, measurement, and determination are repeated again. In this way, the robot 10 can recognize which environment it is in while performing an action based on the decision tree.

図6には、作成される決定木の一例の一部の概略が示される。この図6の例では、最初の段に行動A11が設定されている。なお、この実施例では決定木の最初の段の行動はランダムで決定される。この図6の決定木による環境判定の流れの一例を説明すると、まず、行動A11の実行の結果、センサ出力D1が計測された場合には、次の段では、行動A55が選択されて実行される。そして、この行動A55の実行の結果、センサ出力D5が計測されなかった場合には、環境が決定され、つまり、このロボット10の置かれている環境は環境E2であることが認識される。   FIG. 6 shows an outline of a part of an example of a decision tree to be created. In the example of FIG. 6, action A11 is set in the first stage. In this embodiment, the behavior of the first stage of the decision tree is determined at random. An example of the flow of environment determination by the decision tree of FIG. 6 will be described. First, when the sensor output D1 is measured as a result of the execution of the action A11, the action A55 is selected and executed in the next stage. The If the sensor output D5 is not measured as a result of the execution of the action A55, the environment is determined, that is, it is recognized that the environment where the robot 10 is placed is the environment E2.

そして、ロボット10は、環境を認識すると、その認識した環境に適した行動を、たとえば環境‐最適行動テーブルに基づいて、実行することができる。したがって、ロボット10は、認識した環境に合わせて、望みどおりに動作することができる。具体的には、床の硬さや滑り具合に合わせて、たとえば2足歩行することができるので、滑って転倒したりバランスを崩したりすることなく円滑に行動することができる。   When the robot 10 recognizes the environment, the robot 10 can execute an action suitable for the recognized environment, for example, based on the environment-optimal action table. Therefore, the robot 10 can operate as desired in accordance with the recognized environment. Specifically, since it is possible to walk, for example, two legs according to the hardness of the floor and the degree of sliding, it is possible to act smoothly without slipping and falling or breaking the balance.

さらに、このロボット10では、環境に適した行動を実行しているときの、2軸加速度センサ56の出力の時系列データを計測して、環境の変化を判別するようにしている。つまり、認識している環境に適した行動を実行したときのセンサ出力の時系列データは、マップで対応付けられている最適なセンサ出力となるはずである。そこで、センサ出力の時系列データが、認識している環境と実行した行動とに対応するものであるか否かを、対応付けマップに基づいて判断することによって、環境の変化を把握する。そして、センサ出力の時系列データがその環境と行動とに対応するものではなかった場合には、環境が変化してしまったことがわかるので、再び上述のような環境を認識するための処理を実行する。したがって、この実施例では、一旦環境を認識した後でも環境の変化を把握できるので、変化後の環境を認識でき、さらに変化後の環境に適した行動を実行できる。   Further, the robot 10 measures the time series data of the output of the biaxial acceleration sensor 56 when executing an action suitable for the environment, and discriminates a change in the environment. That is, the time series data of the sensor output when the action suitable for the recognized environment is executed should be the optimum sensor output associated with the map. Therefore, the change in the environment is grasped by determining whether the time series data of the sensor output corresponds to the recognized environment and the executed action based on the association map. If the time series data of the sensor output does not correspond to the environment and action, it can be seen that the environment has changed, so the process for recognizing the environment as described above is performed again. Execute. Therefore, in this embodiment, since the change of the environment can be grasped even after the environment is recognized once, the environment after the change can be recognized, and further, the action suitable for the environment after the change can be executed.

具体的には、ロボット10のCPU46は、図7に示すようなフロー図に従って処理を実行する。図7の最初のステップS1では、メモリ50に予め登録されている行動の中からランダムに1つの行動を選択する。次に、ステップS3で、決定木作成プログラムを実行して、選択した行動を初めの段とする決定木を、センサ出力時系列‐行動‐環境対応付けマップに基づいて生成する。   Specifically, the CPU 46 of the robot 10 executes processing according to a flowchart as shown in FIG. In the first step S <b> 1 in FIG. 7, one action is randomly selected from actions registered in advance in the memory 50. Next, in step S3, the decision tree creation program is executed to generate a decision tree having the selected action as the first stage based on the sensor output time series-behavior-environment association map.

続いて、ステップS5で、選択した行動の制御データをメモリ50から読み出して、その行動の実行を開始する。ステップS7では、行動中の2軸加速度センサ56からの出力をセンサ入力/出力ボード54を介して一定周期で計測して、行動中のセンサ出力時系列データをメモリ50に記憶する。   Subsequently, in step S5, the control data of the selected action is read from the memory 50, and the execution of the action is started. In step S <b> 7, the output from the biaxial acceleration sensor 56 during action is measured at a constant cycle via the sensor input / output board 54, and the sensor output time series data during action is stored in the memory 50.

そして、ステップS9では、決定木に基づく判定を行う。つまり、計測されたセンサ出力時系列データに基づいて、決定木の次の段でどの決定手順に進むかを判定する。たとえば図6の最初の行動A11を実行した場合で説明すると、計測されたセンサ出力データが、センサ出力D1であるか、またはその他の出力であるかを判断し、次にどちらの行動へ進むかを決定する。   In step S9, determination based on the decision tree is performed. That is, based on the measured sensor output time-series data, it is determined which decision procedure is to be advanced at the next stage of the decision tree. For example, in the case where the first action A11 in FIG. 6 is executed, it is determined whether the measured sensor output data is the sensor output D1 or another output, and which action is followed next. To decide.

続いて、ステップS11で、環境を認識できたか否かを判断する。つまり、ステップS9の判定によって、決定木においてセンサ出力に基づいて進めた次の段が環境を決定するものであったか否かを判断する。   Subsequently, in step S11, it is determined whether or not the environment has been recognized. That is, the determination in step S9 determines whether the next stage advanced based on the sensor output in the decision tree is to determine the environment.

ステップS11で“NO”であれば、つまり、環境を未だ認識するに至っていない場合には、続くステップS13で、決定木に基づいて次の行動を選択する。つまり、決定木において進めた次の段の決定手順として設定されている行動を選択する。そして、ステップS5へ戻って、再び、選択した行動の実行(ステップS5)および行動中のセンサ出力計測(ステップS7)を処理し、センサ出力結果に基づいて決定木による判定(ステップS9)を行って、環境を認識できたか判断する(ステップS11)。このように、ステップS5からステップS13の処理を繰り返して、決定木に基づいて環境の認識を行う。   If “NO” in the step S11, that is, if the environment has not yet been recognized, in the subsequent step S13, the next action is selected based on the decision tree. That is, the action set as the decision procedure for the next stage advanced in the decision tree is selected. Then, returning to step S5, the execution of the selected action (step S5) and the sensor output measurement during the action (step S7) are processed again, and the determination by the decision tree (step S9) is performed based on the sensor output result. Then, it is determined whether the environment has been recognized (step S11). In this way, the processing from step S5 to step S13 is repeated to recognize the environment based on the decision tree.

そして、ステップS11で“YES”であれば、つまり、決定木において環境の決定に至った場合には、続くステップS15で、認識した環境がいずれであるかをメモリ50に記録する。ステップS17では、ロボット10の内部プログラムあるいは外部プログラムまたはユーザから下される行動指令に従い、その環境に適した行動をたとえば環境‐最適行動テーブルに基づいて選択する。たとえば、認識した環境が環境E1であった場合には、当該環境E1に最適な行動A11−行動A1jの中から実行すべき行動を選択する。   If “YES” in the step S11, that is, if the environment is determined in the decision tree, in the subsequent step S15, the recognized environment is recorded in the memory 50. In step S17, an action suitable for the environment is selected based on, for example, the environment-optimal action table in accordance with an internal program or an external program of the robot 10 or an action command given by the user. For example, when the recognized environment is the environment E1, the action to be executed is selected from the action A11-action A1j that is optimal for the environment E1.

続いて、ステップS19で、選択した行動の実行を開始するとともに、ステップS21で、行動中の2軸加速度センサ56の出力時系列データを計測する。   Subsequently, in step S19, execution of the selected action is started, and in step S21, output time-series data of the biaxial acceleration sensor 56 during action is measured.

そして、ステップS23では、計測したセンサ出力データが、認識した環境と実行した行動に最適なものであったか否かを対応付けマップに基づいて判断する。つまり、このステップS23では、環境が変化したかどうかを判定している。詳しくは、ステップS19では、認識された環境において、当該環境に最適になるように調整された行動が実行されるので、ステップS21では、マップにおいて当該環境と当該行動とに対応付けられた最適なセンサ出力が計測されるはずである。したがって、認識した環境において最適な行動を実行したときに計測されたセンサ出力が、対応付けマップに設定されたセンサ出力ではなかった場合には、認識していた環境が変化してしまったことが分かる。   In step S23, it is determined based on the association map whether the measured sensor output data is optimal for the recognized environment and the executed action. That is, in this step S23, it is determined whether or not the environment has changed. Specifically, in step S19, an action adjusted to be optimal for the environment is executed in the recognized environment. Therefore, in step S21, an optimum associated with the environment and the action in the map is executed. The sensor output should be measured. Therefore, if the sensor output measured when the optimal action is executed in the recognized environment is not the sensor output set in the association map, the recognized environment may have changed. I understand.

そこで、ステップS23で“NO”であれば、つまり、環境が変化してしまった場合には、その環境の認識を試みるべく、再びステップS1に戻って処理を繰り返す。これによって、変化した環境を認識することができるので、以後もその変化した環境に最適な行動を実行していくことができる。   Therefore, if “NO” in the step S23, that is, if the environment has changed, the process returns to the step S1 again to repeat the process in order to try to recognize the environment. As a result, the changed environment can be recognized, and the optimum action for the changed environment can be executed thereafter.

一方、ステップS23で“YES”であれば、つまり、環境が変化していない場合には、ステップS25で、ロボット10の内部プログラムあるいは外部プログラムまたはユーザから下される次の行動指令に従い、その環境において実行すべき次の行動の選択を処理する。そして、ステップS27で、行動を終了するか否かを判断し、“NO”であれば、つまり、実行すべき行動がある場合には、ステップS19に戻って、次の行動を実行する。他方、ステップ27で“YES”であればこの処理を終了する。   On the other hand, if “YES” in the step S23, that is, if the environment has not changed, in the step S25, the environment is determined in accordance with the internal program or the external program of the robot 10 or the next action command issued from the user. Process the selection of the next action to be performed. In step S27, it is determined whether or not to end the action. If “NO”, that is, if there is an action to be executed, the process returns to step S19 to execute the next action. On the other hand, if “YES” in the step 27, the process is ended.

この実施例によれば、行動中のセンサ出力を長い時系列で見ることによって、2軸加速度センサ56の1種類1個という非常に少量のセンサであっても、通常の使い方では分からなかった情報を抽出でき、つまり、環境を認識することができる。したがって、このロボット10では、認識した環境に適した行動を実行していくことができる。また、センサが非常に少量でも認識できるので、たとえば省配線および省電力を実現することができる。また、その他のセンサと組み合わせることによって、さらに多くの環境情報を抽出することができ、より複雑な行動選択を行うことも可能となる。   According to this embodiment, by looking at the sensor output during action in a long time series, even a very small amount of sensors of one type of the biaxial acceleration sensor 56 could not be known in normal usage. Can be extracted, that is, the environment can be recognized. Therefore, the robot 10 can execute an action suitable for the recognized environment. Further, since the sensor can be recognized even with a very small amount, for example, wiring saving and power saving can be realized. Further, by combining with other sensors, more environmental information can be extracted, and more complex action selection can be performed.

なお、上述の実施例では、図7のステップS23で環境の変化を検出して、再び環境の認識処理を行なうとき、ステップS1に戻ってランダムに行動を選択することとなるが、他の実施例では、環境の変化を認識したときに実行していた行動を選択することによって、行動を継続しつつ環境の認識処理を行うようにしてもよい。   In the above-described embodiment, when an environmental change is detected in step S23 of FIG. 7 and the environment recognition process is performed again, the process returns to step S1 to randomly select an action. In the example, the environment recognition process may be performed while continuing the action by selecting the action that was executed when the change in the environment was recognized.

また、上述の各実施例では、メモリ50に対応付けマップを記憶しておき、環境の認識のための最初の行動を任意に選択し、環境の認識処理を実行するたびに決定木を作成するようにしていたが、他の実施例では、外部コンピュータなどで対応付けマップから予め作成しておいた決定木を、メモリ50に記憶しておくようにしてもよい。この場合には、決定木が固定されるので、環境の認識手法が固定される。つまり、ロボット10は、環境を認識する際には、最初にいつも同じ行動を実行することとなる。   In each of the above-described embodiments, a correspondence map is stored in the memory 50, a first action for environment recognition is arbitrarily selected, and a decision tree is created each time an environment recognition process is executed. However, in another embodiment, a decision tree created in advance from an association map by an external computer or the like may be stored in the memory 50. In this case, since the decision tree is fixed, the environment recognition method is fixed. That is, the robot 10 always performs the same action first when recognizing the environment.

また、上述の各実施例では、ロボット10には2軸加速度センサ56を設けるようにしていた。そして、床(あるいは地面)の硬さや床の滑り等の要素の違いによって分類される環境において、歩く、寝ころぶ、反動起き上がりなどの床に接触する行動を実行し、行動中のセンサ出力時系列を計測することで、対応付けマップを作成していた。しかし、ロボット10に設けるセンサの種類は適宜変更されてよい。ただし、認識ないし判別する環境の特徴と行動とが、センサ出力に反映されるものである必要がある。   In each of the above-described embodiments, the robot 10 is provided with the biaxial acceleration sensor 56. Then, in an environment that is classified according to differences in factors such as the hardness of the floor (or the ground) and the slipping of the floor, actions that touch the floor such as walking, lying down, and recoiling are executed, and the sensor output time series during the action is calculated. By making a measurement, a correspondence map was created. However, the type of sensor provided in the robot 10 may be changed as appropriate. However, the environmental features and behaviors to be recognized or discriminated need to be reflected in the sensor output.

また、上述の各実施例の自由度やそれらの具体的構成は単なる例示であり、必ずしも22自由度なければならないというものではなく、関節軸モータは任意に変更可能である。なお、上述の実施例の2足歩行型のような自由度の多いロボットであれば、床の硬さや滑り(摩擦)の違いなど、判別可能な環境が多くなり、一方、たとえば車輪移動型のロボットの場合には、平滑か凹凸かといった程度で把握できるだけであり、判別可能な環境が少なくなる。   In addition, the degrees of freedom and specific configurations of the above-described embodiments are merely examples, and do not necessarily have 22 degrees of freedom, and the joint shaft motor can be arbitrarily changed. If the robot has a high degree of freedom, such as the biped walking type of the above-described embodiment, the environment that can be discriminated increases such as the difference in floor hardness and sliding (friction). In the case of a robot, it is only possible to grasp whether it is smooth or uneven, and the environment that can be discriminated is reduced.

この発明の一実施例のロボットを示す外観図である。1 is an external view showing a robot according to an embodiment of the present invention. 図1実施例のロボットを示す図解図である。It is an illustration figure which shows the robot of FIG. 1 Example. 図1実施例のロボットの電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of the robot of FIG. 1 Example. 図3のメモリに記憶される環境ごとの最適行動に関するテーブルの一例を示す図解図である。It is an illustration figure which shows an example of the table regarding the optimal action for every environment memorize | stored in the memory of FIG. 図3のメモリに記憶されるセンサ出力時系列と行動と環境とを対応付けたマップの一例を概略を示す図解図である。It is an illustration figure which shows an outline of an example of the map which matched the sensor output time series memorize | stored in the memory of FIG. 3, an action, and an environment. マップから生成される決定木の一例の概略を示す図解図である。It is an illustration figure which shows the outline of an example of the decision tree produced | generated from a map. 図1実施例のロボットの動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the robot of FIG. 1 Example.

符号の説明Explanation of symbols

10 …ロボット(ヒューマノイド)
22R、22L …腕
32R、32L …足
46 …CPU
50 …メモリ
52 …モータ制御ボード
54 …センサ入力/出力ボード
56 …2軸加速度センサ
60 …関節軸モータ
10 ... Robot (Humanoid)
22R, 22L ... arms 32R, 32L ... feet 46 ... CPU
DESCRIPTION OF SYMBOLS 50 ... Memory 52 ... Motor control board 54 ... Sensor input / output board 56 ... Biaxial acceleration sensor 60 ... Joint axis motor

Claims (6)

環境を認識するヒューマノイドロボットであって、
センサ、
前記ヒューマノイドロボットの置かれる環境と、前記ヒューマノイドロボットの行動と、前記センサの出力の時系列データとを対応付けたマップを記憶するマップ記憶手段、および
環境認識のための行動を実行する第1実行手段と、前記第1実行手段によって前記行動を実行しているときの前記センサの出力の時系列データを計測する第1計測手段とを含み、前記第1計測手段によって計測されたセンサの出力の時系列データと、前記マップに基づいて作成された環境を判別対象とした決定木とに基づいて、環境を認識する認識手段を備える、ヒューマノイドロボット。
A humanoid robot that recognizes the environment,
Sensor,
Map storage means for storing a map in which the environment in which the humanoid robot is placed, the action of the humanoid robot, and the time series data of the output of the sensor are associated, and the first execution for executing the action for environment recognition Means and first measurement means for measuring time series data of the sensor output when the action is being executed by the first execution means, and the output of the sensor measured by the first measurement means. A humanoid robot comprising recognition means for recognizing an environment based on time-series data and a decision tree for which the environment created based on the map is a discrimination target.
前記認識手段は、前記マップに基づいて環境を判別対象とした決定木を作成する決定木作成手段をさらに含む、請求項1記載のヒューマノイドロボット。   The humanoid robot according to claim 1, wherein the recognizing unit further includes a decision tree creating unit that creates a decision tree whose environment is a discrimination target based on the map. 前記センサは加速度センサを含み、
前記行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、
認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである、請求項1または2記載のヒューマノイドロボット。
The sensor includes an acceleration sensor;
The action includes at least one of walking, falling asleep, and getting up;
The humanoid robot according to claim 1 or 2, wherein the environment to be recognized is classified by at least floor hardness or floor slip.
前記認識手段によって認識された環境に適した行動を実行する第2実行手段をさらに備える、請求項1ないし3のいずれかに記載のヒューマノイドロボット。   The humanoid robot according to claim 1, further comprising second execution means for executing an action suitable for an environment recognized by the recognition means. 前記第2実行手段によって前記行動を実行しているときの前記センサの出力の時系列データを計測する第2計測手段、および
前記第2計測手段によって計測されたセンサの出力の時系列データが、前記認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かを前記マップに基づいて判断する環境変化判別手段をさらに備え、
前記環境変化判別手段によって前記センサの出力の時系列データが前記環境と前記行動とに対応するものではないと判断されたとき、前記認識手段によって環境を認識する、請求項4記載のヒューマノイドロボット。
Second measurement means for measuring time-series data of the output of the sensor when the action is being executed by the second execution means, and time-series data of the output of the sensor measured by the second measurement means, An environment change determination unit that determines whether the environment corresponds to the environment recognized by the recognition unit and the action executed by the second execution unit based on the map;
The humanoid robot according to claim 4, wherein when the environment change determination unit determines that the time series data of the output of the sensor does not correspond to the environment and the action, the recognition unit recognizes the environment.
センサを備えて環境を認識するヒューマノイドロボットのための、前記ヒューマノイドロボットの置かれる環境と、前記ヒューマノイドロボットの行動と、前記センサの出力の時系列データとを対応付けたマップを作成するマップ作成方法であって、
(a) 前記ヒューマノイドロボットが認識すべき複数の環境において各環境に適した行動を実行するように複数の行動がそれぞれ調整されている前記ヒューマノイドロボットを準備し、
(b) 前記ヒューマノイドロボットを用いて、前記認識すべき複数の環境で前記複数の行動をそれぞれ実行することによって、各行動を実行しているときの前記センサの出力の時系列データを計測し、
(c) 環境と、当該環境で実行した行動と、当該行動を実行しているときに計測された前記センサの出力の時系列データとを対応付ける、マップ作成方法。
A map creation method for creating a map that associates an environment in which the humanoid robot is placed, an action of the humanoid robot, and time-series data of the output of the sensor for a humanoid robot that includes a sensor and recognizes the environment Because
(a) preparing the humanoid robot in which a plurality of behaviors are adjusted so as to execute a behavior suitable for each environment in a plurality of environments to be recognized by the humanoid robot;
(b) Using the humanoid robot, by measuring each of the plurality of actions in the plurality of environments to be recognized, to measure time series data of the output of the sensor when executing each action,
(c) A map creation method that associates an environment, an action executed in the environment, and time-series data of the sensor output measured when the action is executed.
JP2004105530A 2004-03-31 2004-03-31 Humanoid robot Expired - Lifetime JP4453076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004105530A JP4453076B2 (en) 2004-03-31 2004-03-31 Humanoid robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004105530A JP4453076B2 (en) 2004-03-31 2004-03-31 Humanoid robot

Publications (2)

Publication Number Publication Date
JP2005288600A JP2005288600A (en) 2005-10-20
JP4453076B2 true JP4453076B2 (en) 2010-04-21

Family

ID=35322130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004105530A Expired - Lifetime JP4453076B2 (en) 2004-03-31 2004-03-31 Humanoid robot

Country Status (1)

Country Link
JP (1) JP4453076B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4933636B2 (en) * 2010-03-15 2012-05-16 富士ソフト株式会社 Learning walking robot apparatus and control program thereof
JP5286429B2 (en) * 2012-02-16 2013-09-11 富士ソフト株式会社 Learning walking robot apparatus and control program thereof

Also Published As

Publication number Publication date
JP2005288600A (en) 2005-10-20

Similar Documents

Publication Publication Date Title
US6865446B2 (en) Robot device and method of controlling robot device operation
EP2151374B1 (en) Motion controlling apparatus and motion controlling method for legged mobile robot, and robot apparatus
JP2019093461A (en) Holding system, learning device, holding method and model manufacturing method
Fujita et al. A small humanoid robot sdr-4x for entertainment applications
Miura et al. Robot motion remix based on motion capture data towards human-like locomotion of humanoid robots
US20010047226A1 (en) Articulated robot and method of controlling the motion of the same
JP2010134907A (en) Reinforcement learning system
CN103895020B (en) Method and system for control machine people&#39;s gait
KR20140065405A (en) Robot with joints of variable rigidity and method for calculating said optimized rigidity
WO2021033471A1 (en) Control device, control method, and control program
Borras et al. A whole-body pose taxonomy for loco-manipulation tasks
JP4453076B2 (en) Humanoid robot
JP4997419B2 (en) Robot motion conversion system
EP1386699A2 (en) Robot device and method of controlling robot device operation
JP2008093762A (en) Walking robot
JP6161892B2 (en) Robot and control method thereof
JP3555945B2 (en) Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program
JP2010510895A (en) Robot posture detection apparatus and method
WO2022264477A1 (en) Mobile device and mobile device control method
JP2006247800A (en) Control device for leg type movement robot
JP4614692B2 (en) Motion evaluation method for robot apparatus
JP6560823B2 (en) Robot, control method therefor, and control program
Kanehiro et al. Developmental realization of whole-body humanoid behaviors based on statenet architecture containing error recovery functions
KR20110078544A (en) Motion implementing method of vision system grafted legged mobile robot
Kim et al. Falling avoidance of biped robot using state classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4453076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250