JP4453076B2 - Humanoid robot - Google Patents
Humanoid robot Download PDFInfo
- Publication number
- JP4453076B2 JP4453076B2 JP2004105530A JP2004105530A JP4453076B2 JP 4453076 B2 JP4453076 B2 JP 4453076B2 JP 2004105530 A JP2004105530 A JP 2004105530A JP 2004105530 A JP2004105530 A JP 2004105530A JP 4453076 B2 JP4453076 B2 JP 4453076B2
- Authority
- JP
- Japan
- Prior art keywords
- environment
- action
- sensor
- humanoid robot
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003066 decision tree Methods 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 24
- 230000006399 behavior Effects 0.000 claims description 20
- 230000001133 acceleration Effects 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 description 22
- 230000001419 dependent effect Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 210000001503 joint Anatomy 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 235000014676 Phragmites communis Nutrition 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Description
この発明はヒューマノイドロボットおよびマップ作成方法に関し、特にたとえば、環境を認識し、その環境に適した行動をするヒューマノイドロボット、およびそのようなヒューマノイドロボットのための、環境と行動とセンサ出力とを対応付けたマップを作成するマップ作成方法に関する。 The present invention relates to a humanoid robot and a map creation method, and particularly relates to, for example, a humanoid robot that recognizes an environment and performs an action suitable for the environment, and associates an environment, an action, and a sensor output for such a humanoid robot. The present invention relates to a map creation method for creating a map.
たとえば非特許文献1に紹介されるASIMO(商品名)のような2足歩行型のヒューマノイドロボットは、環境を認識しきれないと転倒して潰れてしまうおそれがある。そのため、たとえば適当に行動を起こして、その後に環境を認識するようなことはできないので、行動の前にロボットの置かれている環境を認識してやる必要があった。従来のヒューマノイドロボットでは、環境のほかにも人間や障害物などを認識するために多くのセンサが設けられるので、あらゆるセンサの出力を活用して、環境を認識してから行動している。
従来技術では、環境の認識のために多くのセンサを必要とするので、コスト、配線および消費電力などの面で問題があった。 In the prior art, many sensors are required for environment recognition, and thus there are problems in terms of cost, wiring, and power consumption.
それゆえに、この発明の主たる目的は、センサの数や種類が少なくても、環境を認識することができる、ヒューマノイドロボット、およびそのようなヒューマノイドロボットのための環境と行動とセンサ出力とを対応付けたマップを作成するマップ作成方法を提供することである。 Therefore, a main object of the present invention is to associate a humanoid robot capable of recognizing the environment even if the number and types of sensors are small, and to associate the environment, behavior, and sensor output for such a humanoid robot. It is to provide a map creation method for creating a map.
請求項1の発明は、環境を認識するヒューマノイドロボットであって、センサ、ヒューマノイドロボットの置かれる環境と、ヒューマノイドロボットの行動と、センサの出力の時系列データとを対応付けたマップを記憶するマップ記憶手段、および環境認識のための行動を実行する第1実行手段と、第1実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する第1計測手段とを含み、第1計測手段によって計測されたセンサの出力の時系列データと、マップに基づいて作成された環境を判別対象とした決定木とに基づいて、環境を認識する認識手段を備える、ヒューマノイドロボットである。
The invention of
請求項1の発明では、ヒューマノイドロボット(以下、単にロボットともいう。)は環境を認識するものであり、センサを含む。マップ記憶手段は、ロボットの置かれる環境と、ロボットの行動と、センサの出力の時系列データとを対応付けたマップを記憶していて、ロボットは、このマップを用いて、実際にロボットの存在している環境がいずれであるかを認識する。環境は認識手段によって認識される。つまり、認識手段の第1実行手段は環境認識のための行動を実行し、第1計測手段は、第1実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する。そして、この認識手段は、第1計測手段によって計測されたセンサの出力の時系列データと、マップに基づいて作成された環境を判別対象とした決定木に基づいて、環境を認識する。決定木は、ロボットの実行した行動とそのときのセンサ出力とによってロボットの存在する環境を判定していく決定手順の適用順序を定めたものである。したがって、認識手段は、決定木において環境が決定されるまで、決定木に従って行動の実行とそのときのセンサ出力による判定とを繰り返していくことで、環境を認識することができる。したがって、請求項1の発明によれば、センサ出力の時系列データとロボットの行動と環境とを対応付けたマップを備えているので、センサが少なくても、マップに基づいて作成された環境を判別対象とした決定木に基づいて、環境を認識することができる。
In the invention of
請求項2の発明は、請求項1の発明に従属し、認識手段は、マップに基づいて環境を判別対象とした決定木を作成する決定木作成手段をさらに含む。
The invention of claim 2 is dependent on the invention of
請求項2の発明では、決定木作成手段は、マップに基づいて環境を判別対象とした決定木を作成する。これにより、環境を認識しようとするたびごとにマップに基づいて決定木を作成することができる。したがって、請求項2の発明によれば、環境認識を行う際に、最初の行動を任意に選択することができる。 In the invention according to claim 2, the decision tree creating means creates a decision tree having the environment as a discrimination target based on the map. This makes it possible to create a decision tree based on the map each time an attempt is made to recognize the environment. Therefore, according to the invention of claim 2, when performing environment recognition, the first action can be arbitrarily selected.
請求項3の発明は、請求項1または2の発明に従属し、センサは加速度センサを含み、行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである。
The invention of
請求項3の発明では、ロボットに設けられるセンサは加速度センサを含み、ロボットの実行する行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、そして、認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである。したがって、請求項3の発明によれば、歩く、寝ころぶ、起き上がる動作のような床との接触を伴う行動を実行しているときの、加速度センサの出力の時系列データを計測することによって、床の硬さまたは床の滑り(摩擦)などの違いのある環境を認識することができる。
In the invention of
請求項4の発明は、請求項1ないし3のいずれかに従属し、認識手段によって認識された環境に適した行動を実行する第2実行手段をさらに備える。
The invention according to claim 4 is dependent on any one of
請求項4の発明では、第2実行手段は、認識手段によって認識された環境に適した行動を実行する。したがって、請求項4の発明によれば、環境を認識した後には、当該環境に適した行動を実行することができるので、環境に合わせて、望み通りの動作を行うことができる。 In the invention of claim 4, the second execution means executes an action suitable for the environment recognized by the recognition means. Therefore, according to the fourth aspect of the invention, after recognizing the environment, an action suitable for the environment can be executed, so that a desired operation can be performed according to the environment.
請求項5の発明は、請求項4の発明に従属し、第2実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する第2計測手段、および第2計測手段によって計測されたセンサの出力の時系列データが、認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かをマップに基づいて判断する環境変化判別手段をさらに備え、環境変化判別手段によってセンサの出力の時系列データが環境と行動とに対応するものではないと判断されたとき、認識手段によって環境を認識する。
The invention according to
請求項5の発明では、第2計測手段は、第2実行手段によって行動を実行しているときのセンサの出力の時系列データを計測する。環境変化判別手段は、第2計測手段によって計測されたセンサの出力の時系列データが、認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かをマップに基づいて判断する。認識している環境に適した行動を実行したときのセンサ出力は、マップで対応付けられているセンサ出力となるはずであるので、この環境変化判別手段によって、センサ出力に基づいて環境の変化を判別している。そして、環境変化判別手段によってセンサの出力の時系列データが環境と行動とに対応するものではないと判断されたときには、環境が変化したことがわかるので、認識手段によって環境を認識する。したがって、請求項5の発明では、一旦環境を認識した後でも環境の変化を把握することができるので、変化後の環境を認識することができる。
In the invention of
請求項6の発明は、センサを備えて環境を認識するヒューマノイドロボットのための、ヒューマノイドロボットの置かれる環境と、ヒューマノイドロボットの行動と、センサの出力の時系列データとを対応付けたマップを作成するマップ作成方法であって、(a) ヒューマノイドロボットが認識すべき複数の環境において各環境に適した行動を実行するように複数の行動がそれぞれ調整されているヒューマノイドロボットを準備し、(b) ヒューマノイドロボットを用いて、認識すべき複数の環境で複数の行動をそれぞれ実行することによって、各行動を実行しているときのセンサの出力の時系列データを計測し、(c) 環境と、当該環境で実行した行動と、当該行動を実行しているときに計測されたセンサの出力の時系列データとを対応付ける、マップ作成方法である。 The invention of claim 6 creates a map for a humanoid robot having a sensor and recognizing the environment by associating the environment where the humanoid robot is placed, the behavior of the humanoid robot, and the time-series data of the sensor output. (A) preparing a humanoid robot in which a plurality of behaviors are adjusted so as to execute a behavior suitable for each environment in a plurality of environments to be recognized by the humanoid robot, and (b) By using a humanoid robot to perform multiple actions in multiple environments that should be recognized, the time series data of the sensor output when each action is being executed is measured. A mapping that associates actions performed in the environment with time-series data of sensor outputs measured when the actions are executed. It is the creation method.
請求項6の発明によれば、環境と行動とセンサ出力とを対応付けたマップを作成することができるので、センサを備えたヒューマノイドロボットがこのマップを用いて環境を認識することが可能になる。 According to the invention of claim 6, since a map in which the environment, the action, and the sensor output are associated with each other can be created, the humanoid robot equipped with the sensor can recognize the environment using this map. .
この発明によれば、センサ出力の時系列データとロボットの行動と環境とを対応付けたマップを備えているので、このマップに基づいて作成された環境を判別対象とした決定木と、行動中のセンサ出力とに基づいて、環境を判定することができる。したがって、センサが少なくても環境を認識することができる。さらに、認識した環境に適した行動を実行することができるので、環境内を円滑に動作することができる。 According to the present invention, since the map in which the time series data of the sensor output, the robot action and the environment are associated with each other is provided, the decision tree for which the environment created based on this map is a discrimination target, The environment can be determined based on the sensor output. Therefore, the environment can be recognized even if there are few sensors. Furthermore, since an action suitable for the recognized environment can be executed, the environment can be smoothly operated.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1はこの発明の一実施例のヒューマノイドロボット(以下、単に「ロボット」ともいう。)10の外観を示し、図2はこのロボット10をモデル表記した図解図である。図2を参照して、この実施例のロボット10は、垂直方向または縦方向に間隔を隔てて設けられる2つの横杆12および14を含み、この上下横杆12および14の間には、胴体16が形成される。
FIG. 1 shows the appearance of a humanoid robot (hereinafter also simply referred to as “robot”) 10 according to one embodiment of the present invention, and FIG. 2 is an illustrative view showing the
胴体16の上部には、胸の自由度を形成する1つのヨー(Yaw)軸関節18が設けられ、その下方には腰の自由度を形成する1つのピッチ(Pitch)軸関節20が設けられる。なお、よく知られているように、ヨー軸とは鉛直回転軸(Z軸)であり、ピッチ軸とはこのヨー軸に直行する2つの軸の一方、たとえばX軸であり、そして、後述のロール(Roll)軸がヨー軸に直行する2つの軸の他方、たとえばY軸である。X軸(ピッチ軸)は図2の紙面に平行な方向に延びる回転軸であり、Y軸(ロール軸)は図2の紙面に直行する方向に延びる回転軸である。
One
上横杆12の両端には、腕22Rおよび22Lがそれぞれ取り付けられる。これら左右の腕22Rおよび22Lは同じ構成である。なお、右左を区別する必要があるときは、右を示す「R」または左を表す「L」を付し、また区別する必要がないときはこの「R」や「L」を付けないで示すようにして、重複する説明はできるだけ省く。このことは、後述の足についても同様である。
Arms 22 </ b> R and 22 </ b> L are attached to both ends of the upper
腕22は、肩の自由度を形成するロール軸関節24を含み、この肩関節24によって上横杆12に、ロール軸周りに回転可能に取り付けられる。この肩関節24の先には、それぞれ1つずつのピッチ軸関節26、ヨー軸関節28、およびロール軸関節30の直列接続が設けられる。したがって、この実施例のロボット10の場合、腕22は、4自由度であり、左右で8自由度である。
The arm 22 includes a roll shaft joint 24 that forms a degree of freedom of the shoulder, and is attached to the upper
また、下横杆14の両端には、足32Rおよび32Lがそれぞれ取り付けられる。足32は、股関節の自由度を形成する1つのロール軸関節34によって下横杆14に取り付けられ、この股関節32から先の下端方向には、連続する3つのピッチ軸関節36、38および40、および1つのロール軸関節42、さらには1つのヨー軸関節44の直列接続が取り付けられる。したがって、この実施例のロボット10の場合、足32は、6自由度であり、左右で12自由度である。
In addition,
図1の実施例のロボット10の電気的構成が図2のブロック図に示される。図2に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU46を含み、このCPU46には、バス48を通して、メモリ50,モータ制御ボード52,およびセンサ入力/出力ボード54が接続される。
The electrical configuration of the
メモリ50は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムおよびデータが予め書き込まれていて、RAMは、一時記憶メモリとして用いられるとともにワーキングメモリとして利用され得る。なお、このメモリ50には、図4に示すような環境‐最適行動テーブルや、図5に示すようなセンサ出力時系列‐行動‐環境対応付けマップが予め記憶されているが、これらの説明は後述する。
Although not shown, the
センサ入力/出力ボード54には、図2の胴体16に設けられる1つの2軸加速度センサ56と、関節角度センサ58とが接続される。なお、関節角度センサ58は1つのブロックで示すが、実際には、上で説明した22個の関節にそれぞれ個別に設けられ、それぞれの関節角を検出する22個の関節角度センサを含む。2軸加速度センサ56は、ロボット10の前後方向および左右方向の2軸で加速度を検出することができる。この2軸加速度センサ56の出力を用いて、CPU46は、ロボット10の2足歩行や反動起き上がり等を制御する。また、CPU46は、この2軸加速度センサ56の出力時系列を計測して、メモリ50に記憶された対応付けマップを用いて環境を認識する。
The sensor input /
モータ制御ボード52は、たとえばDSP(Digital Signal Processor) で構成され、各腕、各足、胸、腰の各関節軸モータ60を制御する。図3では図の簡略化のために、関節軸モータ60は1つのブロックで示すが、実際には、上で説明した22個の関節のそれぞれに1つのモータ(サーボモータ)が設けられ、それぞれの関節角度を制御する22個のモータを含む。
The
図4には、メモリ50に予め記憶された、環境と最適行動とを対応付けたテーブルの一例が示される。この実施例のロボット10では、当該ロボット10が置かれることになるすなわちロボット10が認識すべき多数の環境E1,E2,…Ei(iは所定の整数)が予め把握されている。環境は、たとえばその床(または地面)の反力および形状等によって分類される。具体的には、床の硬さ(硬<>柔)、および床の滑り(摩擦:小<>大)などの要素の違いで分類され、この実施例ではi個の環境が想定される。この図4の例では、たとえば、環境E1は、硬さが硬くかつ摩擦が小さいものであり、環境E2は、硬さが硬くかつ摩擦が中程度のものであり、また、環境Eiは、硬さが柔らかくかつ摩擦が大きいものである。
FIG. 4 shows an example of a table stored in advance in the
また、このロボット10では、たとえば「歩く」、「寝ころぶ」、「反動起き上がり」等の複数(j個:jは所定の整数)の基本行動の全てについて、各環境で最適になるように予め調整された環境ごとの行動制御データが準備されている。そして、この環境‐最適行動テーブルでは、各環境に対応付けられて当該環境に最適な行動(識別子)が記憶されている。したがって、このテーブルを用いて各行動はどの環境に最適な行動であるのかを把握することが可能である。この図4の例では、たとえば、環境E1に最適な行動は、「歩く」行動に関しては行動A11であり、「寝ころぶ」行動に関しては行動A12であり、また、「反動起き上がり」行動に関しては行動A1jであることが分かる。
Further, in this
図5には、メモリ50に予め記憶された、センサ出力時系列‐行動‐環境対応付けマップの一例が示される。対応付けマップは、2軸加速度センサ56の出力の時系列データと、ロボット10の実行した行動と、ロボット10の置かれた環境とを対応付けたものである。
FIG. 5 shows an example of a sensor output time series-behavior-environment association map stored in advance in the
ここで、この対応付けマップの作成方法について説明する。本発明者等は、外界の情報を検知するセンサの出力は、ロボットの行動と環境の特徴とに密接な関係があると考え、ロボットに環境を認識させ、また環境に適した行動を選択させるために、「ロボットの行動」と「センサ出力の時系列」と「環境」とを対応付けたマップを作成することとした。 Here, a method for creating this association map will be described. The present inventors consider that the output of a sensor that detects information of the outside world is closely related to the behavior of the robot and the characteristics of the environment, and allows the robot to recognize the environment and to select a behavior suitable for the environment. Therefore, a map in which “robot behavior”, “time series of sensor outputs”, and “environment” are associated with each other is created.
対応付けマップを作成する際には、まず、ユーザが、ロボット10の全て(j個)の基本行動について、認識すべき多数(i個)の環境E1−Eiのそれぞれに最適なものになるようにチューニングをそれぞれ行って、各環境での最適行動A11−Aijとして各制御データを作成し、メモリ50に格納しておく。たとえば、「歩く」行動については、滑り易い環境と滑り難い環境とでは足の下ろし方を変えたりするなど各環境で動作するのに適するようなチューニングが行われる。こうして、このロボット10では、認識すべき多数の環境において各環境に適した行動を実行するように全ての行動がそれぞれ調整されている。
When creating a correspondence map, first, the user is optimal for each of a large number (i) of environments E1-Ei to be recognized for all (j) basic actions of the
なお、図3では図示を省略してあるが、このロボット10には外部インタフェース(たとえばRS232C)が設けられ、図示しない外部のコンピュータとの間でデータを通信することが可能にされており、したがって、外部のコンピュータ上で作成した最適行動の制御データ等をロボット10のメモリ50に書き込むことができる。
Although not shown in FIG. 3, the
そして、このチューニングされたロボット10を用いて、認識すべき多数の環境E1−Eiにおいて、全ての行動A11−Aijを実行することによって、各行動を実行しているときの2軸加速度センサ56の出力の時系列データを計測してメモリ50に蓄積する。具体的には、この実施例では、(j×i)個の行動をi個の環境で実行するので、(j×i×i)個のセンサ出力時系列データが得られる。メモリ50に蓄積したセンサ出力データは、たとえば、上述の外部インタフェースを介して外部コンピュータに転送する。
Then, by using this tuned
そして、たとえば外部コンピュータ上で、ロボット10の置かれた環境と、当該環境でロボット10の実行した行動と、当該行動を実行しているときのセンサ出力の時系列データとを対応付けることによって、図5に示すようなマップを作成する。作成されたマップデータは、外部コンピュータからロボット10に転送されてメモリ50に格納される。
For example, on an external computer, the environment in which the
なお、上述では、外部コンピュータ上でマップを作成する場合を説明したが、環境と行動とセンサ出力の対応付けは、ロボット10上でそのまま行うようにしてもよい。
In the above description, the map is created on the external computer. However, the environment, the action, and the sensor output may be associated on the
図5の例では、たとえば、センサ出力(時系列データ)D1と、行動A11と、環境E1,E2およびE5とが対応付けられていることが分かる。これは、行動A11を環境E1,E2およびE5で実行すると、同じセンサ出力D1が得られることを意味している。なお、行動A11は環境E1に最適になるようにチューニングされたものであるので、環境E1で行動A11を実行したときに得られたセンサ出力D1は、最適なセンサ出力と表現できる。 In the example of FIG. 5, for example, it can be seen that the sensor output (time-series data) D1, the action A11, and the environments E1, E2, and E5 are associated with each other. This means that when the action A11 is executed in the environments E1, E2, and E5, the same sensor output D1 is obtained. Since the action A11 is tuned to be optimal for the environment E1, the sensor output D1 obtained when the action A11 is executed in the environment E1 can be expressed as an optimum sensor output.
この実施例のロボット10は、当該ロボット10がどのような環境に置かれているのかを、最初に、あるいは環境の変化を検出したときなどに判定して、環境を認識する。環境を認識する際には、上述のようなセンサ出力時系列‐行動‐環境対応付けマップに基づいて、環境を認識するための決定木(decision tree)が作成される。つまり、ロボット10のメモリ50には、たとえばID3やC4.5等のような決定木自動生成アルゴリズムによる決定木作成プログラムが備えられていて、CPU46はその決定木作成プログラムを実行して、対応付けマップに基づいて環境を判別対象として決定木を作成する。この実施例では、ロボット10の内部で決定木を自動作成することができるので、環境認識のために最初に実行する行動をランダムに選択することができる。
The
なお、決定木は、入力パターンのクラスを決定するための多段決定過程(multistage decision process)の一手法である。決定木では、各決定手順の適用順序が予め完全に定まっており、決定手順(分類器)の結果によって、次の段でどの分類器に行くかが定まる(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用―」、コロナ社、1993)。
The decision tree is a technique for determining the input pattern class. In the decision tree, the order of application of each decision procedure is completely determined in advance, and the decision step (classifier) determines which classifier to go to in the next stage (Reference: Junichiro Toriwaki, Television Society)
この実施例の決定木では、ロボット10の実行した行動とそのときのセンサ出力とによってロボットの存在する環境を判定していく決定手順の適用順序が定められている。したがって、決定木において環境が決定されるまで、決定木に従って行動の実行とそのときのセンサ出力による判定とを繰り返していくことで、環境を認識することができる。
In the decision tree of this embodiment, the application order of the decision procedure for determining the environment in which the robot exists is determined by the action performed by the
詳しくは、このロボット10は、決定木に基づいて、その未認識の環境で行動するとともに、その行動中のセンサ出力の時系列を計測する。そして、センサ出力の計測結果に基づいて、環境の判定を試みる。環境が認識できなかった場合には、決定木に基づいて次の行動を選択し、再び行動、計測および判定を繰り返す。このようにして、このロボット10は、決定木に基づいて、行動をしてじたばたするうちに、どの環境にいるのかを認識することができる。
Specifically, the
図6には、作成される決定木の一例の一部の概略が示される。この図6の例では、最初の段に行動A11が設定されている。なお、この実施例では決定木の最初の段の行動はランダムで決定される。この図6の決定木による環境判定の流れの一例を説明すると、まず、行動A11の実行の結果、センサ出力D1が計測された場合には、次の段では、行動A55が選択されて実行される。そして、この行動A55の実行の結果、センサ出力D5が計測されなかった場合には、環境が決定され、つまり、このロボット10の置かれている環境は環境E2であることが認識される。
FIG. 6 shows an outline of a part of an example of a decision tree to be created. In the example of FIG. 6, action A11 is set in the first stage. In this embodiment, the behavior of the first stage of the decision tree is determined at random. An example of the flow of environment determination by the decision tree of FIG. 6 will be described. First, when the sensor output D1 is measured as a result of the execution of the action A11, the action A55 is selected and executed in the next stage. The If the sensor output D5 is not measured as a result of the execution of the action A55, the environment is determined, that is, it is recognized that the environment where the
そして、ロボット10は、環境を認識すると、その認識した環境に適した行動を、たとえば環境‐最適行動テーブルに基づいて、実行することができる。したがって、ロボット10は、認識した環境に合わせて、望みどおりに動作することができる。具体的には、床の硬さや滑り具合に合わせて、たとえば2足歩行することができるので、滑って転倒したりバランスを崩したりすることなく円滑に行動することができる。
When the
さらに、このロボット10では、環境に適した行動を実行しているときの、2軸加速度センサ56の出力の時系列データを計測して、環境の変化を判別するようにしている。つまり、認識している環境に適した行動を実行したときのセンサ出力の時系列データは、マップで対応付けられている最適なセンサ出力となるはずである。そこで、センサ出力の時系列データが、認識している環境と実行した行動とに対応するものであるか否かを、対応付けマップに基づいて判断することによって、環境の変化を把握する。そして、センサ出力の時系列データがその環境と行動とに対応するものではなかった場合には、環境が変化してしまったことがわかるので、再び上述のような環境を認識するための処理を実行する。したがって、この実施例では、一旦環境を認識した後でも環境の変化を把握できるので、変化後の環境を認識でき、さらに変化後の環境に適した行動を実行できる。
Further, the
具体的には、ロボット10のCPU46は、図7に示すようなフロー図に従って処理を実行する。図7の最初のステップS1では、メモリ50に予め登録されている行動の中からランダムに1つの行動を選択する。次に、ステップS3で、決定木作成プログラムを実行して、選択した行動を初めの段とする決定木を、センサ出力時系列‐行動‐環境対応付けマップに基づいて生成する。
Specifically, the
続いて、ステップS5で、選択した行動の制御データをメモリ50から読み出して、その行動の実行を開始する。ステップS7では、行動中の2軸加速度センサ56からの出力をセンサ入力/出力ボード54を介して一定周期で計測して、行動中のセンサ出力時系列データをメモリ50に記憶する。
Subsequently, in step S5, the control data of the selected action is read from the
そして、ステップS9では、決定木に基づく判定を行う。つまり、計測されたセンサ出力時系列データに基づいて、決定木の次の段でどの決定手順に進むかを判定する。たとえば図6の最初の行動A11を実行した場合で説明すると、計測されたセンサ出力データが、センサ出力D1であるか、またはその他の出力であるかを判断し、次にどちらの行動へ進むかを決定する。 In step S9, determination based on the decision tree is performed. That is, based on the measured sensor output time-series data, it is determined which decision procedure is to be advanced at the next stage of the decision tree. For example, in the case where the first action A11 in FIG. 6 is executed, it is determined whether the measured sensor output data is the sensor output D1 or another output, and which action is followed next. To decide.
続いて、ステップS11で、環境を認識できたか否かを判断する。つまり、ステップS9の判定によって、決定木においてセンサ出力に基づいて進めた次の段が環境を決定するものであったか否かを判断する。 Subsequently, in step S11, it is determined whether or not the environment has been recognized. That is, the determination in step S9 determines whether the next stage advanced based on the sensor output in the decision tree is to determine the environment.
ステップS11で“NO”であれば、つまり、環境を未だ認識するに至っていない場合には、続くステップS13で、決定木に基づいて次の行動を選択する。つまり、決定木において進めた次の段の決定手順として設定されている行動を選択する。そして、ステップS5へ戻って、再び、選択した行動の実行(ステップS5)および行動中のセンサ出力計測(ステップS7)を処理し、センサ出力結果に基づいて決定木による判定(ステップS9)を行って、環境を認識できたか判断する(ステップS11)。このように、ステップS5からステップS13の処理を繰り返して、決定木に基づいて環境の認識を行う。 If “NO” in the step S11, that is, if the environment has not yet been recognized, in the subsequent step S13, the next action is selected based on the decision tree. That is, the action set as the decision procedure for the next stage advanced in the decision tree is selected. Then, returning to step S5, the execution of the selected action (step S5) and the sensor output measurement during the action (step S7) are processed again, and the determination by the decision tree (step S9) is performed based on the sensor output result. Then, it is determined whether the environment has been recognized (step S11). In this way, the processing from step S5 to step S13 is repeated to recognize the environment based on the decision tree.
そして、ステップS11で“YES”であれば、つまり、決定木において環境の決定に至った場合には、続くステップS15で、認識した環境がいずれであるかをメモリ50に記録する。ステップS17では、ロボット10の内部プログラムあるいは外部プログラムまたはユーザから下される行動指令に従い、その環境に適した行動をたとえば環境‐最適行動テーブルに基づいて選択する。たとえば、認識した環境が環境E1であった場合には、当該環境E1に最適な行動A11−行動A1jの中から実行すべき行動を選択する。
If “YES” in the step S11, that is, if the environment is determined in the decision tree, in the subsequent step S15, the recognized environment is recorded in the
続いて、ステップS19で、選択した行動の実行を開始するとともに、ステップS21で、行動中の2軸加速度センサ56の出力時系列データを計測する。
Subsequently, in step S19, execution of the selected action is started, and in step S21, output time-series data of the
そして、ステップS23では、計測したセンサ出力データが、認識した環境と実行した行動に最適なものであったか否かを対応付けマップに基づいて判断する。つまり、このステップS23では、環境が変化したかどうかを判定している。詳しくは、ステップS19では、認識された環境において、当該環境に最適になるように調整された行動が実行されるので、ステップS21では、マップにおいて当該環境と当該行動とに対応付けられた最適なセンサ出力が計測されるはずである。したがって、認識した環境において最適な行動を実行したときに計測されたセンサ出力が、対応付けマップに設定されたセンサ出力ではなかった場合には、認識していた環境が変化してしまったことが分かる。 In step S23, it is determined based on the association map whether the measured sensor output data is optimal for the recognized environment and the executed action. That is, in this step S23, it is determined whether or not the environment has changed. Specifically, in step S19, an action adjusted to be optimal for the environment is executed in the recognized environment. Therefore, in step S21, an optimum associated with the environment and the action in the map is executed. The sensor output should be measured. Therefore, if the sensor output measured when the optimal action is executed in the recognized environment is not the sensor output set in the association map, the recognized environment may have changed. I understand.
そこで、ステップS23で“NO”であれば、つまり、環境が変化してしまった場合には、その環境の認識を試みるべく、再びステップS1に戻って処理を繰り返す。これによって、変化した環境を認識することができるので、以後もその変化した環境に最適な行動を実行していくことができる。 Therefore, if “NO” in the step S23, that is, if the environment has changed, the process returns to the step S1 again to repeat the process in order to try to recognize the environment. As a result, the changed environment can be recognized, and the optimum action for the changed environment can be executed thereafter.
一方、ステップS23で“YES”であれば、つまり、環境が変化していない場合には、ステップS25で、ロボット10の内部プログラムあるいは外部プログラムまたはユーザから下される次の行動指令に従い、その環境において実行すべき次の行動の選択を処理する。そして、ステップS27で、行動を終了するか否かを判断し、“NO”であれば、つまり、実行すべき行動がある場合には、ステップS19に戻って、次の行動を実行する。他方、ステップ27で“YES”であればこの処理を終了する。
On the other hand, if “YES” in the step S23, that is, if the environment has not changed, in the step S25, the environment is determined in accordance with the internal program or the external program of the
この実施例によれば、行動中のセンサ出力を長い時系列で見ることによって、2軸加速度センサ56の1種類1個という非常に少量のセンサであっても、通常の使い方では分からなかった情報を抽出でき、つまり、環境を認識することができる。したがって、このロボット10では、認識した環境に適した行動を実行していくことができる。また、センサが非常に少量でも認識できるので、たとえば省配線および省電力を実現することができる。また、その他のセンサと組み合わせることによって、さらに多くの環境情報を抽出することができ、より複雑な行動選択を行うことも可能となる。
According to this embodiment, by looking at the sensor output during action in a long time series, even a very small amount of sensors of one type of the
なお、上述の実施例では、図7のステップS23で環境の変化を検出して、再び環境の認識処理を行なうとき、ステップS1に戻ってランダムに行動を選択することとなるが、他の実施例では、環境の変化を認識したときに実行していた行動を選択することによって、行動を継続しつつ環境の認識処理を行うようにしてもよい。 In the above-described embodiment, when an environmental change is detected in step S23 of FIG. 7 and the environment recognition process is performed again, the process returns to step S1 to randomly select an action. In the example, the environment recognition process may be performed while continuing the action by selecting the action that was executed when the change in the environment was recognized.
また、上述の各実施例では、メモリ50に対応付けマップを記憶しておき、環境の認識のための最初の行動を任意に選択し、環境の認識処理を実行するたびに決定木を作成するようにしていたが、他の実施例では、外部コンピュータなどで対応付けマップから予め作成しておいた決定木を、メモリ50に記憶しておくようにしてもよい。この場合には、決定木が固定されるので、環境の認識手法が固定される。つまり、ロボット10は、環境を認識する際には、最初にいつも同じ行動を実行することとなる。
In each of the above-described embodiments, a correspondence map is stored in the
また、上述の各実施例では、ロボット10には2軸加速度センサ56を設けるようにしていた。そして、床(あるいは地面)の硬さや床の滑り等の要素の違いによって分類される環境において、歩く、寝ころぶ、反動起き上がりなどの床に接触する行動を実行し、行動中のセンサ出力時系列を計測することで、対応付けマップを作成していた。しかし、ロボット10に設けるセンサの種類は適宜変更されてよい。ただし、認識ないし判別する環境の特徴と行動とが、センサ出力に反映されるものである必要がある。
In each of the above-described embodiments, the
また、上述の各実施例の自由度やそれらの具体的構成は単なる例示であり、必ずしも22自由度なければならないというものではなく、関節軸モータは任意に変更可能である。なお、上述の実施例の2足歩行型のような自由度の多いロボットであれば、床の硬さや滑り(摩擦)の違いなど、判別可能な環境が多くなり、一方、たとえば車輪移動型のロボットの場合には、平滑か凹凸かといった程度で把握できるだけであり、判別可能な環境が少なくなる。 In addition, the degrees of freedom and specific configurations of the above-described embodiments are merely examples, and do not necessarily have 22 degrees of freedom, and the joint shaft motor can be arbitrarily changed. If the robot has a high degree of freedom, such as the biped walking type of the above-described embodiment, the environment that can be discriminated increases such as the difference in floor hardness and sliding (friction). In the case of a robot, it is only possible to grasp whether it is smooth or uneven, and the environment that can be discriminated is reduced.
10 …ロボット(ヒューマノイド)
22R、22L …腕
32R、32L …足
46 …CPU
50 …メモリ
52 …モータ制御ボード
54 …センサ入力/出力ボード
56 …2軸加速度センサ
60 …関節軸モータ
10 ... Robot (Humanoid)
22R, 22L ...
DESCRIPTION OF
Claims (6)
センサ、
前記ヒューマノイドロボットの置かれる環境と、前記ヒューマノイドロボットの行動と、前記センサの出力の時系列データとを対応付けたマップを記憶するマップ記憶手段、および
環境認識のための行動を実行する第1実行手段と、前記第1実行手段によって前記行動を実行しているときの前記センサの出力の時系列データを計測する第1計測手段とを含み、前記第1計測手段によって計測されたセンサの出力の時系列データと、前記マップに基づいて作成された環境を判別対象とした決定木とに基づいて、環境を認識する認識手段を備える、ヒューマノイドロボット。 A humanoid robot that recognizes the environment,
Sensor,
Map storage means for storing a map in which the environment in which the humanoid robot is placed, the action of the humanoid robot, and the time series data of the output of the sensor are associated, and the first execution for executing the action for environment recognition Means and first measurement means for measuring time series data of the sensor output when the action is being executed by the first execution means, and the output of the sensor measured by the first measurement means. A humanoid robot comprising recognition means for recognizing an environment based on time-series data and a decision tree for which the environment created based on the map is a discrimination target.
前記行動は、歩く、寝ころぶ、起き上がる動作の少なくとも1つを含み、
認識の対象となる環境は、少なくとも床の硬さまたは床の滑りによって分類されるものである、請求項1または2記載のヒューマノイドロボット。 The sensor includes an acceleration sensor;
The action includes at least one of walking, falling asleep, and getting up;
The humanoid robot according to claim 1 or 2, wherein the environment to be recognized is classified by at least floor hardness or floor slip.
前記第2計測手段によって計測されたセンサの出力の時系列データが、前記認識手段によって認識された環境と第2実行手段によって実行された行動とに対応するものであるか否かを前記マップに基づいて判断する環境変化判別手段をさらに備え、
前記環境変化判別手段によって前記センサの出力の時系列データが前記環境と前記行動とに対応するものではないと判断されたとき、前記認識手段によって環境を認識する、請求項4記載のヒューマノイドロボット。 Second measurement means for measuring time-series data of the output of the sensor when the action is being executed by the second execution means, and time-series data of the output of the sensor measured by the second measurement means, An environment change determination unit that determines whether the environment corresponds to the environment recognized by the recognition unit and the action executed by the second execution unit based on the map;
The humanoid robot according to claim 4, wherein when the environment change determination unit determines that the time series data of the output of the sensor does not correspond to the environment and the action, the recognition unit recognizes the environment.
(a) 前記ヒューマノイドロボットが認識すべき複数の環境において各環境に適した行動を実行するように複数の行動がそれぞれ調整されている前記ヒューマノイドロボットを準備し、
(b) 前記ヒューマノイドロボットを用いて、前記認識すべき複数の環境で前記複数の行動をそれぞれ実行することによって、各行動を実行しているときの前記センサの出力の時系列データを計測し、
(c) 環境と、当該環境で実行した行動と、当該行動を実行しているときに計測された前記センサの出力の時系列データとを対応付ける、マップ作成方法。 A map creation method for creating a map that associates an environment in which the humanoid robot is placed, an action of the humanoid robot, and time-series data of the output of the sensor for a humanoid robot that includes a sensor and recognizes the environment Because
(a) preparing the humanoid robot in which a plurality of behaviors are adjusted so as to execute a behavior suitable for each environment in a plurality of environments to be recognized by the humanoid robot;
(b) Using the humanoid robot, by measuring each of the plurality of actions in the plurality of environments to be recognized, to measure time series data of the output of the sensor when executing each action,
(c) A map creation method that associates an environment, an action executed in the environment, and time-series data of the sensor output measured when the action is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004105530A JP4453076B2 (en) | 2004-03-31 | 2004-03-31 | Humanoid robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004105530A JP4453076B2 (en) | 2004-03-31 | 2004-03-31 | Humanoid robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005288600A JP2005288600A (en) | 2005-10-20 |
JP4453076B2 true JP4453076B2 (en) | 2010-04-21 |
Family
ID=35322130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004105530A Expired - Lifetime JP4453076B2 (en) | 2004-03-31 | 2004-03-31 | Humanoid robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4453076B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4933636B2 (en) * | 2010-03-15 | 2012-05-16 | 富士ソフト株式会社 | Learning walking robot apparatus and control program thereof |
JP5286429B2 (en) * | 2012-02-16 | 2013-09-11 | 富士ソフト株式会社 | Learning walking robot apparatus and control program thereof |
-
2004
- 2004-03-31 JP JP2004105530A patent/JP4453076B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2005288600A (en) | 2005-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6865446B2 (en) | Robot device and method of controlling robot device operation | |
EP2151374B1 (en) | Motion controlling apparatus and motion controlling method for legged mobile robot, and robot apparatus | |
JP2019093461A (en) | Holding system, learning device, holding method and model manufacturing method | |
Fujita et al. | A small humanoid robot sdr-4x for entertainment applications | |
Miura et al. | Robot motion remix based on motion capture data towards human-like locomotion of humanoid robots | |
US20010047226A1 (en) | Articulated robot and method of controlling the motion of the same | |
JP2010134907A (en) | Reinforcement learning system | |
CN103895020B (en) | Method and system for control machine people's gait | |
KR20140065405A (en) | Robot with joints of variable rigidity and method for calculating said optimized rigidity | |
WO2021033471A1 (en) | Control device, control method, and control program | |
Borras et al. | A whole-body pose taxonomy for loco-manipulation tasks | |
JP4453076B2 (en) | Humanoid robot | |
JP4997419B2 (en) | Robot motion conversion system | |
EP1386699A2 (en) | Robot device and method of controlling robot device operation | |
JP2008093762A (en) | Walking robot | |
JP6161892B2 (en) | Robot and control method thereof | |
JP3555945B2 (en) | Motion editing device and motion editing method for robot device, robot device, control method for robot device, and computer program | |
JP2010510895A (en) | Robot posture detection apparatus and method | |
WO2022264477A1 (en) | Mobile device and mobile device control method | |
JP2006247800A (en) | Control device for leg type movement robot | |
JP4614692B2 (en) | Motion evaluation method for robot apparatus | |
JP6560823B2 (en) | Robot, control method therefor, and control program | |
Kanehiro et al. | Developmental realization of whole-body humanoid behaviors based on statenet architecture containing error recovery functions | |
KR20110078544A (en) | Motion implementing method of vision system grafted legged mobile robot | |
Kim et al. | Falling avoidance of biped robot using state classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100119 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130212 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4453076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130212 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140212 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |