JP2010058260A - 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法 - Google Patents
進化アルゴリズムと模倣学習に基づくロボットの動作制御方法 Download PDFInfo
- Publication number
- JP2010058260A JP2010058260A JP2008302457A JP2008302457A JP2010058260A JP 2010058260 A JP2010058260 A JP 2010058260A JP 2008302457 A JP2008302457 A JP 2008302457A JP 2008302457 A JP2008302457 A JP 2008302457A JP 2010058260 A JP2010058260 A JP 2010058260A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- robot
- joint angle
- control method
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
Abstract
【課題】ロボットが人間の動作を学習できる進化アルゴリズムに基盤したロボットの動作制御方法を提供する。
【解決手段】本発明は進化アルゴリズムを利用したロボットの動作制御方法に関するものである。本発明は人間の動作パターンを収集してデータベースを構築する段階と、主成分分析及び逆動力学基盤の補間法を利用した遺伝演算子を利用して前記データベースを進化させる段階と、前記進化したデータベースを利用してリアルタイムでロボットの動作を生成する段階を含むロボットの動作制御方法を提供する。
本発明によると進化したデータベースを利用してロボットが人間の運動を学習し、最適化した動作をリアルタイムで制御することができる。
【選択図】図1
【解決手段】本発明は進化アルゴリズムを利用したロボットの動作制御方法に関するものである。本発明は人間の動作パターンを収集してデータベースを構築する段階と、主成分分析及び逆動力学基盤の補間法を利用した遺伝演算子を利用して前記データベースを進化させる段階と、前記進化したデータベースを利用してリアルタイムでロボットの動作を生成する段階を含むロボットの動作制御方法を提供する。
本発明によると進化したデータベースを利用してロボットが人間の運動を学習し、最適化した動作をリアルタイムで制御することができる。
【選択図】図1
Description
本発明はロボットの動作制御方法に関し、特に、進化アルゴリズムを利用してロボットに人間の動作を学習させた後、リアルタイムでロボットの動作を制御する方法に関するものである。
最近の人間型ロボットは機構的構造や外形だけでなく、歩くことや走ることなどのような動作制御能力においても人間に近くなっている。それはロボットに人間の動作と類似な動作を行うようにする試みが続いているためである。
例えば、人間の動作をデータベースに貯蔵し、貯蔵された動作をロボットが再現することによって人間の動作を模倣させることもできる。しかし、ロボットが必要とする幾多の動作を全て予め記録して蓄積し、これを活用するということは物理的に不可能である。
一方、モーションキャプチャー(motion capture)システムを利用することによってロボットに人間の動作を模倣して再現させる場合、キャプチャーされた人間の動作パターンをそのままロボットに適用するとロボットが人間のような自然な動作をすることもできる。しかし、質量、質量中心または慣性質量のような物性値が人間とロボットは互いに異なるためにキャプチャーされた動作がロボットに最適化されたということではない。
このような問題を解決するために本発明は、ロボットが人間の動作を学習できる進化アルゴリズムに基づいたロボットの動作制御方法を提供する。
本発明の特徴によるロボットの動作制御方法は、(a)人間の動作パターンを収集してデータベースを構築する段階;(b)主成分分析及び逆動力学に基づいた補間法を適用した遺伝演算子を利用して前記データベースを進化させる段階;及び(c)前記進化したデータベースを利用してリアルタイムでロボットの動作を生成する段階を含むことができる。
前記(a)段階は人間の動作をモーションキャプチャーする段階を含むことができる。
また、前記(b)段階は、(b−1)ロボットが行う任意の動作と類似な動作状態を有する基本動作を前記データベースから1つ以上選択する段階;及び(b−2)主成分分析による主成分抽出及び前記主成分の結合を通じて最適動作を新たに生成することによって、前記選択された基本動作を再加工する段階を含むことができる。
前記(b)段階は、前記(b−1)段階と前記(b−2)段階を繰り返して行って前記データベースを進化させる段階を含むことができる。
前記(b−1)段階で、前記任意の動作は次の式(11)で示すことができる。
ここで、
は前記任意の動作の関節角軌跡、
は前記選択された基本動作の平均関節角軌跡、
は前記選択された基本動作の関節角軌跡の中でi番目主成分軌跡、
はスカラー係数である。
前記任意の動作の動作状態は次の式(12)で示す境界条件を満足することができる。
ここで、
は開始時間
における関節角、
は開始時間
における関節角速度、
は終了時間
における関節角、
は終了時間
における関節角速度である。
前記(b−2)段階で、前記選択された基本動作が1つ以上の関節角軌跡を含む時、前記関節角軌跡の平均軌跡
を次の式(13)によって計算する。
ここで、kは選択された基本動作の数であり、
はi番目基本動作の関節角軌跡である。
また、次の式(14)によって共分散行列(S)を計算し、
前記共分散行列から固有ベクターを得て、前記固有ベクターの中で前記関節角軌跡の主成分軌跡を得ることができる。
前記(b−2)段階で、次の式(15)を通じて前記選択された基本動作の関節トルク
を決める。
ここで、
は前記選択された基本動作の関節角、
は前記選択された基本動作の関節角速度、
は前記選択された基本動作の関節角加速度、
は質量マトリックス、
はコリオリベクターである。
また、
は重力及びその他の力を含む。
前記決められた関節トルクが次の式(16)を最小にすると、前記選択された基本動作を前記最適動作に決めることができる。
前記(c)段階は主成分分析及び機構学的補間による動作の再結合方法を利用することができる。
また、前記(c)段階は、(c−1)ロボットが生成する動作と類似な動作状態を有する基本動作を前記進化したデータベースから1つ以上選択する段階;及び(c−2)主成分分析による主成分抽出及び前記主成分の結合を通じて最適動作を新たに生成することによって、前記選択された基本動作を再加工する段階を含むことができる。
前記(c−1)段階で、前記ロボットが生成する動作は次の式(17)で示すことができる。
ここで、
は前記ロボットが生成する動作の関節角軌跡、
は前記選択された基本動作の平均関節角軌跡、
は前記選択された基本動作の関節角軌跡の中でi番目主成分軌跡、
はスカラー係数である。
前記ロボットが生成する動作の動作状態は次の式(18)で示す境界条件を満足することができる。
ここで、
は開始時間
における関節角、
は開始時間
における関節角速度、
は終了時間
における関節角、
は終了時間
における関節角速度である。
前記(c−2)段階で、前記選択された基本動作が1つ以上の関節角軌跡を含む時、前記関節角軌跡の平均軌跡
を次の式(19)によって計算する。
ここで、kは選択された基本動作の数であり、
はi番目基本動作の関節角軌跡である。
さらに次の式(20)を通じて共分散行列(S)を計算する。
次に、前記共分散行列から固有ベクターを得て、前記固有ベクターの中で前記関節角軌跡の主成分軌跡を得ることができる。
本発明によると、人間の基本動作をロボットの特性に合わせて進化させることによってロボットに最適化した動作を行うようにすることができる。
また、本発明によると、進化した基本動作データベースに基づいてロボットがリアルタイムで動作を生成することができる。
また、本発明によると、モーションキャプチャーデータのみあればこれを容易にロボットに適用することができるので、ロボットが人間の多様な動作を模倣及び再現することができる。
以下、添付した図面を参照して本発明の実施例について本発明が属する技術分野における通常の知識を有する者が容易に実施できるように詳しく説明する。しかし、本発明は多用で相異なる形態で実現することができ、ここで説明する実施例に限られない。さらに、図面で本発明を明確に説明するために説明と関係ない部分は省略し、明細書全体にわたって類似の部分については類似の図面符号を付けた。
ロボットの動作は作業(task)と状態(condition)からなる。例えば、手をテーブル上のカップへ持っていく動作があるとすると、手をカップに持っていくことがこの動作が属した作業であり、テーブル上のカップの位置がこの動作の状態である。しかし、すべての位置のカップに手を持っていく動作をいちいち蓄積しておいて、これを活用することは物理的に不可能である。
本発明の実施例では限定された数の動作のみを貯蔵し、1つ以上の関節角軌跡からなる動作を基本動作(movement primitive)と定義する。また、本発明の実施例では基本動作の補間(interpolation)を通じてカップの位置のような多様な動作状態に対するロボットの腕の動作を生成する。
1つの基本動作が進化アルゴリズムにおける1つの個体(individual)となる。例えば、120Hzでサンプリングされた120秒長さを有する基本動作があるとすると、この個体の染色体形態(genotype)は14400行を有する実数ベクターである(14400=120秒×120Hz)。また、収集されて限定された数の基本動作が集団をなして両親個体として動作する。
図1は本発明の実施例による主成分分析基盤の遺伝演算子を示す図面である。
図1を参照すると、作業Tに属するn個の個体が両親個体をなしている。各個体をm1からmnと表示すると、各個体はそれぞれ自分の動作状態を有する。つまり、個体miの動作状態はciと表示される。
もし、動作状態c3を有する動作が必要であれば、n個の両親個体の中で動作状態c3と最も近い動作状態を有する個体をk個選択する。これは動作状態の類似性を比較する適切な尺度(distance metric)を導入して解決することができる。
例えば、カップが特定の位置に置かれている場合、この特定の位置へ手を持っていく腕の動作が必要である。この場合、カップの3次元位置ベクターを動作状態c3に定義することができ、動作状態の類似性を比較するために、次の式(21)の形態で距離尺度を使用する。
このように選ばれたk個の動作個体を
と表示する。1つの動作個体はいくつかの関節角からなる。例えば、7自由度を有するマニピュレータの動作を記述すると動作個体1つは7個の関節角軌跡で構成される。
k個の動作個体
から得られた最初(又は初期)自由度の関節角軌跡をそれぞれ
と表示する。この場合、次の式(22)を通じて平均軌跡qmeanを得ることができる。
一方、次の式(23)を通じて共分散行列Sが得られる。
共分散行列Sから得られた固有ベクターと固有値をそれぞれ
と
と表示する。ここで、固有値は
と整列された。
固有ベクター
を主成分とし、これら固有ベクターはそれぞれ関節角軌跡を示す。主成分分析の特性に応じてk個の主成分の中で支配的ないくつかの主成分のみを有して全関節角軌跡の特性を知ることができる。それは主成分分析は高次元のデータを低次源の空間に投影させて次元を減らす機能をするためである。
結果的に、最初(初期)自由度の関節角
から平均軌跡qmeanとk個の主成分軌跡
を得ることができる。一方、このような過程を第2、第3などの関節に対する軌跡に対しても同一に適用し、各関節に対して平均軌跡と主成分軌跡を得ることができる。
一方、任意のロボット動作は下記式(24)のように平均軌跡と主成分軌跡の線状結合で示すことができる。
ここでq(t)は関節角軌跡、qmean(t)は平均関節角軌跡、
はi番目主成分軌跡である。そしてxi(i=1、2、3、4、5)はスカラー係数である。
一般に動作状態c3は開始時刻t0での関節角q0と関節角速度
、そして終了時刻tfでの関節角qfと関節角速度
で与えられる。
一方、未知数xiは5個であるので、4個の境界条件を満足する未知数5個を決めるために次の式(25)、(26)を通じて最適化過程を行う。
ここで、
は関節トルクである。この関節トルクは関節角q、関節角速度
及び関節角加速度
が決められると前記式(26)を通じて計算することができる。最小化しようとする目的関数である式(25)は与えられた関節軌跡を動かす時、ロボットが必要とするトルクの合計である。
このような最適化過程を通じて最小のエネルギー(トルク)を必要としながら、与えられた動作状態c3を満足する動作個体、つまり、新たなm3を生成することができる。この過程を‘逆動力学基盤の最適化を通じた動作の再結合(Reconstituting motion via dynamics−based optimization)’と言う。
新たに生成された子供個体m3は両親個体m3のような動作状態c3を持っている。しかし、子供個体m3は両親個体m3を含む複数固体の主成分を分解及び再結合して生成されたものであるので、両親個体のような動作軌跡を有しない。したがって、進化アルゴリズム内で2つの個体の優秀性を判断してさらに優れた個体が次代の両親集団に属する。このような過程がc0からcnまで適用されることによってn個の子供集団が生成される。
一方、両親集団に属するmiと子供集団に属するmiの中でさらに優れた動作個体を次代の両親集団に選定するために適合度関数(fitness function)が必要であるが、これは次の式(27)で定義される。
つまり、2つの動作個体の中でトルク(エネルギー)を少なく消費するものが次代の両親個体となる。
式(27)は式(25)と同一である。つまり、遺伝演算子で使用された逆動力学基盤の最適化での目的関数と進化アルゴリズムで使用された目的関数が同一である。その理由は、遺伝演算子は局部的な最適化作用(local optimizer)をして進化アルゴリズムは全域的な最適化作用(global optimizer)をするように意図されたためである。つまり、局部的最適化と全域的最適化が同時に行われることによって、集団をなしている動作個体が次第に少ないトルクを必要とするエネルギー効率的な動作パターンへ進化して行くように意図されたものである。
図2は本発明の実施例による遺伝演算子と適合度関数を利用して基本動作が進化する過程を概略的に示す図面である。
まず、人間の動作を収集して1つの作業を行う反復動作で初期両親集団を選択する。これら反復動作は多様な動作条件を包括することに選定する。
次に、初期両親集団から動作個体を抽出し、抽出された動作個体は主成分分析基盤の遺伝演算子を通じて子供集団を形成する。
また、両親集団と子供集団の動作個体をそれぞれ比較してさらに優れた動作個体が次代の両親集団を形成し、劣等な動作個体は捨てる。この過程は遺伝演算子で使用された逆動力学基盤の最適化過程の計算量のために多くの時間がかかる。
次に、このように形成された進化した基本動作を利用して、その時その時必要とする動作をロボットがリアルタイムで生成することができる。この過程もまた基本動作の主成分分析とその再結合からなる。つまり、ロボットが任意の動作状態ciを有する動作を生成しなければならないと、動作状態ciと類似の動作状態を有する動作を進化した基本動作データベースから抽出し、主成分分析を通じて平均軌跡と主成分軌跡を得る。ここまでの過程は主成分分析基盤の遺伝演算子と同一である。
しかし、主成分分析基盤の遺伝演算子とは異なって、ここではロボットの動作を構成することにおいて次の式(28)のように平均軌跡と3つの主成分軌跡のみを使用する。
ここでq(t)は関節角軌跡、qmean(t)は平均関節角軌跡、
はi番目主成分軌跡である。そして、xi(i=1、2、3、4)はスカラー係数である。
一般に動作状態c3は開始時刻t0での関節角q0と関節角速度
、そして終了時刻tfでの関節角qfと関節角速度
の4つに与えられる。
しかし、主成分分析基盤の遺伝演算子とは異なって、ここでは未知数xiが4つであるために4つの境界条件を満足する未知数4つを決める過程は簡単な行列演算に過ぎないので、リアルタイムで動作を生成することができる。
一方、二過程は境界での関節角及び関節角速度のみを考慮して動作を生成するので、‘機構学的補間を通じた動作の再結合(Reconstituting motion via kinematic interpolation)’と言う。
本発明の実施例では基本動作に対する主成分分析と共に、逆動力学基盤の最適化を通じた動作の再結合方法と機構学的補間を通じた動作の再結合方法を使用する。
しかし、逆動力学基盤の最適化を通じた動作の再結合方法を使用する場合、ロボットの物理的特性に最適化した動作を生成することができるという長所がある反面、最適化に時間が長くかかるためにロボットがリアルタイムで動作を生成できない短所がある。
これに反し、機構学的補間を通じた動作の再結合方法は簡単な行列演算のみを経るためにリアルタイムで動作を生成することができるが、生成された動作はキャプチャーされた人間動作の数学的、そして機構学的補間に留まるので、ロボットに最適化されたことではない。
図3は従来の方法と本発明の実施例による方法を比較するための図面である。従来の方法1と方法2は人間のモーションキャプチャーデータに直接主成分分析と動作再結合方法を適用する。
これに反し、本発明の実施例による方法3は人間のモーションキャプチャーデータを進化させてロボットの物理的特性を反映させ、この進化した基本動作に基づいてリアルタイムでロボットが必要な動作を得る。
以下、本発明のロボット動作制御方法による実験例及び比較例を記述する。しかし、本発明は以下の実験例または比較例に限定されることではない。
(実験例)
図4Aは本実験例で使用された人間型ロボット‘マル’の外観を示す図面であり、図4Bは腰関節と右腕を含む7自由度のマニピュレータを概略的に示す図面である。
図4Aは本実験例で使用された人間型ロボット‘マル’の外観を示す図面であり、図4Bは腰関節と右腕を含む7自由度のマニピュレータを概略的に示す図面である。
投げられたボールをロボットが腕で取るためには、球の位置を追跡し、ボールを取る位置を予想しなければならない。また、ロボットが予想位置に腕を動かし、指でボールを取ることもしなければならない。しかし、本実験例ではロボットが人間のような自然な動作を生成するようにすることが目的であるので、残り能力は既に与えられていると仮定した。
図5Aは実験者が自分に投げられたボールを取る前の姿を示す図面であり、図5B及び5Cは実験者が自分の正面及び肩の上側に投げられたボールを取る姿をそれぞれ示す図面である。また、図6A及び6Bは実験者がボールを受けた140個の地点を表示する正面図及び側面図である。
実験者の頭とボディー近くの多様な地点にボールを投げ、全140個のボールを受ける実験者の動作をキャプチャーした。つまり、本実験例では140個の基本動作が初期両親世帯を構成した。
動作状態ciは次の式(29)によって定義された。
ここで、Riは実験者がボールを受けた瞬間の手の平の回転行列(rotation matrix)であり、piはその瞬間の手の平の位置ベクター(position vector)である。一方、この行列とベクターは全て実験者の腰に位置した基準座標系から見た時の値である。
各動作状態の間の類似性を示す距離尺度として次の式(30)が定義された。
ここで、Riとpiは動作状態ciに属し、Rjとpjは動作状態cjに属する。また、w1とw2はスカラー加重値であり、本実験例では1.0と0.5に定めた。
図7Aと図7Bは基本動作に対する主成分分析の例を示す。つまり、図7Aは任意に選択した10個の基本動作の関節角軌跡を示す図面であり、図7Bは7Aに図示された基本動作から支配的な主成分4つを抽出してこれを示す図面である。
本実験例では与えられた動作状態に最も近い20個の基本動作を選択して主成分を抽出し、この主成分を新たな動作を生成するのに使用した。
図8Aは進化過程でさらに優れた子供個体で代替される両親個体の個数を示すグラフである。また、図8Bは各世帯での個体の適合度関数値の平均を示すグラフである。
図8Aを参照すると、1世代から2世代に進化する時は140個の両親個体の中で38個の個体がさらに優れた子供個体で代替された。一方、代替される両親個体の個数は進化が進められることによって次第に減少したが、これは動作個体の最適化が一定の値で収斂するということを示す。
図8Bを参照すると、適合度関数値の平均が1世代では560に至り、進化が行われた10世代では460以下に減った。
一方、1世代から10世代まで進化させるのにかかった時間は2GBのRAMを有するペンティアム(登録商標)4コンピュータでほぼ9時間程度であった(以下、同一なコンピュータで遂行)。
(比較例1)
図9A及び9Bはそれぞれ従来方法1及び本発明の実施例による方法3によって生成された動作の様相を示す正面図である。また、図9C及び9Dはそれぞれ従来方法1及び本発明の実施例による方法3によって生成された動作の様相を示す側面図である。また、図10は従来方法1と本発明の実施例による方法3によって生成された動作の関節角をそれぞれ示す図面である。
図9A及び9Bはそれぞれ従来方法1及び本発明の実施例による方法3によって生成された動作の様相を示す正面図である。また、図9C及び9Dはそれぞれ従来方法1及び本発明の実施例による方法3によって生成された動作の様相を示す側面図である。また、図10は従来方法1と本発明の実施例による方法3によって生成された動作の関節角をそれぞれ示す図面である。
2つの動作とも基本的には人間のモーションキャプチャーデータを使用するために外観は人間の動作のように自然である。また、同一な動作条件を持って動作を生成したので、開始時点と終了時点での関節角及び関節角速度がそれぞれ同一である。
しかし、開始時点から終了時点へ行く軌跡は同一な様相を示さないが、その効果は下記表1に示されている。
表1を参照すると、動作生成時間は2つの方法でほぼ同一であり、リアルタイムに近い短時間がかかるだけであった。これは2つの方法が活用する基本動作データが人間動作であるか進化した動作であるかの差にあり、動作を生成するアルゴリズムは同一であるためである。
一方、適合度関数の値は方法3でさらに小さく示されるが、これは方法3によって生成された動作がより少ないトルクが所要される最適化した動作であり、エネルギー効率的であるという意味である。したがって、本発明の実施例による方法3で使用された進化した基本動作データベースが最適の動作生成に寄与したことを確認することができた。
(比較例2)
図11A及び11Bはそれぞれ従来方法2及び本発明の実施例による方法3によって生成された動作の様相を示す正面図である。また、図11C及び11Dはそれぞれ従来方法2及び本発明の実施例による方法3によって生成された動作の様相を示す側面図である。
図11A及び11Bはそれぞれ従来方法2及び本発明の実施例による方法3によって生成された動作の様相を示す正面図である。また、図11C及び11Dはそれぞれ従来方法2及び本発明の実施例による方法3によって生成された動作の様相を示す側面図である。
また、図12は従来方法2と本発明の実施例による方法3によって生成された動作の関節角をそれぞれ示す図面である。
2つの動作もやはり基本的には人間のモーションキャプチャーデータを使用するために外観では人間の動作のように自然である。また、同一な動作条件を持って動作を生成したので、開始時点と終了時点での関節角及び関節角速度がそれぞれ同一である。
一方、動作の生成時間と適合度関数の値には差があるが、これは次の表2に示されている。
表2を参照すると、従来方法2による場合、動作生成に11.32秒がかかり、本発明の実施例による方法3による場合には0.127秒しかかからなかったことが判る。
従来方法2による場合、逆動力学基盤の最適化過程を経るために計算に長時間がかかった。これに反し、従来方法2による場合には適合度関数の値は348.7で、本発明の実施例による方法3による場合に比べて最適化した様相を示す。つまり、従来方法2によって生成されたロボット動作は最もエネルギー効率的で最適化し、人間の動作と類似しているが、動作生成に長い時間がかかるためにリアルタイム動作生成には不適であった。
これに反し、本発明の実施例による方法3によって生成されたロボット動作は従来方法2によって生成されたことよりは最適化されていないが、迅速に動作を生成するという側面からリアルタイム動作生成に適した。
(比較例3)
動作条件10個を有して方法1、2及び3全てを使用してそれぞれ動作を生成した。表3は生成されたそれぞれの動作10個を平均して、その性能を比較した結果を表3に示す。
動作条件10個を有して方法1、2及び3全てを使用してそれぞれ動作を生成した。表3は生成されたそれぞれの動作10個を平均して、その性能を比較した結果を表3に示す。
表3を参照すると、従来方法1と本発明の実施例による方法3による場合、動作生成に非常に短い時間がかかるためにリアルタイム動作生成への適用が可能であった。
一方、従来方法2による場合には適合度関数の値が最も小さいために最適化した動作が作られたが、動作生成に時間が長く所要されてリアルタイム動作生成に適用することは難しかった。
要するに、本発明の実施例による方法3による場合、リアルタイムで動作を生成することができ、多くの時間が所要されて最適化させた動作と最適化側面でほぼ対等な性能を示した。
以上、本発明の実施例について説明したが、本発明の権利範囲はこれに限定されず、特許請求の範囲と発明の詳細な説明及び添付した図面の範囲内で多様に変形して実施することが可能であり、これもまた本発明の範囲に属するのは当然のことである。
Claims (13)
- ロボットの動作制御方法において、
(a)人間の動作パターンを収集してデータベースを構築する段階;
(b)主成分分析及び逆動力学に基づいた補間法を利用した遺伝演算子を利用して前記データベースを進化させる段階;及び
(c)前記進化したデータベースを利用してリアルタイムでロボットの動作を生成する段階を含むことを特徴とするロボットの動作制御方法。 - 前記(a)段階は人間の動作をモーションキャプチャーする段階を含むことを特徴とする、請求項1に記載のロボットの動作制御方法。
- 前記(b)段階は、
(b−1)ロボットが行う任意の動作と類似の動作状態を有する基本動作を前記データベースから1つ以上選択する段階;及び
(b−2)主成分分析による主成分抽出及び前記主成分の結合を通じて最適動作を新たに生成することによって、前記選択された基本動作を再加工する段階を含むことを特徴とする、請求項1に記載のロボットの動作制御方法。 - 前記(b)段階は、
前記(b−1)段階と前記(b−2)段階を繰り返して行って前記データベースを進化させる段階を含むことを特徴とする、請求項3に記載のロボットの動作制御方法。 - 前記(b−1)段階で、
前記任意の動作は、
- 前記任意の動作の動作状態は、
- 前記(b−2)段階で、
前記選択された基本動作が1つ以上の関節角軌跡を含む時、前記関節角軌跡の平均軌跡
次の式(3)によって計算し、
- 前記(b−2)段階で、
- 前記(c)段階は、
主成分分析及び機構学的補間を通じた動作の再結合方法を利用することを特徴とする請求項1に記載のロボットの動作制御方法。 - 前記(c)段階は、
(c−1)ロボットが生成する動作と類似の動作状態を有する基本動作を前記進化したデータベースから1つ以上選択する段階;及び
(c−2)主成分分析による主成分抽出及び前記主成分の結合を通じて最適動作を新たに生成することによって、前記選択された基本動作を再加工する段階を含むことを特徴とする、請求項9に記載のロボットの動作制御方法。 - 前記(c−1)段階で、
前記ロボットが生成する動作は、
- 前記ロボットが生成する動作の動作状態は、
- 前記(c−2)段階で、
前記選択された基本動作が1つ以上の関節角軌跡を含む時、前記関節角軌跡の平均軌跡
次の式(9)によって計算され、
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080085922A KR100995933B1 (ko) | 2008-09-01 | 2008-09-01 | 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010058260A true JP2010058260A (ja) | 2010-03-18 |
Family
ID=41726558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008302457A Pending JP2010058260A (ja) | 2008-09-01 | 2008-11-27 | 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20100057255A1 (ja) |
JP (1) | JP2010058260A (ja) |
KR (1) | KR100995933B1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5892531B1 (ja) * | 2015-11-16 | 2016-03-23 | プレンプロジェクト・ホールディングス有限会社 | リンク列マッピング装置、リンク列マッピング方法、及びプログラム |
CN106444738A (zh) * | 2016-05-24 | 2017-02-22 | 武汉科技大学 | 基于动态运动基元学习模型的移动机器人路径规划方法 |
WO2017159562A1 (ja) * | 2016-03-14 | 2017-09-21 | オムロン株式会社 | 動作情報生成装置 |
CN108255058A (zh) * | 2018-01-18 | 2018-07-06 | 山东大学深圳研究院 | 智能空间下的服务机器人逆运动学求解方法和装置 |
WO2019142229A1 (ja) * | 2018-01-16 | 2019-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット装置、ロボット装置の制御方法およびプログラム |
US11648672B2 (en) | 2018-01-16 | 2023-05-16 | Sony Interactive Entertainment Inc. | Information processing device and image generation method |
US11733705B2 (en) | 2018-01-16 | 2023-08-22 | Sony Interactive Entertainment Inc. | Moving body and moving body control method |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101691940B1 (ko) * | 2009-10-30 | 2017-01-02 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US9626696B2 (en) | 2010-06-17 | 2017-04-18 | Microsoft Technology Licensing, Llc | Techniques to verify location for location based services |
KR101014852B1 (ko) * | 2010-10-08 | 2011-02-15 | 동국대학교 산학협력단 | 인공지능 기반의 캐릭터 동작생성 장치, 방법 및 그 기록 매체 |
KR101227092B1 (ko) * | 2010-11-05 | 2013-01-29 | 한국과학기술연구원 | 로봇의 동작 제어 시스템 및 동작 제어 방법 |
US9162720B2 (en) * | 2010-12-03 | 2015-10-20 | Disney Enterprises, Inc. | Robot action based on human demonstration |
KR101086671B1 (ko) | 2011-06-29 | 2011-11-25 | 동국대학교 산학협력단 | 인간과 상호작용하는 로봇을 가상학습공간에서 학습시키는 방법, 기록매체, 및 그 방법으로 학습된 로봇 |
US9573276B2 (en) * | 2012-02-15 | 2017-02-21 | Kenneth Dean Stephens, Jr. | Space exploration with human proxy robots |
US10035264B1 (en) | 2015-07-13 | 2018-07-31 | X Development Llc | Real time robot implementation of state machine |
KR101962889B1 (ko) * | 2015-07-27 | 2019-03-28 | 한국전자통신연구원 | 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법 |
DE112016006116T5 (de) * | 2016-01-29 | 2018-09-13 | Mitsubishi Electric Corporation | Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms |
US10919152B1 (en) * | 2017-05-30 | 2021-02-16 | Nimble Robotics, Inc. | Teleoperating of robots with tasks by mapping to human operator pose |
CN108664021A (zh) * | 2018-04-12 | 2018-10-16 | 江苏理工学院 | 基于遗传算法和五次多项式插值的机器人路径规划方法 |
US11104001B2 (en) | 2019-03-13 | 2021-08-31 | Sony Interactive Entertainment Inc. | Motion transfer of highly dimensional movements to lower dimensional robot movements |
JP2020203341A (ja) * | 2019-06-17 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット制御システム |
CN110421559B (zh) * | 2019-06-21 | 2021-01-05 | 国网安徽省电力有限公司淮南供电公司 | 配网带电作业机器人的遥操作方法和动作轨迹库构建方法 |
CN113967911B (zh) * | 2019-12-31 | 2023-06-13 | 浙江大学 | 基于末端工作空间的仿人机械臂的跟随控制方法及系统 |
CN113561185B (zh) * | 2021-09-23 | 2022-01-11 | 中国科学院自动化研究所 | 一种机器人控制方法、装置及存储介质 |
CN116901055B (zh) * | 2023-05-19 | 2024-04-19 | 兰州大学 | 仿人手交互控制方法和装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007125670A (ja) * | 2005-11-07 | 2007-05-24 | Advanced Telecommunication Research Institute International | ロボット用表現動作変換システム |
JP2008080431A (ja) * | 2006-09-27 | 2008-04-10 | Advanced Telecommunication Research Institute International | ロボットシステム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5946673A (en) * | 1996-07-12 | 1999-08-31 | Francone; Frank D. | Computer implemented machine learning and control system |
US6738753B1 (en) * | 2000-08-21 | 2004-05-18 | Michael Andrew Hogan | Modular, hierarchically organized artificial intelligence entity |
US7249116B2 (en) * | 2002-04-08 | 2007-07-24 | Fiske Software, Llc | Machine learning |
JP4878842B2 (ja) * | 2003-11-13 | 2012-02-15 | 独立行政法人科学技術振興機構 | ロボットの駆動方法 |
US7313463B2 (en) * | 2005-03-31 | 2007-12-25 | Massachusetts Institute Of Technology | Biomimetic motion and balance controllers for use in prosthetics, orthotics and robotics |
US7328194B2 (en) * | 2005-06-03 | 2008-02-05 | Aspeed Software Corporation | Method and system for conditioning of numerical algorithms for solving optimization problems within a genetic framework |
-
2008
- 2008-09-01 KR KR1020080085922A patent/KR100995933B1/ko not_active IP Right Cessation
- 2008-09-25 US US12/238,199 patent/US20100057255A1/en not_active Abandoned
- 2008-11-27 JP JP2008302457A patent/JP2010058260A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007125670A (ja) * | 2005-11-07 | 2007-05-24 | Advanced Telecommunication Research Institute International | ロボット用表現動作変換システム |
JP2008080431A (ja) * | 2006-09-27 | 2008-04-10 | Advanced Telecommunication Research Institute International | ロボットシステム |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108290293A (zh) * | 2015-11-16 | 2018-07-17 | 早石直广 | 链路序列映射装置,链路序列映射方法和程序 |
CN108290293B (zh) * | 2015-11-16 | 2021-05-14 | 株式会社计数技研 | 链路序列映射装置,链路序列映射方法和程序 |
WO2017086364A1 (ja) * | 2015-11-16 | 2017-05-26 | 直広 早石 | リンク列マッピング装置、リンク列マッピング方法、及びプログラム |
JP5892531B1 (ja) * | 2015-11-16 | 2016-03-23 | プレンプロジェクト・ホールディングス有限会社 | リンク列マッピング装置、リンク列マッピング方法、及びプログラム |
US10899005B2 (en) | 2015-11-16 | 2021-01-26 | Keisuu Giken Co., Ltd. | Link-sequence mapping device, link-sequence mapping method, and program |
WO2017159562A1 (ja) * | 2016-03-14 | 2017-09-21 | オムロン株式会社 | 動作情報生成装置 |
JPWO2017159562A1 (ja) * | 2016-03-14 | 2019-01-17 | オムロン株式会社 | 動作情報生成装置 |
CN106444738B (zh) * | 2016-05-24 | 2019-04-09 | 武汉科技大学 | 基于动态运动基元学习模型的移动机器人路径规划方法 |
CN106444738A (zh) * | 2016-05-24 | 2017-02-22 | 武汉科技大学 | 基于动态运动基元学习模型的移动机器人路径规划方法 |
WO2019142229A1 (ja) * | 2018-01-16 | 2019-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット装置、ロボット装置の制御方法およびプログラム |
US11648672B2 (en) | 2018-01-16 | 2023-05-16 | Sony Interactive Entertainment Inc. | Information processing device and image generation method |
US11733705B2 (en) | 2018-01-16 | 2023-08-22 | Sony Interactive Entertainment Inc. | Moving body and moving body control method |
US11780084B2 (en) | 2018-01-16 | 2023-10-10 | Sony Interactive Entertainment Inc. | Robotic device, control method for robotic device, and program |
CN108255058A (zh) * | 2018-01-18 | 2018-07-06 | 山东大学深圳研究院 | 智能空间下的服务机器人逆运动学求解方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
KR100995933B1 (ko) | 2010-11-22 |
US20100057255A1 (en) | 2010-03-04 |
KR20100026785A (ko) | 2010-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010058260A (ja) | 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法 | |
Wang et al. | Swingbot: Learning physical features from in-hand tactile exploration for dynamic swing-up manipulation | |
Zhao et al. | Robust realtime physics-based motion control for human grasping | |
Wang et al. | Controlling object hand-over in human–robot collaboration via natural wearable sensing | |
Mandikal et al. | Dexvip: Learning dexterous grasping with human hand pose priors from video | |
Saeedvand et al. | A comprehensive survey on humanoid robot development | |
Zacharias et al. | Making planned paths look more human-like in humanoid robot manipulation planning | |
CN112297013B (zh) | 一种基于数字孪生和深度神经网络的机器人智能抓取方法 | |
JP5489965B2 (ja) | 行動制御システムおよびロボット | |
Xu et al. | Development of a hybrid motion capture method using MYO armband with application to teleoperation | |
Liarokapis et al. | Deriving dexterous, in-hand manipulation primitives for adaptive robot hands | |
Ruggiero et al. | Nonprehensile manipulation of deformable objects: Achievements and perspectives from the robotic dynamic manipulation project | |
Lin et al. | Task-based grasp quality measures for grasp synthesis | |
CN110428464A (zh) | 基于深度学习的多类别乱序工件机器人抓取位姿估计方法 | |
Gao et al. | Modular, accessible, sensorized objects for evaluating the grasping and manipulation capabilities of grippers and hands | |
Turco et al. | Grasp planning with a soft reconfigurable gripper exploiting embedded and environmental constraints | |
Arsenic | Developmental learning on a humanoid robot | |
Sun et al. | Multi-object grasping-types and taxonomy | |
Starke et al. | A memetic evolutionary algorithm for real-time articulated kinematic motion | |
Liarokapis et al. | Learning the post-contact reconfiguration of the hand object system for adaptive grasping mechanisms | |
Auerbach et al. | How robot morphology and training order affect the learning of multiple behaviors | |
Billard et al. | Discovering imitation strategies through categorization of multi-dimensional data | |
Marić et al. | Robot arm teleoperation via RGBD sensor palm tracking | |
Tao et al. | A multi-agent approach for adaptive finger cooperation in learning-based in-hand manipulation | |
Wang et al. | A visual grasping strategy for improving assembly efficiency based on deep reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111108 |