JP2010201611A - 模倣学習のためのタスク固有の表現の自動選択を備えたロボット - Google Patents

模倣学習のためのタスク固有の表現の自動選択を備えたロボット Download PDF

Info

Publication number
JP2010201611A
JP2010201611A JP2010025636A JP2010025636A JP2010201611A JP 2010201611 A JP2010201611 A JP 2010201611A JP 2010025636 A JP2010025636 A JP 2010025636A JP 2010025636 A JP2010025636 A JP 2010025636A JP 2010201611 A JP2010201611 A JP 2010201611A
Authority
JP
Japan
Prior art keywords
robot
task
task space
movement
space representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010025636A
Other languages
English (en)
Other versions
JP5361756B2 (ja
JP2010201611A5 (ja
Inventor
Michael Gienger
ミヒャエル・ギーンゲル
Manuel Muehlig
マヌエル・ミューリグ
Jochen Steil
ヨッヒェン・シュタイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2010201611A publication Critical patent/JP2010201611A/ja
Publication of JP2010201611A5 publication Critical patent/JP2010201611A5/ja
Application granted granted Critical
Publication of JP5361756B2 publication Critical patent/JP5361756B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36442Automatically teaching, teach by showing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

【課題】模倣学習に優れたロボットの制御方法を提案すること。
【解決手段】該ロボットの環境におけるエンティティの動きを観察するステップと、感覚データストリームを用いて該観察した動きを記録し、該記録した動きを、異なるタスク空間表現で表現するステップと、前記模倣学習のために前記タスク空間表現の一部を選択し、模倣されるべき該動きを再現するステップであって、該タスク空間表現の一部は、該動きを再現するため、1つのタスク空間表現を含み、または、一連の異なるタスク空間表現を含む、ステップと、を含む方法を用いる。
【選択図】図1

Description

本発明は、概して、自律型ロボットに関する。また、本発明は、ロボットによる模倣学習プロセスを向上させるための方法に関する。
本発明は、動き模倣データの適切なタスク固有の表現を自律的に選択するためのメカニズムを提供し、それによって、このようなシステムの自律性を向上させる。自律的な選択は、統計的な意思決定、教師とのインタラクション、モデルに基づく事前知識のような、複数の統合化されたキュー(合図)によって駆動されることができる。
“模倣学習”は、自律型ロボットの分野の当業者には周知の用語であり、その説明は下記の非特許文献に見つけることができる。
Bekey著、「Autonomous robots」、The MIT press、2005年、第6.12章
本発明の目的は、ロボットの、動きの模倣学習を、より効率的なものにすることである。
本発明の目的は、独立請求項の特徴によって達成される。従属請求項は、さらに、本発明の主要なアイデアを発展させるものである。
本発明の第1の側面によると、ロボットの、動きの模倣学習のための方法が提供される。ここで、ロボットは、次のステップを実行する:
−ロボットの環境におけるエンティティの動きを観察すること、
−感覚(sensorial)データストリームを用いて該観察した動きを記録し、該記録した動きを、異なるタスク空間表現(task space representation)で表現すること、および、
−上記の模倣学習のために該タスク空間表現の一部を選択して、模倣されるべき該動きの再現を行うこと。
タスク空間表現の一部を選択するステップは、該ロボットが、該感覚データストリームから抽出するキューを用いることができる。
また、タスク空間表現の一部を選択するステップは、該動きの複数の実演にわたる変動(variance)を用いることができる。ここで、該観察によって試行間の変動がもっと低いとされたタスク空間表現が、選択される。
タスク空間表現の一部を選択するステップは、注意(attention)に基づく方法を用いてもよい。
タスク空間表現の一部を選択するステップは、人間の教師の運動ないし動的なシミュレーションを用いることができる。
上記の選択するステップのタスク要素を、タスクの実演中に教師の、たとえば既定(デフォルト)の姿勢からのずれのような不快性(discomfort)、かつ、エフェクタのジョイント(関節)のトルクに基づくような努力性(effort)、を介して定義することができる。
タスク空間の選択は、ロボットの動き再現プロセスに影響することができる。
本発明は、また、コンピュータプログラム製品に関し、これは、ロボットのコンピューティング・デバイス上で稼動するときに上記のような方法を実行する。
本発明は、さらに、そのような方法を実行するよう設計されたコンピューティング・ユニットを有するロボットに関し、好ましくは、人間型ロボットに関する。
ロボットは、産業用ロボットでもよく、これは、模倣学習によって作業工程のシーケンスを学習する。
添付の図面とともに好ましい実施形態の以下の記載を参照すれば、当業者にとって、さらなる利点、目的、および特徴は明らかである。
ロボットのコンピューティング・ユニットの一部である、タスク空間選択ユニットを示す図である。 特定のタスク空間の重要性を表す適合値を表す図である。
たとえばホンダのアシモ(ASIMO)ロボットのような人間型ロボット(Bekeyの第13章を参照)や産業用ロボットのように、多数の自由度を備えるロボットが、たとえば人間の教師のような、その環境(すなわち、ロボットの、たとえば視覚センサによってカバーされる空間)におけるエンティティを、観察、記録、および模倣することによって新しい動きを学んでいくとき、いわゆるタスク空間(作業空間)内でのタスク固有の表現(task-specific representation)が提示される。タスク固有の表現は、学習するデータの次元を低減し、対応する問題を容易化すると共に、さらなる一般化を可能にする。
本発明は、異なる性質の複数のキュー(cues,合図)を評価することによって、そのようなタスク空間を自律的に選択するメカニズム(すなわち、ロボットのコンピューティング・ユニットによって実行される)を提供する。
本発明による当該選択は、異なる座標系におけるロボットおよび環境の状態を表す複数のタスク空間から、行われる。
「キュー(合図)」は、模倣学習のセッション中に、感覚的な入力(sensorial input)からロボットが抽出する選択基準である。
図1を参照して、自動タスク空間選択ユニットと共に、模倣学習プロセスを説明する。該タスク空間選択ユニットは、ロボットのコンピューティング・ユニットにおける論理ユニットである。
学習されることとなる動きは、該ロボットの環境における教師または他のエンティティ(たとえば、他のロボット、動物等)によって実演される。ロボットは、実演された動きを、たとえばビデオカメラ等のセンサ手段を用いて観察する。該センサ手段は、データストリームを、該ロボットのコンピューティング・ユニットに供給する。
観察された実演の動きのデータストリームは、“生データ”として、該ロボットのコンピューティング・ユニットに接続されてアクセスされるデータ記憶手段に記録される。
たとえば、モーション・キャプチャ(motion capture)または色追跡(color tracking)のような視覚ベースの技術を、該観察された実演の動きを記録するのに用いることができる。
この“生データ”は、その後、異なる可能なタスク空間に投影される(すなわち、表現される)。ここで、これらの該タスク空間は、“タスク空間のプール”に包含される。
タスク空間プールは、たとえば先行の学習ステップにおいて、プログラミングにより予め設定され、もしくはロボットによって自律的に設定されることができる。
たとえば握る(grasping)というタスクについての可能なタスク空間の表現(座標系)は、次のようであることができる:
−ロボットのエンドエフェクタの絶対的な位置、
−ロボットのエンドエフェクタの、握られる対象物に対する相対的な位置、
−ロボットのエンドエフェクタの向き、および、
−ロボットが2つの手(ハンド)を持つものならば、該2つの手の位置についても制御することができる。
既知の模倣学習のアプローチでは、これらのタスク空間のすべてが用いられて、学習されるタスクを表現するか、もしくは、該タスクに最も良好に適合するこれらの一部が手動で選択されるか、であった。このような手動が介在することは、模倣学習のフレームワーク全体の無限性(open-endedness(際限なく知識を獲得していく性質のこと))およびインタラクティブな能力(interactive capability)を強く制限する。
それに対し、本発明では、ロボットの“タスク空間セレクタ”ユニットがこれを自動的に行う。タスク空間セレクタユニットがどのように模倣学習プロセスに影響を与えるかについては、2つの手法がある。
第1の手法(1)では、タスク空間表現の一部が、“タスク空間プール”から選択され、他のすべてのタスク空間は破棄される。この選択は、たとえば、感覚データストリーム(sensorial data stream)から好ましくは抽出される選択基準(以下、“キュー(合図)”と呼ばれる)に基づいて実行されることができる。したがって、実際に有効な(これは、該選択基準によって表現される)タスク空間のみが表現され、これがその後にロボットによって再現され、これと共に、残りのタスク空間を破棄することができる。
模倣されるべき動きが一旦学習されたならば、該学習された動きを効率的に(ロボットの制約の中で)再現するために、好ましくは最適化の手法が、異なるタスク空間表現に適用される。よって、第2の手法では、“タスク空間セレクタ”ユニットは、適合値によって、動きの“再現”に影響を及ぼすことができる。該適合値は、異なるキューが重要と“信じる”ものの重み付けされた組み合わせであり、したがって、該適合値は、たとえば以下のものに基づくことができる:
−試行間の変動、
−不快性(discomfort)、
−ジョイント(関節)のトルク、
−注意信号(attention signal)。
ロボットが、学習した動きを再現することができる前に、この動きを、異なる基準に関して最適化することができる。これらの基準は、たとえば、自己衝突の回避、ジョイントの限界を回避すること、バランスを維持すること、または、該動きを行いながら特定の位置を常に注視することというような付加的なタスクを実行すること、であることができる。この最適化は、たとえば進化的アルゴリズム(evolutionary algorithm)を用いて行われることができ、該アルゴリズムにおいて、適合関数(“コスト関数”)は、たとえばこれらの基準の観点から、異なる動きの品質(“適合性”)を評価し、対応する適合値を出力する。
様々なキューからの情報に基づいて、タスク空間セレクタは、該動きのすべての時間ステップにわたり、該動きの表現に使用されるすべてのタスク空間についての適合値を生成する。一例として(図2を参照)、動きの第1パートの間は右手のみを要し、第2パートの間は左手のみを要するというジェスチャ(身振り)を学習する。これについて、表現のために、おそらく2つのタスク空間が選択され、1つは、左手の位置のためのものであり、もう1つは右手の位置のためのものである。これらのタスク空間の両方について、タスク空間セレクタは、そのタスク空間の重要性(importance)を表現する適合値を生成する。正しい結果を生成するため、動きの最適化は、これらの適合値を用いて両方のタスク表現を混合(blend)する。
再現の間、たとえば重要性の基準に基づいて、複数のタスク空間を混合することができる。すなわち、タスク空間の単一の表現だけでなく、タスク空間の重み付けされた混合物をも用いることができる。異なるタスク空間表現を、学習された動きを実行するときに順番に用いることができる。
“タスク空間セレクタ”ユニット内に含まれるキューは、次のような非常に異なる特徴を持つことができる:
−いくつかのタスク実演にわたって試行間の変動が低ければ、高い重要性のタスク空間を割り当てる変動ベースの計測。後述する参考文献(2)において、該変動を重要な計測値として用いる基本的なアイデアが、良好に評価されている。この点に関し、該参考文献(2)の開示をここで参照により取り入れる。
−教師の挙動についての情報を包含するインタラクティブな(双方向な)キュー。重要性は、該教師による明示的な注意の生成を介して定義される。後述する参考文献(3)では、親―幼児間の研究分野での実験が、重要性を定義するためのそのような注意のメカニズムを示している。この点に関し、該参考文献(3)の開示をここで参照により取り入れる。
−人間の実演者の不快性(discomfort)および努力性(effort)を解析するのに用いられる人間モデルの運動ないし動的なシミュレーション。人間が経験した快適でない姿勢は、該タスクにとって重要となりうる。後述する従来の参考文献(4)は、模倣についてのタスク重要性を定義する目的で、人間の姿勢を分析することに代えて、該人間の姿勢を予測するために同様のコスト関数を使用している。この点に関し、該参考文献(4)の開示を参照により取り入れる。
例1:対象物を動かすためのタスク空間
この例では、ロボットは、対象物(たとえば、ボール)をバスケットに入れることを学習する。このため、人間の教師が、ロボットに対し、ボールとバスケットについての開始位置が異なる複数の状況で該タスクを実行する方法について、一組の実演をして見せる。“タスク空間プール”における可能なタスク空間は、次の通りである:
−ボールの絶対位置、
−バスケットの絶対位置、
−ボールのバスケットに対する相対位置、
−そのシーン(場面)において他の対象物が存在しうるので、付加的なタスク空間(たとえば、ボールの、他の認識された対象物に対する位置)。
この例では、該タスクを表現するのに使用すべきタスク空間を自動的に決定するために、“タスク空間セレクタ”の以下の2つの要素が使用される。
最初に、動かされるべき重要な対象物がボールであるということを、インタラクティブなキューが信号化する。これは、現に該対象物を動かして注意を生成する教師から得られる。これにより、ボールに関連するもののみに、一組のタスク空間が厳密に制限される。
次に、教師が、該タスクを異なる条件下で数回実演するので、統計的な評価が、さらに、これらのボール関連のタスク空間のどれが重要かを決定することができる。統計的評価の考えでは、タスクの重要性は、複数の実演動作にわたり試行間の変動が小さいということであるが、このことは、当該例にも適用される。すなわち、該評価により、ボールの絶対位置の使用が非常に変化しやすいことが示されるからである。しかしながら、バスケットに対するボールの位置の変動は小さく、よって、より良好な表現となる。
“タスク空間セレクタ”は、ボールおよびバスケットの相対的な位置を、“選択されたタスク空間”として用いることを決定し、“表現(Representation)”に直接影響を及ぼす。
異なるタスク空間の間での決定が容易でない場合、“タスク空間セレクタ”は、また、複数のタスク空間を表現するよう決定することができる。その後、適合値(たとえば、統計的評価からの変動情報、インタラクティブなキューからの注意信号)を用いて、これらのタスク空間を混合し、あるいは動き再現の間に非活性化(deactivate)することができる。
例2:ジェスチャ(身振り)のためのタスク空間
この例は、身体の異なるパーツの、タスクに関係した動きを決定するため、人間モデルの運動シミュレーションを使用することについて説明する。人間型ロボットは、片方または両方のアーム(腕)でジェスチャを再現することを学習する。したがって、この例での主要な問題は、どのアームが、学習する該ジェスチャに必要とされるか、である。前述した例のように、統計的評価のみを用いることは、この問題に答えるのに十分ではない。なぜならば、該動きが1つのアームで実行されるならば、他のアームは、静止したままであるからである。これは、複数の実演動作にわたり試行間の変動が低いこととなる。しかしながら、必要とされないアームの静止は、該表現の一部とはならない。他方、アームを静止した状態に保持することは、必ずしも、これが重要でないことを意味するものではない。
これらの問題を克服するため、モデルに基づく(モデルベースの)キューが、“タスク空間セレクタ”内で用いられる。人間の教師の観察された動きは、運動シミュレーション内で、人間モデル上にマッピングされる。このモデルに基づいて、異なるコスト関数が評価される。各アームの努力値(effort value)が、すべてのアームのジョイント(関節)のトルクに基づいて計算される。その後、不快性(discomfort)が推定され、これは、そのアイドル(idle)位置からの人間の姿勢のずれが大きくなるにつれて、増大する。
これらの2つの計測を用いて、“タスク空間セレクタ”は、どのアームが、実演されたジェスチャに必要とされるかについてロバストに決定し、それに応じて表現を選択することができる。
参考文献
(1)M. Toussaint, M. Gienger およびC.Goerickによる”Optimization of sequential attractor-based movement for compact behavior generation”, 7th IEEE-RAS International Conference on Humanoid Robots (Humanoids 2007), 2007
(2)M. Muhligによる”Task learning of bimanual object handling”, diploma thesis, 2008
(3)Y. Nagai およびK. J. Rohlfingによる、”Parental Action Modification Highlighting the Goal versus the Means”, in Proceedings of IEEE 7th International Conference on Development and Learning (ICDL’08), August 2008.
(4)K. Abdel-Malek, J. Yang, Z. Mi, V. Patel およびK. Nebelによる”Human Upper Body Motion Prediction”, Applied Simulation and Modelling, 2004.
用語
−エフェクタ(effector):制御されているロボットのパーツ(部分)。これは、たとえば、手または頭であることができる。
−タスク・ベクトル(task vector): 制御される変数を備えるベクトル。人間型ロボットの場合、これは、たとえば手の位置、または頭の注視方向であることができる。
−自由度(degrees of freedom):自由度は、システムが動くことを許容される最小の一組の座標である。これらは、制御可能であることもできるし(ロボットの駆動されるジョイントのように)、または制御されないようにすることもできる。
−配置空間(Configuration space):自由度によってカバーされる空間
−ジョイント空間(Joint space):この用語はロボット工学において用いられることが多く、上記の配置空間を意味する。
−タスク空間(task space):タスク・ベクトルによって記述される空間。たとえば、ロボットの手の位置がx、y、z方向において制御されれば、該タスク空間は、3つの次元を持ち、これらの座標によってカバーされる。

Claims (12)

  1. ロボットの動きの模倣学習のための方法であって、該ロボットが、
    該ロボットの環境におけるエンティティの動きを観察するステップと、
    感覚データストリームを用いて該観察した動きを記録し、該記録した動きを、異なるタスク空間表現で表現するステップと、
    前記模倣学習のために前記タスク空間表現の一部を選択し、模倣されるべき該動きを再現するステップであって、該タスク空間表現の一部は、該動きを再現するため、1つのタスク空間表現を含み、または、一連の異なるタスク空間表現を含む、ステップと、
    を含む方法。
  2. 前記タスク空間表現の一部を選択することは、前記ロボットが前記感覚データストリームから抽出するキューを用いる、
    請求項1に記載の方法。
  3. 前記タスク空間表現の一部を選択することは、前記動きの複数の実演にわたる変動を用い、前記観察によって試行間の変動が最も低いタスク空間表現が選択される、
    請求項2に記載の方法。
  4. 前記タスク空間表現の一部を選択することは、注意に基づくメカニズムを用いる、
    請求項2または3に記載の方法。
  5. 前記タスク空間表現の一部を選択することは、人間の教師の運動または動的なシミュレーションを用いる、
    請求項2から4のいずれかに記載の方法。
  6. 前記タスク空間表現の一部を選択するためのタスク要素は、前記タスクの実演中の前記教師の、既定の姿勢からのずれのような不快性、および、エフェクタのジョイントのトルクに基づくような努力性を介して定義される、
    請求項5に記載の方法。
  7. 前記タスク空間の選択は、前記ロボットの前記動きの再現プロセスに影響する、
    請求項1から6のいずれかに記載の方法。
  8. 前記動きを効率的に再現するため、最適化が、前記異なるタスク空間表現に適用される、
    請求項1から7のいずれかに記載の方法。
  9. 前記異なるタスク空間表現は、学習された動きを再現するときに、時系列に用いられる、
    請求項1から8のいずれかに記載の方法。
  10. ロボットのコンピューティング・デバイス上で実行するときに請求項1から9のいずれかに記載の方法を実行する、コンピュータプログラム製品。
  11. 請求項1から9のいずれかに記載の方法を実行するよう設計されたコンピューティング・ユニットを有する、好ましくは人間型ロボットであるロボット。
  12. 前記ロボットは、模倣学習によって作業工程のシーケンスを学習する産業用ロボットである、
    請求項11に記載のロボット。
JP2010025636A 2009-02-27 2010-02-08 模倣学習のためのタスク固有の表現の自動選択を備えたロボット Expired - Fee Related JP5361756B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09153866A EP2224303B1 (en) 2009-02-27 2009-02-27 Robot with automatic selection of task-specific representations for imitation learning
EP09153866.0 2009-02-27

Publications (3)

Publication Number Publication Date
JP2010201611A true JP2010201611A (ja) 2010-09-16
JP2010201611A5 JP2010201611A5 (ja) 2013-02-28
JP5361756B2 JP5361756B2 (ja) 2013-12-04

Family

ID=41401902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025636A Expired - Fee Related JP5361756B2 (ja) 2009-02-27 2010-02-08 模倣学習のためのタスク固有の表現の自動選択を備えたロボット

Country Status (4)

Country Link
US (1) US8571714B2 (ja)
EP (1) EP2224303B1 (ja)
JP (1) JP5361756B2 (ja)
DE (1) DE602009000644D1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115918A (ja) * 2010-11-29 2012-06-21 Honda Motor Co Ltd 位置情報制御システム、位置情報制御装置、位置情報制御方法、及び位置情報制御プログラム
WO2019142229A1 (ja) * 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント ロボット装置、ロボット装置の制御方法およびプログラム
US11648672B2 (en) 2018-01-16 2023-05-16 Sony Interactive Entertainment Inc. Information processing device and image generation method
US11733705B2 (en) 2018-01-16 2023-08-22 Sony Interactive Entertainment Inc. Moving body and moving body control method

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH700243A1 (de) 2009-01-12 2010-07-15 Ferag Ag Computergesteuertes fördersystem und förderverfahren.
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
JP2013022705A (ja) 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US8862523B2 (en) * 2011-10-28 2014-10-14 Microsoft Corporation Relational learning for system imitation
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
DE102012020314B4 (de) 2012-10-16 2015-03-19 Dietmar Gude Verfahren und Vorrichtung zur Unterstützung der Nachahmung von Verhalten
US9056396B1 (en) 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US20150032258A1 (en) * 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9782896B2 (en) * 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
DE102015001741A1 (de) * 2015-02-11 2016-08-11 Kuka Roboter Gmbh Verfahren und System zum Betreiben einer mehrachsigen Maschine, insbesondere eines Roboters
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
CN105739444A (zh) * 2016-04-06 2016-07-06 济南大学 机械手多参数控制脑机接口
TWI805545B (zh) * 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
WO2019060632A1 (en) * 2017-09-20 2019-03-28 Google Llc OPTIMIZING POLICY CONTROL DEVICES FOR ROBOTIC AGENTS USING IMAGE INTEGRATIONS
US20220226994A1 (en) * 2020-07-20 2022-07-21 Georgia Tech Research Corporation Heterogeneous graph attention networks for scalable multi-robot scheduling

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192548A (ja) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research 身まねロボットシステムとその身まね動作制御方法
JP2009276886A (ja) * 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US20040006566A1 (en) * 2000-11-07 2004-01-08 Matt Taylor System and method for augmenting knowledge commerce
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
EP1972416B1 (en) * 2007-03-23 2018-04-25 Honda Research Institute Europe GmbH Robots with occlusion avoidance functionality
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
US7986118B2 (en) * 2007-04-23 2011-07-26 Honda Motor Co., Ltd. Open-loop torque control on joint position-controlled robots
US20090118864A1 (en) * 2007-11-01 2009-05-07 Bryce Eldridge Method and system for finding a tool center point for a robot using an external camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192548A (ja) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research 身まねロボットシステムとその身まね動作制御方法
JP2009276886A (ja) * 2008-05-13 2009-11-26 National Institute Of Information & Communication Technology 動作学習装置

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CSNG200501412016; 國吉 康夫 Yasuo Kuniyoshi: '等身大ヒューマノイドロボットによるダイナミック起き上がり行動の実現 Dynamic Roll-and-Rise Motion by' 日本ロボット学会誌 第23巻 第6号 Journal of the Robotics Society of Japan 第23巻, 社団法人日本ロボット学会 The Robotics Society of *
JPN6011069334; 國吉 康夫 Yasuo Kuniyoshi: '等身大ヒューマノイドロボットによるダイナミック起き上がり行動の実現 Dynamic Roll-and-Rise Motion by' 日本ロボット学会誌 第23巻 第6号 Journal of the Robotics Society of Japan 第23巻, 社団法人日本ロボット学会 The Robotics Society of *
JPN6011069335; Toussaint, M.; Gienger, M.; Goerick, C.;: 'Optimization of sequential attractor-based movement for compact behaviour generation' Proc. of IEEE International Conference on Humanoid Robots , 20071129, PP. 122-129, IEEE *
JPN6011069336; Nagai, Y.; Rohlfing, K.J.;: 'Parental action modification highlighting the goal versus the means' Proc. of IEEE International Conference on Development and Learning , 20080809, pp. 1-6, IEEE *
JPN6013040266; M.Gienger, H. Janben, C. Goerick: 'Exploiting Task Intervals for Whole Body Robot Control' Proc. of 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems , 20061009, pp. 2484 - 2490, IEEE *
JPN6013040268; N.Mansard, O.Stasse, P.Evrard and A.Kheddar: 'A versatile Generalized Inverted Kinematics implementation for collaborative working Humanoid Robots' Proc. of International Conference on Advanced Robotics, 2009 , 2009 *
JPN6013040273; P.Baerlocher and R.Boulic: 'Task-priority formulations for the kinematic control of highly redundant articulated structures' Proc. of 1998 IEEE/RSJ International Conference on Intelligent Robots and Systems,1998 Vol.1, 19981013, pp. 323 - 329, IEEE *
JPN7013003044; LUIS SENTIS, OUSSAMA KHATIB: 'Task-Oriented Control of Humanoid Robots through Prioritization' Proc. of IEEE-RAS/RSJ International Conference on Humanoid Robots , 2004 *
JPN7013003046; Sylvain Calinon and Aude Billard: 'Recognition and Reproduction of Gestures using a Probablistic Framework combining PCA, ICA and HMM' Proc. of the 22nd International Conference on Machine Learning, 2005 , 2005 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115918A (ja) * 2010-11-29 2012-06-21 Honda Motor Co Ltd 位置情報制御システム、位置情報制御装置、位置情報制御方法、及び位置情報制御プログラム
WO2019142229A1 (ja) * 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント ロボット装置、ロボット装置の制御方法およびプログラム
JPWO2019142229A1 (ja) * 2018-01-16 2021-01-14 株式会社ソニー・インタラクティブエンタテインメント ロボット装置、ロボット装置の制御方法およびプログラム
JP7064513B2 (ja) 2018-01-16 2022-05-10 株式会社ソニー・インタラクティブエンタテインメント ロボット装置、ロボット装置の制御方法およびプログラム
US11648672B2 (en) 2018-01-16 2023-05-16 Sony Interactive Entertainment Inc. Information processing device and image generation method
US11733705B2 (en) 2018-01-16 2023-08-22 Sony Interactive Entertainment Inc. Moving body and moving body control method
US11780084B2 (en) 2018-01-16 2023-10-10 Sony Interactive Entertainment Inc. Robotic device, control method for robotic device, and program

Also Published As

Publication number Publication date
US20100222924A1 (en) 2010-09-02
US8571714B2 (en) 2013-10-29
JP5361756B2 (ja) 2013-12-04
DE602009000644D1 (de) 2011-03-03
EP2224303B1 (en) 2011-01-19
EP2224303A1 (en) 2010-09-01

Similar Documents

Publication Publication Date Title
JP5361756B2 (ja) 模倣学習のためのタスク固有の表現の自動選択を備えたロボット
Jang et al. Bc-z: Zero-shot task generalization with robotic imitation learning
Wang et al. Swingbot: Learning physical features from in-hand tactile exploration for dynamic swing-up manipulation
US9387589B2 (en) Visual debugging of robotic tasks
Dillmann Teaching and learning of robot tasks via observation of human performance
Grollman et al. Dogged learning for robots
Winfield et al. On embodied memetic evolution and the emergence of behavioural traditions in robots
US20220161424A1 (en) Device and method for controlling a robotic device
Rozo et al. Robot learning from demonstration of force-based tasks with multiple solution trajectories
US20220105625A1 (en) Device and method for controlling a robotic device
Sidiropoulos et al. A human inspired handover policy using gaussian mixture models and haptic cues
Hertkorn Shared grasping: A combination of telepresence and grasp planning
Ly et al. Intent-aware predictive haptic guidance and its application to shared control teleoperation
Mitrevski et al. “Lucy, take the noodle box!”: domestic object manipulation using movement primitives and whole body motion
Kerzel et al. Nicol: A neuro-inspired collaborative semi-humanoid robot that bridges social interaction and reliable manipulation
Mielke et al. Human-robot co-manipulation of extended objects: Data-driven models and control from analysis of human-human dyads
Emmerich et al. Assisted gravity compensation to cope with the complexity of kinesthetic teaching on redundant robots
Bottega et al. Virtual reality platform to develop and test applications on human-robot social interaction
Yamane Kinematic redundancy resolution for humanoid robots by human motion database
WO2022211403A1 (en) Hybrid robotic motion planning system using machine learning and parametric trajectories
Chen et al. A simple method for complex in-hand manipulation
Vanc et al. Communicating human intent to a robotic companion by multi-type gesture sentences
Sylari et al. Hand gesture-based on-line programming of industrial robot manipulators
Nakajo et al. Acquisition of viewpoint representation in imitative learning from own sensory-motor experiences
Jung et al. From motion capture to action capture: A review of imitation learning techniques and their application to VR-based character animation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees