JP5361756B2 - 模倣学習のためのタスク固有の表現の自動選択を備えたロボット - Google Patents

模倣学習のためのタスク固有の表現の自動選択を備えたロボット Download PDF

Info

Publication number
JP5361756B2
JP5361756B2 JP2010025636A JP2010025636A JP5361756B2 JP 5361756 B2 JP5361756 B2 JP 5361756B2 JP 2010025636 A JP2010025636 A JP 2010025636A JP 2010025636 A JP2010025636 A JP 2010025636A JP 5361756 B2 JP5361756 B2 JP 5361756B2
Authority
JP
Japan
Prior art keywords
robot
task
task space
movement
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010025636A
Other languages
English (en)
Other versions
JP2010201611A (ja
JP2010201611A5 (ja
Inventor
ミヒャエル・ギーンゲル
マヌエル・ミューリグ
ヨッヒェン・シュタイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2010201611A publication Critical patent/JP2010201611A/ja
Publication of JP2010201611A5 publication Critical patent/JP2010201611A5/ja
Application granted granted Critical
Publication of JP5361756B2 publication Critical patent/JP5361756B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36442Automatically teaching, teach by showing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Description

本発明は、概して、自律型ロボットに関する。また、本発明は、ロボットによる模倣学習プロセスを向上させるための方法に関する。
本発明は、動き模倣データの適切なタスク固有の表現を自律的に選択するためのメカニズムを提供し、それによって、このようなシステムの自律性を向上させる。自律的な選択は、統計的な意思決定、教師とのインタラクション、モデルに基づく事前知識のような、複数の統合化されたキュー(合図)によって駆動されることができる。
“模倣学習”は、自律型ロボットの分野の当業者には周知の用語であり、その説明は下記の非特許文献に見つけることができる。
Bekey著、「Autonomous robots」、The MIT press、2005年、第6.12章
本発明の目的は、ロボットの、動きの模倣学習を、より効率的なものにすることである。
本発明の目的は、独立請求項の特徴によって達成される。従属請求項は、さらに、本発明の主要なアイデアを発展させるものである。
本発明の第1の側面によると、ロボットの、動きの模倣学習のための方法が提供される。ここで、ロボットは、次のステップを実行する:
−ロボットの環境におけるエンティティの動きを観察すること、
−感覚(sensorial)データストリームを用いて該観察した動きを記録し、該記録した動きを、異なるタスク空間表現(task space representation)で表現すること、および、
−上記の模倣学習のために該タスク空間表現の一部を選択して、模倣されるべき該動きの再現を行うこと。
タスク空間表現の一部を選択するステップは、該ロボットが、該感覚データストリームから抽出するキューを用いることができる。
また、タスク空間表現の一部を選択するステップは、該動きの複数の実演にわたる変動(variance)を用いることができる。ここで、該観察によって試行間の変動がもっと低いとされたタスク空間表現が、選択される。
タスク空間表現の一部を選択するステップは、注意(attention)に基づく方法を用いてもよい。
タスク空間表現の一部を選択するステップは、人間の教師の運動ないし動的なシミュレーションを用いることができる。
上記の選択するステップのタスク要素を、タスクの実演中に教師の、たとえば既定(デフォルト)の姿勢からのずれのような不快性(discomfort)、かつ、エフェクタのジョイント(関節)のトルクに基づくような努力性(effort)、を介して定義することができる。
タスク空間の選択は、ロボットの動き再現プロセスに影響することができる。
本発明は、また、コンピュータプログラム製品に関し、これは、ロボットのコンピューティング・デバイス上で稼動するときに上記のような方法を実行する。
本発明は、さらに、そのような方法を実行するよう設計されたコンピューティング・ユニットを有するロボットに関し、好ましくは、人間型ロボットに関する。
ロボットは、産業用ロボットでもよく、これは、模倣学習によって作業工程のシーケンスを学習する。
添付の図面とともに好ましい実施形態の以下の記載を参照すれば、当業者にとって、さらなる利点、目的、および特徴は明らかである。
ロボットのコンピューティング・ユニットの一部である、タスク空間選択ユニットを示す図である。 特定のタスク空間の重要性を表す適合値を表す図である。
たとえばホンダのアシモ(ASIMO)ロボットのような人間型ロボット(Bekeyの第13章を参照)や産業用ロボットのように、多数の自由度を備えるロボットが、たとえば人間の教師のような、その環境(すなわち、ロボットの、たとえば視覚センサによってカバーされる空間)におけるエンティティを、観察、記録、および模倣することによって新しい動きを学んでいくとき、いわゆるタスク空間(作業空間)内でのタスク固有の表現(task-specific representation)が提示される。タスク固有の表現は、学習するデータの次元を低減し、対応する問題を容易化すると共に、さらなる一般化を可能にする。
本発明は、異なる性質の複数のキュー(cues,合図)を評価することによって、そのようなタスク空間を自律的に選択するメカニズム(すなわち、ロボットのコンピューティング・ユニットによって実行される)を提供する。
本発明による当該選択は、異なる座標系におけるロボットおよび環境の状態を表す複数のタスク空間から、行われる。
「キュー(合図)」は、模倣学習のセッション中に、感覚的な入力(sensorial input)からロボットが抽出する選択基準である。
図1を参照して、自動タスク空間選択ユニットと共に、模倣学習プロセスを説明する。該タスク空間選択ユニットは、ロボットのコンピューティング・ユニットにおける論理ユニットである。
学習されることとなる動きは、該ロボットの環境における教師または他のエンティティ(たとえば、他のロボット、動物等)によって実演される。ロボットは、実演された動きを、たとえばビデオカメラ等のセンサ手段を用いて観察する。該センサ手段は、データストリームを、該ロボットのコンピューティング・ユニットに供給する。
観察された実演の動きのデータストリームは、“生データ”として、該ロボットのコンピューティング・ユニットに接続されてアクセスされるデータ記憶手段に記録される。
たとえば、モーション・キャプチャ(motion capture)または色追跡(color tracking)のような視覚ベースの技術を、該観察された実演の動きを記録するのに用いることができる。
この“生データ”は、その後、異なる可能なタスク空間に投影される(すなわち、表現される)。ここで、これらの該タスク空間は、“タスク空間のプール”に包含される。
タスク空間プールは、たとえば先行の学習ステップにおいて、プログラミングにより予め設定され、もしくはロボットによって自律的に設定されることができる。
たとえば握る(grasping)というタスクについての可能なタスク空間表現(座標系)は、
次のようなものとなり得る:
−ロボットのエンドエフェクタの絶対位置、
−ロボットのエンドエフェクタの、握られる対象物に対する相対位置、および、
−ロボットのエンドエフェクタの向き。
既知の模倣学習のアプローチでは、これらのタスク空間のすべてが用いられて、学習されるタスクを表現するか、もしくは、該タスクに最も良好に適合するこれらの一部が手動で選択されるか、であった。このような手動が介在することは、模倣学習のフレームワーク全体の無限性(open-endedness(際限なく知識を獲得していく性質のこと))およびインタラクティブな能力(interactive capability)を強く制限する。
それに対し、本発明では、ロボットの“タスク空間セレクタ”ユニットがこれを自動的に行う。タスク空間セレクタユニットがどのように模倣学習プロセスに影響を与えるかについては、2つの手法がある。
第1の手法(1)では、タスク空間表現の一部が、“タスク空間プール”から選択され、他のすべてのタスク空間は破棄される。この選択は、たとえば、感覚データストリーム(sensorial data stream)から好ましくは抽出される選択基準(以下、“キュー(合図)”と呼ばれる)に基づいて実行されることができる。したがって、実際に有効な(これは、該選択基準によって表現される)タスク空間のみが表現され、これがその後にロボットによって再現され、これと共に、残りのタスク空間を破棄することができる。
模倣されるべき動きが一旦学習されたならば、該学習された動きを効率的に(ロボットの制約の中で)再現するために、好ましくは最適化の手法が、異なるタスク空間表現に適用される。よって、第2の手法(2)では、“タスク空間セレクタ”ユニットは、適合値によって、動きの“再現”に影響を及ぼすことができる。該適合値は、異なるキューが重要と“信じる”ものの重み付けされた組み合わせであり、したがって、該適合値は、たとえば以下のものに基づくことができる:
−試行間の変動、
−不快性(discomfort)、
−ジョイント(関節)のトルク、
−注意信号(attention signal)。
ロボットが、学習した動きを再現することができる前に、この動きを、異なる基準に関して最適化することができる。これらの基準は、たとえば、自己衝突の回避、ジョイントの限界を回避すること、バランスを維持すること、または、該動きを行いながら特定の位置を常に注視することというような付加的なタスクを実行すること、であることができる。この最適化は、たとえば進化的アルゴリズム(evolutionary algorithm)を用いて行われることができ、該アルゴリズムにおいて、適合関数(“コスト関数”)は、たとえばこれらの基準の観点から、異なる動きの品質(“適合性”)を評価し、対応する適合値を出力する。
様々なキューからの情報に基づいて、タスク空間セレクタは、該動きのすべての時間ステップにわたり、該動きの表現に使用されるすべてのタスク空間についての適合値を生成する。一例として(図2を参照)、動きの第1パートの間は右手のみを要し、第2パートの間は左手のみを要するというジェスチャ(身振り)を学習する。これについて、表現のために、おそらく2つのタスク空間が選択され、1つは、左手の位置のためのものであり、もう1つは右手の位置のためのものである。これらのタスク空間の両方について、タスク空間セレクタは、そのタスク空間の重要性(importance)を表現する適合値を生成する。正しい結果を生成するため、動きの最適化は、これらの適合値を用いて両方のタスク表現を混合(blend)する。
再現の間、たとえば重要性の基準に基づいて、複数のタスク空間を混合することができる。すなわち、タスク空間の単一の表現だけでなく、タスク空間の重み付けされた混合物をも用いることができる。異なるタスク空間表現を、学習された動きを実行するときに順番に用いることができる。
“タスク空間セレクタ”ユニット内に含まれるキューは、次のような非常に異なる特徴を持つことができる:
−いくつかのタスク実演にわたって試行間の変動が低ければ、高い重要性のタスク空間を割り当てる変動ベースの計測。後述する参考文献[2]において、該変動を重要な計測値として用いる基本的なアイデアが、良好に評価されている。この点に関し、該参考文献[2]の開示をここで参照により取り入れる。
−教師の挙動についての情報を包含するインタラクティブな(双方向な)キュー。重要性は、該教師による明示的な注意の生成を介して定義される。後述する参考文献[3]では、親―幼児間の研究分野での実験が、重要性を定義するためのそのような注意のメカニズムを示している。この点に関し、該参考文献[3]の開示をここで参照により取り入れる。
−人間の実演者の不快性(discomfort)および努力性(effort)を解析するのに用いられる
人間モデルの運動ないし動的なシミュレーション。人間が経験した快適でない姿勢は、該タスクにとって重要となりうる。後述する従来の参考文献[4]は、模倣についてのタスク重要性を定義する目的で、人間の姿勢を分析することに代えて、該人間の姿勢を予測するために同様のコスト関数を使用している。この点に関し、該参考文献[4]の開示を参照により取り入れる。
例1:対象物を動かすためのタスク空間
この例では、ロボットは、対象物(たとえば、ボール)をバスケットに入れることを学習する。このため、人間の教師が、ロボットに対し、ボールとバスケットについての開始位置が異なる複数の状況で該タスクを実行する方法について、一組の実演をして見せる。“タスク空間プール”における可能なタスク空間は、次の通りである:
−ボールの絶対位置、
−バスケットの絶対位置、
−ボールのバスケットに対する相対位置、
−そのシーン(場面)において他の対象物が存在しうるので、付加的なタスク空間(たとえば、ボールの、他の認識された対象物に対する位置)。
この例では、該タスクを表現するのに使用すべきタスク空間を自動的に決定するために、“タスク空間セレクタ”の以下の2つの要素が使用される。
最初に、動かされるべき重要な対象物がボールであるということを、インタラクティブなキューが信号化する。これは、現に該対象物を動かして注意を生成する教師から得られる。これにより、ボールに関連するもののみに、一組のタスク空間が厳密に制限される。
次に、教師が、該タスクを異なる条件下で数回実演するので、統計的な評価が、さらに、これらのボール関連のタスク空間のどれが重要かを決定することができる。統計的評価の考えでは、タスクの重要性は、複数の実演動作にわたり試行間の変動が小さいということであるが、このことは、当該例にも適用される。すなわち、該評価により、ボールの絶対位置の使用が非常に変化しやすいことが示されるからである。しかしながら、バスケットに対するボールの位置の変動は小さく、よって、より良好な表現となる。
“タスク空間セレクタ”は、ボールおよびバスケットの相対的な位置を、“選択されたタスク空間”として用いることを決定し、“表現(Representation)”に直接影響を及ぼす。
異なるタスク空間の間での決定が容易でない場合、“タスク空間セレクタ”は、また、複数のタスク空間を表現するよう決定することができる。その後、適合値(たとえば、統計的評価からの変動情報、インタラクティブなキューからの注意信号)を用いて、これらのタスク空間を混合し、あるいは動き再現の間に非活性化(deactivate)することができる。
例2:ジェスチャ(身振り)のためのタスク空間
この例は、身体の異なるパーツの、タスクに関係した動きを決定するため、人間モデルの運動シミュレーションを使用することについて説明する。人間型ロボットは、片方または両方のアーム(腕)でジェスチャを再現することを学習する。したがって、この例での主要な問題は、どのアームが、学習する該ジェスチャに必要とされるか、である。前述した例のように、統計的評価のみを用いることは、この問題に答えるのに十分ではない。なぜならば、該動きが1つのアームで実行されるならば、他のアームは、静止したままであるからである。これは、複数の実演動作にわたり試行間の変動が低いこととなる。しかしながら、必要とされないアームの静止は、該表現の一部とはならない。他方、アームを静止した状態に保持することは、必ずしも、これが重要でないことを意味するものではない。
これらの問題を克服するため、モデルに基づく(モデルベースの)キューが、“タスク空間セレクタ”内で用いられる。人間の教師の観察された動きは、運動シミュレーション内で、人間モデル上にマッピングされる。このモデルに基づいて、異なるコスト関数が評価される。各アームの努力値(effort value)が、すべてのアームのジョイント(関節)のトルクに基づいて計算される。その後、不快性(discomfort)が推定され、これは、そのアイドル(idle)位置からの人間の姿勢のずれが大きくなるにつれて、増大する。
これらの2つの計測を用いて、“タスク空間セレクタ”は、どのアームが、実演されたジェスチャに必要とされるかについてロバストに決定し、それに応じて表現を選択することができる。
参考文献
[1]M. Toussaint, M. Gienger およびC.Goerickによる”Optimization of sequential attractor-based movement for compact behavior generation”, 7th IEEE-RAS International Conference on Humanoid Robots (Humanoids 2007), 2007
[2]M. Muhligによる”Task learning of bimanual object handling”, diploma thesis, 2008
[3]Y. Nagai およびK. J. Rohlfingによる、”Parental Action Modification Highlighting the Goal versus the Means”, in Proceedings of IEEE 7th International Conference on Development and Learning (ICDL’08), August 2008.
[4]K. Abdel-Malek, J. Yang, Z. Mi, V. Patel およびK. Nebelによる”Human Upper Body Motion Prediction”, Applied Simulation and Modelling, 2004.
用語
−エフェクタ(effector):制御されているロボットのパーツ(部分)。これは、たとえば、手または頭であることができる。
−タスク・ベクトル(task vector): 制御される変数からなるベクトル。人間型ロボットの場合、これは、たとえば手の位置、または頭の注視方向であることができる。
−自由度(degrees of freedom):自由度は、システムが動くことを許容される最小の一組の座標である。これらは、制御可能であることもできるし(ロボットの駆動されるジョイントのように)、または制御されないようにすることもできる。
−配置空間(Configuration space):自由度によってカバーされる空間
−ジョイント空間(Joint space):この用語はロボット工学において用いられることが多く、上記の配置空間を意味する。
−タスク空間(task space):タスク・ベクトルによって記述される空間。たとえば、ロボットの手の位置がx、y、z方向において制御されれば、該タスク空間は、3つの次元を持ち、これらの座標によってカバーされる。

Claims (11)

  1. ロボットの動きの模倣学習のため、ロボットのコンピューティング・デバイスにより実行される方法であって
    該ロボットの環境におけるエンティティの動きを観察するステップと、
    感覚データストリームを用いて該観察した動きを記録し、該記録した動きを、異なる複数のタスク空間表現で表現するステップと、
    前記模倣学習のため、予め定められた又は感覚データストリームから得られる情報に基づいて決定された選択基準に基づいて、前記複数のタスク空間表現のサブセットを選択し、当該選択されたタスク空間表現のサブセットにより表現された前記動きに従って、模倣されるべき前記動きを再現するステップと、
    を含み、
    前記選択されたタスク空間表現のサブセットは、前記動きを再現するため、1つのタスク空間表現まは一連の異なるタスク空間表現で構成される
    法。
  2. 前記選択基準は、前記ロボットが前記感覚データストリームから抽出するキューにより与えられる
    請求項1に記載の方法。
  3. 前記キューは、前記動きの複数回にわたる実演の試行間の変動であって前記選択基準は、前記観察における当該実演の試行間の変動が最も低いタスク空間表現選択するものである
    請求項2に記載の方法。
  4. 前記キューは、タスクに関連した或る物体を強調する教師の強調動作であって、前記選択基準は、前記教師の強調動作により強調された前記タスクに関連した物体に関するタスク空間表現を選択するものである
    請求項2または3に記載の方法。
  5. 前記キューは、前記動きの実演を行う人間である教師の動作についての、人間モデルを用いた運動学的または動的なシミュレーションから算出される評価値である
    請求項2から4のいずれかに記載の方法。
  6. 前記評価値は、前記教師である人間の、関節に働くトルクの推定値で表わされる努力性についての評価値、及び、自然姿勢からの姿勢変位の増加と共に増大する、不快性についての評価値である、
    請求項5に記載の方法。
  7. 前記異なる複数のタスク空間表現による前記動きの表現について、所定の制約条件の下に当該動きを効率的に再現するための最適化が実行される、
    請求項1からのいずれかに記載の方法。
  8. 前記選択されたタスク空間表現のサブセットを構成する前記一連の異なるタスク空間表現は、前記動きを再現する際に、当該再現された動きの経過に伴って順番に用いられる、
    請求項1からのいずれかに記載の方法。
  9. ロボットのコンピューティング・デバイス上で実行するときに請求項1からのいずれ
    かに記載の方法を実行する、コンピュータプログラム。
  10. 請求項1からのいずれかに記載の方法を実行するよう設計されたコンピューティング・ユニットを有するロボット。
  11. 前記ロボットは、模倣学習によって作業工程のシーケンスを学習する産業用ロボットである、
    請求項10に記載のロボット。
JP2010025636A 2009-02-27 2010-02-08 模倣学習のためのタスク固有の表現の自動選択を備えたロボット Expired - Fee Related JP5361756B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09153866A EP2224303B1 (en) 2009-02-27 2009-02-27 Robot with automatic selection of task-specific representations for imitation learning
EP09153866.0 2009-02-27

Publications (3)

Publication Number Publication Date
JP2010201611A JP2010201611A (ja) 2010-09-16
JP2010201611A5 JP2010201611A5 (ja) 2013-02-28
JP5361756B2 true JP5361756B2 (ja) 2013-12-04

Family

ID=41401902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025636A Expired - Fee Related JP5361756B2 (ja) 2009-02-27 2010-02-08 模倣学習のためのタスク固有の表現の自動選択を備えたロボット

Country Status (4)

Country Link
US (1) US8571714B2 (ja)
EP (1) EP2224303B1 (ja)
JP (1) JP5361756B2 (ja)
DE (1) DE602009000644D1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH700243A1 (de) 2009-01-12 2010-07-15 Ferag Ag Computergesteuertes fördersystem und förderverfahren.
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP5481358B2 (ja) * 2010-11-29 2014-04-23 本田技研工業株式会社 位置情報制御システム、位置情報制御装置、位置情報制御方法、及び位置情報制御プログラム
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US8862523B2 (en) * 2011-10-28 2014-10-14 Microsoft Corporation Relational learning for system imitation
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
DE102012020314B4 (de) 2012-10-16 2015-03-19 Dietmar Gude Verfahren und Vorrichtung zur Unterstützung der Nachahmung von Verhalten
US9056396B1 (en) 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US20150032258A1 (en) * 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
JP6005299B2 (ja) * 2013-11-28 2016-10-12 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
DE102015001741A1 (de) * 2015-02-11 2016-08-11 Kuka Roboter Gmbh Verfahren und System zum Betreiben einer mehrachsigen Maschine, insbesondere eines Roboters
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
CN105739444A (zh) * 2016-04-06 2016-07-06 济南大学 机械手多参数控制脑机接口
TWI805545B (zh) * 2016-04-12 2023-06-21 丹麥商環球機器人公司 用於藉由示範來程式化機器人之方法和電腦程式產品
WO2019060632A1 (en) * 2017-09-20 2019-03-28 Google Llc OPTIMIZING POLICY CONTROL DEVICES FOR ROBOTIC AGENTS USING IMAGE INTEGRATIONS
US11780084B2 (en) 2018-01-16 2023-10-10 Sony Interactive Entertainment Inc. Robotic device, control method for robotic device, and program
JP6961723B2 (ja) 2018-01-16 2021-11-05 株式会社ソニー・インタラクティブエンタテインメント 移動体および移動体制御方法
JP6948409B2 (ja) 2018-01-16 2021-10-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
US20220226994A1 (en) * 2020-07-20 2022-07-21 Georgia Tech Research Corporation Heterogeneous graph attention networks for scalable multi-robot scheduling

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US20040006566A1 (en) * 2000-11-07 2004-01-08 Matt Taylor System and method for augmenting knowledge commerce
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP4463120B2 (ja) * 2005-01-17 2010-05-12 独立行政法人理化学研究所 身まねロボットシステムとその身まね動作制御方法
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
US8924021B2 (en) * 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
EP1972416B1 (en) * 2007-03-23 2018-04-25 Honda Research Institute Europe GmbH Robots with occlusion avoidance functionality
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
US7986118B2 (en) * 2007-04-23 2011-07-26 Honda Motor Co., Ltd. Open-loop torque control on joint position-controlled robots
WO2009059323A1 (en) * 2007-11-01 2009-05-07 Rimrock Automation, Inc. Dba Wolf Robotics A method and system for finding a tool center point for a robot using an external camera
JP5252393B2 (ja) * 2008-05-13 2013-07-31 独立行政法人情報通信研究機構 動作学習装置

Also Published As

Publication number Publication date
EP2224303A1 (en) 2010-09-01
EP2224303B1 (en) 2011-01-19
US8571714B2 (en) 2013-10-29
JP2010201611A (ja) 2010-09-16
DE602009000644D1 (de) 2011-03-03
US20100222924A1 (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP5361756B2 (ja) 模倣学習のためのタスク固有の表現の自動選択を備えたロボット
Wang et al. Swingbot: Learning physical features from in-hand tactile exploration for dynamic swing-up manipulation
US9387589B2 (en) Visual debugging of robotic tasks
Ikemoto et al. Physical human-robot interaction: Mutual learning and adaptation
Winfield et al. On embodied memetic evolution and the emergence of behavioural traditions in robots
Rozo et al. Robot learning from demonstration of force-based tasks with multiple solution trajectories
US20220161424A1 (en) Device and method for controlling a robotic device
US20220105625A1 (en) Device and method for controlling a robotic device
Chen et al. Smile like you mean it: Driving animatronic robotic face with learned models
Jankowski et al. From key positions to optimal basis functions for probabilistic adaptive control
Mielke et al. Human-robot co-manipulation of extended objects: Data-driven models and control from analysis of human-human dyads
Mitrevski et al. “Lucy, take the noodle box!”: domestic object manipulation using movement primitives and whole body motion
Ly et al. Intent-aware predictive haptic guidance and its application to shared control teleoperation
Vanc et al. Communicating human intent to a robotic companion by multi-type gesture sentences
Bottega et al. Virtual reality platform to develop and test applications on human-robot social interaction
Yamane Kinematic redundancy resolution for humanoid robots by human motion database
Jaensch et al. Virtual commissioning simulation as reinforcement learning environment for robot cable handling
WO2022211403A1 (en) Hybrid robotic motion planning system using machine learning and parametric trajectories
Liu et al. Robotic manipulation skill acquisition via demonstration policy learning
Sylari et al. Hand gesture-based on-line programming of industrial robot manipulators
Marín et al. A predictive interface based on virtual and augmented reality for task specification in a Web telerobotic system
Skoglund Programming by demonstration of robot manipulators
Zhu Robot Learning Assembly Tasks from Human Demonstrations
Barai et al. Review on design and development of intelligent robotic arm
Prats et al. A control architecture for compliant execution of manipulation tasks

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees