JP6550605B2 - 動作の転移装置、動作の転移方法及びプログラム - Google Patents
動作の転移装置、動作の転移方法及びプログラム Download PDFInfo
- Publication number
- JP6550605B2 JP6550605B2 JP2014243740A JP2014243740A JP6550605B2 JP 6550605 B2 JP6550605 B2 JP 6550605B2 JP 2014243740 A JP2014243740 A JP 2014243740A JP 2014243740 A JP2014243740 A JP 2014243740A JP 6550605 B2 JP6550605 B2 JP 6550605B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- transfer
- joint
- transfer destination
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33029—ANNS artificial neural network with sigmoid function
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33045—Selforganizing network
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39296—Learn inverse and forward model together
Description
前記転移先ロボットの第1の動作情報を用いて、所定の更新式により前記転移元ロボットの動作情報を補正することにより、転移先ロボットの第2の動作情報を複数生成する補正部と、を有する。前記転移先ロボットの第1の動作情報は、前記転移元ロボットの動作情報より少なく、前記転移先ロボットの第2の動作情報は、前記転移先ロボットの第1の動作情報より多い。
はじめに、本発明にかかる動作の転移手法の前提となる諸条件について説明する。
条件2:関節数以外の物理特性(例えば腕の長さ等)は未知であるものとする。
条件3:転移元のロボットは、大量の動作サンプルが抽出可能であるものとする。典型的にはシミュレータ上又は実験施設内に存在するロボットである。
条件4:転移先のロボットは、少量の動作サンプルのみが抽出可能であるものとする。典型的には実機のロボットである。
を作成することを意味している。このとき、
は、まず転移先のロボットにて少量の動作を行って経験データセットDtgtを作成し、次にDsrcをDtgtによって補正することで作成する。ここで、DtgtのサイズはDsrcよりも小さく、
のサイズはDsrcと同等である。したがって、本手法によれば、転移先のロボットを実際に大量に動作させてデータセットを生成する場合に比べ、少ないデータセットでの学習が可能である。また、Dsrcをそのままコピーして
を生成する場合に比べ、精度が向上する。なお、Dsrc等の経験データベースは、単に関節値と座標値とのペアの集合であれば良く、単純なデータベース(単純なペアの情報を記録したデータベース)の他にも、例えば、競合学習を用いた自己組織化マップSOM(Self Organizing Maps)や、SOMを改良した追加学習可能なオンライン教師なし学習手法であるSOINN(Self Organizing Incremental Neural Network)等を用いて情報を圧縮したものであっても良い。
(参考文献1)Kohonen T.,“Self−organized formation of topologically correct feature maps”,Biological Cybernetics Vol.43,pp.59−69,1982年
(参考文献2)Shen F.,Hasegawa O.,“A Fast Nearest Neighbor Classifier Based on Self−organizing Incremental Neural Network”,Neural Networks,2008年
を生成する。例えば、m軸のロボット、すなわちm個の関節を持つロボットの場合、関節値
はm次元ベクトルとなる。
を生成する。このとき、ロボットの関節値からエンドエフェクタの座標値は一意に決定される。つまり、関節値と座標値との間には関数の関係がある。
へ腕のエンドエフェクタを移動させるための関節値
を求める方法を示す。ここでは、指定された座標値
の近傍の座標値データを、データセットDの中からk個探し出し、それらk個の座標値にそれぞれ対応する関節値
の逆距離加重平均(InverseDistanceWeighting)を計算することにより
を求める。
を算出している。
と、その周辺の座標値サンプルXknnと、を探し出す。ついで、探し出した座標値それぞれに対応する関節値
を求める。そして、関節値Jknnの中から、
に距離の近いデータJselectedを探し出す。そして、それらの逆距離加重平均を
とする。このアルゴリズムを図19に示す。なお、パラメータkは本手法では3とした。
すなわち転移先のロボットの作業空間へ適応させたデータセットを求める2種類の手法を開示する。まず、実施の形態1として、SOM変形法(Transfer by SOM−algorithm)を開示する。つぎに、実施の形態2として、誤差伝播法(Transfer by Error propagation)を開示する。
を求める手法を具体的に開示する。
に変形する処理を行う。本実施の形態では、補正部103はSOM変形法を用いた変形処理を行う。
を外部に出力する。転移先ロボットは、出力部104が出力した
を取得し、これに基づいた動作を行うことで、転移元ロボット同様の動作を獲得できる。
転移元動作情報取得部101は、転移元のデータセットDsrcを取得する。
補正部103は、転移先データセットとして
を生成する。この際、初期値としてDsrcと同じ値を設定する(図3、第2行)。
転移先動作情報取得部102は、転移先ロボットの動作サンプルDtgtを取得する。
補正部103は、Dtgtに含まれる関節値Jtgt及び座標値Xtgtのペアそれぞれについて、S103以降の処理を繰り返し実行する。
補正部103は、転移先ロボットの動作サンプルDtgtに含まれる座標値
に最も近い座標値
を、転移先のデータセット
から探し出し、両者の距離dnearestを算出する(図3、第3、6−8行)。
に最も近い座標値
を、転移先のデータセット内の関節値群
から探し出す(図3、第6行)。ついで、補正部103は、
のペアである
を、転移先のデータセット
から探し出す(図3、第7行)。そして、補正部103は、
と
との距離dnearestを計算する(図3、第8行)。なお、このように関節値空間から先に計算する理由は、ある座標値に対応する関節値が複数存在する場合があるためである。このような場合には、座標値空間から計算を始めてしまうと、座標値に対応する関節値を探し出すことができない。
ここで補正部103は、
の変形処理にかかるパラメータを設定しても良い(図3、第4−5行)。本実施の形態では、変形処理に用いるシグモイド関数(後述)の特性を設定するためのパラメータをここで設定することができる。シグモイド関数の特性を変更することで、変形処理(学習処理)のスピードを調整することが可能である。なお、このパラメータは任意に設定して構わない。
補正部103は、転移先のデータセット
を変形する処理を行う。すなわち、
に含まれるすべての座標値
を補正することにより、関節値
と上記座標値のマッピングを、転移先のロボットに最適化する(図3、第9−12行)。
に含まれる関節値
と
との距離djを算出する(図3、第10行)。ついで、補正部103は、
と
との差分
を算出する(図3、第11行)。そして、補正部103は、
及びS103で算出したdnearestを用いて、以下の更新式により
を補正する(図3、第12行)。
実施の形態2にかかる誤差伝播法は、DsrcとDtgtとの誤差を算出して、その誤差値を用いて、転移元のロボットの座標値空間Xsrcを変形する手法である。すなわち、少量の動作サンプルを用いて算出した誤差値を、Dsrc内の周辺のデータへと伝播させることで、変形を行う。具体的には、転移先ロボットにおいて得られた動作サンプルデータDtgt内のサンプルそれぞれについて、移転元ロボットのデータセットDsrcの中から、近い動作を探し出す。そして、双方の動作に対応するエンドエフェクタの座標値の誤差を算出する。さらに、その誤差を、同じような関節値を持つDsrc内のデータへと伝播させて、座標値空間を変改させてゆく。
を求める手法を具体的に開示する。
実施の形態1と同様に、転移元動作情報取得部101は、転移元のデータセットDsrcを取得する。また、補正部103は、転移先データセットとして
を生成する。この際、初期値としてDsrcと同じ値を設定する(図5、第2行)。
実施の形態1と同様に、転移先動作情報取得部102は、転移先ロボットの動作サンプルDtgtを取得する。また、補正部103は、Dtgtに含まれる関節値Jtgt及び座標値Xtgtのペアそれぞれについて、S203以降の処理を繰り返し実行する。
補正部103は、転移先ロボットの動作サンプルDtgtに含まれる座標値
に最も近い座標値
を、転移先のデータセット
から探し出し、両者の誤差
を算出する(図5、第3、5−7行)。
の、関節値空間における最近傍の関節値
を、転移先のデータセット内の関節値群
から探し出す(図5、第5行)。ついで、補正部103は、
のペアである
を、転移先のデータセット
から探し出す(図5、第6行)。そして、補正部103は、今回の入力
と
の誤差
を計算する(図5、第7行)。ここでも、実施の形態1と同様に、関節値空間から先に計算が行われる。
ここで補正部103は、
の変形処理にかかるパラメータを設定しても良い(図5、第4行)。ここでも、実施の形態1と同様に、シグモイド関数の特性を変更することで、変形処理(学習処理)のスピードを調整することが可能である。
補正部103は、転移先のデータセット
を変形する処理を行う。すなわち、
に含まれるすべての座標値
を補正することにより、関節値
と上記座標値のマッピングを、転移先のロボットに最適化する(図3、第9−12行)。
に含まれる関節値
と
との距離djを算出する(図3、第9行)。ついで、補正部103は、dj及びS103で算出した変位
を用いて、以下の更新式により
を補正する(図5、第10行)。これにより、上記変位が他の座標点にも伝播する。
の他の座標値が寄って行くような変形が行われる。これに対し、実施の形態2の誤差伝播法では、入力された座標値と、
内の対応する座標値との誤差が他の座標値にも伝播し、それに基づいて移動するような変形が行われる。本発明における、ロボットの動作の転移という問題設定に鑑みると、実施の形態2の更新式によりデータセットを変形させる方がより効率が良い。
実施の形態1及び2にかかる動作転移手法の効果を検証するため、発明者は2種類の実験を実施した。1つめの実験はエンドエフェクタが2次元平面上を動作する2軸のロボットを用いた実験、2つめの実験はエンドエフェクタが3次元空間内を動作する6軸の実機のロボットを用いた実験である。前者の2軸のロボットを用いて主に定量的な評価を、後者の6軸のロボットを用いて有効性の評価を行う。
実験環境:2軸の片腕ロボットをシミュレータ上に作成し、シミュレータ上で動作を転移した後、エンドエフェクタの位置誤差の定量的な評価を実施する。そのために、腕の長さが異なるロボットを4種類用意した。それぞれのロボットの腕の長さを図7に示す。また、それぞれの腕の長さの場合のロボットの動作可能な空間を図6に示す。また、関節値の可動範囲は、0から180度に限定した場合(以降「関節値に制限あり」と呼び、図6はこちらである)と、0から360度にした場合(以降「関節値に制限なし」と呼ぶ)の2つのパターンで実験を行う。関節値に制限なしの場合、任意の場所にエンドエフェクタを持って行くための関節値の候補が複数存在することがあり、ロボットの動作生成が一律でない。
を計測する。ここで、
は目標として指定された座標値、
は実際にロボットが到達したエンドエフェクタの座標値である。
Lsrc:データDsrcを単純にコピーし、転移先のロボットのデータセットとして利用した場合
TSom:SOM変形法を用いて転移した場合
TErr:誤差伝播法を用いて転移した場合
LTgt:転移先のロボットにおいて大量の動作サンプルを得た場合(理論上の最小誤差)
実験環境:本実験では、図12に示す実機のロボットを転移先として使用する。この移転先のロボットは、6軸の左腕を備えている。このロボットに対する転移元として、移転先のロボットの腕に似たスペックを持つロボットを、シミュレータ上に作成する。この移転元のロボットの外観を図11に示す。また、このロボットの腕と手首の長さを図13に示す。ここでは、シミュレータ上にロボットα、ロボットβの2種類の移転元ロボットを作成した。これらのシミュレータ上の移転元ロボットα及びロボットβの左腕を用いて、大量にデータベースを収集し、実機のロボットに対して動作の転移を実施した。
上記実験結果によれば、実施の形態1にかかるSOM変形法により動作転移を行った場合、位置誤差が比較的大きくなることがわかる。一方、実施の形態2にかかる誤差伝播法によれば、位置誤差は非常に小さい。
を示す。線分は動作の転移による座標値の移動(データセットの補正変形)の軌跡を示す。点C(小さな黒丸で表される)は転移先のロボットで大量の動作サンプルを取得できると仮定した場合の座標値を示す。ここで、点Bと点Cとが重なっている状態であれば、その転移手法では、移転先ロボットにおいて十分にすなわち移転元ロボットと同程度に学習したときと同じ誤差を抑えられていることになる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態では、転移元の座標値と転移先の座標値とのマッピングにシグモイド関数を採用した。しかし、シグモイド関数に代えて、アークタンジェント(arctan)をはじめとする任意の関数を採用しても良い。
101 転移元動作情報取得部
102 転移先動作情報取得部
103 補正部
104 出力部
Claims (10)
- 転移元ロボットの動作情報を複数取得する転移元動作情報取得部と、
転移先ロボットの第1の動作情報を複数取得する転移先動作情報取得部と、
前記転移元ロボットの動作情報と前記第1の動作情報とを用いた学習により生成された所定の更新式により前記転移元ロボットの動作情報を補正することにより、前記転移先ロボットの第2の動作情報を複数生成する補正部と、を有し、
前記第1の動作情報は、前記転移先ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記転移元ロボットの動作情報は、前記転移元ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記第2の動作情報は、前記補正部により生成された、前記転移先ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記第1の動作情報に含まれる前記セットの数は、前記転移元ロボットの動作情報に含まれる前記セットの数より少なく、
前記第2の動作情報に含まれる前記セットの数は、前記第1の動作情報に含まれる前記セットの数より多い
動作の転移装置。 - 前記転移先ロボットに設けられた前記関節の数は、前記転移元ロボットに設けられた前記関節の数と等しい、
請求項1記載の動作の転移装置。 - 各関数の関節値は、各関節の関節角である、
請求項1又は2記載の動作の転移装置。 - 前記第1及び第2の動作情報のそれぞれに含まれる前記座標値は、前記転移先ロボットの特定部分の位置を示し、
前記転移元ロボットの動作情報に含まれる前記座標値は、前記転移先ロボットの前記特定部分に対応する前記転移元ロボットの特定部分の位置を示すものである、
請求項1乃至3のいずれか1項記載の動作の転移装置。 - 前記更新式は、前記転移先ロボットの第1の動作情報と、前記転移元ロボットの動作情報と、の誤差に基づいて前記補正を行う
請求項1乃至4のいずれか1項記載の動作の転移装置。 - 前記転移元ロボットの動作情報、前記転移先ロボットの第1の動作情報及び前記転移先ロボットの第2の動作情報は、それぞれ異なる空間において定義され、
前記更新式は、前記異なる空間それぞれにかかる制約条件を同時に満足するものである
請求項1乃至5のいずれか1項記載の動作の転移装置。 - 前記更新式は、SOM(Self−Organizing maps)アルゴリズムを複数の前記空間に拡張することにより、前記補正を行う
請求項6記載の動作の転移装置。 - 前記更新式は、前記転移先ロボットの第1の動作情報に含まれる第1の関節値の近傍に位置する、第2の関節値を、前記転移元ロボットの動作情報から抽出し、
前記転移先ロボットの第1の動作情報に含まれ、前記第1の関節値に対応する第1の座標値と、
前記転移元ロボットの動作情報に含まれ、前記第2の関節値に対応する第2の座標値と、の誤差を算出し、
前記誤差を、前記転移元ロボットの動作情報に含まれる他の座標値に伝播させることにより前記補正を行う
請求項1乃至6いずれか1項記載の動作の転移装置。 - 転移元ロボットの動作情報を複数取得する転移元動作情報取得ステップと、
転移先ロボットの第1の動作情報を複数取得する転移先動作情報取得ステップと、
前記転移元ロボットの動作情報と前記第1の動作情報とを用いた学習により生成された所定の更新式により前記転移元ロボットの動作情報を補正することにより、前記転移先ロボットの第2の動作情報を複数生成する補正ステップと、を有し、
前記第1の動作情報は、前記転移先ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記転移元ロボットの動作情報は、前記転移元ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記第2の動作情報は、前記補正ステップにより生成された、前記転移先ロボットに設けられた複数の関節の複数の関節値と、前記複数の関節値に対応する座標値と、からなるセットを含み、
前記第1の動作情報に含まれる前記セットの数は、前記転移元ロボットの動作情報に含まれる前記セットの数より少なく、
前記第2の動作情報に含まれる前記セットの数は、前記第1の動作情報に含まれる前記セットの数より多い
動作の転移方法。 - コンピュータに、請求項9記載の方法を実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014243740A JP6550605B2 (ja) | 2014-12-02 | 2014-12-02 | 動作の転移装置、動作の転移方法及びプログラム |
EP15865660.3A EP3228427B1 (en) | 2014-12-02 | 2015-12-02 | Action transfer device, action transfer method, and non-transitory computer-readable medium in which program is stored |
US15/525,730 US10265847B2 (en) | 2014-12-02 | 2015-12-02 | Action transfer device, action transfer method, and non-transitory computer-readable medium storing program |
PCT/JP2015/005981 WO2016088367A1 (ja) | 2014-12-02 | 2015-12-02 | 動作の転移装置、動作の転移方法及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014243740A JP6550605B2 (ja) | 2014-12-02 | 2014-12-02 | 動作の転移装置、動作の転移方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016107346A JP2016107346A (ja) | 2016-06-20 |
JP6550605B2 true JP6550605B2 (ja) | 2019-07-31 |
Family
ID=56091329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014243740A Active JP6550605B2 (ja) | 2014-12-02 | 2014-12-02 | 動作の転移装置、動作の転移方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10265847B2 (ja) |
EP (1) | EP3228427B1 (ja) |
JP (1) | JP6550605B2 (ja) |
WO (1) | WO2016088367A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11207773B2 (en) | 2016-11-07 | 2021-12-28 | Soinn Inc. | Action transfer device, action transfer method, and non-transitory computer-readable medium storing action transfer program |
JP6661027B2 (ja) * | 2016-11-17 | 2020-03-11 | 株式会社Fuji | 作業ロボット |
JP6828572B2 (ja) * | 2017-04-18 | 2021-02-10 | 富士通株式会社 | ロボット移動時間推定プログラム及びロボット移動時間推定方法 |
US20210178578A1 (en) * | 2017-11-16 | 2021-06-17 | Sony Corporation | Information processing apparatus, information processing method, computer program, and program manufacturing method |
JP7110884B2 (ja) * | 2018-10-01 | 2022-08-02 | オムロン株式会社 | 学習装置、制御装置、学習方法、及び学習プログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495410A (en) * | 1994-08-12 | 1996-02-27 | Minnesota Mining And Manufacturing Company | Lead-through robot programming system |
US6272396B1 (en) | 1998-02-20 | 2001-08-07 | Tairob Industrial Technology Ltd. | Method for applying knowledge from a skilled worker via a master expert machine to a slave expert machine for repetitive tasks |
JP4170530B2 (ja) * | 1999-08-09 | 2008-10-22 | 川崎重工業株式会社 | ロボットの作業教示方法及び装置 |
US7859540B2 (en) * | 2005-12-22 | 2010-12-28 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of motion for articulated systems |
US8467904B2 (en) * | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
JP2007276052A (ja) * | 2006-04-06 | 2007-10-25 | Sony Corp | 制御システム、記録システム、情報処理装置および方法、プログラム、並びに記録媒体 |
US8924021B2 (en) * | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8781624B2 (en) * | 2009-03-24 | 2014-07-15 | Disney Enterprises, Inc. | Systems and methods for tracking and balancing robots for imitating motion capture data |
JP2011110621A (ja) * | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | ロボットの教示データを作成する方法およびロボット教示システム |
WO2013073683A1 (ja) * | 2011-11-16 | 2013-05-23 | 日産自動車株式会社 | 接合体の製造方法およびその製造装置 |
EP2685403A3 (en) * | 2012-07-09 | 2017-03-01 | Technion Research & Development Foundation Limited | Natural machine interface system |
US9840008B2 (en) * | 2013-03-19 | 2017-12-12 | Panasonic Intellectual Property Management Co., Ltd. | Robot system control method and robot system |
US10112303B2 (en) * | 2013-10-25 | 2018-10-30 | Aleksandar Vakanski | Image-based trajectory robot programming planning approach |
JP6201126B2 (ja) * | 2013-11-07 | 2017-09-27 | 株式会社人機一体 | マスタスレーブシステム |
US10248085B2 (en) * | 2016-10-13 | 2019-04-02 | Disney Enterprises, Inc. | Computational design of robots from high-level task specifications |
US11207773B2 (en) * | 2016-11-07 | 2021-12-28 | Soinn Inc. | Action transfer device, action transfer method, and non-transitory computer-readable medium storing action transfer program |
-
2014
- 2014-12-02 JP JP2014243740A patent/JP6550605B2/ja active Active
-
2015
- 2015-12-02 WO PCT/JP2015/005981 patent/WO2016088367A1/ja active Application Filing
- 2015-12-02 US US15/525,730 patent/US10265847B2/en active Active
- 2015-12-02 EP EP15865660.3A patent/EP3228427B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20170326727A1 (en) | 2017-11-16 |
JP2016107346A (ja) | 2016-06-20 |
EP3228427B1 (en) | 2020-07-22 |
US10265847B2 (en) | 2019-04-23 |
EP3228427A1 (en) | 2017-10-11 |
WO2016088367A1 (ja) | 2016-06-09 |
EP3228427A4 (en) | 2018-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chebotar et al. | Closing the sim-to-real loop: Adapting simulation randomization with real world experience | |
JP6550605B2 (ja) | 動作の転移装置、動作の転移方法及びプログラム | |
JP7295421B2 (ja) | 制御装置及び制御方法 | |
Gao et al. | Optimal trajectory planning for robotic manipulators using improved teaching-learning-based optimization algorithm | |
Nikandrova et al. | Towards informative sensor-based grasp planning | |
JP2022176917A (ja) | ロボットデバイスを制御するための方法 | |
Sturm et al. | Unsupervised body scheme learning through self-perception | |
JP6518982B2 (ja) | 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体 | |
Das et al. | A modified real time A* algorithm and its performance analysis for improved path planning of mobile robot | |
JP7263987B2 (ja) | 制御装置、制御方法、及び制御プログラム | |
WO2021033471A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
Beik Mohammadi et al. | Mixed-reality deep reinforcement learning for a reach-to-grasp task | |
EP2359989B1 (en) | Robot control with bootstrapping inverse kinematics | |
Liu et al. | Research on motion planning of seven degree of freedom manipulator based on DDPG | |
Chanrungmaneekul et al. | Non-Parametric Self-Identification and Model Predictive Control of Dexterous In-Hand Manipulation | |
Daniel et al. | Multi Actor-Critic DDPG for Robot Action Space Decomposition: A Framework to Control Large 3D Deformation of Soft Linear Objects | |
Mishani et al. | Learning configurations of wires for real-time shape estimation and manipulation planning | |
WO2021033472A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
Li et al. | An image-based visual servo system to operate a flexible wire | |
Mishani | DUAL-ARM ROBOTIC MANIPULATION OF WIRES USING SOLELY FORCE/TORQUE FEEDBACK | |
Guzman | Robotic Embodiment of Human-Like Motor Skills via Sim-to-Real Reinforcement Learning | |
Yu et al. | Generalizable whole-body global manipulation of deformable linear objects by dual-arm robot in 3-D constrained environments | |
Wang et al. | Reinforcement Learning based End-to-End Control of Bimanual Robotic Coordination | |
Li | Implementation of motion-mapping algorithms on a teleoperation humanoid mechanical arm system during the COVID-19 | |
Wang et al. | Posture error correction of a six-DOF serial manipulator based on genetic algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20161020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6550605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |