JP4463120B2 - 身まねロボットシステムとその身まね動作制御方法 - Google Patents
身まねロボットシステムとその身まね動作制御方法 Download PDFInfo
- Publication number
- JP4463120B2 JP4463120B2 JP2005008578A JP2005008578A JP4463120B2 JP 4463120 B2 JP4463120 B2 JP 4463120B2 JP 2005008578 A JP2005008578 A JP 2005008578A JP 2005008578 A JP2005008578 A JP 2005008578A JP 4463120 B2 JP4463120 B2 JP 4463120B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- motion
- imitation
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
これらのロボットは日常生活で活躍することが期待されているが、現状ではあらかじめ与えられた目標軌道に追従するように運動していることが多く、人間などの複雑な形状をした対象物と力学的な相互作用を行うのは非常に困難である。
しかし、それらの制御方法を実世界に応用することを考えた場合、例えば摩擦モデル一つにしても未知なことが多いため、実環境でロボットを制御する場合にはモデル化誤差などの影響によって理論通りに動作しないことも多い。それ以外にも、形状が複雑なロボットの動力学演算を実時間で解くのは難しいなど実ロボットへ応用するためには数多くの問題を抱えている。
これらの研究の多くは人間とロボットの身体構造やダイナミクスの違いを考慮した運動生成方法を提案しているため、常に変化する対象物(人や物)と接触するような運動を生成することは難しいという問題点がある。すなわち変化する対象物(人や物)と接触するような運動を生成するためには、単に運動軌跡を模倣するだけではなく、運動中に得られる感覚情報(視覚、触覚、聴覚等)を運動に反映させて新たな運動軌跡を作成する必要がある。
教示ステップで得られた運動情報と感覚情報を基に、前記ロボットに所望の動作を身まねさせる身まねステップとからなり、
前記身まねステップにおいて、前記対象物の変化に対応して、身まね制御装置は前記対象物の位置が教示ステップで取得した感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと教示ステップにおける感覚情報の時系列データを比較し、教示ステップにおける現在の時刻に対応する教示ステップでの時刻を求め、求めた教示ステップでの時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とするロボットの身まね動作制御方法が提供される。
身まね制御装置により、前記対象物の変化に対応して、前記対象物の位置が記憶した前記感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと記憶した前記感覚情報の時系列データを比較し、現在の感覚情報における現在の時刻に対応する記憶した前記感覚情報の時刻を求め、記憶した前記感覚情報の時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とする身まねロボットシステムが提供される。
また教示された感覚情報が得られるように、教示ステップで取得した運動軌跡を身まね中の感覚情報を使って空間的に変更しかつ時間的に伸縮させることで、これまで行うのが難しかった対象物と接するような動作を、対象物の変化に対応して、ロボットに真似させることができ、人間と接するホームロボットや介護・福祉機器などの機械システムの制御への応用が可能となる。
没入型ディスプレイ装置20は、3次元仮想空間内に位置する実在する被験者2の位置及び動作を検出する運動情報検出手段と、被験者2の位置及び動作を3次元仮想空間内に仮想被験者として提示する仮想被験者提示手段とからなり、没入型ロボット10の動きを人が没入する形で表示する。
CAVEシステムは、図1に示すように、人(被験者)2(眼鏡をかけた白い人物)を取り囲むスクリーン3に4方向から映像を投影し、人2に高い臨場感を持った映像を提示する画像表示システムである。投影される画像は1フレームごとに右目用と左目用の情報が交互に投影される画像であり、それに同期して液晶シャッター眼鏡4を通した視線が片方ずつ遮断されることで、投影されたCGは被験者2に立体的な映像として観測される。さらに、液晶シャッター眼鏡4の位置と姿勢は常に計測され、その情報に従って画像が更新されることで、被験者はあたかも自分が投影された仮想空間内に存在するかのように認識できる。
(教示ステップ)
教示ステップは、没入型ロボット10への没入と運動・感覚情報のキャプチャリングからなる。
教示ステップにおいて、没入型ロボット10に没入する形でロボットに運動情報と感覚情報を与える手段として、「シミュレータを用いる手段」と「実機を用いる手段」が適用できる。
身まねステップは、感覚情報を用いた運動情報の調節による。
教示ステップで得られた感覚情報と運動情報のモデルを用い、最終的な運動軌跡(身まね動作)を、感覚情報を使って空間的に変更した運動軌跡を更に時間的に伸縮させることで作り出す。
空間的な運動情報の変更は、現在(身まね中)得られた感覚情報と教示ステップで得られた感覚情報を比較して、教示ステップで得られた感覚情報と同様の感覚情報が得られるように運動を変更する。教示ステップで得られた視覚情報が得られる位置に回り込むなどの動作が空間的な運動の変更に相当する。
時間的な運動軌跡の伸縮は、大きな時間ジャンプにペナルティを与えるような評価関数を用意し、現在(身まね中)得られた感覚情報と教示ステップで得られている感覚情報を比較評価し、評価値が類似するような時間を探索することで運動の時間伸縮を行う。
このように感覚情報を用いて運動情報を空間的かつ時間的に変更することでタスクに成功する運動軌跡を生成する。この生成を「身まね動作生成」と呼ぶ。
1.本発明では、対象物と相互作用を行うようなロボットを制御する手段として、感覚と運動を統合することによって最終的な模倣動作を生成する方法を提案する。この方法はDPマッチングを用いて感覚と運動のモデル化を行い、運動の途中で順次得られる感覚情報を用いて運動軌跡を時間的・空間的に変更しながら対象物と接するタスクの成功を目指す。
対応づけるべき二つの時系列をA=a1,a2,・ ・ ・,ai,・ ・ ・,aIとB=b1,b2,・ ・ ・,bj,・ ・ ・,bJとするの時,d(i,j)をaiとbjの類似度とすると(例えばd(i,j)=(ai-bj)2),時系列A とB の類似度を数1の式を用いてg(I,J)/(I+J)で求めるのがDPマッチングである。
ただし,i=1かj=1の時はg(i,j)=2d(i,j)として,整合窓の範囲内でi,jを増加させてi=I,j=Jとなるまで計算を繰り返す。
現在、発明者等の研究チームでは介護福祉の現場で活躍するロボットの実現を視野にいれた研究を行っている。具体的なタスクとしてロボットの全身を用いて対象物(人や物)を抱きかかえるフルボディ・マニピュレーションの実現を目指しており、理論的な研究から解析的な研究、さらには必要なセンサの開発に向けた研究を行っている。
本研究では、具体的に「人間を抱き上げる」というタスクをロボットに実現させることを目標にしており、人間と同様に運動の途中で順次得られる視覚などの感覚情報を運動に反映することで最終的な模倣運動を生成する。
人間の場合は、幼い時の経験によって感覚と運動情報を獲得して行くものだと考えられる。ロボットに試行錯誤的に運動を行わせて感覚・運動情報を獲得させることも可能であるが、本研究では学習期間を短縮するために人間がロボットに感覚と運動情報を教示する。動作を教示する被験者はロボットに没入することで、感覚と運動情報を教示できることが望ましい。ここでは、没入型三次元動力学シミュレーション環境を用いて被験者は感覚と運動情報を教示する。
これまでの研究では、被験者(図3(a))の動きを磁気センサで計測し、その動きに追従する仮想被験者(図3(b))を介して仮想空間と被験者の力学的なインタラクションを実現していた。
このシミュレーション環境では、運動を行っている際の仮想被験者の視覚や力覚・トルク情報などをリアルタイムで計測できることから、従来のモーションキャプチャによる運動軌跡だけではなく、仮想被験者の視覚や触覚などの感覚情報を同時に取得することが可能である。
つまり、仮想被験者をロボットと見なすことで、被験者はロボット自身に没入する形でロボットに感覚と運動情報を教示することができる。
以下、車輪型ロボットからダミー人形を抱き上げ、再び車輪型ロボットに返すまでの一連の動作を「抱き上げタスク」と呼ぶ。また本発明では人の運動に追従して動く仮想被験者をロボットと呼ぶ。
例えば、図4のように抱き上げタスクを行い、被験者の手の運動軌跡が図5のように得られたとする。この運動軌跡だけを模倣してロボット(仮想被験者)に全く同じ運動を行わせた場合、ダミー人形などの対象物(人や物)が教示時と全く同じ場合にはタスクに成功すると考えられる。
しかし、ダミー人形の位置や角度の初期値が異なる場合や、ダミー人形を抱えている車輪型ロボットが途中で動く場合にはタスクに成功するとは限らない。ダミー人形の位置や角度に依存することなくタスクに成功させるためには、単に運動軌跡を模倣するだけではなく、動作中に起こる対象物(人や物)の変化を感覚情報で知覚しながら、模倣運動を変更していく必要がある。
本発明の実施例では、対象物と相互作用が必要なタスクの例として、「抱き上げタスク」を取り上げ、ロボットで抱き上げタスクを実現させることを目標とする。
Inamuraらによるミメシス理論に基づく見まね学習に関する一連の研究(非特許文献2)では、隠れマルコフモデル(HMM)を用いて運動の生成を行っている。しかし、HMMは基本的にシンボル系列を扱う方法であるため運動の離散化の作業が必要になり、連続値を扱いたい場合には、連続HMM(continuous HMM)を利用するなどの工夫が必要である。
本発明では連続値を扱うことができるDPマッチングを統計情報が扱えるように拡張することで同じ運動を行う複数のデータから一つの運動モデルを作成する。
1つの時系列運動を数2のベクトル列Oで表す。このうちベクトルoはロボットの出力ベクトルを表し、例えば腕や足の目標関節角度や目標位置・目標姿勢などに相当する。これらの目標値は、被験者の運動を計測することによって取得することができるが、同じ抱き上げタスクをN回行ったとしてもそれらの時間は非線形に伸縮しており、得られる記号列がいつも同じ長さであるとは限らない。
そこで、得られたN回の時系列運動に対して時間の正規化を行う。まず、N個の中から1つの基準系列(長さをTとする)を選択し、DPマッチングにより残りのN−1個の時系列運動に対して時間軸の正規化を行い、すべての時系列運動の長さがTになるように伸縮させる。次に、数2の(1)(2)式でそれらの平均と分散を求める。
そして、数2の平均と分散を抱き上げタスクの運動モデルとして保存する。
ダミー人形を抱える瞬間や置く瞬間の6秒付近や11秒付近の分散値は非常に小さくなっており、分散値の小さいところに抱き上げタスクのコツがあると考えられる。
本発明では、運動モデルとして被験者の動きから計測した平均と分散を用いてロボットの運動を生成する。単位時間ごとに運動モデルと同じ正規分布を持つ正規乱数を発生させ、その値を目標値としてロボットを制御する。ただし、乱数による高周波成分を含むため、ローパスフィルタを適用することで高周波成分を除去する。
このように観測されたデータと同じ分布を持つ乱数を用いて運動を生成しているため、試行毎にロボットは微妙に異なる運動を行うことになり、一つのタスクを行う際には、いつも決まった目標値を与える従来のロボット制御方法に比べて、ロボットに生物らしい動きをさせることが可能でありながらも、分散値を反映させることでタスクのコツを考慮した運動が生成できる。
対象物(人や物)と力学的なインタラクションを伴うようなタスクを行う場合、被験者は対象物を認識しながら運動を決定している。図4のような抱き上げタスクの場合は、ダミー人形やダミー人形を抱えている車輪型ロボットの位置や姿勢によって被験者は抱き上げの運動を変えている。しかし、前節の方法で生成した運動は、認識結果を反映したものになっていないため、被験者が教示動作を与えた時の対象物と状態が少しでも異なれば、同じ結果にならないことが予想される。
対象物が変化したとしてもタスクを成功させるためには、運動の過程で得られた感覚情報を反映して、出力を変更していく必要がある。本発明の方法では、運動途中に得られた感覚情報によって運動を調整する基準が明らかな場合と明らかではない場合に大別し、運動を調整する基準が明らかな感覚情報については出力ベクトルoを空間的に変化させることで対応し、明らかでない感覚情報については出力を時間的に伸縮させることで対応する。
現在得られた感覚情報と教示ステップで取得した感覚情報を比較して、教示ステップで得られたものと同様な感覚情報が得られるように、運動ベクトルoを修正するのが「空間的な運動の修正」である。このような運動の修正を行うために、教示ステップで得られた感覚情報を時系列運動と同様に時間伸縮させて数3の入力情報として保存しておく。
ここでの入力情報としては、例えばダミー人形の位置・姿勢推定結果や、ロボットの腕にかかる力情報などロボット(仮想被験者)自身に付いているカメラや触覚センサから得られる感覚情報を処理して得られる認識結果等がある。
ここで考える問題は、時刻jにセンサ情報を処理することでijが得られた場合に、タスクを成功させるためには、教示動作の時刻tに得られた運動モデルOtをどのように修正してojを生成するかを考えることである。
まず、次式を満たすAj,Bjを求めることで、教示動作中に得られた認識情報と現在得られている認識情報ijの関係を数3の(3)式で調べる。
次に、時刻tの動作を数3の(4)式を用いて変換することで最終的な出力動作とする。
空間的な運動の修正例として、視覚によって得られたダミー人形の位置・姿勢推定結果を用いてロボットとダミー人形の相対関係が教示動作が与えられた時と同じになるように運動を変化させることが挙げられる。
教示ステップのある時刻tに得られた行動Otを時刻jに得られた認識結果を基に調整する方法について述べたが、動作遅れなどによって、運動自身を時間伸縮させる必要があることもある。
こういった場合には、現在の時刻jに対応する教示動作の時刻tの付近で、得られた認識結果が類似する時刻を探索することで、時間伸縮に対応する。つまり、時刻jに対応するt'を数4の(5)式によって求めることで、動作の時間伸縮を行う。
これは(5)式の右辺を最大にするkをt'におくという意味であり、数4のCは、今得られている認識結果ijと教示動作中に得られたikの類似度を表し、類似するほど大きく最大値を1とする。本発明では数4の(6)式によって類似度Cを定義する。
時間的な運動の修正は現在得られた認識結果と教示動作中に得られた認識結果のマッチングを行うことで、時間軸の伸縮を行う操作であるため、認識結果をどのように運動に反映させれば良いかが分からないような感覚情報を扱うことも可能である。
図7は本発明の方法による模倣動作生成のアルゴリズムを示す。時刻jに得られた感覚情報ijと類似する感覚情報が得られる教示動作中の時刻をモデルとして保存しているi を用いて式(5)によって探しだし、類似度の高い時刻の運動モデルOt'とσt'に式(4) を適用して空間的に運動を変化させることで最終的な運動ojを出力する。
ロボットに抱き上げタスクを行わせることで本発明の方法の有効性を確認する。
〈5・1〉実験
被験者は車輪移動可能なロボットが抱える3リンクのダミー人形を抱き上げるタスクを21回行い、その入力系列から運動モデルを作成した。運動の開始点と終了点の切り出しは手動で行った。また、時間に対する伸縮を行うための基準系列は、他のすべての系列とDPマッチングを行い、それらの総和が最も小さいものを用いた。運動モデルを記述するベクトルoには、磁気センサから得られる情報として左右の前腕と胴部の位置・姿勢を並べたベクトルを採用した。
また、感覚情報iは、ダミー人形を抱えるまでは、ダミー人形の位置・姿勢とし、抱えた後は車輪移動するロボットの位置・姿勢とした。
ロボットの重心位置と姿勢は、仮想被験者から得られる図8のような視覚情報を画像処理することによって求める方法も考えられるが、その処理方法はCGの処理に特化したものとなり、実環境で役立つ処理であるとは言えない。そのため、ここではシミュレータによる動力学演算によって得られる値を用いることにした。
また、(c)は認識結果によって運動を時間的に伸縮させることなく空間的にのみ修正した例であり、車輪ロボットに追従して運動を変化させているもののタスクには失敗している。(d)では認識結果を用いて動作を時間的に伸縮させた後に空間的に修正しておりタスクに成功していることが分かる。
図10(a)(b)(c)において、それぞれ横軸は左の車輪にかけたトルクを表し、縦軸が右の車輪にかけたトルクを表す。従って、座標軸の原点から離れるほど、対象物(ダミー人形)の位置変化が大きいことを意味する。
また、図中の○△×はそれぞれ車輪型ロボットの車輪にトルクをかけた状態でタスクに成功したか失敗したかを表しており、○の記号は抱き上げタスクに成功したことを示し、△は抱き上げには成功したが車輪型ロボットに返すタスクに失敗したことを、×は抱き上げ自体に失敗したことを示している。
この表中の「調整なし」は認識結果を考慮することなく運動を出力させた場合を表し、「空間の調整」は空間的な運動の修正のみを行って動作生成した場合を、「空間と時間の調整」は時間的な伸縮による修正をした後に空間的な修正をした場合を表す。
また、「成功」は図10の○の回数を表し、「準成功」は△の回数、「失敗」は×の回数を表す。実験はそれぞれの条件において81回ずつ行っており、空間的に動作を修正することでタスクの成功率は上昇しているが、時空間的に動作を修正することでさらに成功率が上がっていることを確認できる。
本発明で提案した感覚運動統合による模倣動作の生成方法について以下に考察する。
(1)感覚情報を利用した模倣運動の生成
本発明では、観測された人間の運動をDPマッチングを用いてモデル化し、そのモデルから運動を生成する方法を提案した。さらに、感覚によって得られた情報を基にして生成した運動を時間的・空間的に修正することで感覚と運動を結び付け、人間が教示動作を与えた対象物と異なる対象物においてもダミー人形を抱き上げるというタスクに成功できるロボット制御方法を提案した。また、没入型三次元動力学シミュレーション環境での実験によって本方法の有効性を確認した。
本発明の方法の基本的な考え方は、行動のモデル化を行う際にDPを用いるかHMMを用いるかの違いはあるがInamuraらによるミメシスモデルに基づいた研究(非特許文献2)を感覚情報が扱えるように拡張しており、運動の認識、記憶、再生のメカニズムを実現する枠組を継承している。
発明者等が提案してきた没入型三次元動力学シミュレーション環境は、人間と接するロボットの開発を目的としているため、被験者は仮想ロボットを介して仮想物体との力学的なインタラクションが可能である。このため、仮想被験者をロボットと見なすことで、被験者はロボットに没入する形で教示動作を与えることができる。また、力覚や触覚など市販のセンサでは得ることが難しいような情報も動力学演算によって算出でき、市販のアクチュエータでは実現できないような強力なトルクでロボットを制御することも可能であるため、現状で製作できるロボットのシミュレーションはもちろんのこと、将来開発される技術を見越したロボットのシミュレーションも可能である。
なお本発明により、視覚情報だけではなく、力覚・触覚など様々な情報を処理することで、模倣動作を生成することや実ロボットに応用することができる。
3 スクリーン、4 液晶シャッター眼鏡、
5 磁気センサ、6 ヘッドマウントディスプレイ(HMD)、
10 没入型ロボット(実ロボット)、
20 没入型ディスプレイ装置、
30 身まね制御装置、
32 記憶装置、34 コンピュータ
Claims (9)
- 教示対象のロボットからの感覚情報を用いて生成された3次元仮想世界映像を基に前記教示対象のロボットを操作し、対象物に所望の動作を行い、該動作中の前記教示対象のロボットの教示動作である運動情報と前記教示対象のロボットの状態を示す感覚情報を取得する教示ステップと、
教示ステップで得られた運動情報と感覚情報を基に、前記ロボットに所望の動作を身まねさせる身まねステップとからなり、
前記身まねステップにおいて、前記対象物の変化に対応して、身まね制御装置は前記対象物の位置が教示ステップで取得した感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと教示ステップにおける感覚情報の時系列データを比較し、教示ステップにおける現在の時刻に対応する教示ステップでの時刻を求め、求めた教示ステップでの時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とするロボットの身まね動作制御方法。 - 前記教示ステップにおいて、人の運動に追従して動く仮想被験者を仮想の前記ロボットとみなし、動力学シミュレーション環境下で仮想的に設置した力センサや触覚センサから得られる値と、視覚センサから得られる画像を感覚情報として取得する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。
- 前記教示ステップにおいて、所望の動作が可能な実体のある前記ロボットとディスプレイ装置を用い、教示対象の前記ロボットからの感覚情報を用いて生成された3次元仮想世界映像に基づき、人が前記ロボットに動作を行わせ、該ロボットに取り付けた触覚センサ及びカメラから運動情報と共に感覚情報も同時に取得することを特徴とする請求項1に記載のロボットの身まね動作制御方法。
- 前記身まねステップにおいて、身まね中の感覚情報と教示ステップで取得した感覚情報を比較して、教示ステップで取得した感覚情報と同じ感覚情報が得られるように身まね中の運動軌跡を変更する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。
- 前記身まねステップにおいて、身まね中の感覚情報と教示ステップで取得した感覚情報を比較評価し、評価値が一致するような時間を探索して身まね中の運動軌跡を時間的に伸縮させる、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。
- 前記身まねステップにおいて、類似度Cを用いて身まね中の感覚情報と教示ステップで取得した感覚情報を比較評価し、得られた類似度Cが最も大きい教示ステップにおける時刻の運動軌跡を身まねで使用する、ことを特徴とする請求項1に記載のロボットの身まね動作制御方法。
- 対象物に対して所望の動作が外部からの入力信号に基づき作動可能な仮想的又は実体のあるロボットと、教示対象の前記ロボットからの感覚情報を用いて生成された3次元仮想世界映像を表示するディスプレイ装置と、前記教示対象のロボットの教示動作である運動情報と前記教示対象のロボットの状態を示す感覚情報を記憶する記憶装置を有する身まね制御装置と、を備え、
身まね制御装置により、前記対象物の変化に対応して、前記対象物の位置が記憶した前記感覚情報に含まれる前記対象物と前記教示対象のロボットの相対的位置情報に同じになるように前記教示対象のロボットの位置を変更する運動情報の空間的変更と、現在の感覚情報の時系列データと記憶した前記感覚情報の時系列データを比較し、現在の感覚情報における現在の時刻に対応する記憶した前記感覚情報の時刻を求め、記憶した前記感覚情報の時刻におけるロボットの運動情報を実行するよう制御する運動情報の時間的伸縮を行う、ことを特徴とする身まねロボットシステム。 - 前記ロボットは、人の運動に追従して動く仮想被験者である仮想のロボットである、ことを特徴とする請求項7に記載の身まねロボットシステム。
- 前記ディスプレイ装置は、3次元仮想空間内に位置する実在する人の位置及び動作を検出する運動情報検出手段と、該人の位置及び動作を3次元仮想空間内に仮想被験者として提示する仮想被験者提示手段とからなる、ことを特徴とする請求項7に記載の身まねロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005008578A JP4463120B2 (ja) | 2005-01-17 | 2005-01-17 | 身まねロボットシステムとその身まね動作制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005008578A JP4463120B2 (ja) | 2005-01-17 | 2005-01-17 | 身まねロボットシステムとその身まね動作制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006192548A JP2006192548A (ja) | 2006-07-27 |
JP4463120B2 true JP4463120B2 (ja) | 2010-05-12 |
Family
ID=36798999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005008578A Expired - Fee Related JP4463120B2 (ja) | 2005-01-17 | 2005-01-17 | 身まねロボットシステムとその身まね動作制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4463120B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019180916A1 (ja) * | 2018-03-23 | 2019-09-26 | 三菱電機株式会社 | ロボット制御装置 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100813693B1 (ko) | 2006-11-28 | 2008-03-14 | 한국과학기술연구원 | 로봇의 팔 동작 제어 방법 및 그 로봇 |
JP5109098B2 (ja) * | 2007-06-14 | 2012-12-26 | 本田技研工業株式会社 | 運動制御システム、運動制御方法および運動制御プログラム |
JP5141876B2 (ja) * | 2007-09-12 | 2013-02-13 | 株式会社国際電気通信基礎技術研究所 | 軌道探索装置 |
JP5252393B2 (ja) * | 2008-05-13 | 2013-07-31 | 独立行政法人情報通信研究機構 | 動作学習装置 |
EP2224303B1 (en) * | 2009-02-27 | 2011-01-19 | Honda Research Institute Europe GmbH | Robot with automatic selection of task-specific representations for imitation learning |
JP2011200997A (ja) * | 2010-03-26 | 2011-10-13 | Kanto Auto Works Ltd | ロボットのティーチング装置及びティーチング方法 |
JP5583282B2 (ja) * | 2011-08-24 | 2014-09-03 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 |
WO2015020134A1 (ja) * | 2013-08-08 | 2015-02-12 | 国立大学法人京都大学 | 身体の動作に基づく制御指令生成方法及び制御指令生成装置 |
JP6640060B2 (ja) * | 2016-09-27 | 2020-02-05 | 株式会社日立製作所 | ロボットシステム |
KR102090636B1 (ko) | 2018-09-14 | 2020-03-18 | 엘지전자 주식회사 | 로봇, 로봇 시스템 및 그 동작 방법 |
CN109079794B (zh) * | 2018-09-18 | 2020-12-22 | 广东省智能制造研究所 | 一种基于人体姿态跟随的机器人控制与示教方法 |
-
2005
- 2005-01-17 JP JP2005008578A patent/JP4463120B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019180916A1 (ja) * | 2018-03-23 | 2019-09-26 | 三菱電機株式会社 | ロボット制御装置 |
JP6625266B1 (ja) * | 2018-03-23 | 2019-12-25 | 三菱電機株式会社 | ロボット制御装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2006192548A (ja) | 2006-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4463120B2 (ja) | 身まねロボットシステムとその身まね動作制御方法 | |
JP7437327B2 (ja) | 異種入力の補間のための方法およびシステム | |
Cheng et al. | CB: A humanoid research platform for exploring neuroscience | |
Pham et al. | Towards force sensing from vision: Observing hand-object interactions to infer manipulation forces | |
Liu et al. | High-fidelity grasping in virtual reality using a glove-based system | |
Borst et al. | Realistic virtual grasping | |
Tzafestas | Intelligent Systems, Control and Automation: Science and Engineering | |
Lee et al. | Wearable finger tracking and cutaneous haptic interface with soft sensors for multi-fingered virtual manipulation | |
Riley et al. | Enabling real-time full-body imitation: a natural way of transferring human movement to humanoids | |
JP6678832B2 (ja) | 遠隔制御マニピュレータシステムおよび制御装置 | |
Mendoza et al. | Realistic haptic rendering for highly deformable virtual objects | |
GB2575096A (en) | Motion restriction system and method | |
WO2023250267A1 (en) | Robotic learning of tasks using augmented reality | |
JP2007011460A (ja) | 物体の変位シミュレーション方法及び物体の変位シミュレーション装置、並びに力覚提示装置 | |
Amir et al. | Sensor based human arm motion and gesture replication system using MATLAB | |
Menezes et al. | Touching is believing-Adding real objects to Virtual Reality | |
Dave et al. | Avatar-Darwin a social humanoid with telepresence abilities aimed at embodied avatar systems | |
Drobnjakovic et al. | Fusing data from inertial measurement units and a 3D camera for body tracking | |
Higgins et al. | Head Pose as a Proxy for Gaze in Virtual Reality | |
Ohmoto et al. | ICIE: immersive environment for social interaction based on socio-spacial information | |
Banda et al. | Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor | |
Onishi et al. | An immersion‐type 3D dynamic simulation environment for developing human interactive robot systems | |
Charoenseang et al. | 5-finger exoskeleton for assembly training in augmented reality | |
Onishi et al. | Emergent cooperative manipulation of a multi-linked object | |
Hirschmanner | Teleoperation of a humanoid robot using Oculus Rift and Leap Motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090730 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100216 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160226 Year of fee payment: 6 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |