JP5586015B2 - 逆運動学を用いた動作・姿勢生成方法及び装置 - Google Patents
逆運動学を用いた動作・姿勢生成方法及び装置 Download PDFInfo
- Publication number
- JP5586015B2 JP5586015B2 JP2010133431A JP2010133431A JP5586015B2 JP 5586015 B2 JP5586015 B2 JP 5586015B2 JP 2010133431 A JP2010133431 A JP 2010133431A JP 2010133431 A JP2010133431 A JP 2010133431A JP 5586015 B2 JP5586015 B2 JP 5586015B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- order
- motion
- feature points
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 33
- 239000011159 matrix material Substances 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 26
- 239000003550 marker Substances 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 13
- 230000005484 gravity Effects 0.000 description 12
- 230000009466 transformation Effects 0.000 description 7
- 238000000354 decomposition reaction Methods 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- Manipulator (AREA)
Description
本発明は、多自由度リンク系において、各々のリンクとの対応付けを全く必要としない形状情報を入力として逆運動学計算を行う手法を提案する。
形状を表す特徴量を参照値とし、当該形状を表す特徴量は、幾何学的な形状を形成する複数の第1特徴点の位置情報から計算された第1の高次特徴量であり、
多リンク系モデル上には、当該モデルの特定のリンクと夫々関連付けられた複数の第2特徴点が定義されており、当該複数の第2特徴点の位置情報から第2の高次特徴量を計算し、
第2の高次特徴量と第1の高次特徴量との差を最小化するように、第2の高次特徴量、第2の高次特徴量の一般化座標に対するヤコビ行列、一般化座標を数値計算により更新することで、多リンク系モデルの一般化座標を取得する、
動作・姿勢生成方法、である。
幾何学的な形状を形成する複数の第1特徴点の位置情報から計算された第1の高次特徴量を参照値として入力する手段と、
多リンク系モデル上に、当該モデルの特定のリンクと夫々関連付けられて定義された複数の第2特徴点と、
前記複数の第2特徴点の位置情報から第2の高次特徴量を計算する手段と、
前記第2の高次特徴量の一般化座標に対するヤコビ行列を算出する手段と、
前記第1の高次特徴量と算出された一般化座標における第2の高次特徴量との差を算出する手段と、
前記差を最小化するように、第2の高次特徴量、第2の高次特徴量の一般化座標に対するヤコビ行列、一般化座標を数値計算により更新する手段と、
収束された一般化座標によって形状が決定された多リンク系モデルを表示する手段と、
を備えた動作・姿勢生成装置、である。
本発明はまた、動作・姿勢生成装置の各手段をコンピュータに実行させるためのコンピュータプログラムとして提供することができる。
一方、多リンク系モデル上には、当該モデルの特定のリンクと夫々関連付けられた複数の第2特徴点が定義されており、当該複数の第2特徴点の位置情報から第2の高次特徴量を計算する。多リンク系モデルの一般化座標は、第2の高次特徴量の一般化座標に対するヤコビ行列によって、第2の高次特徴量と関係付けられる。このヤコビ行列は、微分逆運動学において、多リンク系モデルの関節角速度と第2の高次特徴量の微小変化を関係付けるものである。
第2の高次特徴量を第1の高次特徴量に近づけていくことで、複数の第2の特徴点の位置は、複数の第1の特徴点によって形成された幾何学的な形状に近づいていくものと考えられ、ラべリングを行うことなく、多リンク系モデルの一般化座標を算出することができ、算出された一般化座標(関節角度)から多リンク系モデルの形状(位置・姿勢)が決まる。
本明細書においては、高次特徴量は1次特徴量を含むものとする。例えば、高次モーメント特徴量には、2次以上のモーメント特徴量のみを指すのではなく、1次モーメント特徴量(逆運動学に用いる)を含む。また、0次モーメント特徴量は、1次以降のモーメントの計算に用いられる。
特徴点に物理量を持った重みを与えることで、特徴点に物理的な意味を持たせることができる。例えば、モーメント特徴量の場合、幾何学的な情報に加えて、画素情報(画像モーメント)、力学的な情報(慣性モーメント)、ラベルや統計情報(統計学でのモーメント)を考えることができる。
光学式モーションキャプチャで取得した動画像が入力された場合には、抽出された複数の光学式マーカを幾何学的な形状を形成する特徴点をみなすことができる。
ポリゴンの場合には、ポリゴン頂点を幾何学的な形状を形成する特徴点をみなすことができる。
2次元画像が入力された場合には、画素一つを二次元平面での幾何学的な形状を形成する特徴点とみなすことができる。画像のサイズがA×Bならば、画像平面に特徴点がA×Bあることになる。画像が入力された場合には、必ずしも全ての画素を特徴点として用いる必要はない。例えば、画像から背景差分、領域抽出、低解像度化など画像処理を行って、画像をある程度加工した上で、新たに得られた画像の特徴点を用いてもよい。
1つの態様では、前記第1の第1の高次特徴量及び前記第2の高次特徴量は、高次キュムラント特徴量である。
1つの態様では、前記第1の第1の高次特徴量及び前記第2の高次特徴量は、高次局所自己相関である。
高次モーメント特徴量、高次キュムラント特徴量、高次局所自己相関が幾何学的な形状を表す特徴量であること及びこれらの計算方法は当業者に知られている。
高次特徴量の一般化座標に対するヤコビ行列は、これらの特徴量について計算される。実施形態では、高次モーメント特徴量の一般化座標に対するヤコビ行列(高次モーメントヤコビ行列)を例にとって説明する。
また、本発明に係る形状を表す特徴量は、上述のものに限定されるものではなく、画像処理分野等で知られている他の特徴量を用いてもよい。
高次特徴量(例えば、高次モーメント特徴量)を介して参照とする特徴点集合と多リンク系とを結びつけるため、特徴点が属するべきモデルをそもそも仮定しなくてよい。すなわち両者の特徴点間の一対一の対応付けは一切必要としないため、参照として与える特徴点の集合は多リンク系のモデルに依存せず自由に与えることができる。よって、多自由度リンク系の運動生成を従来と比較して容易に行うことができる。
三次元のポリゴンデータ、ラベルレスマーカや二次元の画像や動画を入力として、ヒューマノイドやヒューマンフィギュアの動作を生成・計測する技術として有用である。
本発明を用いることで、例えば簡単な形状を描いた画像(例えば、多リンク系であるロボットの全身のポーズを描いた画像)などを入力として、画像上のロボットにおいて各リンクとの対応付け(身体部位のラべリング)を一切行わずに、その全身形状を再現するような多リンク系(ロボット)の位置・姿勢を簡便に求めることができる。
また参照特徴点が持つ情報量は、幾何学的な点、質量、画像からの画素、特定リンクに属するラベル・確率など多種多様であり、これら複数の情報に基づいた逆運動学計算が可能である。
高次モーメント特徴量に基づく逆運動学の性能を検証するため、形状を形作るラベルレスな三次元マーカ集合および二次元画像に対して逆運動学を解き、ヒューマンフィギュアの全身の動作生成例を示す。
[A−1]高次モーメントとそのヤコビ行列
NJ自由度の多リンク系上に定義されたある情報量を持つ特徴点の集合を考える。N個の特徴点の位置ベクトルp1,p2 ・・・・・・pN∈R3(慣性座標表記)のそれぞれについて重みwi∈R(1≦i≦N)を定義する。
またLjに属するという確率で重み付けることも考えられる。
ただし、
は零次モーメント(総重み量)とした。
このとき、重心まわりの三変数M次モーメントμmx,my,mz∈Rは以下のように表せる。
ここで、
mx≧0、my≧0、mz≧0、M>1、である。
●μi,mx,my,mz∈Rは下記のような一つの特徴点iから求まる射影空間S上の高次モーメント、
●xi,yi,zi∈Rは下記のようなS上の各軸に沿った重心からの距離、
●si,x, si,y, si,zはsiの各要素、μx,μy,μzはμの各要素、ξはS上の各座標軸の添え字集合ξ∈{x,y,z}の要素とする。
●Ji,mx,my,mz∈R1×Njは、一つの特徴点iに対する一般化座標qに関する高次モーメントヤコビ行列、
●Jsi,x,Jsi,y,Jsi,z∈R1×Njは、S上における特徴点iの位置si,x,
si,y, si,zに対する一般化座標qに関するヤコビ行列、
●Jμ,x, Jμ,y, Jμ,z∈R1×Njは、重心位置μx,μy,μzに対する一般化座標qに関する重心ヤコビ行列、
●Jpi∈R3×Njは、慣性座標上の特徴点iの位置piに対する一般化座標qに関するヤコビ行列、
●fξ(p)∈Rは、座標変換を表す写像f(p)におけるξ座標への変換写像とする。本実施形態では、特徴点が存在しうる領域近傍においてfξがC∞級関数のものを扱う。
次数m(>1)の場合、Nm=m+2C2個の高次モーメントとヤコビ行列を並べて、μm∈RNmとJm∈RNmを定義する。
次数がm=1の場合は、重心μおよびそのヤコビ行列
を選ぶ。すなわち、μm=μ,Jm=Jμ。
はξ=ζのときに1を、それ以外のときに0を返す。
高次モーメント特徴量の目標値が与えられた場合、多リンク系上に定義されたN個の特徴点が表す高次モーメントが与えられた目標値を実現する一般化座標を求める。通常のリンク位置や姿勢に関する逆運動学と同様に、特別な機構や特徴点の配置を除いてこれらの解析解を得ることは困難であるため、微分線形関係を利用して数値的求解を行う。
Singularity Robustness for Robot Manipulator Control,” Journal of Dynamic
Systems, Measurement, and Control, Vol.108, pp.163-171, 1986.に記載されている。微分逆運動学を解く場合に利用するヤコビ行列が、ロボットがある特殊な姿勢(特異点)の近傍で、その逆行列の計算ができなくなることは当業者によく知られており、特異点低感度運動分解は、そのような姿勢でも逆行列の計算を安定して行う手法である。微分逆運動学計算の方法として幾つもの手法が知られており、本発明は特異点低感度運動分解を用いるものに限定されないことは当業者に理解される。
μm ref∈RNmからの残差em(q)∈RNmを以下のように定義する。
1≦m≦Mまでの全Nμ(=Σm=1 MNm)個のモーメント残差e∈RNμを以下のようにまとめる。
ただし、
とし、λe∈Rは比例(減衰)定数、We∈RNμ×Nμ,Wq∈RNJ×NJは重み行列で正定値対称行列とする。
はステップkで求まる高次モーメントの残差とそのヤコビ行列とする。ヤコビ行列は高次モーメント特徴量の差から一般化座標の変化量を計算するために用いられる。
なお、Jμ,kの計算に利用する特徴点の位置に関するヤコビ行列Jx,i,Jy,i, Jz,iは、通常の微分逆運動学同様に基礎ヤコビ行列(基礎ヤコビ行列については、例えば、O. Khatib. A unified approach for motion and force control of
robotic manipulators: the operational space formulation. IEEE J. Robotics and
Automation, Vol. 3, No. 1, pp. 43.53, 1987.に記載されている)に置き換える。
qk-1は前ステップで求まった解で定数値なので、以下のように更新を行えばよい。
ただし、Jμ,k-1 *は重み行列We,Wwの下での特異点低感度逆行列となり、以下のように定義できる。
式(15)(16)を用いて繰り返し更新を行うことで収束解q*を得る。
複数の情報を利用することは、初期値や機構によって局所最適解に陥る問題を回避する上で重要となってくる。
[B−1]ラベルレスマーカを用いた逆運動学計算結果
提案する逆運動学手法を利用してヒューマンフィギュア(多リンク系モデル)の運動生成を行う。本実施形態では図1のような15個の剛体リンクから構成される計34自由度の等身大モデルを利用する。関節構成は、首、腰、両肩、両手首、両股関節、両足首を球面関節(3自由度)、両肘、両膝を回転関節(1自由度)とする。またヒューマンフィギュアの身体部位上に図1のように計35個の特徴点(マーカ)を配置する。
ヒューマンフィギュアはベースリンクの6自由度も含めると計40自由度の一般化座標を持つ。高次モーメントの各要素は線形独立なので、次数が増加するごとにモーメントが張る空間の次元は増加する。一般化座標の自由度以上の次元を確保するため、5次のモーメントまで考慮して
個のモーメント特徴量を利用する。また、重みは
∀iwi=1とした。式(15)(16)の各パラメータは、λe=1,Wq=10-3とし、Weは対角行列としてm次のモーメントに関する成分は目標マーカの分布から求まる標準偏差、すなわち二次モーメントμ2における対角成分の平方根のm乗で規格化した。
透視変換によって投影された二次平面上でのモーメント特徴量に対して逆運動学を解き、ヒューマンフィギュアの運動生成を行う。まず前節で作成した歩行動作時のマーカの運動を、適当に設置した複数のカメラ視点で捉え、カメラ投影面上での運動データから逆運動学を行う。このシミュレーションでは全てのマーカが遮蔽物無しに見えていると設定した。また各種パラメータは前節と同様に設定した。
画像の場合は、画素一つを二次元平面での特徴点(第1特徴点)と見立てる。例えば、画像のサイズが480x640ならば、画像平面に特徴点が480x640あることになる。各画素の画像上の位置が(1)式のsiの値となる。
ここではヒューマンフィギュア上の特徴点として35個のマーカは利用せず、計14個の関節中心点(第2特徴点)を利用した。各種パラメータは前節のロバスト性を考慮した場合のパラメータを利用した。関節中心は図1上では関節部に存在する球体の中心に相当する。図4は6種類の文字や絵が描かれた画像(上段)をカメラ投影面に映して、画像のモーメント特徴量に対して逆運動学を解いて生成されたポーズ結果(下段)となる。なおモーメントの計算の際には画像を二値化して、黒または灰色の領域をwi=1、それ以外をwi=0としたシルエット情報を利用した。図4から、各関節中心(ヒューマンフィギュアの球体)がシルエット上に分布しており、文字や絵をヒューマンフィギュアが全身で形作っていることが分かる。提案手法は逆運動学で解く多リンク系モデルとは無関係に参照入力を与えることができ、二次元画像からも逆運動学を解き全身の動作生成が可能であることが示された。
本手法は、人型システムなどの多自由度リンク系の運動生成において特に有用であり、マーカやポリゴン頂点など三次元特徴点の集合や二次元画像などを入力として、身体部位との関連付けを行わずに全身のポーズを生成できる。
本手法は、既存の逆運動学手法と連立可能なほか、力学的な質点、画像からの画素値、身体部位のラベル・確率など、多種の情報量に対してモーメントを計算して連立することで、多様な逆運動学を解く事が可能であり、汎用性・応用性が高い。また大域的な最適解を得る上でも、複数の情報を利用可能な点はきわめて重要である。
本実施形態ではモーメント特徴量に基づく逆運動学の性能を純粋に検証するため、一種類のモーメント特徴量のみからヒューマンフィギュアの動作生成を行った。
まず、モーションキャプチャシステムで実際に計測された複数の三次元マーカの集合に対して、身体部位へのラベルを全く与えずに歩行動作を生成できた。
複数のカメラ視点から見た二次元投影面上でのマーカの運動からも同様に三次元空間上で歩行動作が生成できる。力学的な重心や慣性テンソル(の線形変換)はモーメント特徴量の一種であることから、高次モーメントから四肢の動作が生成された結果は、人型システムの身体力学を考える上でも示唆に富んでいる。
また、文字や絵などの二次元画像に対する逆運動学計算からそれら絵図を形作るポーズが生成された。よって本手法は、単純な二次元画像からヒューマンフィギュアを容易にポージング可能なCG作成技術として、また人間の動作映像などから運動を計測・生成するマーカレスモーションキャプチャの基礎技術としても期待できる。
Claims (17)
- 多リンク系モデルの形状を決定する一般化座標を逆運動学により取得する動作・姿勢生成方法であって、
形状を表す特徴量を参照値とし、当該形状を表す特徴量は、幾何学的な形状を形成する複数の第1特徴点の位置情報から計算された高次モーメント特徴量からなる第1の高次特徴量であり、
多リンク系モデル上には、当該モデルの特定のリンクと夫々関連付けられた複数の第2特徴点が定義されており、当該複数の第2特徴点の位置情報から高次モーメント特徴量を計算して第2の高次特徴量とし、
第2の高次特徴量と第1の高次特徴量との差を最小化するように、第2の高次特徴量、第2の高次特徴量の一般化座標に対するヤコビ行列、一般化座標を数値計算により更新することで、多リンク系モデルの一般化座標を取得する、
動作・姿勢生成方法。 - 前記第1の特徴点及び前記第2の特徴点は、位置情報に加えて、質量、画素、特定リンクに属するラベル・確率の少なくとも1つを有している、請求項1に記載の動作・姿勢生成方法。
- 前記複数の第1特徴点は、入力画像から抽出されるものであり、
入力画像から複数の第1特徴点を抽出するステップと、
抽出された複数の第1特徴点の位置情報から第1の高次特徴量を計算するステップと、
を備える、請求項1、2いずれかに記載の動作・姿勢生成方法。 - 前記複数の第1特徴点あるいは/および前記第2特徴点は、3次元空間あるいは2次元空間で定義されている、請求項1乃至3いずれかに記載の動作・姿勢生成方法。
- 前記第1の特徴点は、マーカ、ポリゴンの頂点、画素のいずれかである、請求項1乃至4いずれかに記載の動作・姿勢生成方法。
- 前記第2の特徴点は、リンク上のマーカあるいは関節である、請求項1乃至5いずれかに記載の動作・姿勢生成方法。
- 前記第1の高次特徴量及び前記第2の高次特徴量として、高次モーメント特徴量に代えて、高次キュムラント特徴量を用いる、請求項1乃至6いずれかに記載の動作・姿勢生成方法。
- 前記第1の高次特徴量及び第2の高次特徴量の個数は多リンク系の一般化座標の個数以上である、請求項1乃至7いずれかに記載の動作・姿勢生成方法。
- 多リンク系モデルの形状を決定する一般化座標を逆運動学により取得する動作・姿勢生成装置であって、
幾何学的な形状を形成する複数の第1特徴点の位置情報から計算された高次モーメント特徴量を第1の高次特徴量として入力する手段と、
多リンク系モデル上に、当該モデルの特定のリンクと夫々関連付けられて定義された複数の第2特徴点と、
前記複数の第2特徴点の位置情報から高次モーメント特徴量を計算して第2の高次特徴量として取得する手段と、
前記第2の高次特徴量の一般化座標に対するヤコビ行列を算出する手段と、
前記第1の高次特徴量と算出された一般化座標における第2の高次特徴量との差を算出する手段と、
前記差を最小化するように、第2の高次特徴量、第2の高次特徴量の一般化座標に対するヤコビ行列、一般化座標を数値計算により更新する手段と、
収束された一般化座標によって形状が決定された多リンク系モデルを表示する手段と、
を備えた動作・姿勢生成装置。 - 前記第1の特徴点及び前記第2の特徴点は、位置情報に加えて、質量、画素、特定リンクに属するラベル・確率の少なくとも1つを有している、請求項9に記載の動作・姿勢生成装置。
- 前記複数の第1特徴点は、入力画像から抽出されるものであり、
入力画像から複数の第1特徴点を抽出する手段と、
抽出された複数の第1特徴点の位置情報から第1の高次特徴量を計算する手段と、
を備える、請求項9、10いずれかに記載の動作・姿勢生成装置。 - 前記複数の第1特徴点あるいは/および前記第2特徴点は、3次元空間あるいは2次元空間で定義されている、請求項9乃至11いずれかに記載の動作・姿勢生成装置。
- 前記第1の特徴点は、マーカ、ポリゴンの頂点、画素のいずれかである、請求項9乃至12いずれかに記載の動作・姿勢生成装置。
- 前記第2の特徴点は、リンク上のマーカあるいは関節である、請求項9乃至13いずれかに記載の動作・姿勢生成装置。
- 前記第1の高次特徴量及び前記第2の高次特徴量として、高次モーメント特徴量に代えて、高次キュムラント特徴量を用いる、請求項9乃至14いずれかに記載の動作・姿勢生成装置。
- 前記第1の高次特徴量及び第2の高次特徴量の個数は多リンク系の一般化座標の個数以上である、請求項9乃至15いずれかに記載の動作・姿勢生成装置。
- 請求項9乃至16いずれかに記載された動作・姿勢生成装置の各手段をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010133431A JP5586015B2 (ja) | 2010-06-10 | 2010-06-10 | 逆運動学を用いた動作・姿勢生成方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010133431A JP5586015B2 (ja) | 2010-06-10 | 2010-06-10 | 逆運動学を用いた動作・姿勢生成方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011255474A JP2011255474A (ja) | 2011-12-22 |
JP5586015B2 true JP5586015B2 (ja) | 2014-09-10 |
Family
ID=45472219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010133431A Expired - Fee Related JP5586015B2 (ja) | 2010-06-10 | 2010-06-10 | 逆運動学を用いた動作・姿勢生成方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5586015B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107813313A (zh) * | 2017-12-11 | 2018-03-20 | 南京阿凡达机器人科技有限公司 | 机械臂运动的校正方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005122900A1 (ja) * | 2004-06-16 | 2005-12-29 | The University Of Tokyo | 筋骨格モデルに基づく筋力取得方法及び装置 |
JP5061344B2 (ja) * | 2006-09-25 | 2012-10-31 | 国立大学法人 東京大学 | リンクの質量パラメータの推定法 |
WO2009147875A1 (ja) * | 2008-06-04 | 2009-12-10 | 国立大学法人 東京大学 | 力学パラメータの同定法 |
-
2010
- 2010-06-10 JP JP2010133431A patent/JP5586015B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011255474A (ja) | 2011-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
O'Brien et al. | Automatic joint parameter estimation from magnetic motion capture data | |
Ayusawa et al. | Motion retargeting for humanoid robots based on simultaneous morphing parameter identification and motion optimization | |
Borst et al. | Realistic virtual grasping | |
US8467904B2 (en) | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems | |
CN111152218B (zh) | 一种异构仿人机械臂的动作映射方法及系统 | |
US7859540B2 (en) | Reconstruction, retargetting, tracking, and estimation of motion for articulated systems | |
Borst et al. | A spring model for whole-hand virtual grasping | |
Nakanishi et al. | Comparative experiments on task space control with redundancy resolution | |
Essahbi et al. | Soft material modeling for robotic manipulation | |
US10518412B2 (en) | Robot behavior generation method | |
Jiang et al. | Data-driven approach to simulating realistic human joint constraints | |
RU2308764C2 (ru) | Перемещение виртуального сочлененного объекта в виртуальном пространстве с предотвращением столкновений сочлененного объекта с элементами окружающего пространства | |
JP3866168B2 (ja) | 多重構造を用いた動作生成システム | |
Tao et al. | Human modeling and real-time motion reconstruction for micro-sensor motion capture | |
Lu et al. | 6n-dof pose tracking for tensegrity robots | |
JP5586015B2 (ja) | 逆運動学を用いた動作・姿勢生成方法及び装置 | |
Gragg et al. | Optimization-based posture reconstruction for digital human models | |
Deng et al. | A robot-object unified modeling method for deformable object manipulation in constrained environments | |
Pouliquen et al. | Real-time finite element finger pinch grasp simulation | |
Kwan | Closed-form and generalized inverse kinematic solutions for animating the human articulated structure | |
Molet et al. | An architecture for immersive evaluation of complex human tasks | |
Yi et al. | The implementation of haptic interaction in virtual surgery | |
Schmidl et al. | Geometry‐driven physical interaction between avatars and virtual environments | |
Ayusawa et al. | Inverse kinematics based on high-order moments of feature points and their Jacobian matrices | |
Li et al. | Target ball localization for industrial robots based on binocular stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5586015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |