JPH10133733A - アミューズメントロボットの動作教示方法及び動作教示装置 - Google Patents

アミューズメントロボットの動作教示方法及び動作教示装置

Info

Publication number
JPH10133733A
JPH10133733A JP28965696A JP28965696A JPH10133733A JP H10133733 A JPH10133733 A JP H10133733A JP 28965696 A JP28965696 A JP 28965696A JP 28965696 A JP28965696 A JP 28965696A JP H10133733 A JPH10133733 A JP H10133733A
Authority
JP
Japan
Prior art keywords
teaching
link
robot
hand body
links
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28965696A
Other languages
English (en)
Inventor
Chiaki Nakajima
千明 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KOKORO KK
Kokoro Co Ltd
Original Assignee
KOKORO KK
Kokoro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KOKORO KK, Kokoro Co Ltd filed Critical KOKORO KK
Priority to JP28965696A priority Critical patent/JPH10133733A/ja
Publication of JPH10133733A publication Critical patent/JPH10133733A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 教示対象であるアミューズメントロボットの
基になる生物の動作に類似した自然な動きを再現するこ
とができるアミューズメントロボットの動作教示方法及
び動作教示装置を提供する。 【解決手段】 アミューズメントロボット1の全リンク
Lの中から代表的なリンクMi (i=1,2,・・・,
m)を必要なだけ選出し、選出されたリンクMiの中か
ら関節を持って接続されているリンクMj とリンクMk
の間の逆運動学問題を解いておき、選出された代表的な
リンクMi に関連付けする手本体4の部位Ni (i=
1,2,・・・,m)を選出し、手本体4の部位Nを観
測点として、その位置又は姿勢を3次元位置・姿勢検出
装置2により計測し、コンピュータ3により、上記逆運
動学問題を解くことにより得られた教示データの生成式
に上記計測結果を代入して教示データを得て、上記アミ
ューズメントロボット1の動作教示を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、アミューズメント
ロボットの動作教示方法及び動作教示装置に関する。
【0002】
【従来の技術】従来より、ロボットの動作教示方法とし
ては、1自由度毎に直接的に教示データを入力する方法
や、手本体すなわち動きの手本となる例えば人間のロボ
ットの関節と対応する部位の動きを直接計測して教示デ
ータを得る方法等が知られている。
【0003】また、コンピュータグラフィクスの制作や
医学生理学の分野においては、モーションキャプチャ技
術によって、手本体に設定した注目点の位置や姿勢を時
間でサンプリングしたデータとして測定することが行わ
れている。
【0004】一般に、人間や動物又はそれらに類似した
外観を持つアミューズメントロボットにおいて、それら
の基礎になっている生物の自由度を全て組み込むこと
は、困難であり、現実的でない。通常、アミューズメン
トロボットに組み込まれる自由度は、要求される演出を
表現できる最低限度の自由度に限定され、設計される。
【0005】例えば、人間の肩及び上腕について考える
と、上体より、まず肩胛骨及び鎖骨によるリンクがあ
り、ここから上腕へとつながっている。したがって、人
体では上腕の姿勢を変えることなく、肩の上下動作や肩
を回す動作を行うことができる。
【0006】ロボットを構成する場合において、この肩
周りの動作が不要とされたときは、鎖骨及び肩胛骨のリ
ンクを省略し、上体から上腕を直接構成することが行わ
れる。これにより、このロボットは上腕を動かすことは
できても肩を回すことはできない仕様となる。
【0007】
【発明が解決しようとする課題】ところで、従来より知
られている1自由度毎に直接的に教示データを入力する
方法は、どのような形態のロボットにも対しても教示で
きるのであるが、複数の自由度に対する同時入力ができ
ず、複合的な動きを教示することはできない。当然、全
体の動きをリアルタイムに教示することはできない。
【0008】また、手本体すなわち動きの手本となる例
えば人間のロボットの関節と対応する部位の動きを直接
計測して教示データを得る方法では、ロボットの関節に
1体1で対応する測定箇所における測定結果が得られる
ことを条件として、複合的な動きを教示することはでき
るのである。しかし、実際に多くの関節に対応する動き
を正しく同時計測することは容易ではない。
【0009】すなわち、ある関節角を測定する際には、
隣接する自由度の影響を受けることなく、その関節角の
みを純粋に測定する必要がある。例えば、上腕と前腕に
何らかの器具を取り付けて肘の曲げ角を測定する場合、
肘は蝶番関節であるので1自由度であるが、前腕は回旋
できるので、この回旋によっても肘の動きの計測に影響
を受けないようにする必要がある。また、逆に、前腕の
回旋角は肘の影響を受けずに計測する必要がある。ま
た、肩関節は3自由度を持つ球関節であり、この3自由
度を分離して計測するのは極めて困難である。また、手
本体には個体差があるので、手本体に取り付ける器具
は、身長や体型などの違いに対応できる必要がある。
【0010】さらに、この方法は、手本体に対する測定
個所がロボットの構造に依存するので、ロボットの関節
位置に合わせて測定点を定める必要があり、構造の異な
るロボット毎に異なる測定器を準備する必要がある。
【0011】また、コンピュータグラフィクスの制作や
医学生理学の分野において実用化されている光学式モー
ションキャプチャのシステムでは、検出器であるカメラ
は不動点である地面に固定されている。したがって、こ
のシステムにより手本体の動きを測定する場合、手本体
である動物の胴部から生起している手足、頭、尾等の各
部と胴部との相対関係を求める際に、全て基準座標系で
ある地面を経由した計算処理となり、計算量が多いばか
りでなく、特に胴部の測定誤差は全身に亘って誤差の伝
搬を引き起こすことになる。
【0012】ここで、アミューズメントロボットでは、
何らかの物理的な作業を行う産業用ロボットとは異な
り、その作用端の位置や動作精度に対する要求度は低
く、それよりも、その基になる生物の動作に類似した自
然な動きを再現することに重点がおかれる。生物的で自
然な動きは、構成要素の複合的な連携によるものであ
り、単純な関数として記述できるものではない。
【0013】また、アミューズメントロボットに模され
る動物の多くは、胴部を持ち、そこから手足、頭、尾が
生起している。動作教示において、最終的に必要となる
のは、各部間の相対的な位置(姿勢)関係であるから、
胴部を基準位置とする各部の測定データすなわち教示デ
ータが得られると都合が良い。
【0014】そこで、本発明の目的は、教示対象である
アミューズメントロボットの基になる生物の動作に類似
した自然な動きを再現することができるアミューズメン
トロボットの動作教示方法及び動作教示装置を提供する
ことにある。
【0015】
【課題を解決するための手段】本発明に係るアミューズ
メントロボットの動作教示方法は、アミューズメントロ
ボットの全リンクLの中から代表的なリンクMi (i=
1,2,・・・,m)を必要なだけ選出し、選出された
リンクMi の中から関節を持って接続されているリンク
j とリンクMk の間の逆運動学問題を解いておき、選
出された代表的なリンクMi に関連付けする手本体の部
位Ni (i=1,2,・・・,m)を選出し、手本体の
部位Nを観測点として、その位置又は姿勢を計測し、上
記逆運動学問題を解くことにより得られた教示データの
生成式に上記計測結果を代入して教示データを得て、上
記アミューズメントロボットの動作教示を行うことを特
徴とする。
【0016】本発明に係るアミューズメントロボットの
動作教示装置は、教示対象であるアミューズメントロボ
ットに教示する動作の手本となる動作を与える手本体
と、上記手本体の各測定部位の3次元位置又は姿勢を検
出する3次元位置・姿勢検出装置と、上記3次元位置・
姿勢検出装置による上記手本体の各測定部位の3次元位
置又は姿勢を示す検出情報に基づいて、上記手本体によ
り与えられた動作の教示データを生成して、上記アミュ
ーズメントロボットの動作教示を行う演算処理装置とを
備え、上記演算処理装置により、上記アミューズメント
ロボットの全リンクLから選出された代表的なリンクM
i (i=1,2,・・・,m)の中から関節を持って接
続されているリンクMj とリンクMk の間の逆運動学問
題を解くことにより得られる教示データの生成式に、選
出された代表的なリンクMi に関連付けする上記手本体
の部位Ni (i=1,2,・・・,m)の位置又は姿勢
を上記3次元位置・姿勢検出装置により計測して得られ
る計測データを代入して、教示データを得ることを特徴
とする。
【0017】また、本発明に係るアミューズメントロボ
ットの動作教示装置では、上記3次元位置・姿勢検出装
置により、例えば、上記手本体の胴部を原点位置とする
3次元空間における各測定部位の3次元位置又は姿勢を
検出する。
【0018】
【発明の実施の形態】以下、本発明に係るアミューズメ
ントロボットの動作教示方法及び動作教示装置の好適な
実施の形態について図面を参照しながら詳細に説明す
る。
【0019】本発明に係るアミューズメントロボットの
動作教示装置は、例えば図1に示すように、手本体1と
3次元位置姿勢検出装置2とコンピュータ3から構成さ
れる。
【0020】上記手本体1は、教示対象であるアミュー
ズメントロボット4に教示する動作の手本となる動作を
与える動物やそれらの模型から成る。
【0021】また、上記3次元位置・姿勢検出装置2
は、3次元位置・姿勢検出用の発信信号を出力する1個
の発信器2Aとこの発信器2Aから出力された発信信号
を受信する複数個の受信器2B,2C・・・が接続され
ており、各受信器2B,2C・・・による受信出力に基
づいて、上記発信器2Aを原点位置とする3次元空間に
おける各受信器2B,2C・・・の位置又は姿勢を示す
検出情報を出力する機能を有するもので、この実施の形
態にではPOLHEMUS社製の磁気式3次元位置姿勢
検出装置が用いられている。そして、この実施形態にお
いて、上記発信器2Aは上記手本体1の胴部1Aの原点
位置に取り付けられ、各受信器2B,2C・・・は頭部
1B,前腕手首部1Cや腰部1D・・・等の各測定部位
に取り付けられている。したがって、上記3次元位置・
姿勢検出装置2は、上記手本体1の胴部1Aを原点位置
とする3次元空間における各測定部位の3次元位置又は
姿勢を検出することにより、上記手本体1の全身が地面
に対してどのように運動していても、その影響を受ける
ことなく胴部と各測定部位の相対関係を計測することが
できる。
【0022】さらに、上記コンピュータ3は、教示対象
であるアミューズメントロボット4について、逆運動学
問題を解いて教示データの生成式を求めておき、上記3
次元位置・姿勢検出装置2による検出出力すなわち上記
手本体1の胴部1Aに取り付けられた上記発信器2Aを
原点位置とする3次元空間における上記手本体1の頭部
1B,前腕手首部1Cや腰部1Dの各測定部位に取り付
けられた各受信器2B,2C・・・の位置又は姿勢を示
す検出情報を上記教示データの生成式に代入することに
よって教示データを生成し、この教示データを教示対象
であるアミューズメントロボット4に供給する。
【0023】この実施の形態では、次の手順に従った動
作教示方法によりアミューズメントロボット4の動作教
示を行う。
【0024】すなわち、上記アミューズメントロボット
4の前リンクLの中から代表的なリンクMi (i=1,
2,・・・,m)を必要なだけ選出する。
【0025】そして、選出されたリンクMi の中から関
節を持って接続されているリンクMj とリンクMk の間
の逆運動学問題を解いておく。
【0026】また、選出された代表的なリンクMi に関
連付けする手本体1の部位Ni (i=1,2,・・・,
m)を選出する。
【0027】次に、手本体1の部位Nを観測点として、
その位置や姿勢の計測を行う。
【0028】そして、上記逆運動学問題を解くことによ
り得られた教示データの生成式に上記計測結果を代入し
て教示データを得る。
【0029】このように、手本体1の動きを計測して教
示データを得ることにより、複雑な動きでも自然な動作
の教示を行うことができる。また、同時に多くの関節に
対する教示データを得ることにより、複合的あるいは有
機的な動作の教示を行うことができる。また、一般に非
常に多自由度である手本体の骨格のモデル化など手本体
自体の運動学的あるいは逆運動学的が考慮を全く必要と
することなく、自然な動作の教示を行うことができる。
さらに、代表的なリンクMi と、それに関連付けされる
手本体の部位(観測点)Ni は、その間に制約はなく、
逆運動学問題が解けるように選択されればよい。したが
って、全く構造の異なる教示対象、例えば恐竜のような
現在実在しない動物の動作を、例えば人間を手本として
教示することもできる。また、計測したデータを保存し
ておき、違う構造のロボットに対して教示を行うことも
可能である。
【0030】さらに、選出した代表的なリンクMi (i
=1,2,・・・,m)の中から関節を持って接続され
ているリンクMj とリンクMk の間にあるロボットの自
由度の教示データを定められる限り、それに関連付けさ
れる手本体の部位(観測点)Nj ,Nk の取り方は任意
であり、それらの間に手本体の自由度が幾つあっても良
い。したがって、例えば、肩を回す動作が不要とされた
人間型ロボットに対しては、上体及び上腕の位置データ
を使わずに、姿勢データのみから教示データを計算する
ようにすることにより、手本体1が上腕を動かしたとき
に、鎖骨及び肩胛骨による肩関節位置の移動の影響を受
けないようにすることができる。リンクMj とリンクM
k の選び方により、このようなロボットにない手本体の
自由度による影響をなくすことが可能である。
【0031】ここで、例えば、上記アミューズメントロ
ボット4における頭部1Bの動作に対する要求仕様が うなずき動作 首を傾げる動作 顔を左右に向ける動作 であるとき、首部の構造としては図2に示すような例が
考えられる。すなわち、上体と頭部をそれぞれ末端リン
クLB ,LH として、そのあいだが首3関節とリンクL
H1,LH2よって接続されている。
【0032】この例に適用した場合、本発明に係る動作
教示方法では、末端リンクLB ,LH を代表的なリンク
B ,MH として選出する。
【0033】そして、この代表的なリンクMB ,MH
の逆運動学問題を解くと、上記リンクMB ,MH 上のフ
レームをそれぞれ{B},{H}とし、フレーム{B}
に対するフレーム{H}の位置と姿勢が測定され、次の
同次変換行列B HTで表されるとき、
【0034】
【数1】
【0035】各関節角θ1 ,θ2 ,θ3 は、回転行列B H
Rの要素を用いて、
【0036】
【数2】
【0037】で求められる。
【0038】また、選出された代表的なリンクMB ,M
H に関連付けする手本体1の部位NB ,NH として、N
B には手本体1の頭部を選出し、NH として手本体1の
上体を選出する。
【0039】次に、手本体1の各部位NB ,NH を観測
点として、その位置や姿勢の計測を行う。これにより、
手本体1の各部位NB ,NH 上のフレームをそれぞれ
{B’},{H’}とし、フレーム{B’}に対するフ
レーム{H’}の回転行列B HR’を測定結果として得
る。
【0040】そして、B HR=B HR’とみなして、上記逆
運動学問題を解くことにより得られた教示データの生成
式(1)に上記計測結果を代入して、各関節角θ1 ,θ
2 ,θ3 を教示データとして得る。
【0041】以上の動作教示方法によりアミューズメン
トロボット4の頭部の各動作 関節角θ3 に対応するうなずき動作 関節角θ2 に対応する首を傾げる動作 関節角θ1 に対応する顔を左右に向ける動作 に関して、手本体1の自然な動きと同じ動作を行わせる
ことができる。
【0042】なお、上記各部位NB ,NH の位置や姿勢
の計測動作と各関節角θ1 ,θ2 ,θ3 の演算処理を適
当なサンプリング周期を持って反復実行することによ
り、各関節角θ1 ,θ2 ,θ3 の時系列データを得て一
連の教示データとする。
【0043】次に、本発明を人体型アミューズメントロ
ボットに適用する例について説明する。
【0044】例えば図3の(A)に示すように、3自由
度のボールジョイント部BJを10個と1自由度の旋回
関節部RJを4個用いて構成される34自由度の人体型
アミューズメントロボット10では、ボールジョイント
部BJをジンバル機構で構成すると、ジンバル機構には
中間的なリンクが2つ含まれるので、全リンク数は34
となる。そこで、本発明方法に従って、この全リンクL
の中から、代表的なリンクMi として、図3の(A)に
示す15個のリンクL1 〜L15を選出し、その代表的な
リンクに関連付けするために図3の(B)に示す手本体
40の各部位N1 〜N15を選出して、各部位N1 〜N15
の姿勢を測定することで、34自由度の関節角すなわち
教示データの全てを求めることができる。
【0045】ここでは、測定基準フレームはN1 にある
ものとし、N1 に対するN2 〜N15の姿勢を表す回転
行列を R〜 1 15Rとする。
【0046】ボールジョイント部BJの3自由度及び旋
回関節部RJの1自由度の関節角は、関節を挟む両端の
間の回転行列がわかれば求められるので、この例のよう
に代表リンクを選出すれば、各代表リンクの姿勢から全
自由度を求めることができる。その代表リンクの姿勢デ
ータとして、手本体40の測定結果1 2R〜 1 15Rを代入
することにより、教示データを得る。すなわち、接続関
係にある代表リンク間の回転行列として1 2R〜 1 15Rを
用いることにより、次の表lに示す代表リンク間の回転
行列から34個の全関節角を求めることができる。
【0047】
【表1】
【0048】
【発明の効果】本発明に係るアミューズメントロボット
の動作教示方法では、アミューズメントロボットの全リ
ンクLから選出した代表的なリンクMi (i=1,2,
・・・,m)の中から関節を持って接続されているリン
クMj とリンクMk の間の逆運動学問題を解いておき、
選出された代表的なリンクMi に関連付けする手本体の
部位Ni (i=1,2,・・・,m)を観測点として、
その位置又は姿勢を計測し、上記逆運動学問題を解くこ
とにより得られた教示データの生成式に上記計測結果を
代入して教示データを得ることにより、教示対象である
アミューズメントロボットの基になる生物の動作に類似
した自然な動きを再現することができる極めて自然な動
作の教示を行うことができる。すなわち、手本体の動き
を計測して教示データを得るので、複雑な動きでも自然
な動作の教示を行うことができる。また、同時に多くの
関節に対する教示データが得られるので、複合的あるい
は有機的な動作の教示を行うことができる。また、一般
に非常に多自由度である手本体の骨格のモデル化など手
本体自体の運動学的あるいは逆運動学的が考慮を全く必
要とすることなく、自然な動作の教示を行うことができ
る。さらに、代表的なリンクMi と、それに関連付けさ
れる手本体の部位(観測点)Ni は、その間に制約はな
く、逆運動学問題が解けるように選択されればよい。し
たがって、全く構造の異なる教示対象、例えば恐竜のよ
うな現在実在しない動物の動作を、例えば人間を手本と
して教示することもできる。また、計測したデータを保
存しておき、違う構造のロボットに対して教示を行うこ
とも可能である。
【0049】さらに、選出した代表的なリンクMi (i
=1,2,・・・,m)の中から関節を持って接続され
ているリンクMj とリンクMk の間にあるロボットの自
由度の教示データを定められる限り、それに関連付けさ
れる手本体の部位(観測点)Nj ,Nk の取り方は任意
であり、それらの間に手本体の自由度が幾つあっても良
い。したがって、例えば、肩を回す動作が不要とされた
人間型ロボットに対しては、上体及び上腕の位置データ
を使わずに、姿勢データのみから教示データを計算する
ようにすることにより、手本体が上腕を動かしたとき
に、鎖骨及び肩胛骨による肩関節位置の移動の影響を受
けないようにすることができる。リンクMj とリンクM
k の選び方により、このようなロボットにない手本体の
自由度による影響をなくすことが可能である。
【0050】本発明に係るアミューズメントロボットの
動作教示装置では、演算処理装置により、アミューズメ
ントロボットの全リンクLから選出された代表的なリン
クMi (i=1,2,・・・,m)の中から関節を持っ
て接続されているリンクMとリンクMの間の逆運
動学問題を解くことにより得られる教示データの生成式
に、選出された代表的なリンクMi に関連付けする手本
体の部位Ni (i=1,2,・・・,m)の位置又は姿
勢を3次元位置・姿勢検出装置により計測して得られる
計測データを代入して教示データを得て、教示対象であ
る上記アミューズメントロボットの基になる生物の動作
に類似した自然な動きを再現することができる極めて自
然な動作の教示を行うことができる。
【0051】また、本発明に係るアミューズメントロボ
ットの動作教示装置では、上記3次元位置・姿勢検出装
置で、例えば、上記手本体の胴部を原点位置とする3次
元空間における各測定部位の3次元位置又は姿勢を検出
することにより、全身が地面に対してどのように運動し
ていても、その影響を受けることなく胴部と各測定部位
の相対関係を計測することができる。
【図面の簡単な説明】
【図1】本発明に係るアミューズメントロボットの動作
教示装置の要部構成を示す図である。
【図2】アミューズメントロボットの首部の構造例を示
す図である。
【図3】本発明の人体型アミューズメントロボットへの
適用例を説明するための図である。
【符号の説明】
1,40 手本体、2 3次元位置・姿勢検出装置、2
A 発信器、2B,2C・・・ 受信器、3 コンピュ
ータ、4,10 アミューズメントロボット

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 アミューズメントロボットの全リンクL
    の中から代表的なリンクMi (i=1,2,・・・,
    m)を必要なだけ選出し、 選出されたリンクMi の中から関節を持って接続されて
    いるリンクMj とリンクMk の間の逆運動学問題を解い
    ておき、 選出された代表的なリンクMi に関連付けする手本体の
    部位Ni (i=1,2,・・・,m)を選出し、 手本体の部位Nを観測点として、その位置又は姿勢を計
    測し、 上記逆運動学問題を解くことにより得られた教示データ
    の生成式に上記計測結果を代入して教示データを得て、 上記アミューズメントロボットの動作教示を行うことを
    特徴とするアミューズメントロボットの動作教示方法。
  2. 【請求項2】 教示対象であるアミューズメントロボッ
    トに教示する動作の手本となる動作を与える手本体と、 上記手本体の各測定部位の3次元位置又は姿勢を検出す
    る3次元位置・姿勢検出装置と、 上記3次元位置・姿勢検出装置による上記手本体の各測
    定部位の3次元位置又は姿勢を示す検出情報に基づい
    て、上記手本体により与えられた動作の教示データを生
    成して、上記アミューズメントロボットの動作教示を行
    う演算処理装置とを備え、 上記演算処理装置は、上記アミューズメントロボットの
    全リンクLから選出された代表的なリンクMi (i=
    1,2,・・・,m)の中から関節を持って接続されて
    いるリンクMj とリンクMk の間の逆運動学問題を解く
    ことにより得られる教示データの生成式に、選出された
    代表的なリンクMi に関連付けする上記手本体の部位N
    i(i=1,2,・・・,m)の位置又は姿勢を上記3
    次元位置・姿勢検出装置により計測して得られる計測デ
    ータを代入することにより、教示データを得ることを特
    徴とするアミューズメントロボットの動作教示装置。
  3. 【請求項3】 上記3次元位置・姿勢検出装置は、上記
    手本体の胴部を原点位置とする3次元空間における各測
    定部位の3次元位置又は姿勢を検出することを特徴とす
    る請求項2記載のアミューズメントロボットの動作教示
    装置。
JP28965696A 1996-10-31 1996-10-31 アミューズメントロボットの動作教示方法及び動作教示装置 Pending JPH10133733A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28965696A JPH10133733A (ja) 1996-10-31 1996-10-31 アミューズメントロボットの動作教示方法及び動作教示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28965696A JPH10133733A (ja) 1996-10-31 1996-10-31 アミューズメントロボットの動作教示方法及び動作教示装置

Publications (1)

Publication Number Publication Date
JPH10133733A true JPH10133733A (ja) 1998-05-22

Family

ID=17746063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28965696A Pending JPH10133733A (ja) 1996-10-31 1996-10-31 アミューズメントロボットの動作教示方法及び動作教示装置

Country Status (1)

Country Link
JP (1) JPH10133733A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002081157A1 (fr) * 2001-04-03 2002-10-17 Sony Corporation Robot mobile a deux jambes, procede de commande de mouvement et support de stockage
JP2005523827A (ja) * 2002-04-30 2005-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 一組の可動部分を有するロボット用のアニメートシステム
JP2007125670A (ja) * 2005-11-07 2007-05-24 Advanced Telecommunication Research Institute International ロボット用表現動作変換システム
WO2007088743A1 (ja) * 2006-02-01 2007-08-09 Honda Motor Co., Ltd. ロボットの関節構造
JP2010089248A (ja) * 2008-10-09 2010-04-22 National Chiao Tung Univ ハンドパペットマニピュレーションシステム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002081157A1 (fr) * 2001-04-03 2002-10-17 Sony Corporation Robot mobile a deux jambes, procede de commande de mouvement et support de stockage
US7024276B2 (en) 2001-04-03 2006-04-04 Sony Corporation Legged mobile robot and its motion teaching method, and storage medium
JP2005523827A (ja) * 2002-04-30 2005-08-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 一組の可動部分を有するロボット用のアニメートシステム
JP2007125670A (ja) * 2005-11-07 2007-05-24 Advanced Telecommunication Research Institute International ロボット用表現動作変換システム
WO2007088743A1 (ja) * 2006-02-01 2007-08-09 Honda Motor Co., Ltd. ロボットの関節構造
JP4971984B2 (ja) * 2006-02-01 2012-07-11 本田技研工業株式会社 ロボットの関節構造
JP2010089248A (ja) * 2008-10-09 2010-04-22 National Chiao Tung Univ ハンドパペットマニピュレーションシステム
US8571707B2 (en) 2008-10-09 2013-10-29 National Chiao Tung University Glove puppet manipulating system

Similar Documents

Publication Publication Date Title
CN101579238B (zh) 人体运动捕获三维再现系统及其方法
Cobos et al. Efficient human hand kinematics for manipulation tasks
Bachmann et al. Inertial and magnetic tracking of limb segment orientation for inserting humans into synthetic environments
Asfour et al. Imitation learning of dual-arm manipulation tasks in humanoid robots
Fang et al. A novel data glove using inertial and magnetic sensors for motion capture and robotic arm-hand teleoperation
CN201431466Y (zh) 人体运动捕获三维再现系统
Fang et al. Development of a wearable device for motion capturing based on magnetic and inertial measurement units
CN107616898B (zh) 基于日常动作的上肢穿戴式康复机器人及康复评价方法
RU2107328C1 (ru) Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа
CN107330967A (zh) 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统
Nowka et al. On motions that allow for identification of hinge joint axes from kinematic constraints and 6D IMU data
CN108279773B (zh) 一种基于marg传感器和磁场定位技术的数据手套
Mirabella et al. A motion capture system for sport training and rehabilitation
CN110456902A (zh) 跟踪用户移动以控制计算机系统中的骨架模型
Maycock et al. Robust tracking of human hand postures for robot teaching
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
CN107527316B (zh) 二维超声影像序列上的任意点构建点云数据的方法及系统
JPH10133733A (ja) アミューズメントロボットの動作教示方法及び動作教示装置
Rosado et al. Reproduction of human arm movements using Kinect-based motion capture data
CN110675936B (zh) 一种基于OpenPose和双目视觉的健体代偿评估方法和系统
Lin et al. Using hybrid sensoring method for motion capture in volleyball techniques training
Essomba et al. Contribution to the design of robotized tele-echography system
CN111369626A (zh) 基于深度学习的无标志点上肢运动分析方法及系统
Ji et al. Motion trajectory of human arms based on the dual quaternion with motion tracker
Plantard et al. Usability of corrected Kinect measurement for ergonomic evaluation in constrained environment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070122

A02 Decision of refusal

Effective date: 20070213

Free format text: JAPANESE INTERMEDIATE CODE: A02