JP2007125670A - ロボット用表現動作変換システム - Google Patents

ロボット用表現動作変換システム Download PDF

Info

Publication number
JP2007125670A
JP2007125670A JP2005322140A JP2005322140A JP2007125670A JP 2007125670 A JP2007125670 A JP 2007125670A JP 2005322140 A JP2005322140 A JP 2005322140A JP 2005322140 A JP2005322140 A JP 2005322140A JP 2007125670 A JP2007125670 A JP 2007125670A
Authority
JP
Japan
Prior art keywords
robot
human
attention
trajectory
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005322140A
Other languages
English (en)
Other versions
JP2007125670A5 (ja
JP4997419B2 (ja
Inventor
Kazuhiko Shinosawa
一彦 篠沢
Keiko Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005322140A priority Critical patent/JP4997419B2/ja
Publication of JP2007125670A publication Critical patent/JP2007125670A/ja
Publication of JP2007125670A5 publication Critical patent/JP2007125670A5/ja
Application granted granted Critical
Publication of JP4997419B2 publication Critical patent/JP4997419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】人間の動作をたとえばモーションキャプチャで入力するだけで、その人間の動作に近似した動作を再現できるシステムを提供する。
【解決手段】動作変換システム100はモーションキャプチャ102を含み、モーションキャプチャ102で取得した人間の動作を、頭部,左手,右手および胴体の関係で、基準座標系に対する注目座標系の位置および向きデータとして記述しなおし、それをロボットの頭部,左手,右手および胴体の関係で、基準座標系に対する注目座標系の位置および向きデータとして近似し、その近似を満足するロボットの関節角度を計算する。
【選択図】図1

Description

この発明はロボット用動作変換システムに関し、特にたとえば、人間の表現動作をロボットの表現動作に変換し、それによってロボットに人間の表現動作と類似の表現動作を行わせることができる、新規なロボット用動作変換システムに関する。
モーションキャプチャシステムのようなこの種の表現動作変換システムは、非特許文献1-3に示すように、主として、人間の表現動作(ジェスチャ)をそのまま表現できる3次元CGでのキャラクタの動作に変換するものであった。
http://www.vicon.com/products/bodybuilder.html http://www.vicon.com/products/polygon.html http://www.crescentvideo.co.jp/vicon/mx/software/index.shtml
人間の動作を表現するために多くの自由度を必要とするが、上述の様な3次元CG(Computer Graphics)キャラクタは自在に変形できるので、モーションキャプチャで取得した人間の動作を3次元CGキャラクタの動作に変換するに当たって大きな困難はない。しかしながら、少ない自由度しか持たないロボットでは、人間の動作を正確になぞると言うことは不可能であり、従来、そのようなロボットのための有用な動作変換システムは存在しなかった。
それゆえに、この発明の主たる目的は、新規な、ロボット用動作変換システムを提供することである。
この発明の他の目的は、人間の動作をロボットに可及的正確に再現させることができる、ロボット用動作変換システムを提供することである。
請求項1の発明は、人間の動作に伴う各部位の位置データを入力する位置データ入力手段、位置データに基づいて人間の注目対象の軌跡を頭部,左手,右手および胴体のうちの2つの相対位置関係で記述する人間動作記述手段、および人間動作記述手段で記述した人間の注目対象の軌跡を、ロボットの注目対象の頭部,左手,右手および胴体のうちの2つの相対位置関係で記述した軌跡に近似する近似手段を備える、ロボット用動作変換システムである。
請求項1の発明では、たとえばモーションキャプチャ(102)のような位置データ入力手段が、人間の動作に伴う各部位の位置データを入力する。実施例の動作変換コンピュータ(104)で構成される人間動作記述手段(S5)が、入力された位置データに基づいて、人間の注目対象の軌跡(Hp,Hr)を頭部,左手,右手および胴体のうちの2つの相対位置関係で記述する。同じく実施例の動作変換コンピュータ(104)で構成される近似手段(S13,S17)が、その人間の注目対象の軌跡を、ロボットの注目対象の頭部,左手,右手および胴体のうちの2つの相対位置関係で記述した軌跡に近似する。したがって、その近似した軌跡に基づいてロボットを制御すれば、人間の動作をロボットに再現させることができる。
請求項1の発明によれば、人間の動作に伴う位置データを入力するだけで、人間よりはるかに少ない自由度のロボットにその人間の動作に近似した動作を行わせることができる。
請求項2の発明は、人間動作記述手段で記述した人間の注目対象の軌跡を正規化する正規化手段をさらに備え、近似手段は正規化手段で正規化した人間の注目対象の軌跡をロボットの注目対象の軌跡に近似するようにした、請求項1記載のロボット用動作変換システムである。
請求項2の発明では、実施例では動作変換コンピュータ(104)からなる正規化手段(S7)が人間の動作軌跡を正規化することによって、人間とロボットとのサイズの相違を解消する。
請求項3の発明は、ロボットは複数の関節を有し、さらにロボットの関節角度範囲内で、近似した軌跡を実現できるかどうか判断する判断手段を備え、近似手段は、判断手段が否定的な判断をしたとき人間の注目対象の軌跡を主成分分析することによって近似する、請求項1または2記載のロボット用動作変換システムである。
請求項3の発明では、主成分分析によって必要なデータだけを利用して近似するので、最低限の類似度で、ロボットの動作を人間の動作に近似させることができる。
請求項4の発明は、近似手段によって近似したロボットの注目対象の軌跡に基づいてロボットの制御データを設定する制御データ設定手段をさらに備える、請求項1ないし3のいずれかに記載のロボット用動作変換システムである。
請求項4の発明では、たとえば実施例の動作変換コンピュータ(104)のような制御データ設定手段(S27)が、得られた近似軌跡に基づいて、ロボットのたとえば関節角度のような制御データを設定する。
この発明によれば、多くの自由度を有する人間の表現動作を、少ない自由度しか持たないロボットの表現動作に自動的に変換できる。したがって、人間の動作をたとえばモーションキャプチャで入力するだけで、その人間の動作に近似したロボットの動作を再現できる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの発明の一実施例の動作変換システム100は、モーションキャプチャ102で検知した人間(図示せず)の動作を、動作変換コンピュータ104によって、ロボット10によって再現させるためのシステムである。つまり、動作変換コンピュータ104は、モーションキャプチャ102で取得した人間の動作に関する各位置の3次元データに基づいて、その動作を再現するためのロボット10の各軸の制御データに変換する。
ただし、図1に示すロボットデータベース106は、実施例の動作変換システム100を適用できるロボットの種類とそれぞれのロボットの軸配置を予め設定または登録しておくものである。なお、軸配置としては、後述の図3に示すようなスケルトン図の形式で登録されていてもよい。
この実施例では、人間の動作を、一例として、図2に示すような外観を有するヒューマノイドロボット(以下、単に「ロボット」ともいう。)10の動作に変換するので、ここで、必要な範囲で、このロボット10を説明する。
図3はこのロボット10をモデル表記したスケルトン図である。図3を参照して、この実施例のロボット10は、垂直方向または縦方向に間隔を隔てて設けられる2つの横杆12および14を含み、この上下横杆12および14の間には、胴体16が形成される。
胴体16の上部には、胸の自由度を形成する1つのヨー(Yaw)軸関節18が設けられ、その下方には腰の自由度を形成する1つのピッチ(Pitch)軸関節20が設けられる。なお、よく知られているように、ヨー軸とは鉛直回転軸(Z軸)であり、ピッチ軸とはこのヨー軸に直行する2つの軸の一方、たとえばX軸であり、そして、後述のロール(Roll)軸がヨー軸に直行する2つの軸の他方、たとえばY軸である。X軸(ピッチ軸)は図2の紙面に平行な方向に延びる回転軸であり、Y軸(ロール軸)は図2の紙面に直行する方向に延びる回転軸である。
上横杆12の両端には、腕22Rおよび22Lがそれぞれ取り付けられる。これら左右の腕22Rおよび22Lは同じ構成である。なお、右左を区別する必要があるときは、右を示す「R」または左を表す「L」を付し、また区別する必要がないときはこの「R」や「L」を付けないで示すようにして、重複する説明はできるだけ省く。このことは、後述の足についても同様である。
腕22は、肩の自由度を形成するロール軸関節24を含み、この肩関節24によって上
横杆12に、ロール軸周りに回転可能に取り付けられる。この肩関節24の先には、それぞれ1つずつのピッチ軸関節26、ヨー軸関節28、およびロール軸関節30の直列接続が設けられる。したがって、この実施例のロボット10の場合、腕22は、4自由度であり、左右で8自由度である。
また、下横杆14の両端には、足32Rおよび32Lがそれぞれ取り付けられる。足32は、股関節の自由度を形成する1つのロール軸関節34によって下横杆14に取り付けられ、この股関節32から先の下端方向には、連続する3つのピッチ軸関節36、38および40、および1つのロール軸関節42、さらには1つのヨー軸関節44の直列接続が取り付けられる。したがって、この実施例のロボット10の場合、足32は、6自由度であり、左右で12自由度である。
このロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU(ロボットコンピュータ)48を含み、このロボットコンピュータ48には、バス50を通して、メモリ52,モータ制御ボード54,およびセンサ入力/出力ボード56が接続される。
メモリ52は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムおよびデータが予め書き込まれていて、RAMは、一時記憶メモリとして用いられるとともにワーキングメモリとして利用され得る。
センサ入力/出力ボード56には、図3の胴体16に設けられる1つの2軸加速度センサ58と、関節角度センサ60とが接続される。なお、関節角度センサ60は1つのブロックで示すが、実際には、上で説明した22個の関節にそれぞれ個別に設けられ、それぞれの関節角を検出する22個の関節角度センサを含む。2軸加速度センサ58は、ロボット10の前後方向および左右方向の2軸で加速度を検出することができる。この2軸加速度センサ58の出力を用いて、ロボットコンピュータ48は、ロボット10の2足歩行や反動起き上がり等を制御する。
モータ制御ボード54は、たとえばDSP(Digital Signal Processor) で構成され、
各腕、各足、胸、腰の各関節軸モータ62を制御する。図4では図の簡略化のために、関節軸モータ62は1つのブロックで示すが、実際には、上で説明した22個の関節のそれぞれに1つのモータ(サーボモータ)が設けられ、それぞれの関節角度を制御する22個のモータを含む。
図1実施例の動作変換システム100が適用できるロボット10は、上で説明したように、かなり多い22個の自由度を持つものであるが、それでも人間の持つ自由度には到底及ばないので、このロボット10で人間の動作をそのまま真似させることはできない。一方、この発明が適用可能なロボットは上述のロボット10に限られる訳ではなく、そのようなロボットの中にはもっと自由度の少ないロボットもある。そこで、この実施例では、人間のジェスチャ(表現動作)を頭部,左手,右手および胴体の4つの部位の関係で記述することによって、自由度の少ないロボットにも適用できるようにした。
なお、殆どの人間の動作(ジェスチャ)を頭部,左手,右手および胴体の4つの部位の関係だけで記述できることは、発明者等が、たとえばジェスチャ辞典などを解析することによって獲得した知見であり、この発明はそのような知見に基づいてなされたものである。
図5のフロー図の最初のステップS1では、動作変換コンピュータ104(図1)は、図6に示す第1設定画面108を表示する。この設定画面108は図8に示す第2設定画面110と同様に、コンピュータ104のユーザに入力や選択動作を行わせるためのGUI(Graphical User Interface)である。
第1設定画面108はユーザがロボット動作への変換を希望する、人間の動作と、その動作を記述する2つの座標系を設定するためのGUIである。そのために、この設定画面108には、動作入力部112および、基準座標系入力部114および注目座標系入力部116が設けられる。動作入力部112では、いわゆるプルダウンメニューの形式で、変換したい動作、たとえば「手を振る」,「右を見る」,「左を見る」,「うなずく」などを選択的に入力できる。また、注目座標系とは、その動作を表現するために頭部,左手,右手および胴体の4つの座標系のうちどの座標系に注目するのかを示すもので、その動作を表現する部位(注目対象または制御対象)の座標系が選択される。ただし、その注目座標系だけでその中の位置を特定できるものではなく、基準となる座標系の中の位置との相対的な関係でのみ記述できるのであり、その基準となる座標系のことを基準座標系と呼ぶ。ただし、2つの座標系はいずれも、この実施例では3つの軸X,Y,Zを有する直交座標系である。そして、実施例では、上述のように、人間の動作を頭部,左手,右手および胴体の関係で記述するように簡素化しているため、これら2つの座標系入力部114および116では、いずれも、頭部,左手,右手および胴体の4つの座標系のいずれか1つを選択的に入力することになる。
たとえば、「手を振る」という動作が選択されたとすると、注目対象または制御対象は右手か左手である。したがって、注目座標系としては「右手」または「左手」を設定するが、それの基準となる座標系は「胴体」しかないので、基準座標系としては「胴体」を選択する。たとえば、「うなずく」という動作を選択したときには、注目(制御)対象の座標系は当然「頭部」であり、それに対する基準座標系と「胴体」となる。
そして、ステップS3で上のように動作や座標系がすべて選択または設定されたかどうか判断し、“NO”なら入力されるまで待ち、“YES”なら、次のステップS5に進む。
ステップS5では、設定画面108の動作入力部112で設定された人間の動作を、基準座標系における注目座標系の位置Hpおよび向きHrの時間変化に変換する。したがって、位置Hp(t)および向きHr(t)によって、人間の注目対象部位の軌跡を表現することができ、このステップS5は、人間動作記述手段として機能する。
基準座標系と注目座標系とが図7のように設定されているとすると、位置Hpとは、基準座標系の原点からみた注目座標系の原点の位置のことであり、3つの軸X,Y,Zの時間t(t=1,2,…n)ごとの位置xt,yt,ztとして、数1のように表現される。また、向きHrとは、基準座標系の向きをどのように変化させればその時間t毎の注目座標系の向きになるかを3つの角度φt,θt,γtとして、数1のように記述される。ただし、一例として、角度φは、たとえば鉛直回転軸(Z軸)に対する角度であり、角度θは、この鉛直軸に直行する2つの軸の一方(X軸)に対する角度であり、角度γは、他方の軸(Y軸)に対する角度である。
Figure 2007125670
数1の位置Hpおよび向きHrはともに3次元ベクトルの時系列である。ステップS7では、人間のサイズとロボットのサイズとを揃えるために、数2に示すように、位置Hpと向きHrとを個々に「1」に正規化する。つまり、ステップS7は正規化手段として機能する。
Figure 2007125670
dp0は最大移動量を表わす。ただし、数2におけるmax(xt)は、t1-tnまでの各時間毎の位置のうちの最大のxの値であることを意味していて、同様に、min(xt)は、t1-tnまでの各時間毎の位置のうちの最小のxの値であることを意味している。これはy値およびz値に付いても同様である。そして、最大角度dr0=πと設定しているのは、人間の関節は180°以上曲がらないので、その範囲に収めるためである。さらに、Mlは、人間の基準座標系のおよび注目座標系の原点間の最大の距離であり、いわば、人間が手を一番伸ばしたときその手が届く範囲(つまり、手の長さ)を表わす。
なお、正規化の方法は、数2による他、たとえば標準偏差を用いる方法でもよい。
続いて、ステップS9では、図8に示す第2設定画面110を表示する。この設定画面110は人間の動作をシミュレートすべきロボットとそのロボットにおいて設定すべき基準座標系と注目座標系とを設定または入力するためのGUIである。そのために設定画面110にはロボット入力部118およびスケルトン表示部120が形成される。ロボット入力部118では、変換動作を適用すべきロボットを、たとえばプルダウンメニューの形式で、たとえば「ロボビーM」(商品名),「ロボビーIV」(商品名),…の中から選択的に入力できる。先に説明した図1のロボットデータベース106の中には、このようなロボットの種類(型)毎にその軸配置すなわちスケルトンが登録されているので、スケルトン表示部120では、このロボットデータベース106から読み出したスケルトン図を表示する。そして、ユーザまたはオペレータは、そこに表示されたスケルトン上の位置をたとえばマウスやタッチパネルのようなポインティングデバイスで指示することによって、シミュレーションするロボットにおける注目座標系とそれのための基準座標系とを設定する。
そして、ステップS11では、これらのロボット上の2つの座標系が設定されルーチンまで待ち、それらが設定されると“YES”を判断して次のステップS13に進む。
ステップS13では、数3に従って、正規化した人間の動作、すなわち人間の注目座標系の軌跡He(=Hpe,Hre)をロボットの動作、すなわちロボットの注目座標系(または制御対象)の軌跡Re(=Rpe,Rre)(Rpは位置、Rrは向き)に近似する。つまり、ステップS13は近似手段として機能する。
Figure 2007125670
数3において、Rptは時間毎の注目座標系の位置であり、Rpt*はRptの重心であり、f,gは、ロボットの関節角度からロボットの注目座標系の位置(基準座標系からみた相対座標)へ変換する関数であり、ロボットの軸配置からきまるものである。このようにして、人間の動作すなわち注目対象の軌跡Heをロボットの注目対象の動作すなわち軌跡Reに近似する。
そして、ステップS15において、αを正の実数で十分小さい数としたときに、最小2乗法を示す数4を満足する関節角度(φ1t,φ2t,…φnt)(t=1,2,…tn)があるかどうか判断する。
Figure 2007125670
ステップS15で“YES”が判断されるということは、ステップS13でした、人間動作Heのロボット動作Reへの近似が正しかったことを意味する。しかしながら、ステップS15で“NO”ということは数4の解が存在しなかったことを意味している。したがって、この場合には、別の方法でロボットの関節角度を決定してやる必要がある。
そこで、ステップS17において、人間動作の軌跡Heを主成分分析する。
(a)まず、Heの共分散行列をAとし、その共分散行列Aの固有値(λi(i=1,…6),|λ1|>|λ2|>…>|λ6|))と対応する固有ベクトル(ψi(i=1,…6))を求める。
(b)ついで、すべての次数Ni(1≦Ni≦6)において、数5を最小にする角度(φ1t,Ni,φ2t,Ni,…φnt,Ni)と、最小値εNiとを求める。
Figure 2007125670
(c)そして、数6を満たす最大の次数Niを選び、角度(φ1t,Ni,φ2t,Ni,…φnt,Ni)を、ロボット動作に変換されたときの角度とする。つまり、人間動作Heに最大限似ている次数Nでのロボット動作Reのための関節角度を求める。
Figure 2007125670
このようにして、ステップS13でうまく近似できなかった場合には、ステップS17において、人間動作Heの主成分分析を経て、必要なところだけを残した可能な限り類似するロボット動作Reのための関節角度を決定する。したがって、このステップS17もまた近似手段と呼ぶことができる。
ステップS13でうまく近似できた場合でも、ステップS17で可及的近似した場合でも、関節可動範囲を表わすロボットの作業領域内に、その近似した軌跡Reがはいっているかどうか、つまり、その近似に従った関節角度φでロボットが動作し得るのかどうか、調べる。そのためには、コンピュータ104は、ロボットデータベース106からそのロボットの軸配置読み出して計算した関節角度φを代入してシミュレーションすればよい。そして、ステップS21でそのシミュレーションの過程をCG(Computer Graphics)ロボットを用いたアニメーションで表示し、可動範囲を越えた場所があればたとえばハイライト表示することによって、ユーザないしオペレータに注意を促す。
そして、ステップS23において、図示しない適宜の調整用GUIを表示し、問題がある場合、たとえばステップS21でハイライト表示があったような場合、そのGUIを用いて部分的に調整できるようにしてもよい。たとえば、上記CGロボットの問題の箇所をドラックするなどしてハイライト表示を消す。
ただし、そのような部分的な調整で収まらない場合には、ステップS25で“NO”が判断され、プロセスは先のステップS9に戻され、たとえば、注目座標系および/または基準座標系を選び直して、ステップS9-S23繰り返すことになる。たとえば、人間では「右手を振る」という動作であったが、それがロボットの右手の動作として近似できなかったようなときは、ロボットの制御対象(注目対象)を左手に変更することによって近似できることがあるかも知れない。
そして、ステップS25の完成後は、ステップS27において、近似手段として機能するステップS13またはS17で求めかつ必要に応じてステップS23で調整した関節角度φをロボットの制御データとして設定することによって、ロボットの特定の部位(注目対象または制御対象)で人間の動作を再現させることができる。
具体的に図2に示すロボット10で「左手を振る」という動作を再現するためには、注目対象は左手の手のひらであり、図3に示すピッチ軸関節26L、ヨー軸関節28L、およびロール軸関節30Lのそれぞれの関節角度を、その左手の手のひらを制御するための関節角度φとしてステップS13またはステップS17で求めればよい。
図1はこの発明の一実施例の動作変換システムの構成を示すブロック図である。 図2はこの実施例に適用可能なロボットの一例を示す外観図である。 図3は図2に示すロボットの軸配置(スケルトン)を示す図解図である。 図4は図2に示すロボットの電気的な構成を示すブロック図である。 図5はこの実施例の動作を示すフロー図である。 図6は第1設定画面の一例を示す図解図である。 図7は基準座標系と注目座標系との関係およびHpならびにHrを図解する図解図である。 図8は第2設定画面の一例を示す図解図である。
符号の説明
10 …ロボット
100 …動作変換システム
102 …モーションキャプチャ
104 …動作変換コンピュータ
106 …ロボットデータベース
108 …第1設定画面
110 …第2設定画面

Claims (4)

  1. 人間の動作に伴う各部位の位置データを入力する位置データ入力手段、
    前記位置データに基づいて人間の注目対象の軌跡を頭部,左手,右手および胴体のうちの2つの相対位置関係で記述する人間動作記述手段、および
    前記人間動作記述手段で記述した前記人間の注目対象の軌跡を、ロボットの注目対象の頭部,左手,右手および胴体のうちの2つの相対位置関係で記述した軌跡に近似する近似手段を備える、ロボット用動作変換システム。
  2. 前記人間動作記述手段で記述した前記人間の注目対象の軌跡を正規化する正規化手段をさらに備え、
    前記近似手段は前記正規化手段で正規化した前記人間の注目対象の軌跡を前記ロボットの注目対象の軌跡に近似するようにした、請求項1記載のロボット用動作変換システム。
  3. 前記ロボットは複数の関節を有し、さらに
    前記ロボットの関節角度範囲内で、前記近似した軌跡を実現できるかどうか判断する判断手段を備え、
    前記近似手段は、前記判断手段が否定的な判断をしたとき前記人間の注目対象の軌跡を主成分分析することによって近似する、請求項1または2記載のロボット用動作変換システム。
  4. 前記近似手段によって近似した前記ロボットの注目対象の軌跡に基づいて前記ロボットの制御データを設定する制御データ設定手段をさらに備える、請求項1ないし3のいずれかに記載のロボット用動作変換システム。
JP2005322140A 2005-11-07 2005-11-07 ロボット用動作変換システム Active JP4997419B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005322140A JP4997419B2 (ja) 2005-11-07 2005-11-07 ロボット用動作変換システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005322140A JP4997419B2 (ja) 2005-11-07 2005-11-07 ロボット用動作変換システム

Publications (3)

Publication Number Publication Date
JP2007125670A true JP2007125670A (ja) 2007-05-24
JP2007125670A5 JP2007125670A5 (ja) 2008-05-15
JP4997419B2 JP4997419B2 (ja) 2012-08-08

Family

ID=38148759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005322140A Active JP4997419B2 (ja) 2005-11-07 2005-11-07 ロボット用動作変換システム

Country Status (1)

Country Link
JP (1) JP4997419B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010058260A (ja) * 2008-09-01 2010-03-18 Korea Advanced Inst Of Sci Technol 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法
JP2012040624A (ja) * 2010-08-16 2012-03-01 Honda Motor Co Ltd ロボットおよび行動制御システム
JP2013138793A (ja) * 2012-01-05 2013-07-18 Toyota Motor Corp 生体動作補助装置、その制御方法及び制御プログラム
WO2015020134A1 (ja) * 2013-08-08 2015-02-12 国立大学法人京都大学 身体の動作に基づく制御指令生成方法及び制御指令生成装置
US10518412B2 (en) 2015-05-13 2019-12-31 National Insitute of Advanced Industrial Science Robot behavior generation method
WO2021177313A1 (ja) * 2020-03-05 2021-09-10 ファナック株式会社 ロボットプログラミング装置及びロボットプログラミング方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133733A (ja) * 1996-10-31 1998-05-22 Kokoro:Kk アミューズメントロボットの動作教示方法及び動作教示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133733A (ja) * 1996-10-31 1998-05-22 Kokoro:Kk アミューズメントロボットの動作教示方法及び動作教示装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010058260A (ja) * 2008-09-01 2010-03-18 Korea Advanced Inst Of Sci Technol 進化アルゴリズムと模倣学習に基づくロボットの動作制御方法
JP2012040624A (ja) * 2010-08-16 2012-03-01 Honda Motor Co Ltd ロボットおよび行動制御システム
JP2013138793A (ja) * 2012-01-05 2013-07-18 Toyota Motor Corp 生体動作補助装置、その制御方法及び制御プログラム
WO2015020134A1 (ja) * 2013-08-08 2015-02-12 国立大学法人京都大学 身体の動作に基づく制御指令生成方法及び制御指令生成装置
JPWO2015020134A1 (ja) * 2013-08-08 2017-03-02 国立大学法人京都大学 身体の動作に基づく制御指令生成方法及び制御指令生成装置
US10518412B2 (en) 2015-05-13 2019-12-31 National Insitute of Advanced Industrial Science Robot behavior generation method
WO2021177313A1 (ja) * 2020-03-05 2021-09-10 ファナック株式会社 ロボットプログラミング装置及びロボットプログラミング方法
JP7469457B2 (ja) 2020-03-05 2024-04-16 ファナック株式会社 ロボットプログラミング装置及びロボットプログラミング方法

Also Published As

Publication number Publication date
JP4997419B2 (ja) 2012-08-08

Similar Documents

Publication Publication Date Title
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
Mahmud et al. Interface for human machine interaction for assistant devices: A review
Riley et al. Enabling real-time full-body imitation: a natural way of transferring human movement to humanoids
Qian et al. Developing a gesture based remote human-robot interaction system using kinect
JP4997419B2 (ja) ロボット用動作変換システム
JP2009276996A (ja) 情報処理装置、情報処理方法
KR20100017212A (ko) 볼륨 인식 방법 및 시스템
KR20130090119A (ko) 로봇의 제어 장치 및 방법
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
Maycock et al. Robust tracking of human hand postures for robot teaching
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2008080431A (ja) ロボットシステム
Ji et al. Motion trajectory of human arms based on the dual quaternion with motion tracker
Usabiaga et al. Global hand pose estimation by multiple camera ellipse tracking
JP2007011460A (ja) 物体の変位シミュレーション方法及び物体の変位シミュレーション装置、並びに力覚提示装置
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
KR101469851B1 (ko) 인체 자세 예측을 위한 다목적 최적화 기반의 방법
Amir et al. Sensor based human arm motion and gesture replication system using MATLAB
JP6929043B2 (ja) 画像処理装置、画像処理方法
Banda et al. Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor
Grzejszczak et al. Selection of Methods for Intuitive, Haptic Control of the Underwater Vehicle’s Manipulator
CN117340914B (zh) 一种仿人机器人体感控制方法及控制系统
KR101378752B1 (ko) 전시용 로봇 및 그 제어 방법
Deshmukh et al. iOS Based Pose Estimation and Gesture Recognition for Robot Manipulation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4997419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250