JP5120754B2 - 動作検出装置 - Google Patents

動作検出装置 Download PDF

Info

Publication number
JP5120754B2
JP5120754B2 JP2008087608A JP2008087608A JP5120754B2 JP 5120754 B2 JP5120754 B2 JP 5120754B2 JP 2008087608 A JP2008087608 A JP 2008087608A JP 2008087608 A JP2008087608 A JP 2008087608A JP 5120754 B2 JP5120754 B2 JP 5120754B2
Authority
JP
Japan
Prior art keywords
reference point
motion
pointing
angular acceleration
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008087608A
Other languages
English (en)
Other versions
JP2009240370A (ja
Inventor
治 杉山
倫太 今井
崇行 神田
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2008087608A priority Critical patent/JP5120754B2/ja
Publication of JP2009240370A publication Critical patent/JP2009240370A/ja
Application granted granted Critical
Publication of JP5120754B2 publication Critical patent/JP5120754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

この発明は動作検出装置に関し、特にたとえば、被験者の指示動作を検出する、動作検出装置に関する。
従来、静止している対象に対する指差し動作や注視動作などの身体動作(指示動作)は、たとえば、非特許文献1に開示されるモーションキャプチャを利用して検出することが可能であった。具体的には、たとえば、被験者の肩や指先などの3次元位置を計測して、腕(手)の角度を算出する。そして、腕の角度が所定角度以上で、腕の動きが所定時間以上静止していれば、その被験者は指差し動作をしていると推定することができる。
Vicon(http://www.crescentvideo.co.jp/vicon/)
しかしながら、従来技術においては、指差したり注視したりする対象が静止していることが前提となっており、動いている対象を追いかけるように指差したり、注視したりする動作は、検出することが困難であった。たとえば、動いている対象に対して指差し動作を行っている場合には、対象の動きに対応して被験者の腕(身体)も不規則に動く。このため、その身体動作が、何かを指差している動作なのか、或いは手を振っているだけ等の他の動作なのかを判別することは困難であった。
それゆえに、この発明の主たる目的は、新規な、動作検出装置を提供することである。
この発明の他の目的は、動いている対象を指差したり、注視したりしている場合にもその身体動作を簡単に検出できる、動作検出装置を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、被験者の指示動作を検出する動作検出装置であって、被験者に設けられた基準点および動作点、ならびに環境に設けられた複数の参照点の位置のそれぞれを時系列に従って検出する位置検出手段、位置検出手段によって検出された基準点、動作点および複数の参照点の位置に基づいて、基準点、動作点および参照点の3点によって形成される角度の少なくとも1つを、各参照点について時系列に従って算出する角度算出手段、角度算出手段によって算出された角度に基づいて、各参照点についての角加速度を算出する角加速度算出手段、および角加速度算出手段によって算出された各参照点についての角加速度の中に、閾値より小さい値の角加速度が存在するとき、被験者の指示動作を検出する動作検出手段を備える、動作検出装置である。
第1の発明では、動作検出装置(10)は、位置検出手段(14,20,S1)を備え、被験者の指示動作を検出する。ここで、指示動作とは、他の被験者に対して指示を与えたり、他の被験者の注意を向けたりすることができる動作をいい、指示動作には、指差し動作や注視動作を含む。位置検出手段は、指示動作の指示方向を規定するために被験者に設けられた基準点(O)および動作点(A)、ならびに環境に設けられた複数の参照点(P)の位置のそれぞれを時系列に従って検出する。角度算出手段(14,S7)は、基準点、動作点および参照点の3点によって形成される角度の少なくとも1つを、各参照点について算出し、角加速度算出手段(14,S9,S11)は、各参照点についての角加速度を算出する。動作検出手段(14,S13)は、各参照点についての角加速度の中に、閾値より小さい値の角加速度が存在するとき、被験者の指示動作を検出する。つまり、第1の発明では、指差し動作や注視動作などの指示動作を、或る対象(或いは環境)に対する静止動作として捉え、基準点、動作点および参照点の3点の相対位置の関係が一定となる参照点が存在するとき、被験者の指示動作を検出する。
第1の発明によれば、指差し動作や注視動作などの指示動作を、環境に対する静止動作として捉えるので、動いている対象を指差したり、注視したりしている場合にもその動作を簡単に検出できる。
第2の発明は、第1の発明に従属し、動作検出手段は、閾値より小さい値の角加速度を有する複数の参照点が存在するとき、指示動作を、当該複数の参照点によって特定される対象に対する指示動作として検出する。
第2の発明では、動作検出手段(14,S13)は、閾値より小さい値の角加速度を有する複数の参照点が存在するとき、それら複数の参照点によって特定される対象に対する指示動作を検出する。
第3の発明は、第1または第2の発明に従属し、動作検出手段は、閾値より小さい値の角加速度を有する1つの参照点が存在するとき、指示動作を、当該1つの参照点によって特定される対象に対する指示動作として検出する。
第3の発明では、動作検出手段(14,S13)は、閾値より小さい値の角加速度を有する1つの参照点が存在するとき、その1つの参照点によって特定される対象に対する指示動作を検出する。
第4の発明は、請求項1ないし3のいずれかに記載の動作検出装置を備える、コミュニケーションロボットである。
第4の発明では、コミュニケーションロボットは、動作検出装置(10)を備える。これにより、コミュニケーションロボットは、基本的な情報伝達の形態である指差し動作や注視動作を正確に検出できるので、人間(被験者)との間でより円滑にコミュニケーションを行うことができるようになる。
この発明によれば、指差し動作や注視動作を環境に対する静止動作として捉えるので、動いている対象を指差したり、注視したりしている場合にもその動作を簡単に検出できる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この発明の一実施例である動作検出装置(以下、単に「装置」という。)10は、コンピュータ12を含み、被験者の指示動作を検出する。ここで、指示動作とは、他の被験者に対して指示を与えたり、他の被験者の注意を向けたりすることができる動作をいい、指示動作には、指差し動作や注視動作を含む。詳細は後述するが、この実施例では、指示動作の指示方向を規定するための被験者の身体部位の2点(基準点および動作点)の位置、および環境に設けた複数の参照点の位置を位置座標取得システム20によって取得する。そして、基準点、動作点および参照点の3点の相対位置の関係が一定となる参照点が存在するとき、被験者の指示動作を検出する。つまり、指差し動作や注視動作などの指示動作を、或る対象(または環境)に対する静止動作として捉えることにより、被験者の指示動作を検出する。
なお、被験者としては、人間はもちろんのこと、犬などの動物やコミュニケーションロボット(或いはヒューマノイドロボット)等の、指差し動作や注視動作などを実行できるものを含む。以下には、一例として、被験者の指差し動作を検出する場合について説明する。
コンピュータ12は、汎用のパーソナルコンピュータ(PC)やワークステーション(WS)のようなコンピュータであり、装置10の全体制御を行うCPU14、およびプログラムおよびデータ等を記憶するメモリ16を含む。また、コンピュータ12には、位置座標取得システム20が通信可能に接続される。
位置座標取得システム20としては、公知のモーションキャプチャシステム、たとえばVicon社の光学式のモーションキャプチャシステムを適用できる。図示は省略するが、位置座標取得システム20は、PC或いはWSのようなコンピュータを含み、このコンピュータとコンピュータ12とが、有線または無線LAN(図示せず)によって互いに接続される。
図2を用いて具体的に説明すると、位置座標取得システム20においては、複数(この実施例では12個)の赤外線照射機能を有するカメラ22が、被験者および環境に存在する物体を異なる方向から撮影できるように配置される。そして、被験者には、2つの赤外線反射マーカ(以下、単に「マーカ」という。)24が取り付けられる。具体的には、図2からも分かるように、マーカ24は、被験者の肩と指先とに取り付けられる。これは、指差し動作が、肩を支点として指先を動かす動作であると想定でき、肩および指先の2点により、指差し動作の指示方向(指差し方向)が規定できるからである。この場合、肩に設けたマーカ24の位置が基準点Oとなり、指先に設けたマーカ24の位置が動作点Aとなる。ただし、指差し動作の指差し方向を規定するための基準点Oおよび動作点Aの位置(つまり被験者に設けるマーカ24の位置)は、これに限定されず、たとえば、基準点Oの位置は後頭部などであってもよいし、動作点Aの位置は手の甲などであってもよい。
また、被験者の周囲に存在する物体(環境)にもマーカ24が取り付けられる。この環境に設けた複数のマーカ24が参照点Pとなる。参照点Pは、床、壁、天井、柱、机、椅子、本および玩具などの環境に存在する様々な物体に設けられる。たとえば、図2からも分かるように、壁のように移動しないものに参照点Pを設けてもよいし、ラジコンカーのように移動するものに参照点Pを設けてもよいし、机のように移動する可能性があるものに参照点Pを設けてもよい。また、たとえば、1つの物体に対して1つの参照点Pを設けてもよいし、1つの物体に対して複数の参照点Pを設けてもよい。1つの物体に対して複数の参照点Pを設けておけば、たとえばその物体が移動しているときに被験者の指差し動作の対象物となった場合、その物体に設けた複数の参照点Pを参考にして指差し動作を検出できるので、指差し動作の検出精度が向上する。
ただし、柱や壁などの動かない物体に設ける参照点Pについては、位置座標取得システム20によって位置を検出する必要は無く、予め位置をメモリ16等に記憶しておき、必要に応じてメモリ16等からそれらの位置を読み出すようにしてもよい。
このような位置座標取得システム20のコンピュータは、カメラ22から画像データをたとえば60Hz(1秒間に60フレーム)で取得し、画像データを画像処理することによって、その計測時の全ての画像データにおける各マーカ24の2次元位置を抽出する。そして、コンピュータは、画像データにおける各マーカ24の2次元位置に基づいて、実空間における各マーカ24の3次元位置を算出し、算出した3次元位置の座標データ(数値データ)を、コンピュータ12に送信する。
コンピュータ12は、位置座標取得システム20から送信される各マーカ24の座標データを受信する。つまり、コンピュータ12は、基準点O、動作点Aおよび各参照点Pの3次元位置を位置座標取得システム20から取得する。そして、これらの3次元位置に基づいて、被験者の指差し動作を検出する。
上述したように、この実施例では、指差し動作の検出を、或る対象(または環境)に対する静止動作として捉えることによって行う。つまり、基準点O、動作点Aおよび参照点Pの3点の相対位置の関係が一定となる参照点Pが存在するとき、被験者の指差し動作を検出する。ここで、3点(O,A,P)の位置関係が一定となったかどうかは、これら3点(O,A,P)によって形成される角の角加速度が、所定値(閾値)以下になるかどうかで正確に判断できる。以下、実験結果を適宜参照して、指差し動作の検出方法について具体的に説明する。
図3を参照して、先ず、被験者に設けた基準点Oから動作点Aに向かう動作ベクトル(指差しベクトル)OAを求め、動作点Aから参照点Pに向かう参照ベクトルAPを、各参照点Pのそれぞれについて求める。続いて、各参照点Pについて、動作ベクトルOAと参照ベクトルAPとがなす角の角度θt(=acos(OA AP/|OA||AP|))を求め、時系列順に記憶する。次に、各参照点Pについて、動作ベクトルOAと参照ベクトルAPとがなす角の角速度νt(=θt−θt−1)を求め、時系列順に記憶する。そして、各参照点Pについて、動作ベクトルOAと参照ベクトルAPとがなす角の角加速度αt(=νt−νt−1)を求める。
このようにして求めた各参照点Pについての角加速度αtは、3点(O,A,P)の位置関係が安定している場合(一定の場合)には、その値が小さくなる。したがって、閾値を適宜設定すれば、角加速度αtと閾値との比較により、3点(O,A,P)の位置関係が安定しているかどうかを判断でき、延いては被験者が指差し動作を行っているかどうかを判断できる。
図4は、静止している複数の物体に対して参照点Pを設け、環境内の或る地点(参照点Pとは限らない地点)を順番に指差したときの、各参照点Pについての角加速度αtの変化の様子を示す。図4に示すように、角加速度αtは、或る地点を指差しているときに収束した状態となり、次の地点へ移動しているときに分散した状態となった。これにより、3点(O,A,P)の位置関係が安定しているときには、角加速度αtの値も小さくなることが確認できた。また、全ての参照点Pが静止している場合に、静止している物体を指差したときには、全ての参照点Pに対する角加速度αtが収束する(αtの値が小さくなる)ので、このようなときの指差し動作は、環境全体に対する指差し動作として検出するとよいことが分かる。
図5は、複数の参照点P1−P8の内、1つの参照点P4が移動したときに、被験者がその移動した参照点P4を追いかけるように指差した場合の様子を模式的に示す図であり、図6は、そのときの各参照点P1−P8についての角加速度αtの大きさを示す表である。図5が示す状態は、たとえば図2において、1つの参照点Pが設けられたラジコンカーが移動しており、被験者がそのラジコンカーを追いかけるように指差している状態に相当する。図6に示すように、被験者が追いかけるように指差している参照点P4についての角加速度αtの値のみが、他の参照点P1−3,5−8についての角加速度αtの値よりも小さくなった。これにより、角加速度αtを参照することによって、動いている対象に対して指差し動作を行っている場合にも、その動作を正確に検出できることが分かる。また、1つの参照点Pについての角加速度αtのみが閾値以下になった場合には、その1つの参照点Pによって特定される対象(物体)に対する指差し動作として検出すればよいことが分かる。
図7は、複数の参照点P1−8の内、複数(図7では3つ)の参照点P2−4が揃って移動したときに、被験者がその移動した参照点P2−4を追いかけるように指差した場合の様子を模式的に示す図であり、図8は、そのときの各参照点P1−8についての角加速度αtの大きさを示す表である。図7が示す状態は、たとえば図2において、複数の参照点Pが設けられた机が動かされたときに、被験者がその机を追いかけるように指差している状態に相当する。図8に示すように、被験者が追いかけるように指差している参照点P2−4についての角加速度αtの値が、他の参照点P1,5−8についての角加速度αtの値と比較して小さくなった。これにより、複数の参照点Pについての角加速度αtが閾値以下になった場合には、その複数の参照点Pによって特定される対象(物体)に対する指差し動作として検出すればよいことが分かる。
なお、図5または図7に示すような状態において、被験者が動いている参照点P以外の地点を指差している場合には、静止している参照点Pについての角加速度αtが収束するので、このようなときの指差し動作は、静止している参照点Pによって特定される対象に対する指差し動作として検出するとよい。
以下には、上述のような装置10の動作の一例を、フロー図を用いて説明する。具体的には、コンピュータ12のCPU14が、図9に示すフロー図に従って全体処理を実行する。図9を参照して、CPU14は、全体処理を開始すると、ステップS1で、位置座標取得システム20から、基準点O、動作点Aおよび各参照点Pの位置座標を取得する。すなわち、被験者の肩および指先、ならびに環境に設けた複数の参照点Pの3次元位置の座標データを受信し、メモリ16等に記憶する。
続いて、ステップS3−S11において、ステップS1で取得したデータに基づき、各参照点Pについての角加速度αtを算出する。詳しくは、ステップS3で、動作ベクトルOA(=O´O−O´A)を求め、ステップS5で、各参照点Pについての参照ベクトルAP(=O´P−O´A)を求める。続くステップS7では、動作ベクトルOAと各参照ベクトルAPとがなす角の角度θをそれぞれ算出し、たとえばメモリ16に時系列順に保存(記憶)する。また、ステップS9で、各角度θについて(つまり各参照点Pについて)、角速度νを算出し、たとえばメモリ16に時系列順に保存(記憶)する。そして、ステップS11では、各角速度νについて、角加速度αを算出する。
続いて、ステップS13で、後述する指差し動作の判定処理を行い、ステップS15に進む。ステップS15では、全体処理を終了するか否かを判断する。ステップS15で“YES”の場合、たとえば外部から終了指示があったような場合には、この全体処理をそのまま終了する。一方、ステップS15で“NO”の場合には、処理はステップS1に戻る。
図10は、図9に示したステップS13の指差し動作の判定処理を示すフロー図である。図10に示すように、コンピュータ12のCPU14は、指差し動作の判定処理を開始すると、ステップS21で、各角加速度αtと閾値とを比較し、その比較結果に基づき、その後のステップ(S23,S27,S31)における判断処理を行う。
先ず、ステップS23では、閾値以上の角加速度αtが存在するかどうかを判断する。ステップS23で“NO”の場合、すなわち閾値以上の角加速度αtが存在しない場合には、ステップS25に進み、環境全体に対する指差し動作を検出して、図9に示した全体処理にリターンする。一方、ステップS23で“YES”の場合、すなわち閾値以上の角加速度αtが存在する場合には、ステップS27に進む。
ステップS27では、閾値以上の角加速度αtが複数であるか1つであるかを判断する。すなわち、角加速度αtが閾値以上になる複数の参照点Pが存在するか、1つの参照点Pしか存在しないかを判断する。ステップS27で“NO”の場合、すなわち角加速度αtが閾値以上となる1つの参照点Pが存在する場合には、ステップS29に進み、1つの参照点Pによって特定される対象に対する指差し動作を検出して、図9に示した全体処理にリターンする。一方、ステップS27で“YES”の場合、すなわち角加速度αtが閾値以上になる複数の参照点Pが存在する場合には、ステップS31に進む。
ステップS31では、全ての角加速度αtが閾値以上になるかどうか、つまり閾値より小さい値の角加速度αtが1つも存在しないかどうかを判断する。ステップS31で“NO”の場合、すなわち全ての角加速度αtが閾値以上ではない場合には、ステップS33に進み、複数の参照点Pによって特定される対象に対する指差し動作を検出して、図9に示した全体処理にリターンする。一方、ステップS31で“YES”の場合、すなわち全ての角加速度αtが閾値以上である場合には、ステップS35に進み、指差し動作は不検出であるとして、図9に示した全体処理にリターンする。
この実施例によれば、指差し動作や注視動作などの指示動作を或る対象(環境)に対する静止動作として捉えるので、動いている対象を指差したり、注視したりしている場合にもその動作を簡単に検出できる。
また、一定数の参照点Pを環境に設け、その参照点Pの位置に基づいて被験者の指示動作を検出するので、環境内の全ての物体の位置をリアルタイムに把握して被験者の指示動作を検出することと比較して、処理負担を軽減できる。ただし、動いている対象に対する指示動作を確実に検出するためには、動く可能性のある物体の全てに参照点Pを設けておくことが望ましい。
なお、図2および図3などに示した例では、装置10が検出する指示動作として、指差し動作を例示したが、注視動作も装置10によって同様に検出できる。注視動作を検出する場合には、たとえば図11に示すように、注視動作の注視方向を規定するための基準点および動作点の位置(つまり被験者に設けるマーカ24の位置)を、後頭部および額(前頭部)にすればよいだけであり、後は、指差し動作と同様にして注視動作を検出できる。たとえば、額および後頭部に相当する位置にマーカ24が設けられた帽子を用意し、その帽子を被験者が装着するようにすれば、被験者に負担を与えること無く被験者の注視動作を検出できる。
また、装置10では、指差し動作および注視動作の一方のみを検出するだけでなく、指差し動作および注視動作の双方を検出することもできる。
なお、上述の実施例では、動作ベクトルOAと参照ベクトルAPとがなす角θの角加速度αを算出して、指示動作を検出するようにしたが、これに限定されない。基準点O、動作点Aおよび参照点Pの3点によって形成される角であれば、どの角の角加速度を利用しても、同様に指示動作を正確に検出できる。たとえば、ベクトルOAとベクトルOPとがなす角の角加速度を算出して、指示動作を検出するようにしてもよい。また、各参照点Pについての角速度の値と閾値とを比較することによっても指示動作を検出し得るが、検出精度を考慮すると、角加速度に基づく指示動作の検出が望ましい。
また、上述のような装置10を、コミュニケーションロボットに搭載するようにしてもよい。ここで、コミュニケーションロボットとは、人間との間でコミュニケーション行動を行うロボットをいい、具体例は、本件出願人による特許公開2008−18529号などに記載されているので参照されたい。コミュニケーションロボットに装置10を搭載する場合には、コミュニケーションロボットに内蔵されるCPUが図9および図10に示した処理を実行するようにしてもよいし、外部のコンピュータが図9および図10に示した処理を実行し、その検出結果を外部のコンピュータからコミュニケーションロボットに送信するようにしてもよい。装置10を搭載したコミュニケーションロボットは、基本的な情報伝達の形態である指差し動作や注視動作を正確に検出できるので、人間(被験者)との間でより円滑にコミュニケーションを行うことができるようになる。
なお、装置10によって検出する動作は、指差し動作や注視動作そのものであり、その対象物まで特定するものではない。対象物の特定は、指差し動作などの検出に伴って、他の適宜な手法で行うとよい。たとえば、マーカ24(参照点P)にタグを設けてIDを付与しておけば、指差し動作の対象物まで特定することが可能になる。
また、図9および図10に示す処理だけでは、指差し動作と単に腕を下げている状態とを区別できないが、このような場合でも、別途、胴体と腕とがなす角度が所定以上(たとえば30°以上)であるかどうかを判断して、所定以上であれば指差し動作として検出するというようにすればよい。また、指差し動作と握手を求める動作との違いは、たとえば、その対象となる人間が所定範囲内にいるかどうかで判別することができる。このように、装置10は、他のデータと組み合わせて、より詳細に動作を判定するようにしてもよい。
この発明の動作検出装置の一実施例を示す図解図である。 被験者に設けた基準点および動作点、ならびに環境に設けた参照点の様子示す図解図である。 指差し動作の検出を説明するための図解図である。 角加速度の収束および分散の様子を示すグラフである。 被験者が移動している1つの参照点を追いかけるように指差した場合の様子を示す図解図である。 図5の状態において、各参照点についての角加速度の大きさを示す表である。 被験者が移動している複数の参照点を追いかけるように指差した場合の様子を示す図解図である。 図7の状態において、各参照点についての角加速度の大きさを示す表である。 図1のコンピュータのCPUが実行する全体処理の一例を示すフロー図である。 図1のコンピュータのCPUが実行する指差し動作の判定処理の一例を示すフロー図である。 注視動作の検出を説明するための図解図である。
符号の説明
10 …動作検出装置
12 …コンピュータ
14 …CPU
16 …メモリ
20 …位置座標取得システム
O …基準点
A …動作点
P …参照点

Claims (4)

  1. 被験者の指示動作を検出する動作検出装置であって、
    前記被験者に設けられた基準点および動作点、ならびに環境に設けられた複数の参照点の位置のそれぞれを時系列に従って検出する位置検出手段、
    前記位置検出手段によって検出された前記基準点、前記動作点および複数の前記参照点の位置に基づいて、前記基準点、前記動作点および前記参照点の3点によって形成される角度の少なくとも1つを、各参照点について時系列に従って算出する角度算出手段、
    前記角度算出手段によって算出された前記角度に基づいて、前記各参照点についての角加速度を算出する角加速度算出手段、および
    前記角加速度算出手段によって算出された前記各参照点についての角加速度の中に、閾値より小さい値の角加速度が存在するとき、前記被験者の前記指示動作を検出する動作検出手段を備える、動作検出装置。
  2. 前記動作検出手段は、前記閾値より小さい値の角加速度を有する複数の前記参照点が存在するとき、前記指示動作を、当該複数の参照点によって特定される対象に対する指示動作として検出する、請求項1記載の動作検出装置。
  3. 前記動作検出手段は、前記閾値より小さい値の角加速度を有する1つの前記参照点が存在するとき、前記指示動作を、当該1つの参照点によって特定される対象に対する指示動作として検出する、請求項1または2記載の動作検出装置。
  4. 請求項1ないし3のいずれかに記載の動作検出装置を備える、コミュニケーションロボット。
JP2008087608A 2008-03-28 2008-03-28 動作検出装置 Active JP5120754B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008087608A JP5120754B2 (ja) 2008-03-28 2008-03-28 動作検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008087608A JP5120754B2 (ja) 2008-03-28 2008-03-28 動作検出装置

Publications (2)

Publication Number Publication Date
JP2009240370A JP2009240370A (ja) 2009-10-22
JP5120754B2 true JP5120754B2 (ja) 2013-01-16

Family

ID=41303032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008087608A Active JP5120754B2 (ja) 2008-03-28 2008-03-28 動作検出装置

Country Status (1)

Country Link
JP (1) JP5120754B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488946B2 (ja) * 2015-08-21 2019-03-27 富士通株式会社 制御方法、プログラム及び制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114813B2 (ja) * 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
JPH0916312A (ja) * 1995-06-28 1997-01-17 Nomura Kogeisha:Kk 立体画像表示装置用入力装置
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
JPH10255052A (ja) * 1997-03-14 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk ジェスチャインタフェース装置
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000259337A (ja) * 1999-03-10 2000-09-22 Atr Media Integration & Communications Res Lab ポインティング装置
DE60133386T2 (de) * 2000-05-17 2009-04-02 Koninklijke Philips Electronics N.V. Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
JP4221330B2 (ja) * 2004-05-07 2009-02-12 日本電信電話株式会社 インタフェース方法、装置、およびプログラム
JP5145569B2 (ja) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 対象物特定方法および装置

Also Published As

Publication number Publication date
JP2009240370A (ja) 2009-10-22

Similar Documents

Publication Publication Date Title
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
US9122275B2 (en) Robot and control method thereof
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN103207670A (zh) 利用深度传感器进行无接触操作的装置
KR20120102647A (ko) 주 손가락 추적 장치 및 최소 침습 수술 시스템에서의 사용 방법
KR20140015144A (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
KR20120115487A (ko) 원격조종 최소 침습 종속 수술 기구의 손 제어를 위한 방법 및 시스템
Ehlers et al. A human-robot interaction interface for mobile and stationary robots based on real-time 3D human body and hand-finger pose estimation
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
JP5145569B2 (ja) 対象物特定方法および装置
US11478922B2 (en) Robot teaching device and robot system
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
Chen et al. A human–robot interface for mobile manipulator
JP2015066623A (ja) ロボット制御システムおよびロボット
JP5120754B2 (ja) 動作検出装置
WO2021073733A1 (en) Method for controlling a device by a human
JP6158665B2 (ja) ロボット、ロボット制御方法、およびロボット制御プログラム
Yam-Viramontes et al. Implementation of a natural user interface to command a drone
JP5076081B2 (ja) 集団状態推定システムおよび集団注意制御システムならびにアクティブセンシングシステム
CN110877335A (zh) 一种基于混合滤波器自适应无标记机械臂轨迹跟踪方法
JP6488946B2 (ja) 制御方法、プログラム及び制御装置
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
EP2908219A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
Chu et al. A study of motion recognition system using a smart phone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5120754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250