JPWO2005046942A1 - ロボットの駆動方法 - Google Patents

ロボットの駆動方法 Download PDF

Info

Publication number
JPWO2005046942A1
JPWO2005046942A1 JP2005515481A JP2005515481A JPWO2005046942A1 JP WO2005046942 A1 JPWO2005046942 A1 JP WO2005046942A1 JP 2005515481 A JP2005515481 A JP 2005515481A JP 2005515481 A JP2005515481 A JP 2005515481A JP WO2005046942 A1 JPWO2005046942 A1 JP WO2005046942A1
Authority
JP
Japan
Prior art keywords
image data
motion
robot
image
principal component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005515481A
Other languages
English (en)
Other versions
JP4878842B2 (ja
Inventor
聖 星野
聖 星野
貴頌 谷本
貴頌 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2005515481A priority Critical patent/JP4878842B2/ja
Publication of JPWO2005046942A1 publication Critical patent/JPWO2005046942A1/ja
Application granted granted Critical
Publication of JP4878842B2 publication Critical patent/JP4878842B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

形状が複雑で自己遮蔽の多い動作物の動作にもとづき、見まね(非接触的方法)によりロボットを駆動する方法を提供することにある。ロボットの複数の画像データと事前収集動作指令とを対応付けて画像対応動作指令記憶手段11に記憶する。ロボットを動作させるために、動作物に所望の動作を行わせ、その際に動作物の画像データを時系列でロボット動作用画像データとして取得する。画像データ特定及び動作指令発生装置14は、ロボット動作用画像データに含まれる画像データに対応する画像データを画像対応動作指令記憶手段11に記憶している複数の画像データから時系列で特定し、特定した画像データに対応する事前収集動作指令を動作指令としてロボットに与えてロボットを駆動する。これによりロボットは、動作物の形状の複雑さや自己遮蔽を解消して見まねにより動作する。

Description

本発明は、ロボットの駆動方法に関するものであり、特にロボットを動作させるためにそのロボットに対応する動作物またはその擬似物に所望の動作を行わせ、その動作物または疑似物の画像データと同じ動作をロボットに行わせるのに適したロボットの駆動方法に関するものである。
例えば、人の動作を見まねで再現できるロボットに関する技術としては、操作者がセンサを付けて歩行したときや、操作者が複数のセンサを備えたデータグローブを手に嵌めて手を動かしたときに、それらのセンサから出力される情報に基いてロボットを駆動している。非特許文献1及び非特許文献2には、この種の技術が開示されている。
Y.Kuniyoshi著の"A robotic approach to the foundation of communication and symbols"と題する論文:Proc.of 12th World Congress of Applied Linguistics(AILA’99),94頁,1999年発行 T.Inamura,Y.Nakamura,H.Ezaki及びI.Toshima著の"Imitation and primitive symbol acquisition of humanoids by the integrated mimesis loop"と題する論文:Proc. of Intl. Conf.on Robotics and Automation(ICRA 2001),4208頁−4213頁,2001年発行
しかしながら、上記従来の技術では、多くの場合、不良設定性(センサの出力または認識によって正確に判別できない動き)がほとんど存在せず、解が一意に決まり、比較的容易にロボットを駆動することができる。一方,不良設定性が存在するような問題に対しては、常にロボットに対応する動作物またはその擬似物にセンサを装着しておく必要があり、汎用性に欠ける問題がある。
本発明の目的は、実際にロボットを駆動する際に、ロボットに対応する動作物またはその擬似物にセンサを装着しておく必要のないロボットの駆動方法を提供することにある。
本発明の他の目的は、動作画像データを入力データとしてロボットを駆動することを可能にするロボットの駆動方法を提供することにある。
本発明の他の目的は、動作物またはその模擬物の形状が複雑であったり、画像上の自己遮蔽が頻繁に起こる場合でも、安定して高速にロボットを駆動することを可能にするロボットの駆動方法を提供することにある。
本発明の更に他の目的は、コンピュータグラフィック画像データを利用してロボットを駆動することが可能なロボットの駆動方法を提供することにある。
本発明の別の目的は、入力される動作画像データの特定精度を高めることができるロボットの駆動方法を提供することにある。
本発明の他の目的は、入力された動作画像データと事前に記憶した多数の画像データとの照合を迅速に行うことができるロボットの駆動方法を提供することにある。
本発明の更に他の目的は、見まね学習により不良設定性を解消してロボットを駆動する方法を提供することにある。
本発明のロボットの駆動方法は、次のステップ従って、動作指令によりロボットを駆動する。まずロボットに対応する動作物またはその擬似物に所定の動作と同じ動作をさせたときの動作物またはその擬似物の複数の画像データと、これら複数の画像データに対応した動作指令を得るために事前に収集された事前収集動作指令とを対応付けて画像対応動作指令記憶手段に記憶する。事前収集動作指令を事前に収集するための方法は任意である。次に、ロボットを動作させるために、動作物またはその擬似物に所望の動作を行わせ、その際に動作物またはその擬似物の動作画像データを時系列でロボット動作用画像データとして取得する。そしてロボット動作用画像データに含まれる動作画像データに対応する画像データを、画像対応動作指令記憶手段に記憶している複数の画像データから時系列で特定し、特定した画像データに対応する事前収集動作指令を動作指令としてロボットに与える。なお画像対応動作指令記憶手段に記憶する画像データは、撮影した画像に基づいて処理を行って得たその画像に関する特徴を示す特徴量のデータを伴うものまたは特徴量のデータそのものであってもよいのは勿論である。そしてロボット動作用画像データに含まれる動作画像データに対応する画像データの特定方法は、任意である。画像データが特徴量のデータであれば、特徴量の類似度によって、動作画像データに対応する画像データの特定を行うことができる。
本発明の方法により実際にロボットを動かすと、ロボットに対応する動作物またはその擬似物の画像を得るだけで、センサを使用することなく、その動作物または擬似物と同じ動作を、ロボットに行わせることができる。したがって本発明によれば、画像データを入力データとしてロボットを簡単に駆動することが可能になる。
なおロボット動作用画像データに含まれる画像データと画像対応動作指令記憶手段に記憶されている複数の画像データとの対応を、両者の類似度に基づいて判断することができる。その場合には、画像対応動作指令記憶手段に記憶している複数の画像データから動作画像データに対応する画像データを特定する際に、動作画像データの特徴量を基準にして照合用の複数の画像データを選択し、照合用の複数の画像データと動作画像データとの類似度に基づいて動作画像データに対応する画像を特定することが好ましい。

本発明のより具体的な方法では、以下の第1乃至第5のステップを実行することによりロボットを駆動する。第1のステップでは、ロボットに対応する動作物と、この動作物に設けられて動作物の動きを検出する複数のセンサと、これら複数のセンサの出力に基づいて動作指令を発生する動作指令発生装置とを用いる。そして動作物に所定の動作を行わせたときの複数のセンサの出力に基づいて動作指令発生装置が発生する動作指令を事前収集動作指令として記憶する。ここで動作物とは、典型的には人間全体または人間の手や足等の動作する部位等であるが、動作物は人間以外の動物等でもよい。
第2のステップでは、動作物に第1のステップにおける所定の動作を行わせたときの動作物の複数の画像データを取得するか、または動作物またはその擬似物に前記所定の動作と同じ動作をさせたときの動作物またはその擬似物の複数の画像データを時系列で取得する。ここで「動作物またはその擬似物」における「動作物」とは第1のステップの動作物と同じものでもよいが、同様の形状及び構造を有し(言換えると、同じ場所に同じ関節があり)且つ同じ動作を行い得るものであれば別の動作物であってもよい。また「動作物またはその擬似物」における「その擬似物」とは、その動作物をコンピュータグラフィック技術等の擬似物生成技術を用いて作成したものや、その動作物の人形等である。この場合に得る画像データは、疑似画像データである。特にコンピュータグラフィック技術を用いる場合の疑似物の画像データは、コンピュータグラフィック画像データである。複数の画像データを時系列で取得する方法または手法は、任意であり、単眼カメラ、両眼カメラ、あるいはマルチカメラのいずれにより撮影したものであってもよい。
動作物が人間の手である場合、第2のステップで、複数の画像データに、人間の手に現れる個人差を考慮した画像データを含めておくと、後述する第5のステップにおける画像データの特定精度を高めることができる。ここで個人差が生じる相違要素には、拇指以外の4指の基節位置の曲率、拇指基節の張り出し具合、隣り合う二本の指の開き具合、開いた二本の指の基準角度の違い、拇指の反り具合等がある。このような個人差は、コンピュータグラフィック技術等の擬似物生成技術を用いて画像データ(疑似画像データ)を作成する場合には、前述の相違要素をパラメータとして既に作成した基本となる画像データを変更することにより(骨の長さや関節の可動角度といったような、前述の相違要素を生み出しているパラメータを変更することにより)簡単に得ることができる。したがって個人差を考慮した画像データの作成は、難しいものではなく、簡単である。
また第2のステップで作成する複数の画像データには、複数の画像データの解像度を変えて作成した複数の解像度変更画像データを含めてもよい。これは画像データの解像度を変えたほうが、画像の特徴が現れやすくなるものもあるからである。画像データの解像度は、基本となる画像データがあれば、簡単に変更することは可能である。
なお第2のステップでは、複数のセンサを備えた動作物の表面を、複数のセンサを含めて被覆物によって覆い、第1のステップと同時に動作物の複数の画像データを取得するようにしてもよい。被覆物によって動作物を覆うと、動作物の表面の不要な情報を物理的に取り去ることができる。したがって被覆物は、不要な情報をできるだけ排除できる構成を有しているのが好ましい。そのためできるだけ無地(一色で無模様:不要な凹凸がないもの)であることが好ましい。このような被覆物で覆った動作物の画像データからは、その画像データに含まれる特徴(特に輪郭についての特徴)を短い時間で、しかも高精度に取得することができる。
第3のステップでは、第2のステップで得た複数の画像データに含まれる各画像データと事前収集動作指令とを対応付けて第2のステップで得た複数の画像データと事前収集動作指令とを画像対応動作指令記憶手段に記憶する。なお第3のステップでは、実際に撮影した画像だけでなく、第2のステップで取得した前の画像データと後の画像データとの間の未作成(未撮影)の画像データをコンピュータグラフィック技術により作成したものも記憶の対象とすることができる。この場合には、未作成の画像データに対応する事前収集動作指令を、前の画像データに対応する事前収集動作指令と後の画像データに対応する事前収集動作指令とに基づいて推定により作成し、これを未作成の画像データと対応付けて記憶することができる。このようにすれば、少ない実際の画像データを用いて、より多くの画像データと事前収集動作指令との対応データを得ることができ、基礎データ(画像データと事前収集動作指令とを対応付けたデータ)の収集が大幅に簡単になる。
第4のステップでは、ロボットを動作させるために、動作物またはその擬似物に所望の動作を行わせ、その際に動作物またはその擬似物の動作画像データを時系列でロボット動作用画像データとして取得する。この場合に、動作物にセンサを装着する必要はない。そして第5のステップでは、ロボット動作用画像データに含まれる動作画像データに対応する画像データを画像対応動作指令記憶手段に記憶している複数の画像データ(基礎データ)から時系列で特定する。なおロボット動作用画像データに含まれる動作画像データと画像対応動作指令記憶手段に記憶されている複数の画像データとの対応は、両者の類似度に基づいて判断することが好ましい。類似度の求め方は任意であり、特定の方法に限定されるものではない。そして第5のステップでは、特定した画像データに対応する事前収集動作指令を動作指令としてロボットに与える。
なお人間型ロボットにおいて不良設定性が多いのは、手である。したがってロボットハンドの駆動に本発明を適用すると、従来よりも簡単にロボットハンドを駆動することができる。なおこの場合、動作物としては人間の手またはその擬似物が用いられることになる。そして第1のステップでは、人間の手に装着するデータグローブを用いる。このデータグローブは、グローブ本体にロボットの手の動作部に対応した人間の手の動作部の動きを検出する位置に複数のセンサが装着された構造を有している。
基礎データとなる画像データが多くなるほど(画像データベースのデータ量が多くなるほど)、基礎データとなる画像データの中から、入力である動作画像データに対応した画像データを特定するには時間がかかるようになる。そこでこのような問題を解消するためには、第3のステップで、画像データと事前収集動作指令とを対応付けて画像対応動作指令記憶手段に記憶する際に、次のようにすることができる。まず複数の画像データのそれぞれの特徴量を個々に演算する(特徴量ステップ)。次に複数の画像データのそれぞれの特徴量を主成分分析して、複数の画像データのそれぞれについて主成分ごとの主成分得点を演算し、且つ累積寄与率に基づいて第1主成分から第k主成分までの主成分の数を決定する(主成分決定ステップ)。そして第1主成分から第k主成分までの各主成分ごとに、複数の画像データを主成分得点の大きさを基準にして並べ替えて得たk種類の画像データソース[画像情報の表(テーブル)]を作成して記憶する(記憶ステップ)。すなわち例えば、15,000枚分の画像データがあるとした場合に、10種類の主成分を決定したとすると、15,000枚分の画像データを10種類の主成分ごとに、その主成分得点の大きさを基準にして並べ替えた10種類の画像データソース(15,000×10=150,000枚分画像データに相当)として記憶する。画像データソース内の並べ変えた各画像データは、それぞれ事前収集動作指令と対応付けられて記憶されている。このようにした場合には、第5ステップで、入力された動作画像データについても主成分得点を求め、この主成分得点を基準にしてk種類の画像データソースから照合用の複数の画像データをそれぞれ選出する。動作画像データの解像度を変えた複数種類の解像度の異なる動作画像データを作り、この複数種類の解像度の異なる動作画像データについて主成分得点を求め、この主成分得点を基準にしてk種類の画像データソースから照合用の複数の画像データをそれぞれ選出するようにしてもよい。この照合用の複数の画像データは、各画像データソースから各主成分ごとの主成分得点を基準にして所定枚数分ずつ選出される。このようにすると記憶されているすべての画像データと動作画像データとを照合する場合と比べて、照合対象となる画像データの数を少なくすることができるので、照合時間が短くてすむ利点が得られる。そして主成分得点を基準にして動作画像データと照合用の複数の画像データの類似度を判定し、前記類似度に基づいて動作画像データに対応する画像データを特定するようにしてもよい。このように解像度の異なる動作画像データを作成してそれらの因子負荷量も利用して類似度の判定を行うと、画像の特定精度を上げることができる。
なお第1のステップは事前に行う作業であるため、第1のステップを切り離して、ロボットを駆動する装置に用いられる駆動方法においては、第2乃至第5のステップだけを用いてロボットを駆動することができるのは当然である。
発明者等が開発した本実施の形態で制御の対象とする公知の多指ロボットハンド1の平面図である。 図1のロボットハンドの内部に配置されたアクチュエータの配置構成を示す図である。 サイン波入力に対する追従性能を示す図である。 サインFM変調波入力に対する追従性能を示す図である。 遠隔指令装置として使用するデータグローブの一例の概略構成を示す図である。 多指ロボットハンドの制御装置及び本発明の駆動方法を実施する装置の一例の概略構成を示す図である。 図6の対応関係決定手段の主要部をコンピュータを用いて実現する場合に用いるソフトウエアのアルゴリズムを示すフローチャートである。 第1乃至第3のステップをコンピュータを用いて実現する場合に用いるソフトウエアのアルゴリズムを示す図である。 第1乃至第3のステップを説明するたに用いる図である。 第4及び第5のステップをコンピュータを用いて実現する場合に用いるソフトウエアのアルゴリズムを示す図である。 高次局所自己相関特徴のための局所パターンの例を示す図である。 (A)乃至(C)は、人の手に現れる個人差の相違要素を示している。 コンピュータグラフィック編集ソフトのパラメータを変えて、基節位置の曲率と拇指基節の張り出し具合を変えた場合の画像データの相違を示す図である。 解像度を変えた3種類の画像データを示す図である。 (A)及び(B)は、320×240画素から構成された1画面を4×4画面に分割した状態と、8×8画面に分割した状態を示す図である。 画像データを並べ替えたイメージを示す図である。 画像データのデータベース作成の手順を示すフローチャートである。 具体的な照合手順の流れを示すフローチャートである。 本発明の方法の別の実施の形態を説明するために用いる概念図である。 データベースを作成するためのアルゴリズムを示すフローチャートである。 図20のアルゴリズムの詳細を示すフローチャートである。 輪郭抽出した画像データを示す図である。 データベース作成に使用する高次局所自己相関特徴のための局所パターンの例を示す図である。 特徴量の抽出を説明するために用いる図である。 動作画像データに対応する画像データをデータベースに記憶した画像データから選ぶ際のアルゴリズムを示すフローチャートである。 図25のアルゴリズムの詳細を示すフローチャートである。 クラスタリングを説明するために用いる図である。
以下図面を参照して本発明の方法の実施の形態について説明する。
なお実施の形態について説明する前に、本実施の形態で用いる技術の基礎について説明する。なお実施の形態について説明する前に、本実施の形態で用いる技術の基礎について説明する。両眼あるいは単眼カメラによるヒト手指の3次元形状を推定する場合には、手指の形状が複雑で、しかも自己遮蔽も多く、形状の認識における不良設定性が存在する。そのため、赤外線レンジセンサや複数台のコンピュータを用いた並列計算装置といった周辺機器類を使用しない限り、高速で且つ高精度に推定することはできない(参考文献:E. Ueda, Y. Matsumoto, M. Imai and T. Ogasawara: “Hand pose estimation using multi-viewpoint silhouette images,” Proc. 2001 IEEE/RSJ Intl. Conf. on Intelligent Robots and Systems (IROS'2001), pp.1989-1996, 2001。M. H. Jeong, Y. Kuno, N. Shimada and Y. Shirai: “Recognition of shape-changing hand gestures,” IEICE Transactions Division D, E85-D, 10, pp.1678-1687, 2002。N. Shimada, K. Kimura, Y. Kuno and Y. Shirai: “3-D hand posture estimation by indexing monocular silhouette images,” Proc. 6th Workshop on Frontier of Computer Vision, pp.150-155, 2000)。一方、ヒト型のロボット等の上肢制御には、少なくとも軌道選択、関節角度の組み合わせ、筋張力の組み合わせなどの不良設定問題があることが知られている(Y.Uno,K.Kawato及びR.Suzuki著の“Formation and control of optimal trajectory in human multijoint arm movement−minimum torque−change model”と題する論文:Biological Cybernetics,61,pp.89−101,1989.)。ところが、両方の不良設定性を、人は巧く解決して、複雑精緻な随意運動を実現している。経験則から言えば、自分自身の身体での運動経験、すなわち身体性(R.Pfeifer,“Dynamics,morphology,and materials in the emergence of cognition,”In Advances in Artificial Intelligence,ed.W. Burgard,A.B.Cremers,and T.Christaller,Proc.KI−99,23th Annual German Conference on Artificial Intelligence,1999.)の存在が、認識における不良設定問題の重要な解決になっていると言うこともできる。
そこで、発明者らは、認識と制御の両方における不良設定問題を同時に解決できる非常に有効な、場合によっては唯一の方法が、見まね学習であると考えて、人と同じような精度と処理速度で手指動作の再現が可能なロボットハンド・システムの開発を行った。
以下、このシステムに基づいて本発明のロボットの駆動方法の実施の形態の幾つかの例を説明する。
まず本実施の形態で用いる多指ロボットハンド(ロボット)の機構について説明する。図1は、発明者等が開発した本実施の形態で制御の対象とする公知の多指ロボットハンド1の平面図であり、図2は図1のロボットハンドの内部に配置されたアクチュエータ2(エンコーダ内蔵型超小形モータ)の配置構成を示す図である。なおこの多指ロボットハンドの詳細は、特開2003−117873号公報に示されている。この多指ロボットハンド1の各関節の可動範囲は、親指の内外旋が120°であり、内外転が60°である。そして各5本指の屈曲、伸展は第2関節に連動して行われ、第2関節の可動範囲は112°であり、第1関節は第2関節の可動範囲の7/10倍、第3関節は第2関節の可動範囲の5/7倍となっている。指の開閉は薬指に連動して、人指し指、小指が動き、中指は動かない。また薬指の開閉可動範囲は15°であり、人指し指は13°であり、小指は31°である。これらの構成によって、拇指と小指の接触が可能になり人の手指の可動域を十分に実現できている。
各関節のアクチュエータ2には、DCマイクロモータを使用している。各指の第2関節、拇指の内外旋、内外転部位と拇指以外の4指間の開閉(アブダクション)用に掌の内部にそれぞれアクチュエータ2が設置されている。各関節の制御は、図示しない制御用計算機からの指令を受けて動作し、内部にD/Aコンバータや、小型サーボモータ専用ドライバー(マイクロサーボ)が配置された駆動装置3を介して、各アクチュエータ2のモータにかける電圧を変化させることで行う。各アクチュエータ2のモータには、インクリメンタルシャフトエンコーダが内蔵されている。このエンコーダの出力は、軸速度、回転方向の検出の他に、位置制御に使用できる。各関節の角度情報は、ギヤを介して分解能を挙げたエンコーダを介して図示しない制御用計算機にフィードバックされる機構を持っている。エンコーダ自体の分解能は16[Pulse/Revolution]である。指の開閉部のエンコーダには減速比1/400のギアが設けられており、換算分解能は6400[Pulse/Revolution]となる。その他のエンコーダには減速比1/50のギアを設けており、換算分解能は800[Pulse/Revolution]となる。
PID制御等を用いて、サイン波、FM変調波の時系列角度変化指令を入力したときの追従結果を図3及び図4に示す。図3はサイン波入力に対する追従性能を示し、図4はサインFM変調波入力に対する追従性能を示す。これらの結果から、ゆっくりとした動作から比較的早い動作、変調波に対しても良好な追従特性が得られることが分かる。
図5は、遠隔指令装置として使用するデータグローブ4の一例の概略構成を示す図である。このデータグローブ4には、手袋形の本体の関節部分を中心にして約16箇所の位置に分散して位置センサが備えられた構成を有している。具体的には、Virtual technologies社製のcyberglove(商標)をデータグローブとして用いている。このデータグローブのセンサ5は、拇指を除く各指のMP(中手指節関節),PIP(近位指節間関節)に一つずつ、拇指にはMP、PIP、DIP(遠位節間関節)についており、また各指の間にあるアブダクションを計測するセンサと掌の中央のセンサとで計16ヶ所に設置されている各センサ5はそれぞれ歪曲(ひずみ)度を数値化して30〜40Hzで出力する仕様を有している。掌の中央に設置されているセンサ5は掌全体の歪曲度を計測するものであり、対する人型ロボットハンドにはその機構は備わっていないため、この実施の形態では、この中央のセンサ5は使用しない。
人の手指動作を操作者が手に装着したデータグローブによりデータ化し、これを計算機に取り込んで多指型ロボットハンドの制御指令値に変換すれば、データグローブを装着した操作者の手の動作と同様の動作をロボットハンドで実現させることができる。
データグローブによるロボットハンドの制御法において、一つの簡単な方法としては、サイバーグローブから出力されるデータを3次元座標位置に変換しロボットハンドの関節と対になる部分の角度情報を時系列で取り出し、それをロボットハンドに実行させて、ロボットハンドを動作させるという手段がある。しかし、この方法を用いるとデータグローブの各センサから出力される16個の値がそれぞれ各関節のX座標、Y座標、Z座標、ピッチ角、ヨー角、ロール角に変換され、一単位時刻あたり100ものデータが生成されることとなり、これからロボットハンドの動作に必要な8関節分のデータを抽出して使用することは計算効率や時間効率を考える面からも最適ではない。
人の手指は拇指を除く四指に至って、他の四指の影響を少なからず受ける。その特徴を定量的に表すこともこの制御方法及び装置において重要であると考える。そこでデータグローブで得られるデータからロボットハンド制御用の指令値への変換式に本発明の実施の形態では、重回帰式を用いる。
ロボットハンドの各関節に対し重回帰式、すなわちすべてのデータグローブからの出力の重み付き線形和によりそれぞれのロボットハンドの関節を記述するためには、まず重回帰分析を行い偏回帰係数を求める必要がある。そこで重回帰分析用のデータを取得するためにデータグローブ装着者は予め定めた時系列関節角度パターンに従って関節角度指令値を駆動装置3に入力して、ロボットハンドを動作させる。なお駆動装置3に指令を与える制御装置は、ロボットハンド1にあらかじめ重回帰分析に有効な動作を行わせる予め定めた時系列関節角度パターンの関節角度指令値を記憶している。そしてこのロボットハンドの動作に従い即ち倣って、データグローブを装着した操作者には、データグローブを装着した手において、指の屈伸、アブダクション等の動作を事前に行ってもらう。本発明では、このようにして計測したデータグローブ4の出力と計測に用いたロボットハンドの時系列関節角度パターンとを重回帰分析にかけ、各関節ごとの偏回帰係数を導き出す。下記の式は本実施の形態で用いる重回帰式である。
Figure 2005046942
ここで、目的変数θiはロボットハンド1での制御対象となる関節各度の指令値、説明変数xinはデータグローブ4からの出力値、ainは偏回帰係数、a0nは残差である。この重回帰式で出される値はデータグローブ4での各指の関節角度の値であるので、この値をロボットハンドの角度指令値として制御を行えばよいことになる。
図6には、事前収集動作指令を得る際に用いる多指ロボットハンドの制御装置と本発明のロボットの駆動方法を用いてロボットハンドを駆動する装置の構成の一例の概略構成を示してある。図6に示した動作指令を事前に収集する際に用いる制御装置では、関節角度を指示する関節角度指令値yに応じて動作するアクチュエータを備えたk個(kは正の整数)の関節を有する多指ロボットハンド1を制御するものとする。そしてデータグローブ4は、操作者の手に装着されて操作者の手の動きに応じてn個(nは正の整数)の出力信号xnを出力する遠隔指令装置を構成している。この多指ロボットハンドの制御装置は、対応関係決定手段6と制御信号発生手段7とを備えている。対応関係決定手段6は、k個の関節のためのk個の関節角度指令値yそれぞれについて、各関節角度指令値yとn個の出力信号xnとの間の対応関係を予め定めるように構成されている。具体的には、対応関係決定手段6は、時系列関節角度パターン記憶手段61と、サンプリング手段62と、偏回帰係数導出手段63と、重回帰式決定手段64とを備えている。
サンプリング手段63は、k個の関節(実際にはアクチュエータ2)にそれぞれ予め定めた時系列関節角度パターン記憶手段61に記憶した時系列関節角度パターンに従って関節角度指令値を入力して多指ロボットハンド1を動作させた状態において、多指ロボットハンド1の動きに倣うように操作者がデータグローブ4を操作したときにn個の出力信号xnを時系列でm回(mはnより大きい正の整数)サンプリングする。サンプリング手段62はサンプリングを開始する前に時系列関節角度パターン記憶手段61に指令を与え、時系列関節角度パターン記憶手段61は駆動装置3に予め定めた関節角度指令値を出力する。なお時系列関節角度パターンは、N次元空間をまんべんなく動くような任意の関数指令を多指ロボットハンドの関節(アクチュエータ)に与えるように構成するのが好ましい。駆動手段3は、これを受けて多指ロボットハンド1を動作させる。
偏回帰係数導出手段63は、時系列関節角度パターン記憶手段61に記憶した時系列関節角度パターンと、サンプリング手段62から出力されるm回のサンプリングにより求めたm組のn個の出力信号xnとに基づいて重回帰分析を行い、k個の関節のそれぞれについて偏回帰係数を導出する。
重回帰式決定手段64、偏回帰係数導出手段63が定めたk個の関節毎の偏回帰係数を用いて、k個の関節毎の関節角度指令値yとn個の出力信号xnとの間の対応関係を定めるk個の重回帰式を決定する。
そして制御信号発生手段7は、対応関係決定手段6の重回帰式決定手段64が求めた対応関係とn個の出力信号xnとに基づいて、k個の関節角度指令値yを求め、k個の関節角度指令値yを示す制御信号(動作指令)を多指ロボットハンドのk個の関節を駆動するための駆動装置3に出力するように構成されている。この制御信号発生手段7は、重回帰式決定手段64が求めたk個の重回帰式を対応関係として用い、n個の出力信号xnを入力としてk個の関節角度指令値yを求める。これらk個の関節角度指令値yが動作指令となる。なおデータグローブ4の動きに応じて制御指令発生手段7からは処理速度に応じた時間間隔で動作指令が出力される。なお図6の例においては、対応関係決定手段6及び制御信号発生手段7により動作物(操作者の手)に所定の動作を行わせたときの複数のセンサの出力に基づいて動作指令を発生する動作指令発生装置が構成されている。
重回帰式決定手段64で決定するデータグローブ4の出力と多指ロボットハンド1の関節角度との対応を示す重回帰式は以下のようの形で記述することもできる。
Figure 2005046942
上記式においてHANDは、多指ロボットハンド関節値,aは偏回帰係数,GLOVE[n]はn自由度のデータグローブ出力、iは多指ロボットハンドの関節数である。なお上記式を用いる場合には、行が列より大きくなり優決定となる。そのため特異値分解を用いて最適解としての偏回帰係数を求めることが好ましい。
図7は、図6の対応関係決定手段6の主要部をコンピュータを用いて実現する場合に用いるソフトウエアのアルゴリズムを示すフローチャートである。まずステップST1では、データグローブ4と時系列関節角度パターンのデータ対を獲得する。即ち多指ロボットハンド1の各関節可動域をまんべんなく動かすような関数を多指ロボットハンド1に与えて駆動し、多指ロボットハンド1に合わせて操作者の手指も同じ動作を行う。多指ロボットハンド1のある関節角度または関節角度指令値をyとし、n個のデータグローブ出力をXnとすると,次式のように時刻1〜mまでの時系列データが得られる。
Figure 2005046942
ただし上記式において、m>nである。また前提として、xにはシステム雑音,量子化誤差などの雑音が含まれるものとする。
次にステップST2進んで、データ対をベクトルと行列の形式で表現すると、y=[H]xのように表現することができる。ただしこの式におけるy、x及び[H]は下記の通りである。
Figure 2005046942
次にステップST3で、最小二乗法による解xの推定を開始する。この推定の過程において、偏回帰係数が求められる。最小二乗法に用いる式は以下の式である。
Figure 2005046942
次にステップST4から、ヤコビ法による([H][H])の計算を開始する。すなわち直交行列Pを使って([H][H])(=[A])を簡単な形の類似行列[B]に変換する。言い換えれば、すなわち,[P]−1[A][P]=[B]を計算する。
次にステップST5で、行列[A]の非対角要素のうちの絶対値最大のものakl(=alk)を選ぶ。そして次にステップST6において、akk=all=cosθ、akl=−sinθ、alk=sinθとする単位行列[P]を作る。
次にステップST7へと進んでcとθの値を決定する。θは、下記の行列により求める。
Figure 2005046942
ただし、上記式においてk<lである。
次にステップST8へと進んで、[P][A][P]を計算して新しい[A]とする。次にステップST9で、行列[P]の積から固有ベクトルVを下記の式で求める。
Figure 2005046942
ただし、上記式において[P] (N)はN回目の変換に用いた行列[P]である。
次にステップST10へと進み、[A]のどの非対角要素も収束条件<0.0001なら終了し、そうでなければステップST5へと戻る。ここで行列[B]の対角要素が固有値となる。
次にステップST11へと進んで解に含まれる雑音を抑制する。ステップST12では、固有値(λ1,λ2,…λn)を(1/(λ1+υ),1/(λ2+υ),…1/(λn+υ))と置き換えて逆行列([H]t[H])-1を求める。ただし([H]t[H])-1 =[U][A]-1[U]t である。またベクトルuは[H]t[H]の固有ベクトルである。また[U]=[u1,u2,…uN]である。更に[A]-1 は下記のように表される。
Figure 2005046942
ただし υ=σn 2/σx 2 である。ここで、雑音成分nをy=[H]xの右辺に加え、n=y−[H]x と変形することでσn 2 を計算することができる。またσx 2 はyから直接、計算が可能である。そしてステップST13で最小二乗法による解xの推定を終了する。
上記フローチャートのアルゴリズムに従えば、偏回帰係数を導出するために最小二乗法と特異値分解とを用いて重回帰分析を行うことになる。なお上記ステップST4〜ST10までが特異値分解を実施しているステップである。
図6と図8乃至図10を用いて、本発明の方法によりロボットハンドを駆動する実施の形態の一例の説明をする。本発明の実施の形態の第1のステップでは、事前収集動作指令記憶装置8が、データグローブ4を嵌めた手(動作物)に所定の動作を行わせたときのデータグローブ4の複数のセンサ5の出力に基づいて動作指令発生装置(6,7)が発生する動作指令を事前収集動作指令として記憶する。この記憶動作をコンピュータを用いて実現する場合に用いるソフトウエアのアルゴリズムを図8に示す。
第2のステップでは、図9に示すように、単眼カメラまたは両眼カメラ等からなるカメラ9によりデータグローブ4を手に装着して事前収集動作指令を取得するときと同じ動作(所定の動作)を人の手Hで行う。そしてこのときの手(動作物)Hの画像データを時系列で取得する。なおこの画像データの取得は、事前収集動作指令を取得するのと同時に行ってもよいが、後から行ってもよい。図9の例では、手Hで「グー」の形を作った状態の画像データをとり、この画像データに基づいてコンピュータグラフィック技術で手の擬似物の画像データPD1を作成する。そして手Hで「パー」の形を作った状態の画像データをとり、この画像データに基づいてコンピュータグラフィック技術で手の擬似物の画像データPDnを作成する。「グー」から「パー」まで変化するまでの間の過程の画像を実際に撮影してもよいが、図9のようにその間の画像をコンピュータグラフィック技術で作成してもよい。このようにして作成した画像データは、画像データ記憶装置10に記憶される。
第3のステップでは、第2のステップで得た複数の画像データに含まれる各画像データと事前収集動作指令記憶装置8に記憶された事前収集動作指令とを対応付けて画像対応動作指令記憶手段11に記憶する。なお本例では、画像対応動作指令記憶手段11は、実際に撮影した画像だけでなく、時系列で取得した前の画像データPD1と後の画像データPDnとの間の未作成の画像データをコンピュータグラフィック技術により作成する場合には、作成した画像データに対応する事前収集動作指令を前の画像データPD1に対応する事前収集動作指令と後の画像データPDnに対応する事前収集動作指令とに基づいて推定により作成して未作成の画像データと対応付けて記憶することができる。このようにすれば、少ない画像データによりより多くの画像データと事前収集動作指令との対応データを得ることができ、基礎データ(画像データと事前収集動作指令とを対応付けたデータ)の収集が大幅に簡単になる。
第1から第3までのステップは、ロボットハンドを駆動するための事前作業として実施される。なお自由度ごとに5度刻みの精度の関節角度制御をロボットハンドの駆動において実現しようとすると、1億個(20の7乗)程度の数の画像が必要となるが、上述のようにコンピュータグラフィック技術を用いれば、基礎データの収集は簡単になる。この場合に用いることができるCG編集ソフトウエアとしては「Poser 5(Curious Labs Incorporated製)」を使用することができる。このソフトウエアを用いれば、データグローブ出力から得られた関節データから、撮像した手指2次元画像と類似した理想的な手指CG画像を補間生成することができる。そして補間生成した画像データに対応する事前収集動作指令は、関節角度の線形補間により生成することができる。なお、画像1枚あたりの手指CGのファイルサイズは5kB程度である。
第4のステップ及び第5のステップは、実際にロボットハンドを駆動する際のステップである。第4のステップでは、ロボットハンドを動作させるために、手で所望の動作を行い。図6に示すように、その際の手の画像データをカメラ12を用いて時系列でロボット動作用画像データとして取得する。このロボット動作用画像データ(動作画像データ)は、ロボット動作用画像データ記憶装置13に記憶される。そして第5のステップでは、ロボット動作用画像データに含まれる動作画像データに対応する画像データを画像対応動作指令記憶手段11に記憶している複数の画像データから時系列で特定する。この特定作業は、画像データ特定及び動作指令発生装置14で行う。この例では、ロボット動作用画像データに含まれる動作画像データと画像対応動作指令記憶手段に記憶されている複数の画像データとの対応は、両者の類似度に基づいて判断する。類似度の求め方は任意である。そして第5のステップでは、特定した画像データに対応する事前収集動作指令を動作指令として駆動装置3に与え、駆動装置3の出力で多指ロボットハンドを駆動する。第4及び第5のステップの主要部をコンピュータ用いて実現する場合のソフトウエアのアルゴリズムは図10に示す通りである。
画像データ特定及び動作指令発生装置14で行う画像データの特定の際に特徴量を抽出する技術として、例えば、高次局所自己相関関数を用いる特徴量抽出技術を利用することができる。高次局所自己相関関数については、1993年発行の電総研研究報告,j957の126頁乃至140に「柔らかな情報処理のための統計的手法の応用に関する研究」と題する論文に詳しく説明されている。手指2次元画像の特徴抽出には,高次局所自己相関関数を用いた。画面内の対象画像をf(r)とすると、N次自己相関関数は変位方向(a1,a2,…an)に対して次式のように定義される。
Figure 2005046942
実証試験では、高次自己相関係数の次数Nを2とし、また変位方向を参照点rの周りの局所的な3×3画素の領域に限定した。これより、平行移動による等価な特徴を除くと特徴Mの数は図11に示す25個になる。図11中の黒の四角は、局所パターンの対応する画素の位置に対応する。各特徴の計算は、局所パターンの対応する画素の値の積を全画素に対して足し合わせることで得られる。
上記の方法によれば、実際にロボットハンド1を動かすために、ロボットハンド1に対応する手の画像を得るだけで、センサを使用することなく、手の動きと同じ動作を、見まねにより不良設定性を解消してロボットハンドに動作させることができる。
上記実施の形態では、第3のステップで実際に人の手の画像を撮影しているが、すべてコンピュータグラフィック技術により手の画像データ(手の擬似物の画像データ)を作成してもよいのは勿論である。
次に上記実施の形態を改善または改良する手法について詳しく説明する。
[個人差の考慮]
まず前述の第2のステップにおいて、複数の画像データ(コンピュータグラフィックの画像データに、人間の手に現れる個人差を考慮した画像データを含めておくと、第5のステップにおける画像データの特定精度を高めることができる。図12(A)乃至(C)は、人の手に現れる個人差の相違要素を示している。図12(A)は手をグーの形に握った状態を示している。拇指以外の4指の基節位置の曲率に個人差が現れる。すなわち4指の基節位置が直線的になる手もあれば、湾曲した形状になる手もある。また拇指基節の張り出し具合にも顕著な個人差が現れる。これらの個人差は、2つの関節間の長さの相違によって生じる。また図12(B)は手をチョキの形にした場合の状態を示している。この状態においては、二本の指の開き具合と開いた二本の指の基準角度の違いに個人差が現れる。更に図12(C)は手をパーの形に開いた状態を示している。この状態では、拇指と人差し指との間の開き具合と拇指の反り具合に個人差が大きく現れる。このような個人差は、コンピュータグラフィック技術を用いて手の形の画像データ(疑似画像データ)を作成する場合に、相違要素をパラメータとして既に作成した基本となる画像データを変更することにより簡単に得ることができる。図13は、コンピュータグラフィック編集ソフトのパラメータを変えて、基節位置の曲率と拇指基節の張り出し具合を変えた場合の画像データの相違を示す図である。この2つの相違要素を変更するだけでも、かなり異なった個人差の画像データを得ることができる。なおこれらの画像データを作成する際に、新たに作成する未作成の画像データに対応する事前収集動作指令を、前の画像データに対応する事前収集動作指令と後の画像データに対応する事前収集動作指令とに基づいて推定により作成し、これを未作成の画像データと対応付けて記憶することができるのは勿論である。
[解像度の変更]
次に第2のステップで作成する複数の画像データには、複数の画像データの解像度を変えて作成した複数の解像度変更画像データを含めてもよい。これは画像データの解像度を変えたほうが、画像の特徴が現れやすくなるものもあるからである。画像データの解像度は、基本となる画像データがあれば、簡単に変更することは可能である。図14は解像度を変えた3種類の画像データを示している。左端の画像は、原画像であり、中央の画像は、縦2画素×横2画素を1画素にして解像度を下げた状態の画像であり、右端の画像は、縦4画素×横4画素を1画素として更に解像度を下げた画像である。例えば、原画像が15,000枚あるとすると、解像度を2段階変更することにより、45,000種類の画像データが得られることになる。手をグーの形に握っている状態では、指が重なり合うため、解像度が高いほうが特徴量を正確に把握することができる。しかし手をチョキの形にしている状態では、立っている二本の指の部分から得られる画像の特徴量が重要であるが、その他の部分の特徴量はかえって誤った判断をする原因となる。そこで解像度の異なる画像データを予め基礎データとして用意しておけば、照合の精度は高くなる。
[各画像データにおける特徴量の計算]
先に、画像データの特定のために、高次局所自己相関関数を用いる特徴量抽出技術を用いる点について説明した。従来の技術では、画像全体について特徴量を抽出しているが、精度を高めるために画像をいくつかの分割画像に分けて分割画像単位で特徴量を抽出することが好ましい。これを実現するためには、まず画像データにおける手の重心を推定する。そのためには、コンピュータグラフィックの画像データを二値化して、白黒画像とする。そしてこの白黒画像について、下記式を用いてX軸方向、Y軸方向のそれぞれで中心を求める。
Figure 2005046942
上記式においては、xg、ygは重心のX、Y座標であり、xi,yiは白画素のX、Y座標であり、kは白画素の数である。
このようにして画像の中心を求めた後は、この重心をもとに各画像を画面分割する。図15(A)及び(B)は、320×240画素から構成された1画面を4×4画面に分割した状態と、8×8画面に分割した状態を示している。なお上記画素数であれば、16×16画面に分割することも可能である。
このようにして分割した各分割画像について、特徴量の計算を行う。即ち画面分割ごとの高次局所自己相関パターンを算出する。先に説明した高次局所自己相関パターンの求め方に従って画面分割ごとの高次局所自己相関パターンを算出すればよい。下記の式は高次局所自己相関パターンの算出に用いる式である。
Figure 2005046942
上記式において、xはN次元の参照点rの周りの局所的な相関関数である。したがってNは2である。(a1,a2,…an)は、N次自己相関関数の変位方向であり、f(r)は画面内の対象画像の画素位置rの輝度値である。図12に示した局所パターンを用いれば25パターンとなるが、重複を認めれば35パターンを使用してもよい。
[特徴量低減]
上記のように特徴量を計算した場合、画像データが多くなると処理すべき特徴量が多く
なりすぎる。例えば、図14に示したように3つの解像度の画像データを利用する場合の特徴量は、特徴量=解像度3×画面分割64×高次局所自己相関パターン25=4800(次元)となる。そこで公知の主成分分析技術を利用して特徴量を低減することが好ましい。まず主成分分析による各主成分ごとの因子負荷量を算出する必要がある。下記の式は、主成分分析で用いる主成分得点の演算式である。
Figure 2005046942
上記式において、
Zkpは第k主成分におけるデータpの主成分得点であり、
plmnはデータpの第l解像度(lはアルファベットのLの小文字)の第m画面の第n特徴量であり、
klmnは第k主成分の第l解像度の第m画面の第n特徴量の因子負荷量であり、
divは解像度の数(たとえば3)で有り、pnumは画面分割数(たとえば8×8)である。
ここで因子負荷量aklmnを算出して上記式に代入すれば、第k主成分におけるデータpの主成分得点を求めることができる。なお因子負荷量aklmnの求め方には、主因子法、最小2乗法、最尤法などがある。主因子法で因子負荷量を求める場合には、次のようににする。
(1) 各変量の分散を1に標準化して,標本相関行列 C = (rjk) を求める。
(2) xj と残りの変量との相関係数のなかの最大値 rmax(j) (ただしj!=k)を、Cの対角要素に代入して C* を作る。
(3) C* の固有値問題を解き、固有値 λ1, λ2, ・・・, λp と、それに対応する固有ベクトル c1, c2, ・・・, cp を求める。この固有ベクトルが因子負荷量に相当する。
次に特徴量低減のために、各主成分の寄与率を求める。ここで寄与率とは、各主成分が元の情報をどれだけ説明しているかを表す係数であり、下記のように表すことができる。
Figure 2005046942
ここで,Cは第k主成分の寄与率であり、
klmnは主成分得点Zkpとxplmnの相関係数で,次式のように定義される.
Figure 2005046942
klmnは第k主成分の第l解像度の第m画面の第n特徴量の因子負荷量であり、
λはk番目に大きい相関行列の固有値である。
次に累積寄与率に基づいた主成分の数の決定を行う。前述の寄与率Cは、各主成分が元の情報をどれだけ説明しているかを表す係数であり、以下の関係式が成り立つ。
Figure 2005046942
そこで,累積寄与率95%程度を目処に,特徴量低減で使用する主成分の数を下記の式で決定する。
Figure 2005046942
本実施の形態では、累積寄与率が約97%となる第10主成分までを用いることにする。
次に主成分得点に応じたデータの並び替えを行う。第1から第10主成分までの各主成分ごとに,主成分得点の大きさに応じて全データを並べ替え(ソート)する。この並べ替えによって10種類の画像データソースが作成されることになる。図16は、並べ替えのイメージを示している。このような並べ替えによって、オリジナルの画像数が15,000枚とすれば、15,000×10=150,000枚の画像データが記憶されることになる。
なお未知のヒト手指画像が入力された場合に、効率よく類似画像を検索するため、範囲を限定した検索対象数をあらかじめ決めておくのが好ましい。具体的には,各主成分において未知画像と同じか,最も近い主成分得点Zkpを持つデータと、各主成分の寄与率に応じた数の前後データを検索対象とする。各主成分の候補数は,以下の通りである.
Figure 2005046942
ここで,dc は第p主成分(p=1,2,・・・・10)の推定候補数である。
Ccは推定候補数の総和で,あらかじめ決めておくものである。
そしてλpを含む分数式は、第10主成分中のp成分の寄与率である。
上記の式によって各主成分の寄与率に応じた数の前後データが検索対象となることが決まる。例えば、図16を参照して説明すると、照合対象となる動作画像データの第1主成分の主成分得点Zkpが13点であるとすると、第1主成分の主成分得点の得点順に並べ替えた基礎となる画像データのうち主成分得点が13点に近い画像データを中心に含んで、前述の推定候補数の画像データが照合用画像データとして抽出される。
上記の改良点を含めた画像データのデータベース作成の手順(実施の形態の第1のステップから第3のステップに相当)を図17に示す。
次に上記のようにして作成したデータベースを利用して、本発明の第4及び第5のステップ(照合処理)を主成分分析技術を用いて処理する処理手順について説明する。図18は、具体的な照合手順の流れを示している。まず手の実画像の撮像を得る。前述の特徴量の低減技術を用いると、ビデオレート以上の速さの処理速度が出せるので、撮像には高速度カメラを使用することができる。不必要な情報を除去するために、撮像からは背景を除去する。そのためには(手映像+背景映像)の撮像から(背景映像)を差し引く処理を行う。
次に撮影した画像(動作画像データ)の特徴量を計算する。撮影したときの解像度そのままで特徴量を計算してもよいが、図18の例では、撮像した動作画像データの解像度を変えて3種類(複数種類)の解像度の異なる動作画像データを得る。すなわち単純に見ると同じ動作画像データについて3倍のデータを作成する。そしてこれら解像度を変えた3種類の動作画像データ(手画像のデータ)について、前述のデータベースの作成時と同様に、手の画像の重心推定を行い、画面を分割する。この場合も、画面を16分割、64分割または246分割する。分割数は任意である。しかにあまり分割数を多くしても精度が上がらないことが確認されているので、16分割または64分割程度の分割数が好ましい。
次に各画面分割ごとの高次局所自己相関パターンを算出する。このときの高次局所自己相関パターンの算出も前述のデータベースを作成する際に用いた高次局所自己相関パターンの算出手法と同じである。
次に算出した高次局所自己相関パターンに基づいて主成分分析により主成分得点の計算を行う。この主成分得点の計算も前述のデータベース作成の際の主成分得点の計算方法と同じ計算方法を採用する。
次にデータベースに記憶されている基礎となる複数の画像データとの照合を行う。照合の候補となる照合用の複数の画像データを、計算により求めた主成分得点を基準にしてデータベースから選出する。なお各主成分からの候補数は、前述の[数17]の式により、あらかじめ決められている。そこでそれぞれの主成分において最も近い主成分得点Zkpを持つ画像データと、この画像データの前後の画像データを各主成分の寄与率に応じて予め定めた候補数の数分選出して照合用の画像データとする。データベースに記憶されている10種類の主成分を基準にして並べ替えられた10種類の画像データソースから、それぞれ予め定められた候補数の画像データが選出される。仮に各主成分について予め候補数が20と定められているものとすると、20×10=200枚の画像データがデータベースから選出されることになる。これらの画像データ中には重複しているものがあるのは勿論である。
次に類似度の計算を行う。具体的には、入力画像(動作画像データ)と候補となった複数枚の照合用の画像データ(候補CGハンド画像)との間で、次式により、ユークリッド距離Erの計算を行う。
Figure 2005046942
ここで、fi(x)は特徴量から算出した第i主成分の主成分得点であり、
は候補rの高次局所自己相関関数による特徴量であり、
は時刻tにおける高次局所自己相関関数による特徴量であり、
Erを最小にするデータpを検索画像とし,データpが持つ関節角度データを推定角度とする。
時刻tと時刻t−1の検索結果が許容される関節角度の範囲であれば、時刻tでの探索を終了する。そして時刻t−1から大幅に異なる関節角度が選ばれている場合は、ユークリッド距離Erが次に小さい次候補を選び,許容範囲かどうかを下記の式で計算する。
Figure 2005046942
ここで,Apは許容値であり、iはデータグローブの関節番号である(本例ではi=24)。
またangi(t)は時刻tにおけるi番目の関節角度データである。
許容値が許容は範囲内であれば、その画像データが動作画像データに対応するものと特定される。
次に、本発明の方法の別の実施の形態について説明する。この実施の形態では、前述の実施の形態とは異なって、図19に示すように、データグローブを嵌めた手の上にさらに無地(無模様:一色)の手袋(被覆物)を嵌めて、前述の第1のステップと第2のステップとを同時に実施する。図19において、下側の図がデータグローブを嵌めた手であり、上側の図がデータグローブを嵌めた手の上に手袋を嵌めた図である。図20は、事前にデータベースを作成する際の手順を示すフローチャートであり、図21は図20のフローチャートの詳細を示すフローチャートである。
まずビデオカメラ109で、手袋を嵌めた状態の手を撮影する。本実施の形態では、高速ビデオカメラ109で撮影した手画像データおよびデータグローブから得た角度データを用いてデータベースを構築する。そのために画像データと角度データとを組にして取得する。本実施の形態では、モノクロ高速度カメラ(MEGAPLUS社製、ES310/T)を使い、解像度を320*240画素として、手指が画面内に十分な大きさで映っている状態を想定する。また角度データの測定には、Virtual Technologies社製の「CyberGlove」(商標)と呼ばれるデータグローブを用いた。そして手袋は、白一色で無模様のものを用いた。手袋をデータグローブの上に嵌めることにより、データグローブ固有の画像特徴(センサの形状やグローブの形状)が出るのを防止している。前の実施の形態と異なって、白手袋を撮影すると、ヒトの手とは色が違い、画像としても違うものとなる。しかしながら、手袋を嵌めた手の画像データであっても、後に説明するように、特徴量化により一般の手画像として扱うことができる。なおデータベース作成に際しては、背景画像が影響を及ぼさないようにするために、背面に無模様一色のスクリーンを用いて撮影を行う。そして連続する複数の画像データと一緒に、データグローブから取得した手指角度データを組にして1次データベースを作成する。必要十分な情報を得るために、手を連続的に動かして必要な画像データと角度データを同時に取得して、保存する。
本実施の形態では、1次データベースの画像データを、実際に撮影した手画像の推定に必要な特徴量へと変換する画像処理を行なう。この画像処理のために背景除去、解像度変更、エッジ抽出、輪郭抽出(特徴量抽出)を行なう。
まず画像情報から背景除去を行う。あらかじめ取得しておいた背景画像を用いて対象画像との差分を取る。その差分が閾値以上の場合は対象画像の画素を使い、以下ならば0とする。
次に背景を除去した画像の解像度を変更する。今回取得した画像は320×240の画素値を持つ画像である。しかしこれをそのまま用いて各種画像処理を施して推定処理をするには、計算に時間がかかる。また人間が推定する際には、本実施の形態で用いた画像のサイズより小さくとも推定が可能である。そこで本実施の形態では、解像度を、320×240の画素値から64×64のサイズに変更する。解像度変更後の画素値は次式により得られる。
Figure 2005046942
ここでgr(i、j)は解像度変更後のi行j列番目の画素値である。go(i、j)は、解像度変更前のi行j列番目の画素値である。この式では、縦についても320で計算しているが、これは変更後の画素値を64×64にしているため縦横比を合わせるためである。またk、lについてはi×320/64から(i+1)×320/64−1まで計算し、rはkの個数×lの個数とする。
以上の操作で得られた解像度変更画像を用いてエッジ抽出を行なう。この作業で推定に必要な特徴を抜き出す。具体的にはソーベルフィルタで解像度変更画像をフィルタ処理する。その後、この画像の最外周のみを二値化することでエッジを抽出する。
ソーベルフィルタによる処理は、次式で表現できる。
Figure 2005046942
ここでfr(i、j)は下記の式で表すことができる。
Figure 2005046942
上記式において、fi(i、j)は処理前の横i番目、縦j番目の画素を示す。fsが処理後の最終的な値となる。
ここでの画像の最外周の二値化は、輪郭抽出で輪郭が途切れないように、比較的低い閾値で二値化することを意味する。この最後の画像処理として、エッジ抽出で得られた二値化画像上を走査することで輪郭抽出を行う。前段階のエッジ抽出により得た画像を輪郭として使用しない理由として、環境光の変化を上げることができる。実際の推定時とデータベース作成時とでは、環境光や人の肌の色等に違いがある。ましてやデータベース作成時には白手袋を使用しているため、エッジ抽出を行っても、エッジの値や幅などが実際の画像のエッジとは異なってくる。その結果、データベースの画像データと実際の画像データとを比較するとき(推定時)とで、両者のエッジには大幅な相違が生じる可能性がある。そこで輪郭抽出を行って、エッジの幅や値を一定にする。輪郭抽出は、データベースから得られる情報と推定時に得られる情報との差を少なくし、環境の影響などを排除することで、推定時の誤差を減少させるために採用する。図22は、エッジ抽出後に輪郭抽出を行って得た解像度変更後の画像である。
なお最外周のみ二値化するための輪郭抽出アルゴリズムでは、画像を上から走査して行き、最初の127の点を始点とした。始点から左回りに近傍画素を探索して行き、127の点があればそこへ移動し、値を255に書き換える。移動後は前回の位置を参考にして探索開始地点を8パターンに分けて探索を継続する。始点に再び戻った時点で輪郭を抽出したと判断し、探索を終了させる。最後に残りの点は輪郭ではないので127の点は全て0とする。
次に輪郭抽出を行った画像データの特徴量化を実施する。本実施の形態では、Otsu等(N.Otsu and T.Kurita,“A new scheme for practical, flexible and intelligent vision systems,”Proc.IAPR.Workshop on Computer Vision,pp.431−435,1998.)が提案している高次局所自己相関関数を特徴量化に使用した。高次局所自己相関特徴は、画像の認識や計測のために有効な特徴であり、下記の式で定義される高次相関関数について、参照点とその近傍についての計算をしたものである。
Figure 2005046942
上記式でxはN次元でのr点近傍の相関関数である。一般に自然画像を処理対象とする場合には、対象点回りの画素が重要になるため、係数Nを2次までとする。また、平行移動すると等価なものになるものを除くと、図23に示す25の特徴量で表現できる。ただしNo.1からNo.5までは、No.6以降の特徴量に比べスケールが小さいので、スケールを合わせる必要がある。No.2〜No.5までは、参照点の画素をさらにかけあわせ、No.1は参照点の画素の2乗をかけることで他の特徴量にスケールを一致させる。
本実施の形態では、図24に示すように、画像の画面を縦8分割、横8分割にした。そして、計64分割した分割画面に対して、それぞれ画素全てを参照点として、高次局所自己相関関数によって25の特徴量に次元低減を行なった。すなわち、全体の画像で考えれば、25×画面分割数の特徴量により、その全体画像の特徴量化を行うことができる。
このようにして1つの画像データを特徴量化した画像データとデータグローブからの角度データ(事前収集動作指令に対応)を組みにした特徴データを画像対応動作指令記憶手段(データベース)に記憶する。本実施の形態では、このデータベースを利用して、実際に撮影した画像の特定を行う。
次に、上記のようにして作成したデータベース(画像対応動作指令記憶手段)を利用して、実際に撮影した手の画像から手指角度を推定する方法について説明する。図25は推定時の手順を示すアルゴリズムであり、図26はより詳細にアルゴリズムである。まず推定時には、データベース作成時と同様に高速カメラで動く手の画像(動作画像データ)を取得する。そして取得した動作画像データに対し、データベース作成時と同様の画像処理を施し特徴量を抽出する。そしてこの動作画像データの特徴量とデータベースに記憶されている複数の画像データの特徴量とを後述の処理により比較し、動作画像データと最も近い画像データと組になる角度データを、その動作画像データに対応する動作指令として出力する。
特に、「データベースとの照合」処理では、データベースに記憶されている画像データ全てに対して、動作画像データの特徴量との間の距離算出を行なった。距離の算出は単純なユークリッド距離で行なった。最終的な距離は、下記式より算出した。
Figure 2005046942
上記式において、xは候補rの高次局所自己相関関数による特徴量i、xtiは時刻tでの高次局所自己相関関数による特徴量iである。Erを最小にするデータrの角度を、その動作画像データの推定角度とした。ただし、角度の大幅に違うものの中に特徴量の近いデータが紛れ込むことがあるので、前回(t−1時刻)の推定角度との比較を行って角度制限を行う。具体的には、距離が近いものについて、下記式で示す評価関数Apが規定値を超える場合には、推定候補から除外した。そして評価関数Apが規定値以内であれば、その推定角度を採用することとする。
Figure 2005046942
ここでangi(t)は時刻tのi番目の角度データである。また、データグローブから得られる角度情報は24となっている。以上の操作により現在の推定角度を求める。
実際の推定時に、データベースに記憶されている全ての画像データとの全てについて距離算出の処理を行なうと、データベースの大きさによっては計算コストがかかりすぎ、実時間処理が不可能になる。そこで本実施の形態では、データのクラスタリングにより推定候補数の削減を行なうことにより、実時間処理を可能にする。
図27は、クラスタリングを説明するための概念図である。図27においては、一つの行は複数枚の画像データによって構成される一つの組を示している。着色の濃い行が最初の探索対象となるデータ、着色の薄い行が詳細な探索対象となるデータである。データベースに含まれるデータを、先に説明したデータベース作成時のアルゴリズムで作成すると、画像データの並びにおいて、手の形状の近いものが集まるようになる。これを利用することで距離計算の対象画像データを削減する。具体的には複数枚の画像データを一組と考える。そして、始めの距離計算時に使う画像データは、複数組の中からそれぞれ1つを選び、選んだ画像データと距離計算を行う。これにより距離計算による計算コストは、各組に含まれる枚数−1がすべての組において削減されることになり、大幅なコスト減となる。ただし、この段階では真に近い角度の画像データも計算から除いている可能性があるので、推定結果が元のデータベースの画像データ全てと対比する場合に比べ精度が落ちる。そのため1段階目の距離計算で距離の近いものについては、各画像データが含まれる組内のすべての画像データと動作画像データとの間の距離計算を行なう。このようにすれば各データ近傍には角度的に近いものが集まっているため、より精度の良い推定結果が得られる。クラスタリングの効果を確認する実験では、10枚の画像データを一組と考え、1枚の動作画像データについて1段階目の距離計算を複数組内の1枚の画像データとそれぞれ行った。次にこの操作で得られた距離が近い上位の組5組に含まれる全ての画像データについて距離計算と角度制限を行ない、最終的な角度を推定した。その結果、すべての画像データと比較を行う場合と比べて、遜色の無い比較精度が得られることが確認できた。
上記実施の形態では、特徴量を求めるにあたって、高次局所自己相関関数を用いた。しかしながらその他の特徴量の求め方を採用することができるのは勿論である。例えば、廣池敦、武者義則著の「大規模な画像集合のための表現モデル」(日本写真学会誌、66巻、1号、93〜101頁、2003年発行)に記載の特徴量ベクトルの求め方を採用することもできる。
本発明によれば、実際にロボットを動かすために、ロボットに対応する動作物またはその擬似物の画像を得るだけで、センサを使用することなく、その動作物または擬似物と同じ動作を、不良設定性を解消してロボットに見まね動作させることができる。したがって本発明によれば、画像データを入力データとしてロボットを簡単に駆動することが可能になる。

Claims (16)

  1. 動作指令に応じて動作するロボットの駆動方法であって、
    ロボットに対応する動作物またはその擬似物に所定の動作と同じ動作をさせたときの前記動作物またはその擬似物の複数の画像データと、前記複数の画像データに対応した前記動作指令を得るために事前に収集された事前収集動作指令とを対応付けて画像対応動作指令記憶手段に記憶するステップと、
    前記ロボットを動作させるために、前記動作物またはその擬似物に所望の動作を行わせ、その際に前記動作物またはその擬似物の動作画像データを時系列でロボット動作用画像データとして取得するステップと、
    前記ロボット動作用画像データに含まれる前記動作画像データに対応する画像データを前記画像対応動作指令記憶手段に記憶している前記複数の画像データから時系列で特定し、特定した前記画像データに対応する前記事前収集動作指令を前記動作指令として前記ロボットに与えるステップとからなるロボットの駆動方法。
  2. 前記ロボット動作用画像データに含まれる前記画像データと前記画像対応動作指令記憶手段に記憶されている前記複数の画像データとの対応を両者の類似度に基づいて判断する請求項1に記載のロボットの駆動方法。
  3. 前記画像対応動作指令記憶手段に記憶している前記複数の画像データから前記動作画像データに対応する画像データを特定する際に、前記動作画像データの特徴量を基準にして照合用の複数の画像データを選択し、前記照合用の複数の画像データと前記動作画像データとの類似度に基づいて前記動作画像データに対応する画像を特定することを特徴とする請求項1に記載のロボットの駆動方法。
  4. 動作指令に応じて動作するロボットの駆動方法であって、
    ロボットに対応する動作物と、前記動作物に設けられて前記動作物の動きを検出する複数のセンサと、前記複数のセンサの出力に基づいて前記動作指令を発生する動作指令発生装置とを用い、前記動作物に所定の動作を行わせたときの前記複数のセンサの出力に基づいて前記動作指令発生装置が発生する前記動作指令を事前収集動作指令として記憶する第1のステップと、
    前記動作物に前記所定の動作を行わせたときの前記動作物の複数の画像データを取得するか、または前記動作物またはその擬似物に前記所定の動作と同じ動作を行わせたときの前記動作物またはその擬似物の複数の画像データを時系列で取得する第2のステップと、
    前記複数の画像データに含まれる画像データと前記事前収集動作指令とを対応付けて前記複数の画像データと前記事前収集動作指令とを画像対応動作指令記憶手段に記憶する第3のステップと、
    前記ロボットを動作させるために、前記動作物またはその擬似物に所望の動作を行わせ、その際に前記動作物またはその擬似物の動作画像データを時系列でロボット動作用画像データとして取得する第4のステップと、
    前記ロボット動作用画像データに含まれる前記動作画像データに対応する画像データを前記画像対応動作指令記憶手段に記憶している前記複数の画像データから特定し、特定した前記画像データに対応する前記事前収集動作指令を前記動作指令として前記ロボットに与える第5のステップとからなるロボットの駆動方法。
  5. 前記擬似物はコンピュータグラフィック技術等の疑似物生成技術を用いて作成されたものであり、前記画像データは疑似画像データである請求項4に記載のロボットの駆動方法。
  6. 前記擬似物はコンピュータグラフィック技術により作成されたものであり、前記擬似物の画像データはコンピュータグラフィック画像データである請求項4に記載のロボットの駆動方法。
  7. 前記第2のステップでは、前記複数のセンサを備えた前記動作物の表面を、前記複数のセンサを含めて被覆物によって覆い、前記第1のステップと同時に前記動作物の前記複数の画像データを取得することを特徴とする請求項4に記載のロボットの駆動方法。
  8. 前記動作物は人間の手であり、
    前記第2のステップで取得する前記複数の画像データには、人間の手に現れる個人差を考慮した画像データが含まれている請求項5または6に記載のロボットの駆動方法。
  9. 前記複数の画像データには、前記複数の画像データの解像度を変えて作成した複数の解像度変更画像データが含まれている請求項5,6または7に記載のロボットの駆動方法。
  10. 前記第2のステップでは、時系列で取得した前の前記画像データと後の前記画像データとの間の未作成の画像データを前記コンピュータグラフィック技術により作成し、
    第3のステップでは作成した前記画像データに対応する事前収集動作指令を前記前の画像データに対応する事前収集動作指令と前記後の画像データに対応する事前収集動作指令とに基づいて推定により作成して前記未作成の画像データと対応付けて記憶することを特徴とする請求項6に記載のロボットの駆動方法。
  11. 前記第5のステップでは、前記ロボット動作用画像データに含まれる前記画像データと前記画像対応動作指令記憶手段に記憶されている前記複数の画像データとの対応を両者の類似度に基づいて判断する請求項4に記載のロボットの駆動方法。
  12. 前記動作物は人間の手であり、
    前記第1のステップでは、前記人間の手に装着するデータグローブが用いられ、前記データグローブはグローブ本体に前記ロボットの手の動作部に対応した人間の手の動作部の動きを検出する位置に前記複数のセンサが装着された構造を有していることを特徴とする請求項4に記載のロボットの駆動方法。
  13. 前記動作物は人間の手であり、
    前記第1のステップでは、前記人間の手に装着するデータグローブが用いられ、前記データグローブはグローブ本体に前記ロボットの手の動作部に対応した人間の手の動作部の動きを検出する位置に前記複数のセンサが装着された構造を有しており、
    前記第2のステップでは、前記データグローブを装着した前記人間の手に無地の手袋を嵌め、前記第1のステップと同時に、前記所定の動作を行う前記人間の手の前記複数の画像データを取得することを特徴とする請求項4に記載のロボットの駆動方法。
  14. 前記第5のステップでは、前記画像対応動作指令記憶手段に記憶している前記複数の画像データから前記動作画像データに対応する画像データを特定する際に、前記動作画像データの特徴量を基準にして照合用の複数の画像データを選択し、前記照合用の複数の画像データと前記動作画像データとの類似度に基づいて前記動作画像データに対応する画像データを特定することを特徴とする請求項4に記載のロボットの駆動方法。
  15. 前記動作画像データの特徴量が、主成分分析により得た各主成分ごとの主成分得点である請求項14に記載のロボットの駆動方法。
  16. 前記第3のステップでは、前記画像データと前記事前収集動作指令とを対応付けて前記画像対応動作指令記憶手段に記憶する際に、
    前記複数の画像データのそれぞれの特徴量を個々に演算する特徴量演算ステップと、
    前記複数の画像データのそれぞれの特徴量を主成分分析して、前記複数の画像データのそれぞれについて主成分得点を演算し、且つ累積寄与率に基づいて第1主成分から第k主成分までの主成分の数を決定する主成分決定ステップと、
    前記第1主成分から第k主成分までの各主成分ごとに、前記複数の画像データを前記主成分得点の大きさを基準にして並べ替えて得たk種類の画像データソースを作成して記憶する記憶ステップとを実行し、
    前記第5ステップでは、前記動作画像データ及び該動作画像データの解像度が異なる複数種類の動作画像データについて求めた主成分得点を基準にして前記k種類の画像データソースから前記照合用の複数の画像データをそれぞれ抽出することを特徴とする請求項10に記載のロボットの駆動方法。
JP2005515481A 2003-11-13 2004-11-15 ロボットの駆動方法 Expired - Fee Related JP4878842B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005515481A JP4878842B2 (ja) 2003-11-13 2004-11-15 ロボットの駆動方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2003384402 2003-11-13
JP2003384402 2003-11-13
JP2004173268 2004-06-10
JP2004173268 2004-06-10
PCT/JP2004/016968 WO2005046942A1 (ja) 2003-11-13 2004-11-15 ロボットの駆動方法
JP2005515481A JP4878842B2 (ja) 2003-11-13 2004-11-15 ロボットの駆動方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011062873A Division JP5209751B2 (ja) 2003-11-13 2011-03-22 ロボットの駆動システム、ロボットの駆動方法、及び、ロボットの駆動プログラム

Publications (2)

Publication Number Publication Date
JPWO2005046942A1 true JPWO2005046942A1 (ja) 2007-08-23
JP4878842B2 JP4878842B2 (ja) 2012-02-15

Family

ID=34593956

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2005515481A Expired - Fee Related JP4878842B2 (ja) 2003-11-13 2004-11-15 ロボットの駆動方法
JP2011062873A Expired - Fee Related JP5209751B2 (ja) 2003-11-13 2011-03-22 ロボットの駆動システム、ロボットの駆動方法、及び、ロボットの駆動プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011062873A Expired - Fee Related JP5209751B2 (ja) 2003-11-13 2011-03-22 ロボットの駆動システム、ロボットの駆動方法、及び、ロボットの駆動プログラム

Country Status (5)

Country Link
US (1) US7848850B2 (ja)
JP (2) JP4878842B2 (ja)
DE (1) DE112004002219B4 (ja)
GB (1) GB2424723B (ja)
WO (1) WO2005046942A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
US7668797B2 (en) * 2006-04-07 2010-02-23 Gary Kuvich Active semiotic system for image and video understanding by robots and unmanned vehicles, methods and apparatus
JP4798581B2 (ja) * 2006-09-27 2011-10-19 株式会社国際電気通信基礎技術研究所 ロボットシステム
US8068935B2 (en) * 2006-10-18 2011-11-29 Yutaka Kanayama Human-guided mapping method for mobile robot
JP2008140267A (ja) * 2006-12-04 2008-06-19 National Institute Of Advanced Industrial & Technology 動作認識装置および動作認識処理方法
US9060385B1 (en) * 2007-04-20 2015-06-16 Lloyd Douglas Manning Universal bluetooth/wireless glove
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
KR101494344B1 (ko) * 2008-04-25 2015-02-17 삼성전자주식회사 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법
WO2009147904A1 (ja) 2008-06-04 2009-12-10 国立大学法人筑波大学 手指形状推定装置、手指形状の推定方法及びプログラム
KR100995933B1 (ko) * 2008-09-01 2010-11-22 한국과학기술연구원 진화 알고리즘과 모방학습에 기초한 로봇의 동작 제어 방법
TWI373361B (en) * 2008-10-09 2012-10-01 Univ Nat Chiao Tung Glove puppet manipulation system
TWI371303B (en) * 2009-02-04 2012-09-01 Inventec Appliances Corp Electronic pet cotrol system and control method thereof
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
FR2950559B1 (fr) 2009-09-29 2011-11-25 Artistic Robot Event Systeme et procede de restitution synchrone par un robot de mouvements d'une main ou d'un organe d'extremite
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
JP2011110620A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの動作を制御する方法およびロボットシステム
JP5400595B2 (ja) * 2009-12-11 2014-01-29 トヨタ自動車株式会社 動作補助装置
US9844447B2 (en) * 2010-04-09 2017-12-19 Deka Products Limited Partnership System and apparatus for robotic device and methods of using thereof
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
US9070004B2 (en) * 2012-05-03 2015-06-30 General Electric Company Automatic segmentation and characterization of cellular motion
JP5426719B2 (ja) 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
JP2014140941A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
JP6271903B2 (ja) * 2013-08-06 2018-01-31 キヤノン株式会社 サーボ装置、及びサーボ装置の制御方法
KR102000264B1 (ko) * 2013-10-01 2019-07-15 한국전자통신연구원 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법
US9084411B1 (en) * 2014-04-10 2015-07-21 Animal Biotech Llc Livestock identification system and method
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
US10970428B2 (en) * 2015-04-01 2021-04-06 Research & Business Foundation Sungkyunkwan University Method of providing performance indicators of robot hand and method of optimizing structure of robot hand
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
DE112016006116T5 (de) * 2016-01-29 2018-09-13 Mitsubishi Electric Corporation Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms
US20170249561A1 (en) * 2016-02-29 2017-08-31 GM Global Technology Operations LLC Robot learning via human-demonstration of tasks with force and position objectives
US11036230B1 (en) * 2016-03-03 2021-06-15 AI Incorporated Method for developing navigation plan in a robotic floor-cleaning device
US9827670B1 (en) * 2016-05-24 2017-11-28 X Development Llc Coaxial finger face and base encoding
TW201805598A (zh) * 2016-08-04 2018-02-16 鴻海精密工業股份有限公司 自主移動設備及建立導航路徑的方法
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US10319109B2 (en) * 2017-03-31 2019-06-11 Honda Motor Co., Ltd. Interaction with physical objects as proxy objects representing virtual objects
CN107199566B (zh) * 2017-06-02 2019-09-10 东南大学 一种基于虚拟手臂的面向空间站机器人的遥操作系统
CN110914022B (zh) * 2017-08-10 2023-11-07 罗伯特·博世有限公司 直接教导机器人的系统和方法
WO2019064752A1 (ja) * 2017-09-28 2019-04-04 日本電産株式会社 ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム
WO2019064751A1 (ja) * 2017-09-28 2019-04-04 日本電産株式会社 ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム
DE102018124671B4 (de) * 2018-10-06 2020-11-26 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102020124285B4 (de) 2019-09-20 2022-06-09 Nvidia Corporation Visionsbasierte Teleoperation eines beweglichen Robotersystems
CN112847334B (zh) * 2020-12-16 2022-09-23 北京无线电测量研究所 一种基于视觉伺服的机械臂目标跟踪方法
US20230109729A1 (en) * 2021-10-07 2023-04-13 Nec Laboratories America, Inc. Co-disentagled series/text multi-modal representation learning for controllable generation

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285141A (ja) * 1999-01-27 2000-10-13 Ricoh Co Ltd 画像検索装置,画像分類装置およびそれらの装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
JP2001092589A (ja) * 1999-09-22 2001-04-06 Suzuki Motor Corp モデリング装置及びモデリングデータ生成用プログラムを記憶した記憶媒体
JP2001273302A (ja) * 2000-03-23 2001-10-05 Toshiba Corp 画像検索システムおよび画像検索方法
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
JP2001344567A (ja) * 2000-06-02 2001-12-14 Ricoh Co Ltd 文字認識装置、その方法およびその方法を実施するためのプログラムを記録した記録媒体
JP2002163655A (ja) * 2000-11-24 2002-06-07 Omron Corp 個人認証装置
JP2003080484A (ja) * 2001-09-07 2003-03-18 Tomy Co Ltd 動作反応玩具

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61122711A (ja) * 1984-11-20 1986-06-10 Fujitsu Ltd ロボツトのテイ−チング装置
JPH01322079A (ja) * 1988-06-22 1989-12-27 Shibuya Kinzoku Sangyo Kk 修正装置付ピボットヒンジ
JPH0380484A (ja) * 1989-08-22 1991-04-05 Hitachi Maxell Ltd テープカートリッジ
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6236037B1 (en) * 1998-02-20 2001-05-22 Massachusetts Institute Of Technology Finger touch sensors and virtual switch panels
US6421453B1 (en) * 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP2002239960A (ja) * 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US20020152077A1 (en) * 2001-04-12 2002-10-17 Patterson Randall R. Sign language translator
JP4028192B2 (ja) * 2001-08-02 2007-12-26 日本電信電話株式会社 動作入力方法、装置、プログラム、及び記録媒体
JP3848123B2 (ja) 2001-10-15 2006-11-22 独立行政法人科学技術振興機構 人型ロボットハンド
JP2003288594A (ja) * 2002-03-28 2003-10-10 Minolta Co Ltd 画像処理装置および方法
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285141A (ja) * 1999-01-27 2000-10-13 Ricoh Co Ltd 画像検索装置,画像分類装置およびそれらの装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
JP2001092589A (ja) * 1999-09-22 2001-04-06 Suzuki Motor Corp モデリング装置及びモデリングデータ生成用プログラムを記憶した記憶媒体
JP2001273302A (ja) * 2000-03-23 2001-10-05 Toshiba Corp 画像検索システムおよび画像検索方法
JP2001322079A (ja) * 2000-05-15 2001-11-20 Sony Corp 脚式移動ロボット及びその動作教示方法
JP2001344567A (ja) * 2000-06-02 2001-12-14 Ricoh Co Ltd 文字認識装置、その方法およびその方法を実施するためのプログラムを記録した記録媒体
JP2002163655A (ja) * 2000-11-24 2002-06-07 Omron Corp 個人認証装置
JP2003080484A (ja) * 2001-09-07 2003-03-18 Tomy Co Ltd 動作反応玩具

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
城間 智大 TOMOHIRO SHIROMA: "見まねを目的としたヒト型ロボットハンドの制御実験 Control of humanoid robotic hand for humanoid comm", 電子情報通信学会技術研究報告 VOL.103 NO.166 IEICE TECHNICAL REPORT, vol. 第103巻, JPN6010055429, JP, ISSN: 0001733794 *
星野 聖 K. HOSHINO: "見まねするロボットハンドの試作 Humanoid robotic hand and its learning by watching", 電子情報通信学会技術研究報告 VOL.103 NO.455 IEICE TECHNICAL REPORT, vol. 第103巻, JPN6010055427, JP, ISSN: 0001733793 *
星野 聖、谷本 貴頌: "ロボットハンド制御のための高速類似画像検索システム", 電子情報通信学会技術研究報告. HIP, ヒューマン情報処理, vol. 2004-14, JPN6010055431, 1 July 2004 (2004-07-01), JP, pages 19 - 26, ISSN: 0001733795 *

Also Published As

Publication number Publication date
GB0611135D0 (en) 2006-07-19
GB2424723B (en) 2007-09-19
JP4878842B2 (ja) 2012-02-15
GB2424723A (en) 2006-10-04
DE112004002219B4 (de) 2018-07-12
JP5209751B2 (ja) 2013-06-12
JP2011131376A (ja) 2011-07-07
US7848850B2 (en) 2010-12-07
US20070078564A1 (en) 2007-04-05
DE112004002219T5 (de) 2006-11-23
WO2005046942A1 (ja) 2005-05-26

Similar Documents

Publication Publication Date Title
JP5209751B2 (ja) ロボットの駆動システム、ロボットの駆動方法、及び、ロボットの駆動プログラム
Newbury et al. Deep learning approaches to grasp synthesis: A review
CN108972494B (zh) 一种仿人机械手抓取控制系统及其数据处理方法
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
Liu et al. Tactile image based contact shape recognition using neural network
CN109993073B (zh) 一种基于Leap Motion的复杂动态手势识别方法
Jia et al. Manipulating highly deformable materials using a visual feedback dictionary
Ottenhaus et al. Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning
Kumar et al. Graph matching based hand posture recognition using neuro-biologically inspired features
Zapata-Impata et al. Generation of tactile data from 3D vision and target robotic grasps
Tada et al. An imaging system of incipient slip for modelling how human perceives slip of a fingertip
Gao et al. In-hand pose estimation using hand-mounted rgb cameras and visuotactile sensors
JP4410208B2 (ja) 高速検索方法を用いたロボットの駆動方法
Gutzeit et al. Automatic Detection and Recognition of Human Movement Patterns in Manipulation Tasks.
CN109214295B (zh) 基于Kinect v2和Leap Motion的数据融合的手势识别方法
Hoshino et al. Copycat hand—robot hand imitating human motions at high speed and with high accuracy
Li et al. Design of a tactile sensing robotic gripper and its grasping method
Zhang et al. VTacArm. A vision-based tactile sensing augmented robotic arm with application to human-robot interaction
Rodriguez et al. Learning postural synergies for categorical grasping through shape space registration
CN111230872B (zh) 一种基于多传感器的物体递交意图识别系统及方法
Adjigble et al. Spectgrasp: Robotic grasping by spectral correlation
Gu et al. Model recovery of unknown objects from discrete tactile points
Zhang et al. A small-scale, rat-inspired whisker sensor for the perception of a biomimetic robot: Design, fabrication, modeling, and experimental characterization
Fallahinia et al. Grasp force sensing using visual servoing and fingernail imaging
Lee et al. Tracking hand rotation and grasping from an ir camera using cylindrical manifold embedding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110422

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111129

R150 Certificate of patent or registration of utility model

Ref document number: 4878842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees