JP2011110621A - ロボットの教示データを作成する方法およびロボット教示システム - Google Patents

ロボットの教示データを作成する方法およびロボット教示システム Download PDF

Info

Publication number
JP2011110621A
JP2011110621A JP2009266321A JP2009266321A JP2011110621A JP 2011110621 A JP2011110621 A JP 2011110621A JP 2009266321 A JP2009266321 A JP 2009266321A JP 2009266321 A JP2009266321 A JP 2009266321A JP 2011110621 A JP2011110621 A JP 2011110621A
Authority
JP
Japan
Prior art keywords
teaching
robot
wrist
hand
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009266321A
Other languages
English (en)
Inventor
Masaki Takasan
正己 高三
Munetaka Yamamoto
宗隆 山本
Kazuo Seiki
和夫 清木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2009266321A priority Critical patent/JP2011110621A/ja
Priority to CN2010800285557A priority patent/CN102470530A/zh
Priority to KR1020127000207A priority patent/KR20120025582A/ko
Priority to PCT/JP2010/054936 priority patent/WO2011065035A1/ja
Publication of JP2011110621A publication Critical patent/JP2011110621A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40116Learn by operator observation, symbiosis, show, watch

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ロボットの教示データを作成する方法およびロボット教示システムにおいて、ロボットアームを含むロボットの教示を簡単に行うことができるものを提供する。
【解決手段】単眼カメラ30およびステレオカメラ40が、教示者10の手首22および手21を含む教示画像を取得する(教示画像取得ステップ、ステップS1)。制御装置200は、教示画像に基づいて、手首22の位置および向きを表す手首座標を決定し(手首座標決定ステップ、ステップS2)、手首座標に基づいて、ロボットアーム110の動作を教示するロボットアーム教示データを作成する(ロボットアーム教示データ作成ステップ、ステップS11)。
【選択図】図1

Description

この発明は、ロボットの教示データを作成する方法およびロボット教示システムに関する。
ロボットを用いて作業を行う際には、ロボットに動作のパターンを教示する必要がある。この教示の方法としては、動作のパターンを表す教示データを数値としてキーボードから直接入力する方法、教示者がロボットの制御装置を操作して動作を実行させ、これに伴って教示データを作成させる方法、および、人間の手の画像を入力して、これにロボットハンドの姿勢を一致させる教示データを自動的に作成させる方法、等がある。引用文献1には、人間の手の画像にロボットハンドの姿勢を一致させる方法の例が記載されている。
特開平4−365570号公報
しかしながら、従来の技術では、ロボットアームを含むロボットの教示を簡単に行うことができないという問題があった。
たとえば、教示データを数値としてキーボードから入力する場合や、教示者がロボットの制御装置を操作して動作を実行させる場合には、教示のために専門の知識が必要であり、また、複雑な動作を組み合わせての教示が困難である。また、人間の手の画像にロボットハンドを一致させる場合には、教示者の腕や体全体の動きによって手の位置が変わってしまうような動作に対応することができない。
この発明はこのような問題点を解消するためになされたものであり、ロボットの教示データを作成する方法およびロボット教示システムにおいて、ロボットアームを含むロボットの教示を簡単に行うことができるものを提供することを目的とする。
この発明に係る、ロボットの教示データを作成する方法は、ロボットアームおよびロボットハンドを備えるロボットについて、当該ロボットの少なくとも1台の動作を教示する教示データを作成する方法であって、人間の手首および手を含む教示画像を少なくとも1つ取得する、教示画像取得ステップと、教示画像に基づいて、手首の位置および向きを表す手首座標を決定する、手首座標決定ステップと、教示画像に基づいて、手指に関連する位置を表す手指座標を決定する、手指座標決定ステップと、手首座標に基づいて、ロボットアームの動作を教示するロボットアーム教示データを作成する、ロボットアーム教示データ作成ステップと、手指座標に基づいて、ロボットハンドの動作を教示するロボットハンド教示データを作成する、ロボットハンド教示データ作成ステップとを含む。
この方法によれば、教示画像に基づく手首の位置および向きに応じて、ロボットのロボットアームの動作に関する教示データが作成される。
教示画像取得ステップにおいて、ステレオカメラが、人間の手首を含む2つの画像からなるステレオ手首画像を取得し、手首座標決定ステップにおいて、手首の位置は、ステレオ手首画像に基づいて決定されてもよい。
手首座標決定ステップは、人間の手の姿勢を表す複数の姿勢候補データのうちから、教示画像に基づいて1つの姿勢候補データを選択する、姿勢候補データ選択ステップと、教示画像と選択された姿勢候補データとの対応関係に基づいて、教示画像における手首の向きを決定する、手首方向決定ステップとを含んでもよい。
ロボットは少なくとも2台であり、教示画像は、人間の両腕について、それぞれの手首および手を含み、手首座標、手指座標、ロボットアーム教示データ、およびロボットハンド教示データは、それぞれ両腕について決定または作成されてもよい。
また、この発明に係るロボット教示システムは、上述の方法を実行する。
この発明に係る、ロボットの教示データを作成する方法およびロボット教示システムは、教示者の手首を認識してその座標を利用するので、ロボットアームを含むロボットの教示を簡単に行うことができる。
この発明の実施の形態1に係るロボット教示システムに関連する構成を示す図である。 図1のロボット教示システムの動作を説明するフローチャートである。 手首の位置を決定する方法の一例を説明する図である。 (a)は図1のロボット教示システムが決定する手指座標の例を示す図である。(b)は図1のロボット教示システムが決定するロボットハンド関節角度の例を示す図である。 この発明の実施の形態2に係るロボット教示システムに関連する構成を示す図である。 この発明の実施の形態3に係るロボット教示システムに係る単眼カメラの構成を示す図である。 この発明の実施の形態3の変形例に係るロボット教示システムに係る単眼カメラの構成を示す図である。 この発明の実施の形態4に係るロボット教示システムに係る構成を示す図である。 手首の位置を決定する方法について、図3とは異なる例を示す図である。
以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1は、この発明の実施の形態1に係るロボット教示システムに関連する構成を示す。ロボット教示システムは、教示の対象となるロボット100と、ロボット100に接続された制御装置200とを含む。ロボット100は、マニピュレータと呼ばれるものであってもよい。
ロボット100は、ロボットアーム110およびロボットハンド120を含む。図1ではロボットハンド120は3本であるが、これは少なくとも2本であればよい。ロボットハンド120の根元はロボットアーム110の先端に連結されており、ロボットアーム110の位置および向きが決まればこれに応じてすべてのロボットハンド120の根元の位置が一意に決まる構成となっている。
このロボット100は、対象物130に対して作業を行うものである。作業としては、把持、運搬、組み付け等が可能である。
制御装置200は、その内部の構成については図示しないが、演算手段(CPU等)と記憶手段(半導体メモリ装置、磁気ディスク装置等)とを備えるコンピュータである。この制御装置200は、その記憶手段に格納された教示データ作成プログラムを実行することにより、ロボット100の教示データを作成する教示データ作成装置として機能し、また、その記憶手段に格納された駆動制御プログラムを実行することにより、ロボット100の動作を制御する駆動制御装置として機能する。これらの教示データ作成プログラムおよび駆動制御プログラムは、情報記憶媒体に記憶することができる。
制御装置200は、人間の手を含む画像に基づいて、手指の各関節の空間的位置および指先の空間的位置を表す座標を決定する機能を有する。このような機能は、たとえば、谷本らの研究(谷本貴頌他により2006年3月に作成され公知となった「ロボットハンド制御のための自己増殖型SOMを用いた画像データベースからの手指形状の実時間推定」と題する筑波大学大学院博士課程システム情報工学研究科修士論文)に記載される方法を使用することによって実現することができる。この方法によれば、手を撮像した一つの二次元画像から手の姿勢の推定を行うことができる。谷本らの研究では、予め、手の関節の角度情報と手画像とを同期させて取得し、画像における輪郭抽出と特徴量化を行い、この特徴量と角度とをデータとしてデータベースを構築している。そして、手の実画像について、データベースの構築時と同様の特徴量化を行い、得られた特徴量とデータベースの特徴量との比較を行うことで手の関節の角度を推定し、手の姿勢を推定している。
この方法によれば、手の姿勢を表すデータである特徴量について複数のパターンをデータベースに格納しておき、この複数のパターン(姿勢候補データ)のうちから実画像に基づいて1つのパターン(姿勢候補データ)を選択することが可能となる。この際、手首の位置を基準として原点を設定し、手首の向きを基準として座標軸を設定した座標系において、指の空間的位置を決定することができる。
また、制御装置200は、手または指の一部が画像に表れない場合(たとえばカメラの視野外にある場合、対象物によってカメラの視野が遮られる場合、教示者10の体の一部、手、指等によってカメラの視野が遮られる場合、等)には、オクルージョンの部分(すなわち画像に表れない部分)を推定して補完する機能を有する。このような機能は、周知の画像処理技術を用いて実現可能である。
ロボット教示システムは、制御装置200に接続された単眼カメラ30を含む。単眼カメラ30は、手21の教示画像取得手段として機能する。すなわち、人間である教示者10の指を含む手21を撮影し、手21を含む画像を取得して制御装置200に送信する。(なお、本明細書において「単眼カメラ」という名称は、後述のステレオカメラ40との区別のために用いるものであり、同様の機能を有するカメラであれば単眼カメラでなくともよい。)
なお、手21は手首22よりも先の部分であり、すなわち掌および指を含む部分である。腕23は手首22よりも根元側の部分である。この実施の形態では右腕であるが、左腕であってもよい。
また、ロボット教示システムは、制御装置200に接続されたステレオカメラ40を含む。ステレオカメラ40は、手首22の教示画像取得手段として機能する。すなわち、教示者10の手首22を撮影し、手首22を含む画像を取得して制御装置200に送信する。ステレオカメラ40は周知の構成によって立体映像を撮影することができる。すなわち、ステレオカメラ40は少なくとも2つのカメラを含み、これらのカメラが互いに異なる位置から手首22を含む画像を撮影する。それぞれの画像における手首22の位置に基づいて、ステレオカメラ40と手首22との距離を含む空間的位置関係を決定することができる。
さらに、ロボット教示システムは、ロボット100を撮影するモニタ用カメラ50と、モニタ用カメラ50によって撮影された画像を表示するモニタ60とを含む。モニタ用カメラ50はロボット状態撮影手段として機能し、モニタ60はロボット状態表示手段として機能する。
単眼カメラ30、ステレオカメラ40およびモニタ60は、教示者10の近傍に配置される。単眼カメラ30は、教示者10が教示を行う際に手21が移動する範囲をすべて視野に収める位置に配置される。ステレオカメラ40は、たとえば、教示者10が教示を行う際に手首22が移動する範囲をすべて視野に収める位置に配置される。モニタ60は、教示者10が教示作業を行う際に、その表示内容を見ることができる位置に配置される。このような配置により、教示者10はロボット100の状態を視認しながら、リアルタイムで教示作業を行うことができる。
以上のように構成されるロボット教示システムの動作を、図2のフローチャートを用いて説明する。
まず、ロボット教示システムは、教示画像取得ステップ(ステップS1)を実行する。このステップS1において、ロボット教示システムは、教示者10の手21および手首22を含む教示画像を取得する。この教示画像はロボット100の教示に用いられるものである。
実施の形態1では、ステップS1において、単眼カメラ30が手21を含む教示画像を1つ取得し(ステップS1a)、ステレオカメラ40が手首22を含む2つの画像からなるステレオ手首画像を取得する(ステップS1b)。すなわち、ステップS1bでは、ステレオカメラ40を構成するそれぞれのカメラが、手首22を含む教示画像を1つずつ取得する。
また、ステップS1において、単眼カメラ30およびステレオカメラ40は、それぞれ取得した教示画像を制御装置200に送信し、制御装置200はこれらを受信して記憶手段に格納する。
次に、制御装置200は、手首座標決定ステップ(ステップS2)を実行する。このステップS2において、制御装置200は、教示画像に基づいて、手首22の位置および向きを表す手首座標を決定する。ステップS2は、姿勢候補データ選択ステップ(ステップS2a)、手首位置決定ステップ(ステップS2b)、および、手首方向決定ステップ(ステップS2c)を含む。
姿勢候補データ選択ステップ(ステップS2a)において、制御装置200は、データベースに格納されている手の姿勢を表す複数の姿勢候補データのうちから、手21を含む教示画像に基づいて、1つの姿勢候補データを選択する。この選択は公知の方法によって行うことができる。たとえば、制御装置200は、教示画像から抽出した特徴量と、姿勢候補データを表す特徴量との一致度が最も高いものを選択することができる。
また、手首位置決定ステップ(ステップS2b)において、制御装置200は、ステレオカメラ40によって撮影されたステレオ手首画像に基づいて、手首22の位置を決定する。
図3を用いて、画像における手首22の位置を決定する方法の一例を説明する。図3はステレオ手首画像の一方である。制御装置200は、まず画像中の2点によって表されるくびれ部分22aを検出し、このくびれ部分22aの中点22bの位置を算出する。そして、その画像における中点22bの位置を、その画像における手首22の位置として決定する。
さらに、制御装置200は、ステレオ手首画像の残る一方でも同様にして手首22の位置を決定する。その後、ステレオ手首画像のそれぞれにおける手首22の位置に基づいて、ステレオカメラ40を基準とする手首22の空間的な位置を算出することができる。
ステップS2aおよびステップS2bの後、制御装置200は手首方向決定ステップ(ステップS2c)を実行する。ステップS2cにおいて、制御装置200は、手21の教示画像と、ステップS2aにおいて選択された姿勢候補データとの対応関係に基づいて、手21の教示画像における手首22の向きを決定する。姿勢候補データは、手首の位置および向きを基準として手指の各関節の位置および指先の空間的位置を表す座標を表すものであるので、たとえば、教示画像中の手21と、選択された姿勢候補データとがある特定の向きにおいて最もよく一致する場合、その向きを手首22の向きと決定することができる。
ステップS2の後、ステップS3〜S8を含む処理と、ステップS9〜S12を含む処理とが並列に実行される。ただし、これらは直列に実行されるものであってもよい。
ステップS2の後、制御装置200は、手指座標決定ステップ(ステップS3)を実行する。このステップS3において、制御装置200は、手21の教示画像に基づいて、手指の各関節および指先の位置を表す手指座標を決定する。これは上述の谷本らの方法に従って行うことができる。
図4(a)は、このようにして決定される手指座標の例を示す。図4(a)では、教示者10の手21の右手の親指、人差し指および中指に関連する手指座標が示されている。たとえば、点(x11,y11,z11)、点(x12,y12,z12)、および点(x13,y13,z13)は、それぞれ親指の第2関節、第1関節および指先の位置を表す。なお、点(x,y,z)はステップS2bにおいて決定される手首位置を表す。
ステップS3の後、制御装置200は、ロボットハンド関節角度算出ステップ(ステップS4)を実行する。このステップS4において、制御装置200は、上記ステップS3で決定された手指座標に基づいて、ロボット100のロボットハンド120の各関節の角度を表すロボットハンド関節角度を算出する。この算出方法の具体例はとくに示さないが、ロボット100の構造、ロボットハンド120の指の数およびロボットハンド120の各指の関節の数等の条件に応じて、当業者が適宜設計することができる。
図4(b)は、このようにして決定されるロボットハンド関節角度の例を示す。なおこの図ではロボット100自体の図示は省略し、各関節の角度のみを模式的に示す。ロボット100において、ロボットハンド120の各指が2つの関節を持つ。第1関節(指先側の関節)は1つの自由度(角度ω)を持ち、第2関節(根元側の関節)は2つの自由度(角度θおよびφ)を持つ。また、ロボット100は、手首すなわちロボットアーム110の先端の位置を表す点(x,y,z)および向きを表す角度(θ,φ,ψ)についてそれぞれ3自由度を持つ。このように、ロボット100は合計15の自由度をもって制御可能である。なお、図4(b)では、親指、人差し指および中指にそれぞれ対応するロボット指120a、ロボット指120bおよびロボット指120cとして表している。
図4(a)および図4(b)において、たとえば親指については、図4(a)の点(x11,y11,z11)、点(x12,y12,z12)、および点(x13,y13,z13)の座標に基づいて、ロボット指120aの第1関節122の角度(ω)および第2関節123の角度(θ,φ)が決定される。
なお、手指とロボット指とではサイズや可動範囲等が異なるため、関節の数が等しい場合であっても関節の位置が一致するとは限らない。また、人差し指および中指については、手指とロボット指とで関節の数が異なるが、このような場合にロボットハンド関節角度を算出する方法も、当業者には周知である。
ステップS4の後、制御装置200は、ロボットハンド関節角度差分算出ステップ(ステップS5)を実行する。このステップS5において、制御装置200は、ステップS4で算出されたロボットハンド関節角度と、過去のロボットハンド関節角度との差分Δθを算出する。ここで、過去のロボットハンド関節角度とは、たとえばNフレーム前(ただしNは所定の整数)の教示画像に基づいて算出されたロボットハンド関節角度である。または、過去のロボットハンド関節角度とは、最後にロボットハンド120が駆動され停止した状態のロボットハンド関節角度、すなわち実際にロボットハンド120が実現しているそのロボットハンド関節角度であってもよい。
この差分Δθは、たとえばロボットハンド120の関節のすべてについて算出される。ただし、この差分Δθは少なくとも1つの関節について算出されるものであればよい。
次に、制御装置200は、ステップS5で算出された差分Δθが、所定の閾値より大きいかどうかを判定する(ステップS6)。この判定は、教示者10の手指がある程度大きな動きを示したかどうかの判定に相当する。この判定は、ロボットハンド120の関節のすべてについての差分Δθに基づいて1つの値を算出し、この1つの値が所定の閾値より大きいかどうかに基づいて行われてもよく、または、ロボットハンド120の各関節についての差分Δθのそれぞれに基づいて行われてもよい。
ステップS6において、差分Δθが閾値より大きいと判定された場合、制御装置200は、ロボットハンド教示データ作成ステップ(ステップS7)を実行する。このステップS7において、制御装置200は、ステップS4で算出されたロボットハンド関節角度に基づいて、ロボットハンド120の動作を教示するロボットハンド教示データを作成する。たとえば、ロボットハンド120の関節角度を図4(b)に示すものに制御することを指令するロボットハンド教示データを作成することができる。なお、上述のようにロボットハンド関節角度(図4(b))は手指座標(図4(a))に基づいて算出されるので、ロボットハンド教示データは手指座標に基づいて作成されるものであるということもできる。
ステップS7の後、制御装置200は、ロボットハンド駆動指令送信ステップ(ステップS8)を実行する。このステップS8において、制御装置200は、ステップS7で作成されたロボットハンド教示データに基づいてロボットハンド120の各関節にロボットハンド駆動指令を送信し、これによってロボットハンド120を駆動する。なお、上述のようにロボットハンド教示データはロボットハンド関節角度に基づいて算出されるので、ロボットハンド120はロボットハンド関節角度に基づいて駆動されるものであるということもできる。
なお、上記ステップS6において、差分Δθが閾値以下であると判定された場合には、ステップS7およびS8は実行されず、ロボットハンド120は停止したままとなる。
また、ステップS2の後、制御装置200は、手首位置差分算出ステップ(ステップS9)を実行する。このステップS9において、制御装置200は、ステップS2bで算出された手首位置と、過去の手首位置との差分ΔLを算出する。ここで、過去の手首位置とは、たとえばNフレーム前(ただしNは所定の整数)の教示画像に基づいて算出された手首位置である。または、過去の手首位置とは、最後にロボットアーム110が駆動され停止した時点の手首位置、すなわち実際にロボットアーム110が実現している姿勢に対応する手首位置であってもよい。
次に、制御装置200は、ステップS9で算出された差分ΔLが、所定の閾値より大きいかどうかを判定する(ステップS10)。この判定は、教示者10の手首がある程度大きな動きを示したかどうかの判定に相当する。
なお、この例では判定は手首位置の差分ΔLのみに基づいて行われるが、手首位置の差分および手首方向の差分に基づいて行われてもよい。
ステップS10において、差分ΔLが閾値より大きいと判定された場合、制御装置200は、ロボットアーム教示データ作成ステップ(ステップS11)を実行する。このステップS11において、制御装置200は、ステップS2aで決定された手首位置およびステップS2bで決定された手首方向に基づいて、ロボットアーム110の動作を教示するロボットアーム教示データを作成する。ここで、手首位置および手首方向は、ロボットアーム110の先端の位置および向きを表すロボットアーム座標に変換される。たとえば、制御装置200は、ロボットアーム110の先端の位置を図4(b)の点(x,y,z)に制御し、かつ、ロボットアーム110の向きを図4(b)の角度(θ,φ,ψ)に制御することを指令するロボットアーム教示データを作成することができる。
ステップS11の後、制御装置200は、ロボットアーム駆動指令送信ステップ(ステップS12)を実行する。このステップS12において、制御装置200は、ステップS11で作成されたロボットアーム教示データに基づいてロボットアーム110にロボットアーム駆動指令を送信し、これによってロボットアーム110を駆動する。なお、上述のようにロボットアーム教示データは手首座標に基づいて算出されるので、ロボットアーム110は手首座標に基づいて駆動されるものであるということもできる。
なお、上記ステップS10において、差分ΔLが閾値以下であると判定された場合には、ステップS11およびS12は実行されず、ロボットアーム110は停止したままとなる。
ステップS3〜S8およびステップS9〜S12の実行が完了すると、図2の処理が終了し、制御装置200は再び図2の処理を最初から繰り返す。
また、図1に示すように、ロボット100の状態は、モニタ用カメラ50によって常時撮影され、モニタ60に表示される。これが教示者10に対するフィードバックとなる。教示者10は、この表示を見ながら腕23および手21を動かし、ロボット100に適切な動作を教示することができる。
以上のように、実施の形態1に係るロボットの教示データを作成する方法およびロボット教示システムによれば、教示者10の手首22を教示画像により認識し、その座標を利用して自動的に教示データを作成するので、ロボットアーム110を含むロボット100の教示を簡単に行うことができる。
特に、ロボットの操作方法を知らない教示者であっても教示を行うことができる。また、教示者10のジェスチャがそのまま教示動作となるので、複雑な教示動作も簡単に行うことができ、また、人間特有の器用さを要する動作も簡単に教示することができる。
また、単眼カメラ30およびステレオカメラ40が教示画像を取得し、また、モニタ用カメラ50がロボット100の状態を表す画像を取得するので、システム全体が安価に構築できる。また、これらのカメラによって遠隔操作が可能となるので、人間が作業困難な場所での作業の教示も行うことができる。
実施の形態2.
実施の形態2は、実施の形態1において、同一の教示データによって複数のロボットの教示を行うものである。
図5に、実施の形態2に係るロボット教示システムに関連する構成を示す。図5のロボット101〜103は、いずれも図1のロボット100と同様の構成を有する。また、図5の制御装置201は、図1の制御装置200と同様の構成を有するが、3台のロボット101〜103に接続されており、これら3台に関する処理を同時に行うことが可能である。
このような構成は、同一の構成を有する複数の対象物131〜133に対して、それぞれ対応するロボット101〜103が同一の動作を行う場合において、特に効率的である。教示者10は、一度の教示によって同時にすべてのロボット101〜103の教示を行うことができる。
なお、図5には示さないが、図1と同様にモニタ用カメラ50およびモニタ60によるフィードバックが行われてもよい。
実施の形態3.
実施の形態3は、実施の形態1および2において、カメラの視野をより広くするものである。
図6に、実施の形態3に係るロボット教示システムに係る単眼カメラ31の構成を示す。単眼カメラ31は、教示者10の手21または手首22の動きに応じ、その向きを変更することが可能である。たとえば、図6において、手21が(a)の位置にある場合には単眼カメラ31は(A)の向きに制御され、手21が(b)の位置にある場合には単眼カメラ31は(B)の向きに制御される。
このような単眼カメラ31の方向制御は、制御装置によって、周知の技術を用いて行うことができる。たとえば、教示画像をリアルタイムで処理し、特徴点を抽出してこれを追尾するように単眼カメラ31の方向を制御することができる。なお、この場合、手21の移動を完全に追尾する必要はなく、手21が単眼カメラ31の視野に収まる範囲とすればよい。
なお、図6には単眼カメラ31のみを示すが、ステレオカメラについても同様の制御がなされる。
このような構成によれば、より広い範囲にわたる動作の教示が可能となる。
なお、図6では単眼カメラ31は向きのみを変更可能であるが、向きではなく位置を変更可能としてもよく、向きおよび位置の双方を変更可能としてもよい。
図7に、実施の形態3の変形例に係るロボット教示システムに係る単眼カメラ32および33の構成を示す。単眼カメラ32および33は異なる位置に配置され、異なる視野を有する。たとえば、図7において、手21が(a)の位置にある場合には単眼カメラ32が教示画像を撮影し、手21が(b)の位置にある場合には単眼カメラ33が教示画像を撮影する。単眼カメラ32および33のいずれが教示画像を撮影するかは、たとえば制御装置によって、周知の技術を用いて決定することができる。
なお、図7には単眼カメラ32および33のみを示すが、ステレオカメラについても同様の配置がなされる。
実施の形態4.
実施の形態4は、実施の形態1〜3において、教示動作を1本の腕でなく2本の腕で行うものである。
図8に、実施の形態4に係るロボット教示システムに係る構成を示す。図8のロボット104は、図1のロボット100と同様の構成を有する。また、図8のロボット105は、図1のロボット100と左右対称となる構成を有する。また、図8の制御装置202は、図1の制御装置200と同様の構成を有するが、2台のロボット104および105に接続されており、これら2台に関する処理を同時に行うことが可能である。
単眼カメラ30は、教示者10の両手を含む画像を撮影し、ステレオカメラ40は、教示者10の両手首を含む画像を撮影する。すなわち、教示画像は、教示者10の両腕について、それぞれの手首および手を含むことになる。また、手首座標、手指座標、ロボットアーム教示データ、およびロボットハンド教示データは、それぞれ両腕について決定されまたは作成される。
なお、単眼カメラおよびステレオカメラはそれぞれ2台設けられてもよく、右腕20aおよび左腕20bを個別に撮影してもよい。
なお、制御装置202は、教示画像において、教示者10の手および手首について、右腕20aのものと左腕20bのものとを区別して認識する機能を有するものとする。制御装置202は、教示者10の右腕20aの手首および手の教示画像に基づいてロボット104を制御し、教示者10の左腕20bの手首および手の教示画像に基づいてロボット105を制御する。
このような構成によれば、両腕を用いる作業についても、実施の形態1と同様に簡単に教示を行うことができる。
また、一方の手首(たとえば右手首)を基準として座標系を設定すれば、作業空間全体を相対座標によって表すことができ、座標の誤差が小さくなるとともに制御性が向上する。
上述の実施の形態4では、一人の教示者10が2本の腕(両腕)を用いて教示を行うが、2本の腕は異なる教示者のものであってもよい。すなわち、二人の教示者が、それぞれの腕を用いて教示を行ってもよい。このような構成は、対象物130の受け渡しのような作業に特に有効である。
また、二人の教示者の一方または双方が両腕を用いて教示を行ってもよく、三人以上の教示者が同様にそれぞれ片腕または両腕を用いて教示を行ってもよい。
上述の実施の形態1〜4において、以下に示すような変形を施すことができる。
実施の形態1、2および4では、単眼カメラが手21を含む教示画像を1つ取得し、ステレオカメラが手首22を含む教示画像を2つ取得するので、一時点で3つの教示画像が取得されることになるが、教示画像の数は3つでなくともよい。
たとえば、単眼カメラおよびステレオカメラの代わりにただ1つのカメラを用い、このカメラが手21および手首22の双方を含む教示画像を1つ取得してもよい。この場合、この1つの教示画像に基づいて手21の姿勢候補データの選択および手首座標の決定を行うことができる。
また、2つの単眼カメラを用いてもよく、その一方が単眼カメラと同様に手21を含む教示画像を取得し、他方は手首22を含む1つの教示画像を取得してもよい。あるいは、1つのステレオカメラのみを用いてもよく、ステレオカメラによって取得されるステレオ手首画像の一方または双方を手21の教示画像として用いてもよい。
教示画像取得手段として、TOF(Time Of Flight)カメラを用いてもよい。TOFカメラは、被写体までの距離情報を得ることができる。この距離情報をもとに姿勢候補データの選択および手首座標の決定を行うことができる。
実施の形態1〜4では、図3に示すように、教示画像中のくびれ部分22aに基づいて手首22の位置を決定しているが、手首22の位置はこれとは異なる方法で決定されてもよい。
図9は、手首22の位置を決定する他の方法を示す。図9では、教示者10は手首にリストバンド25を付して教示動作を行う。この場合、制御装置は、教示画像中でリストバンド25に対応する部分を特定し、これに関連して手首22の位置を決定することができる。リストバンド25の色を教示者10の肌の色とは異なる特定の色としておけば、制御装置はその特定の色を検出することによって手首22の位置を決定することができ、位置決定の処理が簡素になるとともに精度が向上する。
また、実施の形態4(図8)のように複数の腕が関わる教示作業の場合には、右手首のリストバンドと左手首のリストバンドとを互いに異なる色としておけば、制御装置は第1の色を検出することによって一方の手首の位置を決定することができ、第1の色とは異なる第2の色を検出することによって他方の手首の位置を決定することができる。このように、教示画像中で右手と左手とを区別して認識する処理が簡素になるとともに精度が向上する。
なお、実施の形態4の変形例のように複数人の腕が関わる教示作業についても、すべての腕について異なる色のリストバンドを用いれば、教示画像中でそれぞれの手首を区別して認識することができる。
さらに、教示画像における背景(すなわち教示者10の手21、手首22、上腕23および体以外の部分)に対する手21、手首22または上腕23の微小な動き、いわゆる「手ぶれ」に基づいて、手21、手首22または上腕23を認識し、その位置を決定してもよい。この場合、手21または上腕23が認識できれば、これに基づいて手首22の位置を決定することができる。
また、図9のようなリストバンドを用いない場合であっても、色の違い(たとえば教示者10の肌の色、服装、等)に基づいて手首22の位置を決定することができる。
実施の形態1〜4では、姿勢候補データ選択ステップ(図2のステップS2a)において、手首の位置に関する情報を用いずに姿勢候補データの選択を行うが、これは手首の位置に関する情報を用いて行ってもよい。この場合、姿勢候補データ選択ステップ(ステップS2a)は、手首位置決定ステップ(ステップS2b)の後に実行されてもよい。また、教示画像において手首22よりも先の部分を手21として認識し、これを姿勢候補データの選択に用いてもよい。
実施の形態1〜4では、教示データを作成した直後にその教示データに基づいて実際の駆動を行っているが、駆動は行わなくともよい。たとえば、作成された教示データを単に記録するものであってもよい。この場合、後に記録された教示データを読み出し、これに基づいてロボットを駆動することができる。
実施の形態1〜4では、ロボットは3本のロボットハンドを備え合計15の制御可能な自由度を持つが、ロボットハンドの数および自由度の数はこれに限られない。ロボットハンドの指の数は少なくとも1本あればよく、把持動作等がある場合は2本以上あればよい。また、自由度の数は、少なくとも、ロボットアームの先端の位置を3次元で表す3変数、ロボットアームの先端の向きを3次元で表す3変数、第1指の第1関節の角度を表す1変数、第1指の第2関節の角度を表す2変数、第2指の第1関節の角度を表す1変数、および、第2指の第2関節の角度を表す2変数の、合計12あればよい。さらに、ロボットの自由度がこれより少ない場合には、さらに少ない変数によって教示を行ってもよい。
実施の形態1〜4では、手指座標は、手指の各関節の位置を表す座標と、指先の位置を表す座標とを含むが、手指座標の構成はこれに限られない。たとえば、手指座標は手指の各関節の位置を表す座標のみからなってもよく、また、指先の位置を表す座標のみからなってもよい。あるいは、手指に関連するなんらかの位置を表す座標であってもよく、これに対応してロボットハンド関節角度を決定することができるものであればよい。
実施の形態1〜4では、ロボット100は3本のロボットハンド120の指を有しており、教示者10の手指のうち親指・人差し指・中指がロボットハンド120の各指に対応したが、教示に用いる3本の指はこれとは異なる組合せであってもよい。また、ロボットハンドの指が2本であるロボットの場合には、たとえば親指および人差し指のみを用いて教示を行うことができ、また、4本または5本のロボットハンドの指を持つロボットの場合には、4本または5本の手指を用いて教示を行うことができる。
10 教示者(人間)、21 手、22 手首、23 腕、100〜105 ロボット、110 ロボットアーム、120 ロボットハンド、120a〜120c ロボットハンドの指、200〜202 制御装置、S1 教示画像取得ステップ、S2 手首座標決定ステップ(S2a 姿勢候補データ選択ステップ、S2b 手首位置決定ステップ、S2c 手首方向決定ステップ)、S3 手指座標決定ステップ、S7 ロボットハンド教示データ作成ステップ、S11 ロボットアーム教示データ作成ステップ。

Claims (5)

  1. ロボットアームおよびロボットハンドを備えるロボットについて、当該ロボットの少なくとも1台の動作を教示する教示データを作成する方法であって、
    人間の手首および手を含む教示画像を少なくとも1つ取得する、教示画像取得ステップと、
    前記教示画像に基づいて、手首の位置および向きを表す手首座標を決定する、手首座標決定ステップと、
    前記教示画像に基づいて、手指に関連する位置を表す手指座標を決定する、手指座標決定ステップと、
    前記手首座標に基づいて、前記ロボットアームの動作を教示するロボットアーム教示データを作成する、ロボットアーム教示データ作成ステップと、
    前記手指座標に基づいて、前記ロボットハンドの動作を教示するロボットハンド教示データを作成する、ロボットハンド教示データ作成ステップと
    を含む、ロボットの教示データを作成する方法。
  2. 前記教示画像取得ステップにおいて、ステレオカメラが、人間の手首を含む2つの画像からなるステレオ手首画像を取得し、
    前記手首座標決定ステップにおいて、前記手首の位置は、前記ステレオ手首画像に基づいて決定される
    請求項1に記載のロボットの教示データを作成する方法。
  3. 前記手首座標決定ステップは、
    人間の手の姿勢を表す複数の姿勢候補データのうちから、前記教示画像に基づいて1つの姿勢候補データを選択する、姿勢候補データ選択ステップと、
    前記教示画像と選択された前記姿勢候補データとの対応関係に基づいて、前記教示画像における手首の向きを決定する、手首方向決定ステップと
    を含む
    請求項1または2に記載のロボットの教示データを作成する方法。
  4. 前記ロボットは少なくとも2台であり、
    前記教示画像は、人間の両腕について、それぞれの手首および手を含み、
    前記手首座標、前記手指座標、前記ロボットアーム教示データ、および前記ロボットハンド教示データは、それぞれ両腕について決定または作成される
    請求項1〜3のいずれか一項に記載のロボットの教示データを作成する方法。
  5. 請求項1〜4のいずれか一項に記載の方法を実行する、ロボット教示システム。
JP2009266321A 2009-11-24 2009-11-24 ロボットの教示データを作成する方法およびロボット教示システム Pending JP2011110621A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009266321A JP2011110621A (ja) 2009-11-24 2009-11-24 ロボットの教示データを作成する方法およびロボット教示システム
CN2010800285557A CN102470530A (zh) 2009-11-24 2010-03-23 生成机器人的教导数据的方法以及机器人教导系统
KR1020127000207A KR20120025582A (ko) 2009-11-24 2010-03-23 로봇의 교시 데이터를 작성하는 방법 및 로봇 교시 시스템
PCT/JP2010/054936 WO2011065035A1 (ja) 2009-11-24 2010-03-23 ロボットの教示データを作成する方法およびロボット教示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266321A JP2011110621A (ja) 2009-11-24 2009-11-24 ロボットの教示データを作成する方法およびロボット教示システム

Publications (1)

Publication Number Publication Date
JP2011110621A true JP2011110621A (ja) 2011-06-09

Family

ID=44066138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266321A Pending JP2011110621A (ja) 2009-11-24 2009-11-24 ロボットの教示データを作成する方法およびロボット教示システム

Country Status (4)

Country Link
JP (1) JP2011110621A (ja)
KR (1) KR20120025582A (ja)
CN (1) CN102470530A (ja)
WO (1) WO2011065035A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102773863A (zh) * 2012-07-31 2012-11-14 华南理工大学 一种机器人精细遥操作方法
JP2015221485A (ja) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
WO2016088367A1 (ja) * 2014-12-02 2016-06-09 国立大学法人東京工業大学 動作の転移装置、動作の転移方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2016151667A1 (ja) * 2015-03-20 2016-09-29 富士機械製造株式会社 ティーチング装置及び制御情報の生成方法
DE102018124671A1 (de) * 2018-10-06 2020-04-09 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
JP2020142344A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 環境監視システム
DE102019118012B3 (de) * 2019-07-03 2020-09-17 Günther Battenberg Verfahren und Vorrichtung zum Steuern eines Robotersystems mittels menschlicher Bewegung

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
EP2653272A1 (de) * 2012-04-17 2013-10-23 Siemens Aktiengesellschaft Betriebsverfahren für einen Rechner zum Programmieren der Bewegungen einer Maschine
CN102778951B (zh) * 2012-06-15 2016-02-10 惠州华阳通用电子有限公司 使用虚拟按键的输入设备及输入方法
CN102814814B (zh) * 2012-07-31 2015-07-01 华南理工大学 一种双臂机器人基于Kinect的人机交互方法
EP2931485B1 (en) * 2012-12-14 2023-09-13 ABB Schweiz AG Bare hand robot path teaching
TWM485805U (zh) * 2014-06-19 2014-09-11 Chao-Shen Chou 機械手臂控制系統
CN104827474B (zh) * 2015-05-04 2017-06-27 南京理工大学 学习人的虚拟示教机器人智能编程方法及辅助装置
GB201509341D0 (en) 2015-05-29 2015-07-15 Cambridge Medical Robotics Ltd Characterising robot environments
JP6531829B2 (ja) * 2015-09-03 2019-06-19 株式会社安川電機 処理軌跡編集装置、ロボット、物品処理システム、及び物品製造方法
CN105345823B (zh) * 2015-10-29 2017-12-19 广东工业大学 一种基于空间力信息的工业机器人自由驱动示教方法
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
CN107303673A (zh) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 机器人
TWI610245B (zh) * 2016-10-19 2018-01-01 廣明光電股份有限公司 機器人視覺座標的編程方法
DE102016221193B3 (de) * 2016-10-27 2018-01-04 Kuka Roboter Gmbh Verfahren zum Steuern eines Manipulators basierend auf Handerkennung
CN106737668A (zh) * 2016-12-09 2017-05-31 南京理工大学 一种基于虚拟现实的带电作业机器人遥操作方法
CN107199566B (zh) * 2017-06-02 2019-09-10 东南大学 一种基于虚拟手臂的面向空间站机器人的遥操作系统
CN107160364B (zh) * 2017-06-07 2021-02-19 华南理工大学 一种基于机器视觉的工业机器人示教系统及方法
KR102001214B1 (ko) * 2017-10-31 2019-10-01 충남대학교산학협력단 가상 현실 기반 양팔로봇 교시 장치 및 방법
TWI734867B (zh) * 2017-11-20 2021-08-01 達明機器人股份有限公司 機器手臂作業軌跡的教導系統及方法
WO2020221311A1 (zh) * 2019-04-30 2020-11-05 齐鲁工业大学 基于可穿戴设备的移动机器人控制系统及控制方法
CN110170996B (zh) * 2019-05-09 2022-08-19 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教系统
JP7359577B2 (ja) * 2019-06-21 2023-10-11 ファナック株式会社 ロボット教示装置及びロボットシステム
FR3101165B1 (fr) 2019-09-23 2021-10-15 Ponant Tech Procédé d’enregistrement de séquences de commande et de contrôle d’un robot de test, logiciel pour mise en œuvre de ce procédé
CN112917470A (zh) * 2019-12-06 2021-06-08 鲁班嫡系机器人(深圳)有限公司 一种机械手的示教方法、装置、系统、存储介质及设备
CN112894820A (zh) * 2021-01-29 2021-06-04 清华大学深圳国际研究生院 柔性机械臂遥操作人机交互装置及系统
KR102532351B1 (ko) * 2021-08-05 2023-05-15 서울대학교병원 헤드셋 기반의 비접촉 손동작 인식 기술을 활용한 수술 로봇 제어 시스템
CN113894774A (zh) * 2021-10-26 2022-01-07 季华实验室 一种机器人抓取控制方法、装置、存储介质和机器人
KR102553830B1 (ko) * 2022-06-28 2023-07-10 주식회사 포탈301 카메라를 이용한 실시간 로봇 원격 제어 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003211377A (ja) * 2002-01-18 2003-07-29 Hitachi Ltd マニピュレーション動作支援装置及びその支援方法
JP2005046931A (ja) * 2003-07-30 2005-02-24 National Institute Of Information & Communication Technology ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
WO2005046942A1 (ja) * 2003-11-13 2005-05-26 Japan Science And Technology Agency ロボットの駆動方法
JP2008307640A (ja) * 2007-06-14 2008-12-25 Honda Motor Co Ltd 運動制御システム、運動制御方法および運動制御プログラム
JP2009003813A (ja) * 2007-06-22 2009-01-08 Univ Of Tsukuba 手指形状推定装置及び手指形状推定方法、並びにプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239960A (ja) * 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003211377A (ja) * 2002-01-18 2003-07-29 Hitachi Ltd マニピュレーション動作支援装置及びその支援方法
JP2005046931A (ja) * 2003-07-30 2005-02-24 National Institute Of Information & Communication Technology ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
WO2005046942A1 (ja) * 2003-11-13 2005-05-26 Japan Science And Technology Agency ロボットの駆動方法
JP2008307640A (ja) * 2007-06-14 2008-12-25 Honda Motor Co Ltd 運動制御システム、運動制御方法および運動制御プログラム
JP2009003813A (ja) * 2007-06-22 2009-01-08 Univ Of Tsukuba 手指形状推定装置及び手指形状推定方法、並びにプログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSNJ200810006184; 山添 隆文、加藤 邦人、山本 和彦: '高速度カメラを用い作成した手形状変化特徴とのマッチングによるジャンケンの高速推定' 電子情報通信学会2002年総合大会講演論文集 情報・システム2 , 20020307, 184 *
CSNJ200810039296; 小池 芙佐子、小沢 慎治: '手指姿勢の特徴量を用いた日本手話の指文字認識' 電子情報通信学会2000年総合大会講演論文集 情報・システム2 , 20000307, 296 *
JPN6013051178; 山添 隆文、加藤 邦人、山本 和彦: '高速度カメラを用い作成した手形状変化特徴とのマッチングによるジャンケンの高速推定' 電子情報通信学会2002年総合大会講演論文集 情報・システム2 , 20020307, 184 *
JPN6013051179; 小池 芙佐子、小沢 慎治: '手指姿勢の特徴量を用いた日本手話の指文字認識' 電子情報通信学会2000年総合大会講演論文集 情報・システム2 , 20000307, 296 *
JPN7010001337; 村上 智基: '自己オクルージョンを含む人物姿勢の距離画像による推定' 奈良先端科学技術大学院大学情報科学研究科修士論文 , 20030324, 奈良先端科学技術大学院大学 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102773863A (zh) * 2012-07-31 2012-11-14 华南理工大学 一种机器人精细遥操作方法
JP2015221485A (ja) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US10265847B2 (en) 2014-12-02 2019-04-23 Soinn Holdings Llc Action transfer device, action transfer method, and non-transitory computer-readable medium storing program
JP2016107346A (ja) * 2014-12-02 2016-06-20 国立大学法人東京工業大学 動作の転移装置、動作の転移方法及びプログラム
WO2016088367A1 (ja) * 2014-12-02 2016-06-09 国立大学法人東京工業大学 動作の転移装置、動作の転移方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2016151667A1 (ja) * 2015-03-20 2016-09-29 富士機械製造株式会社 ティーチング装置及び制御情報の生成方法
JPWO2016151667A1 (ja) * 2015-03-20 2018-02-15 富士機械製造株式会社 ティーチング装置及び制御情報の生成方法
DE102018124671A1 (de) * 2018-10-06 2020-04-09 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
DE102018124671B4 (de) * 2018-10-06 2020-11-26 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
US20210339391A1 (en) * 2018-10-06 2021-11-04 Bystronic Laser Ag Method and Device for Creating a Robot Control Program
US11897142B2 (en) * 2018-10-06 2024-02-13 Bystronic Laser Ag Method and device for creating a robot control program
JP2020142344A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 環境監視システム
DE102019118012B3 (de) * 2019-07-03 2020-09-17 Günther Battenberg Verfahren und Vorrichtung zum Steuern eines Robotersystems mittels menschlicher Bewegung
EP3760393A1 (de) 2019-07-03 2021-01-06 Günther Battenberg Verfahren und vorrichtung zum steuern eines robotersystems mittels menschlicher bewegung

Also Published As

Publication number Publication date
CN102470530A (zh) 2012-05-23
KR20120025582A (ko) 2012-03-15
WO2011065035A1 (ja) 2011-06-03

Similar Documents

Publication Publication Date Title
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
US10919152B1 (en) Teleoperating of robots with tasks by mapping to human operator pose
JP7273880B2 (ja) 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体
US20190126484A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
CN104936748B (zh) 徒手机器人路径教导
US9002119B2 (en) Device method and program for human hand posture estimation
Chacko et al. An augmented reality interface for human-robot interaction in unconstrained environments
CN107030692B (zh) 一种基于感知增强的机械手遥操作方法及系统
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
Gratal et al. Visual servoing on unknown objects
JP2018015863A (ja) ロボットシステム、教示データ生成システム及び教示データ生成方法
JP2009172685A (ja) マニピュレータシステムおよびその制御方法
KR20200051938A (ko) 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템
Schwaner et al. MOPS: A modular and open platform for surgical robotics research
CN114387836B (zh) 一种虚拟手术模拟方法、装置、电子设备及存储介质
CN110363811B (zh) 用于抓取设备的控制方法、装置、存储介质及电子设备
Song et al. Autonomous and stable tracking of endoscope instrument tools with monocular camera
Guanglong et al. Human–manipulator interface using hybrid sensors with Kalman filters and adaptive multi-space transformation
Li et al. A dexterous hand-arm teleoperation system based on hand pose estimation and active vision
JP6499272B2 (ja) ティーチング装置及び制御情報の生成方法
CN112805127A (zh) 用于创建机器人控制程序的方法和设备
Wang et al. Robot programming by demonstration with a monocular RGB camera
JP7376318B2 (ja) アノテーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015