JP2021000694A - ロボット教示装置及びロボットシステム - Google Patents

ロボット教示装置及びロボットシステム Download PDF

Info

Publication number
JP2021000694A
JP2021000694A JP2019115464A JP2019115464A JP2021000694A JP 2021000694 A JP2021000694 A JP 2021000694A JP 2019115464 A JP2019115464 A JP 2019115464A JP 2019115464 A JP2019115464 A JP 2019115464A JP 2021000694 A JP2021000694 A JP 2021000694A
Authority
JP
Japan
Prior art keywords
robot
movement
hand
movement locus
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019115464A
Other languages
English (en)
Other versions
JP7359577B2 (ja
Inventor
恵典 長野
Keisuke Nagano
恵典 長野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019115464A priority Critical patent/JP7359577B2/ja
Priority to US16/891,071 priority patent/US11478922B2/en
Priority to CN202010542856.7A priority patent/CN112109069A/zh
Priority to DE102020115670.7A priority patent/DE102020115670A1/de
Publication of JP2021000694A publication Critical patent/JP2021000694A/ja
Application granted granted Critical
Publication of JP7359577B2 publication Critical patent/JP7359577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40116Learn by operator observation, symbiosis, show, watch

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Numerical Control (AREA)

Abstract

【課題】よりいっそう高い自由度が有り且つ直感的な操作でロボットの教示を行うことのできるロボット教示装置を提供する。【解決手段】撮像対象の距離情報を表す距離画像、又は、撮像対象の2次元画像を動画として取得する画像取得装置34と、記動画を用いて、動画内に撮像対象として写されたオペレータの手の移動軌跡を検出する軌跡検出部311と、検出された移動軌跡が直線移動を表すか又は回転移動を表すかを識別する識別部312と、移動軌跡が直線移動を表すと識別された場合にはロボットの所定の可動部位を移動軌跡に基づいて並進移動させ、移動軌跡が回転移動を表すと識別された場合にはロボットの所定の可動部位を移動軌跡に基づいて回転移動させる指令を出力する指令生成部313と、を備えるロボット教示装置である。【選択図】図2

Description

本発明はロボット教示装置及びロボットシステムに関する。
産業用ロボットを用いたシステムを利用して各種作業を実行する場合、ロボットが意図した動作を行うように、ロボットを教示する必要がある。産業用ロボットの教示装置は、いわゆるジョグ操作が可能な操作キーや操作画面を有するのが一般的である。
一方、教示装置の他の例として、特許文献1は、「作業者の手指及び作業対象物が写っている画像を取得する画像入力装置と、画像入力装置により取得された画像から作業者の手指の動作を検知する手指動作検知部と、手指動作検知部により検知された手指の動作から、作業対象物に対する作業者の作業内容を推定する作業内容推定部とを設け、制御プログラム作成部が、作業内容推定部により推定された作業内容を再現するロボットの制御プログラムを作成するようにしたロボット教示装置」を記載する(段落0006)。
国際公開第2017/130389号
教示装置を用いた産業用ロボットの教示では、教示装置のジョグ操作キーの操作や、教示装置の画面へのタッチ・スライド操作による教示手法が多用されている。しかしながら、ジョグ操作キーの操作による教示では、指示の自由度がジョグ操作キーの数により制限を受け、また、画面のタッチ・スライド操作による教示では、指示の自由度が2次元平面に制限される。よりいっそう高い自由度が有り且つ直感的な操作でロボットの教示を行うことのできるロボット教示装置及びロボットシステムが求められている。
本開示の一態様は、ロボットを教示するロボット教示装置であって、撮像対象の距離情報を表す距離画像、又は、前記撮像対象の2次元画像を動画として取得する画像取得装置と、前記動画を用いて、前記動画内に前記撮像対象として写されたオペレータの手の移動軌跡を検出する軌跡検出部と、検出された前記移動軌跡が直線移動を表すか又は回転移動を表すかを識別する識別部と、前記移動軌跡が直線移動を表すと識別された場合には前記ロボットの所定の可動部位を前記移動軌跡に基づいて並進移動させ、前記移動軌跡が回転移動を表すと識別された場合には前記ロボットの前記所定の可動部位を前記移動軌跡に基づいて回転移動させる指令を出力する指令生成部と、を備えるロボット教示装置である。
本開示のもう一つの態様は、ロボットと、前記ロボットを制御するロボット制御装置と、上記ロボット教示装置と、を備え、前記ロボット制御装置は、前記ロボット教示装置の前記指令生成部により出力された前記指令に基づいて前記ロボットを制御する、ロボットシステムである。
上記構成によれば、よりいっそう高い自由度が有り且つ直感的な操作でロボットの教示を行うことが可能となる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態に係るロボット教示装置を含むロボットシステムの全体構成を表す図である。 ロボット教示装置が有する機能を表す機能ブロック図である。 ロボット教示装置が教示操作盤として構成されている場合の、ロボット教示装置の前面の構成例を示す図である。 直線移動を表現するジェスチャ入力がなされている状態を示す模式図である。 回転移動を表現するジェスチャ入力が成されている状態を示す模式図である。 ジェスチャ教示処理を表すフローチャートである。 手の平向き認識処理を表すフローチャートである。 手の平向き認識処理により指先の位置が認識された状態を示す模式図である。 2次元画像を用いて手の3次元位置情報を取得する場合の、撮像面、レンズ、基準面、及び手の配置関係を表す模式図である。
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は一実施形態に係るロボット教示装置30を含むロボットシステム100の全体構成を表す図である。図2は、ロボット教示装置30が有する機能を表す機能ブロック図である。図1に示すように、ロボットシステム100は、ロボット10と、ロボット10を制御するロボット制御装置20と、ロボット10の教示を行うためのロボット教示装置30とを備える。ロボット10は、例えば、垂直多関節ロボットであるが、他の種類のロボットが用いられても良い。ロボット制御装置20は、ロボット10の各軸のモータを制御することでロボット10の動作を制御する。ロボット制御装置20は、CPU、ROM、RAM、記憶装置、表示部、操作部、通信部等を有する一般的なコンピュータとしての構成を有していても良い。
ロボット教示装置30は、例えば、教示操作盤、或いはタブレット端末型の教示装置であり、ハードウェア構成要素としてCPU31、ROM、RAM等のメモリ32、通信インタフェース33等を有する一般的なコンピュータとしての構成を有する。ロボット教示装置30は、通信インタフェース33を介してロボット制御装置20に接続される。また、ロボット教示装置30は、教示を行うためのユーザインタフェースとして、各種操作キーを含む操作部35と、表示部36とを備える(図3参照)。本実施形態に係るロボット教示装置30は、更に、ジェスチャ入力を行うオペレータの手を撮像するための画像取得装置34を有する。
画像取得装置34は、撮像対象の空間位置に依存する距離情報を表す距離画像を動画として取得する距離画像カメラ、或いは、撮像対象の2次元画像を動画として取得するカメラである。一例として、距離画像カメラとしての画像取得装置34は、光源と、パターン光を投影するプロジェクタと、プロジェクタを挟んでプロジェクタの両側に配置された2つのカメラとを有し、パターン光が投影された対象物を、異なる位置に配置された2つのカメラから撮像してステレオ法により対象物の3次元位置情報を取得する構成であっても良い。或いは、距離画像カメラとしての画像取得装置34は、光源と、撮像素子とを有し、対象物に光が当たって戻ってくるまでの時間を測定するTOF(Time of Flight)方式のカメラであっても良い。或いは、距離画像カメラとしての画像取得装置34は、ステレオカメラであって、2つのカメラにより撮像された画像の各々において対象物の位置を画像認識により認識した上で、ステレオ法により対象物の3次元位置情報を取得する構成であっても良い。なお、距離画像カメラとして他のタイプの装置が用いられても良い。図1−3に示した構成例では、画像取得装置34は、ロボット教示装置30に内蔵されるタイプの装置として構成されているが、画像取得装置34はロボット教示装置30に有線或いは無線で接続される外部装置として構成されていても良い。
図3は、ロボット教示装置30が教示操作盤として構成されている場合の、ロボット教示装置30の前面の構成例を示している。図3に示すように、画像取得装置34は、ロボット教示装置30における、操作部35及び表示部36が配置された前面に配置されており、前面側から撮像対象を撮像する。この構成において、オペレータは、片方の手でロボット教示装置30を持ち、もう片方の手を動かしてジェスチャ入力を行うことができる。以下で、詳細に説明するように、ロボット教示装置30は、オペレータの手の動きが直線移動である場合には、ロボット10の所定の可動部位を並進移動させ(図4参照)、オペレータの手の動きが回転移動の場合には、ロボット10の所定の可動部位を回転移動させる(図5)。以下では、一例として、所定の可動部位は、ロボット10のアーム先端11であるものとする。
図2に示すように、ロボット教示装置30は、画像取得装置34に加えて、軌跡検出部311と、識別部312と、指令生成部313とを備える。これらの機能は、例えば、CPU31がメモリ32内に記憶されたソフトウェアを実行することによって実現される。軌跡検出部311は、画像取得装置34により取得された動画を用いて、動画内に撮像対象として写されたオペレータの手の移動軌跡を検出する。識別部312は、検出された手の移動軌跡が直線移動を表すか回転移動を表すかを識別する。指令生成部313は、移動軌跡が直線移動を表すと識別された場合にはロボット10のアーム先端11を移動軌跡に基づいて並進移動させる指令を生成し(図4参照)、移動軌跡が回転移動を表すと識別された場合にはロボット10のアーム先端11を移動軌跡に基づいて回転移動させる指令を出力する(図5参照)。ロボット制御装置20は、ロボット教示装置30からの指令に応じてロボット10を制御する。
図6は、ジェスチャによる教示処理(以下、ジェスチャ教示処理と記す)を表すフローチャートである。図6のジェスチャ教示処理は、例えば、ロボット教示装置30に対し操作部35を介して所定の操作がなされることで起動される。ジェスチャ教示処理は、ロボット教示装置30のCPU31による制御の下で実行される。ジェスチャ教示処理が開始されると、画像取得装置34による撮像が行われる。ジェスチャ入力を行うに際し、オペレータは、画像取得装置34による映像にオペレータの手の部分のみが映り、顔などの他の部位が映り込まないように配慮して操作を行うものとする。
はじめに、ロボット教示装置30(軌跡検出部311)は、画像取得装置34が取得する動画の個々のフレームにおいて手の認識を行う(ステップS11)。画像取得装置34が、距離画像カメラである場合、2次元カメラである場合のそれぞれについてフレーム単位での手の認識について説明する。
(ステップS11:距離画像カメラである場合)
距離画像カメラで撮像された各フレームの画像では、撮像対象までの距離が例えば濃淡度として表されている。オペレータの手は、距離画像内において一定の距離範囲に一つの塊として集まった画素(すなわち、隣接する画素間で距離があまり変わらない画素の集合)と考えることができる。したがって、距離画像において一定の距離範囲にある画素をラベリングすることで、ラベリングされた画素の集合を、手と認識することができる。なお、オペレータが画像取得装置34からある一定の距離の位置(例えば概ね15cm)で手を動かすとの条件の下で、この手法による画像認識を行うことで、認識の精度を高めることができる。
(ステップS11:2次元カメラである場合)
画像取得装置34が2次元画像の動画を取得するカメラである場合には、軌跡検出部311は、以下の手法のいずれかにより手の認識を行うことができる。
(A1)画像中で肌色の画素をグルーピングして手と認識する。この場合、画像の色情報をRGBから例えばHSV(色相、色彩、明度)に変換して肌色領域を抽出することで、精度よく肌色領域を抽出することができる。
(A2)ディープラーニングによる手法により画像認識を行う。一例として、畳み込みニューラルネットワークに予め多数の手の画像を学習させておき、各フレームの画像における手の認識を行う。この場合、例えば、オペレータが手をパーの姿勢としてジェスチャ入力を行うという条件の下で、トレーニングデータとして多数の人のパーの姿勢の手の画像を準備して学習するようにしても良い。
(A3)テンプレートマッチングにより手の認識を行う。この場合、オペレータは所定の姿勢(例えば、パーの姿勢)でジェスチャ入力を行うという条件の下で、テンプレートマッチングを行うようにしても良い。
なお、ステップS11における手の平の向きの認識については後述する。
このように個々のフレームついて手の認識が行われると、次に、軌跡検出部311は、フレーム間での手の動きをトラッキングし、手の軌跡を取得する(ステップS12)。ステップS12において、軌跡検出部311は、個々のフレームについて認識した手の重心を求める。ここでは、ステップS11において認識された手の2次元的な位置情報に基づいて手の幾何学的な重心を求める各種手法を用いることができる。軌跡検出部311は、求められた各フレームにおける手の重心の位置を連結することで、手の移動軌跡を得る。画像取得装置34が、距離画像カメラである場合、2次元カメラである場合のそれぞれについて手の移動軌跡の取得について説明する。
(S12:距離画像カメラである場合)
距離画像を用いた場合、ステップS11により認識された手の領域の画素は距離情報を有するので、手の重心の3次元位置を得ることは可能である。よって、この場合、軌跡検出部311は、個々のフレームについて認識した手の重心を連結することで、手の移動軌跡の3次元位置情報を得る。
(S12:2次元カメラである場合)
各フレームの2次元画像において認識された手の重心の位置を連結することで、手の移動軌跡の2次元的な情報を得ることができる。2次元カメラを用いて手の移動軌跡の3次元的な情報を得るために、一例として以下のような条件の下でジェスチャ入力を行う。
(r1)オペレータは、ロボット教示装置30をロボット座標系における既知の位置で、画像取得装置34のレンズ34bの光軸をロボット座標系のX軸に概ね一致させる姿勢で保持する。
(r2)オペレータは、ロボット教示装置30から所定の距離の位置(例えば15cm程度)にある光軸と垂直な基準面S0(すなあち、画像取得装置34に対してX軸方向における位置が同一となる平面)を、ジェスチャ入力開始時に手を配置する基準となる平面であることを意識するようにする。
図9は、上記条件(r1)及び(r2)の下での、画像取得装置34の撮像素子の撮像面34a、レンズ34b、及び基準面S0の位置関係を表している。上記条件(r1)及び(r2)から、ロボット座標系のX軸方向における、撮像面34a及び基準面S0それぞれの位置P0、P1は既知である。この配置関係において手を基準面S0の位置に置いた場合における撮像面34aでの手の像の大きさ(像倍率)を記憶しておく。ジェスチャ動作に伴ってオペレータの手が基準面S0に対してX軸方向に移動して撮像面34aにおける手の像の大きさが変わった場合には、手が基準面S0にある場合の手の像の大きさとの比較を行うことで、レンズ34bの焦点距離及びレンズの結像式に基づいてX軸方向の手の位置(P2)を求めることができる。以上により、2次元カメラの場合において手の移動軌跡の3次元位置情報を得ることができる。
以上により得られる手の移動軌跡の3次元位置は画像取得装置34に固定された座標系(以下、カメラ座標系と記す)での位置情報であるので、軌跡検出部311は、ロボット10と画像取得装置34(ロボット座標系とカメラ座標系)との相対位置関係を表す情報に基づいて、移動軌跡の座標値をロボット座標系における座標値に変換する。ロボット10と画像取得装置34との相対位置関係を表す情報は以下のような手法により得るようにしても良い。例えば、オペレータがロボット教示装置30をロボット座標系における既知の位置・姿勢(例えば、ロボット座標系における既知の位置で、画像取得装置34のレンズの光軸をロボット座標系のX軸に概ね一致させる姿勢)で保持してジェスチャ入力を行うという条件の下であれば、移動軌跡の座標値をカメラ座標系からロボット座標系へ変換することができる。或いは、位置・姿勢を検出するためのセンサ(ジャイロセンサ、加速度センサ等)をロボット教示装置30に搭載しても良い。この場合、例えばロボット教示装置30の起動時にロボット座標系とカメラ座標系との相対位置関係をキャリブレーションしておき、上記センサによりロボット座標系におけるロボット教示装置30の位置・姿勢を常時算出するようにする。ロボット座標系とカメラ座標系との相対位置関係を求める他の手法が用いられても良い。
次に、ロボット教示装置30(識別部312)は、ステップS12で求められた手の移動軌跡を用いて、手の移動軌跡が直線移動を表すか回転移動を表すかを識別する(ステップS13)。ここでの識別は、一例として、手の移動軌跡の2次元的な位置情報(例えば、移動軌跡をある平面に投影した場合の位置情報)を用いて行うこととする。手の移動軌跡が直線移動であるかの識別には、ハフ変換を用いる。具体的には、ステップS12で得られた移動軌跡が直線であるか否かを以下の手順で判定する。
(E1)手の移動軌跡を表す(x,y)平面上の各点(x0,y0)に対して、その点を通る直線全体の集合を、r=x0cosθ+y0sinθの関係を用いて(r,θ)平面に描画する。
(E2)(r,θ)平面において複数の曲線が交差する点は、(x,y)平面における直線を表すことになる。ここでは、例えば、(x,y)平面における軌跡上の所定数以上の画素が同一の直線状にあると判定された場合に、手の移動軌跡が直線であると判定しても良い。
手の移動軌跡が回転移動であるかの識別については、一般化ハフ変換を用いる。具体的には、一般化ハフ変換により、手の移動軌跡が円状、楕円状、或いは2次曲線状であるかを判定することができる。一例として、移動軌跡が円状であるか否かの識別を以下の手順により行うことができる。
(F1)手の移動軌跡を表す(x,y)平面上の各点(x0,y0)に対して、その点を通る円全体の集合を(x0−A)2+(y0−B)2=R2の関係を用いて(A,B,R)空間に描画する。
(F2)(A,B,R)空間において複数の曲面が共有する点が、(x、y)平面における一つの円を表す。ここでは、例えば、(x、y)平面における移動軌跡上の所定数以上の画素が同一の円上にあると判定された場合に、手の移動軌跡が回転であると判定しても良い。円の場合と類似の手法により、(x、y)平面における軌跡上の画素が、同一の楕円上に乗るか否か、或いは、2次曲線上に乗るかどうかを判定することにより、移動軌跡が回転移動であるか否かを判定することもできる。
上記手順(E1)、(E2)により直線移動が識別されたと判定されると(S13:直線移動)、ロボット教示装置30(指令生成部313)は、アーム先端11を並進移動させる指令を生成し、ロボット制御装置20に送信する(ステップS14)。直線移動の指令を受けたロボット制御装置20は、ロボット10のアーム先端11を並進移動させる。図4に示したように、アーム先端11の並進移動の移動経路A2は、ステップS12で検出された手の移動軌跡のロボット座標系における移動経路A1と平行とする。移動方向については後述する手法により認識した手の平の向きに応じた方向とする。例えば、図5に示すように手の平が上方を向いている場合には、アーム先端11を上方に移動させる。アーム先端11の移動量については、例えば、(1)予め設定した距離だけ移動させる、或いは(2)手の移動軌跡の長さに応じた距離移動させる、といったやり方をとることができる。移動速度は、予めロボット10に設定した値としても良い。
上記の手順(F1)、(F2)により回転移動が識別されたと判定されると(S13:回転移動)、ロボット教示装置30(指令生成部313)は、アーム先端11を回転移動させる指令を生成し、ロボット制御装置20に送信する(ステップS14)。回転移動の指令を受けたロボット制御装置20は、ロボット10のアーム先端11を回転移動させる。図5に示すように、アーム先端11を回転移動させる場合の回転軸R1は、ロボット座標系における手の回転移動の回転軸R0の方向と平行な方向とする。アーム先端11の回転方向C2は、手の移動軌跡における回転方向C1と整合させることができる。識別部312は、一例として、手の移動軌跡のロボット座標系における回転軸R0を、ステップS12で求められた手の3次元の移動軌跡に基づいて求めることができる。
直線移動と回転移動のいずれも検出されなかった場合には(S13:識別不可)、ロボット10を動作させることなく、本処理を終了する。
次に、ステップS11において実行される手の平の向きの認識について説明する。図7は、手の平の向きを認識する処理(以下、手の平向き認識処理と記す)を表すフローチャートである。手の平向き認識処理を実行するに際し、予め、ジェスチャに使用する手が右手か左手か、及びジェスチャ時の手の姿勢をロボット教示装置30に登録しておく。ジェスチャに使用する手の姿勢は、一例としてパーの姿勢であるものとする。はじめに、軌跡検出部311は、ステップS11において検出された手の部分の画素のグループを用いて、手の輪郭を抽出する(ステップS21)。次に、軌跡検出部311は、手の輪郭線上に等間隔で点を打つ(ステップS22)。次に、軌跡検出部311は、ステップS22で設定された点のうち隣接する点の間を繋ぐ線分を設定し、ある点とその両側の隣接点とをつなぐ2つの直線のなす角度が一定値以下の鋭角になるような点を抽出する(ステップS23)。これにより、輪郭線において指先のような尖った部分が抽出される。
次に、軌跡検出部311は、ステップS23で抽出された点から、手の重心から一定の距離があるものを5つ選択し、これを指先位置とみなす(ステップS24)。図8の左側に、画像取得装置34に対して右手の手の平側が向いている場合に、図7のステップS221−S24の処理により検出された指先位置P11−P15の位置を示す。また、図8の右側に、画像取得装置34に対して右手の手の甲側が向いている場合に、図7のステップS21−S24の処理によって検出された指先位置P21−P25の位置を示す。ジェスチャ入力に用いる手の左右を予め決めておくことで、手の平側と手の甲側とで指先の位置関係が図8に示したように異なることに基づき、画像に映る手の平の向きを判定することができる。例えば、比較的互いに近い位置にある人差し指、中指、薬指、小指の指先の位置と、それらに対し親指が左右のどちら側に位置するかによって手の平か手の甲かを判定しても良い。
次に、ジェスチャを認識する場合の開始・終了のタイミングについて説明する。オペレータが意図しない手の動きがジェスチャ指示として認識されることを回避するために、例えば、手の移動軌跡の検出を一定時間間隔で行い、移動量が一定以下の場合には直線移動か回転移動かの識別を行わないという手法をとることができる。例えば、図6のジェスチャ教示処理を一定時間間隔で繰り返し起動し、ステップS13においてハフ変換により直線移動又は回転移動と識別された手の移動軌跡の移動量が一定以下である場合に識別不可と判定しても良い。これにより、オペレータが意図しない手の動きがジェスチャ指示として認識されることを回避することができる。なお、ステップS11での手の平の向き認識において例えば指先が認識できないような場合にも、ステップS13において認識不可と判定しても良い。
以上説明したように本実施形態によれば、よりいっそう高い自由度が有り且つ直感的な操作でロボットの教示を行うことが可能となる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
上述した実施形態において、軌跡検出部311、識別部312、指令生成部313の各機能ブロックは、ロボット教示装置30に配置されているが、これらの機能の少なくとも一部がロボット制御装置20側に配置されていても良い。
ロボット教示装置30は、画像取得装置34として距離画像カメラ及び2次元カメラの双方を有していても良い。この場合、距離画像カメラと2次元カメラとを、互いの位置関係(すなわち、互いの画像の画素配置の関係)が既知となるように配置する。このような構成においては、上述した実施形態で説明した距離画像カメラを用いる場合の各種認識手法と、2次元カメラを用いた場合の各種認識手法を併用することができる。
上述した実施形態に示したジェスチャ教示処理や手の平向き認識処理を実行するプログラムは、コンピュータに読み取り可能な各種記録媒体(例えば、ROM、EEPROM、フラッシュメモリ等の半導体メモリ、磁気記録媒体、CD−ROM、DVD−ROM等の光ディスク)に記録することができる。
10 ロボット
20 ロボット制御装置
30 ロボット教示装置
31 CPU
32 メモリ
33 通信インタフェース
34 画像取得装置
35 操作部
36 表示部
100 ロボットシステム
311 軌跡検出部
312 識別部
313 指令生成部

Claims (5)

  1. ロボットを教示するロボット教示装置であって、
    撮像対象の距離情報を表す距離画像、又は、前記撮像対象の2次元画像を動画として取得する画像取得装置と、
    前記動画を用いて、前記動画内に前記撮像対象として写されたオペレータの手の移動軌跡を検出する軌跡検出部と、
    検出された前記移動軌跡が直線移動を表すか又は回転移動を表すかを識別する識別部と、
    前記移動軌跡が直線移動を表すと識別された場合には前記ロボットの所定の可動部位を前記移動軌跡に基づいて並進移動させ、前記移動軌跡が回転移動を表すと識別された場合には前記ロボットの前記所定の可動部位を前記移動軌跡に基づいて回転移動させる指令を出力する指令生成部と、
    を備えるロボット教示装置。
  2. 前記軌跡検出部は、前記ロボットと前記画像取得装置との相対位置関係を表す情報に基づいて、ロボット座標系における座標値として前記移動軌跡を検出し、
    前記指令生成部は、前記識別部により前記移動軌跡が直線移動を表すと識別された場合に、前記所定の可動部位を、前記移動軌跡と平行に移動させるように前記指令を生成する、請求項1に記載のロボット教示装置。
  3. 前記軌跡検出部は、前記動画に基づいて手の平の向きを更に検出し、
    前記指令生成部は、検出された前記手の平の向きに応じて前記所定の可動部位を並進移動させる場合の移動方向を設定する、請求項1又は2に記載のロボット教示装置。
  4. 前記識別部は、前記移動軌跡が回転移動を表すと識別された場合に、ロボット座標系における座標値として前記手の回転移動の回転軸を更に検出し、
    前記指令生成部は、検出された前記手の回転移動の回転軸と平行となるように、前記所定の可動部位を回転移動させる場合の回転軸を設定する、請求項1から3のいずれか一項に記載のロボット教示装置。
  5. ロボットと、
    前記ロボットを制御するロボット制御装置と、
    請求項1から4のいずれか一項に記載のロボット教示装置と、を備え、
    前記ロボット制御装置は、前記ロボット教示装置の前記指令生成部により出力された前記指令に基づいて前記ロボットを制御する、ロボットシステム。
JP2019115464A 2019-06-21 2019-06-21 ロボット教示装置及びロボットシステム Active JP7359577B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019115464A JP7359577B2 (ja) 2019-06-21 2019-06-21 ロボット教示装置及びロボットシステム
US16/891,071 US11478922B2 (en) 2019-06-21 2020-06-03 Robot teaching device and robot system
CN202010542856.7A CN112109069A (zh) 2019-06-21 2020-06-15 机器人示教装置以及机器人系统
DE102020115670.7A DE102020115670A1 (de) 2019-06-21 2020-06-15 Roboter-lerngerät und robotersystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019115464A JP7359577B2 (ja) 2019-06-21 2019-06-21 ロボット教示装置及びロボットシステム

Publications (2)

Publication Number Publication Date
JP2021000694A true JP2021000694A (ja) 2021-01-07
JP7359577B2 JP7359577B2 (ja) 2023-10-11

Family

ID=73654146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019115464A Active JP7359577B2 (ja) 2019-06-21 2019-06-21 ロボット教示装置及びロボットシステム

Country Status (4)

Country Link
US (1) US11478922B2 (ja)
JP (1) JP7359577B2 (ja)
CN (1) CN112109069A (ja)
DE (1) DE102020115670A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110238831B (zh) * 2019-07-23 2020-09-18 青岛理工大学 基于rgb-d图像及示教器的机器人示教系统及方法
JP2022100660A (ja) * 2020-12-24 2022-07-06 セイコーエプソン株式会社 ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラム、並びに、ロボットの制御プログラムを作成する方法及びシステム
US11999060B2 (en) * 2020-12-28 2024-06-04 Cloudminds Robotics Co., Ltd. Action learning method, medium, and electronic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018015863A (ja) * 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
JP5573275B2 (ja) * 2010-03-25 2014-08-20 富士ゼロックス株式会社 特徴点抽出装置及びこれを用いた動作教示装置、動作処理装置
JP5921248B2 (ja) * 2012-02-16 2016-05-24 キヤノン株式会社 ロボットの制御装置、ロボット、そのプログラム及びその制御方法
US20140022171A1 (en) * 2012-07-19 2014-01-23 Omek Interactive, Ltd. System and method for controlling an external system using a remote device with a depth sensor
CN104936748B (zh) * 2012-12-14 2017-10-27 Abb技术有限公司 徒手机器人路径教导
JP6228079B2 (ja) * 2014-07-16 2017-11-08 本田技研工業株式会社 移動ロボットの動作目標生成装置
JP6038417B1 (ja) 2016-01-29 2016-12-07 三菱電機株式会社 ロボット教示装置及びロボット制御プログラム作成方法
JP2018010538A (ja) * 2016-07-14 2018-01-18 株式会社東海理化電機製作所 画像認識装置
JP2018077744A (ja) * 2016-11-11 2018-05-17 株式会社東海理化電機製作所 ジェスチャ判定装置及びジェスチャ判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018015863A (ja) * 2016-07-29 2018-02-01 川崎重工業株式会社 ロボットシステム、教示データ生成システム及び教示データ生成方法

Also Published As

Publication number Publication date
US20200398420A1 (en) 2020-12-24
JP7359577B2 (ja) 2023-10-11
DE102020115670A1 (de) 2020-12-24
CN112109069A (zh) 2020-12-22
US11478922B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
KR102292028B1 (ko) 제스처 인식 방법, 장치, 전자 기기 및 저장 매체
WO2019114339A1 (zh) 机械臂运动的校正方法和装置
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
TWI454968B (zh) 三維互動裝置及其操控方法
US11478922B2 (en) Robot teaching device and robot system
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
CN112276936A (zh) 三维数据生成装置以及机器人控制系统
JP6141108B2 (ja) 情報処理装置およびその方法
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
EP3185106A1 (en) Operating apparatus, control method therefor, program, and storage medium storing program
JP5174492B2 (ja) 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
CN110363811B (zh) 用于抓取设备的控制方法、装置、存储介质及电子设备
JP2016071547A (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
WO2018135326A1 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP2021021577A (ja) 画像処理装置及び画像処理方法
WO2012105228A2 (en) Imaging apparatus and imaging condition setting method and program
JP2017162251A (ja) 3次元非接触入力装置
JP2018185563A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム
JP2005332229A (ja) 姿勢検出装置、姿勢検出方法、この方法のプログラム
WO2024161891A1 (ja) 処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7359577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150