JP7306871B2 - ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置 - Google Patents

ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置 Download PDF

Info

Publication number
JP7306871B2
JP7306871B2 JP2019091299A JP2019091299A JP7306871B2 JP 7306871 B2 JP7306871 B2 JP 7306871B2 JP 2019091299 A JP2019091299 A JP 2019091299A JP 2019091299 A JP2019091299 A JP 2019091299A JP 7306871 B2 JP7306871 B2 JP 7306871B2
Authority
JP
Japan
Prior art keywords
robot
image
camera
robot arm
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019091299A
Other languages
English (en)
Other versions
JP2020185639A (ja
Inventor
テイテイ 鐘
象太 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019091299A priority Critical patent/JP7306871B2/ja
Priority to US16/848,079 priority patent/US11618166B2/en
Priority to CN202010357785.3A priority patent/CN111941392A/zh
Priority to DE102020112049.4A priority patent/DE102020112049A1/de
Publication of JP2020185639A publication Critical patent/JP2020185639A/ja
Application granted granted Critical
Publication of JP7306871B2 publication Critical patent/JP7306871B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40003Move end effector so that image center is shifted to desired position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ロボット操作装置、ロボットおよびロボット操作方法に関するものである。
ロボットに作業を実行させるためには、作業内容に応じた動作をロボットに教示する教示操作が必要である(例えば、特許文献1から4参照。)。
特開平06-190756号公報 特開2006-289531号公報 特開2018-126857号公報 特開2009-241247号公報
ロボットの一般的な教示方法には、操作者が可搬式の教示操作装置を用いてロボットを遠隔操作するリモートティーチと、操作者がロボットの一部を持ちロボットを直接操作するダイレクトティーチとがある。これらの教示方法において、操作者は、ロボットと周辺機器や作業対象物との相対位置を目視で確認しながら、ロボットを目標位置へ移動させる。作業対象物がロボットまたは周辺機器等によって遮られて見えない場合、操作者は、姿勢を変更したり他の位置に移動したりして視点を変更しなければならない。周辺機器が多い場合には、視点を頻繁に変更する必要がある。
本開示の一態様は、ロボットアームに取り付けられ、画像を取得するカメラと、該カメラによって取得された前記画像を表示する表示部と、該表示部に表示された前記画像に対する操作を受け付ける操作受付部と、該操作受付部が受け付けた前記操作に基づいて前記ロボットアームを動作させる制御部と、を備え、前記操作受付部が、前記画像内の任意の位置を指示する操作を受け付けた際に、前記制御部は、前記ロボットアームの座標系における前記ロボットアームの先端および前記カメラのうち少なくとも一方の位置または姿勢と前記位置を指示する操作に基づいて前記ロボットアームを動作させることによって、前記指示された位置を前記画像内の所定位置に向かって移動させるロボット操作装置である。
一実施形態に係るロボットの全体構成図である。 ロボット制御装置の操作盤の一例を示す図である。 ロボット制御装置の動作を示すフローチャートである。 (a)画像に対するタップ操作と、(b)タップ操作に基づく画像の変化とを説明する図である。 (a)画像に対するピンチアウト操作と、(b)ピンチアウト操作による画像の変化とを説明する図である。 (a)画像に対する回転操作と、(b)回転操作に基づく画像の変化とを説明する図である。
以下に、一実施形態に係るロボット操作装置およびロボット100について図面を参照して説明する。
図1に示されるように、ロボット100は、ロボット機構部2と、ロボット機構部2を制御するロボット制御装置1と、ロボット機構部2に取り付けられるカメラ3と、を備える。ロボット操作装置は、少なくともロボット制御装置1およびカメラ3から構成される。
ロボット機構部2は、少なくとも1つの関節を有するロボットアーム2aを備え、ロボットアーム2aの先端の手首フランジ2bには作業用のツール2cが接続されている。例えば、ロボット機構部2は、6軸J1~J6の垂直多関節ロボットであり、ロボットアーム2aの各関節を駆動するためのサーボモータと、各関節の回転角度を検出するエンコーダと、を備える。ツール2cは、例えば、作業対象物Aを把持するハンド、または、作業対象物Aに対して加工、検査または溶接等の作業を行うツールである。
カメラ3は、2次元カメラである。カメラ3は、手首フランジ2bまたは手首フランジ2bの近傍に取り付けられ、例えば、ツール2cに取り付けられる。カメラ3は、ツール2cの前方を含むツール2cの周辺のライブビュー画像Bを取得する。カメラ3は、視野内の作業対象物A等の物体に焦点を自動で合わせるオートフォーカス機能を有していてもよい。カメラ3は、3次元カメラであってもよい。
カメラ3は、教示モードの実行時に手首フランジ2bまたはツール2cに一時的に取り付けられる。あるいは、カメラ3は、ロボット機構部2の作業中に作業対象物Aを認識するためにロボットアーム2aの先端部またはツール2cに常時取り付けられるカメラであってもよい。
ロボット制御装置1は、ロボット機構部2およびカメラ3と接続されロボット機構部2およびカメラ3とを制御する制御部4と、制御部4に接続され操作者によって操作される可搬式の操作盤5と、を備える。
制御部4は、プロセッサ(図示略)と、RAMおよびROM等を有する記憶部(図示略)と、を備える。制御部4は、各サーボモータに制御指令を送信することによって、ロボットアーム2aを動作させる。また、制御部4は、各エンコーダからの検出値に基づき、手首フランジ2bの位置および姿勢を算出することができる。制御部4は、自動モードおよび教示モードのいずれかでロボット機構部2を制御する。自動モードは、記憶部に記憶された動作プログラムに従ってロボット機構部2を制御するモードである。教示モードは、操作盤5を用いてロボット機構部2の動作を教示するモードである。
操作盤5は、カメラ3によって取得された画像Bを表示する表示部6と、表示部6に表示された画像Bに対する操作者の操作を受け付ける操作受付部7と、を備える。
図2は、操作盤5の一例を示している。操作盤5は、タッチディスプレイ8と、ジョグボタン9と、を備える。タッチディスプレイ8およびジョグボタン9は、教示モードにおいて、操作者によるロボットアーム2aの手動操作に使用される。操作者は、後述するように、タッチディスプレイ8へのタッチ操作によって、手首フランジ2bを所望の方向に移動させることができる。また、操作者は、ジョグボタン9を押下することによって、手首フランジ2bを所望の方向に所定距離ずつ移動させたり、手首フランジ2bを所望の方向に所定角度ずつ回転させたりすることができる。また、操作者は、別途用意したジョイスティック(図示略)を傾斜させることによって、手首フランジ2bを所望の方向に移動させてもよい。
操作盤5に、タッチディスプレイ8およびジョグボタン9によるロボットアーム2aの操作の有効と無効とを切り替える切替スイッチ11が設けられていてもよい。例えば、タッチディスプレイ8およびジョグボタン9の内、切替スイッチ11によって選択された一方のみが有効化され、他方が無効化されるように構成されていてもよい。
操作盤5に、ロボットアーム2aの手動操作の有効と無効とを切り替えるデッドマンスイッチ12が設けられていてもよい。操作盤5を把持する操作者の手によってデッドマンスイッチ12が押下されているときのみ、ロボットアーム2aの手動操作が有効化される。
表示部6および操作受付部7は、タッチディスプレイ8である。すなわち、表示部6は、液晶パネルまたは有機ELパネルのような表示パネルであり、操作受付部7は、表示パネル上に配置された透明なタッチパネル(タッチ操作部)である。
カメラ3によって取得されたライブビュー画像Bは、カメラ3から制御部4を経由して操作盤5に送信され、表示部6に表示される。
操作受付部7は、表示部6に表示された画像Bに対する操作者の指Fのタップ操作を受け付け、画像B内の指Fのタップ位置の情報を含む移動操作信号を制御部4に送信する。
教示モードにおいて、制御部4は、操作受付部7からの移動操作信号に基づき、ロボット機構部2およびカメラ3を制御する。次に、教示モードでのロボット制御装置1によるロボット機構部2の操作方法(ロボット操作方法)について、図3を参照して説明する。制御部4による以下の処理および制御は、記憶部に記憶された操作プログラムに従ってプロセッサが処理を実行することによって実現される。
制御部4は、例えば、操作盤5の起動時に、または操作者の所定の操作に基づいて、カメラ3に画像Bの取得を開始させる。
まず、操作者は、ロボットアーム2aを移動させ、教示すべき目標位置が表示部6の画像B内に観察される位置にロボットアーム2aを配置する。例えば、コンベアC上の作業対象物Aをツール2cによって把持するときの位置が目標位置である場合、操作者は、作業対象物Aが画像B内に観察される位置にロボットアーム2aを配置する。このときのロボットアーム2aの操作は、タッチディスプレイ8、ジョグボタン9またはジョイスティックのいずれの操作によって行われてもよい。あるいは、操作者がロボットアーム2aの一部を把持してロボットアーム2aを直接移動させてもよい。
次に、操作者は、図4(a)に示されるように、表示部6に表示されている画像B内の作業対象物Aの位置をタップする。画像Bに対する操作者のタップ操作は、操作受付部7によって受け付けられ、操作受付部7から制御部4に移動操作信号が送信される(ステップS1)。
制御部4は、操作受付部7から移動操作信号に応答し、カメラ3に静止画像を取り込ませる(ステップS2)。次に、制御部4は、カメラ3から静止画像を受信し、静止画像を記憶する。また、制御部4は、タップ位置を含むタップ位置の周辺画像をテンプレート画像として静止画像から切り出し、テンプレート画像を記憶する(ステップS3)。
次に、制御部4は、タップ位置が画像B内の所定位置に配置されるように、ロボットアーム2aを移動させる(ステップS4~S7)。所定位置は、画像B内の任意の位置であり、例えば、画像Bの中心である。以下、所定位置が画像Bの中心である場合について説明する。
制御部4は、静止画像内のタップ位置と中心位置との差に基づき、タップ位置を中心に移動させるために必要なロボットアーム2aの移動量を計算する(ステップS4)。例えば、制御部4は、予め設定された1画素当たりのロボットアーム2aの移動量と、タップ位置と中心位置との間の画素数とに基づき、手首フランジ2bの移動量を計算し、算出された移動量だけ手首フランジ2bを移動させるための各関節の回転量を計算する。次に、制御部4は、算出された移動量だけロボットアーム2aを移動させる(ステップS5)。
ステップS5のロボットアーム2aの移動によってカメラ3が移動するので、図4(b)に示されるように、表示部6に表示される画像Bにおいて作業対象物Aが中心に向かって移動する。このときに、カメラ3と作業対象物Aとの間の距離に応じて、ロボットアーム2aの移動による画像B内の作業対象物Aの移動量は異なる。したがって、ロボットアーム2aの移動後、タップ位置の作業対象物Aが必ずしも画像Bの中心に位置するとは限らない。
次に、制御部4は、ロボットアーム2aの移動後の静止画像をカメラ3に取り込ませ(ステップS6)、カメラ3から静止画像を受信する。次に、制御部4は、ロボットアーム2aの移動後の静止画像から、中心位置を含む中心位置の周辺画像を切り出し、切り出した周辺画像をテンプレート画像と比較することによって、タップ位置が中心に移動したか否かを判断する(ステップS7)。例えば、制御部4は、切り出した周辺画像とテンプレート画像との位置ずれ量が所定値以下である場合には、タップ位置が中心に移動したと判断し、位置ずれ量が所定値よりも大きい場合には、タップ位置が中心に移動していないと判断する。
タップ位置が中心に移動していない場合(ステップS7のNO)、制御部4は、ステップS6で受信した静止画像内のタップ位置と中心位置との差に基づき、タップ位置を中心に移動させるために必要なロボットアーム2aの移動量を計算し(ステップS4)、続いてステップS5~S7を実行する。制御部4は、タップ位置が中心に移動するまで(ステップS7のYES)、ステップS4~S7を繰り返す。
ステップS4~S7の結果、画像B内において作業対象物Aが中心または中心近傍に配置されたときに、ロボットアーム2aは停止する。
次に、操作者は、操作盤5に設けられた記憶ボタン(図示略)を押下する。記憶ボタンの押下によって、画像Bの中心に作業対象物Aが位置するときのロボットアーム2aの位置および姿勢が制御部4に記憶される。
このように、本実施形態によれば、操作者は、作業対象物Aの画像Bを可搬式の操作盤5上で観察し、画像B内の作業対象物Aの位置を指Fでタップするだけの簡単な操作によって、ロボットアーム2aを目標位置に移動させることができる。すなわち、操作者は、作業対象物Aを直接視認できない位置においてもカメラ3を介して作業対象物Aを観察することができるので、ロボットアーム2aと作業対象物Aとの相対位置を観察するために移動したり姿勢を変更したりする必要がない。したがって、例えば、操作者の作業空間とロボット機構部2の作業空間とが壁で隔離されている状況や、ロボット機構部2が多数の周辺機器で囲まれている状況においても、操作者は、ロボット機構部2の教示操作を楽に行うことができる。
また、操作者は、ロボット機構部2に近付く必要がないので、ロボット機構部2から離れた位置においてロボット機構部2の教示操作を行うことができる。大型のロボット機構部2の場合、動作するロボット機構部2の近くでの教示操作は、操作者にとって心理的負担が大きい。本実施形態によれば、このような操作者の心理的負担を軽減することができる。
操作者は、タッチディスプレイ8のタップ操作によってロボットアーム2aを移動させた後に、ジョグボタン9またはジョイスティックによって、作業対象物Aに対してツール2cをさらに精密に位置合わせしてもよい。
前述したように、カメラ3と作業対象物Aとの間の距離に応じて、ロボットアーム2aの移動量と画像B内の作業対象物Aの移動量との関係が異なる。さらに、カメラ3の位置とツール2cの位置との間には空間的なずれがある。これらの理由により、画像Bのタップ操作によって、作業対象物Aに対してツール2cを精密に位置合わせすることは難しい。したがって、タッチディスプレイ8のタップ操作によるロボットアーム2aの大まかな位置合わせと、ジョグボタン9またはジョイスティックの操作によるロボットアーム2aの精密な位置合わせとを組み合わせて用いてもよい。
上記実施形態において、制御部4によるステップS6およびS7の処理は、省略されてもよい。すなわち、制御部4は、ステップS4で算出された移動量だけロボットアーム2aを一度だけ移動させてもよい。
この場合、操作者は、表示部6に表示された画像Bにおいて、作業対象物Aが中心に移動したか否かを判断する。作業対象物Aが中心に移動していない場合、操作者は、画像B内の作業対象物Aの位置を再びタップすることによって、ロボットアーム2aを再び移動させる。これにより、画像B内で作業対象物Aが中心により近付く。タップを複数回繰り返すことによって、操作者は、画像Bの中心に作業対象物Aを移動させることができる。
ステップS4において、制御部4は、ロボットアーム2aの移動量と画像B内の物体の移動量との関係を算出し、算出された関係に基づいてロボットアーム2aの移動量を算出してもよい。
例えば、制御部4は、ステップS5において、前記関係を算出するキャリブレーション処理を最初に実行する。キャリブレーション処理の一例において、制御部4は、手首フランジ2bを所定量だけ移動させ、手首フランジ2bの移動開始時および終了時の静止画像間の物体の移動量を算出し、手首フランジ2bの単位移動量当たりの画像B内の物体の移動量を算出する。
これにより、タップ位置を中心に移動させるために必要なロボットアーム2aの移動量をより正確に算出することができる。特に、画像B内の物体の移動量として、タップ位置の物体である作業対象物Aの移動量を用いることによって、ロボットアーム2aの必要な移動量をさらに正確に算出することができる。
ロボットアーム2aの移動に伴って作業対象物Aの位置が画像Bの奥行方向にも変化する場合、ロボットアーム2aの移動量と画像B内の物体の移動量との関係が経時変化する。ロボットアーム2aの移動中、ロボット制御装置1は、カメラ3によって取得された画像B内の物体の移動量を逐次計算することによって、ロボットアーム2aの移動量と画像B内の物体の移動量との関係を逐次更新し、更新された関係に基づいてロボットアーム2aの移動量を計算し直してもよい。これにより、タップ位置を中心に移動させるために必要なロボットアーム2aの移動量をさらに正確に算出することができる。
このときに、制御部4は、操作者によって指定された物体の画像内の移動量を計算してもよい。例えば、操作者は、表示部6に表示された画像B内の複数の物体の内、作業対象物Aをタッチすることによって、作業対象物Aを指定する。これにより、制御部4は、画像B内の作業対象物Aの移動量に基づいてロボットアーム2aの移動量を適切に算出することができる。
表示部6に表示される画像Bに、画像Bの縮尺を表すスケール14が表示されていてもよい。例えば、ロボット制御装置1は、ロボットアーム2aの移動量と画像B内の物体の移動量との関係に基づいて、実際の距離を表すスケール14を作成し、スケール14を表示部6に表示されている画像B上に重畳させてもよい。
上記実施形態において、操作受付部7が、画像B内の任意の位置を指示する操作としてタップ操作を受け付けることとしたが、これに代えて、他のタッチ操作を受け付けてもよい。
例えば、操作受付部7は、画像Bに対するスワイプ操作を受け付けてもよい。この場合、操作受付部7は、スワイプ操作の始点および終点を含む移動操作信号をロボット制御装置1に送信し、ロボット制御装置1は、始点を終点(所定位置)に向かって移動させるようにロボットアーム2aを移動させてもよい。
上記実施形態において、操作受付部7が、画像B内の任意の位置を指示するタップ操作を受け付けることとしたが、これに加えて、またはこれに代えて、画像Bに対するズーム指示の操作を受け付けてもよい。
例えば、図5(a)に示されるように、操作受付部7は、表示部6に表示された画像Bに対するピンチアウト操作(タッチ操作)およびピンチイン操作(タッチ操作)をズームイン指示およびズームアウト指示としてそれぞれ受け付ける。ピンチアウト操作は、タッチディスプレイ8に接触する2本の指F1,F2間の距離を広げる操作であり、ピンチイン操作は、タッチディスプレイ8に接触する2本の指F1,F2間の距離を縮める操作である。操作受付部7は、ズームイン操作信号またはズームアウト操作信号を制御部4に送信する。
制御部4は、操作受付部7からのズームイン操作信号に応答して、手首フランジ2bを作業対象物Aに近付けるようにロボットアーム2aを移動させる。これにより、カメラ3が作業対象物Aに向かって光軸方向に移動し、図5(b)に示されるように、表示部6に表示される画像B内の作業対象物Aが拡大される。
また、制御部4は、操作受付部7からのズームアウト操作信号に応答して、手首フランジ2bを作業対象物Aから遠ざけるようにロボットアーム2aを移動させる。これにより、カメラ3が作業対象物Aとは反対側に向かって光軸方向に移動し、表示部6に表示される画像B内の作業対象物Aが縮小される。
ツール2cと作業対象物Aとの相対位置を操作者が目視で確認する場合、作業対象物Aに対するツール2cの精密な位置合わせの際に、操作者は、ツール2cおよび作業対象物Aのすぐ近くに寄る必要がある。
本実施形態によれば、作業対象物Aをカメラ3によって拡大観察することによって、ツール2cおよび作業対象物Aから離れた位置において、作業対象物Aに対してツール2cを精密に位置合わせすることができる。
ロボットアーム2aの移動量と画像B内の物体の移動量との関係は、ズームによって変化する。したがって、制御部4は、ズームによる画像B内の物体の倍率の変化に応じて、ロボットアーム2aの移動量を変更してもよい。例えば、ズームインによって画像B内の物体が3倍に拡大された場合、制御部4は、ロボットアーム2aの移動量をズームイン前の3分の1に低下させてもよい。
カメラ3が、ズーム機能を有する場合、制御部4は、ロボットアーム2aの移動によってカメラ3を光軸方向に移動させることに代えて、カメラ3を制御してカメラ3のズーム倍率を変更してもよい。すなわち、制御部4は、ズームイン指示に応答してカメラ3のズーム倍率を増大させ、ズームアウト指示に応答してカメラ3のズーム倍率を低下させてもよい。
操作受付部7は、画像Bに対する回転指示の操作を受け付けてもよい。
例えば、図6(a)に示されるように、操作受付部7は、タッチディスプレイ8に接触する2本の指F1,F2を時計回りまたは反時計回りに回転させる操作(タッチ操作)を回転指示として受け付ける。操作受付部7は、指F1,F2の回転方向および回転角度の情報を含む回転操作信号を制御部4に送信する。
制御部4は、操作受付部7からの回転操作信号に応答して、指F1,F2の回転方向と対応する方向に、指F1,F2の回転角度と同一角度だけ、手首フランジ2bを回転させる。これにより、カメラ3が光軸回りまたは光軸に平行な軸回りに回転し、図6(b)に示されるように、表示部6に表示される画像Bにおいて作業対象物AおよびコンベアCが時計回りまたは反時計回りに回転する。
カメラ3の光軸が手首フランジ2bの回転軸J6に対して偏心し回転軸J6との間に距離がある場合、手首フランジ2bが回転軸J6回りに回転したときに、画像Bは、画像Bの中心ではなく、回転軸J6回りに回転する。制御部4は、回転軸J6回りにカメラ3を回転させてもよい。あるいは、画像B内の作業対象物Aを画像Bの中心回りに回転させるために、制御部4は、カメラ3の光軸と回転軸J6との位置関係に基づき、カメラ3の光軸回りにカメラ3が回転するように、ロボットアーム2aを移動させてもよい。
上記実施形態において、表示部6に表示された画像Bのタッチ操作によるロボットアーム2aの操作の有効と無効とを切り替えるスイッチが、操作盤5に設けられていてもよい。このスイッチは、例えば、デッドマンスイッチ12のように、操作者の手によって押下されているときにのみ、画像Bのタッチ操作によるロボットアーム2aの操作を有効化してもよい。また、スイッチは、移動、ズームおよび回転の各々の操作に対して設けられていてもよい。
上記実施形態において、画像Bに対する操作に基づき、表示部6に表示されている画像Bがデジタル処理によって移動、ズームおよび回転するように構成されていてもよい。
この場合、上記のタッチ操作によるロボットアーム2aの操作の有効と無効とを切り替えるスイッチが設けられる。ロボットアーム2aの操作が無効であるとき、操作盤5は、画像Bに対する操作に基づくデジタル処理を画像Bに施し、デジタル処理された画像Bを表示部6に表示させる。
上記実施形態において、操作受付部7が、タッチパネルであり、画像Bに対するタッチ操作を受け付けることとしたが、これに代えて、マウス等の他のデバイスによる操作を受け付けてもよい。
例えば、操作受付部7は、画像Bの位置を指示する操作として、操作盤5に接続されたマウスのクリック操作を受け付けてもよい。この場合、制御部4は、タップ位置に代えて、画像B内のクリック位置を用いる。また、操作受付部7は、画像Bのズーム指示の操作として、マウスのホイールの回転操作を受け付けてもよい。
上記実施形態において、制御部4は、ロボットアーム2aの動作に所定の制限をかけながらロボットアーム2aを制御してもよい。例えば、制御部4は、手首フランジ2bの鉛直方向の位置を一定に維持しながらロボットアーム2aを動作させることによって、手首フランジ2bおよびカメラ3を水平方向にのみ移動させてもよい。あるいは、制御部4は、一部の所定の関節のみを回転させることによって、手首フランジ2bおよびカメラ3を所定の軸回りにのみ移動させてもよい。
6軸J1~J6の垂直多関節ロボット2の場合、ロボットアーム2aの動きの自由度が高いため、操作者は、ロボットアーム2aの動きを予測し難いことがある。ロボットアーム2aの動作に制限をかけ手首フランジ2bおよびカメラ3の動きを単純化することによって、操作者は、画像Bに対して操作したときのロボットアーム2aの動作を容易に予測することができ、ロボットアーム2aの操作性を向上することができる。
上記実施形態において、ロボット制御装置1が、図1に示されるように、カメラ3に取り付けられた9軸センサ13をさらに備えていてもよい。
9軸センサ13は、3軸加速度センサ、3軸角速度センサおよび3軸地磁気センサを含み、センサ座標系でのカメラ3の位置および姿勢に加えて、ワールド座標系でのカメラ3の姿勢を検出する。センサ座標系は、9軸センサ13に対して固定された座標系である。ワールド座標系は、ロボット機構部2のベース2dに対して(すなわち、地面または床面に対して)固定された座標系であり、制御部4がロボットアーム2aの制御に用いるロボットアーム2aの座標系である。したがって、制御部4は、9軸センサ13の検出値から、ワールド座標系でのカメラ3の動き(移動軌跡)および姿勢を推定することができる。
9軸センサ13が設けられている場合、制御部4は、9軸センサ13の検出値から推定されるカメラ3の姿勢に基づき、カメラ3が所定の姿勢で所定の方向に移動するように、ロボットアーム2aを制御してもよい。例えば、制御部4は、カメラ3を鉛直下方に向けたまま水平方向に並進移動させるように、ロボットアーム2aを制御してもよい。
手首フランジ2bから離れた位置にカメラ3が取り付けられている場合、手首フランジ2bの動きとカメラ3の動きとの間に差が生じる。9軸センサ13を用いてカメラ3の動きを直接検出することによって、制御部4は、手首フランジ2bの動きとカメラ3の動きとの関係を把握し、カメラ3の動きをロボットアーム2aの動きによって制御することができる。
例えば、前述したように、手首フランジ2bの回転軸J6とカメラ3の光軸との間に距離がある場合、手首フランジ2bが回転したときに画像Bは手首フランジ2bの回転軸J6回りに回転する。画像Bを中心回りに回転させるために、制御部4は、手首フランジ2bの動きとカメラ3の動きとの関係に基づき、カメラ3が光軸回りに回転するようにロボットアーム2aを移動させてもよい。
例えば、カメラ3が着脱式である場合、ロボットアーム2aまたはツール2cにカメラ3を取り付ける度に、手首フランジ2bに対するカメラ3の位置および姿勢が異なり得る。9軸センサ13を用いることによって、ロボット制御装置1は、ワールド座標系でのカメラ3の動きおよび姿勢を推定することができるので、手首フランジ2bに対するカメラ3の位置および姿勢を設定するための煩雑なキャリブレーションが不要である。したがって、簡単な設定のみで制御部4によってカメラ3の動きを正確に制御することができる。
ロボットアーム2aの動作可能範囲内に、ロボットアーム2aの侵入を禁止する侵入禁止領域が設定されていることがある。このような場合、ロボット制御装置1は、操作盤5を介して侵入禁止領域を操作者に報知してもよい。例えば、タップ位置が侵入禁止領域内の位置である場合、ロボット制御装置1は、その旨を示す表示を表示部6に表示させてもよい。
上記実施形態において、ロボット操作装置が、カメラ3を1つのみ備えることとしたが、これに代えて、複数のカメラ3を備えていてもよい。この場合、表示部6は、複数のカメラ3によって取得された画像Bを表示してもよい。
上記実施形態において、ロボット機構部2は、6軸の垂直多関節ロボットであることとしたが、これに代えて、他の種類のロボットであってもよい。例えば、ロボット機構部2は、6軸以外の軸数の垂直多関節ロボット、水平多関節ロボットまたはパラレルリンクロボットであってもよい。
1 ロボット制御装置(ロボット操作装置)
2 ロボット機構部
2a ロボットアーム
3 カメラ(ロボット操作装置)
4 制御部
6 表示部
7 操作受付部、タッチセンサ(タッチ操作部)
8 タッチディスプレイ(表示部、操作受付部)
13 9軸センサ
100 ロボット
B 画像

Claims (14)

  1. ロボットアームに取り付けられ、画像を取得するカメラと、
    該カメラによって取得された前記画像を表示する表示部と、
    該表示部に表示された前記画像に対する操作を受け付ける操作受付部と、
    該操作受付部が受け付けた前記操作に基づいて前記ロボットアームを動作させる制御部と、を備え、
    前記操作受付部が、前記画像内の任意の位置を指示する操作を受け付けた際に、
    前記制御部は、前記ロボットアームの座標系における前記ロボットアームの先端および前記カメラのうち少なくとも一方の位置または姿勢と前記位置を指示する操作に基づいて前記ロボットアームを動作させることによって、前記指示された位置を前記画像内の所定位置に向かって移動させるロボット操作装置。
  2. 前記制御部が、
    前記ロボットアームの移動量と前記画像内の物体の移動量との関係を算出し、
    算出された前記関係に基づいて、前記指示された位置を前記所定位置に移動させるために必要な前記ロボットアームの移動量を算出する、請求項に記載のロボット操作装置。
  3. 前記操作受付部が、前記表示部に表示された前記画像のズーム指示の操作を受け付け、
    前記制御部は、前記操作受付部が受け付けた前記ズーム指示の操作に基づき、前記カメラを該カメラの光軸方向に移動させるように前記ロボットアームを動作させる、請求項1または請求項に記載にロボット操作装置。
  4. 前記操作受付部が、前記表示部に表示された前記画像の回転指示の操作を受け付け、
    前記制御部は、前記操作受付部が受け付けた前記回転指示の操作に基づき、前記カメラを該カメラの光軸回りまたは該光軸に平行な軸回りに回転させるように前記ロボットアームを動作させる、請求項1から請求項のいずれかに記載にロボット操作装置。
  5. 前記操作受付部が、前記表示部に設けられ、タッチ操作を受け付けるタッチ操作部を備え
    前記画像内の任意の位置を指示する操作が、該任意の位置のタップ操作である、請求項1から請求項のいずれかに記載のロボット操作装置。
  6. 前記カメラに取り付けられた9軸センサを備え、
    前記制御部が、前記9軸センサによって検出された検出値に基づいて、前記ロボットアームの座標系における前記カメラの姿勢を推定し、該カメラの姿勢に基づいて前記ロボットアームを制御する、請求項1から請求項のいずれかに記載のロボット操作装置。
  7. 前記画像内の所定位置は、前記画像の中心位置である、請求項1から請求項6のいずれかに記載のロボット操作装置。
  8. ロボット機構部と、
    請求項1から請求項7のいずれかに記載されたロボット操作装置と、を備えるロボット。
  9. ロボットアームに設けられたカメラによって取得された画像を表示部に表示させるステップと、
    表示された前記画像に対する操作を受け付けるステップと、
    前記操作に基づいて前記ロボットアームを制御するステップと、を備え、
    前記操作を受け付けるステップが、前記画像内の任意の位置を指示する操作を受け付けた際に、
    前記制御するステップは、前記ロボットアームの座標系における前記ロボットアームの先端および前記カメラのうち少なくとも一方の位置または姿勢と前記位置を指示する操作とに基づいて、前記指示された位置を前記画像内の所定位置に向かって移動するように前記ロボットアームを動作させる、方法。
  10. 前記操作を受け付けるステップが、前記表示部に表示された前記画像のズーム指示の操作を受け付け、
    前記制御するステップは、前記ズーム指示の操作に基づき、前記カメラを該カメラの光軸方向に移動させるように前記ロボットアームを動作させる、請求項9に記載の方法。
  11. 前記操作を受け付けるステップが、前記表示部に表示された前記画像の回転指示の操作を受け付け、
    前記制御するステップは、前記回転指示の操作に基づき、前記カメラを該カメラの光軸回りまたは該光軸に平行な軸回りに回転させるように前記ロボットアームを動作させる、請求項9または請求項10に記載の方法。
  12. 前記画像内の所定位置は、前記画像の中心位置である、請求項9から請求項11のいずれかに記載の方法。
  13. 請求項9から請求項12のいずれかに記載の方法を少なくとも1つのプロセッサに実行させるプログラム。
  14. 少なくとも1つのメモリと、
    少なくとも1つのプロセッサと、を備え、
    該少なくとも1つのプロセッサは、請求項9から請求項12のいずれかに記載の方法を実行する、ロボット制御装置。
JP2019091299A 2019-05-14 2019-05-14 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置 Active JP7306871B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019091299A JP7306871B2 (ja) 2019-05-14 2019-05-14 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置
US16/848,079 US11618166B2 (en) 2019-05-14 2020-04-14 Robot operating device, robot, and robot operating method
CN202010357785.3A CN111941392A (zh) 2019-05-14 2020-04-29 机器人操作装置、机器人及机器人操作方法
DE102020112049.4A DE102020112049A1 (de) 2019-05-14 2020-05-05 Roboterbedienvorrichtung, roboter und roboterbedienungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019091299A JP7306871B2 (ja) 2019-05-14 2019-05-14 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置

Publications (2)

Publication Number Publication Date
JP2020185639A JP2020185639A (ja) 2020-11-19
JP7306871B2 true JP7306871B2 (ja) 2023-07-11

Family

ID=73019396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019091299A Active JP7306871B2 (ja) 2019-05-14 2019-05-14 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置

Country Status (4)

Country Link
US (1) US11618166B2 (ja)
JP (1) JP7306871B2 (ja)
CN (1) CN111941392A (ja)
DE (1) DE102020112049A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207017B3 (de) * 2019-05-15 2020-10-29 Festo Se & Co. Kg Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
CN113664089B (zh) * 2020-05-14 2023-11-03 泰科电子(上海)有限公司 冲压料带制造系统
CN117321382A (zh) * 2021-05-20 2023-12-29 发那科株式会社 基于由视觉传感器拍摄到的图像来计算三维位置的拍摄装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351570A (ja) 2003-05-29 2004-12-16 Fanuc Ltd ロボットシステム
JP2009000782A (ja) 2007-06-21 2009-01-08 Idec Corp ロボット制御システムおよびロボットハンド
JP2011101915A (ja) 2009-11-10 2011-05-26 Yaskawa Electric Corp ロボットシステム
JP2012179682A (ja) 2011-03-01 2012-09-20 Nec Corp 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JP2017177294A (ja) 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
JP2018158429A (ja) 2017-03-23 2018-10-11 株式会社デンソーウェーブ ロボットシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104448B2 (ja) 1992-12-25 2000-10-30 三菱電機株式会社 視覚センサ付きロボットの座標系の設定方法
JP2708032B2 (ja) * 1995-12-26 1998-02-04 日本電気株式会社 ロボット教示装置
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2006289531A (ja) 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2009241247A (ja) 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP6195333B2 (ja) * 2012-08-08 2017-09-13 キヤノン株式会社 ロボット装置
JP5850962B2 (ja) * 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
WO2017085852A1 (ja) * 2015-11-19 2017-05-26 株式会社安川電機 ロボットシステム及び遠隔制御システム
JP2018012184A (ja) * 2016-07-22 2018-01-25 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
EP3366433B1 (en) 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
CN207503037U (zh) * 2017-11-23 2018-06-15 亿嘉和科技股份有限公司 机器人云台转向装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351570A (ja) 2003-05-29 2004-12-16 Fanuc Ltd ロボットシステム
JP2009000782A (ja) 2007-06-21 2009-01-08 Idec Corp ロボット制御システムおよびロボットハンド
JP2011101915A (ja) 2009-11-10 2011-05-26 Yaskawa Electric Corp ロボットシステム
JP2012179682A (ja) 2011-03-01 2012-09-20 Nec Corp 移動ロボットシステム、移動ロボット制御装置、該制御装置に用いられる移動制御方法及び移動制御プログラム
JP2017177294A (ja) 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
JP2018158429A (ja) 2017-03-23 2018-10-11 株式会社デンソーウェーブ ロボットシステム

Also Published As

Publication number Publication date
DE102020112049A1 (de) 2020-11-19
CN111941392A (zh) 2020-11-17
JP2020185639A (ja) 2020-11-19
US20200361092A1 (en) 2020-11-19
US11618166B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
EP3342561B1 (en) Remote control robot system
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP7306871B2 (ja) ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置
JP6795471B2 (ja) ロボットシステム
CN110799144B (zh) 用于远程控制系统中菜单项的选择的触觉反馈的系统和方法
US9919421B2 (en) Method and apparatus for robot path teaching
JP5526881B2 (ja) ロボットシステム
US8645098B2 (en) Hand-held device and method for detecting the spatial position of a working point of a manipulator
EP1512499A2 (en) Robot having a camera mounted at the distal end of its arm and method for operating such a robot
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
EP3512667A1 (en) Method of programming an industrial robot
JP7041492B2 (ja) ロボットシステム
EP3837095B1 (en) Method of programming an industrial robot
JP4802012B2 (ja) カメラ制御装置およびカメラ制御方法
US20220250237A1 (en) Teaching device, teaching method, and recording medium
JPH0811071A (ja) マニピュレータの制御装置
JP4558682B2 (ja) 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法
JP2008093814A (ja) 作業支援装置および方法
JP2004009209A (ja) ロボットの教示装置
JP3376029B2 (ja) ロボットの遠隔操作装置
JPH0430981A (ja) 遠隔操縦型ロボットのテレビカメラ制御装置
JPH10249786A (ja) マニピュレータの制御装置および操作支援装置
JPH07328971A (ja) Tvカメラ付マニピュレータ
JP7230626B2 (ja) ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R150 Certificate of patent or registration of utility model

Ref document number: 7306871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150