JP2018126835A - ロボットの教示方法、ロボットシステム、プログラム及び記録媒体 - Google Patents

ロボットの教示方法、ロボットシステム、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2018126835A
JP2018126835A JP2017022565A JP2017022565A JP2018126835A JP 2018126835 A JP2018126835 A JP 2018126835A JP 2017022565 A JP2017022565 A JP 2017022565A JP 2017022565 A JP2017022565 A JP 2017022565A JP 2018126835 A JP2018126835 A JP 2018126835A
Authority
JP
Japan
Prior art keywords
robot
teaching
coordinate system
visual sensor
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017022565A
Other languages
English (en)
Other versions
JP6964989B2 (ja
JP2018126835A5 (ja
Inventor
鈴木 秀明
Hideaki Suzuki
秀明 鈴木
慶太 檀
Keita Dan
慶太 檀
直希 塚辺
Naoki Tsukabe
直希 塚辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017022565A priority Critical patent/JP6964989B2/ja
Priority to US15/889,804 priority patent/US10906182B2/en
Publication of JP2018126835A publication Critical patent/JP2018126835A/ja
Publication of JP2018126835A5 publication Critical patent/JP2018126835A5/ja
Priority to US17/134,758 priority patent/US20210114221A1/en
Application granted granted Critical
Publication of JP6964989B2 publication Critical patent/JP6964989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0014Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/009Gripping heads and other end effectors with pins for accurately positioning the object on the gripping head
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0253Gripping heads and other end effectors servo-actuated comprising parallel grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • B25J15/103Gripping heads and other end effectors having finger members with three or more finger members for gripping the object in three contact points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36401Record play back, teach position and record it then play back
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36431Tv camera in place of tool, on display operator marks points, crosshair
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • Y10S901/04Manual lead through
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】ロボットの教示精度を向上させる。
【解決手段】ロボットに対して着脱可能なステレオカメラ300をロボットから取り外した状態で、ステレオカメラ300の視野領域に基準パターン部905が含まれるようにステレオカメラ300を基準パターン部905に対して位置決めする。そして、ステレオカメラ300を用いて基準パターン部905を計測し、センサ座標系Vとベース座標系Bとの相対関係である回転行列R及び並進ベクトルtを校正する。このように校正した回転行列R及び並進ベクトルtを参照して、ステレオカメラ300を用いたロボットの教示を行う。
【選択図】図7

Description

本発明は、ロボットの教示に関する。
工場において部品の移載や組立、加工などの作業を自動化するために、多自由度のロボットを有するロボットシステムが用いられている。多自由度のロボットとしては、例えば垂直多関節型、水平多関節型、直交型、パラレルリンクなどがある。ロボットをロボットプログラムに従って動作させることにより、目的に応じたさまざまな作業をロボットに行わせることができる。
ロボットにワークの移載や組立など生産のための作業を行わせるには、ロボットの姿勢を予め教示しておく必要がある。一般的なロボットの教示は、ユーザがティーチングペンダントを用いてロボットをジョグ送りして作業のための姿勢をロボットに取らせ、その姿勢を記憶部に記憶させるというものである。精密な作業をロボットに行わせる場合は、ワークやワークを保持する治工具などの物体と、ロボットに装着されたハンドやツールなどのエンドエフェクタとの相対的な位置姿勢を、高精度に位置決めして教示する必要がある。
特許文献1には、溶接用ロボットに対して、溶接トーチの代わりに、または溶接トーチと並列に3次元の視覚センサを取り付け、作業対象物に設けたマークを視覚センサを用いて計測することにより、ロボットの教示位置を補正する方法が提案されている。特許文献1では、ロボットに視覚センサを装着した状態で、ロボットと視覚センサとの関係を校正し、視覚センサからみたマーク位置の情報を用いて教示位置を補正している。
特開平7−84631号公報
しかし、ロボットには姿勢の誤差があるため、ロボットに装着された視覚センサの位置姿勢にも誤差が生じる。したがって、特許文献1の方法では、ロボットの姿勢の誤差が校正精度に影響を与えるため、ロボットの教示精度が低下するという問題があった。
そこで、本発明は、ロボットの教示精度を向上させることを目的とする。
本発明のロボットの教示方法は、視覚センサを用いて基準物を計測し、前記視覚センサのセンサ部と前記視覚センサの係合部との相対関係を校正する校正ステップと、前記校正ステップの後に前記視覚センサの係合部をロボットに装着する装着ステップと、前記相対関係を参照し、前記視覚センサを用いて前記ロボットの教示を行う教示ステップと、を備えたことを特徴とする。
本発明によれば、ロボットの教示精度が向上する。
第1実施形態に係るロボットシステムを示す説明図である。 (a)は第1実施形態におけるワーク保持治具の斜視図である。(b)は第1実施形態におけるワーク保持治具、第1のワーク及び第2のワークの斜視図である。 (a)及び(b)は第1実施形態におけるステレオカメラの斜視図である。(c)は第1実施形態におけるステレオカメラの断面図である。 (a)、(b)及び(c)は第1実施形態におけるロボットハンド及びステレオカメラの斜視図である。 第1実施形態に係るロボットの教示方法を示すフローチャートである。 第1実施形態に係るロボットの教示方法を示すフローチャートである。 (a)は第1実施形態における校正治具の説明図である。(b)は第1実施形態における基準パターン部の平面図である。 特徴点の目標値と計測値との関係を説明するための模式図である。 (a)及び(b)はロボットアームの先端におけるツール座標系とステレオカメラのベース座標系との関係を示す説明図である。 第2実施形態に係るロボットシステムを示す説明図である。 (a)は第2実施形態におけるロボットハンドがステレオカメラを把持している状態を示す正面図である。(b)は第2実施形態におけるロボットハンドがステレオカメラを把持している状態を示す側面図である。 第2実施形態に係るロボットの教示方法を示すフローチャートである。 (a)は第3実施形態における校正治具の説明図である。(b)は第3実施形態におけるロボットの説明図である。
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。
[第1実施形態]
図1は、第1実施形態に係るロボットシステムを示す説明図である。ロボットシステム100は、ロボット200、視覚センサの一例であるステレオカメラ300、ワーク保持治具400、ロボット制御装置500、センサ制御装置600及びディスプレイ700を備えている。また、ロボットシステム100は、操作装置の一例であるティーチングペンダント800及び入力装置850を備えている。ロボット200は、ロボットアーム201、及びエンドエフェクタの一例であるロボットハンド202を備えている。ロボットアーム201は、垂直多関節のロボットアームである。ロボット200の基端、即ちロボットアーム201の基端は、架台150に固定されている。
ロボットアーム201の先端には、直接、又は不図示の力覚センサを介してロボットハンド202が取り付けられている。つまり、ロボット200の手先である先端がロボットハンド202で構成されている。ロボットハンド202は、ハンド本体である掌部210と、掌部210に対して開閉動作が可能な複数、第1実施形態では2本のフィンガ211,212と、を有し、ワークを把持又は把持解放することができる。掌部210は、ハウジングと、ハウジングの内部に配置され、フィンガ211,212を駆動する駆動機構と、を有する。
ワーク保持治具400は、ワークが架台150に対して動かないようにワークをチャックする治具であり、架台150に固定されている。ワーク保持治具400は、ロボット200の先端、即ちロボットハンド202の可動範囲内に配置されている。ロボット200の先端、即ちロボットハンド202は、ロボット200の基端を原点とするロボット座標系Oにおいて6自由度の動作が可能である。具体的には、ロボットハンド202は、ロボットアーム201が動作することにより、ロボット座標系Oにおいて互いに直交する3軸の並進方向と、3軸まわりの回転方向の動作が可能である。
ティーチングペンダント800は、ユーザの操作によってロボット制御装置500に指令を送る。この指令の入力を受けたロボット制御装置500は、指令に従ってロボット200を動作させる。即ち、ユーザは、ティーチングペンダント800を操作することによってロボットアーム201を動作させ、ロボットハンド202を任意の方向及び任意の速度でジョグ送りすることができる。また、ユーザは、ティーチングペンダント800を操作することによって、ロボットハンド202のフィンガ211,212を開閉させることもできる。
ロボット制御装置500は、主にロボット200の動作を制御する。センサ制御装置600は、主にステレオカメラ300の動作を制御するとともに、画像処理や計測処理等の演算処理を行う。
ロボット制御装置500はコンピュータであり、CPU(Central Processing Unit)501を備えている。また、ロボット制御装置500はメモリの一例として内部記憶装置としてのROM(Read Only Memory)502、RAM(Random Access Memory)503及びHDD(Hard Disk Drive)504を備えている。また、ロボット制御装置500は、インターフェース(I/F)505とバス506を備えている。CPU501、ROM502、RAM503、HDD504及びインターフェース505は、互いに通信可能にバス506を介して接続されている。
センサ制御装置600はコンピュータであり、CPU601を備えている。また、センサ制御装置600は、メモリの一例として内部記憶装置としてのROM602、RAM603及びHDD604を備えている。また、センサ制御装置600は、記録ディスクドライブ605、インターフェース(I/F)606、及びバス607を備えている。CPU601、ROM602、RAM603、HDD604、ディスクドライブ605及びインターフェース606は、互いに通信可能にバス607を介して接続されている。
ロボット制御装置500のインターフェース505には、ロボット200、ワーク保持治具400及びティーチングペンダント800が通信線で電気的に接続されている。センサ制御装置600のインターフェース606には、ステレオカメラ300、ディスプレイ700及び入力装置850が通信線で電気的に接続されている。なお、第1実施形態においては、ディスプレイ700の表示画面をユーザが見ながらティーチングペンダント800を操作する構成のため、ロボット制御装置500とセンサ制御装置600とは通信線等で電気的に接続されていなくてもよい。
ロボット制御装置500のROM502には、基本プログラムが格納されている。RAM503は、CPU501の演算処理の結果等、各種データを一時的に記憶する記憶装置である。HDD504には、ロボット200の動作を規定するロボットプログラム510が格納されている。ロボットプログラム510には、教示点の情報511とコマンドの情報512とが含まれている。CPU501は、ロボットプログラム510に従ってロボット200の動作を制御し、ロボット200にワークの組付作業等の作業を行わせる。また、CPU501は、教示点の情報511の設定を行うとき、即ち教示作業を行うときには、ティーチングペンダント800の指令に従ってロボット200の動作を制御する。また、CPU501は、ロボット200を実際に動作させたときの姿勢の情報を教示点の情報511として新規作成又は更新が可能である。
センサ制御装置600のROM602には、基本プログラムが格納されている。RAM603は、CPU601の演算処理結果等、各種データを一時的に記憶する記憶装置である。HDD604には、教示を行う際のプログラム610が格納されている。ディスクドライブ605は、ディスク611に記録された各種データやプログラム等を読み出すことができる。CPU601は、ロボット200の教示を行うときには、プログラム610に従って、ステレオカメラ300の動作を制御し、ロボット200の動作をロボット制御装置500を介して制御する。また、CPU601は、ディスプレイ700の表示動作を制御する。例えば、CPU601は、ステレオカメラ300が撮像した画像データや、画像処理を実行した結果データなどをディスプレイ700に表示させ、ユーザに情報を提示する。入力装置850は、例えばキーボードやマウスであり、ユーザがディスプレイ700を見ながら操作することより、文字、数値、ポインタ位置などの情報を、センサ制御装置600に入力することができる。
ロボット制御装置500のインターフェース505及びセンサ制御装置600のインターフェース606には、不図示の外部記憶装置が電気的に接続可能である。なお、第1実施形態では、コンピュータ読み取り可能な記録媒体がHDD604であり、HDD604にプログラム610が格納される場合について説明するが、これに限定するものではない。プログラム610は、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラム610を供給するための記録媒体としては、ROM602や、ディスク611、不図示の外部記憶装置等を用いてもよい。具体例を挙げて説明すると、記録媒体として、フレキシブルディスク、CD−ROMやDVD−ROM等の光ディスク、光磁気ディスク、磁気テープ、USBメモリ等の不揮発性メモリ、SSD等を用いることができる。
また、第1実施形態では、ロボット制御装置500とセンサ制御装置600とがそれぞれ1台のコンピュータで構成され、ロボットシステム100は合計2台のコンピュータを備えている場合について説明したが、これに限定するものでない。ロボット制御装置500及びセンサ制御装置600の双方の機能を1台のコンピュータで実現してもよいし、ロボット制御装置500及びセンサ制御装置600の機能を3台以上のコンピュータで分散処理して実現してもよい。また、センサ制御装置600は、ステレオカメラ300の筐体の外部に配置されているが筐体に内蔵されたスマートカメラによって同等の機能を実現することも可能である。
図2(a)は、ワーク保持治具400の斜視図である。図2(b)は、ワーク保持治具400、第1のワークであるワークW1及び第2のワークであるワークW2の斜視図である。図2(a)に示すようにワーク保持治具400は、ベース部401、ベース部401に固定されたワーク突当部402,403、及び治具フィンガ404,405を有している。ワーク保持治具400は、ロボットプログラム510に従って治具フィンガ404,405を開閉動作することができる。ワークW1をベース部401に載置した状態で治具フィンガ404,405を閉じることにより、ワークW1をチャックすることができる。
図2(b)には、ワーク保持治具400にワークW1が保持されている状態が図示されている。第1実施形態では、ワークW2をワークW1に組み付ける組付作業として、ワークW1とワークW2との嵌合作業を行う。具体的には、ワークW1をワーク保持治具400に保持させ、ワークW2をロボットハンド202に把持させてロボットアーム201を動作させることにより嵌合作業を行う。嵌合作業を行う際には、図2(b)に示すように、ワークW1の真上に位置する作業開始位置PAにワークW1を把持したロボットハンド202を移動させ、この作業開始位置PAからワークW1を真下に移動させることにより、嵌合作業を行う。したがって、作業開始位置PAにロボットハンド202、即ちワークW1を正確に位置決めさせるために正確な教示が必要となる。
第1実施形態ではワーク保持治具400は教示作業を行うときの計測対象物である。図2(a)に示すワーク保持治具400には、ステレオカメラ300によって計測可能な、特徴点の一例である複数のマークMK1〜MK3が付与されている。マークMK1〜MK3は、ワーク保持治具400の機械的基準、例えばワーク突当部402,403に対して高精度に位置決めされている。マークMK1〜MK3は、ベース部401の上面に、高さ方向に所定の精度範囲内の厚み又は深さで形成されている。マークMK1〜MK3は、特徴点として画像処理で高精度に認識できるように、ベース部401に対してコントラストが得られるよう、黒色である。なお、マークMK1〜MK3をベース部401に付与する方法は任意であるが、例えばレーザー加工、印刷、エッチング、めっき処理、シール添付などの方法によりマークを付与することができる。また、ワーク保持治具400に直接的にマークMK1〜MK3を付与する場合について例示しているが、別部材のマーク付き基準プレートをワーク保持治具400に取り付け、教示時のみ一時的にマークMK1〜MK3を配置するようにしてもよい。
第1実施形態では、ステレオカメラ300を用いてロボット200の教示を行う。ステレオカメラ300は、ロボット200に対して着脱可能となっている。具体的に説明すると、ステレオカメラ300は、ロボットハンド202に対して位置決めされた状態でロボットハンド202に把持されるように構成されている。
図3(a)及び図3(b)は、ステレオカメラ300の斜視図である。図3(c)は、ステレオカメラ300の断面図である。ステレオカメラ300は、計測対象物の3次元の位置姿勢を計測可能にステレオ法により計測対象物を撮像するカメラである。ステレオカメラ300は、センサ制御装置600からの撮像指令の入力を受けて撮像を行い、取得した画像データをセンサ制御装置600に送信することができる。ステレオカメラ300は、センサ部305を有する。センサ部305は、第1のカメラであるカメラ301と、第2のカメラであるカメラ302とを有している。2つのカメラ301,302は、筐体310の内部に配置されている。カメラ301,302は、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を有するデジタルカメラである。筐体310は、アタッチメント部340を介して板状のベース部311に固定されている。ベース部311は、ロボットハンド202に装着される部材である。ベース部311には、ロボットハンド202との着脱機構として係合部である位置決めピン321,322と、テーパ部331,332とが設けられている。
図3(c)に示すように、カメラ301及びカメラ302は、これらの光学系の対称面A−Aに対して輻輳角αだけ光軸を傾けて対称に配置されている。輻輳角αを設けることにより、比較的近いワークディスタンスでステレオカメラ300の共通視野を広く確保している。ベース部311の底面は対称面A―Aに対して直交しており、また、位置決めピン321,322及びテーパ部331,332も対称面A−Aに対して対象配置となるように配置されている。
ステレオカメラ300に対するカメラパラメータは、事前のステレオカメラ校正によって計測されている。即ち、カメラ301及びカメラ302の画像上でピクセル単位で表される画素座標値と、3次元空間における視線ベクトルとの関係を示すカメラ内部パラメータが、カメラ301及びカメラ302のそれぞれに対して計測済みである。また、カメラ301とカメラ302の相対的な位置姿勢を表すステレオカメラ外部パラメータも計測済みである。すなわち、カメラ301の位置姿勢を代表するセンサ座標系V1と、カメラ302の位置姿勢を代表するセンサ座標系V2の相対的な位置姿勢を表す座標変換行列が計算済みである。センサ座標系V1,V2は、カメラ301,302のレンズ主点を原点とする座標系である。ステレオカメラの校正に関しては、さまざま公知の手法で行うことができる。
CPU601は、カメラ301の画像データとカメラ302の画像データから特徴点を抽出することで、センサ座標系を基準とする特徴点の3次元の座標値を求めることができる。第1実施形態においてはカメラ301が基準カメラである。つまり、第1実施形態において、センサ部305のセンサ座標系V1,V2のうち、センサ座標系V1が、センサ部305を代表する第1の座標系としてのセンサ座標系Vである。ステレオ計測の結果はカメラ301のセンサ座標系Vを基準とする座標値で表現されるものとする。センサ座標系Vを基準とする特徴点の位置姿勢は、公知のステレオカメラ校正手法により3次元で高精度に計測可能であるが、外部から特徴点の位置姿勢を直接的に測定することはできない。そこで第1実施形態においては、ベース部311に対するセンサ座標系Vの位置姿勢を特定するためのベース−カメラ間の校正も行い、ベース−カメラ間の校正データをセンサ制御装置600のメモリであるHDD604に記憶させておく。
図4(a)、図4(b)及び図4(c)は、第1実施形態におけるロボットハンド202及びステレオカメラ300の斜視図である。図4(a)及び図4(b)はロボットハンド202がステレオカメラ300を把持解放した状態、図4(c)はロボットハンド202がステレオカメラ300を把持した状態を示している。
ロボットハンド202の掌部210の平面210Aには、ステレオカメラ300の位置決めピン321,322に対応する位置に、係合部である丸穴221及び長穴222が設けられている。ロボットハンド202の掌部210の平面210A、丸穴221及び長穴222は、ロボットハンド202の機械的基準となっており、フィンガ211,212はこれらの機械的基準に対して所定の公差範囲内で取り付けられている。具体的には、掌部210の平面210A、丸穴221及び長穴222を用いて不図示のフィンガ調整治具を掌部210に対して位置決めした状態で、フィンガ211,212の開閉方向の取り付け位置が不図示のフィンガ調整治具に対して調整されている。フィンガ211,212の開閉方向の寸法は、不図示の開閉機構に対して厚みの異なるシムを挟んで取り付けることにより調整ができるようになっている。このように、フィンガ211,212は、掌部210を基準に調整されている。ロボットハンド202の掌部210に対してステレオカメラ300のベース部311を押し当てると、掌部210の平面210Aとベース部311の平面311Aとが突き当たると共に位置決めピン321,322と丸穴221及び長穴222がそれぞれ嵌合する。このステレオカメラ300の係合部である位置決めピン321,322とロボットハンド202の係合部である穴221,222との係合により、ロボットハンド202に対してステレオカメラ300を高精度に位置決めすることができる。フィンガ211,212の内側には、テーパ部231,232が配置されている。ベース部311を掌部210に押し当てた状態でフィンガ211,212を閉じると、ロボットハンド202のテーパ部231,232とステレオカメラ300のテーパ部331,332がそれぞれ噛み合う。テーパ部231,232及びテーパ部331,332により、ベース部311を掌部210に押しつける力が発生し、ロボットハンド202に対してステレオカメラ300を安定して固定することができる。このように着脱機構は、ステレオカメラ300をロボットハンド202に対して直接装着する構成となっている。
以上の構成により、ロボットハンド202に対してステレオカメラ300の着脱を行うときには、ロボットハンド202のフィンガ211,212を開閉動作するだけでよい。また、ロボットハンド202にステレオカメラ300を把持させるだけで、ロボットハンド202に対してステレオカメラ300を高精度に位置決めすることができる。また、ロボットハンド202の機械的基準である丸穴221および長穴222に対してステレオカメラ300を直接的に装着する構成となっている。そのため、教示作業の際に、ロボットアーム201の誤差や、ロボットアーム201の先端であるフランジ面から掌部210までのロボットハンド202の製作誤差の影響を低減して高精度に教示を行うことができる。
ステレオカメラ300をテーパ部331,332を介してロボットハンド202の掌部210に押しつける構成により、ロボットハンド202の姿勢が変わる場合でも、把持が緩むことなく安定して教示を行うことができる。また、ステレオカメラ300の光学系の対称面A−Aが、位置決めピン321,322及びテーパ部331,332の対称面と一致している。このような配置にすることにより、仮にテーパ部231,232によりテーパ部331,332が掌部210の方向に押しつけられてベース部311に撓みが発生した場合でも、その変形が対称に影響するために教示時の誤差が発生しづらい。また筐体310とベース部311とが、独立した部材で構成され、アタッチメント部340を介して接続されている。このような構成のため、ベース部311に上記のような撓みが発生した場合でも、ステレオカメラ300を構成するカメラ301とカメラ302との相対的な位置姿勢はほとんど変化しない。一対のカメラの相対的な位置姿勢が微小に変化するだけでステレオカメラの計測値には大きな誤差が発生するが、第1実施形態のステレオカメラ300の構成により、筐体310を直接的にロボットハンド202で把持する構成に比べて、誤差が低減される。したがって、ステレオカメラ300を軽量な、即ち低剛性な設計にしても、教示時の誤差を低減することができる。また、筐体310とベース部311との間に断熱層となる空隙ができるため、ロボットハンド202で発生した熱が筐体310に伝わりにくく、ステレオカメラ300の熱変形による誤差を低減することができる。また更に、ロボットハンド202の設計が変更になった場合や、別のロボットに対してステレオカメラ300を装着する場合に、ベース部311の設計を変更して同一のステレオカメラ300を使用することができる。
図5及び図6は、第1実施形態に係るロボット200の教示方法を示すフローチャートである。なお、図5及び図6に示すフローチャートには、CPU501,601の処理のほか、ユーザの操作も含まれる。図5において、まず、ステレオカメラ300をロボット200に装着するステレオカメラ300の係合部を基準とする第2の座標系としてのベース座標系Bと、センサ座標系Vとの相対関係を校正する(S101:校正ステップ)。第1実施形態ではベース座標系Bは、ステレオカメラ300のベース部311において、係合部である位置決めピン321,322のいずれか一方、例えば位置決めピン321の根元の部分に設定されている。
ステレオカメラ300のセンサ部305と位置決めピン321との相対関係の校正、即ちセンサ座標系Vとベース座標系Bとの相対関係の校正は、ステレオカメラ300をロボット200から取り外して、校正治具に設置した状態で行う。センサ座標系Vを基準とする特徴点の位置姿勢は、3次元で高精度に計測することが可能であるが、センサ座標系Vはカメラ301のレンズ主点を原点とする座標系である。第1実施形態においては、CPU601は、ベース座標系Bとセンサ座標系Vとの相対的な位置姿勢を特定する校正を行い、その校正データをHDD604に記憶させる。以下、校正の方法について具体的に説明する。
図7(a)は、校正に用いる校正治具900の説明図である。校正治具900は、ベース部901、支柱部902,903、上板部904、及び基準物である基準パターン部905を有する。ベース部901と上板部904とは、互いに対向するように配置された板状の部材であり、支柱部902,903で接続されている。ベース部901には、掌部210の丸穴221及び長穴222と同様に、ステレオカメラ300のピン321,322に対応する位置に穴部906,907が設けられており、ステレオカメラ300を基準パターン部905に対して高い再現性で位置決めできる。ステレオカメラ300を校正治具900に設置することにより、ステレオカメラ300の視野領域に基準パターン部905が含まれることになる。
図7(b)は、基準パターン部905の平面図である。上板部904の内面には基準パターン部905が配置されている。基準パターン部905は、板状の部材である。基準パターン部905の表面には、エッチング等で高精度に加工されたN個のマーク908がアレイ状に形成されている。ベース部901の上面、穴部906,907及び基準パターン部905のマーク908の各位置は、校正治具900の製作後に不図示の計測器により高精度に計測されている。さらにベース部901の上面及び穴部906,907の計測値を基準としてベース座標系Bが設定されている。マーク908の各点の3次元座標値m[i](i=1〜N)は、ベース座標系Bを基準とする3次元の座標値m[i](i=1〜N)に座標変換されて、HDD604に記憶されている。CPU601は、校正治具900に対してステレオカメラ300を位置決めした状態で基準パターン部905のマーク908をステレオ計測することにより、ベース座標系Bとセンサ座標系Vとの相対関係を校正する。
第1実施形態では、CPU601は、ベース座標系Bとセンサ座標系Vとの相対関係として、座標変換行列である回転行列R及び並進ベクトルtを求める。マーク908をステレオ計測して得られる、センサ座標系Vを基準とするマーク908の座標値m[i](i=1〜N)に対して、各種の誤差がない場合は、以下の式(1)が成り立つ。
Figure 2018126835
実際の計測データを用いる場合には誤差があるため、式(1)の左辺と右辺は厳密には一致しない。したがって、CPU601は、以下の式(2)が最小値となる回転行列R及び並進ベクトルtを求める。即ち、CPU601は、以下の式(2)の最小二乗解を求める。
Figure 2018126835
この問題は、点集合同士のマッチング問題として知られており、例えば特異値分解を用いた手法によって解くことができる。以上の手法により、センサ座標系Vとベース座標系Bとの相対関係である回転行列R及び並進ベクトルtが高精度に校正される。センサ制御装置600のHDD604には、このようにして校正された回転行列R及び並進ベクトルtのデータが記憶される。
次に、ユーザは、センサ制御装置600に、教示を行うための座標の目標値を設定する(S102)。第1実施形態では、図2(b)に示すようにワークW2を位置PAに位置決めする目標値を設定する。目標値の設定は、ベース部311の面及び位置決めピン321,322に代表されるステレオカメラ300の機械的基準と、ワーク保持治具400に付与されたマークMK1〜MK3の設計上の位置関係を入力することによって行う。即ち、ベース座標系Bを基準とする設計上のマークMK1〜MK3の3次元座標の目標値p[i](i=1〜3)を設定する。ここで目標値p[i](i=1〜3)は、XYZの3成分を持つベクトルで表される3次元の座標値である。目標値p[i]は、目標値のリストをセンサ制御装置600のHDD604に予め記憶させておき、ユーザがリストの中から選択して設定するようにしてもよいし、ユーザが入力装置850を操作して数値を入力することで設定するようにしてもよい。ユーザが入力装置850を用いて数値を入力する場合は、入力操作をより簡便に行えるようにするため、マークMK1〜MK3の位置姿勢を代表するマーカー座標系Mを導入してもよい。この場合、マーカー座標系Mを基準とするマークMK1〜MK3の各点の3次元の座標値p[i](i=1〜3)と、ベース座標系Bに対するマーカー座標系Mの相対的な位置姿勢の設計値を入力する。その回転成分を,並進成分をとすると、マークMK1〜MK3の3次元の座標値p[i](i=1〜3)は以下の式(3)のように表される。
Figure 2018126835
マーカー座標系Mで入力操作を行えるようにすることで、マークMK1〜MK3の形状のみで決まる配置と、マーカー座標系Mに対するロボットハンド202の位置姿勢を別個に設定できるため、マークMK1〜MK3の点数が多い場合に設定が簡便になる。以上、ステップS102により、センサ制御装置600のHDD604には、ベース座標系Bを基準とするマークMK1〜MK3の目標値p[i]が記憶される。
さらに、ユーザは、センサ制御装置600に閾値δを設定する(S103)。閾値δは、後述する収束の判定に用いる閾値である。ユーザは、自由に閾値δを設定することができるが、用途に応じた必要精度を勘案して閾値δを設定すればよい。以上、ステップS103により、センサ制御装置600のHDD604には、閾値δが記憶される。
次に、ステレオカメラ300をロボット200に装着する(S104:装着ステップ)。具体的には、ロボットハンド202にステレオカメラ300を把持させる。具体的な操作としては、ユーザがティーチングペンダント800を操作してロボットアーム201をジョグ送りしてロボットハンド202の掌部210を上向きにし、ユーザがステレオカメラ300を掌部210の掌面である平面210Aに置く。そして、ユーザがティーチングペンダント800を操作してロボットハンド202のフィンガ211,212を閉じることによってステレオカメラ300をロボットハンド202にチャックさせる。ステレオカメラ300は、ロボットハンド202に把持されることによりロボットハンド202に対して高精度に位置決められるので、ベース座標系Bは、ロボットハンド202に高精度に位置決めされることになる。
次に、CPU501及びCPU601が協働することにより、HDD604に記憶された校正済の相対関係R,tを参照して、ステレオカメラ300を用いてロボット200の教示を行う(S105〜S109、S201〜S208)。以下、この教示ステップについて具体的に説明する。CPU501は、ロボット200、即ちロボットアーム201を、教示を開始する姿勢に動作させる(S105)。つまり、ステレオカメラ300を、教示を開始する位置に移動させる。教示を開始するロボット200の姿勢とは、ステレオカメラ300の視野領域に計測対象物であるワーク保持治具400が含まれるロボット200の姿勢である。つまり、ロボット200、即ちロボットアーム201は、ワーク保持治具400のマークMK1〜MK3をステレオカメラ300により撮像できる姿勢であれば、どのような姿勢であってもよい。この場合、CPU501は、ユーザがティーチングペンダント800を操作したときの指令に従ってロボット200を動作させてもよいし、予めオフラインティーチングなどで設定された姿勢にロボット200を動作させてもよい。教示点へロボット200を動作させた後、マークMK1〜MK3がステレオカメラ300の視野領域から外れている場合は、ユーザがステレオカメラ300の画像をディスプレイ700で確認しながら、ロボットアーム201をジョグ送りさせればよい。このステップS105により、ステレオカメラ300の視野領域内に3点のマークMK1〜MK3が含まれることになる。
次に、ユーザが入力装置850でオン操作すると(S106)、センサ制御装置600のCPU601は、図6に示す処理を、ユーザが入力装置850でオフ操作するまで繰り返し実行する。このオンオフの操作は、ディスプレイ700に表示されたソフトウェアキーにカーソルを移動させてマウス等でクリックするようにしてもよいし、入力装置850のボタンを押下するようにしてもよい。
以下、オン操作されたときの繰り返し処理について説明する。CPU601は、ステレオカメラ300に対して撮像指令を送信し、ステレオカメラ300にマークMK1〜MK3を含むワーク保持治具400を撮像させて、ステレオカメラ300から画像を取得する(S201)。このように、CPU601は、カメラ301とカメラ302の双方の画像(ステレオ画像)を取得する。即ち、CPU601は、ステレオカメラ300から視覚情報を取得する。
次に、CPU601は、取得したステレオ画像に対して画像処理及びステレオ計算処理を行い、マークMK1〜MK3の位置を計測する(S202)。マークMK1〜MK3の位置を計測するための画像処理は、種々の公知手法を用いることができる。例えば、ステレオ画像それぞれの画像全体に対してエッジ抽出処理を行い、抽出したエッジの真円度や外接円半径などの形状特徴量を用いて、マークMK1〜MK3のエッジのみを選択する。その後、マークMK1〜MK3の画像上のエッジに対して楕円フィッティング処理を行い、マークMK1〜MK3の中心の画素座標を求める。円フィッティングでなく楕円フィッティング処理を用いたのは、ステレオカメラ300と円形のマークMK1〜MK3との相対的な配置によって、投影された際に円が歪んで楕円形状に近くなる可能性があるためである。マークMK1〜MK3の円中心の画素座標上を求めた後、カメラ301の画像の画素座標とカメラ302の画像の画素座標の対応づけを行い、3次元の座標値の計算を行う。カメラ301及びカメラ302のカメラ内部パラメータとカメラ外部パラメータを用いることにより、センサ座標系Vを基準にマークMK1〜MK3の座標値を算出することができる。この座標値を、q[i](i=1〜3)とする。このように、CPU601は、ステレオカメラ300から得られた視覚情報に含まれる特徴点を抽出する。
次にCPU601は、HDD604に記憶されている回転行列R及び並進ベクトルtを参照して、マークMK1〜MK3の座標値q[i](i=1〜3)をベース座標系Bを基準とする計測値q[i](i=1〜3)に座標変換する(S203)。即ち、CPU601は、ステレオカメラ300を用いた計測の結果として、以下の式(4)を用いて計測値q[i](i=1〜3)を求める。
Figure 2018126835
次に、CPU601は、ベース座標系Bに座標変換された計測値q[i](i=1〜3)と、目標値p[i](i=1〜3)とを用いて、目標値に対する計測値のずれ量を演算する(S204)。これらの座標値p[i],q[i]はベース座標系Bを基準とする座標値に座標変換されているため、比較が容易である。まずCPU601は、式(5)を用いて、目標値p[i]と計測値q[i]との差分ベクトルΔp[i](i=1〜3)を演算する。
Figure 2018126835
また、CPU601は、別のずれ量の指標として、ベース座標系Bの動くべき移動量についても演算する。ベース座標系Bが回転行列R、並進ベクトルtだけ移動した後の座標系をB’とすると、移動後の目標値p’[i]は以下の式(6)のように表される。
Figure 2018126835
よって、移動後の目標値p’[i]がマークMK1〜MK3の計測値q[i]と一致するようにベース座標系Bを動かすためには、以下の式(7)が最小値となるような回転行列Rと並進ベクトルtの最小二乗解を求めればよい。即ち、各マークMK1〜MK3の計測値q[i]には、ステレオカメラ300やマークMK1〜MK3の個体差に依存する互いに異なる計測誤差が含まれているため、回転行列Rと並進ベクトルtの最小二乗解を求めることになる。ここで、特徴点であるマークの数をN、1からNまでの整数をiとしている。即ち、CPU601は、式(7)が最小値となるように回転行列R及び並進ベクトルtを求める。
Figure 2018126835
この演算は、ベース−カメラ間の校正で用いた点集合同士のマッチング問題と同様の手法で解くことができる。以上の演算処理により、ベース座標系Bのずれを示す回転行列R及び並進ベクトルtが求まる。図8は、特徴点の目標値p[i]と計測値q[i]との関係を説明するための模式図である。なお、図8において、目標値p[i](i=1〜3)をp1,p2,p3、計測値をq[i](i=1〜3)をq1,q2,q3で表している。CPU601は、目標値p1,p2,p3がそれぞれ計測値q1,q2,q3に重なるように座標変換するための回転行列R及び並進ベクトルtを求める。
次に、CPU601は、ステップS204で求めたずれ量を閾値δと比較する(S205)。即ち、CPU601は、ずれ量が閾値以下であるか否かを判定する。第1実施形態では、CPU601は、ずれ量として、差分ベクトルΔp[i]のノルム|Δp[i]|と、並進ベクトルtのノルム|t|とを求める。そして、CPU601は、|Δp[i]|及び|t|のうち最も大きい値と閾値δとを比較する。具体的には、CPU601は、以下の式(8)を満たすか否かを判定する。
Figure 2018126835
このような指標を用いることにより、マークMK1〜MK3の位置におけるずれ量とベース部311におけるずれ量の両方が所望の精度範囲内に入るように、マークMK1〜MK3に対するステレオカメラ300の傾きまで加味した教示ができる。なお、以上の閾値判定法は一例であって、ずれ量に基づいたほかの指標を用いて判定を行ってもよい。例えばマークMK1〜MK3の位置座標におけるずれ量Δp[i]のみで閾値判定を行ってもよいし、回転行列R及び並進ベクトルtによるずれ量のみで閾値判定を行ってもよい。
CPU601は、ステップS205の判定の結果、ずれ量が閾値以下であれば(S205:Yes)、「OK」である旨をディスプレイ700に表示させる(S206)。CPU601は、ずれ量が閾値を超えていれば(S205:No)、演算したずれ量や方向などをディスプレイ700に表示させる(S207)。このように、CPU601は、ずれ量に関する情報を、ディスプレイ700によりユーザに提示する。なお、撮像画像をディスプレイ700に表示させ、表示画像上にロボットアーム201を動かすべき方向と量を示す矢印を表示させてもよい。また、例えばステップS204で演算した並進ベクトルtと回転行列Rを、ディスプレイ700に表示させてもよく、この場合、マーク位置ではなく、ロボットハンド202の掌部210の位置に換算した移動量が表示され、ユーザは直観的に理解しやすい。また、ずれ量に関する情報をユーザに提示する方法として、ディスプレイ700への表示以外に、ランプの点滅、スピーカから発する音などでユーザに提示してもよい。
ディスプレイ700への表示が終わると、CPU601は、ユーザがオフ操作したか否かを判定する(S208)。CPU601は、オフ操作されたならば(S208:Yes)、処理を終了し、オフ操作されていなければ(S208:No)、オフ操作されるまで、ステップS201〜S207の処理を繰り返し実行する。
センサ制御装置600のCPU601が図6に示す処理を実行中、ユーザは、ディスプレイ700に表示されている表示画面を確認する(S107)。即ち、ユーザは、ディスプレイ700に「OK」である旨が表示されているか否かを確認する。
ユーザは、「OK」である旨がディスプレイ700に表示されていない場合は(S107:No)、ロボット200、即ちロボットアーム201の姿勢を、ティーチングペンダント800を操作して調整する(S108)。つまり、CPU501は、ユーザにより操作されたティーチングペンダント800からの指令に従ってロボット200、即ちロボットアーム201の姿勢を調整する。CPU601は、図6に示す処理を実行中であるため、ユーザがティーチングペンダント800でロボット200を動作させている最中に、リアルタイムにディスプレイ700の表示を更新することになる。
ユーザは、ロボット200の姿勢を調整した結果、ずれ量が閾値δ以下となってディスプレイ700に「OK」である旨が表示されたら(S107:Yes)、調整後のロボット200の姿勢を教示点としてHDD504に記憶させる(S109)。このステップS109では、例えばユーザがティーチングペンダント800のボタンを押下するなどして、HDD504に教示点のデータを記憶させる。ロボット200の教示が終了したので、ユーザは、入力装置850にてオフ操作する(S110)。
教示点のデータは、ロボットアーム201の各関節の関節角度、即ち関節のモータの回転角度の角度指令値である。例えば、ロボットアーム201が6関節の場合、1つの教示点のデータは、6つの角度指令値で構成されている。なお、教示点のデータは、6つの角度指令値を順運動学計算により変換して得られる、ロボット座標系Oを基準とする、ロボットアーム201の先端の位置姿勢を示す6つの指令値で構成されていてもよい。この場合、ロボットアーム201を教示点に従って動作させるときには、教示点のデータを逆運動学計算により角度指令値に変換する作業が必要である。
以上、第1実施形態では、ロボットハンド202にステレオカメラ300を装着した状態で校正するのではなく、ステップS101において、ロボットハンド202からステレオカメラ300を取り外した状態で校正を行っている。より具体的には、ステレオカメラ300をロボットハンド202に装着する際の機械的基準である位置決めピン321,322の箇所に定義したベース座標系Bに対して校正治具900で校正を行っている。したがって、校正を行う際に、ロボット200の姿勢の誤差が校正結果に含まれることがない。即ち、ロボットアーム201は、姿勢に応じて関節やリンクにおいて撓みが生じ、またロボットアーム201の製作誤差を含んでいるため、ロボット200の手先の位置姿勢には誤差が発生する。ロボットハンド202においても、製作誤差等がある。仮にロボット200にステレオカメラ300を装着した状態で校正を行うと、ロボット200の手先に連結されたステレオカメラ300の位置姿勢の誤差が校正結果に大きく影響し、校正データである相対関係R,tの精度が低下する。これに対し、第1実施形態によれば、ステレオカメラ300をロボット200から取り外した状態で校正を行っているため、相対関係R,tにロボット200の姿勢誤差が影響するのを防止することができる。よって、相対関係R,tの精度が高まり、その結果、ロボット200を高精度に教示することができる。
上記の校正結果が高精度であるため、マークMK1〜MK3とベース座標系Bの相対的な位置関係(計測値q[i])を正確に計測することができる。言い換えれば、ワーク保持治具400に対するベース座標系Bの位置姿勢を正確に知ることができる。そのため、ベース座標系Bを基準として数値的に設定した目標値p[i]に対して、ベース座標系Bのずれ量を、ステップS204においてロボット200の誤差による影響を受けずに正確に演算することができる。
さらに、ベース座標系Bは、ロボットハンド202にステレオカメラ300を装着する際の機械的基準と一致している。このため、ステレオカメラ300をロボットハンド202に装着することで、ロボットハンド202に対してベース座標系Bを高精度に位置決めできる。よって、ロボットハンド202をワーク保持治具400に対して高精度に位置決めした状態で教示できる。このように、数値的に指定した目標値p[i]を用いることで、予め基準画像を用意しなくても、ロボット200を教示することができ、教示の作業性が向上する。
図9(a)及び図9(b)は、ロボットアーム201の先端におけるツール座標系Tとステレオカメラ300のベース座標系Bとの関係を示す説明図である。図9(a)と図9(b)とは、ロボットアーム201に対するロボットハンド202の位置姿勢が異なっている。即ち、図9(a)では、ロボットアーム201の先端であるフランジ面にロボットハンド202が直接取り付けられているが、図9(b)では、ロボットアームの先端であるフランジ面に取付治具204を介して取り付けられている。ロボットアーム201のフランジ面の座標系をツール座標系Tとする。
第1実施形態では、ベース座標系Bに対するワーク保持治具400のマークMK1〜MK3の目標値p[i]を用いて教示を行っており、ロボットアーム201に対するロボットハンド202の位置姿勢の情報は教示時に用いていない。即ち、ツール座標系Tとベース座標系Bとの間の関係を求める必要がない。そのためツール座標系Tを教示のために新規に設定する必要はない。したがって、製造ラインの組換えなどの際に、例えば図9(a)の状態から図9(b)の状態にロボットハンド202をロボットアーム201に対して違う向きに取り付けるといったケースが発生しても、対応が容易である。即ち、ステレオカメラ300が取り付けられるロボットハンド202から見たワーク保持治具400の相対的な位置姿勢に変更がない場合には、目標値p[i]の設定を変更しなくてもロボット200を再度教示することができる。このような場合でも、簡便かつ高精度にロボット200を教示することができる。
[第2実施形態]
次に、第2実施形態に係るロボットシステムにおけるロボットの教示方法ついて説明する。図10は、第2実施形態に係るロボットシステムを示す説明図である。ロボットシステム100Bは、ロボット200B、視覚センサの一例であるステレオカメラ300B、ワーク保持治具400、ロボット制御装置500、センサ制御装置600、及びディスプレイ700を備えている。また、ロボットシステム100Bは、操作装置の一例であるティーチングペンダント800、及び入力装置850を備えている。
第2実施形態では、以下の点で第1実施形態と構成が異なる。第1実施形態では、ロボット200のロボットハンド202が2指であったが、第2実施形態では、ロボット200Bのロボットハンド202Bは、3指である。また、第1実施形態では、ロボット制御装置500とセンサ制御装置600とが接続されていない場合について説明したが、第2実施形態では、ロボット制御装置500とセンサ制御装置600とが通信線で互いに通信可能に電気的に接続されている。これにより、ロボット200、即ちロボットアーム201に対して教示を行う際に、ユーザのティーチングペンダント800の操作によるジョグ送りでなく、ロボット200Bの自動動作で行えるようになっている。
図11(a)は、第2実施形態におけるロボットハンド202Bがステレオカメラ300Bを把持している状態を示す正面図である。図11(b)は、第2実施形態におけるロボットハンド202Bがステレオカメラ300Bを把持している状態を示す側面図である。ロボットハンド202Bは、例えば円筒状のワークなどを把持するのに適した3指のロボットハンドである。ロボットハンド202Bは、ハンド本体である掌部210Bと、掌部210Bに対して開閉動作が可能な複数、第3実施形態では3本のフィンガ211B,212B,213Bと、を有し、ワークを把持又は把持解放することができる。掌部210Bは、ハウジングと、ハウジングの内部に配置され、フィンガ211B,212B,213Bを駆動する駆動機構と、を有する。
ステレオカメラ300Bは、第1のカメラであるカメラ301Bと、第2のカメラであるカメラ302Bとを有している。2つのカメラ301B,302Bは、筐体310Bの内部に配置されている。カメラ301B,302Bは、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を有するデジタルカメラである。筐体310Bは、アタッチメント部340Bを介して板状のベース部311Bに固定されている。ベース部311Bには、3指のロボットハンド202Bに対応して、テーパ部331B,332B,333Bが設けられている。ベース部311Bを掌部210Bに押し当てた状態でフィンガ211B,212B,213Bを閉じると、ロボットハンド202Bのテーパ部231B,232B,233Bとステレオカメラ300Bのテーパ部331B,332B,333Bが噛み合う。これにより、ロボットハンド202Bに対してステレオカメラ300Bをチャックすることができる。ロボットハンド202Bの掌部210Bには、係合部として、第1実施形態と同様、図4(a)に示すような丸穴221及び長穴222が設けられている。ステレオカメラ300Bのベース部311Bには、係合部として、第1実施形態と同様、図4(b)に示すような位置決めピン321,322が設けられている。ロボットハンド202Bがステレオカメラ300Bを把持することで位置決めピン321,322と穴221,222とが係合、即ち嵌合し、ステレオカメラ300Bがロボットハンド202Bに対して高精度に位置決めされる。
第2実施形態では、3指のロボットハンド202Bであっても、ステレオカメラ300Bのステレオ光学系の対称面と、ロボットハンド202Bに対するステレオカメラ300Bの位置決め機構の対称面は面D−Dで共通している。そのため、第1実施形態で述べたような対称性により、ベース部311Bの撓みなどの変形に対して誤差が生じづらいという効果を奏する。
第2実施形態では、ロボット制御装置500のインターフェース505とセンサ制御装置600のインターフェース606とが通信線で接続されている。よって、CPU501とCPU601とは互いに通信可能となっている。第2実施形態では、2つのCPU501,601によって制御部として機能する。
図12は、第2実施形態に係るロボット200の教示方法を示すフローチャートである。なお、図12に示すフローチャートには、CPU501,601の処理のほか、ユーザの操作も含まれる。図12において、まず、CPU601は、ステレオカメラ300Bをロボット200Bに装着する部分を基準とするベース座標系Bと、センサ座標系Vとの相対関係を校正する(S301:校正ステップ、校正処理)。この校正処理は、第1実施形態のステップS101と同様、ステレオカメラ300Bをロボット200Bから取り外して、図7(a)に示す校正治具900に設置した状態で行う。第2実施形態においても、CPU601は、ベース座標系Bとセンサ座標系Vとの相対的な位置姿勢を特定する校正を行い、その校正データである回転行列R及び並進ベクトルtをHDD604に記憶させる。また、第1実施形態のステップS102,S103と同様、目標値p[i]及び閾値δを設定する(S302,S303)。
次に、CPU501は、ロボット200Bを動作させて、ロボットハンド202Bにステレオカメラ300Bを把持させる(S304:装着ステップ、装着処理)。ロボットアーム201の可動範囲内に、不図示の載置台を設けておき、載置台にステレオカメラ300Bを予め設置しておく。CPU601は、ロボットアーム201及びロボットハンド202Bをロボットプログラム510に従って動作させて、自動でロボットハンド202Bにステレオカメラ300Bを把持させる。これにより、ステレオカメラ300Bは、ロボットハンド202Bに高精度に位置決めされる。以上、CPU501は、ロボット200Bの動作を制御することにより、ステレオカメラ300Bをロボット200Bに装着する。
次に、CPU501及びCPU601が協働することにより、HDD604に記憶された校正済の相対関係R,tを参照して、ステレオカメラ300Bを用いてロボット200Bの教示を行う(S305〜S313:教示ステップ、教示処理)。
以下、具体的に説明すると、CPU501は、予めオフラインティーチングで教示された教示点にロボットアーム201を動作させる(S305)。これにより、ロボット200B、具体的にはロボットアーム201を、教示を開始する姿勢に動作させる。即ち、第1実施形態では、ユーザがティーチングペンダント800を用いてロボット200を動作させたが、第2実施形態では、CPU501が自動でロボット200Bを動作させる。次に、CPU601は、第1実施形態で説明したステップS201〜S204と同様、撮像(S306)、マーク位置計測(S307)、座標変換(S308)、ずれ量計算(S309)の処理を行う。第1実施形態で説明したステップS205と同様、ずれ量が閾値以下であるか否かを判定する(S310)。
第2実施形態では、ロボット制御装置500とセンサ制御装置600とが通信線で電気的に接続されているため、CPU501は、CPU601の各処理結果データを参照することができる。そこで、CPU501は、ずれ量が閾値を超える場合には(S310:No)、ずれ量の計算データ、回転行列R及び並進ベクトルtを用いて、ロボット200の姿勢の調整量である姿勢情報を計算する(S311)。そして、CPU501は、姿勢情報に従ってロボット200の姿勢を調整する(S312)。即ち、CPU501は、ずれ量に基づいてロボット200の姿勢を調整する。ここで、ロボット200の姿勢を調整するとは、ロボットアーム201の各関節の角度の調整、即ちロボット座標系Oにおけるロボットハンド202の位置姿勢を調整することである。
以下、ステップS311の計算について具体的に説明する。ロボット制御装置500には、ロボット200の先端、即ちロボットハンド202Bを原点とするツール座標系Tが設定されている。また、ツール座標系Tに対するベース座標系Bの位置姿勢も予め設定されている。ロボット座標系Oに対するツール座標系Tの位置姿勢を行列とする。さらに、ツール座標系Tに対するベース座標系Bの位置姿勢を行列とする。調整後のロボット200Bの姿勢を行列T’とすると、行列T’は、以下の式(9)で記述できる。
Figure 2018126835
行列B’は、ステップS203において計算した回転行列R及び並進ベクトルtを元に計算した、ベース座標系Bの現在位置から計測位置への座標変換を表す同次変換行列であり、以下の式(10)で表される。
Figure 2018126835
即ち、CPU501は、ステップS311では、式(9)及び式(10)を用いて、ロボット200Bの先端の位置姿勢を示す行列T’を計算する。次に、CPU501は、行列T’からロボット200Bの姿勢情報、即ちロボットアーム201の各関節の角度指令を計算する。そして、CPU501は、ステップS312において、姿勢情報に従ってロボット200を動作させ、ロボット200の姿勢を調整する。
ロボット200の姿勢を調整した後は、再びステップS306〜S309の処理を行い、ステップS310にて閾値δによる収束判定を行う。そして、ステップS310にて収束していなければ、再びステップS311、S312、S306〜S309の処理を行う。このように、ずれ量が閾値δ以下に収束するまで、ステップS306〜S312を繰り返す。つまり、ロボット200Bの姿勢調整の動作を繰り返し実行する。ロボットアーム201の動作の誤差やステレオカメラ300による計測の誤差があるため、1度の姿勢調整では教示を完了できないことが多い。第1実施形態によれば、繰り返し姿勢調整を行うことによって、ロボットハンド202Bを高精度に位置決めすることができる。以上、第2実施形態では、CPU501及びCPU601が協働することにより、自動でロボット200の姿勢を調整する。即ち、CPU501及びCPU601は、ステレオカメラ300Bを用いて計測した座標値q[i]を、相対関係R,tにより計測値q[i]に変換し、計測値q[i]と目標値p[i]とのずれ量に基づいて、ロボット200の姿勢の調整を行う。
CPU501は、ずれ量が閾値以下となった場合(S310:Yes)、調整後のロボット200、即ちロボットアーム201の姿勢を、教示点としてHDD504に記憶させ(S313)、教示ステップ、即ち教示処理を終了する。
以上、第2実施形態によれば、ロボットアーム201の自動動作によって、ワーク保持治具400に対するロボットハンド202Bの相対的な位置姿勢を自動で位置決めすることができる。
また、第2実施形態では、CPU601は、ステレオカメラ300Bから得られた視覚情報とHDD604に記憶された相対関係R,tとを用いて、ベース座標系Bを基準とするマークMK1〜MK3の計測値q[i]を求めている。そして、CPU501は、ベース座標系Bを基準とする計測値q[i]と目標値p[i]とのずれ量に基づき、ロボット200Bの姿勢を調整して教示を行っている。このロボット200の姿勢を調整するのに用いるずれ量は、ロボットアーム201の動作の誤差やロボットハンド202の製作誤差による影響を受けずに求めることができるので、高精度にロボット200を教示することができる。
なお、第2実施形態では、ステップS311において、ロボットアーム201のツール座標系Tに対するベース座標系Bの相対位置姿勢を示す行列を事前に設定するようにしたがこれに限定するものではない。上述のようにずれ量に応じた調整量に基づいて繰り返し動作を行っているため、設定する行列については高精度に求めなくてもよい。設計値に対して例えば30度程度傾けた行列を設定しても、繰り返し動作によってずれ量が収束して教示可能となる。
また、行列を事前に設定しなくてもよい。例えば、教示を開始する前に公知のハンドアイキャリブレーション手法を自動で実行して行列を算出するようにしてもよい。この場合、大まかな位置と向きが合っていればよいので、ロボットアーム201をハンドアイキャリブレーションする時の動作量は、第2実施形態で説明した校正に比べて微小で構わない。そのため、ロボットの周辺に構造物があり、ロボットの可動範囲が狭い場合などでも、校正して教示することが可能である。
また別の方法として、行列を使用せず、公知の画像ベースのビジュアルサーボ手法を用いて、CPU601が演算するずれ量が小さくなるようにロボットアーム201をサーボ制御するような構成にしてもよい。
[第3実施形態]
次に、第3実施形態に係るロボットシステムにおけるロボットの教示方法について説明する。図13(a)は、第3実施形態における校正治具900Cの説明図である。図13(b)は、第3実施形態におけるロボット200Cの説明図である。第1及び第2実施形態では、ロボットハンド202,202Bに対してステレオカメラ300,300Bが着脱可能である場合について説明した。第3実施形態では、視覚センサの一例がステレオカメラ300C、エンドエフェクタの一例がロボットハンド202Cである。そして、ステレオカメラ300Cとロボットハンド202Cとは一体に固定されている。ステレオカメラ300Cと一体のロボットハンド202Cが、ロボット200Cの先端であるフランジ面201Cに対して着脱可能となっている。第3実施形態ではロボット200Cは垂直多関節のロボットアームである。ロボットハンド202Cがロボット200Cに装着されることで、ロボットハンド202Cと一体のステレオカメラ300Cがロボット200Cに装着されることになる。したがって、ロボット200Cの先端であるフランジ面201Cとロボットハンド202Cとの接続部分が、ステレオカメラ300Cをロボット200Cに装着する部分である。
校正治具900Cは、ベース部901C、支柱部902C,903C、上板部904C、及び第1実施形態で説明した基準パターン部905と同様の構成の基準物である基準パターン部905Cを有する。ベース部901Cと上板部904Cとは、互いに対向するように配置された板状の部材であり、支柱部902C,903Cで接続されている。第3実施形態では、図13(a)に示すように、ロボットハンド202C及びステレオカメラ300Cを基準パターン部905Cに対して位置決めし、ステレオカメラ300Cで基準パターン部905Cを撮像することにより校正を行う。
第3実施形態においてベース座標系Bの原点は、ロボット200Cに対するロボットハンド202Cの装着位置、即ちロボットハンド202Cをロボット200Cに装着したときに、ツール座標系Tと同じ位置姿勢となる位置に設定されている。第1実施形態と同様、校正治具900C内においてベース座標系Bと基準パターン部905Cのマークの位置関係を計測する。これにより、ベース座標系Bに対するセンサ座標系Vの相対的な位置姿勢である相対関係、即ち回転行列R及び並進ベクトルtを高精度に求めることができる。
ロボットハンド202Cには、係合部である位置決めピン321C,322Cが設けられ、ロボット200Cのフランジ面201Cには、係合部である丸穴221C及び長穴222Cが設けられている。ベース部901Cには、丸穴221C及び長穴222Cと同様に、ピン321C,322Cに対応する位置に穴部906C,907Cが設けてあり、ステレオカメラ300Cを基準パターン部905Cに対して高い再現性で位置決めすることができる。センサ座標系Vとベース座標系Bとの間の校正を行う際には、ステレオカメラ300Cを校正治具900Cに設置することにより、ステレオカメラ300Cの視野領域に基準パターン部905Cが含まれることになる。ロボットハンド202Cをロボット200Cに装着するときには、ピン321C,322Cと穴221C,222Cとを係合させることにより、ステレオカメラ300C、即ちベース座標系Bをロボット200Cに高精度に位置決めることができる。
なお、本発明は、以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形が可能である。また、実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されない。
上記第1〜第3実施形態では、相対関係を示す校正データである回転行列R及び並進ベクトルtがHDD604等のメモリに記憶され、教示点のデータが、HDD604等のメモリとは別のHDD504等のメモリに記憶される場合について説明した。つまり、校正データと教示点のデータがそれぞれ別のメモリに記憶される場合について説明した。しかし、本発明は、これに限定するものではなく、共通のメモリに、校正データと教示点のデータとが記憶される場合であってもよい。また、校正データや教示点のデータが記憶されるメモリが、内部記憶装置である場合について説明したが、これに限定するものではなく、外部記憶装置であってもよい。外部記憶装置としては、ロボット制御装置500又はセンサ制御装置600に直接接続されるメモリであってもよいし、ネットワークを介して接続されるメモリであってもよい。
また、上記第1及び第2実施形態では、視覚センサが、ロボットのロボットハンドに直接装着され、上記第3実施形態では、中間部材であるエンドエフェクタを介してロボットに装着される場合について説明したが、これに限定するものではない。例えば視覚センサが、ロボットのロボットアームの先端に直接装着される場合であってもよい。
また、上記第1及び第2実施形態では、視覚センサの係合部が2つの位置決めピンであり、ロボットハンドの係合部が丸穴及び長穴である場合について説明したがこれに限定するものではない。ロボットハンドの機械的な取付基準に対して、視覚センサを位置決めできる構成であれば、ロボットの係合部と視覚センサの係合部は、どのような形状であってもよい。例えば、ロボットハンド又は視覚センサの一方に3面の突き当て面を設け、他方に3面の突き当て面に突き当たる突起部を設けてもよい。
また、上記第1〜第3実施形態において、ロボットハンドのフィンガの本数が2本又は3本の場合について例示して説明したが、4本以上の場合であってもよい。また、エンドエフェクタがロボットハンドの場合が好適であるが、ロボットハンド以外のエンドエフェクタ、例えば溶接トーチやドライバ等であってもよい。
また、上記第1〜第3実施形態では、計測対象物に付与するマークMK1〜MK3の数が3点である場合について説明したがこの数に限定するものではない。計測対象物の位置と姿勢を特定できるためには、3点以上の特徴点があればよく、例えば4点以上の特徴点を設けても同様に教示が可能である。マークの特徴点数を増やすと、最小二乗法で位置姿勢を求める際に誤差が平滑化され、教示の精度が向上する。
また、上記第1〜第3実施形態では、垂直多関節のロボットアームについて説明したが、これに限定するものではなく、パラレルリンクのロボットアーム、水平多関節のロボットアームや直交型のロボットなどへの適用も可能である。
また、上記第1〜第3実施形態では、3次元の位置姿勢を計測可能な視覚センサとして、ステレオカメラ300,300B,300Cである場合について説明したが、これに限定するものではない。例えば視覚センサとして、プロジェクタによるパターン投光法、レーザー切断法、Time−Of−Flight法などの方式を用いた視覚センサを用いてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…ロボットシステム、200…ロボット、300…ステレオカメラ(視覚センサ)、501,601…CPU(制御部)、900…校正治具、905…基準パターン部(基準物)、B…ベース座標系、R,t…相対関係、V…センサ座標系

Claims (12)

  1. 視覚センサを用いて基準物を計測し、前記視覚センサのセンサ部と前記視覚センサの係合部との相対関係を校正する校正ステップと、
    前記校正ステップの後に前記視覚センサの係合部をロボットに装着する装着ステップと、
    前記相対関係を参照し、前記視覚センサを用いて前記ロボットの教示を行う教示ステップと、
    を備えたことを特徴とするロボットの教示方法。
  2. 前記装着ステップでは、前記ロボットのロボットハンドが前記視覚センサを把持することを特徴とする請求項1に記載のロボットの教示方法。
  3. 前記装着ステップでは、前記ロボットハンドが前記視覚センサを把持することで、前記視覚センサの係合部と前記ロボットハンドの係合部とを係合させて、前記視覚センサを前記ロボットハンドに位置決めすることを特徴とする請求項2に記載のロボットの教示方法。
  4. 前記校正ステップでは、前記相対関係として、回転行列及び並進ベクトルを求めることを特徴とする請求項1乃至3のいずれか1項に記載のロボットの教示方法。
  5. 前記視覚センサは、3次元の位置姿勢を計測可能なセンサであることを特徴とする請求項1乃至4のいずれか1項に記載のロボットの教示方法。
  6. 前記視覚センサは、前記センサ部として第1のカメラ及び第2のカメラを有するステレオカメラであり、
    前記校正ステップでは、前記第1のカメラ及び前記第2のカメラのうち一方を基準に前記相対関係を校正することを特徴とする請求項5に記載のロボットの教示方法。
  7. 前記教示ステップでは、前記ロボットの姿勢を調整して、調整後の前記ロボットの姿勢を教示点としてメモリに記憶させることを特徴とする請求項1乃至6のいずれか1項に記載のロボットの教示方法。
  8. 前記視覚センサのセンサ部を基準とする座標系を第1の座標系、前記視覚センサの係合部を基準とする座標系を第2の座標系とし、
    前記教示ステップでは、前記視覚センサから得られた視覚情報に含まれる特徴点の前記第1の座標系を基準とする座標値を、前記相対関係により前記第2の座標系を基準とする計測値に変換し、前記計測値と予め設定された目標値とのずれ量に関する情報を、ユーザに提示して、ユーザにより操作された操作装置からの指令に従って前記ロボットの姿勢を調整することを特徴とする請求項7に記載のロボットの教示方法。
  9. 前記視覚センサのセンサ部を基準とする座標系を第1の座標系、前記視覚センサの係合部を基準とする座標系を第2の座標系とし、
    前記教示ステップでは、前記視覚センサから得られた視覚情報に含まれる特徴点の前記第1の座標系を基準とする座標値を、前記相対関係により前記第2の座標系を基準とする計測値に変換し、前記計測値と予め設定された目標値とのずれ量に基づいて、前記ロボットの姿勢を調整することを特徴とする請求項7に記載のロボットの教示方法。
  10. ロボットと、
    前記ロボットに対して着脱可能な視覚センサと、
    制御部と、を備え、
    前記制御部は、
    前記視覚センサを用いて基準物を計測し、前記視覚センサのセンサ部と前記視覚センサの係合部の相対関係を校正する校正処理と、
    前記視覚センサを前記ロボットに装着した後に、前記相対関係を参照し、前記視覚センサを用いて前記ロボットの教示を行う教示処理と、
    を実行することを特徴とするロボットシステム。
  11. コンピュータに、
    視覚センサを用いて基準物を計測し、前記視覚センサのセンサ部と前記視覚センサの係合部の相対関係を校正する校正ステップと、
    前記視覚センサをロボットに装着した後に、前記相対関係を参照し、前記視覚センサを用いて前記ロボットの教示を行う教示ステップと、を実行させるプログラム。
  12. 請求項11に記載のプログラムが記録されたコンピュータ読み取り可能な記録媒体。
JP2017022565A 2017-02-09 2017-02-09 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体 Active JP6964989B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017022565A JP6964989B2 (ja) 2017-02-09 2017-02-09 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US15/889,804 US10906182B2 (en) 2017-02-09 2018-02-06 Method of teaching robot and robot system
US17/134,758 US20210114221A1 (en) 2017-02-09 2020-12-28 Method of teaching robot and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022565A JP6964989B2 (ja) 2017-02-09 2017-02-09 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体

Publications (3)

Publication Number Publication Date
JP2018126835A true JP2018126835A (ja) 2018-08-16
JP2018126835A5 JP2018126835A5 (ja) 2020-07-16
JP6964989B2 JP6964989B2 (ja) 2021-11-10

Family

ID=63038992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022565A Active JP6964989B2 (ja) 2017-02-09 2017-02-09 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体

Country Status (2)

Country Link
US (2) US10906182B2 (ja)
JP (1) JP6964989B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571441A (zh) * 2019-01-08 2019-04-05 崧智智能科技(深圳)有限公司 工业机器人快速示教方法
CN110170995A (zh) * 2019-05-09 2019-08-27 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教方法
JP2020163518A (ja) * 2019-03-29 2020-10-08 ファナック株式会社 搬送装置及び受渡システム
JP2020175467A (ja) * 2019-04-17 2020-10-29 アズビル株式会社 教示装置及び教示方法
WO2020246225A1 (ja) * 2019-06-06 2020-12-10 株式会社日立ビルシステム ロボット支援システム、ロボット支援方法及び据付装置
CN112706168A (zh) * 2021-01-07 2021-04-27 库卡机器人制造(上海)有限公司 机械臂的运动轨迹生成方法、装置
US11192254B2 (en) 2018-12-18 2021-12-07 Fanuc Corporation Robot system and adjustment method therefor
US20210387345A1 (en) * 2020-06-11 2021-12-16 Delta Electronics, Inc. Coordinate calibration method of manipulator

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150338213A1 (en) * 2014-05-20 2015-11-26 Par Systems, Inc. Adaptive Manufacturing System
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
JP6512456B2 (ja) * 2016-12-27 2019-05-15 トヨタ自動車株式会社 水平多関節型ロボット用の校正治具および校正方法
CN107462154B (zh) * 2017-07-28 2019-08-30 深圳市圆梦精密技术研究院 机器人末端工具的位姿测量方法
NL2020360B1 (en) * 2018-01-31 2019-08-07 Besi Netherlands Bv Handler device for handling substrates
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
USD883351S1 (en) * 2018-05-10 2020-05-05 Robotiq Inc. Robotic end effector
JP7237483B2 (ja) 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP7169130B2 (ja) * 2018-09-03 2022-11-10 川崎重工業株式会社 ロボットシステム
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
CN109833608B (zh) * 2018-12-29 2021-06-22 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈动作教辅方法及系统
CN111716346B (zh) * 2019-03-20 2021-09-17 台达电子工业股份有限公司 机械手臂工具校正方法及其校正装置
US20220258352A1 (en) * 2019-07-19 2022-08-18 Siemens Ltd., China Robot hand-eye calibration method and apparatus, computing device, medium and product
JP7481097B2 (ja) * 2019-08-23 2024-05-10 ファナック株式会社 ロボット制御装置
WO2021042376A1 (zh) * 2019-09-06 2021-03-11 罗伯特·博世有限公司 用于工业机器人的标定方法及装置、三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台
CN110815213B (zh) * 2019-10-21 2021-03-19 华中科技大学 一种基于多维度特征融合的零件识别装配方法和装置
JP7335794B2 (ja) * 2019-11-20 2023-08-30 シュナイダーエレクトリックホールディングス株式会社 情報処理装置及び設定装置
CN111476841B (zh) * 2020-03-04 2020-12-29 哈尔滨工业大学 一种基于点云和图像的识别定位方法及系统
US11795012B1 (en) * 2020-11-06 2023-10-24 Aaron Thomas Bacon Multi-gripper system
CN114698624B (zh) * 2022-04-27 2023-05-16 中垦种业股份有限公司 一种水稻田高效除草方法
CN114952830B (zh) * 2022-05-13 2023-05-16 哈尔滨工业大学 基于接触约束的机器人高精度轴孔装配轴零件定位方法
CN115781270B (zh) * 2022-11-03 2024-05-07 中国工程物理研究院激光聚变研究中心 一种光学元件位姿校正系统的装配校正方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6097285U (ja) * 1983-12-10 1985-07-02 神鋼電機株式会社 ロボツトハンド交換機
JPH0798208A (ja) * 1993-09-29 1995-04-11 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH08328624A (ja) * 1995-06-06 1996-12-13 Fanuc Ltd センサとロボットとの結合方法及びロボットシステム
JPH11254362A (ja) * 1998-03-04 1999-09-21 Murata Mach Ltd ロボットハンドの位置補正システム
US20050102060A1 (en) * 2003-11-06 2005-05-12 Fanuc Ltd Device for correcting positional data of robot
JP2011194493A (ja) * 2010-03-18 2011-10-06 Ihi Corp カメラ脱着ロボット装置
US20140046486A1 (en) * 2012-08-08 2014-02-13 Canon Kabushiki Kaisha Robot device
US20160059419A1 (en) * 2014-09-03 2016-03-03 Canon Kabushiki Kaisha Robot apparatus and method for controlling robot apparatus

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4956578A (en) 1987-07-28 1990-09-11 Canon Kabushiki Kaisha Surface conduction electron-emitting device
JP2622842B2 (ja) 1987-10-12 1997-06-25 キヤノン株式会社 電子線画像表示装置および電子線画像表示装置の偏向方法
JP2630988B2 (ja) 1988-05-26 1997-07-16 キヤノン株式会社 電子線発生装置
JP3072795B2 (ja) 1991-10-08 2000-08-07 キヤノン株式会社 電子放出素子と該素子を用いた電子線発生装置及び画像形成装置
CA2112180C (en) 1992-12-28 1999-06-01 Yoshikazu Banno Electron source and manufacture method of same, and image forming device and manufacture method of same
US6157137A (en) 1993-01-28 2000-12-05 Canon Kabushiki Kaisha Multi-electron beam source with driving circuit for preventing voltage spikes
JP3665353B2 (ja) 1993-09-14 2005-06-29 ファナック株式会社 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
CA2135458C (en) 1993-11-09 2000-05-09 Yuji Kasanuki Image display apparatus
JP3012463B2 (ja) * 1993-12-22 2000-02-21 松下電工株式会社 組立装置
JP3025249B2 (ja) 1997-12-03 2000-03-27 キヤノン株式会社 素子の駆動装置及び素子の駆動方法及び画像形成装置
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4137862B2 (ja) * 2004-10-05 2008-08-20 ファナック株式会社 計測装置及びロボット制御装置
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
JP5755038B2 (ja) * 2010-06-28 2015-07-29 キヤノン株式会社 組立装置及び生産システム
JP6261209B2 (ja) 2013-07-04 2018-01-17 キヤノン株式会社 複数の生産装置を備えるシステム
JP6335460B2 (ja) 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP6126067B2 (ja) * 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6097285U (ja) * 1983-12-10 1985-07-02 神鋼電機株式会社 ロボツトハンド交換機
JPH0798208A (ja) * 1993-09-29 1995-04-11 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH08328624A (ja) * 1995-06-06 1996-12-13 Fanuc Ltd センサとロボットとの結合方法及びロボットシステム
JPH11254362A (ja) * 1998-03-04 1999-09-21 Murata Mach Ltd ロボットハンドの位置補正システム
US20050102060A1 (en) * 2003-11-06 2005-05-12 Fanuc Ltd Device for correcting positional data of robot
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2011194493A (ja) * 2010-03-18 2011-10-06 Ihi Corp カメラ脱着ロボット装置
US20140046486A1 (en) * 2012-08-08 2014-02-13 Canon Kabushiki Kaisha Robot device
JP2014034075A (ja) * 2012-08-08 2014-02-24 Canon Inc ロボット装置
US20160059419A1 (en) * 2014-09-03 2016-03-03 Canon Kabushiki Kaisha Robot apparatus and method for controlling robot apparatus
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192254B2 (en) 2018-12-18 2021-12-07 Fanuc Corporation Robot system and adjustment method therefor
CN109571441A (zh) * 2019-01-08 2019-04-05 崧智智能科技(深圳)有限公司 工业机器人快速示教方法
US11325261B2 (en) 2019-03-29 2022-05-10 Fanuc Corporation Transfer device and delivery system
JP2020163518A (ja) * 2019-03-29 2020-10-08 ファナック株式会社 搬送装置及び受渡システム
JP7022097B2 (ja) 2019-03-29 2022-02-17 ファナック株式会社 搬送装置及び受渡システム
JP2020175467A (ja) * 2019-04-17 2020-10-29 アズビル株式会社 教示装置及び教示方法
CN110170995A (zh) * 2019-05-09 2019-08-27 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教方法
JP2020199562A (ja) * 2019-06-06 2020-12-17 株式会社日立ビルシステム ロボット支援システム、ロボット支援方法及びガイドレール据付装置
WO2020246225A1 (ja) * 2019-06-06 2020-12-10 株式会社日立ビルシステム ロボット支援システム、ロボット支援方法及び据付装置
JP7157707B2 (ja) 2019-06-06 2022-10-20 株式会社日立ビルシステム 据付装置
US20210387345A1 (en) * 2020-06-11 2021-12-16 Delta Electronics, Inc. Coordinate calibration method of manipulator
US11738462B2 (en) * 2020-06-11 2023-08-29 Delta Electronics, Inc. Coordinate calibration method of manipulator
CN112706168A (zh) * 2021-01-07 2021-04-27 库卡机器人制造(上海)有限公司 机械臂的运动轨迹生成方法、装置

Also Published As

Publication number Publication date
US20210114221A1 (en) 2021-04-22
US10906182B2 (en) 2021-02-02
JP6964989B2 (ja) 2021-11-10
US20180222056A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6964989B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US10099380B2 (en) Robot, robot control device, and robot system
JP3946711B2 (ja) ロボットシステム
TWI670153B (zh) 機器人及機器人系統
JP4191080B2 (ja) 計測装置
JP4021413B2 (ja) 計測装置
JP6415190B2 (ja) ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP2020011339A (ja) ロボットシステムの制御方法、およびロボットシステム
JP2014151427A (ja) ロボットシステム及びロボットシステムの制御方法
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
US20160288333A1 (en) Robot, robot control device, and robotic system
JP6900290B2 (ja) ロボットシステム
TWI724977B (zh) 機器手臂的座標系校正設備及校正方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
WO2018214156A1 (zh) 校正机器人的运动控制命令的方法及其相关设备
CN111098306A (zh) 机器人的标定方法、装置、机器人和存储介质
JP6507792B2 (ja) ロボットおよびロボットシステム
JP7481432B2 (ja) ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211020

R151 Written notification of patent or utility model registration

Ref document number: 6964989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151