JP2018126857A - ロボットの制御方法、ロボットの教示方法、ロボットシステム、プログラム及び記録媒体 - Google Patents

ロボットの制御方法、ロボットの教示方法、ロボットシステム、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2018126857A
JP2018126857A JP2018020399A JP2018020399A JP2018126857A JP 2018126857 A JP2018126857 A JP 2018126857A JP 2018020399 A JP2018020399 A JP 2018020399A JP 2018020399 A JP2018020399 A JP 2018020399A JP 2018126857 A JP2018126857 A JP 2018126857A
Authority
JP
Japan
Prior art keywords
robot
coordinate value
point
coordinate
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018020399A
Other languages
English (en)
Other versions
JP7207851B2 (ja
JP2018126857A5 (ja
Inventor
鈴木 秀明
Hideaki Suzuki
秀明 鈴木
慶太 檀
Keita Dan
慶太 檀
直希 塚辺
Naoki Tsukabe
直希 塚辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2018126857A publication Critical patent/JP2018126857A/ja
Publication of JP2018126857A5 publication Critical patent/JP2018126857A5/ja
Application granted granted Critical
Publication of JP7207851B2 publication Critical patent/JP7207851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39029Verify if calibration position is a correct, by comparing with range in rom
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39397Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

【課題】作業者の作業負荷を低減させ、かつロボットによる生産性が低下することなく、ロボットの位置決めを高精度に行う。【解決手段】CPU601は、ロボット200に支持されたステレオカメラ300の座標系を基準とする、ワーク保持治具400のマークの目標座標値及び判定点の座標値をそれぞれ取得する。CPU501は、ステレオカメラ300の視野領域にワーク保持治具400が含まれる姿勢にロボット200を動作させる。CPU601は、ステレオカメラ300を用いた計測によりマークの計測座標値を求める。CPU601は、マークの目標座標値とマークの計測座標値との間のずれを示す座標変換行列を求める。CPU601は、判定点の座標変換前後の距離を求める。CPU501は、ロボット200の姿勢の補正の要否を判断し、要であればロボット200の姿勢を補正する。【選択図】図1

Description

本発明は、ロボットの制御に関する。
工場において部品の移載や組立、加工などの作業を自動化するために、多自由度のロボットを有するロボットシステムが用いられている。多自由度のロボットとしては、例えば垂直多関節型のロボット、水平多関節型のロボット、パラレルリンクのロボット、直交型のロボットなどが用いられる。ロボットをロボットプログラムに従って動作させることにより、目的に応じたさまざまな作業をロボットに行わせることができる。ばらつきのある部品に対して移載や組立、加工などの作業を行う場合、又は生産ラインの立ち上げ時や段取り替え後などに教示を行う場合に、視覚センサを用いてロボットの位置ずれの調整を行う技術がある。例えば特許文献1には、溶接用のロボットの先端にカメラを取り付けて、マークと目標位置姿勢のずれを補正する動作を繰返しロボットに行わせることによって教示を行う技術が提案されている。
特開2014−184530号公報
視覚センサを用いてロボットの姿勢を補正する動作を繰り返し行う繰り返し制御を実施する場合には、繰り返し制御が完了したことを判定するための閾値を事前に定める必要がある。特許文献1では、画像内のマークの並進方向の位置ずれに対する閾値によって、部品に対するロボットの並進距離の収束を判定している。また、画像内に映ったマークの真円度からマークに対するカメラの傾きを補正し、マークの真円度に対する閾値によって、部品に対するロボットの傾き角度の収束を判定している。これらの判定のために用いられる各閾値は、ロボットシステムの作業者が経験的に定めている。ロボットの先端の並進方向の位置決め精度が重要である場合においては、並進距離の閾値を適切に設定していれば、傾き角度の精度は問題にならなかった。しかし近年では、精密組立など精密な作業にもロボットが用いられるようになってきたため、ロボットの先端の傾きも高精度に位置決めを行う必要がある。そのため、マークの真円度を求めてロボット先端の傾きの収束を判定する場合においては、ロボット先端の変位に対してマークの真円度がどの程度変化するかという関係を作業者が正確に把握して、真円度に対する閾値を定める必要があった。この真円度に対する閾値を視覚センサの配置なども考慮して計算するのは手間がかかり、また視覚センサの誤差要因も考慮する必要があり、適切な閾値を定めるには、作業者の作業負荷が大きいものであった。
そこで、本発明は、作業者の作業負荷を低減させ、かつロボットによる生産性が低下することなく、ロボットの位置決めを高精度に行うことを目的とする。
本発明は、ロボットに支持された視覚センサにより特徴点の計測座標値を求める計測ステップと、前記計測座標値と、予め定められた前記特徴点の目標座標値との間のずれ量を、前記特徴点とは異なる判定点のずれ量に換算した、換算ずれ量を演算する演算ステップと、前記換算ずれ量と第1の閾値とを比較して、前記ロボットの姿勢が目標範囲内に収まっているか否かを判定する判定ステップと、を備えたことを特徴とするロボットの制御方法である。
また、本発明は、ロボットに支持された視覚センサを用いた計測により特徴点の計測座標値を求める計測ステップと、前記計測座標値と、予め定められた前記特徴点の目標座標値との間のずれ量を、前記特徴点とは異なる判定点のずれ量に換算した、換算ずれ量を演算する演算ステップと、少なくとも前記換算ずれ量と第1の閾値とを比較して、前記換算ずれ量が第1の閾値を超える場合に、前記ロボットの姿勢を前記ずれ量に基づいて補正する補正動作ステップと、前記計測ステップ、前記演算ステップ、および、前記補正動作ステップを繰り返し行い、前記換算ずれ量が第1の閾値以下となった状態の前記ロボットの姿勢を教示点に設定する設定ステップと、を備えた、ことを特徴とするロボットの教示方法である。
本発明によれば、作業者の作業負荷が低減し、かつロボットによる生産性が低下することなく、ロボットの位置決めを高精度に行うことができる。
第1実施形態に係るロボットシステムを示す説明図である。 (a)はワーク保持治具の斜視図である。(b)はワーク保持治具、第1のワーク及び第2のワークの斜視図である。 (a)、(b)及び(c)は第1実施形態におけるロボットハンド及びステレオカメラの斜視図である。 第1実施形態に係る教示を行うための事前準備を示すフローチャートである。 (a)は校正に用いる校正治具の説明図である。(b)は基準パターン部の平面図である。 ディスプレイに表示される設定画面を示す説明図である。 第1実施形態におけるロボット制御装置及びセンサ制御装置の機能ブロック図である。 第1実施形態における教示作業のフローチャートである。 特徴点の目標座標値と計測座標値との関係を説明するための模式図である。 (a)、(b)、(c)及び(d)は図8のステップS202〜S205を説明するための模式図である。 (a)、(b)は第1実施形態における判定処理を説明するための模式図である。 (a)、(b)は比較例における判定処理を説明するための模式図である。 (a)は第2実施形態において組み付け作業に用いられる第1のワーク及び第2のワークの説明図である。また、(b)は第2実施形態におけるロボットの構成を示す模式図である。 第2実施形態において組付作業を行うための事前準備を示すフローチャートである。 第2実施形態において校正に用いる校正治具の説明図である。 第2実施形態における組付作業のフローチャートである。 第3実施形態における演算処理を説明するための模式図である。
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。
[第1実施形態]
図1は、第1実施形態に係るロボットシステムを示す説明図である。ロボットシステム100は、ロボット200、視覚センサの一例であるステレオカメラ300、ワーク保持治具400、ロボット制御装置500、センサ制御装置600を備えている。さらに、表示部としてのディスプレイ700、入力部としてのティーチングペンダント800及び入力装置850を備えている。ロボット200は、ロボットアーム201、及びエンドエフェクタの一例であるロボットハンド202を備えている。ロボットアーム201は、垂直多関節のロボットアームである。ロボット200の基端、即ちロボットアーム201の基端は、架台150に固定されている。
ロボットアーム201の先端には、直接、又は不図示の力覚センサを介してロボットハンド202が取り付けられている。つまり、ロボット200の先端がロボットハンド202で構成されている。ロボットハンド202は、ハンド本体である掌部210と、掌部210に対して開閉動作が可能な複数、第1実施形態では2本のフィンガ211,212と、を有し、ワークを把持又は把持解放することができる。即ち、掌部210は、ハウジングと、ハウジングの内部に配置され、フィンガ211,212を駆動する駆動機構と、を有する。
ワーク保持治具400は、ワークが架台150に対して動かないようにワークをチャックする治具であり、架台150に固定されている。ワーク保持治具400は、ロボット200の先端、即ちロボットハンド202の可動範囲内に配置されている。ロボット200の先端、即ちロボットハンド202は、ロボット200の基端を原点とするロボット座標系Oにおいて6自由度の動作が可能である。具体的には、ロボットハンド202は、ロボットアーム201が動作することにより、ロボット座標系Oにおいて互いに直交する3軸の並進方向と、3軸まわりの回転方向の動作が可能である。
ティーチングペンダント800は、ユーザの操作によってロボット制御装置500に指令を送る。この指令の入力を受けたロボット制御装置500は、指令に従ってロボット200を動作させる。即ち、ユーザは、ティーチングペンダント800を操作することによってロボットアーム201を動作させ、ロボットハンド202を任意の方向及び任意の速度でジョグ送りすることができる。また、ユーザは、ティーチングペンダント800を操作することによって、ロボットハンド202のフィンガ211,212を開閉させることもできる。
ロボット制御装置500は、主にロボット200の動作を制御する。センサ制御装置600は、主にステレオカメラ300の動作を制御するとともに、画像処理や計測処理等の演算処理を行う。
ロボット制御装置500はコンピュータであり、CPU(Central Processing Unit)501を備えている。また、ロボット制御装置500は、内部記憶装置としてROM(Read Only Memory)502、RAM(Random Access Memory)503及びHDD(Hard Disk Drive)504を備えている。また、ロボット制御装置500は、インターフェース(I/F)505とバス506を備えている。CPU501、ROM502、RAM503、HDD504及びインターフェース505は、互いに通信可能にバス506を介して接続されている。
センサ制御装置600はコンピュータであり、CPU601を備えている。また、センサ制御装置600は、内部記憶装置としてROM602、RAM603及びHDD604を備えている。また、センサ制御装置600は、記録ディスクドライブ605、インターフェース(I/F)606、及びバス607を備えている。CPU601、ROM602、RAM603、HDD604、ディスクドライブ605及びインターフェース606は、互いに通信可能にバス607を介して接続されている。
ロボット制御装置500のインターフェース505には、ロボット200、ワーク保持治具400及びティーチングペンダント800が通信線で接続されている。センサ制御装置600のインターフェース606には、ステレオカメラ300、ディスプレイ700及び入力装置850が通信線で接続されている。また、ロボット制御装置500のインターフェース505とセンサ制御装置600のインターフェース606とが通信線で接続されている。よって、CPU501とCPU601とは互いに通信可能となっている。第1実施形態では、2つのCPU501,601によって制御部として機能する。
ロボット制御装置500のROM502には、基本プログラムが格納されている。RAM503は、CPU501の演算処理の結果等、各種データを一時的に記憶する記憶装置である。HDD504には、ロボット200の動作を規定するロボットプログラム510が格納されている。ロボットプログラム510には、教示点の情報511とコマンドの情報512とが含まれている。CPU501は、ロボットプログラム510に従ってロボット200の動作を制御し、ロボット200にワークの組付作業等の作業を行わせる。また、CPU501は、教示点の情報511の設定、即ち教示作業を行うときには、センサ制御装置600のCPU601の指令、又はティーチングペンダント800の指令に従ってロボット200の動作を制御する。即ち、CPU501は、CPU601から入力を受けた情報からロボット200の取るべき姿勢を求め、求めた姿勢情報に従ってロボット200を実際に動作させる。また、CPU501は、ロボット200を実際に動作させたときの姿勢の情報を教示点の情報511として新規作成又は更新が可能である。
センサ制御装置600のROM602には、基本プログラムが格納されている。RAM603は、CPU601の演算処理結果等、各種データを一時的に記憶する記憶装置である。HDD604には、教示を行う際のプログラム610が格納されている。ディスクドライブ605は、ディスク608に記録された各種データやプログラム等を読み出すことができる。CPU601は、ロボット200の教示を行うときには、プログラム610に従って、ステレオカメラ300の動作を制御し、ロボット200の動作をロボット制御装置500を介して制御する。また、CPU601は、ディスプレイ700の表示動作を制御する。例えば、CPU601は、ステレオカメラ300が撮像した画像データや、画像処理を実行した結果データなどをディスプレイ700に表示させ、ユーザに情報を提示する。ディスプレイ700は、三次元画像を表示する表示領域を有しており、特徴点と判定点との相対関係を表示することができる。またディスプレイ700は、設定画面において複数の判定点候補を表示し、複数の判定点候補のいずれか1つをユーザに選択させることができる。入力装置850は、例えばキーボードやマウスであり、ユーザがディスプレイ700を見ながら操作することより、文字、数値、ポインタ位置などの情報を、センサ制御装置600に入力することができる。
なお、第1実施形態では、コンピュータ読み取り可能な記録媒体がHDD604であり、HDD604にプログラム610が格納される場合について説明するが、これに限定するものではない。プログラム610は、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラム610を供給するための記録媒体としては、ROM602や、ディスク608、不図示の外部記憶装置等を用いてもよい。具体例を挙げて説明すると、記録媒体として、フレキシブルディスク、光ディスク、光磁気ディスク、磁気テープ、USBメモリ等の不揮発性メモリ、SSD等を用いることができる。
また、第1実施形態では、ロボット制御装置500とセンサ制御装置600とがそれぞれ一台のコンピュータで構成され、ロボットシステム100は合計2台のコンピュータを備えている場合について説明したが、これに限定するものでない。ロボット制御装置500及びセンサ制御装置600の双方の機能を1台のコンピュータで実現してもよいし、ロボット制御装置500及びセンサ制御装置600の機能を3台以上のコンピュータで分散処理するようにしてもよい。また、センサ制御装置600はステレオカメラ300の筐体の外部に配置されているが、筺体に内蔵されたスマートカメラによって同等の機能を実現することも可能である。
図2(a)は、ワーク保持治具400の斜視図である。図2(b)は、ワーク保持治具400、第1のワークであるワークW1及び第2のワークであるワークW2の斜視図である。図2(a)に示すようにワーク保持治具400は、ベース部401、ベース部401に固定されたワーク突当部402,403、及び治具フィンガ404,405を有している。ワーク保持治具400は、ロボットプログラム510に従って治具フィンガ404,405を開閉動作することができる。ワークW1をベース部401に載置した状態で治具フィンガ404,405を閉じることにより、ワークW1をチャックすることができる。
図2(b)には、ワーク保持治具400にワークW1が保持されている状態が図示されている。第1実施形態では、ワークW2をワークW1に組み付ける組付作業として、ワークW1とワークW2との嵌合作業を行う。具体的には、ワークW1をワーク保持治具400に保持させ、ワークW2をロボットハンド202に把持させてロボットアーム201を動作させることにより、嵌合作業を行う。嵌合作業を行う際には、図2(b)に示すように、ワークW1の真上に位置する作業開始位置PAにワークW1を把持したロボットハンド202を移動させ、この作業開始位置PAからワークW1を真下に移動させることにより、嵌合作業を行う。したがって、作業開始位置PAにロボットハンド202、即ちワークW1を正確に位置決めさせるために正確な教示が必要となる。
第1実施形態では、ステレオカメラ300を用いてロボット200の教示を行う。ステレオカメラ300は、ロボット200に対して着脱可能となっている。具体的に説明すると、ステレオカメラ300は、ロボットハンド202に対して位置決めされた状態でロボットハンド202に把持されるように構成されている。
図3(a)、図3(b)及び図3(c)は、第1実施形態におけるロボットハンド202及びステレオカメラ300の斜視図である。図3(a)及び図3(b)はロボットハンド202がステレオカメラ300を把持解放した状態、図3(c)はロボットハンド202がステレオカメラ300を把持した状態を示している。ステレオカメラ300は、計測対象物の3次元の位置姿勢を計測可能にステレオ法により計測対象物を撮像するカメラである。ステレオカメラ300は、センサ制御装置600からの撮像指令の入力を受けて撮像を行い、取得した画像データをセンサ制御装置600に送信することができる。ステレオカメラ300は、第1のカメラであるカメラ301と、第2のカメラであるカメラ302とを有している。2つのカメラ301,302は、カメラ筺体310の内部に配置されている。カメラ301,302は、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を有するデジタルカメラである。カメラ筺体310は、不図示のアタッチメント部を介してベース部311に固定されている。ベース部311には、ロボットハンド202との着脱機構として位置決めピン321,322及びテーパ部331,332が設けられている。
ロボットハンド202の掌部210の平面210Aには、ステレオカメラ300の位置決めピン321,322に対応する位置に丸穴221及び長穴222が形成されている。ロボットハンド202の掌部210の平面210A、丸穴221及び長穴222は、ロボットハンド202の機械的基準となっており、フィンガ211,212はこれらの機械的基準に対して所定の公差範囲内で取り付けられている。具体的には、掌部210の平面210A、丸穴221及び長穴222を用いて不図示のフィンガ調整治具を掌部210に対して位置決めした状態で、フィンガ211,212の開閉方向の取り付け位置が不図示のフィンガ調整治具に対して調整されている。フィンガ211,212の開閉方向の寸法は、不図示の開閉機構に対して厚みの異なるシムを挟んで取り付けることにより調整ができるようになっている。このように、フィンガ211,212は、掌部210を基準に調整されている。ロボットハンド202の掌部210に対してステレオカメラ300のベース部311を押し当てると、両者の面が突き当たるとともに位置決めピン321,322と丸穴221及び長穴222がそれぞれ嵌合する。これにより、ロボットハンド202に対してステレオカメラ300を位置決めすることができる。フィンガ211,212の内側には、テーパ部231,232が配置されている。ベース部311を掌部210に押し当てた状態でフィンガ211,212を閉じると、ロボットハンド202のテーパ部231,232とステレオカメラ300のテーパ部331,332がそれぞれ噛み合う。テーパ部231,232及びテーパ部331,332により、ベース部311を掌部210に押しつける力が発生し、ロボットハンド202に対してステレオカメラ300を安定して固定することができる。このように着脱機構は、ステレオカメラ300をロボットハンド202に対して直接取り付ける構成となっている。そのため、教示作業の際に、ロボットアーム201の誤差や、ロボットアーム201の先端であるフランジ面から掌部210までのロボットハンド202の製作誤差の影響を低減して高精度に教示を行うことができる。以上、ステレオカメラ300は、ロボットハンド202に把持されることで、ロボット200に支持される。
第1実施形態ではワーク保持治具400は教示作業を行うときの計測対象物である。図2(a)に示すワーク保持治具400には、ステレオカメラ300によって計測可能な、特徴点の一例である複数のマークMK1〜MK3が付与されている。マークMK1〜MK3は、ワーク保持治具400の機械的基準、例えばワーク突当部402,403に対して高精度に位置決めされている。マークMK1〜MK3は、ベース部401の上面に、高さ方向に所定の精度範囲内の厚み又は深さで形成されている。マークMK1〜MK3は、特徴点として画像処理で高精度に認識できるように、ベース部401に対してコントラストが得られるよう、黒色である。なお、マークMK1〜MK3をベース部401に付与する方法は任意であるが、例えばレーザー加工、印刷、エッチング、めっき処理、シール添付などの方法によりマークを付与することができる。また、ワーク保持治具400に直接的にマークMK1〜MK3を付与する場合について例示しているが、別部材のマーク付き基準プレートをワーク保持治具400に取り付け、教示時のみ一時的にマークMK1〜MK3を配置するようにしてもよい。
図4は、第1実施形態に係る教示を行うための事前準備を示すフローチャートである。まず、ステレオカメラ300の校正値を設定する(S101)。ステップS101では、(1)ステレオカメラ校正と(2)ベース−カメラ間校正の2種類の校正を実施し、そのパラメータをセンサ制御装置600に設定、即ちHDD604に記憶させる。
(1)ステレオカメラ校正
ステレオカメラ300によってステレオ画像上の対応点座標から3次元の計測値を得るためのステレオカメラパラメータを校正する。具体的には、カメラ301及びカメラ302の画像においてピクセル単位で表される画素座標値と、3次元空間における視線ベクトルとの関係を示すカメラ内部パラメータを、カメラ301及びカメラ302のそれぞれに対して求める。また、カメラ301とカメラ302の相対的な位置姿勢を表すカメラ外部パラメータも求める。即ち、カメラ外部パラメータとして、カメラ301の位置姿勢を代表する第1のセンサ座標系と、カメラ302の位置姿勢を代表する第2のセンサ座標系との相対的な位置姿勢を表す座標変換行列を求める。このようなステレオカメラの校正に関してはさまざま手法が公知である。カメラ301の画像とカメラ302の画像から特徴点を抽出すると、センサ座標系から見たその特徴点の3次元座標値を求めることができる。第1実施形態においては、カメラ301が基準カメラであるとして、ステレオ計測の結果は第1のセンサ座標系からみた座標値として表現されるものとする。以下、ステレオカメラ300の位置姿勢を代表する座標系として、第1のセンサ座標系をセンサ座標系Vと表す。
(2)ベース−カメラ間校正
前述したステレオカメラ校正の方法によってセンサ座標系Vからみた特徴点の位置は3次元で高精度に計測することが可能であるが、センサ座標系Vはカメラ301のレンズ主点を原点とする座標系である。そのため、外部からその位置姿勢を直接的に計測することはできない。そこで第1実施形態においては、ベース部311に対するセンサ座標系Vの位置姿勢を特定するためのベース−カメラ間校正も行い、その校正結果データをセンサ制御装置600のHDD604に記憶させる。ベース部311とセンサ座標系Vとの関係を校正するベース−カメラ間校正の方法について具体的に説明する。
図5(a)は、校正に用いる校正治具900の説明図である。校正治具900は、ベース部901、支柱部902,903、上板部904、及び基準パターン部905を有する。ベース部901と上板部904とは、互いに対向するように配置された板状の部材であり、支柱部902,903で接続されている。ベース部901には、掌部210の丸穴221及び長穴222と同様に、ステレオカメラ300のピン321,322に対応する位置に穴部906,907が設けてあり、ステレオカメラ300を高い再現性で位置決めすることができる。
図5(b)は、基準パターン部905の平面図である。上板部904の内面には基準パターン部905が配置されている。基準パターン部905は、板状の部材である。基準パターン部905の表面には、エッチング等で高精度に加工されたK個のマーク908がアレイ状に形成されている。ベース部901の上面、穴部906,907及び基準パターンマーク908の各位置は、校正治具900の製作後に不図示の計測器により計測されており、それぞれの関係が高精度に分かっている。さらにベース部901の上面及び穴部906,907の計測値を基準として、ステレオカメラ300の取り付け基準位置の位置姿勢に対応する、視覚センサの座標系であるベース座標系Bが設定されている。そして、マーク908の各点の3次元座標値m[i](i=1〜K)はベース座標系Bからみた3次元座標値m[i](i=1〜K)に座標変換した上で、不図示の校正装置の演算部に記憶されている。校正治具900に対してステレオカメラ300を位置決めした状態で基準パターン部905のマーク908をステレオ計測することにより、ベース座標系Bとセンサ座標系Vとの関係を求めることができる。
ベース座標系Bとセンサ座標系Vとの関係を表す回転行列をR、並進ベクトルをtとする。マーク908をステレオ計測して得られるセンサ座標系Vからみた座標値m[i](i=1〜K)に対して、各種の誤差がない場合は、以下の式(1)が成り立つ。
Figure 2018126857
実際の計測データを用いる場合には誤差があるため、式(1)の左辺と右辺は厳密には一致しない。したがって、以下の式(2)を解くことによって最小二乗解を得る。
Figure 2018126857
即ち、式(2)を満たすような回転行列Rと並進ベクトルtを最小二乗解として求めればよい。この問題は、点集合同士のマッチング問題として知られており、例えば特異値分解を用いた手法によって解くことができる。これにより、センサ座標系Vを基準とする座標値を、ベース座標系Bを基準とする座標値に座標変換するためのベース−カメラ間校正値として、回転行列R及び並進ベクトルtが得られる。
次に、教示の目標座標値を設定する(S102)。第1実施形態では、図2(b)に示すようにワークW2を位置PAに位置決めするための目標座標値を設定する。図6は、ディスプレイ700に表示される設定画面を示す説明図である。ユーザは、図6に示す設定画面を見ながら、目標座標値を設定することができる。
教示の目標座標値の設定は、ベース部311の面及び位置決めピン321,322に代表されるステレオカメラ300の機械的基準と、ワーク保持治具400に付与されたマークMK1〜MK3の設計上の位置関係を入力することによって行う。例えば、ベース座標系Bを基準とする設計上のマークMK1〜MK3の3次元の目標座標値p[i](i=1〜3)を設定する。ここで目標座標値p[i](i=1〜3)は、XYZの3成分を持つベクトルで表される3次元の座標値である。目標座標値p[i]は、目標座標値のリストをセンサ制御装置600のHDD604に予め記憶させておき、ユーザがリストの中から選択して設定するようにしてもよいし、ユーザが入力装置850を操作して数値を入力することで設定するようにしてもよい。ユーザが入力装置850を用いて数値を入力する場合は、入力操作をより簡便に行えるようにするため、マークMK1〜MK3の位置姿勢を代表するマーカー座標系Mを導入してもよい。この場合、マーカー座標系Mを基準とするマークMK1〜MK3の各点の3次元の座標値p[i](i=1〜3)と、ベース座標系Bに対するマーカー座標系Mの相対的な位置姿勢の設計値を入力する。その回転成分を,並進成分をとすると、マークMK1〜MK3の3次元の座標値p[i](i=1〜3)は以下の式(3)のように表される。
Figure 2018126857
マーカー座標系Mで入力操作を行えるようにすることで、マークMK1〜MK3の形状のみで決まる配置と、マーカー座標系Mに対するロボットハンド202の位置姿勢を別個に設定できるため、マークMK1〜MK3の点数が多い場合に設定が簡便になる。図6に示す設定画面710の例では、ロボットハンド202とステレオカメラ300の3次元CADモデルが表示されるとともに、ベース座標系Bの位置姿勢が矢印で上書き表示されている。ユーザが入力したマーカー座標系Mの位置姿勢情報とマークの座標値に基づいて、CADモデル画面上にマーカー座標系Mの位置姿勢を表す矢印と、マークMK1〜MK3の各点p1〜p3の位置を表す点が重ね書き表示される。これらの入力した設定情報をユーザが直感的に確認することができるので、設定が容易で間違いが起こりにくい。以上、ステップS102により、センサ制御装置600のHDD604には、ベース座標系Bを基準とするマークMK1〜MK3の目標座標値p[i]が記憶される。
次に、判定点を設定する(S103)。判定点とは、後述する収束判定の演算に用いる仮想的な点であり、ステレオカメラ300を用いて計測される特徴点とは異なる点である。判定点は、マークMK1〜MK3に対するステレオカメラ300の傾きを、求められている精度の範囲内に早く収束させるために、特徴点とは別に追加した点である。ベース座標系Bを基準とする判定点の座標値addを、センサ制御装置600のHDD604に記憶させる。判定点は、計算のみで用いる仮想的な点であるので、ステレオカメラ300の視野領域の外、即ち計測可能範囲の外にあっても構わない。判定点は、任意の点であるが、特徴点であるマークMK1〜MK3よりもステレオカメラ300又はロボット200に近い点であるのか好ましい。より好ましい判定点は、フィンガ211,212と掌部210とで囲まれた、ロボットハンドでワークを把持可能な領域(以下、把持領域と呼ぶ)と、ロボットハンドに把持されたワーク外形とを合算した領域内の任意の点である。例えば、ベース座標系Bやセンサ座標系Vの原点を判定点として用いてもよいし、フィンガ211の先端部などの点としてもよい。また、判定点の設定にあたっては、ユーザが入力装置850を操作して直接的に数値を入力するようにしてもよいし、ロボットシステム100におけるマークMK1〜MK3以外の任意の特徴点や座標系の原点を選択肢として提示し、ユーザに選択させてもよい。後者の場合、ベース座標系Bの原点やツール座標系Tの原点など、ディスプレイ700の画像を見ながらユーザが選択して設定できるので、判定点を数値入力する前者の場合に比べて設定作業が容易となる。
図6に示す設定画面710の例においては、ベース座標系、ツール座標系及びセンサ座標系の原点の値を表示し、ユーザがチェックボックスを有効にすることにより、ユーザが選択することができる。また、設定画面710の「ユーザ定義」の欄には、ユーザが任意に座標値を入力できるようになっている。なお、ユーザが数値入力した値に基づいてCAD画面上に3次元の点の位置を上書き表示してもよいし、逆にCAD画面からモデル上の面やコーナーなどの特徴点をユーザがクリック等の操作で選択して判定点をGUI上で設定できるようしてもよい。判定点は、1点又は複数点設定することができるが、第1実施形態では1点とした場合について説明する。以上、ステップS103により、センサ制御装置600のHDD604には、ベース座標系Bを基準とする判定点の座標値addが記憶される。
ここまでは、ユーザが判定点の設定に関与する場合について説明したが、ロボット200に取り付けるロボットハンド202の形状に応じて、ロボットシステム100が自動で判定点を設定するようにしてもよい。例えば、センサ制御部600のHDDに、ロボットハンド202の種類と判定点とを対応づけるためのテーブルを記憶させておき、取り付けたロボットハンド202の情報を取得して自動的に判定点を設定する。この場合、ユーザが判定点を設定する必要がなく、自動で判定点を設定し、ロボットの姿勢を補正する補正動作を実行することができる。
さらに、第1の閾値である閾値δ及び第2の閾値である閾値Δを設定する(S104)。閾値δは、後述する収束の判定に用いる閾値であり、閾値Δは、後述する形状残差の判定に用いる閾値である。ユーザは、自由に閾値δ,Δを設定することができるが、用途に応じた必要精度を勘案して閾値δ,Δを設定すればよい。図6に示す設定画面710には、mm単位の並進量のみで閾値を入力できるようになっており、ユーザが傾き角度を意識する必要がないため、直感的な入力ができるようになっている。以上、ステップS104により、センサ制御装置600のHDD604には、閾値δ,Δが記憶される。以上のステップS101〜S104の準備は、オフラインで実行可能な準備作業であり、ロボットシステム100と接続されていない別のコンピュータなどで設定作業を行ってもよい。
次に、ロボットハンド202にステレオカメラ300を取り付ける(S105)。具体的には、ロボットハンド202にステレオカメラ300を把持させる。具体的な操作としては、例えばロボットアーム201をティーチングペンダント800でジョグ送りしてロボットハンド202の掌部210を上向きにし、ユーザがステレオカメラ300を掌部210に置く。そして、ユーザがティーチングペンダント800を操作して、ロボットハンド202のフィンガ211,212を閉じることによってステレオカメラ300をロボットハンド202にチャックさせる。
次に、ロボット200、具体的にはロボットアーム201を、教示を開始する姿勢に動作させる(S106:動作ステップ、動作処理)。教示を開始するロボット200の姿勢とは、ステレオカメラ300の視野領域に計測対象物であるワーク保持治具400が含まれるロボット200の姿勢である。つまり、ロボット200、即ちロボットアーム201は、ワーク保持治具400のマークMK1〜MK3をステレオカメラ300により撮像できる姿勢であれば、どのような姿勢であってもよい。この場合、CPU501は、ユーザがティーチングペンダント800を操作したときの指令に従ってロボット200を動作させてもよいし、予めオフラインティーチングなどで設定された姿勢にロボット200を動作させてもよい。教示点へロボット200を動作させた後、マークMK1〜MK3がステレオカメラ300の視野領域から外れている場合は、ユーザがステレオカメラ300の画像をディスプレイ700で確認しながら、ロボットアーム201をジョグ送りさせればよい。このステップ106により、ステレオカメラ300の視野領域内に3点のマークMK1〜MK3が含まれることになる。
図7は、第1実施形態におけるロボット制御装置500及びセンサ制御装置600の機能ブロック図である。図1に示すロボット制御装置500のCPU501は、図7に示すロボット制御部521として機能し、図1に示すロボット制御装置500のHDD504は、図7に示す記憶部522として機能する。記憶部522には、教示点の情報511が記憶される。図1に示すセンサ制御装置600のCPU601は、図7に示すカメラ制御部611、計測部613、演算部615、変換部621,演算部622、変換部623、演算部624、判定部626、判定部632、出力部640として機能する。図1に示すセンサ制御装置600のHDD604は、図7に示す記憶部612、記憶部614、記憶部625、記憶部627、記憶部631として機能する。記憶部612には、校正値が記憶されている。記憶部614には、特徴点であるマークMK1〜MK3の目標座標値p[i](i=1〜3)が記憶されている。記憶部625には、判定点の座標値addが記憶されている。記憶部627には、閾値δが記憶されている。記憶部631には、閾値Δが記憶されている。
図8は、第1実施形態における教示作業のフローチャートである。第1実施形態では、組付作業をロボット200に安定して行わせるために、ワーク保持治具400に対してロボットハンド202を位置決めして、そのときのロボット200、即ちロボットアーム201の姿勢を教示点として記憶させる。まず、計測部613は、校正値として、カメラ内部パラメータ、カメラ外部パラメータ、回転行列R及び並進ベクトルtを記憶部612から取得する。また、演算部615、変換部621及び演算部622は、マークMK1〜MK3の目標座標値p[i](i=1〜3)を記憶部614から取得する。また、変換部623及び演算部624は、記憶部625から判定点の座標値addを取得する。また、判定部626は、記憶部627から閾値δを取得する。また、判定部632は、記憶部631から閾値Δを取得する。即ち、CPU601は、マークMK1〜MK3の目標座標値p[i](i=1〜3)及び判定点の座標値addを含む各種パラメータを、HDD604から読み出すことで取得する(S201:取得ステップ、取得処理)。
次に、計測部613は、ステレオカメラ300を用いた計測によりベース座標系Bを基準とするマークMK1〜MK3の位置、即ち計測座標値を求める(S202:計測ステップ、計測処理)。具体的に説明すると、カメラ制御部611は、ステレオカメラ300に対して撮像指令を送信し、ステレオカメラ300にマークMK1〜MK3を含むワーク保持治具400を撮像させて、ステレオカメラ300から画像を取得する。これにより、計測部613は、カメラ301とカメラ302の双方の画像(ステレオ画像)を取得する。計測部613は、カメラ制御部611から取得したステレオ画像に対して画像処理及びステレオ計算処理を行い、マークMK1〜MK3の計測座標値を求める。
マークMK1〜MK3の位置を計測するための画像処理は、種々の公知手法を用いることができる。例えば、ステレオ画像それぞれの画像全体に対してエッジ抽出処理を行い、抽出したエッジの真円度や外接円半径などの形状特徴量を用いて、マークMK1〜MK3のエッジのみを選択する。その後、マークMK1〜MK3の画像上のエッジに対して楕円フィッティング処理を行い、マークMK1〜MK3の中心の画素座標を求める。円フィッティングでなく楕円フィッティング処理を用いたのは、ステレオカメラ300と円形のマークMK1〜MK3との相対的な配置によって、投影された際に円が歪んで楕円形状に近くなる可能性があるためである。マークMK1〜MK3の円中心の画素座標上を求めた後、カメラ301の画像の画素座標とカメラ302の画像の画素座標の対応づけを行い、3次元の座標値の計算を行う。カメラ301及びカメラ302のカメラ内部パラメータとカメラ外部パラメータを用いることにより、センサ座標系Vを基準にマークMK1〜MK3の座標値を算出することができる。この座標値を、q[i](i=1〜3)とする。
さらに計測部613は、回転行列R及び並進ベクトルtを用いて、ステレオカメラ300を用いて計測したマークMK1〜MK3の座標値q[i](i=1〜3)をベース座標系Bを基準とする計測座標値q[i](i=1〜3)に座標変換する。即ち、計測部613は、ステレオカメラ300を用いた計測の結果として、以下の式(4)を用いて計測座標値q[i](i=1〜3)を求める。
Figure 2018126857
次に、判定点の座標値を変換する(演算ステップ、演算処理)。以下、この処理について具体的に説明する。まず、演算部615は、目標値と計測値との間のずれ量を表す変換パラメータの計算を行う(S203)。具体的に説明すると、演算部615は、ステップS203において、目標座標値p[i]と計測座標値q[i]との間のずれを示す座標変換行列である回転行列R及び並進ベクトルtを求める(第1の演算ステップ,第1の演算処理)。図9は、特徴点の目標座標値p[i]と計測座標値q[i]との関係を説明するための模式図である。なお、図9において、目標座標値p[i](i=1〜3)をp1,p2,p3、計測座標値をq[i](i=1〜3)をq1,q2,q3で表している。演算部615は、目標座標値p1,p2,p3がそれぞれ計測座標値q1,q2,q3に重なるように座標変換するための回転行列R及び並進ベクトルtを求める。
ベース座標系Bが回転行列R及び並進ベクトルtの分、移動した後の座標系をB’とすると、移動後の目標座標値p’[i]は以下の式(5)のように表される。
Figure 2018126857
よって、移動後の目標座標値p’[i]がマークMK1〜MK3の計測座標値q[i]と一致するようにベース座標系Bを動かすためには、以下の式(6)が最小値となるような回転行列Rと並進ベクトルtの最小二乗解を求めればよい。即ち、各マークMK1〜MK3の計測座標値q[i]には、ステレオカメラ300やマークMK1〜MK3の個体差に依存する互いに異なる計測誤差が含まれているため、回転行列Rと並進ベクトルtの最小二乗解を求めることになる。ここで、特徴点であるマークの数をN、1からNまでの整数をiとしている。即ち、演算部615は、式(6)が最小値となるように回転行列R及び並進ベクトルtを求める。
Figure 2018126857
この演算は、ベース−カメラ間校正で用いた点集合同士のマッチング問題と同様の手法で解くことができる。以上の演算処理により、ベース座標系Bのずれを示す回転行列R及び並進ベクトルtが求まる。
次に、変換部621は、マークMK1〜MK3の目標座標値p[i](i=1〜3)を回転行列R及び並進ベクトルtを用いて座標変換する。即ち、変換部621は、以下の式(7)に示す演算を行うことにより、座標変換後の目標座標値p’[i](i=1〜3)を求める。具体的には、変換部621は、回転行列Rと特徴点の目標座標値p[i]との掛け算を行い、その計算結果と並進ベクトルtとの足し算を行うことで、座標変換後の目標座標値p’[i]を求める。
Figure 2018126857
また、変換部623は、判定点の座標値addを回転行列R及び並進ベクトルtを用いて座標変換する。即ち、変換部623は、以下の式(8)に示す演算を行うことにより、座標変換後の座標値p’addを求める。具体的には、変換部623は、回転行列Rと判定点の座標値addとの掛け算を行い、その計算結果と並進ベクトルtとの足し算を行うことで、座標変換後の座標値p’addを求める。
Figure 2018126857
以上、変換部621,623は、ステップS204において、目標座標値p[i](i=1〜3)及び座標値addを、回転行列R及び並進ベクトルtを用いて座標変換する。
次に、演算部622,624により座標変換前後の点間の距離を求める(S205:第2の演算ステップ、第2の演算処理)。そして、判定部626により収束判定を行う(S206)。具体的に説明すると、演算部622は、ステップS205において、特徴点の座標変換前後の目標座標値の距離を求める。演算部624は、ステップS205において、判定点の座標変換前後の座標値の距離を求める。即ち、演算部622は、特徴点の座標変換前の目標座標値p[i](i=1〜3)と、座標変換後の目標座標値p’[i](i=1〜3)との点間の距離d[i](i=1〜3)を、以下の式(9)を用いて求める。
Figure 2018126857
このように演算部622は、ステップS205において、座標変換前後の点の差分ベクトルに対して、ノルムを演算することにより点間の距離d[i]を求める。
また、演算部624は、判定点の座標変換前の座標値paddと座標変換後の座標値p’addとの点間の距離daddを、以下の式(10)を用いて求める。この距離daddはすなわち、目標座標値と計測座標値のずれ量を判定点の位置に換算した換算ずれ量である。
Figure 2018126857
このように演算部624は、ステップS205において、座標変換前後の点の差分ベクトルに対して、ノルムを演算することにより点間の距離daddを求める。即ち、判定点をベース座標系Bの原点以外の点とした場合には、変換部623は、判定点の座標値addを回転行列R及び並進ベクトルtを用いて式(8)に従って座標変換する。そして、演算部624は、判定点の座標変換前の座標値paddと座標変換後の座標値p’addとの点間の距離daddを、上記の式(10)を用いて求める。なお、判定点をベース座標系Bの原点とした場合には、演算部624は、並進ベクトルtのノルム|t|、即ち長さを求めることにより点間の距離daddを求めればよい。即ち、dadd=|t|である。この場合、変換部623の座標変換処理を省略でき、演算負荷が軽減する。
次に、判定部626は、ステップS206において、点間の距離d[i](i=1〜3),daddと閾値δとを比較することにより、ロボットの姿勢が目標範囲内に収束したか否かを判定する。即ち、判定部626は、以下の式(11)の不等式が成り立つか否かを判定する。つまり、判定部626は、式(11)の不等式で、ロボット200の姿勢を補正するか否か、即ち補正の要否を判断する(判断ステップ、判断処理)。式(11)の不等式が成り立たなければ、ロボット200の姿勢を補正する必要があるということになる。式(11)の不等式が成り立てば、ロボット200の姿勢を補正する必要はないということになる。式(11)には、判定点の変換後の座標値が含まれているので、判定点の変換後の座標値に基づき、補正の要否を判断していることになる。
Figure 2018126857
第1実施形態では、判定部626は、特徴点と判定点の全点について、座標変換前後での点間の距離d[i],daddの全てが、第1の閾値以下、即ち閾値δ以下であるか否かを判定する。点間の距離d[i],daddの全てが、閾値δ以下の場合は、収束したことを示し、点間の距離d[i],daddのうち1つでも閾値δを超える場合は、収束していないことを示す。よって、距離daddが閾値δを超える場合は収束していない。
図10(a)、図10(b)、図10(c)及び図10(d)は、図8のステップS202〜S205を説明するための模式図である。なお、図10(a)〜図10(d)において、第1実施形態では3次元の点群に対して処理を実行するが、便宜上、2次元で点群を図示しており、また、3点ある特徴点については2点のみを図示している。またロボットハンド202などの機構物は図示せずに座標系および特徴点のみを図示している。図10(a)〜図10(d)中、判定点の座標変換前の座標値padd、判定点の座標変換後の座標値p’add、特徴点の座標変換前の目標座標値p1,p2及び特徴点の座標変換後の目標座標値p1’,p2’は×印にて図示している。また、図10(a)〜図10(d)中、特徴点の計測座標値q1,q2は黒丸にて図示している。また、目標座標値p1、目標座標値p2及びベース座標系Bの原点を破線でつないでいるのは、これらが一体に動くことを分かりやすくするためである。
図10(a)に示すように、回転行列R及び並進ベクトルtを求めた後、図10(b)に示すように、座標変換後の座標値p’add,p1’,p2’を求める。そして、座標値p1,p2と座標値p1’,p2’との距離d[1],d[2]、及び座標値paddと座標値p’addとの距離daddを求める。図10(c)に示すように、距離d[1],d[2],daddのうち1つでも閾値δを超える、即ち座標変換後の点p1’,p2’,p’addを中心とする半径r=δの球の範囲から座標変換前の点が1つでも超える場合は収束していない。図10(d)に示すように、距離d[1],d[2],daddの全てが閾値δ以下、即ち座標変換後の点p1’,p2’,p’addを中心とする半径r=δの球の範囲内に座標変換前の点が全て収まっている場合は収束している。
次に、ステップS206において点間の距離d[1],d[2],daddのうち1つでも閾値δを超える場合(S206:No)、即ち収束していない場合、出力部640は、判定結果と、回転行列R及び並進ベクトルtとをロボット制御部521に出力する。ロボット制御部521は、回転行列R及び並進ベクトルtに基づき、ロボット200、即ちロボットアーム201に取らせる姿勢指令を求め(S207)、姿勢指令に従ってロボット200、即ちロボットアーム201の姿勢を補正する(S208)。ここで、ロボット200、即ちロボットアーム201の姿勢を補正するとは、ロボット座標系Oにおけるロボット200の先端、即ちロボットハンド202の位置姿勢を補正することである。
以下、ステップS207の計算について具体的に説明する。ロボット制御装置500には、ロボット200の先端、即ちロボットハンド202を原点とするツール座標系Tが設定されている。また、ツール座標系Tに対するベース座標系Bの位置姿勢も予め設定されている。ロボット座標系Oに対するツール座標系Tの位置姿勢を行列とする。さらに、ツール座標系Tに対するベース座標系Bの位置姿勢を行列とする。補正後のロボット200の姿勢を行列T’とすると、行列T’は、以下の式(12)で記述できる。
Figure 2018126857
行列B’は、ステップS203において計算した回転行列R及び並進ベクトルtを元に計算した、ベース座標系Bの現在位置から計測位置への座標変換を表す同次変換行列であり、以下の式(13)で表される。
Figure 2018126857
即ち、ロボット制御部521は、ステップS207では、式(12)及び式(13)を用いて、ロボット200の先端の位置姿勢を示す行列T’を計算する。次に、ロボット制御部521は、行列T’からロボット200の姿勢指令、即ちロボットアーム201の各関節の角度指令を計算する。そして、ロボット制御部521は、ステップS208において、姿勢指令に従ってロボット200を動作させ、ロボット200の姿勢を補正する(補正動作ステップ、補正動作処理)。
ロボット200の姿勢を補正した後は、再びステップS202〜S205の処理を行い、ステップS206にて閾値δによる収束判定を行う。そして、ステップS206にて収束していなければ、再びステップS207、S208、S202〜S205の処理を行う。このように、点間の距離d[1],d[2],daddのうち全てが閾値δ以下に収束するまで、ステップS202〜S208を繰り返す。つまり、ロボット200の補正動作を繰り返し実行する。ロボットアーム201の動作の誤差やステレオカメラ300による計測の誤差があるため、1度の補正動作では教示を完了できないことが多い。第1実施形態によれば、繰り返し補正動作を行うことによって、ロボットハンド202を高精度に位置決めすることができる。なお、繰り返しの回数に上限を設け、繰り返し回数が所定の回数を超えても収束しない場合はタイムアウトとして終了してもよい。
図11(a)及び図11(b)は、第1実施形態における判定処理を説明するための模式図である。図12(a)及び図12(b)は、比較例における判定処理を説明するための模式図である。比較例では判定点を用いずに判定処理を行う。図11(a)と図12(a)、図11(b)と図12(b)は、比較のため、それぞれステレオカメラ300とマークMK1〜MK3との相対位置が同じ場合としている。なお、図11(a)及び図11(b)においては、判定点がベース座標系Bの原点としている場合について図示している。
比較例では、図12(a)に示すように、座標値p1,p2と座標値p1’,p2’との距離d[1],d[2]が閾値δ以下であり、マークMK1〜MK3に対しステレオカメラ300が傾いていても、収束した、即ちOKと判定される。一方、第1実施形態では、図11(a)に示すように、座標値p1,p2と座標値p1’,p2’との距離d[1],d[2]が閾値δ以下であっても、判定点の座標値paddと座標値p’addとの距離daddが閾値δを超えている。この場合、マークMK1〜MK3に対しステレオカメラ300が傾いているため、第1実施形態では収束していない、即ちNGと判定される。これにより、ロボット200の姿勢の補正動作を繰り返すことになる。よって、マークMK1〜MK3に対してロボットハンド202を所定の精度範囲内に位置決めすることができる。
比較例において、判定点無しの判定方法でロボットハンド202を所定の精度範囲に位置決めするためには、図12(b)に示すように、閾値δよりも低い閾値δ’を設定する必要がある。この場合、適切な閾値をユーザが計算するのに手間がかかるだけでなく、閾値δよりも厳しい閾値δ’に設定する必要があるため、すぐには収束したとは判定されない。その結果、繰り返し動作の時間が余計にかかることになり、収束が遅くなる。これに対し、図11(b)に示すように、判定点を追加したことにより、閾値δを比較例のように厳しく設定しなくても、距離d[1],d[2],daddが閾値δに早く収束し、次の処理を早く実行することができる。よって、判定点を計算上座標変換させてその位置で収束を判定することにより、マークMK1〜MK3に対してロボットハンド202を高精度かつ迅速に位置決めすることができる。
また、第1実施形態では、収束判定に用いる判定点を追加しており、仮想的な点である追加点については、回転行列R及び並進ベクトルtを用いて、座標変換前の座標値addと座標変換後の座標値p’addとの点間の距離daddを求めている。各特徴点の計測座標値q[i]には、ステレオカメラ300やマークMK1〜MK3の個体差に依存する互いに異なる計測誤差が含まれている。この計測誤差のばらつきが大きい場合、特徴点の目標座標値p[i]と計測座標値q[i]との距離を収束判定に用いると、閾値δに収束しない場合がある。したがって、特徴点について、閾値δを用いた判定の精度を高めるためには、判定点と同じく、座標変換前の目標座標値p[i]と座標変換後の目標座標値p’[i]との点間の距離を求めるのが好ましい。よって、第1実施形態では、収束判定に用いる指標として、特徴点についても判定点と同じく、座標変換前の目標座標値p[i]と座標変換後の目標座標値p’[i]との点間の距離d[i]を求めている。このため、座標変換前の特徴点の目標座標値p[i]及び判定点の座標値paddと、座標変換後の特徴点の目標座標値p’[i]及び判定点の座標値padd’との関係は、計算上で座標変換を行っているだけであるので、合同となっている。特徴点及び判定点を同じ指標、即ち座標変換前後の距離を用いて判定するので、判定結果がステレオカメラ300の計測誤差等の外乱要因の影響を受けにくくなる。即ち、特徴点の計測誤差のばらつきが大きくても、判定点と同じく、座標変換前後の点間の距離d[i]で収束判定を行うので、より確実に収束させることができる。
次に、ステップS206において距離d[i],daddの全てが閾値以下と判定された場合(S206:Yes)、即ち収束した場合、判定部632において、教示結果の信頼性を確認するための形状残差の計算(S209)及び判定(S210)を行う。判定部632は、ステレオカメラ300によって計測したマークMK1〜MK3の計測座標値と目標座標値とに基づき、計測対象物の設計形状と計測形状との間の一致度を表す指標を演算する。具体的には、判定部632は、マークMK1〜MK3の計測座標値q[i]と、マークMK1〜MK3の座標変換後の目標座標値p’[i]との点間の距離e[i]を、式(14)を用いて演算する。
Figure 2018126857
ここで、座標変換後の目標座標値p’[i]は、設計形状の目標値を計測座標値q[i]に重なるように座標変換した結果となっているので、e[i]の値は、ステレオカメラ300の全体的な位置ずれ等によっては変化することはない。一方で、何らかの誤差要因により計測座標値q[i]と目標座標値p’[i]との点間の距離e[i]の値が大きくなった場合、計測形状が設計形状に対して歪んでいることになる。この性質を利用して、教示の位置決め状態の信頼度を評価することができる。したがって、判定部632は、計測座標値q[i]と目標座標値p’[i]との距離e[i]が第2の閾値以下、即ち閾値Δ以下であるか否かを判定する。より具体的には、判定部632は、式(15)に示すように複数のe[i]のうち誤差が最大の距離emaxを抽出し、距離emaxが閾値Δ以下であるか否かを判定する。
Figure 2018126857
距離emaxが閾値Δ以下の場合(S210:Yes)、即ち全ての距離e[i]が閾値Δ以下の場合は、位置決め結果が信頼できるため、そのときのロボット200の姿勢を教示点として設定する(S211:設定ステップ、設定処理)。即ち、ロボット制御部521は、記憶部522に、現在のロボットアーム201の姿勢を教示点の情報511として記憶させる。このとき、予め記憶部522に教示点の情報511が記憶されていた場合には上書きすればよい。教示点の情報511は、ロボットアーム201の関節角度に対応する指令値であってもよいし、関節角度に対応する指令値を順運動学計算により変換して得られる、ロボットアーム201の先端の位置姿勢に対応する指令値であってもよい。関節角度は、関節を駆動するモータの回転角度であってもよい。距離emaxが閾値Δを超える場合(S210:No)は、教示の位置決め状態が信頼できないため、ロボット制御部521は、教示点情報を保存せずにユーザにエラー内容を提示、具体的にはディスプレイ700にエラー内容を表示させる(S212)。
ステレオカメラ300への外乱要因や経年劣化などによりステレオカメラ300の計測の信頼性が低下していた場合や、作業ミスなどが生じる場合がある。仮に、計測の信頼性が低い状態のまま教示点情報を記憶させると、生産のためのワーク組立動作において作業開始位置PAが定常的にずれ、ロボット200の頻発停止につながる。作業ミスとは、例えばステレオカメラ300に対する校正値の設定を誤った場合や、ワーク保持治具400を設置すべき位置に別種のマークつき治具を設置してしまった場合などが挙げられる。また外乱要因や経年劣化としては、例えば照明条件等に起因する計測誤差、熱変形や取扱時に落下等に起因するステレオカメラ300の歪み、ワーク保持治具400の歪みによるマークMK1〜MK3の点間の形状ひずみなどが挙げられる。第1実施形態では、ステップS210〜S212の処理により、ステレオカメラ300の計測の信頼性が低下していた場合や作業ミスなどが生じた場合でも、ロボットアーム201の教示点情報が上書きされるのを防止することができる。よって、ロボットシステム100の信頼性が更に向上する。
以上、第1実施形態によれば、判定点を追加したことにより、所望の精度を達成するための適切な閾値δを、作業者がマークMK1〜MK3に対するロボットハンド202の傾き角度の計算などの複雑な演算を意識せずに直感的かつ簡便に設定することができる。このように、作業者による閾値設定の作業負荷を低減することができる。すなわち、ユーザは傾き角度の数値自体を意識することなく、適切な傾き範囲に収まるようにロボット200を制御することができる。特に判定点を、マークMK1〜MK3よりもロボットハンド202やステレオカメラ300に近い点に設定することで、マークMK1〜MK3に対するロボットハンド202の傾きを補正する効果が大きくなり、収束がより早くなる。教示結果に基づいてワークW1とワークW2との嵌合作業をロボットに行わせる際には、嵌合時のワーク同士の接触箇所における位置精度が重要である。そのため、前述した把持領域とロボットハンドに把持されたワーク外形とを合算した領域内の任意の点に判定点を設けておけば、より好ましい収束判定を行うことができる。
さらに、判定点の座標変換前後の点間の距離で収束を判定することにより、並進成分と角度成分の両方で閾値判定する場合と同等の精度の位置決めを短時間で達成でき、その分、早く教示点の情報511を記憶部522に記憶させることができる。したがって、教示が早まることで、より早くロボット200に生産作業を行わせることができ、ロボット200の作業による生産性が向上する。
また第1実施形態においては、ステレオカメラ300の校正を、機械的基準に対して行っている。また、ロボットアーム201の動作情報を用いて校正や計測を行うと誤差が生じやすいが、第1実施形態では、ロボットアーム201の移動によってステレオカメラ300の位置決めを判定する上でロボットアーム201の制御情報を使用していない。即ち、第1実施形態では、ロボットアーム201の制御情報に依存せず、ベース部311の位置決めピン321,322を基準に校正した校正値でステレオカメラ300の計測値を座標変換してずれ状態を評価している。そのため、マークMK1〜MK3に対するベース部311の位置決め状態、ひいてはベース部311に位置決めピン321,322を介して結合されているロボットハンド202のマークMK1〜MK3に対する位置決め状態を高精度に求めることができる。
なお、第一実施形態においては、掌部210側とワーク保持治具400の間の双方における誤差が所定の範囲に入るように、特徴点と判定点の全点について、座標変換前後での点間の距離d[i],daddの全てが閾値以下であるか否かを判定した。仮に掌部210における位置精度のみが重要であり姿勢の精度は不要であるケースにおいて適用する場合には、判定点に関する座標変換前後の距離daddのみで収束を判定することも可能である。
[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステムについて説明する。第1実施形態では、ロボットの教示方法について説明したが、第2実施形態では、実際に部品の組み立て等の生産作業を行う場合のロボットの制御方法について説明する。図13(a)は、第2実施形態において組み付け作業に用いられる第1のワークW11及び第2のワークW12の説明図である。また、図13(b)は、第2実施形態におけるロボットの構成を示す模式図である。第2実施形態では、ワークW11に対してワークW12を組付ける作業をロボット200に行わせる。ロボット200の先端、即ちロボットハンド202の掌部210の側面には、ステレオカメラ300が固定されている。このようにステレオカメラ300は、ロボットハンド202に固定されることで、ロボット200に支持されている。
ワークW11は、第1の部材W101と第2の部材W102とを不図示のビスなどの接合部で接合して形成されており、第1の部材W101に対する第2の部材W102の位置がビス穴のガタの範囲でバラついている。第1の部材W101の上には、3つピンW103と、特徴点として、3つの基準穴W104が設けられている。ワークW12には、ワークW11のピンW103に対応する3つの穴部W111が設けられており、ワークW11との組み付けが可能となっている。これらのワークW11,W12に対して、ロボット200を用いて組み付けを行う。
第2実施形態におけるロボットシステムの構成は、ステレオカメラ300がロボットハンド202に固定されている以外、第1実施形態のロボットシステム100とほぼ同様である。なお、ロボットハンド202は、ワークW12を把持するのに適した平行グリッパとなっている。即ち、ロボットハンド202は、第1実施形態と同様、掌部210と、掌部210に対して開閉移動する一対のフィンガ211,212を有する。ステレオカメラ300は、ロボットハンド202がワークW12をワークW11に組み付ける直前の位置において、ワークW11の基準穴W104を計測可能な位置に設けられたステレオカメラである。この組み付け直前の位置において、ステレオカメラ300の視野領域にピンW103は含まれていないが、基準穴W104は、ステレオカメラ300の視野領域に含まれている。よって、第2実施形態では、基準穴W104をステレオカメラ300を用いて計測することで、間接的に位置合わせを実施する。
図14は、第2実施形態において組付作業を行うための事前準備を示すフローチャートである。以下、図14のフローチャートに沿って処理内容を説明するが、第1実施形態と共通する部分は適宜省略する。まず、カメラ校正値を設定する(S301)。このステップS301は、第1実施形態で説明したステップS101と同様に、ステレオカメラ300の校正値として、ステレオカメラ校正とベース−カメラ間校正の2種類の校正を事前に実施する。ステレオカメラ校正値に関しては、第1実施形態と同様である。ベース−カメラ間校正は、第1実施形態で説明した校正治具900とは異なる校正治具を用いて行う。
図15は、第2実施形態において校正に用いる校正治具900Bの説明図である。校正治具900Bは、ベース部901B、支柱部902B,903B、上板部904B、及び第1実施形態と同様の基準パターン部905を有する。ベース部901Bと上板部904Bとは、互いに対向するように配置された板状の部材であり、支柱部902B,903Bで接続されている。ベース−カメラ間校正は、図15に示すように、ロボットハンド202とステレオカメラ300とを一体にした状態で校正治具900Bに固定して、第1実施形態と同様の基準パターン部905を撮像することにより校正を行う。第2実施形態においてはベース座標系Bの原点を、ロボットアームに対するロボットハンド202の取り付け位置、即ちツール座標系Tと同じ位置姿勢に設定している。第1実施形態と同様、校正治具900B内においてベース座標系Bと基準パターン部905のマークの位置関係を計測する。これにより、ベース座標系Bに対するセンサ座標系Vの相対的な位置姿勢を高精度に求めることができる。ここで、ベース座標系Bに対するロボットハンド202のフィンガ211,212の位置は機械的に所定の精度範囲内で調整されている。
次に、目標座標値を設定する(S302)。目標座標値として、組付け直前の位置姿勢におけるツール座標系T、即ちベース座標系Bに対する基準穴104の設計上の狙い位置を設定する。例えば、ピン103に対して穴部111の嵌合が開始する位置の1mm上空とする目標座標値を設定する。また別の方法としては、ロボットハンド202をサンプルワークの実物に対して組み付け直前の位置に位置決めし、ステレオカメラ300による撮像を行って基準穴104の位置を記憶し、目標座標値として用いてもよい。
次に、判定点を設定する(S303)。例えば、判定点として3つの穴部W111の設計上の位置を設定する。即ち、それぞれの判定点を座標値add[i](i=1〜3)としてHDD604に保存する。
次に、閾値δ,Δを設定する(S304)。この作業は第1実施形態のステップS104と同様である。閾値δは、穴部W111とピンW103の嵌合公差やC面取りの寸法などを考慮して、例えば0.1mmといった値を設定する。また閾値Δは、ステレオカメラ300の計測精度、及び基準穴W104の寸法公差を考慮して設定する。例えば、基準穴W104の位置寸法公差が0.05mm、ステレオカメラ300の計測精度が0.05mmである場合は、合計0.1mmに対してマージンを取り、0.2mmといった値を閾値Δとして設定する。
図16は、第2実施形態における組付作業のフローチャートである。なお実際の生産においては、順次流れてくるワークに対して組付作業を繰り返し行うが、図16では1回分の組付作業を示している。
まず、第1実施形態と同様、CPU601は、特徴点の目標座標値p[i](i=1〜3)及び判定点の座標値add[i](i=1〜3)を含む各種パラメータを、HDD604から読み出すことで取得する(S401:取得ステップ、取得処理)。
次に、CPU601は、CPU501に指令を送り、ロボットアーム201を不図示の供給部に移動させ、ワークW12をロボットハンド202に把持させる。ロボットハンド202のフィンガ211,212によりワークW12が位置決めされ、所定の精度範囲内で把持を行う。
次に、CPU601は、予め教示された組付開始位置を示す教示点へロボット200、即ちロボットアーム201を動作させる(S402:動作ステップ、動作処理)。組付開始位置を示す教示点とは、ステレオカメラ300による繰り返し制御を開始するロボット200の姿勢であって、基準穴W104がステレオカメラ300の視野領域に入る教示点である。
次に、CPU601は、ステレオカメラ300によって基準穴W104の位置計測を行う(S403:計測ステップ、計測処理)。即ち、ステップS202と同様、ステレオカメラ300を用いた計測によりベース座標系Bを基準とする基準穴W104の計測座標値q[i]を求める。
次に、CPU601は、ステップS203と同様、目標値と計測値との間のずれ量の計算を行う(S404)。即ち、CPU601は、ステップS404において、目標座標値p[i](i=1〜3)と計測座標値q[i](i=1〜3)との間のずれを示す座標変換行列である回転行列R及び並進ベクトルtを求める(第1の演算ステップ,第1の演算処理)。
次に、CPU601は、ステップS204と同様、特徴点の目標座標値p[i](i=1〜3)を回転行列R及び並進ベクトルtを用いて座標変換して、目標座標値p’[i](i=1〜3)を求める(S405)。また、CPU601は、ステップS405において、ステップS204と同様、判定点の座標値add[i](i=1〜3)を回転行列R及び並進ベクトルtを用いて座標変換して、座標値p’add[i](i=1〜3)を求める。
なお、第2実施形態では判定点が複数存在するため、CPU601は、以下の式(16)を用いて座標変換を行う。
Figure 2018126857
次に、CPU601は、第1実施形態のステップS205と同様、座標変換前後の点間の距離を求める(S406:第2の演算ステップ、第2の演算処理)。具体的には、CPU601は、第1実施形態と同様の演算で、座標変換前の目標座標値p[i](i=1〜3)と、座標変換後の目標座標値p’[i](i=1〜3)との点間の距離d[i](i=1〜3)を求める。また、CPU601は、座標変換前の座標値add[i](i=1〜3)と、座標変換後の目標座標値p’add[i](i=1〜3)との点間の距離dadd[i](i=1〜3)を、以下の式(17)を用いて求める。
Figure 2018126857
次に、CPU601は、第1実施形態のステップS206と同様、点間の距離d[i](i=1〜3),dadd[i](i=1〜3)と閾値δとを比較することにより、収束したか否かを判定する(S407)。即ち、CPU601は、以下の式(18)の不等式が成り立つか否かを判定する。
Figure 2018126857
点間の距離d[i],dadd[i]の全てが、閾値δ以下の場合は、収束したことを示し、点間の距離d[i],dadd[i]のうち1つでも閾値δを超える場合は、収束していないことを示す。
CPU601は、ステップS407において、点間の距離d[1],dadd[i]のうち1つでも閾値δを超える場合(S407:No)、判定結果と、回転行列R及び並進ベクトルtとをロボット制御装置500のCPU501に出力する。CPU501は、第1実施形態のステップS207と同様、回転行列R及び並進ベクトルtに基づき、ロボット200、即ちロボットアーム201に取らせる姿勢指令を求める(S408)。次に、CPU501は、第1実施形態のステップS208と同様、姿勢指令に従ってロボット200、即ちロボットアーム201の姿勢を補正する(S409:姿勢補正ステップ、姿勢補正処理)。そして、ステップS402の処理に戻り、ステップS407にて収束したと判定されるまでロボット200の補正動作を繰り返し行う。CPU601は、収束したと判定した場合、即ち閾値δ以下と判定した場合(S407:Yes)、第1実施形態のステップS209と同様、形状残差計算を行い(S410)、第1実施形態のステップS210と同様、閾値Δと比較判定する(S411)。
CPU601は、ステップS411において、距離emaxが閾値Δ以下と判定した場合は、ロボット200に予め定められた所定の作業、即ち組付作業を行わせる(S412:作業ステップ、作業処理)。具体的には、ロボットハンド202を下降させて、ワークW12をワークW11に組み付ける組み付け作業を行わせる。これにより、穴部111のすべてがピン103に十分に一致した状態で組み付けを行うことができ、組付時間を短縮することができ、生産性が向上する。
CPU601は、ステップS411において、距離emaxが閾値Δを超える判定した場合は、ユーザにエラー内容を提示、具体的にはディスプレイ700にエラー内容を表示させ、ロボット200を一時停止させる(S413)。これにより、ロボット200の組付作業の信頼性が向上する。
なお、ワークW11の加工ばらつきが大きいことが事前に分かっている場合などには、エラー停止とせずにワークW11の入れ替え動作を行って、新しいワークW11に対して再度ステップS402から実行するようにしてもよい。
以上、第2実施形態においては、多点の同時嵌合に対して収束判定のための条件を判定点における距離の閾値δによって設定しており、さらに判定点としてステレオカメラ300の視野領域外にも設定ができる。このように多点の嵌合を実施するようなケースにおいては特に、従来のように位置と角度によって収束判定を実施すると判定条件の計算が複雑になりがちであるが、第2実施形態によれば、閾値δを簡便に設定できる。さらに、全点において所望の精度範囲に位置決めを完了してからロボット200に組付作業を行わせるため、高精度で確実性の高い組付作業をロボット200に行わせることができる。また第1実施形態と同様に、ステレオカメラ300の校正を機械的基準に対して行っているため、ロボットアーム201の動作精度に関係なくロボットハンド202の位置決め状態を判定することができる。さらに、ステレオカメラ300によるずれの計測結果に基づいて繰り返しの収束動作を行い、所定の精度範囲に収束したことを確認してから組付作業を行っている。そのため、ロボットアーム201の動作に誤差があってもその誤差の影響が低減され、所定の位置決め精度を満たした状態で組付作業をロボット200に行わせることができる。また、特徴点においては、第1実施形態と同様に、特徴点の座標変換前後の点間の距離、すなわち合同な点群間での距離を用いた判定方法を採用したことにより、計測誤差等の外乱要因の影響を受けにくく、適切な閾値δを定めることができる。更に、第1実施形態と同様、ステップS411の処理により、確実性の高い組立作業を実行することができる。
第2実施形態においては、ステップS407における収束判定する際に、点間の距離d[i],dadd[i]の全てを閾値δと比較して判定する場合について記載した。しかしワークの嵌合を考えると3つの穴部W111の位置が特に重要であるので、穴部W111の位置に対応した判定点の座標変換前後の距離dadd[i]のみを閾値δと比較して判定しても良い。なお、判定点のみを用いて位置と姿勢の両方を判定したい場合は、本実施形態のように判定点が3点以上あることが好ましい。
[第3実施形態]
次に、本発明の第3実施形態に係るロボットシステムについて説明する。図17は、第3実施形態における演算処理を説明するための模式図である。なお、第3実施形態におけるロボットシステムの構成は、第1実施形態のロボットシステムと同様であり、説明を省略する。
第3実施形態では、距離の計算が、第1実施形態で説明したステップS205の距離の計算と異なる。具体的に説明すると、第1実施形態では、CPU601は、座標変換前の目標座標値p[i](i=1〜3)と、座標変換後の目標座標値p’[i](i=1〜3)との点間の距離d[i](i=1〜3)を、式(9)を用いて求めていた。第3実施形態では、CPU601は、ステップS205において距離d[i]の代わりに、特徴点の目標座標値p[i](i=1〜3)と、特徴点の計測座標値q[i](i=1〜3)との距離ΔP[i](i=1〜3)を、以下の式(19)を用いて求める。
Figure 2018126857
即ち、図17に示すように、目標座標値p1と計測座標値q1との距離ΔP[1]及び目標座標値p2と計測座標値q2との距離ΔP[2]を求める。
次に、CPU601は、ステップS206では、上記の式(11)の代わりに、以下の式(20)の不等式が成り立つか否かを判定する。
Figure 2018126857
以上、ステレオカメラ300による計測の誤差のばらつきが小さい場合には、閾値δを用いた収束判定に、特徴点の目標座標値と計測座標値との距離を用いても、第1実施形態と同様の作用効果を奏する。なお、第3実施形態の距離の計算を、第2実施形態で説明したステップS406の距離の計算に適用してもよい。
なお、本発明は、以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形が可能である。また、実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されない。
第1〜第3実施形態では、特徴点を測定して測定座標値を取得する視覚センサとしてステレオカメラ300を用いた場合について説明したがこれに限定するものではない。例えば視覚センサとして、プロジェクタによるパターン投光法、レーザー切断法、Time−Of−Flight法などの方式を用いた視覚センサを用いてもよい。その際、視覚センサは、3次元の位置姿勢の計測を可能とする3次元視覚センサであるのが好ましい。
また、第1実施形態では判定点を1点、第2実施形態では判定点を3点としたが、これらの点数に限定するものではなく、2点であっても4点以上であってもよい。また、第1実施形態では特徴点がマークであり、第2実施形態では特徴点が基準穴である場合について説明したがこれに限定するものではなく、特徴点として識別可能な点であればどのような点であってもよい。また、特徴点の数が3点の場合について説明したが、この点数に限定するものではない。なお、特徴点の点数は3点以上であるのが好ましい。
また、第2実施形態において、ステレオカメラ300の取り付け位置がロボットハンド202の場合について説明したが、これに限定するものではなく、例えばロボットアーム201の先端に取り付けてもよく、また、ロボットハンド202に内蔵させてもよい。
また第2実施形態においてロボットハンド202によってワークW12を再現性よく所定の位置で把持できる場合の例について説明したが、把持位置のばらつきが大きい場合であってもよい。この場合には、把持位置のばらつきも計測して繰り返し制御の目標位置および判定点の位置を補正するような構成としてもよい。たとえば第2実施形態の変形例として、ロボット200と連動しない位置に別の視覚センサを設け、穴部W111を別の視覚センサで計測して把持位置のずれを計測するようにしてもよい。その場合は、別の視覚センサの計測値に基づいてツール座標系Tに対する目標値および判定点の位置を座標変換によって補正することで、把持位置がずれても同様の収束判定を行うことができる。
また、第1〜第3実施形態においては、処理のリアルタイム性については限定していないが、ロボット制御装置で低速の繰り返し制御に適用してもよいし、ビジュアルサーボと言われる高速なリアルタイムのビジュアルフィードバック制御に適用してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…ロボットシステム、200…ロボット、300…ステレオカメラ(視覚センサ)、400…ワーク保持治具(計測対象物)、501,601…CPU(制御部)、B…ベース座標系(視覚センサの座標系)、MK1〜MK3…マーク(特徴点)

Claims (20)

  1. ロボットに支持された視覚センサにより特徴点の計測座標値を求める計測ステップと、
    前記計測座標値と、予め定められた前記特徴点の目標座標値との間のずれ量を、前記特徴点とは異なる判定点のずれ量に換算した、換算ずれ量を演算する演算ステップと、
    前記換算ずれ量と第1の閾値とを比較して、前記ロボットの姿勢が目標範囲内に収まっているか否かを判定する判定ステップと、
    を備えたことを特徴とするロボットの制御方法。
  2. 前記ロボットはロボットハンドを有するロボットであって、
    前記判定点は、前記ロボットハンドが把持可能な把持領域と、把持されたワーク外形とを合算した領域内の任意の点である、
    ことを特徴とする請求項1に記載のロボットの制御方法。
  3. 前記判定点が、前記視覚センサの座標系の原点であり、
    前記演算ステップは、前記計測座標値を前記目標座標値に変換する回転行列及び並進ベクトルを含む座標変換行列を求めるステップと、
    前記換算ずれ量として、前記並進ベクトルの長さを求めるステップと、を有する、
    ことを特徴とする請求項1に記載のロボットの制御方法。
  4. 前記判定点が、前記視覚センサの座標系の原点以外の点であり、
    前記演算ステップは、前記計測座標値を前記目標座標値に変換する回転行列及び並進ベクトルを含む座標変換行列を求めるステップと、
    前記回転行列と前記判定点の座標値とを掛け算し、前記並進ベクトルを足し算することで、前記判定点の座標値を変換するステップと、
    前記換算ずれ量として、前記判定点の座標変換前後の座標値の距離を求めるステップと、を有する、
    ことを特徴とする請求項1に記載のロボットの制御方法。
  5. 前記ずれ量と前記換算ずれ量の両方が、前記第1の閾値以下となるまで、前記計測ステップ、前記演算ステップ、前記判定ステップ、及び前記ずれ量に基づいて前記ロボットの姿勢を補正する補正動作ステップを繰り返す、
    ことを特徴とする請求項1乃至4の中のいずれか1項に記載のロボットの制御方法。
  6. 前記換算ずれ量と前記計測座標値と前記目標座標値とのずれ量の両方が前記第1の閾値以下で、かつ、前記計測座標値と前記目標座標値とのずれ量が第2の閾値以下であれば、前記ロボットに予め定められた所定の作業を行わせる作業ステップを更に備える、
    ことを特徴とする請求項1乃至4の中のいずれか1項に記載のロボットの制御方法。
  7. 前記視覚センサは、第1及び第2のカメラを有するステレオカメラである、
    ことを特徴とする請求項1乃至6の中のいずれか1項に記載のロボットの制御方法。
  8. 前記ロボットがロボットハンドを備えており、
    前記視覚センサは、前記ロボットハンドに固定されている、
    ことを特徴とする請求項1乃至7の中のいずれか1項に記載のロボットの制御方法。
  9. 前記ロボットがロボットハンドを備えており、
    前記視覚センサは、前記ロボットハンドに、位置決め機構にて位置決めされた状態で把持される、
    ことを特徴とする請求項1乃至7の中のいずれか1項に記載のロボットの制御方法。
  10. ロボットに支持された視覚センサを用いた計測により特徴点の計測座標値を求める計測ステップと、
    前記計測座標値と、予め定められた前記特徴点の目標座標値との間のずれ量を、前記特徴点とは異なる判定点のずれ量に換算した、換算ずれ量を演算する演算ステップと、
    少なくとも前記換算ずれ量と第1の閾値とを比較して、前記換算ずれ量が第1の閾値を超える場合に、前記ロボットの姿勢を前記ずれ量に基づいて補正する補正動作ステップと、
    前記計測ステップ、前記演算ステップ、および、前記補正動作ステップを繰り返し行い、前記換算ずれ量が第1の閾値以下となった状態の前記ロボットの姿勢を教示点に設定する設定ステップと、を備えた、
    ことを特徴とするロボットの教示方法。
  11. 前記ロボットがロボットハンドを備えており、
    前記視覚センサは、前記ロボットハンドに、位置決め機構にて位置決めされた状態で把持される、
    ことを特徴とする請求項10に記載のロボットの教示方法。
  12. 前記視覚センサは、第1及び第2のカメラを有するステレオカメラである、
    ことを特徴とする請求項10又は11に記載のロボットの教示方法。
  13. ロボットと、
    前記ロボットに支持される視覚センサと、
    前記ロボットと前記視覚センサとを制御する制御部と、
    を備えるロボットシステムであって、
    前記制御部が、
    前記視覚センサを用いて取得した特徴点の計測座標と、予め定められた前記特徴点の目標座標とのずれ量を表す変換パラメータを算出し、
    前記特徴点とは異なる位置に設定した判定点の座標に前記変換パラメータを適用して算出された換算ずれ量が、予め設定した閾値以下となるように、前記ロボットの姿勢を補正する、
    ことを特徴とするロボットシステム。
  14. ロボットと、
    特徴点を測定して測定座標値を取得する視覚センサと、
    前記ロボットを制御する制御部と、
    前記制御部に対するユーザの入力を受け付ける入力部と、
    を有するロボットシステムであって、
    前記制御部は、前記入力部を介して前記特徴点とは別の判定点の設定情報を取得し、
    前記判定点の座標値と前記測定座標値とを用いて、前記ロボットが目標とする位置姿勢であるか否かの判定を行う、
    ことを特徴とするロボットシステム。
  15. 前記判定点の座標値を設定するための設定画面を表示する表示部をさらに有し、
    前記表示部は、前記設定画面において複数の判定点候補を表示し、複数の判定点候補のいずれか1つをユーザに選択させる、
    ことを特徴とする請求項14に記載のロボットシステム。
  16. 前記表示部は、三次元画像を表示する表示領域を有しており、
    前記表示領域に、前記特徴点と前記判定点との相対関係を表示する、
    ことを特徴とする請求項15のロボットシステム。
  17. 前記表示領域は、前記ロボットと前記視覚センサのうち少なくともいずれか一方を、前記特徴点と前記判定点と重ねて表示する、
    ことを特徴とする請求項16のロボットシステム。
  18. 前記視覚センサは、第1及び第2のカメラを有するステレオカメラである、
    ことを特徴とする請求項14乃至17の中のいずれか1項に記載のロボットシステム。
  19. 請求項10に記載のロボットの教示方法の各ステップを、コンピュータに実行させる、ことを特徴とするプログラム。
  20. 請求項19に記載のプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
JP2018020399A 2017-02-09 2018-02-07 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体 Active JP7207851B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017022566 2017-02-09
JP2017022566 2017-02-09

Publications (3)

Publication Number Publication Date
JP2018126857A true JP2018126857A (ja) 2018-08-16
JP2018126857A5 JP2018126857A5 (ja) 2021-04-01
JP7207851B2 JP7207851B2 (ja) 2023-01-18

Family

ID=61027445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018020399A Active JP7207851B2 (ja) 2017-02-09 2018-02-07 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US11059169B2 (ja)
EP (1) EP3366433B1 (ja)
JP (1) JP7207851B2 (ja)
CN (1) CN108453701B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020089927A (ja) * 2018-12-03 2020-06-11 学校法人立命館 ロボット制御システム
JP2020108909A (ja) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 状態判定装置
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
KR20210136572A (ko) * 2020-05-08 2021-11-17 주식회사 아노시스 툴이 이동할 위치를 티칭하는 로봇암 및 로봇암의 동작 방법
KR102379317B1 (ko) * 2021-12-22 2022-03-29 (주) 에스엘테크 국산 로봇을 활용한 0.1mm 위치 동기화가 가능한 세탁기 베이스 캐비닛 자동 조립 체결기
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method
WO2023135764A1 (ja) * 2022-01-14 2023-07-20 ファナック株式会社 3次元センサを備えるロボット装置およびロボット装置の制御方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6572262B2 (ja) * 2017-06-06 2019-09-04 ファナック株式会社 教示位置修正装置および教示位置修正方法
JP6626057B2 (ja) * 2017-09-27 2019-12-25 ファナック株式会社 検査装置及び検査システム
JP7237483B2 (ja) 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
CN109571487B (zh) * 2018-09-12 2020-08-28 河南工程学院 一种基于视觉的机器人演示学习方法
CN109202903B (zh) * 2018-09-13 2021-05-28 河南机电职业学院 分拣机器人工作站输送链CountsPerMeter参数和基座标系校准的方法
JP6871220B2 (ja) * 2018-11-08 2021-05-12 ファナック株式会社 制御システム
CN109227577A (zh) * 2018-11-18 2019-01-18 大连四达高技术发展有限公司 双目视觉定位系统执行器
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
CN109352633B (zh) * 2018-12-04 2022-08-09 中冶赛迪工程技术股份有限公司 一种工业机器人示教方法、系统及计算机存储介质
CN109799771B (zh) * 2018-12-29 2021-01-05 深圳市越疆科技有限公司 一种工业机器人的控制系统、方法及装置
CN109664273B (zh) * 2019-01-18 2021-09-17 中冶赛迪工程技术股份有限公司 一种工业机器人光标拖动示教方法及系统
CN110170996B (zh) * 2019-05-09 2022-08-19 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教系统
EP3738725B1 (en) * 2019-05-15 2022-02-16 Omron Corporation Measurement system, measurement device, measurement method, and measurement program
CN110315542A (zh) * 2019-07-27 2019-10-11 南京市晨枭软件技术有限公司 一种工业机器人的多轴运动控制方法
CN110517208B (zh) * 2019-08-19 2023-06-16 广东弓叶科技有限公司 坐标系关联方法及系统
CN110625611A (zh) * 2019-08-27 2019-12-31 上海卫星装备研究所 基于激光跟踪测量与力传感联合控制的机械臂辅助部件装配方法及系统
WO2021086328A1 (en) * 2019-10-29 2021-05-06 Abb Schweiz Ag System and method for robotic calibration and tuning
JP6713700B1 (ja) * 2020-03-09 2020-06-24 リンクウィズ株式会社 情報処理方法、情報処理システム、プログラム
CN111524185A (zh) * 2020-04-21 2020-08-11 上海商汤临港智能科技有限公司 定位方法及装置、电子设备和存储介质
DE102020111509B4 (de) * 2020-04-28 2023-04-20 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät sowie Verfahren zum Messen von Koordinaten eines Werkstücks
CN113799115B (zh) * 2020-06-11 2023-03-24 台达电子工业股份有限公司 机器手臂的坐标校正方法
CN111985076A (zh) * 2020-07-07 2020-11-24 河北工程大学 一种机器人运动可靠度评估方法及装置
CN112307562B (zh) * 2020-10-30 2022-03-01 泉州装备制造研究所 综合热变形与重力变形的大型飞机上复杂部件的装配方法
CN112658643B (zh) * 2020-12-30 2022-07-01 中国科学院自动化研究所 接插件装配方法
US20220219328A1 (en) * 2021-01-08 2022-07-14 General Electric Company Method and device for creation of three dimensional tool frame
CN113319854B (zh) * 2021-06-25 2023-01-20 河北工业大学 一种洗浴机器人的视觉示教方法及系统
CN113635308B (zh) * 2021-08-30 2024-04-19 武汉理工大学 一种手眼一体化退役汽车零部件拆解方法及拆解装置
CN113894793B (zh) * 2021-11-11 2023-01-24 易思维(杭州)科技有限公司 一种零件与视觉传感器相对位姿关系的获取方法
WO2023102647A1 (en) * 2021-12-06 2023-06-15 University Of Manitoba Method for automated 3d part localization and adjustment of robot end-effectors
CN114800577B (zh) * 2022-06-08 2023-08-15 北方民族大学 阀体铸件浇冒口切割定位装置及定位方法
CN115213721B (zh) * 2022-09-21 2022-12-30 江苏友邦精工实业有限公司 一种用于汽车车架加工的翻转定位机械手
CN115877808B (zh) * 2023-01-30 2023-05-16 成都秦川物联网科技股份有限公司 用于薄片工件加工的工业物联网及控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325611A (ja) * 1994-05-31 1995-12-12 Toyota Motor Corp オフラインティーチングデータの自動補正方法
WO1998017444A1 (fr) * 1996-10-24 1998-04-30 Fanuc Ltd Systeme de robot de commande de forces a capteur optique pour travail d'insertion
US20110087360A1 (en) * 2008-03-31 2011-04-14 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP2015150636A (ja) * 2014-02-13 2015-08-24 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2704731B2 (ja) 1987-07-28 1998-01-26 キヤノン株式会社 電子放出素子及びその駆動方法
JP2622842B2 (ja) 1987-10-12 1997-06-25 キヤノン株式会社 電子線画像表示装置および電子線画像表示装置の偏向方法
JP2630988B2 (ja) 1988-05-26 1997-07-16 キヤノン株式会社 電子線発生装置
JP3072795B2 (ja) 1991-10-08 2000-08-07 キヤノン株式会社 電子放出素子と該素子を用いた電子線発生装置及び画像形成装置
CA2112180C (en) 1992-12-28 1999-06-01 Yoshikazu Banno Electron source and manufacture method of same, and image forming device and manufacture method of same
US6157137A (en) 1993-01-28 2000-12-05 Canon Kabushiki Kaisha Multi-electron beam source with driving circuit for preventing voltage spikes
EP0658916B1 (en) 1993-11-09 1998-04-15 Canon Kabushiki Kaisha Image display apparatus
JP3025249B2 (ja) 1997-12-03 2000-03-27 キヤノン株式会社 素子の駆動装置及び素子の駆動方法及び画像形成装置
EP1172183A3 (de) * 2000-07-13 2006-01-04 Rolf Kleck Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
JP5754454B2 (ja) * 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP2014184530A (ja) 2013-03-25 2014-10-02 Toyota Motor Corp 教示システム及び教示修正方法
JP6261209B2 (ja) 2013-07-04 2018-01-17 キヤノン株式会社 複数の生産装置を備えるシステム
JP6335460B2 (ja) 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP5877857B2 (ja) * 2014-03-10 2016-03-08 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6260509B2 (ja) * 2014-10-06 2018-01-17 トヨタ自動車株式会社 ロボット
DE102015104587B4 (de) * 2015-03-26 2022-04-28 Pi4_Robotics Gmbh Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
CN106272416B (zh) 2016-08-29 2020-12-29 上海交通大学 基于力觉和视觉的机器人细长轴精密装配系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07325611A (ja) * 1994-05-31 1995-12-12 Toyota Motor Corp オフラインティーチングデータの自動補正方法
WO1998017444A1 (fr) * 1996-10-24 1998-04-30 Fanuc Ltd Systeme de robot de commande de forces a capteur optique pour travail d'insertion
US20110087360A1 (en) * 2008-03-31 2011-04-14 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP2015150636A (ja) * 2014-02-13 2015-08-24 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020089927A (ja) * 2018-12-03 2020-06-11 学校法人立命館 ロボット制御システム
JP2020108909A (ja) * 2019-01-07 2020-07-16 トヨタ自動車株式会社 状態判定装置
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
JP7296731B2 (ja) 2019-01-17 2023-06-23 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method
KR20210136572A (ko) * 2020-05-08 2021-11-17 주식회사 아노시스 툴이 이동할 위치를 티칭하는 로봇암 및 로봇암의 동작 방법
KR102333281B1 (ko) * 2020-05-08 2021-12-01 주식회사 아노시스 툴이 이동할 위치를 티칭하는 로봇암 및 로봇암의 동작 방법
KR102379317B1 (ko) * 2021-12-22 2022-03-29 (주) 에스엘테크 국산 로봇을 활용한 0.1mm 위치 동기화가 가능한 세탁기 베이스 캐비닛 자동 조립 체결기
WO2023135764A1 (ja) * 2022-01-14 2023-07-20 ファナック株式会社 3次元センサを備えるロボット装置およびロボット装置の制御方法

Also Published As

Publication number Publication date
EP3366433B1 (en) 2022-03-09
CN108453701B (zh) 2022-02-11
JP7207851B2 (ja) 2023-01-18
EP3366433A1 (en) 2018-08-29
CN108453701A (zh) 2018-08-28
US11059169B2 (en) 2021-07-13
US20180222049A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP6964989B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US11247340B2 (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP3946711B2 (ja) ロボットシステム
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US11014233B2 (en) Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus
JP4021413B2 (ja) 計測装置
US9517563B2 (en) Robot system using visual feedback
JP4191080B2 (ja) 計測装置
JP5670416B2 (ja) ロボットシステム表示装置
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
US20160288333A1 (en) Robot, robot control device, and robotic system
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
WO1993005479A1 (en) Robot end-effector terminal control frame (tcf) calibration method and device
JP6900290B2 (ja) ロボットシステム
TWI699264B (zh) 視覺導引機器手臂校正方法
JP2011235400A (ja) マニピュレータのキャリブレーション方法及びロボット制御システム
US20220395981A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
CN115446847A (zh) 用于提高机器人系统的3d眼手协调准确度的系统和方法
Zhang et al. Vision-guided robot alignment for scalable, flexible assembly automation
JP6507792B2 (ja) ロボットおよびロボットシステム
JP2017074637A (ja) ツールセンターポイント推定方法、ツールセンターポイント推定装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R151 Written notification of patent or utility model registration

Ref document number: 7207851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151