JP2012528016A - 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム - Google Patents

空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム Download PDF

Info

Publication number
JP2012528016A
JP2012528016A JP2012512367A JP2012512367A JP2012528016A JP 2012528016 A JP2012528016 A JP 2012528016A JP 2012512367 A JP2012512367 A JP 2012512367A JP 2012512367 A JP2012512367 A JP 2012512367A JP 2012528016 A JP2012528016 A JP 2012528016A
Authority
JP
Japan
Prior art keywords
industrial robot
posture
imaging device
positioning
fine adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012512367A
Other languages
English (en)
Other versions
JP5377758B2 (ja
Inventor
ヴァルザー ベルント
メツラー ベルンハルト
エービッシャー ベアート
ズィアクス クヌート
ペターソン ボー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Geosystems AG
Original Assignee
Leica Geosystems AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Geosystems AG filed Critical Leica Geosystems AG
Publication of JP2012528016A publication Critical patent/JP2012528016A/ja
Application granted granted Critical
Publication of JP5377758B2 publication Critical patent/JP5377758B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/402Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36412Fine, autonomous movement of end effector by using camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39387Reflex control, follow movement, track face, work, hand, visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40555Orientation and distance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40604Two camera, global vision camera, end effector neighbourhood vision camera
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/06Communication with another machine
    • Y10S901/08Robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

本発明は、空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステムに関する。オブジェクト(12)を産業用ロボット(11)によって把持公差内で把持および保持する。前記産業用ロボット(11)に対し、前記把持公差を補正するための微調整量を求める。前記オブジェクトが前記最終姿勢に所定の公差内で達するまで、空間座標系における前記オブジェクト(12)の現在の姿勢を、3D撮像装置(1)によって3次元画像を撮像するステップと、該3D撮像装置(1)の位置(P)と、角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、該3次元画像と、前記オブジェクト(12)の既知の特徴的要素(13)とから求めるステップと、該オブジェクト(12)の現在の姿勢と最終姿勢との姿勢差を計算するステップと、前記微調整量を考慮して、前記産業用ロボット(11)の現在のポジショニングと、該姿勢差に関連する量とから、該産業用ロボット(11)の新たな目標ポジショニングを計算するステップと、該産業用ロボット(11)を該新たな目標ポジショニングに位置調整するステップとを繰り返し実施することにより、該オブジェクト(12)を該最終姿勢に高精度で位置調整する。

Description

本発明は、空間内において、産業用ロボットと光学的3D撮像装置とを使用して、光学的に検出可能な既知の特徴的要素を有する少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法と、該方法を実施するのに適したシステムとに関する。このような方法およびシステムは、作業工程を実施するために空間内においてたとえば薄板または他のボディ部材等であるオブジェクトを産業用ロボットによって所定の位置および方向に高精度で設けなければならない自動製造業において、たとえば自動車産業において、組立プロセスおよび製造プロセスを行うのに使用される。
把持装置によって把持されるオブジェクトを空間内の所定の位置および方向に位置決めするための従来技術から公知の操作システム、とりわけ、たとえば関節アームロボット等の産業用ロボットは、内部測定システムを有する。この内部測定システムは、操作システムの肢部のポジショニングを検出し、空間内における把持装置の位置および方向に関する情報を得る。ここでは、軸基準座標系と空間基準座標系とを区別すべきである。各軸基準座標系は、ロボットの1つの軸と該ロボットの瞬時のポジショニングとを基準とする座標系である。ロボットの個々の軸および肢部の運動連鎖とその瞬時のポジショニングとから、該運動連鎖の終端におけるロボットツールすなわち把持装置の一意の姿勢(位置および方向)が得られる。しかし、産業用ロボットの把持装置の姿勢は有利には空間基準で、いわゆるTCP(ツールセンターポイント)を使用して記述される。これは、ロボットツールの適切な位置にある仮想的な基準点である。ロボットツールがとるべき姿勢を記述するためには、空間内におけるTCPの位置と該TCPの回転とを定義する。とりわけいわゆるデナビット‐ハーテンバーグ(Denavit-Hartenberg)変換を使用して、ロボット制御部により、ロボットツールが所定の姿勢をとるために個々のロボット軸がとるべきポジショニングを計算する。TCPを有する把持装置の姿勢は有利には、ワールド座標系または空間座標系またはセル座標系を基準とする。この座標系はたとえば、ロボットの第1軸のベース、基底軸、基底フレームまたはロボットベースに直接的または間接的に関連づけされ、これに結合されている。このようなワールド座標系、空間座標系またはセル座標系を、他の部分座標系が参照する。もちろん、このようなワールド座標系、空間座標系またはセル座標系は絶対的なグローバル系でなくてもよく、別のシステムに従属させることもできる。この別のシステムとはすなわち、処理内で上位の基準系を形成する座標系である。大抵はこのような座標系は、処理ホール、処理室または処理セルの床面に関連づけされる。
このようにして、ロボット制御部に適切な入力を行うことにより、把持装置によって把持されるオブジェクトも含めて、該把持装置を所定のポジショニングに位置調整することができる。すなわち、把持されたオブジェクトは把持装置のポジショニングの設定によって、空間内に位置決めされる。しかし、その際にはとりわけ、以下の2つの問題が生じる。高重量のオブジェクトを保持するように構成された従来の産業用ロボットの測定システムは、多くの製造手法で必要とされるほど正確な姿勢を空間内において把持装置がとれるほど高精度ではない。産業用ロボットの駆動装置は十分に高精度であるにもかかわらず、その測定システムの精度はそうではない。運動連鎖によって、個々の測定エレメントの測定誤差は倍増し、とりわけ関節アームロボットの角度センサである個々の測定エレメントの測定精度と、ロボット肢部の不可避の弾性とによって倍増する。
また、空間内の把持装置のポジショニングひいては該把持装置の姿勢から、該空間内のオブジェクトを必ず特定の姿勢できるとは限らない。というのも、たいていは把持公差内しかオブジェクトを把持することができないからである。この把持公差はしばしば、所要の位置決め精度を大幅に超えることが多いので、把持誤差、すなわち把持装置に対するオブジェクトの相対姿勢も考慮しなければならない。こうするためには、ロボットに所属しない別個の測定システム、とりわけ非接触の光学的測定システムが使用される。このような測定システムを使用しなければ、空間内においてオブジェクトを所要の精度で所定の姿勢に位置決めすることができない。
WO2007/004983A1(Pettersson)から、とりわけプレス薄板部材または複合薄板等の被加工品の溶接接合手法が公知である。相互に接合される被加工品は産業用ロボットによって保持され、これらの被加工品を相互間で溶接接合するために、該産業用ロボットによって相互に相対的に位置決めされる。溶接接合部が形成される間、被加工品は産業用ロボットによってそれぞれの姿勢に維持され、これらの部材の相対的な姿勢が維持される。この溶接はたとえば溶接ロボットによって行われる。測定システムが被加工品の位置を測定することにより、溶接工程前に被加工品の位置決めを行うことができる。この測定はとりわけ、溶接工程中に連続的に行われる。上記の方法によって、形成するのが面倒な被加工品固有の通常の形状と、該被加工品を溶接前に固定するための被加工品リテーナとを省略することができる。産業用ロボットは、異なる形状および構成の被加工品に汎用的に使用することができる。というのも、被加工品の位置を測定システムによって検出することにより、被加工品を同定してコントロールし、部材を相互間で相対的に、高精度で位置決めできるからである。それゆえ、1つのシステムを異なる被加工品に使用することができ、被加工品リテーナを交換する必要はなくなる。開示内容によれば、上述の手法はとりわけ、薄板部材を溶接するのに適しており、とりわけ自動車工業において薄板部材を溶接するのに適している。可能な測定システムとしては、一般的に、被加工品表面で事前に定義されたポイントを測量するレーザ三角測量方式が挙げられる。このレーザ三角測量方式では、たとえば反射器が被加工品に取り付けられる。記載内容によれば、各反射器の位置を検出するためにレーザ光源と2次元検出器とを使用することができ、これによって、被加工品の位置および方向が3つのこのような点によって検出することができる。WO2007/004983A1には、測定システムの詳細な構成は記載されていない。
US5380978(Pryor)に、空間内において産業用ロボットを使用してオブジェクトの位置決めを行う手法、とりわけ薄板部材の位置決めを行う手法が記載されている。測定システムとしてとりわけ、空間内のオブジェクトの姿勢を3次元で検出するために適切なステレオベースを有する複数のカメラが使用される。このカメラは視野を調整するために旋回可能であり、特別な実施形態では、レーザ測距装置も有することができるセオドライトカメラとして構成される。ここで記載されているセオドライトは、カメラを高精度で位置調整するための調整装置として使用される。US4851905(Pryor)やUS5706408(Pryor)にも同様の測定システムが記載されている。
US2009/055024(Kay)に記載されたロボットアーム‐制御システムでは、制限された視野を有し固定的に方向決めされた3Dスキャン装置が、ロボットアームとターゲットオブジェクトとに向けられている。ロボットアームおよびターゲットオブジェクトは双方ともにマークを有し、これらのマークは、3Dスキャン装置の固定視野内に存在する。ターゲットオブジェクトとロボットアームとの空間的な相対姿勢が、3Dスキャン装置を用いて検出される。ターゲットオブジェクトがロボットアームによって把持されるように、該ロボットアームは3Dスキャン装置を用いて駆動制御される。上述のシステムの欠点は、3Dスキャン装置の固定視野が制限されていることにより、ロボットアームとターゲットオブジェクトとの間の間隔が非常に制限されてしまうことである。というのも、両構成要素のマークは必ず、3Dスキャン装置の視野内に存在しなければならないからである。このことにより、3Dスキャン装置の視野を拡大する必要性が生じ、さらに、該3Dスキャン装置の画像分解能は制限されていることから、マークを十分な精度で検出できなくなり、位置決め精度は制限されてしまう。上述の方法は、‐オブジェクトを把持してしない‐ロボットアームを、把持すべきオブジェクトの方向に相対的に動かす方法のみであり、マーク相互間の相対姿勢検出のみを行えばよいので、空間内における3Dスキャン装置の絶対的な位置および方向を検出する必要はない。したがって、空間座標系における3Dスキャン装置の位置を検出することによって基準を特定することや、空間座標系内における方向の検出を完全に省略することができる。
EP1345099A2(TECMEDIC)に、ロボットの把持装置によって低精度で把持される被加工品の保管場所を検出して該ロボットによって該被加工品をオブジェクトに取り付ける方法が記載されている。この方法では、把持装置と、カメラ等のセンサを有する画像処理システムと、コンピュータとを使用する。相互に離隔された複数の定置式のカメラ、または、ロボットアームに取り付けられ相互に離隔された複数のカメラが、それぞれ固定的な視野を有し、これらのカメラの視野は相互に重なる。まず、校正オブジェクトの姿勢と、校正被加工品の姿勢とを検出する。前記被加工品はロボットによって低精度で把持され、瞬時持ち上げ位置(Ist-Vorhalteposition)に移動される。予め校正被加工品を用いて求められた目標持ち上げ位置(Soll-Vorhalteposition)からの瞬時持ち上げ位置における被加工品の保管場所から、ロボットの把持誤差を表す瞬時ベクトルを計算する。この瞬時ベクトルに基づいて、把持部の位置決めに対応する変換を計算し、被加工品とオブジェクトとの間で必要とされる相対移動を計算する。瞬時ベクトルによる移動は、ロボット位置決めシステムを介してのみ行われる。その際には、ロボットが十分な精度で被加工品を位置決めすることができ、ロボット誤差が無視できる程度であることを前提とする。カメラの視野は制限されており、動かすことができないため、この手法を適用できる空間的領域は限られてしまう。確かに、この手法を用いれば把持部の把持誤差を検出できるが、ロボット位置決めシステムの精度が低い場合には、このことを検出することができない。この手法では、理想的な非常に高いロボット精度が前提条件とされる。さらに、外部基準決定装置を用いて、ワールド座標系でカメラの基準を特定しなければならない。
WO2005/039836(ISRA Vision)に、調整要素の制御によってハンドリング装置の動きを調整する方法が記載されている。この制御では、光学的に検出されるオブジェクトを基準として動きシーケンスが設定される。識別されたオブジェクトの位置および/または動き状態と、該オブジェクトを基準とする動きシーケンスとから、ハンドリング装置の調整要素に対する制御命令が計算され、適切な調整命令が、動かすべき調整要素へ出力される。換言すると、オブジェクトを把持も位置決めもしないハンドリング装置が該オブジェクトに追従し、該オブジェクトに合わせて制御される。撮像は、定置のカメラによって行われるか、または、相対的な視野が固定されておりハンドリング装置と共に動くカメラによって行われる。
これらのシステムおよび手法の大部分に共通する点は、非接触の写真座標測量を使用して画像処理システムによって、オブジェクトに設けられた複数の特徴的な点の位置を求めることである。
近距離領域においてオブジェクトの表面で非接触の写真座標測量を行うためには、種々の視点からオブジェクトを再現する画像の画像データを、該オブジェクトが測量されるオブジェクト座標系であってたとえば該オブジェクトのCADモデルの基礎をなすオブジェクト座標系に変換することにより、該オブジェクトの寸法と、画像中の別のオブジェクトに対する該オブジェクトの相対姿勢とを推定する。こうするためには、画像データをデータ処理ユニットにおいて処理する。座標計算の基礎となるのは、使用される画像の相対的なカメラ方向の検出である。
この相対的なカメラ方向の検出では、従来技術から公知であるように、1つのカメラのみを使用してオブジェクト表面の測量すべき面区分を時間的にずらして異なる複数の視点から撮像し、その後に、画像処理システムを使用して、それぞれは2次元画像である複数の画像データを処理していわゆる3次元画像を構成する手段がある。ここで、この3次元画像の画像点にそれぞれ奥行情報が対応付けられ、検査すべき各画像点に、とりわけすべての画像点に、カメラおよび該カメラの視点から決定される画像座標系における3D画像座標が対応付けられる。従来技術から、複数の異なる視点から同じ場面を示す複数の2次元画像からこのような3次元画像を生成するための種々の画像処理手法が公知である。
さらに従来技術から、複数の異なる視点からカメラを使用して面区分を時間的にずらして撮像する代わりに、複数のカメラを使用して実質的に同時に撮像を行う手段も公知である。このことは、カメラを動かさずに面区分を3次元で検出できるという利点を有すると同時に、さらに、カメラの現時点の方向の検出を省略できるという利点も有する。というのも、カメラ相互間の相対方向および間隔は固定できるからである。
従来技術から、基本的に2つまたは3つのカメラから構成される種々の3D撮像装置が公知である。これら2つまたは3つのカメラは相互に離隔され、すなわちステレオベースを有し、相対的に固定された異なる視点から1つのシーンを撮像するように1つの共通のケーシング内に相互に固定的に結合されて収容されている。撮像される面区分は、画像の電子的処理を可能にする特徴的な画像特徴を有するとは限らないので、この撮像される面区分の表面にマークを設けることができる。このマークを生成するためには、たとえば光学的ラスタまたは光学的クロスマークを投影するパターン光ビーム、とりわけレーザビームを、3D撮像ユニットから面区分に投影することができる。通常はこのような3D撮像ユニットは、実質的に同時に撮像された異なる視点の複数の画像から3次元の画像を導出する画像処理装置を有する。
このような3D撮像ユニットはたとえば、正三角形に配置された3つのカメラを有し商標「Optigo」および「OptiCell」で知られている CogniTens 社の撮像システムや、ActiCM 社の「Advent」システムである。この「Advent」システムは、相互に隣接して配置された2つの高分解能CCDカメラと、撮像すべき区分にパターン光を投影するためのプロジェクタとを有する。測量すべき撮像画像の要素の座標を求めるためには、通常は画像内の基準マークが使用され、この基準マークを使用して、本来の目的である3D座標測定が行われる。その際には、撮像された3次元画像を基準とし3D撮像ユニットを参照する画像座標系を、オブジェクトを測量する際の基準系となりたとえば該オブジェクトのCADモデルの基礎となるオブジェクト座標系に変換する。この変換は、オブジェクト座標系内において位置が既知である撮像された基準マークを基礎として行われる。このようにして、従来技術から公知のこのような3D撮像ユニットでは、0.5mm未満の精度が実現される。
さらに、面領域内で奥行スキャンを行って点群を生成する、とりわけ3Dスキャナの形態で構成された電子光学的測距方式の3Dスキャンシステムが公知である。この3Dスキャンシステムは、点状の測定ビームが面を点ごとにスキャンする順次方式と、直線状の測定ビームが面を直線ごとにスキャンする並列方式と、面領域内の多数の点を同時にスキャンして該面領域の奥行撮像を行う完全並列方式とに分けられる。これらのシステムすべてに通常共通する点は、奥行走査を行うために、少なくとも1つの測距用ビームを面に向けて方向決めし、かつ/または面全体にわたって動かすことである。とりわけ、順次方式は広範に広まっており、たとえば商品名「Leica HDS 6000」、「Leica ScanStation 2」、「Trimble GX 3D Scanner」、「Zoller + Froehlich IMAGER 5003」および「Zoller + Froehlich IMAGER 5006」で市販されている。また他のシステムとして、たとえば、「3rdTech DeltaSphere3000IR」、「Basis Software Surphaser 25HSX」、「Basis Software Surphaser 25HS」、「Callidus precision Systems CPW 8000」、「Callidus precision Systems CP 3200」、「Faro Europe LS 420」、「Faro Europe LS 880」、「I-Site 4400-LR」、「I-Site 4400-CR」、「Optech ILRIS-3DER」、「Optech ILRIS-3D」、「Riegl Laser Measurement Systems LMS-Z420i / LMS-Z390i」、「Riegl Laser Measurement Systems LPM-321」および「Trimble VX」が挙げられる。
さらに、オブジェクトの撮像を行うと同時に各画素または各画素群の奥行情報も検出できるRIMカメラも存在し、これはRIMまたはレンジイメージングシステムとも称される。これによって、1つの装置だけで、各画素または多数の画素群に奥行情報が対応付けられた、すなわちカメラとの距離情報が対応付けられた3次元画像を撮像することができる。
どの3D撮像ユニットでも、撮像を所要分解能で行うことができる撮像領域が構成に起因して制限されることが問題になる。それゆえ、比較的大きいオブジェクトを3次元検出する際には、3D撮像ユニットの異なる複数の位置および方向から複数の個々の3次元撮像画像を形成することが不可欠である。次に、重なり合う画像領域を整合し、撮像された面区分内のマークを使用して、これら多数の比較的小さい撮像画像を組み立ててより大きな3次元全体画像を構成する。従来技術から、このような課題を解決するための種々の手法が公知である。これらの手法に共通する全般的な問題は、組み立てられてより大きな画像を構成する個々の3次元画像が、相互に重なり合うオーバーラップ領域を有さなければならないことである。少なくとも1つの基準点を有する第1の面区分と、該第1の面区分から離れていて基準点を有さない第2の面区分とを結びつける別の画像が撮像されないと、画像処理システムは3D撮像ユニットの位置を、該第1の面区分から該第2の面区分へ飛び飛びに変化させることはできない。それゆえ、多数の中間撮像を実施して、相互に離れた測量すべき2つの面区分を光学的に結びつけて、一続きの連続的な画像処理を行えるようにしなければならない。本来測定すべきものには直接関係ない多数の3次元画像を撮像することにより、測定プロセス全体が緩慢になり、多くのメモリリソースおよび演算リソースが必要になる。さらに、撮像画像内の座標測量結果には必然的に僅かな測定誤差が発生してしまい、多数の画像が組み合わされた場合、このような僅かな測定誤差は測定精度に大きく影響し、とりわけ基準点の距離が大きい場合には、測定精度に大きく影響してしまう。
したがって、カメラの視界が制限されるため、オブジェクト座標系における位置が既知である基準点を多数使用することは避けられない。上記の純粋な写真測量システムの利点は、オブジェクト座標系における3D撮像ユニットの個々のカメラの絶対的な位置および方向を求めなくてもよいことである。というのも、撮像された画素の絶対位置は、同じ画像に撮像された基準点の位置の既知の情報と、カメラ相互間の相対的方向の既知の情報と、画像中の基準点に対する測量すべき点の相対位置の既知の情報とから求められるからである。この測量すべき点の相対位置は、三角測量によって計算される。したがって測量システムを、相互間の相対姿勢が既知である画像校正されるカメラと、画像処理装置とに制限することができる。
これらのシステムすべての欠点は、カメラの視界が制限されており画像分解能が制限されているため、カメラないしは被測量オブジェクトの旋回または位置変化を行うことによって視野を動かすのを避けられないことが多いことである。このことはとりわけ、比較的大きなオブジェクトを高精度で測量しなければならない場合に当てはまる。というのも、所要精度を遵守するためには、画像分解能が制限されているためにカメラとオブジェクトとの間の距離は所定の距離を超えてはならないにもかかわらず、このようにオブジェクトに近接するとカメラの視野は該オブジェクトの一部しか捉えられないからである。それゆえ、撮像を行うごとに適切な数の基準点が、有利には少なくとも3つの基準点が視界に入るように基準点を多く使用するか、または、すでに検出されたオブジェクト点の位置を、とりわけオブジェクト表面のすでに検出されたマークを使用する必要がある。
この場合には上述のように、3D撮像ユニットの複数の異なる位置および方向から複数の個々の3次元画像を撮像する。次に、オーバーラップ画像領域を整合し、撮像された面区分内のマークを使用して、これら多数の比較的小さい撮像画像をまとめて1つのより大きな3次元全体画像を構成する。このことを行うためには時間がかかり、それ自体は測量対象でないマークを使用しなければならない。
さらに従来技術から、3D撮像ユニットを産業用ロボットの頭部またはポータブル座標測定機によって支持して位置調整できる測定システムおよび手法が公知である。高度かつ高分解能の3D撮像ユニットの重量は大きく、中には10kgを超えるものもあるため、撮像精度に相当する所要精度を有する3D撮像ユニットの位置を正確に検出することはできない。というのも、こうするためには操作システムを定置構成にして、3D撮像ユニットの使用領域を据置システムに制限しなければならないからである。産業用ロボットの測定精度は比較的低く、高精度の3D撮像ユニットの測定精度より格段に低いため、産業用ロボットは外部基準をとるのに適していない。他方、ポータブル座標測定機は、高重量の負荷を支持するようには構成されておらず、機械的な負荷が大きい場合には、基準特定に使用できる測定結果が得られない。それゆえ、操作システムから位置測定値が得られる場合、この位置測定値によって、3D撮像ユニットの絶対位置および/または相対位置を推定することができたとしても、この位置測定値を撮像画像の基準に使用することはできず、とりわけ、繋がっていない異なる面区分の3次元撮像画像のうちで使用できない撮像画像が出てくる。
上記の測定システムは、空間内において操作システムを使用してオブジェクを高精度で位置決めするのに適しており、そのために使用されているが、従来技術から公知のシステムには数多くの欠点がある。上述の測定手法は基本的に画像処理だけで行われるので、このような手法は比較的長い時間がかかり、それ自体は測量の必要がない基準マークまたは補助マークを検出する必要がある。カメラの視界は制限されているため、3D撮像ユニットはたいてい処理が行われる直ぐ近くに配置され、通常はロボットアームに配置されるか、またはオブジェクトまで僅かな距離の所に配置される。このことに伴い、処理が行われる近くにあることにより、3D撮像ユニットは、処理‐たとえば溶接‐によって発生する粒子と熱の影響とにさらされてしまう。また、処理が行われる場所に近いことにより、別の操作システムを3D撮像ユニットの操作システムに整合して、衝突を回避しなければならない。3D撮像ユニットを移動させ、この移動に伴って基準の再特定を行うことになると、この基準の再特定には比較的長い時間が必要となり、処理フロー全体が緩慢になってしまう。したがって従来は、加工が行われる場所から離れて3D撮像ユニットを配置することは完全に断念されていた。
それゆえ、有利には0.1mm未満の精度の高精度非接触3D測定システムを、産業用ロボットによるオブジェクトの高精度位置決めに使用するという目的と、測定システムを加工に直接さらさずにフレキシブルに扱うことができ、測定システムによって検出される作業動き空間を可能な限り大きくし、とりわけ自由に位置決めできる測定システムを提供するという目的の双方の目的は、工業用途で産業用ロボットによってオブジェクトを位置決めする分野では、従来は十分に解決されなかった対立する目的であった。
それゆえ本発明の課題は、産業用ロボットを使用して少なくとも1つのオブジェクトを空間内の姿勢に高精度で位置決めするための方法および相応のシステムにおいて、フレキシビリティ、高精度および高速な処理速度を有する方法とシステムとを提供することである。この課題は、独立請求項に記載されている構成によって解決される。従属請求項に、本発明の択一的または有利な実施形態が記載されている。
まず最初に、本発明の方法を概説し、その後に、実施例を概略的に示す図面を参照して、本発明の実施可能な有利な構成を概説する。
空間内の最終姿勢に少なくとも1つのオブジェクトを高精度で位置決めするための本発明の方法を実施するためには、産業用ロボットと、光学的な3D撮像装置とを用いる。第1の産業用ロボットは、設定可能なポジショニングに位置調整することができ、内部校正され、3次元空間座標系で校正され、この座標系を基準とする。前記光学的な3D撮像装置は、3次元空間座標系内で校正され、既知の位置に既知の方向で位置決めされており、この3D撮像装置は所定の視野内で、それぞれ複数の画素から構成された3次元画像を電子的に撮像するように構成されており、前記複数の各画素にはそれぞれ奥行情報が対応付けられる。前記光学的な3D撮像装置は、前記視野を位置調整するために該3D撮像装置を方向決めするための駆動ユニットを有する。さらに前記光学的な3D撮像装置は、該3D撮像装置の角度方向を高精度で検出するための角度測定装置を有する。この角度測定装置4は空間座標系内で校正されていることにより、該空間座標系内における前記視野を求めることができる。本発明による方法は、以下のステップを有する:
光学的に検出可能な既知の第1の特徴的要素を有する第1のオブジェクトを、第1の産業用ロボットが把持公差内で把持および保持する。
第1の産業用ロボットに対して、把持公差を補正する第1の微調整量が次のように求められる。すなわち、第1のオブジェクトが空間座標系において第1の産業用ロボットの第1のポジショニングの設定によって微調整されるように移動するように、第1の微調整量が求められる。前記第1の微調整量をこのように求める際には、以下のステップを行う:
前記駆動ユニットによって、前記第1の産業用ロボットの第1の微調整ポジショニングで保持された前記第1のオブジェクトの第1の特徴的要素の少なくとも一部に向けるように前記3D撮像装置の視野を位置決めするステップ。
少なくとも1つの第1の3次元画像を撮像するステップ。
前記第1の産業用ロボットの微調整ポジショニングでの、前記空間座標系における前記第1のオブジェクトの姿勢を、前記3次元撮像装置の位置と、前記角度測定ユニットによって検出された、該3次元撮像装置の角度方向と、前記第1の3次元画像と、前記第1のオブジェクトに存在する前記第1の特徴的要素の既知の情報とから求めるステップ。
前記第1の産業用ロボットの前記第1の微調整ポジショニングと、少なくとも、該第1の産業用ロボットの該第1の微調整ポジショニングでの前記第1のオブジェクトの求められた姿勢とを使用して、前記第1の微調整量を求めるステップ。
所定の公差内で第1の最終姿勢に達するまで下記のステップを繰り返し実施することにより、前記第1のオブジェクトを該第1の最終姿勢に高精度で位置調整することができる:
前記3D撮像装置を使用して少なくとも1つの別の第1の3次元画像を撮像するステップ。
前記3D撮像装置の位置と、前記角度測定ユニットによって検出された、該3D撮像装置の角度方向と、前記別の第1の3次元画像と、前記第1のオブジェクトに存在する前記第1の特徴的要素の既知の情報とから、前記空間座標系内における該第1のオブジェクトの現在の姿勢を求めるステップ。
前記第1のオブジェクトの現在の姿勢と前記第1の最終姿勢との姿勢差を計算するステップ。
前記第1の微調整量を考慮して、前記第1の産業用ロボットの現在のポジショニングと、前記姿勢差に関連する量とから、該第1の産業用ロボットの新たな目標ポジショニングを計算するステップ。
前記第1の産業用ロボットを前記新たな目標ポジショニングになるように動かすステップ。
空間内において産業用ロボットにより少なくとも1つのオブジェクトを最終姿勢に高精度に位置決めするための本発明のシステムは、第1の産業用ロボットと、光学的な3D撮像装置と、制御装置とを有する。前記第1の産業用ロボットは、所定のポジショニングに位置調整されるように校正されている。こうするためには、産業用ロボットは内部校正されており、空間座標系を基準とする。前記光学的な3D撮像装置は、3次元空間座標系内で校正され、既知の位置に既知の方向で位置決めされており、この3D撮像装置は所定の視野内で、それぞれ複数の画素から構成された3次元画像を電子的に撮像するように構成されており、前記複数の各画素にはそれぞれ奥行情報が対応付けられる。前記光学的な3D撮像装置は、前記視野を動かすために該3D撮像装置を方向決めするための駆動ユニットを有し、さらに該3D撮像装置は、該3D撮像装置の角度方向を高精度で検出するための角度測定ユニットを有する。この角度測定ユニットは空間座標系内で校正されていることにより、該空間座標系内における前記視野を求めることができる。前記制御装置は、画像処理を行うように構成されたデータ処理装置を有する。制御装置と、第1の産業用ロボットと、前記光学的な3D撮像装置とは、次のようにデータ接続されている。すなわち、前記制御装置に、該光学的な3D撮像装置によって撮像された3次元画像が供給され、該制御装置に、前記角度測定ユニットによって検出された該3D撮像装置の角度方向が供給され、駆動ユニットは該制御装置によって、該3D撮像装置を方向づけるように駆動制御され、前記第1の産業用ロボットは、該制御装置によって設定されたポジショニングに位置調整されるようにデータ接続されている。
前記制御装置および該制御装置のデータ処理装置は、以下のステップを信号受信、信号評価、信号計算および信号出力によって実施するように構成され、上記構成要素とデータ接続されている。
前記制御装置に既知であり光学的に検出可能である第1の特徴的要素を有する第1のオブジェクトを、第1の産業用ロボットが把持公差内で把持および保持するステップ。
第1の産業用ロボットに対して、把持公差を補正する第1の微調整量を前記制御装置によって次のように求めるステップ、すなわち、第1のオブジェクトが空間座標系において第1の産業用ロボットのポジショニングの設定によって微調整されるように、第1の微調整量を求めるステップ。前記第1の微調整量を前記制御装置によって求める際には、以下のステップを実施する:前記駆動ユニットによって、前記第1の産業用ロボットの第1の微調整ポジショニングで保持された前記第1のオブジェクトの第1の特徴的要素の少なくとも一部に向けるように、前記3D撮像装置の視野を位置決めするステップ。少なくとも1つの3次元画像を撮像するステップ。前記3D撮像装置の位置と、角度測定ユニットによって検出された該3D撮像装置の角度方向と、前記第1の3次元画像と、前記第1のオブジェクトの前記第1の特徴的要素の既知の情報とから、前記第1の産業用ロボットの第1の微調整ポジショニングにおける該第1のオブジェクトの空間座標系での姿勢を求めるステップ。
前記第1の産業用ロボットの第1の微調整ポジショニングと、少なくとも該第1の産業用ロボットの第1の微調整ポジショニングにおける第1のオブジェクトの求められた姿勢とを使用して、第1の微調整量を求めるステップ。
所定の公差内で第1の最終姿勢に達するまで下記のステップを前記制御装置によって繰り返し実施することにより、前記第1のオブジェクトを該第1の最終姿勢に高精度で位置調整することができる:少なくとも1つの別の3次元画像を撮像するステップ。前記撮像装置の位置と、角度測定ユニットによって検出された前記3D撮像装置の角度方向と、前記別の第1の撮像画像と、前記第1のオブジェクトの前記第1の特徴的要素の既知の情報とから、該第1のオブジェクトの空間座標系での現在の姿勢を求めるステップ。前記第1のオブジェクトの現在の姿勢と第1の最終姿勢との姿勢差を計算するステップ。前記第1の微調整量を使用して、前記第1の産業用ロボットの現在のポジショニングと、前記姿勢差に関連する量とから、該第1の産業用ロボットの新たな目標ポジショニングを計算するステップ。前記第1の産業用ロボットを前記新たな目標ポジショニングに調整するステップ。
本発明の方法および本発明のシステムを以下で、概略的に示された実施例に基づいて説明する。
第1のオブジェクトを位置決めするために使用され光学的な3D撮像装置を使用する本発明の方法およびシステムを示す。 本発明の方法のフローチャートである。 第1のオブジェクトおよび第2のオブジェクトを位置決めするために使用され2つの産業用ロボットを使用する方法およびシステムを示す。 第1のオブジェクトおよび第2のオブジェクトならびに加工ツールを位置決めするために使用され3つの産業用ロボットを使用する方法およびシステムを示す。
図1aに、空間内において第1のオブジェクトを第1の最終姿勢に高精度で位置決めするための第1の実施形態のシステムと方法のフローとを示す。図1bに本方法のステップを示している。図1aおよび1bを一緒に説明する。
本発明の方法は、空間内において少なくとも1つのオブジェクトを少なくとも1つの産業用ロボットによって最終姿勢に高精度で位置決めするのに使用される。この空間内の最終姿勢は、オブジェクトが高精度で、とりわけ0.5mm未満の精度で、有利には0.2mm未満の精度で、特殊な場合には0.1mm未満の精度でとらなければならない位置および方向であり、一般的には最終姿勢とは、本方法の枠内でオブジェクトがあるべき位置および方向を指す。もちろん、次にオブジェクトを、1つまたは任意の数の別の新たな最終姿勢にすることもできる。
本発明の方法の構成要素には、第1の産業用ロボット11と、光学的な3D撮像装置1とが含まれる。本方法をこのようなシステムによって実施するために、さらに制御装置9が設けられる。
第1の産業用ロボット11は、第1のオブジェクト12を把持するように構成されている。たとえばこの産業用ロボット11は、6つの自由度で可動のグリッパ11aを備えた関節アームロボットである。グリッパ11aは空気圧グリッパとして構成されており、たとえば薄板を把持するように構成されている。また、このグリッパを機械的なグリッパとすることもでき、とりわけ鉗子把持器とすることができ、また、産業用ロボット11の可動の肢部を機械的に結合するための他のグリッパとすることもできる。産業用ロボット11に対し、グリッパ11aの目標ポジショニングを設定することにより、該グリッパ11aを所定のポジショニングに位置調整することができる。こうするために産業用ロボット11は、内部測定システム、内部制御システムおよび内部座標変換システムを有する。産業用ロボット11とは一般的に、冒頭に述べたようにオブジェクトを把持および位置決めするように構成された操作システムを指す。
前記光学的な3D撮像装置1は、3次元の空間座標系内において校正されており、位置Pに既知の方向で位置決めされている。以下で、前記位置Pの検出について説明する。この位置Pの検出により、第1のオブジェクト12を位置決めすべき座標系においてこの位置も角度方向もそれぞれ、間接的または直接的に既知である。3D撮像装置1は、所定の視野内で3次元画像を電子的に撮像するように構成されており、各3次元画像は多数の画素から構成されており、各画素はそれぞれ奥行情報を有する。前記3D撮像装置1は、視野8内で撮像画像において光学的な測定を行えるように、光学的に校正されている。
光学的な3D撮像装置とは一般的に、それぞれ奥行情報を有し光学的に検出可能であるポイントを撮像するための電子的装置を指し、光学的な3D撮像装置はそれぞれ、このポイントを撮像するのに必要な構成を有し、とりわけ対物レンズと、とりわけCCD画像センサまたはCMOS画像センサである適切な撮像素子と、距離測定ユニットと、適切な電子回路とを有する。前記対物レンズは任意の対物レンズとすることができ、たとえば固定焦点対物レンズとするか、または、モータ駆動ズームおよびオートフォーカスによるズーム対物レンズまたは可変焦点対物レンズとすることができる。前記光学的な3D撮像装置は、とりわけ光学系、画像センサまたは電子回路におけるいかなる誤差も、たとえば光学ひずみ等も考慮して補償することができるように、内部校正されている。したがって、前記光学的な3D撮像装置は写真測量を行うのに適している。
さらに前記光学的な3D撮像装置1は、前記視野8を動かすように該光学的な3D撮像装置を方向決めするための少なくとも1つの駆動ユニット3も有する。前記駆動ユニット3はたとえば、2つの旋回軸を中心として前記光学的な3D撮像装置を旋回させるための旋回ユニットである。これら2つの旋回軸はそれぞれ、空間座標系を基準として水平方向の傾斜軸Hと、垂直方向の縦軸Vとすることができる。しかし、この実施例は必須要件ではない。
さらに前記光学的な3D撮像装置1は、該光学的な3D撮像装置の角度方向を高精度で検出するための角度測定装置4を有する。この角度測定装置は空間座標系内で校正されていることにより、該空間座標系内における前記視野8を求めることができる。前記光学的な3D撮像装置1が前記光学的撮像ユニットおよび前記角度測定ユニットに関して内部校正されており、さらに、該光学的な3D撮像装置1の基準が外部に特定されていることにより、各画素は空間座標系内における各点を高精度で定義できるようになる。この空間座標系内における各点は、画像センサ上の画素の位置すなわち2次元の撮像画像上の画素の位置と、該画素に対応する奥行情報と、前記角度測定ユニット4によって測定された該光学的な3D撮像装置1の方向と、該光学的な3D撮像装置1の既知の位置と、実際の校正パラメータとから求められ、各画素に対応する前記奥行情報により、3次元画像が得られる。
図中の実施例では前記角度測定ユニット4は、空間座標系内において、縦軸Vを軸とする水平方向の角度方向αと、傾斜軸Hを軸とする垂直方向の角度方向βとを検出する。水平方向の傾斜軸Hと垂直方向の縦軸Vとは実質的に交わるので、前記光学的な3D撮像装置1は一種のビデオセオドライトとして構成されている。このビデオセオドライトとはここでは、セオドライトに同軸で組み込まれた3D撮像装置を備えたセオドライトを指すか、または、非同軸でとりわけセオドライトの望遠鏡に配置された3D撮像装置を備えたセオドライトを指す。
空間内において前記光学的な3D撮像装置1の基準特定および校正は、専用の測定システムを用いて行われ、これにより、位置Pおよび外部校正パラメータが3D撮像装置1によって求められる。
空間座標系内における前記光学的3D撮像装置1の位置Pは、位置固定されたターゲットマークTに該3D撮像装置1を向けることによって求められる。有利には、前記3D撮像装置1の視野8の複数の異なる方向で、前記位置固定されたターゲットマークTに該3D撮像装置1を向けて前記少なくとも1つの3次元画像を撮像するように、該位置固定されたターゲットマークTと、光学的に検出可能である、第1のオブジェクト12の既知の第1の特徴的要素13との間隔は決定されている。換言すると、前記位置固定されたターゲットマークTに前記3D撮像装置1を向けて位置Pを検出した後、前記第1のオブジェクト12に存在する第1の特徴的要素13を撮像する前に、該3D撮像装置1の視野8の方向を変更しなければならない。というのも、視野8は制限されているため、位置固定されたターゲットマークTと前記第1のオブジェクト12の第1の特徴的要素13とを同時に撮像することができないからである。このことは図1に示されている。前記3D撮像装置1を前記位置固定されたターゲットマークTに向けるとは、該ターゲットマークTが該3D撮像装置1の視野8内にあり、該ターゲットマークTに相当する画素の位置を検出できること、または、該3D撮像装置1の付加的な手段を用いて、たとえば電子光学的な測距装置5を用いて該ターゲットマークTの位置を求めることが可能であることを意味する。制御装置9は、画像処理のために構成されたデータ処理装置を有する。前記制御装置9は少なくとも、前記第1の産業用ロボット11と前記光学的な3D撮像装置1とにデータ接続されている。前記制御装置9には、画像処理を行うために、前記光学的な3D撮像装置1によって撮像された3次元画像が供給される。制御装置9はさらに、前記角度測定ユニット4によって検出された前記3D撮像装置1の角度方向を入力信号として受け取る。前記駆動ユニット3は前記制御装置9によって、前記3D撮像装置1を方向調整するように駆動制御される。
第1の産業用ロボット11は、制御装置9によって設定されるポジショニングに位置調整される。そのために必要なデータ伝送は、電圧信号、無線信号、光学的信号または他の通信経路を使用して行うことができる。とりわけ、使用される構成要素の個々の位置、方向およびサイズである基準パラメータや校正パラメータは、‐本方法を実施するのに必要である場合には‐制御装置9に記憶される。制御装置9は、たとえば適切なインタフェースを有するパーソナルコンピュータ等であるユニットや、相互に通信するかまたは相互に接続されてネットワークを構成し別個の位置に設けられた複数の個々のコンポーネントとすることができ、たとえばこれら複数の個々のコンポーネントは、個別の装置の構成要素とすることができる。とりわけ、抽象的なものと見なされるこの制御装置9は、3D撮像ユニット1および/または第1の産業用ロボット11の構成要素とすることができる。空間内の最終姿勢に位置決めすべき第1のオブジェクト12は、光学的に検出可能な既知の第1の特徴的要素13を有する。前記第1の特徴的要素13は、前記光学的な3D撮像装置1によって検出できる限り、任意の特徴的要素とすることができる。「光学的に検出可能」という用語は、光学的な3D撮像装置1によって検出できることを意味し、必ずしも、人間の肉眼によって見ることができることを意味するわけではない。
このような光学的に検出可能な特徴的要素は、オブジェクトの特徴によって形成することができ、とりわけオブジェクトの形状、表面プロフィールおよび表面特性によって形成することができ、たとえばオブジェクトの角、辺、穿孔、切欠およびビードによって形成することができる。上記のような特徴的要素の代わりに、または付加的に、特徴的要素をオブジェクト表面に取り付けることもでき、たとえば接着マークまたは着色マークとして取り付けることもできる。有利にはこれらの特徴的要素は、少なくとも2次元に広がる特徴であり、たとえば一直線上にない3点として設けられる。このような特徴的要素は、該特徴的要素の位置検出によって空間内におけるオブジェクトの姿勢、すなわち位置および方向が可能な限り一義的に定義されるように設けられる。
オブジェクト12は、空間内において高精度で位置決めすべき任意のオブジェクトであって、第1の産業用ロボット11によって把持および保持することができるオブジェクトであり、たとえば薄板部材である。
以下で本発明の方法の流れを説明する。この説明では、本発明の方法をフローチャートで示す図1bを参照する。ステップ50において、たとえば保管位置にある第1のオブジェクト12を第1の産業用ロボット11によって、該産業用ロボット11のグリッパ11aを使用して把持公差内で把持および保持する。この把持公差は、第1のオブジェクト12を最終姿勢に位置決めする際に逸脱してはならない公差を上回る。とりわけ、オブジェクトに対して強制センタリングしない空気圧把持器では高精度で把持することができず、グリッパに対するオブジェクトの相対姿勢は公差を有し、この公差を補償すなわち補正しなければならない。
ステップ51は、本発明の1つの実施形態で行われるオプションのステップであり、このステップでは、第1のオブジェクト12を未知の把持誤差で保持する第1の産業用ロボット11を、第1の微調整量を求めるために第1の微調整ポジショニングに位置調整される。第1の産業用ロボット11のこのような微調整ポジショニングで、光学的な3D撮像装置1は3次元撮像を行うために第1のオブジェクト12をよく見ることができる。把持後にすでに、前記光学的な3D撮像装置1がこの第1のオブジェクト12をよく見ることができることが保証され、第1のオブジェクト12がすでに或る位置にある場合には、このステップ51を省略することもできる。
次のステップ52において、この把持公差を補正するために第1の微調整量を求める。第1の産業用ロボット11の把持公差を補正するためのこの第1の微調整量は、該第1の産業用ロボット11のポジショニングの設定によって空間座標系内で微調整するように第1のオブジェクト12を位置調整するのに使用される。微調整するように位置調整するとは、ロボットのグリッパ11aがとるべきポジショニングが設定された場合に、部品を把持したときの把持誤差を補正することを意味する。すなわちこの把持誤差は、補正量である第1の微調整量によって考慮される。この把持誤差は全部で6つの自由度で生じる可能性があるため、微調整量はとりわけテンソルの形態の適切な値をとることができる。理想的には、すなわち第1のオブジェクトをグリッパ11aが精確に把持している場合、微調整量は0に等しくなる。
第1の微調整量は、以下の部分ステップによって求められる。まず、前記光学的な3D撮像装置1が、前記第1の産業用ロボット11の第1の微調整ポジショニングで保持された第1のオブジェクト12の第1の特徴的要素13の少なくとも一部の方を向くように、該光学的な3D撮像装置1を前記駆動ユニット3によって方向決めし、とりわけ旋回させる。有利には、前記第1の特徴的要素13を成す少なくとも3点が、前記視野8内に設けられる。その後、第1の3次元画像を前記光学的な3D撮像装置1によって撮像する。次にこの3次元画像から、第1の産業用ロボット11の第1の微調整ポジショニングに保持される第1のオブジェクト12の姿勢が空間座標系で求められる。3つの特徴点の位置を求めるだけで、この姿勢を求めることができる。前記第1のオブジェクト12の姿勢は、前記光学的な3D撮像装置1の位置Pの既知の情報と、前記角度測定ユニット4によって検出された該光学的な3D撮像装置1の角度方向と、前記第1の3次元画像とから求められる。これらの情報だけですでに、とりわけ制御装置9での画像処理により、個々の検出された点の位置を空間座標系で求めることができる。これからオブジェクトの姿勢を導出するためにはさらに、第1のオブジェクト12に設けられた第1の特徴的要素13の既知の情報が必要である。第1の特徴的要素13の位置または姿勢から、空間内における第1のオブジェクトの姿勢を推定することができる。たとえば電子的モデルから、薄板部材が特別な穿孔を有することと、該薄板部材がどの場所に特別な穿孔を有するかが既知である場合、これらの穿孔の姿勢からオブジェクトの姿勢を推定することができる。このようにして、把持に誤差が無い理想的な姿勢を得るための第1の産業用ロボット11の第1の微調整ポジショニングと、少なくとも、第1の産業用ロボット11の第1の微調整ポジショニングにおける第1のオブジェクト12の検出された姿勢すなわち現在の姿勢とを使用して、第1の微調整量が求められる。
本発明の1つの実施形態では、オブジェクト11の特徴的要素13は基本的に、制御装置9の電子的データ処理装置によって処理可能なモデルから既知である。このモデルは、CADによって得られる電子的モデルとすることができる。電子的データ処理装置上で実行される画像処理によって、モデル内および/または撮像画像内の特徴的要素13を識別し、モデルのこれらの特徴的要素13と、撮像画像の特徴的要素13とを相互に対応付ける。空間座標系におけるオブジェクト12の姿勢は、空間座標系における撮像された特徴的要素13の検出された位置と、対応付けられた特徴的要素13とから求められる。このような画像処理手法および特徴認識手法は従来技術から公知であり、ここでは詳細に説明する必要はない。
このようにして、第1のオブジェクト12を把持した際に適切な第1の微調整量を求めた際の把持誤差は既知となったので、該第1のオブジェクト12を第1の産業用ロボット11によって該第1の産業用ロボット11のセンサの測定精度で位置決めすることができるようになる。しかし、この測定精度は十分でないので、解決しなければならない別の位置決め問題が生じる。
たとえば、製造公差および周辺パラメータに起因して、たとえば薄板部材等である第1のオブジェクト11自体に特定の寸法公差および形状公差が生じている可能性がある。この特定の寸法公差および形状公差は考慮しなければならない。それゆえ、本発明の1つの実施形態では、第1のオブジェクトのばらつきを考慮する。
本発明の1つの実施形態では、オプションのステップ53では、撮像された特徴的要素13の相互間の相対姿勢を求め、上記のモデルから基本的に既知である該特徴的要素の相互間の相対姿勢と比較する。本発明の1つの実施形態では、撮像された特徴的要素13の相対姿勢と、モデルから基本的に既知である特徴的要素の相対姿勢との偏差の超過時には、エラーメッセージを出力する。本発明の1つの実施形態では、エラーメッセージの場合、オブジェクト12を新たなオブジェクト12に交換し、次に、図1bに一例として示したようにステップ50を実施する。この実施形態の代わりに、モデルを、検出されたオブジェクト12に適合することができ、たとえばCADによって得られたモデルを、把持されているオブジェクト12の実際の寸法に適合することができる。この場合、このような適合されたモデルは空間座標系内において、オブジェクト12がとるべき最終姿勢を決定する。この最終姿勢がたとえばオブジェクト12の一部分によって決定される場合、とりわけ最終姿勢がとるべき辺によって決定される場合、この部分の変形がモデルの適合によって相応に考慮される。ステップ54もオプションであり、このステップ54において第1の微調整量を考慮して第1の産業用ロボット11を第1の微調整ポジショニングから、該第1のオブジェクト12が前記第1の最終姿勢に近づく第1の近似姿勢に位置決めされる位置へ位置調整する。第1の産業用ロボット11のこのような位置調整を行うためには、第1の微調整ポジショニングが設定されていた第1の産業用ロボット11に対し、第1のオブジェクト12が第1の近似姿勢にある新たなポジショニングを入力量として設定する。前記3D撮像装置1の視野8は前記駆動ユニット3によって、第1の近似姿勢に位置決めされた第1のオブジェクト12の第1の特徴的要素13の少なくとも一部に向けられる。
ステップ55において、第1のオブジェクト12を第1の最終姿勢に高精度で位置調整する。こうするためには、所定の公差以内の第1の最終姿勢に達するまで、以下のステップを繰り返す。その後、少なくとも1つの別の第1の3次元画像を前記3D撮像装置1によって撮像する。前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記別の第1の撮像画像と、前記第1のオブジェクト12の前記第1の特徴的要素13の既知の情報とから、該第1のオブジェクト12の空間座標系での現在の姿勢が求められる。次に、この現在の姿勢を目標姿勢と比較する。すなわち、第1の最終姿勢と比較する。前記第1のオブジェクト12の現在の姿勢と第1の最終姿勢との姿勢差を計算する。次に、第1の産業用ロボット11の新たな目標ポジショニングを計算する。この新たな目標ポジショニングの計算を行うためには、前記第1の産業用ロボット11の現在のポジショニングから得られる第1の微調整量と、前記姿勢差に関連する量とを考慮する。前記姿勢差に関連する量は有利には、1以下の係数が乗算された姿勢差である。すなわち前記新たな目標ポジショニングは、第1のオブジェクト12が現在の姿勢と第1の最終姿勢との間の姿勢になる、産業用ロボット11のポジショニングである。前記係数が1に等しい場合、前記新たな目標ポジショニングは、第1のオブジェクト12が現在の姿勢から、第1の産業用ロボット11の比較的低精度のセンサ系およびアクチュエータ系で実現できる限りの近似度で前記第1の最終姿勢に近づけられるポジショニングである。しかし、この新たな目標位置決め状態は通常は、第1のオブジェクト12を1ステップ55だけで所定の公差以内で第1の最終姿勢にするには低精度すぎるので、前記係数は有利には1未満でありかつ有利には0を上回り、有利には0.95未満であり、とりわけ0.9未満であり、たとえば0.8未満である。1未満でありかつ0を上回る係数によって、産業用ロボット11の新たな目標ポジショニングは、該産業用ロボット11が該新たな目標ポジショニングに位置調整された後に第1のオブジェクト12が前記第1の最終姿勢に近づくが完全には達しないようになる。
次に、前記第1の産業用ロボット11を前記新たな目標ポジショニングの設定によって位置調整する。換言すると、第1の産業用ロボットが、該第1の産業用ロボットを新たな目標ポジショニングにするための新たな位置入力量を受け取る。このようにして、第1の産業用ロボット11のセンサ系およびアクチュエータ系によってこの新たな目標ポジショニングに近づける。次に、上記ステップを繰り返す。すなわち、再びさらなる第1の3次元画像を撮像し、該さらなる第1の3次元画像に基づいて前記第1のオブジェクト12の現在の姿勢を求め、該第1のオブジェクト12の現在の姿勢と前記第1の最終姿勢との姿勢差を計算する。第1のオブジェクトが再び、前記第1の最終姿勢の所要公差以内にない場合、前記第1の産業用ロボット11に再び、該第1の産業用ロボットの現在のポジショニングと前記姿勢差に関連する量とから第1の微調整量を考慮して計算される新たな目標ポジショニングを設定する。前記ステップは、第1のオブジェクト12が公差以内で高精度で第1の最終姿勢に達するまで繰り返される。
上記方法の重要な利点は、前記オブジェクトの特徴的要素の他に別の基準マークを示す必要がない3次元の撮像画像の数を非常に少なくして、空間内におけるオブジェクトの姿勢を検出できることである。このことにより、本方法を格段に迅速化することができる。3次元撮像装置の視野を位置調整した後は、基準を再特定することなく、写真測量による画像評価を行うことができる。このことはとりわけ、オブジェクトを比較的大きな区間で操作システムによって動かして高精度で位置決めするために産業用に使用する際に重要である。というのも、3次元撮像装置をオブジェクトの特徴的要素に向かって旋回させることで視界を変更する際に、基準を再特定する必要も、予め測定された画像および/または基準マークを使用する必要もないからである。このようにして、位置決めを迅速、高精度かつ高いプロセス信頼性で行えることが保証される。3次元撮像装置の旋回で、基準を再特定することや連係方向決めによる時間損失が生じることがなくなるので、処理が行われる場所から撮像装置を離隔して、とりわけ2〜5m離隔して配置することができ、処理を妨害することがなくなり、測定技術装置が処理に直接さらされることがなくなる。このことは、とりわけ溶接手法で有利である。というのも、高感度の測定技術装置が妨害されることがほとんどなくなるからである。
1つの可能な実施形態では前記3D撮像装置1は、少なくとも1つの第1のカメラ2aが前記駆動ユニット3によって、空間座標系に関して水平方向である傾斜軸Hと、該空間座標系に関して垂直方向の縦軸Vとを軸として方向調整できるように構成されている。図中の実施例では、前記角度測定ユニット4によって、空間座標系内において、縦軸Vを軸とする水平方向の角度方向αと、傾斜軸Hを軸とする垂直方向の角度方向βとを検出することができる。とりわけ水平方向の傾斜軸Hと垂直方向の縦軸Vとは実質的に交わる。前記第1のカメラ2aによって、多数の画素から構成される2次元画像を撮像することができる。すべての画素または少なくとも1つの画素群に奥行情報を対応付け、前記2次元画像から3次元画像を導き出すために、複数の異なる手法が存在する。これらの手法を以下で説明する。前記画素群も、単に1画素と見なすことができる。
1つの実施形態では、前記3D撮像装置1は電子光学的な測距装置5を有する。前記電子光学的な測距装置5の種類に依存して、該測距装置5の測定ビームを第1のカメラ2aに対して相対的に方向決めし、該第1のカメラ2aに対する該測定ビームの相対的な角度方向を高精度で検出することができる。3次元画像は、奥行情報を検出して多数の画素に対応付けることによって生成される。この奥行情報はここでは、電子光学的な測距装置5を用いて、画素に対応するオブジェクト12の区分において光学的な奥行測定を行い、とりわけ、第1のカメラ2aに対する測定ビームの相対的な角度方向を求めることによって検出される。前記奥行情報を検出するためには、レーザスキャナを用いることができる。たとえば、前記電子光学的な測距装置5は点走査方式のスキャナである。奥行情報の検出は、点走査方式スキャナを用いて順次走査を行い、少なくとも1つの点状の測定ビームが、視野8に対応するオブジェクト12の面を、たとえば各線において、光学的に点ごとにスキャンすることによって行われる。
別の実施形態では、前記電子光学的な測距装置5は点走査方式のスキャナではなく、線走査方式のスキャナである。奥行情報の検出は、線走査方式スキャナを用いて並列走査を行い、少なくとも1つの線状の測定ビームが、視野8に対応するオブジェクト12の面を線ごとに光学的にスキャンすることによって行われる。
また、電子光学的な測距装置5を面奥行測定装置として構成することもできる。この面奥行測定装置は、面走査方式スキャナとも称される。奥行情報の検出は、面奥行測定装置によって完全並列走査を行い、とりわけ多数の測定ビームから成るビーム束によって形成された少なくとも1つの面状の測定ビームが、前記視野8に対応する前記オブジェクト12の面を面単位で光学的にスキャンすることによって行われる。したがって光学的な面奥行測定装置は、とりわけ完全並列で、3D撮像装置1の視野8の面すべてを実質的に同時にスキャンする。3次元画像は、光学的な面奥行測定装置を用いて完全並列な奥行測定を行うことによって奥行情報を検出し、該奥行情報を多数の画素に対応付けることによって生成される。それゆえ、前記画素に対応付けられる奥行情報は、視野8に相当する前記オブジェクト12の面の奥行撮像を面単位で行うことによって得られる。上述のような、順次走査を行うための点走査方式、並列走査を行うための線走査方式、および、完全並列のスキャンを行うための面走査方式の上述のスキャナは、上述のように従来技術から公知である。有利には、前記電子光学的な測距装置5と前記第1のカメラ2aとは結合されており、駆動ユニット3によって同時に位置調整されるように構成されている。とりわけ、前記電子光学的な測距装置5と前記第1のカメラ2aとが1つのユニットを成す。
上記実施形態の代わりに、または付加的に、3次元画像を直接撮像するためのRIMカメラとして前記3D撮像装置1の第1のカメラ2aを構成することもできる。すなわち前記第1のカメラ2a自体が、各画素または多数の画素群に奥行情報を対応付けることができるように構成されている。
このレンジイメージング(RIM)カメラはとりわけ伝搬時間をベースとしており、このようなレンジイメージングカメラはすでに数年前から市販されている。RIMカメラの場合、信号送信側は、変調された送信波を送信する。この変調された送信波の送信時に使用される変調方式は通常、振幅変調方式をベースとする。送信された変調波の一部はオブジェクト空間内で反射され、その一部は、前置接続された光学系によって特別な画像センサに結像される。この画像センサの特徴は、各個別の画素が受け取った光を復調できること、すなわち、とりわけ信号の位相位置ないしは伝搬時間を求めることができることである。このようなRIMカメラの例に、CSEM社(スイス)の SwissRanger SR-2 および SwissRanger SR-3000、PMD Technologies 社(ドイツ)の型式番号 3k-S が挙げられる。SwissRanger は、CCDセンサ/CMOSセンサを組み合わせたものを有する。この距離測定は位相差方式をベースとしており、結果が一義的となる領域は7.5mにまで及ぶ。このような距離測定では、オブジェクトから反射された信号は光学系を介してセンサの各画素に結像され、相応の距離計算を行い、測定結果は距離イメージとして表される。センサは、124×160画素のサイズ(SR-2)を有するか、ないしは、176×144画素(SR-3000)のサイズを有する。また、単一光子検出アバランシェダイオード(SPAD)がCMOS撮像センサに実装されたRIMカメラも存在する。このようなRIMカメラによって、直接的な伝搬測定手法を実施することができ、このことによって距離測定を伝搬時間測定だけにすることができる。公知のRIMカメラでは、受信波の復調は通常、間接的な伝搬時間測定によって、とりわけ、順次行われる4回の強度測定によって行われる。その際には各画素ごとに、相互間で90°シフトする4つの積分強度測定により、振幅変調された正弦波が再構築される。これら4つの測定結果から位相位置を計算し、ひいては伝搬した距離を計算することができる。カメラシステム内における幾何学的な関係に基づいて、各画素ごとに画素座標と伝搬距離とから、3次元座標を計算することができる。すべての画素において距離測定が同時に行われることにより、各画像ごとに相応の3Dモデルを導き出すことができる。
図1aに示されたような別の実施形態では、3D撮像装置1は第2のカメラ2bを有する。その際には、第1のカメラ2aの視野と該第2のカメラ2bの視野とがオーバーラップ領域において少なくとも部分的に重なることによって前記3D撮像装置1の視野8が形成されるように、該第1のカメラ2aと該第2のカメラ2aとは‐とりわけ1つのケーシング内において‐相互に結合され、かつ、該第1のカメラ2aと該第2のカメラ2bとの間隔が決定されて両カメラが相互に離隔されている。前記3D撮像装置1の視野8内の3次元画像は、両カメラ2a,2bの既知の相対的な視点に基づいて、画像処理によって生成される。このような3D撮像ユニットはたとえば、正三角形に配置された3つのカメラを有し商標「Optigo」および「OptiCell」で知られている CogniTens 社の撮像システムや、ActiCM 社の「Advent」システムである。この「Advent」システムは、相互に隣接して配置された2つの高分解能CCDカメラと、撮像すべき区分にパターン光を投影するためのプロジェクタとを有する。
上述の位置決め方法は、空間内における1つの第1のオブジェクトの自由な位置決めに関して説明したが、上述の方法および構成要素を使用して少なくとも1つの第2のオブジェクトを位置決めすること、および/または、該第2のオブジェクトに対して第1のオブジェクトを高精度で相対的に方向決めすること、該第1のオブジェクトに対して該第2のオブジェクトを高精度で相対的に方向決めすることもできる。以下でこのような方法を説明する。また、上述の構成を第2のオブジェクトおよび任意の他のオブジェクトの位置決めと組み合わせることもできる。しかし図面を簡略化するために、第1のオブジェクトを位置決めする際に実施可能な実施例を、別のオブジェクトの位置決めに関しても改めて説明するのは省略する。しかし、このような組み合わせもまた、本発明に含まれる。
図2にこのような実施例を示している。図1aに示した実施形態の重要な構成要素に関して図3では再度言及しないが、これらの図1a中の構成要素の他に、第2の産業用ロボット21とオブジェクトホルダ24とが設けられる。上述のように、第1のオブジェクト12を第1の最終姿勢に高精度で位置調整する前に、第2のオブジェクト22を第2の産業用ロボット21によって把持し、オブジェクトホルダ24に配置する。このオブジェクトホルダ24は、第2のオブジェクト22を保持することができるいわゆる「固定具」として形成されている。こうするためには、オブジェクトホルダ24が適切な形状を‐たとえばオブジェクトの変形を回避するために適切な形状を‐有すること、および/または、オブジェクトを固定するための適切な挟持装置を有することができる。オブジェクトホルダ24に配置されると、第2のオブジェクト22は空間座標系において第2の最終姿勢になる。この実施形態の代わりに、第2のオブジェクトを第2の産業用ロボット21によって配置するのではなく、手動でオブジェクトホルダ24に配置することもできる。1つの実施例ではオブジェクトホルダ24は、第2のオブジェクト22が所定の第2の最終姿勢に高精度で配置されるように強制センタリングを行うように構成されている。この場合には、第2の最終姿勢を測定技術によって測定するのを省略することができる。しかしそうでない場合には、空間座標系における第2の最終姿勢が求められる。こうするために第2のオブジェクト22は、光学的に検出可能な既知の第2の特徴的要素23を有する。第2のオブジェクト22を前記オブジェクトホルダ24内に位置決めした後、空間座標系における該第2のオブジェクト22の第2の最終姿勢を求める。こうするためには、まず3D撮像装置1の視野8を駆動ユニット3によって、該第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向ける。第2の3次元画像を撮像し、前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記第2の撮像画像と、前記第2のオブジェクト22の前記第2の特徴的要素23の既知の情報とから、該第2のオブジェクト22の空間座標系での第2の最終姿勢が求められる。
こうする代わりに、第1のオブジェクト12を第1の最終姿勢に高精度で位置調整する前に、第2のオブジェクト22を第2の産業用ロボット21によって、把持公差以内で把持し、第2のオブジェクト22をオブジェクトホルダ24に置くのではなく保持することもできる。第2の産業用ロボット21を、第2のオブジェクト22が第2の最終姿勢になる該第2の産業用ロボット21の最終ポジショニングに位置調整する。第2のオブジェクト22の第2の最終姿勢は、空間座標系において以下のステップによって求められる:
前記3D撮像装置1の視野8を前記駆動ユニット3によって、前記第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向けるステップ。
少なくとも1つの第2の3次元画像を撮像するステップ。
前記3D撮像装置1の位置Pと、前記角度測定ユニット4によって検出された該3D撮像装置1の角度方向と、前記第2の3次元画像と、前記第2のオブジェクト22の第2の特徴的要素23の既知の情報とから、空間座標系における該第2のオブジェクト22の第2の最終姿勢を求めるステップ。
図2の実施例では第1のオブジェクト12の第1の最終姿勢は、第2のオブジェクト22の第2の最終姿勢と、該第1のオブジェクト12と該第2のオブジェクト22との所定の相対姿勢とから計算される。第1のオブジェクト12は第2のオブジェクト22に対して相対的に高精度で位置決めされているので、ここでたとえば、両オブジェクトを高精度で接合するための接合手法を実施することができる。
図3に本発明の別の実施形態を示す。この実施形態では、第2のオブジェクト22と、加工ツールとして構成された第3のオブジェクト32とを高精度で位置調整する。
光学的に検出可能な既知の特徴的要素23を有する第2のオブジェクト22は、第2の産業用ロボット21によって把持公差以内で把持されて保持される。第2の産業用ロボット21に対してこの把持公差を補正する第2の微調整量を求めることにより、第2のオブジェクト22が空間座標系において、該第2の産業用ロボット21のポジショニングの設定によって微調整されるように位置調整する。前記第2の微調整量は、前記3D撮像装置1の視野8を前記駆動ユニット3によって、前記第2の産業用ロボット21の第2の微調整ポジショニングで保持された第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向けることによって求められる。少なくとも1つの第2の3次元画像を撮像し、前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記第2の撮像画像と、前記第2のオブジェクト22の前記第2の特徴的要素23の既知の情報とから、前記第2の産業用ロボット21の第2の微調整ポジショニングでの、空間座標系における該第2のオブジェクト22の最終姿勢が求められる。第2の微調整量は、第2の産業用ロボット21の第2の微調整ポジショニングと、少なくとも、該第2の産業用ロボット21の第2の微調整ポジショニングにおける第2のオブジェクト22の求められた姿勢とを使用して求められる。次に、第2のオブジェクト22を第2の最終姿勢に高精度で位置調整する。このことを行うためには、所定の公差以内で第2の最終姿勢に達するまで繰り返される以下のステップを使用する。まず、少なくとも1つの別の第2の3次元画像を撮像し、前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記別の第2の撮像画像と、前記第2のオブジェクト22の前記第2の特徴的要素23の既知の情報とから、該第2のオブジェクト22の空間座標系での現在の姿勢が求められる。前記第2のオブジェクト22の現在の姿勢と第2の最終姿勢との姿勢差を計算する。第2の微調整量を考慮して第2の産業用ロボット21の現在のポジショニングと前記姿勢差に関連する量とから第2の産業用ロボット21の新たな目標ポジショニングを計算した後、該第2の産業用ロボット21をこの新たな目標ポジショニングに位置調整する。第2のオブジェクト22が所定の公差以内で第2の最終姿勢に達するまで、前記ステップを繰り返す。
図3のこの実施形態では、図2に示したように両オブジェクト12および22を相対的に位置決めする代わりに、両オブジェクト12および22を相互に独立して高精度で個別に位置決めする。
本発明の1つの実施形態では、第2のオブジェクト22が把持された後、第2の微調整量を求めるために、第2の産業用ロボット21を該第2の産業用ロボット21の第2の微調整ポジショニングに位置調整する。
本発明の別の実施例では、所定の公差以内で第2の最終姿勢に達するまで繰り返される前記ステップを実施する前に、第2の微調整量を考慮して第2の産業用ロボット21を第2の微調整ポジショニングから、前記第2のオブジェクト22が該第2の最終姿勢に近づく第2の近似姿勢に位置決めされるポジショニングに位置調整する。次に、前記3D撮像装置1の視野8は前記駆動ユニット3によって、第2の近似姿勢に位置決めされた第2のオブジェクト22の第2の特徴的要素23の少なくとも一部に向けられる。
また図3に示されているように、加工ツールとして構成された第3のオブジェクト32が設けられている。この第3のオブジェクト32は、図2の実施形態でも使用することができる。加工ツール32は、第3の産業用ロボット31によって保持公差以内で保持される。加工ツール32、または該加工ツール32に結合された第3の産業用ロボット31の部分に、たとえば該加工ツール32のリテーナに、光学的に検出可能な既知の第3の特徴的要素33が設けられている。空間座標系において第3の産業用ロボット31のポジショニングの設定によって加工ツール32を微調整するように位置調整できるようにするためには、第3の産業用ロボット31に対して、前記保持公差を補正する第3の微調整量を決定する。こうするためにはまず、3D撮像装置1の視野8を駆動ユニット3によって、前記第3の特徴的要素33の少なくとも一部に向ける。加工ツール32はここでは、第3の産業用ロボット31の第3の微調整ポジショニングで保持される。少なくとも1つの第3の3次元画像を撮像し、前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記第3の撮像画像と、前記第3の特徴的要素33の既知の情報とから、前記第3の産業用ロボット31の第3の微調整ポジショニングでの、空間座標系における該加工ツール32の姿勢が求められる。第3の微調整量は、第3の産業用ロボット31の第3の微調整ポジショニングと、少なくとも、該第3の産業用ロボット31の第3の微調整ポジショニングにおける加工ツール32の求められた姿勢とを使用して求められる。
さらに本発明では、所定の公差以内で第3の最終姿勢に達するまで以下のステップを繰り返し実施することにより、加工ツール32を第3の最終姿勢に高精度で位置調整する。少なくとも1つの別の第3の3次元画像を撮像し、前記3D撮像装置1の位置Pと、角度測定ユニット4によって検出された前記3D撮像装置1の角度方向と、前記別の第3の撮像画像と、前記第3のオブジェクト33の前記第2の特徴的要素33の既知の情報とから、該加工ツール32の空間座標系での現在の姿勢が求められる。前記第3のオブジェクト32の現在の姿勢と第3の最終姿勢との姿勢差を計算する。第3の産業用ロボット31の新たな目標ポジショニングが、前記第3の微調整量を考慮して、第3の産業用ロボット21の現在のポジショニングと、前記姿勢差に関連する量とから計算される。次に、第3の産業用ロボット31を前記新たな目標ポジショニングに位置調整する。前記加工ツール32が第3の最終姿勢の公差領域内になるまで、前記ステップを繰り返す。
前記加工ツール32はたとえば、第1のオブジェクト12と第2のオブジェクト22とを溶接接合するための溶接工具である。また、任意の別の加工ツールも使用することができ、とりわけ接合工具を使用することもできる。ここでは、加工ツール32を第1のオブジェクト12および第2のオブジェクト22と関連づけて説明し、とりわけこれらのオブジェクトの接合について説明したが、本発明は、1つのオブジェクトのみに対して行われる加工ツールの相対的な位置決めも含む。このことはたとえば、1つのオブジェクトにのみ作業工程を実施する加工ツール、たとえば切削製造工程を実施する加工ツールに当てはまる。
本発明はまた、明示的には組み合わされていない特徴の組合せも含む。
上記のシステム構成要素、とりわけ撮像装置等の測定用構成要素は、移動性およびフレキシビリティを特徴とする。それゆえ、比較的短時間の間に製造システムに設置できる独立した構成要素によって上記の方法を実施することができる。自動校正および自動基準特定を行う構成要素により、困難な動作条件でも十分なプロセス信頼性を保証することができる。上記のように微調整量を求めて、前記最終姿勢に達するまでステップを繰り返すことにより、比較的低精度の測定システムを有する比較的低精度の操作システムもオブジェクトの高精度の位置決めに使用することができる。本発明により、加工処理に直接関与することなく、非接触で十分な距離をおいて、非常に大きな検出領域においてオブジェクトの姿勢を迅速に検出することができる。カメラを旋回することにより、カメラの基準の再特定に起因する測定プロセスの遅延が発生することがなくなる。というのも、本発明では基準の再特定を省略できるからである。したがって、空間内においてオブジェクトを高精度で位置決めするための本発明の方法およびシステムは、加工速度が高速であることを特徴とする。

Claims (22)

  1. 空間内において少なくとも1つの産業用ロボットを用いて、少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法であって、
    前記方法は、
    ・設定可能なポジショニングに位置調整できる第1の産業用ロボット(11)と、
    ・光学的な3D撮像装置(1)と
    を使用する方法において、
    前記3D撮像装置(1)は、
    ・3次元の空間座標系において校正され、ある位置(P)に所定の方向で位置決めされており、
    ・所定の視野(8)内で、それぞれ奥行情報が対応付けられる複数の画素からそれぞれ構成される3次元画像を、電子的に撮像するように構成されており、
    ・前記視野(8)を位置調整するために該3D撮像装置(1)の方向を調整するための駆動ユニット(3)を有し、
    ・該3D撮像装置(1)の角度方向を高精度で検出するための角度測定ユニット(4)を有し、
    前記角度測定ユニット(4)は、前記視野(8)を前記空間座標系内で求められるように該空間座標系内で校正されており、
    前記方法において、
    ・前記3D撮像装置(1)を位置固定されたターゲットマーク(T)に向けることにより、前記空間座標系内における該3D撮像装置(1)の位置(P)が検出され、
    ・光学的に検出可能である既知の第1の特徴的要素(13)を備えた第1のオブジェクト(12)が、前記第1の産業用ロボット(11)によって把持公差内で把持および保持され、
    ・前記第1の産業用ロボット(11)のポジショニングの設定によって前記空間座標系内において前記第1のオブジェクト(12)を微調整するように位置調整でき前記把持公差を補正する、該第1の産業用ロボット(11)に対する第1の微調整量が求められ、
    ・前記第1のオブジェクト(12)が第1の最終姿勢に高精度で位置調整され、
    前記第1の微調整量を求めるために、
    ・前記駆動ユニット(3)によって、前記第1の産業用ロボット(11)の第1の微調整ポジショニングで保持された前記第1のオブジェクト(12)の第1の特徴的要素(13)の少なくとも一部に向けて前記3D撮像装置(1)の視野(8)の方向を調整するステップと、
    ・少なくとも1つの第1の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第1の3次元画像と、前記第1のオブジェクト(12)の既知の第1の特徴的要素(13)とから、前記第1の産業用ロボット(11)の第1の微調整ポジショニングにおける前記空間座標系内での該第1のオブジェクト(12)の姿勢を求めるステップと、
    ・前記第1の産業用ロボット(11)の第1の微調整ポジショニングと、少なくとも、該第1の産業用ロボット(11)の第1の微調整ポジショニングにおける前記第1のオブジェクト(12)の求められた姿勢とを使用して、前記第1の微調整量を求めるステップと
    が行われ、
    前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整するために、前記第1のオブジェクト(12)が所定の公差内で前記第1の最終姿勢に達するまで、
    ・少なくとも1つの別の第1の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記別の第1の3次元画像と、前記第1のオブジェクト(12)の既知の第1の特徴的要素(13)とから、該第1のオブジェクト(12)の現在の姿勢を求めるステップと、
    ・前記第1のオブジェクト(12)の現在の姿勢と前記第1の最終姿勢との姿勢差を計算するステップと、
    ・前記第1の産業用ロボット(11)の現在のポジショニングと、前記姿勢差に関連する量とから、前記第1の微調整量を考慮して該第1の産業用ロボット(11)の新たな目標ポジショニングを計算するステップと、
    ・前記第1の産業用ロボット(11)を前記新たな目標ポジショニングに位置調整するステップと
    を繰り返し実施し、
    前記姿勢差に関連する量はとりわけ、該姿勢差に1以下の係数を乗算して得られる
    ことを特徴とする方法。
  2. 前記視野(8)の複数の異なる方向で前記3D撮像装置(1)を前記ターゲットマーク(T)に向けて前記第1の3次元画像を撮像するために、該ターゲットマーク(P)と、前記第1のオブジェクト(12)の既知の第1の特徴的要素(13)との間隔が設定されている、請求項1記載の方法。
  3. 前記第1の産業用ロボット(11)によって前記第1のオブジェクト(12)を把持した後、前記第1の微調整量を求めるために該第1の産業用ロボット(11)を前記第1の微調整ポジショニングに位置調整する、請求項1または2記載の方法。
  4. 前記第1のオブジェクト(12)が所定の公差以内で前記第1の最終姿勢に達するまで繰り返し行われる前記ステップの前に、
    ・前記第1の微調整量に基づいて、前記第1の微調整ポジショニングから、前記第1のオブジェクト(12)が前記第1の最終姿勢に近い第1の近似姿勢に位置決めされるポジショニングに前記第1の産業用ロボット(11)を位置調整し、
    ・前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって、前記第1の近似姿勢に位置決めされた前記第1のオブジェクト(12)の第1の特徴的要素(13)の少なくとも一部に向けるように方向調整する、請求項1から3までのいずれか1項記載の方法。
  5. 前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整する前に、
    ・第2のオブジェクト(22)を第2の産業用ロボット(21)または手動で把持し、オブジェクトホルダ(24)に配置して前記空間座標系における第2の最終姿勢に位置決めする、請求項1から4までのいずれか1項記載の方法。
  6. 前記第2のオブジェクト(22)は、光学的に検出可能である既知の第2の特徴的要素(23)を備えており、
    前記第2のオブジェクト(22)を前記オブジェクトホルダ(24)に配置する前に、前記空間座標系内における該第2のオブジェクト(22)の第2の最終姿勢を求めるために、
    ・前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって前記第2のオブジェクト(22)の第2の特徴的要素(23)の少なくとも一部に向けるように方向調整するステップと、
    ・少なくとも1つの第2の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第2の3次元画像と、前記第2のオブジェクト(22)の既知の第2の特徴的要素(23)とから、前記空間座標系内における前記第2のオブジェクト(22)の第2の最終姿勢を求めるステップと
    を行い、
    前記第1のオブジェクト(12)の第1の最終姿勢は、前記第2のオブジェクト(22)の第2の最終姿勢、および、該第1のオブジェクト(12)と該第2のオブジェクト(22)との間の所定の相対姿勢とから計算される、請求項5記載の方法。
  7. 前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整する前に、
    ・光学的に検出可能である既知の第2の特徴的要素(23)を備えた第2のオブジェクト(22)が第2の産業用ロボット(21)によって把持公差内で把持および保持され、
    ・前記第2のオブジェクト(22)が第2の最終姿勢になる最終ポジショニングに、前記第2の産業用ロボット(21)が位置調整され、
    ・前記空間座標系内における前記第2のオブジェクト(22)の第2の最終姿勢が求められ、
    前記第2の最終姿勢を求めるために、
    ・前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって前記第2のオブジェクト(22)の第2の特徴的要素(23)の少なくとも一部に向けて方向調整するステップと、
    ・少なくとも1つの第2の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第2の3次元画像と、前記第2のオブジェクト(22)の既知の第2の特徴的要素(23)とから、前記空間座標系における該第2のオブジェクト(22)の第2の最終姿勢を求めるステップと
    を実施し、
    前記第1のオブジェクト(12)の第1の最終姿勢は、前記第2のオブジェクト(22)の第2の最終姿勢、および、該第1のオブジェクト(12)と該第2のオブジェクト(22)との間の所定の相対姿勢とから計算される、
    請求項1から4までのいずれか1項記載の方法。
  8. 前記第1のオブジェクト(12)を前記第1の最終姿勢に高精度で位置調整する前に、
    ・光学的に検出可能である既知の第2の特徴的要素(23)を備えた第2のオブジェクト(22)が第2の産業用ロボット(21)によって把持公差内で把持および保持され、
    ・前記第2の産業用ロボット(21)のポジショニングの設定によって前記空間座標系において前記第2のオブジェクト(22)を微調整するように位置調整するために、該第2の産業用ロボット(21)に対し、前記把持公差を補正する第2の微調整量が求められ、
    ・前記第2のオブジェクト(22)が第2の最終姿勢に高精度で位置調整され、
    前記第2の微調整量を求めるために、
    ・前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって、前記第2の産業用ロボット(21)の第2の微調整ポジショニングで保持されている前記第2のオブジェクト(22)の第2の特徴的要素(23)の少なくとも一部に向けるように方向調整するステップと、
    ・少なくとも1つの第2の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第2の3次元画像と、前記第2のオブジェクト(22)の既知の第2の特徴的要素(23)とから、前記第2の産業用ロボット(21)の前記第2の微調整ポジショニングでの、前記空間座標系における該第2のオブジェクト(22)の姿勢を求めるステップと、
    ・前記第2の産業用ロボット(21)の第2の微調整ポジショニングと、少なくとも、該第2の産業用ロボット(21)の第2の微調整ポジショニングにおける前記第2のオブジェクト(22)の求められた姿勢とから、前記第2の微調整量を求めるステップと
    を実施し、
    前記第2のオブジェクト(22)を第2の最終姿勢に高精度で位置調整するために、該第2のオブジェクト(22)が該第2の最終姿勢に所定の公差内で達するまで、
    ・少なくとも1つの別の第2の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記別の第2の3次元画像と、前記第2のオブジェクト(22)の既知の第2の特徴的要素(23)とから、前記空間座標系における前記第2のオブジェクト(22)の現在の姿勢を求めるステップと、
    ・前記第2のオブジェクト(22)の現在の姿勢と前記第2の最終姿勢との姿勢差を計算するステップと、
    ・前記第2の産業用ロボット(21)の現在のポジショニングと、前記姿勢差に関連する量とから、前記第2の微調整量を考慮して該第2の産業用ロボット(21)の新たな目標ポジショニングを計算するステップと、
    ・前記第2の産業用ロボット(21)を前記新たな目標ポジショニングに位置調整するステップと
    を繰り返し実施し、
    前記姿勢差に関連する量はとりわけ、該姿勢差に1以下の係数を乗算することによって求められる、
    請求項1から4までのいずれか1項記載の方法。
  9. 前記第2のオブジェクト(22)を把持した後、前記第2の微調整量を求めるために、前記第2の産業用ロボット(2)を前記第2の微調整ポジショニングに位置調整する、請求項8記載の方法。
  10. 前記第2の最終姿勢に所定公差内で達するまで繰り返される前記ステップの前に、
    ・前記第2の微調整量を考慮して、前記第2の産業用ロボット(21)を前記第2の微調整ポジショニングから、前記第2のオブジェクト(22)が前記第2の最終姿勢に近い第2の近似姿勢に位置決めされるポジショニングに位置調整し、
    ・前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって、前記第2の近似姿勢に位置決めされた前記第2のオブジェクト(22)の第2の特徴的要素(23)の少なくとも一部に向けるように方向調整する、
    請求項8または9記載の方法。
  11. ・加工ツールとして構成された第3のオブジェクト(32)を第3の産業用ロボット(31)によって保持公差内で保持し、ただし、該加工ツール(32)または該第3の産業用ロボット(31)のうち該加工ツール(32)に結合される部分は、光学的に検出可能である既知の第3の特徴的要素(33)を備えており、
    ・前記第3の産業用ロボット(31)のポジショニングの設定によって前記空間座標系内において前記加工ツール(32)を微調整するように位置調整するために、該第3の産業用ロボット(31)に対し、前記保持公差を補正する第3の微調整量が求められ、
    前記第3の微調整量を求めるために、
    ・前記加工ツール(32)が前記第3の産業用ロボット(31)の第3の微調整ポジショニングで保持されている状態で、前記3D撮像装置(1)の視野(8)を前記駆動ユニット(3)によって前記第3の特徴的要素(33)の少なくとも一部に向けるように方向調整するステップと、
    ・少なくとも1つの第3の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第3の3次元画像と、既知である前記第3の特徴的要素(33)とから、前記第3の産業用ロボット(31)の第3の微調整ポジショニングにおける、前記空間座標系内での前記加工ツール(32)の姿勢を検出するステップと、
    ・前記第3の産業用ロボット(31)の第3の微調整ポジショニングと、少なくとも、該第3の産業用ロボット(31)の第3の微調整ポジショニングにおける前記加工ツール(32)の検出された姿勢とから、前記第3の微調整量を求めるステップと
    を実施する、
    請求項1から10までのいずれか1項記載の方法。
  12. 前記加工ツール(32)が第3の最終姿勢に所定の公差内で達するまで、
    ・少なくとも1つの別の第3の3次元画像を撮像するステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された前記3D撮像装置(1)の角度方向と、前記別の第3の3次元画像と、既知である前記第3の特徴的要素(33)とから、前記空間座標系における前記加工ツール(32)の現在の姿勢を求めるステップと、
    ・前記第3のオブジェクト(32)の現在の姿勢と前記第3の最終姿勢との姿勢差を計算するステップと、
    ・前記第3の産業用ロボット(31)の現在のポジショニング(31)と、前記姿勢差に関連する量とから、前記第3の微調整量を考慮して該第3の産業用ロボット(31)の新たな目標ポジショニングを計算するステップと、
    ・前記第3の産業用ロボット(31)を前記新たな目標ポジショニングに位置調整するステップと
    を繰り返し、
    前記姿勢差に関連する量はとりわけ、該姿勢差に1以下の係数を乗算して得られる、請求項11記載の方法。
  13. 前記特徴的要素(13;23;33)の基本的な部分は、電子的なデータ処理装置によって処理可能なモデルから既知であり、
    ・前記データ処理装置によって実行される画像処理によって、前記特徴的要素(13;23;33)を、前記モデルおよび/または前記撮像画像において識別し、
    ・前記モデルにおいて識別された前記特徴的要素(13;23;33)と前記撮像画像において識別された前記特徴的要素とを対応付け、
    ・前記撮像された特徴的要素(13;23;33)が検出された、前記空間座標系における位置と、前記対応付けられた特徴的要素(13;23;33)とから、該空間座標系における前記オブジェクト(12;22;32)の姿勢を求める、
    請求項1から12までのいずれか1項記載の方法。
  14. ・前記撮像された特徴的要素(13;23;33)の相互間の相対姿勢を求め、基本的な部分が前記モデルから既知である前記特徴的要素(13;23;33)の相互間の相対姿勢と比較し、
    ・とりわけ、前記撮像された特徴的要素(13;23;33)の相互間の相対姿勢と、前記基本的な部分が前記モデルから既知である前記特徴的要素(13;23;33)の相互間の相対姿勢との偏差を超えた場合、エラーメッセージを出力し、
    ・とりわけ、検出された前記オブジェクト(12;22;32)を前記モデルに適合し、該適合されたモデルがとりわけ、前記空間座標系における前記最終姿勢を決定する、
    請求項13記載の方法。
  15. 前記3D撮像装置(1)は、
    ・少なくとも1つの第1のカメラ(2a)が前記駆動ユニット(3)によって、前記空間座標系を基準として水平方向の傾斜軸(H)と垂直方向の縦軸(V)とを軸として方向調整可能であり、
    ・前記角度ユニット(4)によって、前記縦軸(V)を軸とする水平方向の、前記空間座標系における角度方向(α)と、前記傾斜軸(H)を軸とする垂直方向の、該空間座標系における角度方向(β)とが検出され、
    ・とりわけ、前記傾斜軸(H)と前記縦軸(V)とは実質的に交わる、
    請求項1から14までのいずれか1項記載の方法。
  16. 前記第1のカメラ(2a)は、それぞれ奥行情報が対応付けられた複数の画素からそれぞれ構成される3次元画像を直接撮像するためのRIMカメラとして構成されている、請求項15記載の方法。
  17. 前記3D撮像装置(1)は電子光学的な測距装置(5)を有し、
    前記3次元画像は、
    ・前記電子光学的な測距装置(5)によって、少なくとも1つの光学的な奥行測定を行うことにより、前記画素に相当する前記オブジェクト(12,22,32)の区分における奥行情報を検出するステップと、
    ・前記奥行情報を前記複数の画素に対応付けるステップと
    によって生成され、
    とりわけ、
    ・前記電子光学的な測距装置(5)は点走査式のスキャナとして構成され、前記奥行情報の検出は該点走査式のスキャナを順次走査させることによって実施され、少なくとも1つの点状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を点ごとに光学スキャンするか、
    または、
    ・前記電子光学的な測距装置(5)は線走査式スキャナとして構成され、前記奥行情報の検出は該線走査式スキャナを並列走査させることによって実施され、少なくとも1つの線状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を線ごとに光学スキャンするか、
    または、
    ・前記電子光学的な測距装置(5)は面奥行測定装置として構成され、前記奥行情報の検出は該面奥行測定装置を完全並列走査させることによって実施され、とりわけ複数の測定ビームから成るビーム束によって形成された少なくとも1つの面状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を面単位で光学スキャンする、
    請求項15記載の方法。
  18. ・前記3D撮像装置(1)は第2のカメラ(2b)を有し、
    ・前記第2のカメラ(2b)の視野と前記第1のカメラ(2a)の視野とがオーバーラップ領域において少なくとも部分的に重なることによって前記3D撮像装置(1)の視野(8)が形成されるように、該第2のカメラ(2b)と該第1のカメラ(2a)とが結合され、かつ、該第2のカメラ(2b)と該第1のカメラ(2a)との間隔が調整されて両カメラが相互に離隔されており、
    ・前記3D撮像装置(1)の視野(8)内における前記3次元画像は、前記第1のカメラ(2a)と前記第2のカメラ(2b)との間の既知である相対的な視点から、画像処理によって生成される、
    請求項15記載の方法。
  19. 空間内において少なくとも1つの産業用ロボットによって少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするためのシステムであって、
    前記システムは、
    ・設定可能なポジショニングに位置調整可能な第1の産業用ロボット(11)と、
    ・光学的な3D撮像装置(1)と
    を有し、
    前記3D撮像装置(1)は、
    ・3次元の空間座標系において校正されており、既知の位置(P)に既知の方向で位置決めされており、
    ・所定の視野(8)内で、それぞれ奥行情報が対応付けられる複数の画素からそれぞれ構成された3次元画像を電子的に撮像するように構成されており、
    ・前記視野(8)を位置調整するために該3D撮像装置(1)を方向調整するための駆動ユニット(3)を有し、
    ・該3D撮像装置(1)の角度方向を高精度で検出するための角度測定ユニット(4)を有し、
    ・画像処理を行うために構成されたデータ処理装置を含む制御装置(9)を有し、
    前記角度測定ユニット(4)は前記空間座標系において校正されていることにより、該空間座標系における前記視野(8)が検出可能であり、
    前記制御装置(9)が前記第1の産業用ロボット(11)および前記3D撮像装置(1)とデータ接続されていることにより、
    ・該制御装置(9)に、該3D撮像装置(1)によって撮像された3次元画像が供給され、
    ・該制御装置(9)に、前記角度測定ユニット(4)によって検出された、該3D撮像装置(1)の角度方向が供給され、
    ・前記駆動ユニット(3)は該制御装置(9)によって、前記3D撮像装置(1)を方向調整するように駆動制御され、
    ・前記第1の産業用ロボット(11)は、該制御装置(9)によって設定されたポジショニングに位置調整され、
    前記制御装置(9)および該制御装置のデータ処理装置は、
    ・前記制御装置(9)に既知であり光学的に検出可能な第1の特徴的要素(13)を備えた第1のオブジェクト(12)が前記第1の産業用ロボット(11)によって、把持公差内で把持および保持され、
    ・前記第1の産業用ロボット(11)のポジショニングの設定によって前記第1のオブジェクト(12)を前記空間座標系において微調整するように位置調整するために、該第1の産業用ロボット(11)に対し、前記把持公差を補正する第1の微調整量が前記制御装置(9)によって求められ、
    ・前記第1のオブジェクト(12)が該制御装置(9)によって第1の最終姿勢に高精度で位置調整される
    ように構成されており、
    前記第1の微調整量は、
    ・前記3D撮像装置(1)の視野(8)が前記駆動ユニット(3)によって、前記第1の産業用ロボット(11)の第1の微調整ポジショニングで保持された前記第1のオブジェクト(12)の第1の特徴的要素(13)の少なくとも一部に向けられるように方向調整されるステップと、
    ・少なくとも1つの第1の3次元画像が撮像されるステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記第1の3次元画像と、前記第1のオブジェクト(12)の既知である第1の特徴的要素(13)とから、前記第1の産業用ロボット(11)の前記第1の微調整ポジショニングにおける、前記空間座標系での前記第1のオブジェクト(12)の姿勢が求められるステップと、
    ・前記第1の産業用ロボット(11)の前記第1の微調整ポジショニングと、少なくとも、該第1の産業用ロボット(11)の該第1の微調整ポジショニングにおける前記第1のオブジェクト(12)の求められた姿勢とを使用して、前記第1の微調整量が求められるステップと
    によって、前記制御装置(9)によって求められ、
    前記第1のオブジェクト(12)が前記第1の最終姿勢に、所定の公差内で達するまで、
    ・少なくとも1つの別の第1の3次元画像が撮像されるステップと、
    ・前記3D撮像装置(1)の位置(P)と、前記角度測定ユニット(4)によって検出された該3D撮像装置(1)の角度方向と、前記別の第1の3次元画像と、前記第1のオブジェクト(12)の既知である第1の特徴的要素(13)とから、前記空間座標系における前記第1のオブジェクト(12)の現在の姿勢が求められるステップと、
    ・前記第1のオブジェクト(12)の実際の姿勢と前記第1の最終姿勢との姿勢差が計算されるステップと、
    ・前記第1の微調整量を考慮して、前記第1の産業用ロボット(11)の現在のポジショニングと、前記姿勢差に関連する量とから、該第1の産業用ロボット(11)の新たなポジショニングが計算されるステップと、
    前記第1の産業用ロボット(11)が前記新たな目標ポジショニングに位置調整されるステップと
    が繰り返され、
    前記姿勢差に関連する量はとりわけ、該姿勢差に1以下の係数を乗算することによって得られ、
    とりわけ、前記制御装置(9)は請求項1から17までのいずれか1項記載の方法を実施するように構成されていることを特徴とする、システム。
  20. 前記3D撮像装置(1)は、
    ・少なくとも1つの第1のカメラ(2a)が前記駆動ユニット(3)によって、前記空間座標系を基準として水平方向の傾斜軸(H)と垂直方向の縦軸(V)とを軸として方向調整可能であり、
    ・前記角度測定ユニット(4)によって、前記空間座標系における、前記縦軸(V)を軸とする水平方向の角度方向(α)と、前記傾斜軸(H)を軸とする垂直方向の角度方向(β)とが検出され、
    ・とりわけ、前記傾斜軸(H)と前記縦軸(V)とが実質的に交わる
    ように構成されている、請求項19記載のシステム。
  21. 前記第1のカメラ(2a)は、それぞれ奥行情報が対応付けられた複数の画素からそれぞれ構成される3次元画像を直接撮像するためのRIMカメラとして構成されている、請求項20記載のシステム。
  22. 前記3D撮像装置(1)は電子光学的な測距装置(5)を有し、
    前記制御装置(9)および該制御装置(9)のデータ処理装置および/または前記3D撮像装置は、前記3次元画像が、
    ・前記電子光学的な測距装置(5)によって、前記画素に相当する前記オブジェクト(12,22,32)の区分において少なくとも1つの光学的な奥行測定を行うことによって、前記奥行情報が検出され、
    ・前記奥行情報と前記複数の画素とが対応付けられる
    ことによって生成されるように構成されており、
    とりわけ、
    ・前記電子光学的な測距装置(5)は点走査式のスキャナとして構成され、前記奥行情報の検出は該点走査式のスキャナを順次走査させることによって実施され、少なくとも1つの点状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を点ごとに光学スキャンするか、
    または、
    ・前記電子光学的な測距装置(5)は線走査式スキャナとして構成され、前記奥行情報の検出は該線走査式スキャナを並列走査させることによって実施され、少なくとも1つの線状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を線ごとに光学スキャンするか、
    または、
    ・前記電子光学的な測距装置(5)は面奥行測定装置として構成され、前記奥行情報の検出は該面奥行測定装置を完全並列走査させることによって実施され、とりわけ複数の測定ビームから成るビーム束によって形成された少なくとも1つの面状の測定ビームが、前記視野(8)に相当する前記オブジェクト(12,22,32)の面を面単位で光学スキャンする、
    請求項20記載のシステム。
JP2012512367A 2009-05-27 2010-05-26 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム Expired - Fee Related JP5377758B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09161295.2 2009-05-27
EP09161295A EP2255930A1 (de) 2009-05-27 2009-05-27 Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
PCT/EP2010/057282 WO2010136507A1 (de) 2009-05-27 2010-05-26 Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum

Publications (2)

Publication Number Publication Date
JP2012528016A true JP2012528016A (ja) 2012-11-12
JP5377758B2 JP5377758B2 (ja) 2013-12-25

Family

ID=41171198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512367A Expired - Fee Related JP5377758B2 (ja) 2009-05-27 2010-05-26 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム

Country Status (7)

Country Link
US (1) US8798794B2 (ja)
EP (2) EP2255930A1 (ja)
JP (1) JP5377758B2 (ja)
CN (1) CN102448679B (ja)
AU (1) AU2010251981B2 (ja)
CA (1) CA2763576C (ja)
WO (1) WO2010136507A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020505240A (ja) * 2017-01-10 2020-02-20 イボクラール ビバデント アクチェンゲゼルシャフト 工作機械を制御する方法

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040098315A1 (en) 2002-11-19 2004-05-20 Haynes Leonard Steven Apparatus and method for facilitating the selection of products by buyers and the purchase of the selected products from a supplier
US9352411B2 (en) 2008-05-28 2016-05-31 Illinois Tool Works Inc. Welding training system
EP2269783A1 (de) * 2009-06-30 2011-01-05 Leica Geosystems AG Kalibrierungsverfahren für ein Messsystem
US8761990B2 (en) * 2011-03-30 2014-06-24 Microsoft Corporation Semi-autonomous mobile device driving with obstacle avoidance
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9101994B2 (en) 2011-08-10 2015-08-11 Illinois Tool Works Inc. System and device for welding training
US9573215B2 (en) 2012-02-10 2017-02-21 Illinois Tool Works Inc. Sound-based weld travel speed sensing system and method
EP2641694B1 (en) * 2012-03-23 2014-05-21 Chung-Shan Institute of Science and Technology, Armaments, Bureau, Ministry of National Defense Actuating apparatus, actuating system and method for actuating a working stage to move relative to a platform with high-precision positioning capability
US20140000516A1 (en) * 2012-06-29 2014-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Digital point marking transfer
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
DE102012217912B4 (de) * 2012-10-01 2014-11-06 Siemens Aktiengesellschaft Verfahren zum Erzeugen eines Bauteils, Brenner und Turbine
EP2728306A1 (en) 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
US9583014B2 (en) 2012-11-09 2017-02-28 Illinois Tool Works Inc. System and device for welding training
US9368045B2 (en) * 2012-11-09 2016-06-14 Illinois Tool Works Inc. System and device for welding training
EP2762829B1 (en) * 2013-02-05 2020-05-27 Hexagon Technology Center GmbH Variable modelling of a measuring device
US9672757B2 (en) 2013-03-15 2017-06-06 Illinois Tool Works Inc. Multi-mode software and method for a welding training system
US9713852B2 (en) 2013-03-15 2017-07-25 Illinois Tool Works Inc. Welding training systems and devices
US9728103B2 (en) 2013-03-15 2017-08-08 Illinois Tool Works Inc. Data storage and analysis for a welding training system
US9583023B2 (en) 2013-03-15 2017-02-28 Illinois Tool Works Inc. Welding torch for a welding training system
US9666100B2 (en) 2013-03-15 2017-05-30 Illinois Tool Works Inc. Calibration devices for a welding training system
US9769930B2 (en) * 2013-03-19 2017-09-19 Muth Mirror Systems, Llc Module placement device and method
JP5713047B2 (ja) * 2013-04-18 2015-05-07 株式会社安川電機 移動ロボット、移動ロボットの位置決めシステム、及び、移動ロボットの位置決め方法
US11090753B2 (en) 2013-06-21 2021-08-17 Illinois Tool Works Inc. System and method for determining weld travel speed
KR101459479B1 (ko) * 2013-07-01 2014-11-07 현대자동차 주식회사 올인원 지그리스 프로젝션 로딩 시스템 및 이를 이용한 차체 부품 조립 방법
US9555549B2 (en) * 2013-10-31 2017-01-31 Seiko Epson Corporation Control device, robot, robot system, and control method
US9874628B2 (en) * 2013-11-12 2018-01-23 The Boeing Company Dual hidden point bars
US10056010B2 (en) 2013-12-03 2018-08-21 Illinois Tool Works Inc. Systems and methods for a weld training system
CN103640018B (zh) * 2013-12-13 2014-09-03 江苏久祥汽车电器集团有限公司 一种基于surf算法进行定位的方法
US10105782B2 (en) 2014-01-07 2018-10-23 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9589481B2 (en) 2014-01-07 2017-03-07 Illinois Tool Works Inc. Welding software for detection and control of devices and for analysis of data
US9724788B2 (en) 2014-01-07 2017-08-08 Illinois Tool Works Inc. Electrical assemblies for a welding system
US9751149B2 (en) 2014-01-07 2017-09-05 Illinois Tool Works Inc. Welding stand for a welding system
US10170019B2 (en) 2014-01-07 2019-01-01 Illinois Tool Works Inc. Feedback from a welding torch of a welding system
US9757819B2 (en) 2014-01-07 2017-09-12 Illinois Tool Works Inc. Calibration tool and method for a welding system
WO2015132677A2 (en) * 2014-02-24 2015-09-11 Metalsa S.A. De C.V. Process of positioning automotive components
WO2015125020A2 (en) 2014-02-24 2015-08-27 Metalsa S.A. De C.V. Method and tools for welding a vehicle component
JP2015174191A (ja) * 2014-03-17 2015-10-05 株式会社安川電機 ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法
US9937578B2 (en) 2014-06-27 2018-04-10 Illinois Tool Works Inc. System and method for remote welding training
US10307853B2 (en) 2014-06-27 2019-06-04 Illinois Tool Works Inc. System and method for managing welding data
US9862049B2 (en) 2014-06-27 2018-01-09 Illinois Tool Works Inc. System and method of welding system operator identification
US10665128B2 (en) 2014-06-27 2020-05-26 Illinois Tool Works Inc. System and method of monitoring welding information
US9724787B2 (en) 2014-08-07 2017-08-08 Illinois Tool Works Inc. System and method of monitoring a welding environment
US11014183B2 (en) 2014-08-07 2021-05-25 Illinois Tool Works Inc. System and method of marking a welding workpiece
US9875665B2 (en) 2014-08-18 2018-01-23 Illinois Tool Works Inc. Weld training system and method
JP6360747B2 (ja) * 2014-08-22 2018-07-18 西部電機株式会社 不定形体位置推定方法、不定形体位置推定装置及びプログラム
NL2013409B1 (en) 2014-09-03 2016-09-27 Fugro N V Spatial positioning of offshore structures.
US11247289B2 (en) 2014-10-16 2022-02-15 Illinois Tool Works Inc. Remote power supply parameter adjustment
US10239147B2 (en) 2014-10-16 2019-03-26 Illinois Tool Works Inc. Sensor-based power controls for a welding system
US10402959B2 (en) 2014-11-05 2019-09-03 Illinois Tool Works Inc. System and method of active torch marker control
US10490098B2 (en) 2014-11-05 2019-11-26 Illinois Tool Works Inc. System and method of recording multi-run data
US10210773B2 (en) 2014-11-05 2019-02-19 Illinois Tool Works Inc. System and method for welding torch display
US10373304B2 (en) 2014-11-05 2019-08-06 Illinois Tool Works Inc. System and method of arranging welding device markers
US10417934B2 (en) 2014-11-05 2019-09-17 Illinois Tool Works Inc. System and method of reviewing weld data
US10204406B2 (en) 2014-11-05 2019-02-12 Illinois Tool Works Inc. System and method of controlling welding system camera exposure and marker illumination
BR112017013131A2 (pt) * 2014-12-17 2017-12-26 Norgren Automation Solutions Llc aparelho para detectar peças de trabalho, sistema de avaliação de peça de trabalho, sistema de fabricação, e, método para processamento de uma peça de trabalho.
CN104656564B (zh) * 2014-12-25 2018-01-12 芜湖林一电子科技有限公司 一种基于图像的机器人视觉伺服控制系统
US9855658B2 (en) * 2015-03-19 2018-01-02 Rahul Babu Drone assisted adaptive robot control
US10427239B2 (en) 2015-04-02 2019-10-01 Illinois Tool Works Inc. Systems and methods for tracking weld training arc parameters
CN104858858A (zh) * 2015-04-13 2015-08-26 上海金东唐科技股份有限公司 一种自动抓取机构及自动抓取方法
US10373517B2 (en) 2015-08-12 2019-08-06 Illinois Tool Works Inc. Simulation stick welding electrode holder systems and methods
US10593230B2 (en) 2015-08-12 2020-03-17 Illinois Tool Works Inc. Stick welding electrode holder systems and methods
US10438505B2 (en) 2015-08-12 2019-10-08 Illinois Tool Works Welding training system interface
US10657839B2 (en) 2015-08-12 2020-05-19 Illinois Tool Works Inc. Stick welding electrode holders with real-time feedback features
US10095214B2 (en) 2015-08-21 2018-10-09 Processchamp, Llc System and method for joining workpieces to form an article
JP6665450B2 (ja) * 2015-08-31 2020-03-13 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
EP3147086B1 (de) * 2015-09-22 2020-11-04 Airbus Defence and Space GmbH Automatisieren von roboteroperationen im flugzeugbau
US10625432B2 (en) * 2015-11-13 2020-04-21 Berkshire Grey, Inc. Processing systems and methods for providing processing of a variety of objects
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
CN107309884B (zh) * 2016-04-27 2023-03-21 上海捷勃特机器人有限公司 机器人标定系统及方法
CN108007386B (zh) * 2016-11-02 2021-04-20 光宝电子(广州)有限公司 基于结构光的三维扫描方法及其装置与系统
CN110636923B (zh) * 2017-05-17 2023-03-21 深圳配天智能技术研究院有限公司 一种机器人的运动控制方法、机器人及控制器
US11179793B2 (en) * 2017-09-12 2021-11-23 Autodesk, Inc. Automated edge welding based on edge recognition using separate positioning and welding robots
TWI668541B (zh) 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
CN108115688B (zh) * 2017-12-29 2020-12-25 深圳市越疆科技有限公司 一种机械臂的抓取控制方法、系统及机械臂
CN108080289A (zh) * 2018-01-22 2018-05-29 广东省智能制造研究所 机器人分拣系统、机器人分拣控制方法及装置
JP6859967B2 (ja) * 2018-02-16 2021-04-14 オムロン株式会社 コンベアトラッキングシステムおよびキャリブレーション方法
US11294363B2 (en) * 2018-04-17 2022-04-05 Processchamp, Llc System and method for positioning workpiece in a workstation using an automatic guided vehicle
DE102018114867A1 (de) * 2018-06-20 2019-12-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zum Verbinden von Bauteilen
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
TWI692727B (zh) * 2018-08-27 2020-05-01 台達電子工業股份有限公司 物件定位指引系統及其方法
CN110866950B (zh) * 2018-08-27 2022-08-09 台达电子工业股份有限公司 物件定位指引系统及其方法
JP6810116B2 (ja) * 2018-10-24 2021-01-06 ファナック株式会社 レーザ加工ロボットのキャリブレーション方法および制御装置
US11911914B2 (en) 2019-01-28 2024-02-27 Cognex Corporation System and method for automatic hand-eye calibration of vision system for robot motion
CN110000785B (zh) * 2019-04-11 2021-12-14 上海交通大学 农业场景无标定机器人运动视觉协同伺服控制方法与设备
CN110200699B (zh) * 2019-05-21 2020-08-18 武汉联影智融医疗科技有限公司 由医学影像设备引导的手术设备、校正方法与校正系统
US11141824B2 (en) * 2019-06-04 2021-10-12 Lockheed Martin Corporation Apparatuses, systems, and methods for locating vectors
US10510155B1 (en) 2019-06-11 2019-12-17 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
US11288978B2 (en) 2019-07-22 2022-03-29 Illinois Tool Works Inc. Gas tungsten arc welding training systems
US11776423B2 (en) 2019-07-22 2023-10-03 Illinois Tool Works Inc. Connection boxes for gas tungsten arc welding training systems
CN110962127B (zh) * 2019-12-10 2020-09-01 南京航空航天大学 一种用于机械臂末端位姿辅助标定装置及其标定方法
CN111015664B (zh) * 2019-12-26 2023-05-30 重庆盟讯电子科技有限公司 一种基于ccd相机的智能化识别方法
CN113290552B (zh) * 2020-02-24 2022-09-16 株式会社理光 物品放置系统以及物品放置方法
TW202142292A (zh) * 2020-05-06 2021-11-16 林奐祥 全自動球拍穿線系統
CN113682828B (zh) * 2020-05-18 2023-05-30 北京京东乾石科技有限公司 物品码垛的方法、装置和系统
DE102020133791A1 (de) * 2020-12-16 2022-06-23 Benteler Automobiltechnik Gmbh Verfahren zur Herstellung geschweißter Bauteile
CN112528959A (zh) * 2020-12-29 2021-03-19 上海同温层智能科技有限公司 用于清洁机器人的障碍物识别方法
CN112959364B (zh) * 2021-03-15 2022-11-22 北京电子工程总体研究所 一种工业机器人装配误差补偿系统及方法
CN113510697B (zh) * 2021-04-23 2023-02-14 知守科技(杭州)有限公司 机械手定位方法、装置、系统、电子装置和存储介质
CN113096186A (zh) * 2021-04-27 2021-07-09 中冶南方(武汉)自动化有限公司 基于机器视觉的钢包位置测量方法
CN113450407B (zh) * 2021-05-14 2023-10-13 东莞市李群自动化技术有限公司 定位方法及作业方法、电子设备、轨道设备和存储介质
DE102021115473A1 (de) * 2021-06-15 2022-12-15 Linde Material Handling Gmbh Verfahren zur automatischen Kommissionierung und mobiler Kommissionierroboter
CN113894793B (zh) * 2021-11-11 2023-01-24 易思维(杭州)科技有限公司 一种零件与视觉传感器相对位姿关系的获取方法
US11838454B2 (en) * 2022-04-13 2023-12-05 Canon Kabushiki Kaisha Inspection apparatus, control method thereof, and storage medium
CN115436081B (zh) * 2022-08-23 2023-10-10 中国人民解放军63653部队 一种目标捡拾性能测试方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6257884A (ja) * 1985-09-09 1987-03-13 株式会社東芝 マニピユレ−タ装置
JPH02262991A (ja) * 1989-03-31 1990-10-25 Mitsubishi Electric Corp ロボット動作監視装置
JPH08272425A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd 非接触でロボットに座標系を教示する方法
JP2003503221A (ja) * 1999-06-26 2003-01-28 ビ−エイイ− システムズ パブリック リミテッド カンパニ− センシング手段の基準の第2フレーム内にあるインデックス付け手段の第1の座標フレームを校正する方法と装置
WO2009029127A2 (en) * 2007-08-24 2009-03-05 Elite Engineering Corporation Robotic arm and control system

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
US4613269A (en) * 1984-02-28 1986-09-23 Object Recognition Systems, Inc. Robotic acquisition of objects by means including histogram techniques
US5374830A (en) 1984-10-12 1994-12-20 Sensor Adaptive Machines, Inc. Target based determination of robot and sensor alignment
US4851905A (en) 1984-10-12 1989-07-25 Diffracto Ltd. Vision target fixture construction
US5380978A (en) 1991-07-12 1995-01-10 Pryor; Timothy R. Method and apparatus for assembly of car bodies and other 3-dimensional objects
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JP2003117861A (ja) * 2001-10-15 2003-04-23 Denso Corp ロボットの位置補正システム
EP1345099B1 (de) * 2002-03-04 2011-11-02 VMT Vision Machine Technic Bildverarbeitungssysteme GmbH Verfahren zur Bestimmung der Lage eines Objektes und eines Werkstücks im Raum zur automatischen Montage des Werkstücks am Objekt
US7386365B2 (en) * 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
JP4167940B2 (ja) * 2003-05-29 2008-10-22 ファナック株式会社 ロボットシステム
EP1675709A2 (de) * 2003-10-20 2006-07-05 Isra Vision Systems AG VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG
DE102004005380A1 (de) * 2004-02-03 2005-09-01 Isra Vision Systems Ag Verfahren zur Bestimmung der Lage eines Objekts im Raum
FR2872728B1 (fr) * 2004-07-06 2006-09-15 Commissariat Energie Atomique Procede de saisie d'un objet par un bras de robot muni d'une camera
EP1841570A1 (en) * 2005-01-26 2007-10-10 Abb Ab Device and method for calibrating the center point of tool mounted on a robot by means of a camera
CN101213046A (zh) 2005-07-05 2008-07-02 六边形度量衡股份公司 用于焊接工件的方法
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
DE102007016056B4 (de) 2007-04-03 2011-08-25 Sauer GmbH LASERTEC, 87437 Verfahren und Vorrichtung zur Werkstückeinmessung und Werkstückbearbeitung
EP2075096A1 (de) * 2007-12-27 2009-07-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6257884A (ja) * 1985-09-09 1987-03-13 株式会社東芝 マニピユレ−タ装置
JPH02262991A (ja) * 1989-03-31 1990-10-25 Mitsubishi Electric Corp ロボット動作監視装置
JPH08272425A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd 非接触でロボットに座標系を教示する方法
JP2003503221A (ja) * 1999-06-26 2003-01-28 ビ−エイイ− システムズ パブリック リミテッド カンパニ− センシング手段の基準の第2フレーム内にあるインデックス付け手段の第1の座標フレームを校正する方法と装置
WO2009029127A2 (en) * 2007-08-24 2009-03-05 Elite Engineering Corporation Robotic arm and control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020505240A (ja) * 2017-01-10 2020-02-20 イボクラール ビバデント アクチェンゲゼルシャフト 工作機械を制御する方法
JP7068317B2 (ja) 2017-01-10 2022-05-16 イボクラール ビバデント アクチェンゲゼルシャフト 工作機械を制御する方法

Also Published As

Publication number Publication date
AU2010251981A1 (en) 2011-11-03
EP2435217A1 (de) 2012-04-04
US8798794B2 (en) 2014-08-05
WO2010136507A1 (de) 2010-12-02
CN102448679A (zh) 2012-05-09
CN102448679B (zh) 2014-11-19
US20120072021A1 (en) 2012-03-22
AU2010251981B2 (en) 2013-08-22
JP5377758B2 (ja) 2013-12-25
EP2435217B1 (de) 2017-08-16
CA2763576A1 (en) 2010-12-02
EP2255930A1 (de) 2010-12-01
CA2763576C (en) 2014-03-11

Similar Documents

Publication Publication Date Title
JP5377758B2 (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
JP5290324B2 (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
US9279661B2 (en) Information processing apparatus and information processing method
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN104786226A (zh) 抓取在线工件的机器人位姿及运动轨迹定位系统与方法
JP2012531322A (ja) 測定システムのための較正方法
Ryberg et al. Stereo vision for path correction in off-line programmed robot welding
US20180222055A1 (en) Calibration article for a 3d vision robotic system
JP6801566B2 (ja) 移動ロボット
US11922616B2 (en) Alignment device
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
Heikkilä et al. Calibration procedures for object locating sensors in flexible robotized machining
JPH0545117A (ja) 光学式3次元位置計測方法
Iakovou et al. Sensor integration for robotic laser welding processes
JP2004114161A (ja) 双腕ロボット装置の制御装置、双腕ロボット装置、及びその制御方法
US20230328372A1 (en) Image processing system and image processing method
JP2022162340A (ja) ピッキング装置
JPH01215467A (ja) ロボット制御装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130924

R150 Certificate of patent or registration of utility model

Ref document number: 5377758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees