JP2019169156A - 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム - Google Patents

対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム Download PDF

Info

Publication number
JP2019169156A
JP2019169156A JP2019072089A JP2019072089A JP2019169156A JP 2019169156 A JP2019169156 A JP 2019169156A JP 2019072089 A JP2019072089 A JP 2019072089A JP 2019072089 A JP2019072089 A JP 2019072089A JP 2019169156 A JP2019169156 A JP 2019169156A
Authority
JP
Japan
Prior art keywords
workpiece
assembly
image
station
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019072089A
Other languages
English (en)
Other versions
JP6770605B2 (ja
Inventor
シヴァラム グルプラサド
Shivaram Guruprasad
シヴァラム グルプラサド
フォスター ウィラード
Foster Willard
フォスター ウィラード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cognex Corp
Original Assignee
Cognex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognex Corp filed Critical Cognex Corp
Publication of JP2019169156A publication Critical patent/JP2019169156A/ja
Application granted granted Critical
Publication of JP6770605B2 publication Critical patent/JP6770605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/4202Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model
    • G05B19/4207Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine preparation of the programme medium using a drawing, a model in which a model is traced or scanned and corresponding data recorded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31044Assembly of modular products, variant configurability
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31066Virtual assembly disassembly planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40499Reinforcement learning algorithm
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

【課題】全体としてCMM又は類似の計測装置を使用しない組立システムをトレーニングするのに最適な位置に工作物を案内するためのシステム及び方法を提供する。【解決手段】組立システム100において、工作物112、122がそれぞれの特定の位置にあるときに工作物の画像特徴を共通座標系において表現する。この能力は、実際に工作物を組み立てることなく、それらの組立の結果を「仮想組立」において視覚化することを可能にする。仮想組立は、それぞれの特定の位置における工作物の配置を所望の相対的アライメントに案内するのを支援する。このシステム及び方法は、工作物の案内に使用されるカメラからの画像を用いて合成画像を生成して、ユーザが組立後に部品がどのように見えるか視覚化するのを助ける。ユーザは、合成画像が所望の外観を持つまで、それぞれの特定の位置で工作物の画像を再位置決めできる。【選択図】図1

Description

関連出願
本出願は、2015年3月3日に出願された米国特許仮出願第62/127,808号「対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム」の利益を主張するものであり、その教示内容は参照により本明細書に組み込まれる。
技術分野
本発明はマシンビジョンシステム、より具体的には製造環境において工作物及び他の対象物の組立を案内するために使用されるビジョンシステムに関する。
マシンビジョンシステム(本明細書では「ビジョンシステム」とも呼ぶ)において、撮像された場面内の対象物又は表面でビジョンシステムプロセスを実行するために1台以上のカメラが使用される。これらのプロセスは検査、コードの復号化、アライメント及びその他の多様な自動化されたタスクを含んでよい。より具体的には、ビジョンシステムは撮像された場面を通過する平らな工作物(ワーク、ワークピース)を検査するために使用され得る。場面は典型的には1台以上のビジョンシステムカメラによって撮像され、これらのカメラは付属のビジョンシステムプロセスを動作して結果を生成する内部又は外部ビジョンシステムプロセッサを含むことができる。1台以上のカメラはビジョンタスクを十分な精度と信頼性をもって実行できるように較正される。カメラを較正して共通(グローバル)座標系(「運動座標系」とも呼ぶ)を作成するために較正プレートを使用できる。ここで全てのカメラのピクセル位置は座標系の関連する点にマッピングされ、それにより何らかのカメラで撮像された特徴は座標空間内に位置決めされ得る。そのような較正は公知の「ハンドアイ」較正技術を用いて達成できる。
ビジョンシステムの注目すべき適用は、自動化された組立機構による対象物(「工作物」とも呼ぶ)の組立であり、これは工作物を組立位置に正確に支持するための可動プラットフォーム(モーションステージ)と、他の工作物を「アセンブリモーション」で上方のアライメント位置に動かして工作物に組み立てられるようにするマニピュレータ(例えば「ピック・アンド・プレース」動作を実行するロボットハンド若しくはロボットアーム又は他のタイプのモーションデバイス/モーションステージ)を含むことができる。
工作物の組立におけるビジョンシステムの具体的な適用は、ある平面的工作物を他の平面的工作物とアライメントすることを含む。例えばバッテリーはマニピュレータによりピック・アンド・プレース動作でモーションステージに載っている携帯電話の凹部の上及び中に操作され得る。
そのようなビジョンシステムは最初に、システムの実行時動作中に各工作物が他の工作物との正確なアライメントに入るようにトレーニングされる。トレーニング時に工作物はそれぞれのステーションに配置され、組み立てられると組立済み工作物は所望の相互位置関係を持つ。トレーニングに続く実行時に工作物は配置又は寸法のばらつきを考慮してそれぞれのステーションに配置されて組み立てられる。工作物組立プロセスが始まると、それにより部品はトレーニング時と同じ相互位置関係に置かれる。
現在のトレーニング技術は、工作物をそれぞれのステーションに配置すること、システムをトレーニングすること、それらを組み立てること、及び座標測定機(CMM)などの別個の測定システムで組立誤差を測定することを含む。測定された誤差は、(a)(それぞれマニピュレータ及びモーションステージにより)工作物の再位置決めと組立システムの再トレーニングを案内するために使用され、又は(b)一部の組立システムで実行時に一方又は両方の工作物の位置をそれぞれの機構により補正するために適用される補正係数として援用される。工作物の再位置決めによるトレーニングに伴う短所は、それが時間のかかる反復プロセスである点である。ユーザは所望の組立特性が達成されるまでトレーニングステップを何回も繰り返さなければならない。同様に、補正係数をマニピュレータ及び/又はモーションステージのアセンブリモーションに組み入れることに伴う難点は、CMMの座標枠と組立システムとの間に確定された関係がないことである。それゆえ、補正係数の計算も時間のかかる反復プロセスである。
本発明は、全体としてCMM又は類似の計測装置を使用しない組立システムをトレーニングするのに最適な位置に工作物(ワーク、ワークピース)を案内するためのシステム及び方法を提供することによって先行技術の短所を克服する。このシステム及び方法は、工作物がそれぞれのステーションにあるときに工作物の画像特徴を共通座標系において表現する。この能力は実際に工作物を組み立てることなく、それらの組立の結果を視覚化することを可能にする。本明細書ではこれを「仮想組立」と呼ぶ。このシステム及び方法は仮想組立を用いて、それぞれのステーションにおける工作物の配置を案内するのを支援して、組み立てられると組立済み工作物が所望の相互位置関係を持つようにする。1実施形態において、このシステム及び方法は、工作物の案内に使用されるカメラからの画像(工作物の複数の取得された画像から構成されるスティッチ画像であってよい)を用いて合成画像を生成して、ユーザが組立後に部品がどのように見えるか視覚化するのを助ける。ユーザは合成画像が所望の外観を持つまで、それぞれのステーションで工作物の画像を再位置決めできる。別の実施形態において、ユーザは工作物の画像上における特徴の位置を特定して、その特徴情報を共通座標系において表現できる。ユーザは工作物にまたがる特徴間の関係を正確に組み立てられた部品に対して設計された関係と比較し、その結果を使って工作物を最適に組み立てる位置に案内する。第3の実施形態では、上記の実施形態において抽出された特徴を用いて工作物は自動的に最適な位置に再位置決めされる。
例として、画像特徴は較正プロセスを通して多数のステーションから共通座標系にマッピングされ得る。一例を挙げれば、部品を組み立てるために反復可能ピック・アンド・プレース・マニピュレータを使用するシステムで、マニピュレータを使用してターゲットを移動させることにより較正ターゲットは多数のステーションで撮像され得る。ターゲットを工作物のように操作することを可能にする適当な治具が使用されてもよい。このようにすると較正ターゲットは工作物と同じ移動を与えられ、従って工作物特徴の座標は操作の間、ピックステーションからプレースステーションまで工作物の経路と同じ経路を辿る。代替として、マッピングパラメータは組立プロセスの知識に基づいてパラメータを規定することにより手動で計算できる。
好適には、このシステム及び方法は、工作物を単一の組立済み対象物に組み立てる組立システムをトレーニングする目的で、任意の数のステーションからの任意の数の工作物の仮想組立を可能にできる。
例示的な実施形態において、第1の工作物を含む少なくとも1個の第1のステーションを有する組立システムで対象物を仮想的に組み立てるためのシステム及び方法が設けられており、第1の工作物は第2の工作物と互いにアライメントして組み立てられる。1台以上のビジョンシステムカメラ及びビジョンシステムプロセッサアセンブリは、第1の工作物と第2の工作物を撮像するように配置されている。複数のカメラが共通座標系に対して較正される。アライメントプロセスは第1の工作物と第2の工作物の少なくとも1個の画像及び特徴を共通座標系において生成する。操作プロセスは、第1の工作物上の第1のセットの特徴と第2の工作物上の第2のセットの特徴の位置を特定し、第1のセットの特徴を第2のセットの特徴に対して自動的にアライメントするように配置されたビジョンツールを含んでいる。組立誤差計算モジュールは、仮想組立プロセス中の操作プロセスによる第1の工作物と第2の工作物の操作の程度に基づく組立誤差を計算する。例示的に、第2の工作物は、第1のステーションから離れた第2のステーションで撮像される。
実施形態において、ビジョンシステムカメラは少なくとも1個の第3工作物を撮像する。アライメントプロセスは第3の工作物の少なくとも1個の画像及び特徴を共通座標系において生成する。こうして操作プロセスは、第1の工作物と第2の工作物の少なくとも一方を基準にした第3の工作物の仮想組立を可能にするように配置されており、第3の工作物の少なくとも1個の画像及び特徴を第1の工作物と第2の工作物の少なくとも一方の少なくとも1個の画像及び特徴にアライメントする。組立誤差計算モジュールはこれにより、第1の工作物と第2の工作物の少なくとも一方を基準にした第3の工作物の操作の程度に依存する組立誤差を計算する。第1の工作物は第1のステーションでビジョンシステムカメラによって撮像され、第2の工作物と第3の工作物の各々は第2のステーションでビジョンシステムカメラによって撮像される。例示的に、少なくとも1個の第4の工作物が第4のステーションでビジョンシステムカメラによって撮像され得る。従ってこのシステム及び方法は、任意の数のステーションで任意の数の工作物を組み立てる組立システムをトレーニングするために使用できる。
実施形態において、第1の工作物を撮像する少なくとも1台のビジョンシステムカメラと、第2の工作物を撮像する少なくとも1台のビジョンシステムカメラは、その後で個別の(別個の/異なる)座標系にマッピングされる(較正される)。こうして第1の工作物と第2の工作物は、2つの個別の座標系に基づくインタフェースで組み立てられる。実施形態において少なくとも一方のステーションは組立プラットフォームであり、少なくとも他方のステーションはピック位置である。例示的に、組立誤差は少なくとも3自由度において定義され得る。インタフェースは第1の工作物の画像を第2の工作物の画像と手動アライメントするためのディスプレイ及びユーザインタフェースを持つことができる。第1の工作物と第2の工作物の画像の少なくとも一方は、スティッチ画像であってよい。インタフェースは、第1のセットの特徴を第2のセットの特徴に対して自動的にアライメントするビジョンツールを含む全体的な操作プロセス又はプロセッサの一部であることができる。
例示的に、少なくとも1台のビジョンシステムカメラは第1の工作物と第2の工作物の少なくとも一方を撮像する。このビジョンシステムカメラ(又は複数のカメラ)は、組立システムのトレーニング動作及び/又は実行時動作で使用される画像を取得するように構成及び配置されている。このカメラ(又は複数のカメラ)は、アライメントプロセスで使用されるカメラとは別である(含んでいない)。組立プラットフォームはモーションステージを画定でき、組立システムは第2の工作物をピックステーションからモーションステージに動かす反復可能マニピュレータを有することができる。やはり例示的に、第1の工作物と第2の工作物(及び/又は第3の工作物、第4の工作物など)の少なくとも1つが、ビジョンシステムカメラによって撮像される平面を画定する。
例示的に、このシステム及び方法は、(a)第1のステーションを撮像する全てのビジョンシステムカメラを第1の座標系に対して較正し、較正されたビジョンシステムカメラの全部又はサブセットが組立システムの実行時動作中に使用するために適合される第1の較正プロセスと、(b)第2のステーションを撮像する全てのビジョンシステムカメラを第2の座標系に対して較正し、較正されたビジョンシステムカメラの全部又はサブセットが組立システムの実行時動作中に使用するために適合される第2の較正プロセスと、(c)第1の座標系と第2の座標系を共通座標系に結合し、第1の座標系と第2の座標系を共通座標系に結合するために較正されたビジョンシステムカメラの異なる個別サブセットを使用する第3の較正プロセスとを含むことができ(d)第1のステーションと第2のステーションの各々でステップ(a)とステップ(b)で較正されたビジョンシステムカメラの全部又はサブセットが、(a)における第1の較正プロセスと(b)における第2の較正プロセスとステップ(c)における第3の較正プロセスに基づいて確定された共通座標系に基づく仮想組立に使用される。
以下に本発明を添付の図面に基づいて詳細に説明する。
例示的な実施形態に従い、工作物組立システムと接続して使用される模範的なモーションステージに対して配置された、視覚的トレーニングプロセス(プロセッサ)を含むマルチカメラビジョンシステムの図である。
工作物が他の工作物とアライメントされており、工作物を取り出すためのピックステーションに置かれたピック・アンド・プレースマニピュレータを示す、模範的なピック・アンド・プレース組立構成に対して配置された2カメラシステムビジョンシステムの図である。
工作物を互いに相対的アライメントで組み立てるためのプレースステーションに置かれたピック・アンド・プレースマニピュレータを示す、図2の2カメラシステムビジョンシステムと模範的なピック・アンド・プレース組立構成の図である。
グローバル座標系に対して較正するためにピックステーションカメラの視野内に置かれた較正プレートを示す、図2の2カメラシステムビジョンシステムと模範的なピック・アンド・プレース組立構成の図である。
グローバル座標系に対して較正するためにプレースステーションカメラの視野内に置かれた較正プレートを示す、図2の2カメラシステムビジョンシステムと模範的なピック・アンド・プレース組立構成の図である。
組立システム内の多数のカメラを共通座標系に対して較正するための手順のフローチャートである。
各ステーションで工作物のスティッチ画像を生成し、及びスティッチ画像を使用して合成画像を生成するための手順のフローチャートである。
第1のステーションで第1の工作物上の4個の模範的な十字マーク(基準)を有する第1のスティッチ画像を生成する4カメラシステムを示す図である。
第2のステーションで第2の工作物上の4個の模範的な十字マーク(基準)を有する第2のスティッチ画像を生成する4カメラシステムを示す図である。
それぞれの基準に対して中心がずれている図8の第1のスティッチ画像と図9の第2のスティッチ画像との合成画像を示す図である。
それぞれの基準に対して中心が合っている図8の第1のスティッチ画像と図9の第2のスティッチ画像との合成画像を示す図である。
マルチカメラ(例えば4カメラ)構成がプラットフォーム上に置かれた工作物のエッジを撮像する、ユーザから見たグラフィカル・ユーザ・インターフェース(GUI)ディスプレイの図である。
マルチカメラ(例えば4カメラ)構成がモーションステージ上に置かれた工作物のエッジを撮像する、ユーザから見たグラフィカル・ユーザ・インターフェース(GUI)ディスプレイの図である。
GUIディスプレイが、マルチカメラ構成において工作物が中心のずれた組立をもたらす位置に置かれたときに合成画像内の領域である4個の画像を表示する、ユーザから見たグラフィカル・ユーザ・インターフェース(GUI)ディスプレイの図である。
GUIディスプレイが、マルチカメラ構成において工作物が中心の合った組立をもたらす位置に置かれたときに合成画像内の領域である4個の画像を表示する、ユーザから見たグラフィカル・ユーザ・インターフェース(GUI)ディスプレイの図である。
仮想組立を用いた工作物の視覚的アライメントに基づいて組立システムをトレーニングするための手順のフローチャートである。
特徴の関係を用いた工作物の仮想組立のための手順のフローチャートである。
図1は、第1の工作物112を少なくとも3自由度(例えばXs、Ys及びΘzs)で可動に支持するモーションステージ110を使用する組立システム100を示す。工作物112は概して平面的(即ち平ら)であり、少なくともその一部はステージ110のz軸Zsに沿った特定の高さに平面で置かれている。ステージは「アセンブリステーション」として定義されることができ、複数のカメラ130によって撮像され、各々のカメラは第1の工作物112が占める全領域の一部分である視野を撮像する。カメラ130及びそれらの機能について以下に詳しく述べる。
この配置構成100において、ピック・アンド・プレース機構又は「マニピュレータ」120は選択的に第2の(平面的)工作物122と係合して起点(この例では図示しない)と図示された第1の工作物112の上方位置の間を搬送する。この配置構成の目的のために、「ピック位置」又は「ピックステーション」は、第2の工作物122が図1に示す異なる高さで(即ち第1の工作物の上方で)撮像される位置である。別の実施形態(例えば以下の図2〜図5に示す)において、ピック位置/ステーションは離れた起点に位置しており、そこでマニピュレータ(例えば反復可能ピック・アンド・プレース機構)は工作物を起点から引き取って第1の工作物に組み付ける。この例における組立タスクは、外側エッジ126、118を持つ第2の工作物122を、第1の工作物上112の対応する内側エッジ116、118に囲まれた凹部114内に正確に配置することを含む。マニピュレータ120は多自由度であり−例えば軸Xm、Ym及びZmに沿って動き、各軸を中心として回転する(例えば軸Zmを中心としたΘzm)。この配置構成100におけるカメラ130はそれぞれ第1の工作物112の上面とは異なる高さ(z軸)にある第2工作物122の上面を撮像する。
カメラ130はそれぞれビジョンシステムプロセッサ140と作動的に結合されており、ビジョンシステムプロセッサ140はカスタムビジョンプロセッサ回路として全体又は一部をカメラハウジング内に組み入れることができ、又はPC、ラップトップ、タブレット、スマートフォン、又は同種のものを含むがこれに限らない相互接続された遠隔計算装置150内に設けることができる。1台以上のカメラを使用する組立システムにおいて、各カメラは取得した画像か、又はその画像から抽出した情報を中央プロセッサに送るように適合されていることに留意されたい。中央プロセッサは次に種々のカメラからの情報を組立中に統合する。遠隔計算装置が使用される場合、そのような計算装置150はディスプレイ及び付属のグラフィカル・ユーザ・インターフェース(GUI)動作装置、例えばキーボード、マウス及び/又はタッチスクリーンを含むことができる。ビジョンプロセッサ140は、種々のビジョンツール142、などのエッジファインダ、ブロブ解析器、検索ツール、キャリパツールなどを含む多様なビジョンシステムプロセス(又はエレメント/モジュール)を実行する。例示的に、ビジョンプロセッサ140は、2個の工作物からの画像データのアライメントを以下に述べる方法で行うアライメントプロセス(プロセッサ)を含む。較正プロセス(プロセッサ)146は、例えば以下に述べる較正プレート及びハンドアイ較正手順を用いて2個の部品の画像から抽出された画像特徴を共通(又は運動)座標系にマッピングするのを容易にする。例示的に、トレーニングプロセス(プロセッサ)148は、工作物を再位置決めして第2の工作物を第1の工作物に対して正確に組み立てるために本明細書で想定されている種々のトレーニング手順を実行する。ビジョンプロセッサ140は、複数の相互接続されたカメラプロセッサ(又は他の装置)、又は単一のカメラアセンブリ(又は遠隔計算装置)内の中央プロセッサとして設置できることに留意されたい。
非制限的な例として、2015年6月8日に出願され本発明の譲受人に譲渡された米国特許仮出願第62/201,723号「案内された組立環境においてマシンビジョン座標空間を結合するためのシステム及び方法」を参照する。この参照により有益な背景情報として本明細書に援用する出願は、遠隔位置間における共通座標系の確定に関する。より具体的には、この援用された出願は、較正ターゲットをマニピュレータ(及び付属のグリッパ)によりピック位置とプレース位置との間を移動させることから生じる問題に対処するために、較正時に実行時工作物の特徴を用いて2つの位置における座標空間を結合する較正のためのシステム及び方法を提供する。このシステム及び方法は少なくとも3種類のシナリオ/技術を提供する。1つは、両方の位置で同じ特徴が撮像及び特定され得る。1つは、実行時工作物の撮像された特徴は各位置で異なる(工作物のCAD又は測定による表現が可能)。1つは、モーションステージを含む第1の位置がハンドアイ較正を用いてモーションステージに対して較正されており、第2の位置が実行時部品を両位置の間で往復移動させることにより同じモーションステージに対してハンドアイ較正されている。例示的に最初の2つの技術の品質は、多数の実行時工作物をそれぞれ異なる姿勢で実行し、特徴を抽出し、そのような特徴を各位置で蓄積し、次いで蓄積された特徴を用いて座標空間を結合することによって改善され得る。より一般的には、このシステム及び方法は2つの位置を独立に較正して、組立中に移動するように構成及び配置/適合されたマニピュレータで工作物を移動させ、較正プレートの特徴を使用する代わりに当該工作物の特徴を使用することによって2つの位置に対する座標空間を結合する。
援用された出願の例示的な実施形態では、第1の位置にある第1の工作物がマニピュレータに移動される環境においてビジョンシステムを較正するためのシステム及び方法が提供される。動作は第1の工作物に対して行われるが、これは第1の位置と第2の位置の座標空間を結合することに依拠している。少なくとも1台のビジョンシステムカメラは、第1の工作物が第1の位置に位置決めされたときに撮像し、第1の工作物が第2の位置に位置決めされたときに撮像するように配置されている。少なくとも1台のビジョンシステムカメラが第1の位置に対して較正されて、第1の座標空間を定義する第1の較正データを導き出し、少なくとも1台のビジョンシステムカメラ(潜在的に同じカメラ)が第2の位置に対して較正されて、第2の座標空間を定義する第2の較正データを導き出す。少なくとも第1の工作物の特徴は、第1の位置で第1の工作物の第1の画像から特定される。第1の画像で特定された特徴に基づいて第1の工作物は第1の座標空間を基準にして第1の位置に対して相対的に配置される。第1の工作物はマニピュレータで少なくとも1回掴まれて第2の位置における所定のマニピュレータ位置に動かされ、第2の位置で第1の工作物の第2の画像が取得される。第2の画像で特定された特徴に基づいて第1の工作物は第2の座標空間を基準にして第2の位置に対して相対的に配置される。第1の座標空間と第2の座標空間はこれにより互いに結合される。例示的に、第1の画像で特定された特徴は、第2の画像で特定された特徴と同じである。このシステム及び方法は、(a)第1の画像で特定された特徴の位置を第1の較正データを基準にしてマッピングすること、(b)第2の画像で特定された特徴の位置を第2の較正データを基準にしてマッピングすること、及び(c)第2の位置でマッピングされた特徴を第1の位置でマッピングされた特徴にマッピングする変換を計算することを含む。代替として、第1の画像で特定された特徴の一部が第2の画像で特定された特徴と異なる場合、このシステム及び方法は、(a)第1の画像で特定された特徴の位置を第1の較正データを基準にしてマッピングすること、(b)第1の工作物の特徴位置の保存された仕様に対して相対的に変換を計算すること、(c)第2の画像で特定された特徴の位置を第2の較正データを基準にしてマッピングすること、(d)ステップ(b)で計算された変換を用いて、工作物が第1の位置に配置されているとき第2の画像から特定された特徴の第1の座標空間における位置を導き出すこと、及び(e)第2の位置でマッピングされた特徴を第1の位置でマッピングされた特徴にマッピングする変換を計算することを含む。第1の工作物の仕様は第1の工作物のCADモデル又は第1の工作物の測定されたモデル(例えばCMM生成測定)に基づくことができる。例示的に、このシステム及び方法は(a)第1の工作物を第1の位置か又は第2の位置でモーションレンダリング装置によって複数の異なる姿勢に動かすこと、(b)第1の位置と第2の位置の各々で各姿勢の特徴を特定すること、及び(c)精度を高めるために特定された特徴情報を蓄積することを含むことができ、第1の工作物は同じ工作物であるか、又は複数の個別の工作物の1つである。種々の実施形態において、このシステム及び方法は第1の位置で画像座標系から較正座標系にマッピングすることを含み、この場合にマッピングは単一である。実施形態において、第2の位置は第2の工作物を持ち、その中に第1の工作物が入れられて第2の工作物と所望のアライメントで係合し、及び/又は第2の工作物は第1の工作物を更に処理するための部品、容器又は骨組みであることができる。更に種々の実施形態において、動作は他の対象物を基準としたアライメント動作、第1の工作物上の印刷動作、及び第1の工作物上の適用動作の少なくとも1つであってよく、動作は少なくとも一部は第1の位置と第2の位置から離れた位置で実行できる。
モーションステージ110は、ビジョンプロセッサに関する運動情報を伝達するモーションコントローラ及び/又は制御プロセッサ160を含む。これによりステージ110の位置が正確に知られ、及び/又はビジョンプロセッサによって追跡され得る。ステージ110によって種々のエンコーダ及び他の検出装置を使用して運動情報を生成できる。マニピュレータ120に関連した運動情報172をビジョンプロセッサ140に送るためにモーションコントローラ170を設けることもできる。
以下に述べるように、仮想組立によりユーザはカメラとカメラにより(ビジョンシステムを通して)与えられる画像とを使って工作物を仮想的に組み立てることが可能になる。そのような仮想組立プロセスにおいて、ユーザは操作プロセス(プロセッサ)を用いて組立誤差情報を得る。組立誤差情報は後で物理的組立機構の動きを調整する動作に使用することができ、それに従い物理的組立機構は典型的に(通常は)反復可能な一連の物理的組立ステップを実行するが、これは組立誤差補正によって修正される。例示的な実施形態において、仮想組立から導き出されたデータに基づき適当な調節を適用することによって組立誤差を最小化するためにモーションステージが使用される。代替として他のモーションデバイスが組立誤差補正/調節を提供できる。
組立システムは典型的に極めて反復可能な機構として構成されているが(又は他の方法では非反復的であり)、実行時に運動のバリエーションをプログラミング又はインプットできる組立システムは本明細書で図示及び説明された仮想組立及び仮想組立手順を用いてトレーニングできることが明確に想定されている。
本明細書において種々の実施形態で表現された物理的工作物組立構成は、モーションステージの種々の領域を撮像する任意の数のカメラ(例えば1個又は4個)を含むことにも留意されたい。仮想組立で使用される各ステーションのカメラの数は、代替構成において極めて可変的である。同様に、全体システム内のステーションの数は極めて可変的である。この実施形態では2個の工作物をそれぞれ異なる高さに有する単一のステーションが撮像される。以下の図2〜図4の実施形態で更に述べるように、1台以上のカメラがそれぞれ2つの個別のワークステーション、即ちピックワークステーションとプレースワークステーションを撮像するように位置決めされている。これらのカメラの各々は共通座標系に対して較正されている。
別の実施形態に従い、全体的な仮想組立及び仮想組立構成において1台以上のカメラが付属した3つ以上のステーションが設けられてよいことも明確に想定されている。例えば、追加ピックステーション又は中間組立ステーションを設けることができる。仮想組立で用いられる全てのカメラは共通座標系(モーションステージ又は他の座標系に基づいて確定)に対して較正され、各ステーションのカメラからの画像は本明細書で述べる仮想組立及び仮想組立プロセスの一部であってよい。
図2は、実施形態に従うシステム及び方法を使用できるモーションステージ210とピック・アンド・プレース(マニピュレータ)機構220の代替配置構成200を具体的に図解している。ピックステーション222は第2の工作物224を含んでおり、これはマニピュレータ220によって選択的にピックアップされ(矢印250)、レール225に沿って(矢印252)モーションステージ210に向けられる。モーションステージ210は、この実施形態ではプレースステーションを画定する。第1の工作物212は、組立中に第2の工作物224を互いの適当なアライメントにおいて受容するように適合されており、これは上に概述した通りである。ステージ210は2度以上の自由度(例えば軸Xs、Ys、回転Θzs)で動き、軸Zsに沿った高さに位置している。マニピュレータ220は少なくとも1つの軸Ymに沿って、且つ軸Zmのピック/プレース方向に動く。軸Zmを中心とする回転Θzmも想定されている。ステージ210とマニピュレータ220の運動を組み合わせれば、図3に示すプレース動作(矢印350)中に第2の工作物224を第1の工作物212に対してアライメントするのに十分である。
この配置構成200では、少なくとも1台のカメラ240、242がそれぞれ各ステーション(210、222)を撮像する。カメラ240、242は、上述したように配置されたビジョンプロセス(プロセッサ)260と相互接続されている。一方又は両方のステーションは追加のカメラ244(ステージ210に仮想線で示す)を含むことができる。ビジョンプロセス(プロセッサ)260も、上述した方式で運動情報を提供するステージモーションコントローラ270及びマニピュレータモーションコントローラ280と作動的に接続されている。
ここで、2台のカメラからの特徴を共通座標系にマッピングする自動化された技術を示す図4と図5を参照する。この技術は、ピックステーション、カメラ242及びプレースステーションカメラそれぞれの較正と、複数のステーションにおける多数のカメラアセンブリの較正のための手順600を含む。最初に、手順600は(ステップ610で)ステージ210上のカメラ240、244(又は図1のステージ110上のカメラ130)のハンドアイ較正を実行して、全てのカメラが共通座標系又は運動座標系を定義する。
本明細書で用いる「全ての」カメラという言葉は、仮想組立においてシステムによって使用される全てのカメラを指すことに留意されたい。ビジョンシステム(又は他のプロセス)で使用される一部のカメラはタスクから除外され得ることが明確に想定されている。各ステーションから少なくとも1台のカメラが共通座標系に対して較正されて、トレーニングプロセスで使用される画像を生成することが主として想定されている。
若干の較正原理を一般的に理解するための別の背景情報として、較正ターゲット又は「プレート」などの剛体に対して、運動は1対の姿勢、即ち運動直前の開始姿勢と運動直後の終了姿勢によって特徴付けることができる。本明細書で「姿勢」は、ある基本的な座標系において特定の瞬間における体の状態を表す数値のセットによって定義される(体の仮想的特徴付け)。例えば、2次元において剛体は3個の数字、即ちX方向の並進、Y方向の並進、及び回転Rによって特徴付けることができる。カメラと較正プレートとの間に相対的運動がある場合、較正プレートとの関連における姿勢は較正プレートがカメラに対してどのように存在するかを表す。典型的には標準的ないわゆる「ハンドアイ較正」において、較正プレートはカメラに対して多数の異なる姿勢で存在し、各カメラはそのような各姿勢において較正プレートの画像を取得する。ビジョンシステムのハンドアイ較正のために、較正プレートは典型的に複数の所定の姿勢に動かされ、そこでカメラはプレートのそれぞれの画像を取得する。そのようなハンドアイ較正の目標はカメラと較正プレートの剛体姿勢を「運動座標系」において決定することである。運動座標系は多様な方法で定義され得る。姿勢の数字(較正プレート及び/又はカメラが空間内のどこに位置するかを表す)は適当な座標系において解釈されなければならない。ひとたび単一の共通座標系が選択されたら、姿勢及び運動は共通/グローバル座標系において記述/解釈される。この選択された座標系はしばしば「運動座標系」と呼ばれる。典型的に「運動」は物理的運動を付与できるロボットアームなどの物理的装置、又はガントリーなどのモーションステージによって与えられる。プレートが1以上の定置カメラに対して相対的に動けるか、又はカメラが定置プレートに対して相対的に動けることに留意されたい。そのような運動付与装置のコントローラは装置に所望の運動を付与するように命令するために数値(即ち姿勢)を使用し、それらの値は当該装置に対するネイティブ座標系において解釈される。運動付与装置及びカメラに対して共通のグローバル座標系を与えるために任意の運動座標系を選択できるが、運動付与装置のネイティブ座標系を全体的な運動座標系として選択することがしばしば望ましいことに留意されたい。
こうしてハンドアイ較正は、運動を付与し(較正プレートを動かすか又はカメラを動かし)、当該運動の前と後に画像を取得してそのような運動が動いている対象物に及ぼす効果を決定することにより、システムを単一の運動座標系に対して較正する。
再び図4〜図6を参照すると、手順600における次のステップ620は、較正ターゲット/プレート410をステーションの1つ、例えばピックステーション222)に配置する(又は更にマニピュレータ120で保持する)ことを伴い、この位置でカメラ242はターゲット410の1以上の画像を取得する。この情報はビジョンプロセス(プロセッサ)260(又は140)に保存される。次にステップ630でターゲット410は他のステーション(即ちモーションステージ210(又は110)に移動される。ステップ640においてターゲット410の1個以上の画像がステージでカメラ240、244(又は130)によって取得される。次に手順600のステップ650で、全てのカメラのピクセル位置240、242、244(又は130)が、ステップ640の画像を用いてターゲット410で見出されるエッジに基づき較正ターゲット座標にマッピングされる。次にステップ660で、較正プレート座標のモーションステージ座標系へのマッピングが、ステップ640で取得したステージにおける較正ターゲットの画像を用いて計算される。ステップ670ではプラットフォームにおけるカメラのピクセルの位置がモーションステージ210(又は110)の座標系にマッピングされる。
610、660及び670は随意であることに留意すべきである。本発明の目的のために、650で止まってもよい。なぜならこの段階で組立システムの全カメラからのピクセルを較正プレート座標系にマッピングする能力を獲得しているだろうからである。660及び670を実行する利点は、合成画像の生成を助けることにある。合成画像のX軸とY軸はモーションステージのX軸とY軸にほぼアライメントされており、モータを制御することにより合成画像の操作を容易にできる。
カメラのピクセル位置を共通座標系にマッピングしたら、ビジョンシステムはこの情報でトレーニングモードに入り、工作物の画像を互いに仮想的にアライメントするために使用され得る。
ここで図7を参照すれば、各ステーションでスティッチ画像と合成画像を生成するため手順700を示している。ステップ710で、手順700は上で決定された共通座標系において各ステーションから各カメラによって撮像された領域を計算する。ステップ720で、全領域を包含する境界ボックスが計算される。ステップ730で手順700は各ステーションに1個ずつ、計2個のスティッチ画像を作成する。例示的にスティッチ画像の高さと幅はそれぞれ同じであり、ユーザ定義できる。
本明細書で用いる「スティッチ画像」又は「スティッチング」は、2個以上の元画像を1個の合成結果画像に結合するプロセスを指す。このプロセスはカメラ視野が小さすぎて所望の場面を把捉できない場合や、多重画像が求められる場合に有用である。当業者にはスティッチ画像を生成するために種々の技術が利用可能である。例えばビジョンシステムはスティッチングツール、例えば米国マサチューセッツ州ネイティック市のコグネックス株式会社から出ているコグネックス・イメージ・スティッチング・ツールを含んでよい。このツールは全元画像と結果画像に共通の計算空間で動作する。各元画像はその画像をこの共通空間にマッピングするユニークな較正変換を含んでいる。概念的にはイメージ・スティッチング・ツールは結果を共通空間において形成し、その結果生じるスティッチ画像は、共通空間の結果をスティッチ画像にマッピングする変換を含む。そのようなスティッチ画像は「合成画像」の基礎をなすことができ、本明細書で合成画像は、異なる画像からの特徴を結合して単一の画像を生成する合成プロセスの結果として定義される。合成画像は仮想組立システムのGUIによって得られるので、ユーザ又は自動化されたプロセスは工作物を操作して(s)to生成するa仮想組立工作物のシステムをトレーニングするために使用される。
図8の例では、4個の基準/特徴(この例では十字810)を含む第1の工作物800が第1のステーションでて破線ボックス820で示された視野を有する4台の模範的カメラによって撮像される。カメラを共通座標系(X1、Y1)に物理的にアライメントすることが重視されなかったため、スティッチ画像において4台のカメラの各々の視野820は任意の向きを有することに留意されたい。同様に図9の例では、4個の基準/特徴(この例では十字910)を含む第2の工作物900が第2のステーションで破線ボックス920で示された視野を有する4台の模範的カメラによって撮像される。カメラを共通座標系(X1、Y1)に物理的にアライメントすることが重視されなかったため、スティッチ画像において4台のカメラの各々の視野920は任意の向きを有することに留意されたい。
手順700において、変換はステップ740でスティッチ画像のコーナを境界ボックスのコーナにマッピングする。次に手順700はステップ750で、各ステーションに対して変換を用いて。各カメラからの画像ピクセルを対応するスティッチ画像にマッピングする。次にステップ760で、手順はステップ750からのスティッチ画像を、例えば2個の画像を平均化することによって合成して、結果として生じる合成画像を生成する。合成画像は仮想組立を表し、アセンブリの品質を推測するために使用できる。これらのステップは較正(図6)に続いてスティッチ画像と合成画像を生成するための多様な手順及び技術の範例であることに留意されたい。これらの手順は典型的に画像内の特徴位置を共通座標系にマッピングする能力を使用する。
図10は、2つのステーショからのスティッチ画像の平均化することによって生成された合成画像で向きがアライメントされていない工作物800及び900の模範的な図を示している。それぞれの基準810及び910は互いに中心がずれていることに留意されたい。逆に、図11に示すようにアライメントされている場合、合成画像は類似のサイズのスティッチ画像の基準が互いに一致しているアライメントされた工作物を表現する。
図12〜図15に、類似の表現を有するグラフィカル・ユーザ・インターフェース(GUI)ディスプレイが示されている。図12では4カメラ構成が(例えば)ピックプラットフォームに置かれた第1の工作物の4個の画像1210、1220、1230及び1240をそれぞれ生成する。それぞれのカメラをプラットフォームと工作物に対して相対的に物理的に配置したことにより、工作物のそれぞれのエッジ1212、1222、1232及び1242は各画像で異なってスケーリングされていることに留意されたい。図13はユーザから見たGUIディスプレイであり、ここでは4カメラ構成が(例えば)モーションステージに置かれた第2の工作物の4個の画像1310、1320、1330及び1340をそれぞれ生成する。ここでもカメラの位置決めに基づいてそれぞれのエッジ1312、1322、1332及び1342は異なってスケーリングされている。
図14には、工作物が中心のずれた組立をもたらす位置にあるときに4個の画像1410、1420、1430及び1440が合成画像内部の領域であるGUIディスプレイが示されている。各画像のエッジは歪んでいることに留意されたい。逆に図15では、4個の表示された画像1510、1520、1530及び1540は、工作物が中心の合った組立をもたらす位置にあるときに合成画像内の領域である。各画像でエッジがオーバーラップしていることに留意されたい。
表現されたGUIが4台のカメラに対応して4個の画像を含む一方で、ステーション/場面を撮像するカメラの与えられた数と相対的により少ない画像を表示できることが明確に想定されていることに留意されたい。例えば、冗長な及び/又はあまり有用でない/無用な画像情報が提供される場合は若干の画像を省略できる。こうしてペインを見る表現されたディスプレイにおいて2個又は3個の画像を含む合成画像を設けることができる。各工作物に関する十分な特徴情報がディスプレイの合成画像で提示されてユーザ(又は自動化されたプロセス)がそれらの工作物を仮想組立プロセスでアライメントできるようにすることが主として想定されている。
上述したスティッチ画像と合成画像を生成するために多様な技術を使用できることが明確に想定されている。一般に、そのような技術は各画像からピクセルを共通座標系にマッピングする能力を用いる。更に、上に示した合成画像はスティッチ画像を平均化する。合成画像は代替表現によって定義されることができ、従って他の技術を用いて生成され得る。各ステーションで1台のカメラを使用する組立システムに対してスティッチ手順は省略でき、画像の合成は直接プロセスによって実行される。特に、スティッチ手順は1つのステーションにおける多数のカメラからの画像を使用して、当該ステーションにある工作物に対する単一の画像を作成する。種々の実施形態においてスティッチング動作と合成動作は単一のビジョンタスクとして結合できる。
一般に、このシステム及び方法は、工作物がそれぞれのステーションにあるときに工作物の特徴は共通(グローバル又は運動)座標系において表現されるという事実を利用する。トレーニング中に工作物を所望の向き(例えばx及びy並進とΘ回転によって定義される「姿勢」)に置くのを助けるためにフィードバックが提供される少なくとも3種類の技術がある。
1.視覚的アライメント
この技術は、共通座標系内で視野がオーバーラップしている組立システムに使用できる(例えば図1の配置構成100)。スティッチ画像は各ステーションで当該ステーションの全てのカメラを使用して生成される。スティッチ画像は与えられたカメラのどのピクセルに対しても共通座標系における位置が知られているから生成できる。ひとたびスティッチ画像が生成されたら、2つのステーションでスティッチ画像を合成するプロセス(例えばスティッチ画像の平均化)によって合成画像が生成される。これが可能であるのも、どのステーションのどのピクセルも共通座標系において表現できるからである。これは実際には2個の工作物を仮想的に組み立て、組立済み部品がどのように見えるかをユーザが容易に視覚化できるようにする。即ち、ユーザはそれぞれの工作物(例えばモーションステージ上の工作物)の2個の画像の少なくとも一方を、手動又はグラフィカル・ユーザ・インターフェース(GUI)によって提供される操作装置を用いて移動及び回転させる。操作装置はマウス、タッチスクリーン及び/又はデータ入力ボックスを含んでよい。ユーザは、工作物が適当にアライメントされて組み立てられた対象物が所望の形態と相応の外観を呈するようになるまで、移動/回転プロセスを継続する。その結果生じる2個の工作物を含む対象物は、こうして「仮想的に」組み立てられる。仮想組立の間、ユーザは合成画像上の幾つかの目立った特徴を拡大して、所望のアセンブリが達成されるまでステーションでモーションステージを動かすことができる。ひとたびこれが行なわれたら、ユーザは組立システムをトレーニングすることができる。図16の手順1600を参照すると、要約するとユーザによる視覚的アライメントは次のことを伴う:合成された画像を見てアセンブリの品質を評価すること(ステップ1610);合成画像が所望の外観を定義するまで一方又は両方のステーションにある工作物の位置を調整すること(ステップ1620);そして調整された合成画像の所望の視覚的外観を用いて工作物組立システムをトレーニングすること(ステップ1630)。
2.工作物上の特徴関係を計算することによるアライメント
この技術は、共通座標系で視野がオーバーラップする又はオーバーラップしない組立システムに使用できる。この技術においてユーザは各工作物上の少なくとも1個の特徴の位置を特定するビジョンツールを用いて、共通座標系におけるそれらの特徴間の幾何学的関係を計算できる。例えば、工作物は上述した基準を含むことができ、そのような基準の位置と向きを特定するために基準ファインダを使用できる。次にユーザは、仮想的に組み立てられた部品における特徴間の幾何学的関係が、組立済み部品に対する設計文書に記載された関係と一致するまで1個以上の工作物を再位置決めできる。そのような運動は、ピック位置とプレース位置の少なくとも一方で工作物を手動で再位置決めするか、又はモーションステージを制御することによって達成できる。模範的な実施形態において、ユーザは1個の工作物上で2点特徴の位置を特定し、第2の工作物上で3点特徴の位置を特定できる。仮想組立システムは、各工作物上の1個の特徴を対として扱い、それらの特徴間の距離を測定してユーザにフィードバックするように設計されている。ユーザは、特徴間の距離が正確に組み立てられた部品における距離と等しくなるまで工作物を再位置決めできる。
次に、図17の手順1700を参照する。ステップ1710で、ユーザは第1の工作物上の特徴の位置を特定できる特徴ファインダを作成して、ユーザが見出す位置を共通座標系に表す。ステップ1720で、ユーザは第2の工作物上の特徴の位置を特定できる特徴ファインダを作成して、それらのファインダが見出す位置を共通座標系に表す。ユーザはこれをビジョンプロセス(プロセッサ)及び付属のGUIにおいてビジョンツールを用いて行う。次にステップ1730で、特徴セット間の関係が所望の設計関係と一致するまで、ユーザは一方又は両方のステーションにおける工作物の位置を調整する。使用する特徴ファインダは、何らかの画像(元画像、スティッチ画像又は合成画像)上の特徴の位置を特定するように設計されてよい。より一般的に、ユーザはステップ1740に示されている通り組立システムをトレーニングする。
3.自動化されたガイダンス
代替的又は追加的に、工作物をトレーニングするための所望の位置に案内するために自動化されたガイダンスを使用できる。上の例で、組立後に点対の所望の距離を入力するかユーザに尋ねることができる。ひとたびユーザが補正値を入力したら、仮想的に組み立てられた部品において所望の幾何学的関係が達成されるまで、組立システムは運動機構(例えばマニピュレータ、モーションステージなど)を動かすことによって部品を動かすことができる。これは特に、誤差補正係数をステージの直線駆動モータに登録された運動に変換する適当なインタフェースを用いて達成できる。例えばXXYステージの場合、X及びY入力は直交軸に沿って変換し、差動XY入力はZ軸を中心とした回転を生成する(3自由度の運動を可能にする)。ひとたびシステムによって最終組立形態が決定されたら、誤差補正値は仮想組立システムから直接インタフェースによって送ることができる。
一般に上記のトレーニング技術のいずれかを用いてマッピングされた運動誤差補正値のセットを生成し、モーションステージ、マニピュレータ又は両方のモーションコントローラのために保存する。これらの値は、運動を修正するために使用され、工作物は組立システムの反復可能エレメントにより適切にアライメントされる。
別の実施形態において、任意の数のステーションで任意の数の工作物を組み立てるように適合され得ることが明確に想定されている。例えば仮想組立システムは、模範的な工作物WA、WB1、WB2、WCを単一の組立済み対象物に組み立てる物理的システムと接続して使用できる。この場合、WAはステーションAで撮像され、WB1及びWB2はステーションBで撮像され、WCはステーションCで撮像される。ユーザは仮想的に全ての工作物を完成した組立済み対象物に組み立てることができ、物理的システムをトレーニングするために各組立ステーション/ステージにおける組立誤差が計算される。
別の実施形態では、仮想組立のためにビジョンシステムカメラのグループを設けることができ、各グループは各ステーションから少なくとも1台のカメラを含み、全てのカメラは共通座標系にマッピングされる。最初のグループ分けに続いて、グループは別個に較正されて各グループは特徴を異なる個別の座標系にマッピングする。次にこれらのグループからの画像を用いて対象物全体の仮想組立を行う。更に、仮想組立に使用するビジョンシステムカメラのセットは、トレーニングに使用され物理的組立システムを実行するカメラのセットと同じか、又は同じでなくてもよい。
上述したシステム及び方法により、ユーザは組立システムにおいてより簡単に運動誤差を考慮でき、工作物の物理的運動を使用する際に試行錯誤が回避されることが明らかなはずである。このシステム及び方法は、セットアップとトレーニングプロセスに追加の時間と費用を要するCMM若しくは類似の計測装置の使用を無用にする。
以上、本発明の例示的な実施形態を詳細に説明した。本発明の精神と範囲を逸脱することなく種々の改変及び追加を行うことができる。上述した種々の実施形態の各々の特徴は、関連する新しい実施形態において多数の特徴の組み合わせを提供するのに適する限り、別の記載された実施形態の特徴と組み合わされてよい。更に、上に本発明の装置と方法の多数の別個の実施形態を記したが、ここに記載されたものは本発明の原理の応用を例示したものに過ぎない。例えば本明細書中で使用される「プロセス」及び/又は「プロセッサ」という言葉は広く解釈して、電子ハードウェア及び/又はソフトウェアをベースとする多様な機能及びコンポーネントント(代替として機能的「モジュール」又は「エレメント」と呼ぶことがある)を含むものとする。さらに、図示されたプロセス又はプロセッサは他のプロセス及び/又はプロセッサと組み合わせ、又は種々のサブプロセス又はサブプロセッサに分割されてよい。そのようなサブプロセス及び/又はサブプロセッサは、本明細書に記載された実施形態に従って多様に組み合わせることができる。同様に、本明細書中の何らかの機能、プロセス及び/又はプロセッサは、プログラム命令の非一時的コンピュータ可読媒体からなる電子ハードウェア、ソフトウェア、或いはハードウェアとソフトウェアの組合せを用いて実施できることが明確に想定されている。更に、本明細書で使用される様々な方向及び/又は向きを表わす用語、例えば、「垂直」、「水平」、「上」、「下」、「底部」、「頂部」、「側部」、「前部」、「後部」、「左」、「右」およびこれに類するものは、相対的な表現法として用いられているに過ぎず、重力の作用方向など固定した座標系を基準とした絶対的な向きを表わすものではない。従ってこの記述は例示としてのみ受け取られるべきであり、本発明の範囲を別途制限することを意味するものではない。

Claims (19)

  1. 第1の工作物を含む少なくとも1個の第1のステーションを有する組立システムで対象物を仮想的に組み立てるためのシステムであって、当該組立システムは第1の工作物と第2の工作物を互いにアライメントして組み立てるものにおいて、当該システムは、
    第1の工作物と第2の工作物を撮像するように配置された1台以上のビジョンシステムカメラとビジョンシステムプロセッサアセンブリと、ここで複数のカメラが共通座標系。に対して較正されており;
    第1の工作物と第2の工作物の少なくとも1個の画像及び特徴を共通座標系において生成するアライメントプロセスと;
    第1の工作物上の第1のセットの特徴と第2の工作物上の第2のセットの特徴の位置を特定し、第1のセットの特徴を第2のセットの特徴に対して自動的にアライメントして、第1の工作物と第2の工作物の少なくとも1個の画像及び特徴をアライメントするビジョンツールを有する操作プロセスと;
    仮想組立プロセス中の操作プロセスによる第1の工作物と第2の工作物の操作の程度に基づく組立誤差を計算する組立誤差計算モジュールと、を含むシステム。
  2. 第2の工作物は第1のステーションから離れた第2のステーションで撮像される、請求項1に記載のシステム。
  3. 更に、少なくとも1個の第3の工作物と、第3の工作物を撮像するビジョンシステムカメラと、第3の工作物の少なくとも1個の画像及び特徴を共通座標系において生成するアライメントプロセスと、第1の工作物と第2の工作物の少なくとも一方を基準にした第3の工作物の操作を可能にして第3の工作物の少なくとも1個の画像及び特徴を第1の工作物と第2の工作物の少なくとも一方の少なくとも1個の画像及び特徴にアライメントするように配置された操作プロセスとを含み、組立誤差計算モジュールは第1の工作物と第2の工作物の少なくとも一方を基準にした第3の工作物の操作の程度に基づく組立誤差を計算する、請求項2に記載のシステム。
  4. 第1の工作物は第1のステーションでビジョンシステムカメラによって撮像され、第2の工作物と第3の工作物の各々は第2のステーションでビジョンシステムカメラによって撮像される、請求項3に記載のシステム。
  5. 更に、第4のステーションでビジョンシステムカメラによって撮像される少なくとも1個の第4の工作物を含む、請求項4に記載のシステム。
  6. 更に、
    (a)第1のステーションを撮像する全てのビジョンシステムカメラを第1の座標系。に対して較正し、較正されたビジョンシステムカメラの全部又はサブセットが組立システムの実行時動作中に使用するために適合される第1の較正プロセスと、
    (b)第2のステーションを撮像する全てのビジョンシステムカメラを第2の座標系。に対して較正し、較正されたビジョンシステムカメラの全部又はサブセットが組立システムの実行時動作中に使用するために適合される第2の較正プロセスと、
    (c)第1の座標系と第2の座標系を共通座標系に結合し、第1の座標系と第2の座標系を共通座標系に結合するために較正されたビジョンシステムカメラの異なる個別サブセットを使用する第3の較正プロセスとを含み、
    (d)第1のステーションと第2のステーションの各々でステップ(a)とステップ(b)で較正されたビジョンシステムカメラの全部又はサブセットが、ステップ(a)における第1の較正プロセスとステップ(b)における第2の較正プロセスとステップ(c)における第3の較正プロセスによって確定された共通座標系に基づく仮想組立に使用される、請求項2に記載のシステム。
  7. 第1のステーションと第2のステーションの一方が組立プラットフォームであり、第1のステーションと第2のステーションの他方がピック位置である、請求項2に記載のシステム。
  8. 組立プラットフォームはモーションステージを画定し、組立システムは第2の工作物をピックステーションからモーションステージに動かす反復可能マニピュレータを有する、請求項7に記載のシステム。
  9. 組立誤差は少なくとも3自由度で定義される、請求項1に記載のシステム。
  10. 更に、第1の工作物の少なくとも1個の画像と第2の工作物の少なくとも1個の画像を手動アライメントするためのディスプレイ及びユーザインタフェースを含む、請求項1に記載のシステム。
  11. 更に、第1の工作物と第2の工作物の少なくとも一方を撮像する少なくとも1台のビジョンシステムカメラを含んでおり、少なくとも1台のビジョンシステムカメラは、組立システムのトレーニング動作と実行時動作の少なくとも一方で使用される画像を取得するように構成及び配置されており、アライメントプロセスに関する使用はなされない、請求項1に記載のシステム。
  12. 操作プロセスは、(a)スティッチされた第1の工作物の画像と(b)スティッチされた第2の工作物の画像の少なくとも一方を使用する、請求項1に記載のシステム。
  13. 第1の工作物と第2の工作物の画像がインタフェースを基準とした合成画像に作成される、請求項12に記載のシステム。
  14. 第1の工作物と第2の工作物の少なくとも一方が、ビジョンシステムカメラによって撮像される平面を画定する、請求項1に記載のシステム。
  15. 第1の工作物を含む少なくとも1個の第1のステーションを有する組立システムを用いて対象物を仮想的に組み立てるための方法であって、当該組立システムは第1の工作物と第2の工作物を互いにアライメントして組み立てる方法において、当該方法は、
    1台以上のビジョンシステムカメラとビジョンシステムプロセッサアセンブリで第1の工作物と第2の工作物の画像を取得するステップと、ここで複数のカメラが共通座標系。に対して較正されており;
    第1の工作物と第2の工作物の少なくとも1個の画像及び特徴を共通座標系において生成するステップと;
    第1の工作物に対して第2の工作物を自動的に操作して第1の工作物と第2の工作物の少なくとも1個の画像及び特徴をアライメントするステップと;
    仮想組立プロセス中の第1の工作物と第2の工作物の操作の程度に基づく組立誤差を計算するステップとを含む方法。
  16. 画像を取得するステップは第1のステーションから離れた第2のステーションで第2の工作物の画像を取得することを含む、請求項15に記載の方法。
  17. 第1のステーションと第2のステーションの一方が組立プラットフォームであり、第1のステーションと第2のステーションの他方がピック位置である、請求項16に記載の方法。
  18. 組立誤差は少なくとも3自由度で定義される、請求項15に記載の方法。
  19. 更に、第1の工作物の少なくとも1個の画像と第2の工作物の少なくとも1個の画像の手動アライメントのためのディスプレイ及びユーザインタフェースを使用することを含む、請求項15に記載の方法。
JP2019072089A 2015-03-03 2019-04-04 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム Active JP6770605B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562127808P 2015-03-03 2015-03-03
US62/127,808 2015-03-03
US15/058,118 2016-03-01
US15/058,118 US10223589B2 (en) 2015-03-03 2016-03-01 Vision system for training an assembly system through virtual assembly of objects

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016041038A Division JP2016166872A (ja) 2015-03-03 2016-03-03 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム

Publications (2)

Publication Number Publication Date
JP2019169156A true JP2019169156A (ja) 2019-10-03
JP6770605B2 JP6770605B2 (ja) 2020-10-14

Family

ID=56738992

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016041038A Pending JP2016166872A (ja) 2015-03-03 2016-03-03 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム
JP2019072089A Active JP6770605B2 (ja) 2015-03-03 2019-04-04 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016041038A Pending JP2016166872A (ja) 2015-03-03 2016-03-03 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム

Country Status (6)

Country Link
US (1) US10223589B2 (ja)
JP (2) JP2016166872A (ja)
KR (2) KR102062423B1 (ja)
CN (1) CN105938618B (ja)
DE (1) DE102016103799B4 (ja)
TW (2) TW201730702A (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203377A1 (de) * 2015-03-02 2016-11-24 Virtek Vision International Inc. Laserprojektionssystem mit Videoüberlagerung
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
CN111094136B (zh) * 2017-09-20 2022-10-28 麦格纳国际公司 用于制造业用的适应性箱子拾取的系统和方法
US11072074B2 (en) * 2017-12-13 2021-07-27 Cognex Corporation Calibration and operation of vision-based manipulation systems
CN108876838B (zh) * 2018-06-15 2022-05-06 重庆大学 微操作系统的微操作空间的数字化方法及系统
CN112638593A (zh) * 2018-06-26 2021-04-09 发纳科美国公司 用于机器人拾取系统的增强现实可视化技术
US11442438B2 (en) * 2018-08-14 2022-09-13 The Boeing Company Automated supervision and inspection of assembly process
CN110027015A (zh) * 2019-03-31 2019-07-19 唐山百川智能机器股份有限公司 基于人工智能的动车杆件组装方法
CN112097673B (zh) * 2019-06-18 2022-11-15 上汽通用汽车有限公司 车身部件虚拟匹配方法和系统
CN110653823A (zh) * 2019-10-12 2020-01-07 四川长虹电器股份有限公司 基于数据反演的手眼标定结果可视化方法
CN112798600A (zh) * 2019-11-14 2021-05-14 深圳百迈技术有限公司 检测方法及系统
WO2021155037A1 (en) * 2020-01-28 2021-08-05 Embodied Intelligence Inc. Identifying scene correspondences with neural networks
EP3901563B1 (de) * 2020-04-21 2022-12-14 Carl Zeiss Industrielle Messtechnik GmbH Verfahren und vorrichtung zur bestimmung einer messstrategie zur vermessung eines messobjekts und programm
CN114310869B (zh) * 2020-09-29 2023-04-25 上海科技大学 机器人手眼标定方法、系统以及终端
GB2619520A (en) * 2022-06-07 2023-12-13 Imperial College Innovations Ltd A method of determining an arrangement for objects
CN117066843A (zh) * 2023-10-08 2023-11-17 荣耀终端有限公司 产品组件的组装方法和设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537195A (ja) * 1991-07-30 1993-02-12 Sony Corp 実装位置決めシステム
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2000265794A (ja) * 1999-03-15 2000-09-26 Ohbayashi Corp セグメント組立訓練装置
US20070063997A1 (en) * 2003-05-20 2007-03-22 Ronny Scherer Method and system for manipulating a digital representation of a three-dimensional object
JP2010140259A (ja) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及びプログラム
US20140240520A1 (en) * 2013-02-25 2014-08-28 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
JP2015212891A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2016041038A (ja) * 2014-08-18 2016-03-31 株式会社大貴 排泄物処理材及びそれを用いた動物用トイレ

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0824235B2 (ja) 1987-04-15 1996-03-06 日立テクノエンジニアリング株式会社 実装機における電子部品の搭載位置決定方法
US4841460A (en) 1987-09-08 1989-06-20 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
US4907169A (en) * 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
JPH0699321A (ja) 1992-09-22 1994-04-12 Toshiba Corp 自動組み立て装置
US5706416A (en) 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
US5825483A (en) 1995-12-19 1998-10-20 Cognex Corporation Multiple field of view calibration plate having a reqular array of features for use in semiconductor manufacturing
US5748505A (en) 1996-02-06 1998-05-05 Perceptron, Inc. Method and apparatus for calibrating a noncontact gauging sensor with respect to an external coordinate system
WO1997041532A1 (en) 1996-04-29 1997-11-06 The Government Of The United States Of America, Represented By The Secretary, Department Of Health And Human Services Iterative image registration process using closest corresponding voxels
US6078700A (en) 1997-03-13 2000-06-20 Sarachik; Karen B. Method and apparatus for location and inspecting a two-dimensional image including co-linear features
US5974169A (en) 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US6175652B1 (en) 1997-12-31 2001-01-16 Cognex Corporation Machine vision system for analyzing features based on multiple object images
US6516092B1 (en) 1998-05-29 2003-02-04 Cognex Corporation Robust sub-model shape-finder
JP3874949B2 (ja) 1998-11-30 2007-01-31 オプトレックス株式会社 液晶表示パネルの位置合わせ方法
US6587601B1 (en) 1999-06-29 2003-07-01 Sarnoff Corporation Method and apparatus for performing geo-spatial registration using a Euclidean representation
US6323776B1 (en) 1999-12-21 2001-11-27 Snap-On Technologies, Inc. Method and apparatus of automatically identifying faults in a machine vision measuring system
AU2001249647A1 (en) 2000-03-30 2001-10-15 The Board Of Trustees Of The Leland Standford Junior University Apparatus and method for calibrating an endoscope
US6517478B2 (en) 2000-03-30 2003-02-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
US6678058B2 (en) 2000-10-25 2004-01-13 Electro Scientific Industries, Inc. Integrated alignment and calibration of optical system
JP3842233B2 (ja) * 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
US7181111B2 (en) 2003-08-28 2007-02-20 Lucent Technologies Inc. Apparatus for splicing optical fibers
FI123306B (fi) 2004-01-30 2013-02-15 Wisematic Oy Robottityökalujärjestelmä, sekä sen ohjausmenetelmä, tietokoneohjelma ja ohjelmistotuote
US7324682B2 (en) * 2004-03-25 2008-01-29 Mitutoyo Corporation System and method for excluding extraneous features from inspection operations performed by a machine vision inspection system
WO2006019970A2 (en) * 2004-07-14 2006-02-23 Braintech Canada, Inc. Method and apparatus for machine-vision
US7845560B2 (en) 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US7583372B2 (en) 2005-06-01 2009-09-01 Hunter Engineering Company Machine vision vehicle wheel alignment image processing methods
JP2008014940A (ja) 2006-06-08 2008-01-24 Fast:Kk 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
JP2008036918A (ja) 2006-08-04 2008-02-21 Hitachi Plant Technologies Ltd スクリーン印刷装置および画像認識位置合わせ方法
JP5270670B2 (ja) 2007-05-29 2013-08-21 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 2次元画像による3次元組立て検査
JP4883181B2 (ja) 2007-08-17 2012-02-22 富士通株式会社 部品実装方法
US8482732B2 (en) * 2007-10-01 2013-07-09 Maskless Lithography, Inc. Alignment system for various materials and material flows
WO2009047214A2 (en) 2007-10-09 2009-04-16 Oerlikon Assembly Equipment Ag, Steinhausen Method for picking up semiconductor chips from a wafer table and mounting the removed semiconductor chips on a substrate
CH698334B1 (de) 2007-10-09 2011-07-29 Esec Ag Verfahren für die Entnahme und Montage von auf einem Wafertisch bereitgestellten Halbleiterchips auf einem Substrat.
JP5481123B2 (ja) 2009-07-28 2014-04-23 新電元工業株式会社 部品の搭載装置、部品の搭載方法
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
CN101922917B (zh) 2010-06-29 2012-06-20 华南理工大学 一种精密电子组装中基于视觉的微位移检测方法
CN103153553B (zh) 2010-08-27 2016-04-06 Abb研究有限公司 视觉引导对准系统和方法
CN102540533B (zh) 2010-12-15 2015-04-08 华映视讯(吴江)有限公司 裸眼立体显示器的组装方法
CN102773524A (zh) 2012-08-01 2012-11-14 西北工业大学 一种基于机器视觉找正的制孔方法
US10477154B2 (en) 2013-03-07 2019-11-12 Cognex Corporation System and method for aligning two work pieces with a vision system in the presence of occlusion

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537195A (ja) * 1991-07-30 1993-02-12 Sony Corp 実装位置決めシステム
JPH11136706A (ja) * 1997-09-01 1999-05-21 Mr System Kenkyusho:Kk 位置姿勢検出装置、位置姿勢検出方法、複合現実感提示装置、ゲーム装置、複合現実感提示方法および記憶媒体
JP2000265794A (ja) * 1999-03-15 2000-09-26 Ohbayashi Corp セグメント組立訓練装置
US20070063997A1 (en) * 2003-05-20 2007-03-22 Ronny Scherer Method and system for manipulating a digital representation of a three-dimensional object
JP2010140259A (ja) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd 情報処理装置、情報処理システム及びプログラム
US20140240520A1 (en) * 2013-02-25 2014-08-28 Cognex Corporation System and method for calibration of machine vision cameras along at least three discrete planes
JP2015212891A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2016041038A (ja) * 2014-08-18 2016-03-31 株式会社大貴 排泄物処理材及びそれを用いた動物用トイレ

Also Published As

Publication number Publication date
US10223589B2 (en) 2019-03-05
KR20180107043A (ko) 2018-10-01
CN105938618B (zh) 2019-11-08
US20170024613A1 (en) 2017-01-26
JP6770605B2 (ja) 2020-10-14
KR102062423B1 (ko) 2020-01-03
TW201730702A (zh) 2017-09-01
TW201638687A (zh) 2016-11-01
KR20160107128A (ko) 2016-09-13
TWI594097B (zh) 2017-08-01
DE102016103799B4 (de) 2020-09-03
CN105938618A (zh) 2016-09-14
DE102016103799A1 (de) 2016-09-08
JP2016166872A (ja) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6770605B2 (ja) 対象物の仮想組立により組立システムをトレーニングするためのビジョンシステム
US11049280B2 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
TWI699264B (zh) 視覺導引機器手臂校正方法
KR102661635B1 (ko) 가이드된 어셈블리 환경에서 머신비전 좌표공간과 함께 묶기 위한 시스템 및 방법
TW202234184A (zh) 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200306

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250