JP2022506235A - 部品の一部又はサブアセンブリの3dポーズを測定するためのマシンビジョンベースの方法とシステム - Google Patents
部品の一部又はサブアセンブリの3dポーズを測定するためのマシンビジョンベースの方法とシステム Download PDFInfo
- Publication number
- JP2022506235A JP2022506235A JP2021523448A JP2021523448A JP2022506235A JP 2022506235 A JP2022506235 A JP 2022506235A JP 2021523448 A JP2021523448 A JP 2021523448A JP 2021523448 A JP2021523448 A JP 2021523448A JP 2022506235 A JP2022506235 A JP 2022506235A
- Authority
- JP
- Japan
- Prior art keywords
- cloud
- pose
- subassembly
- sensor
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0008—Industrial image inspection checking presence/absence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B5/00—Measuring arrangements characterised by the use of mechanical techniques
- G01B5/0025—Measuring of vehicle parts
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37571—Camera detecting reflected light from laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40425—Sensing, vision based motion planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40516—Replanning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40613—Camera, laser scanner on end effector, hand eye manipulator, local
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45063—Pick and place manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45065—Sealing, painting robot
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本出願は、2017年11月27日に出願された同時係属特許出願であるシリアル番号15/822、683に関連しており、その開示内容は、参照によりその全体が本明細書に組み込まれる。
部品又は部品のサブアセンブリのポーズを非接触で測定することは、次のような多くの産業用途で有用である。
Claims (78)
- 再プログラム可能な産業用オートメーションマシンを制御して、未知の姿勢を有する部品または部品のサブアセンブリに対して作業タスクを実行するマシンビジョンベースの方法であって、以下のステップを含む;
少なくとも1つの3Dセンサを産業用オートメーションマシンに取り付けて、それと一緒に移動させるステップと、装置は、基準となる部品または部品のサブアセンブリの既知の基準ポーズに基づいて、ノミナルモーションパスをたどるようにプログラムされている、
既知の基準ポーズを持つ基準部品またはサブアセンブリの基準表面を表す3Dボクセルの基準クラウドを提供するステップと、
マシンと取り付けられた各3Dセンサを一緒に移動させて、基準部品またはサブアセンブリと同じタイプで、基準ポーズとは異なる実際のポーズを持つサンプル部品またはサブアセンブリの対応する表面を表す3Dボクセルのサンプルクラウドを取得するステップと、
マッチングアルゴリズムを利用して、サンプルクラウドと基準クラウドのボクセルを処理して、サンプル部品またはサブアセンブリのポーズを決定するステップと、
ノミナルモーションパスに基準からサンプルへの変換を適用して、基準ポーズと実際のポーズの差を補正するための補正モーションパスをたどるようにマシンを再プログラムするステップと、を含む方法。 - 請求項1に記載の方法であって、提供するステップは、少なくとも部分的に、少なくとも1つの取り付けられた3Dセンサによって実行される方法。
- 請求項1に記載の方法で、部品またはサブアセンブリが固定具に配置され、支持されている方法。
- 請求項1に記載の方法であって、基準クラウドとサンプルクラウドのベストフィットを表す3Dボクセルの整列クラウドを計算し、整列クラウドと基準クラウドの3Dグラフィックを3Dディスプレイに表示することをさらに含む方法。
- 請求項4に記載の方法であって、3Dディスプレイは、部品のサブアセンブリがサブアセンブリ本体の他のサブアセンブリに対してずれているかどうかを識別するために使用される方法。
- 請求項4に記載の方法であって、3Dディスプレイは、整列クラウドのポーズと基準クラウドのポーズとを視覚的に比較するために使用される方法。
- 請求項3に記載の方法であって、マシンは、少なくとも1つの3Dセンサが取り付けられたアームエンドツーリングを有するロボットであり、ロボットは、補正されたモーションパスに基づいて、部品またはサブアセンブリを固定具から取り出すことが可能な方法。
- 請求項3に記載の方法であって、マシンは、少なくとも1つの3Dセンサが取り付けられたアームエンドツーリングを有するロボットであり、ロボットは、補正されたモーションパスに基づいて、部品を接合するために、部品のサブアセンブリのセム上にシーラントを塗布することが可能な方法。
- 請求項3に記載の方法であって、固定具は、部品または部品のサブアセンブリからなる方法。
- 請求項3に記載の方法であって、固定具は、移動可能なキャリアを備える方法。
- 請求項10に記載の方法であって、キャリアは、同じ種類の複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージラックである方法。
- 請求項10に記載の方法であって、キャリアは、同じ種類の個別に固定された複数の部品またはサブアセンブリを位置決めして支持するためのストレージカセットであることを特徴とする方法。
- 請求項10に記載の方法であって、キャリアを、同一タイプの個別に固定された複数の車体を位置決めして支持するカーキャリアである方法。
- 請求項1に記載の方法において、各3Dセンサは、ハイブリッド2D/3Dセンサである方法。
- 請求項14に記載の方法であって、各センサは、部品またはサブアセンブリに照明を照射するために、既知のパターンの放射を投影する方法。
- 請求項15に記載の方法であって、照明が、可視放射線のスペクトルの外側のパターンに集中していることを特徴とする方法。
- 請求項1に記載の方法であって、変換はベストフィット剛体変換であり、部品またはサブアセンブリは非剛体であり、方法は、前述したステップ適用後に、ノミナルモーションパスにベストフィット非剛体変換を適用するステップをさらに含む方法。
- 請求項1に記載の方法であって、3Dボクセルのクラウドは、ポーズ測定を向上させるために各ボクセルのカラーまたはグレースケール情報を含む方法。
- 請求項1に記載の方法であって、基準クラウドが実質的に基準面全体を表している方法。
- 請求項19に記載の方法であって、提供するステップは、部品またはサブアセンブリのCADモデルを提供するステップと、CADモデルの情報を基準クラウドに変換するステップとを含む方法。
- 請求項19に記載の方法であって、提供するステップは、構築されている部品を剛体的に固定するステップと、複数の3Dセンサを用いて複数の視点から3Dボクセルの複数の基準クラウドをキャプチャするステップとを含む方法。
- 請求項21に記載の方法であって、キャプチャするステップは、複数の3Dセンサを、それと一緒に移動するロボットのアームエンドツーリングに取り付け、ロボットに3Dセンサを複数の視点に移動させることによって、少なくとも部分的に実行される方法。
- 未知のポーズを有する部品または部品のサブアセンブリの3Dポーズを測定するマシンビジョンベースの方法であって、以下を含む、
既知の基準ポーズを有する基準部品またはサブアセンブリの基準表面を表す3Dボクセルの基準クラウドを提供するステップと、
少なくとも1つの2D/3Dハイブリッドセンサを使用して、基準部品またはサブアセンブリと同じタイプで、基準ポーズとは異なる実際のポーズを有するサンプル部品またはサブアセンブリの対応する表面を表す3Dボクセルのサンプルクラウドを取得するステップと、
サンプルクラウドと基準クラウドのボクセルを、マッチングアルゴリズムを用いて処理し、サンプル部品またはサブアセンブリのポーズを決定するステップ。 - 請求項23に記載の方法であって、提供するステップは、少なくとも部分的に少なくとも1つのセンサによって実行される方法。
- 請求項23に記載の方法であって、部品またはサブアセンブリが固定具に位置決め、及び、支持されている方法。
- 請求項23に記載の方法であって、基準クラウドとサンプルクラウドのベストフィットを表す3Dボクセルの整列クラウドを計算し、整列クラウドと基準クラウドの3Dグラフィックを3Dディスプレイに表示することをさらに含む方法。
- 請求項26に記載の方法であって、3Dディスプレイは、部品のサブアセンブリが、サブアセンブリ本体の他のサブアセンブリに対してずれているかどうかを識別するために使用される方法。
- 請求項26に記載の方法であって、3Dディスプレイは、整列クラウドのポーズを基準クラウドのポーズと視覚的に比較するために使用される方法。
- 請求項23に記載の方法であって、固定具は、部品または部品のサブアセンブリからなる方法。
- 請求項25に記載の方法であって、固定具は、移動可能なキャリアを備える方法。
- 請求項30に記載の方法であって、キャリアは、同じタイプの複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージラックである方法。
- 請求項30に記載の方法であって、キャリアが、同じタイプの個別に固定された複数の部品またはサブアセンブリを位置決めして支持するためのストレージカセットである方法。
- 請求項30に記載の方法であって、キャリアは、同一タイプの個別に固定された複数の車体を位置決めして支持するためのカーキャリアである方法。
- 請求項23に記載の方法であって、各センサは、部品またはサブアセンブリに照明を照射するために、既知のパターンの放射線を投射する方法。
- 請求項34に記載の方法であって、照明が、可視放射線のスペクトルの外側のパターンに集中している方法。
- 請求項23に記載の方法であって、3Dボクセルのクラウドは、ポーズ測定を改良するために、各ボクセルのカラーまたはグレースケール情報を含む方法。
- 請求項23に記載の方法であって、基準クラウドが実質的に基準面全体を表す方法。
- 請求項37に記載の方法であって、提供するステップは、部品またはサブアセンブリのCADモデルを提供するステップと、CADモデルを基準クラウドに変換するステップとを含む方法。
- 請求項37に記載の方法であって、提供するステップは、構築されている部品を剛体的に固定するステップと、複数の3Dセンサを用いて複数の視点から3Dボクセルの複数の基準クラウドをキャプチャするステップとを含む方法。
- 未知の姿勢を有する部品または部品のサブアセンブリに対して作業タスクを実行するために、再プログラム可能な産業用オートメーションマシンを制御するマシンビジョンベースのシステムであって、以下の構成を有する、
産業用オートメーションマシンに搭載された少なくとも1つの3Dセンサで、マシンは基準となる部品の既知の基準ポーズに基づいたノミナルモーションパスをたどるようにプログラムされており、
既知の基準ポーズを持つ基準部品またはサブアセンブリの基準表面を表す3Dボクセルの基準クラウドと、
基準部品またはサブアセンブリと同じ種類のサンプル部品またはサブアセンブリであって、基準ポーズとは異なる実際のポーズを持つサンプル部品またはサブアセンブリの対応する表面を表す3Dボクセルのサンプルクラウドを取得するために、マシンと取り付けられた各3Dセンサを一緒に移動させる機構と、
サンプル部品またはサブアセンブリのポーズを決定するために、マッチングアルゴリズムを利用して、サンプルおよび基準クラウドのボクセルを処理する少なくとも1つのプロセッサと、
基準からサンプルへの変換をノミナルモーションパスに適用し、マシンが基準ポーズと実際のポーズの差を補正したモーションパスをたどるように、マシンを再プログラムする制御ロジックと、を備えたシステム。 - 請求項40に記載のシステムであって、少なくとも1つの取り付けられた3Dセンサが、基準クラウドを提供するシステム。
- 請求項40に記載のシステムであって、部品またはサブアセンブリは、固定具に位置決めされて支持されているシステム。
- 請求項40に記載のシステムであって、少なくとも1つのプロセッサが、基準クラウドとサンプルクラウドのベストフィットを表す3Dボクセルの整列クラウドを計算し、整列クラウドと基準クラウドの3Dグラフィックを表示する3Dディスプレイをさらに備えるシステム。
- 請求項43に記載のシステムであって、3Dディスプレイは、部品のサブアセンブリがサブアセンブリ本体の他のサブアセンブリに対して所定の位置からずれているかどうかを識別するために使用されるシステム。
- 請求項43に記載のシステムであって、3Dディスプレイは、整列クラウドのポーズを基準クラウドのポーズと視覚的に比較するために使用されるシステム。
- 請求項42に記載のシステムであって、マシンは、少なくとも1つの3Dセンサが取り付けられたアームエンドツーリングを有するロボットであり、ロボットは、補正されたモーションパスに基づいて部品またはサブアセンブリを固定具から取り出すことが可能であるシステム。
- 請求項42に記載のシステムであって、マシンは、少なくとも1つの3Dセンサが取り付けられたアームエンドツーリングを有するロボットであり、ロボットは、補正されたモーションパスに基づいて部品を接合するために、部品のサブアセンブリのセムにシーラントを塗布することが可能であるシステム。
- 請求項42に記載のシステムであって、固定具は、部品または部品のサブアセンブリからなるシステム。
- 請求項42に記載のシステムであって、固定具は、移動可能なキャリアを備えるシステム。
- 請求項49に記載のシステムであって、キャリアは、同一タイプの複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージラックであるシステム。
- 請求項49に記載のシステムであって、キャリアは、同じタイプの複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージカセットであるシステム。
- 請求項49に記載のシステムであって、キャリアは、同じタイプの個別に固定された複数の車体を位置決めして支持するためのカーキャリアであるシステム。
- 請求項40に記載のシステムであって、各3Dセンサは、ハイブリッド2D/3Dセンサを備えるシステム。
- 請求項53に記載のシステムであって、各センサは、照明を用いて部品またはサブアセンブリに既知のパターンの放射を投影するシステム。
- 請求項54に記載のシステムであって、照明は、可視放射線のスペクトルの外側のパターンに集中しているシステム。
- 請求項40に記載のシステムであって、変換はベストフィット剛体変換であり、部品またはサブアセンブリは非剛体であり、制御ロジックは、ベストフィット剛体変換を適用した後に、ノミナルモーションパスにベストフィット非剛体変換を適用するシステム。
- 請求項40に記載のシステムであって、3Dボクセルのクラウドは、ポーズ測定を改良するために、各ボクセルのカラーまたはグレースケール情報を含むシステム。
- 請求項40に記載のシステムであって、基準クラウドは、基準表面全体を実質的に表しているシステム。
- 請求項58に記載のシステムであって、部品またはサブアセンブリのCADモデルをさらに含み、制御ロジックは、CADモデルを基準クラウドに変換するシステム。
- 請求項50に記載のシステムであって、構築された部品を剛体的に固定する固定具と、複数の視点から3Dボクセルの複数の基準クラウドを撮影する複数のセンサとをさらに備えるシステム。
- 請求項60に記載のシステムであって、複数の3Dセンサは、それと一緒に移動するロボットのアームエンドツーリングに取り付けられ、機構は、ロボットに3Dセンサを複数の視点に移動させるシステム。
- 未知のポーズを有する部品または部品のサブアセンブリの3Dポーズを測定するマシンビジョンベースのシステムであって
既知の基準ポーズを持つ基準部品またはサブアセンブリの基準表面を表す3Dボクセルの基準クラウドと、
基準部品またはサブアセンブリと同じ種類のサンプル部品またはサブアセンブリの対応する表面を表し、基準ポーズとは異なる実際のポーズを持つ3Dボクセルのサンプルクラウドを取得する少なくとも1つの2D/3Dハイブリッドセンサと、
サンプルクラウドと基準クラウドのボクセルを、マッチングアルゴリズムを用いて処理し、サンプル部品またはサブアセンブリの姿勢を決定する、少なくとも1つのプロセッサと、を備えるシステム。 - 請求項62に記載のシステムであって、少なくとも1つのセンサが、基準クラウドを提供することを特徴とするシステム。
- 請求項62に記載のシステムであって、部品またはサブアセンブリは、固定具で位置決めされて支持されているシステム。
- 請求項62に記載のシステムであって、少なくとも1つのプロセッサは、基準クラウドおよびサンプルクラウドのベストフィットを表す3Dボクセルの整列クラウドを計算し、システムは、整列クラウドおよび基準クラウドの3Dグラフィックを表示する3Dディスプレイをさらに備えるシステム。
- 請求項65に記載のシステムであって、3Dディスプレイは、部品のサブアセンブリがサブアセンブリ本体の他のサブアセンブリに対してずれているかどうかを識別するために使用されるシステム。
- 請求項65に記載のシステムであって、3Dディスプレイは、整列クラウドのポーズを基準クラウドのポーズと視覚的に比較するために使用されるシステム。
- 請求項64に記載のシステムであって、固定具は、部品または部品のサブアセンブリからなるシステム。
- 請求項64に記載のシステムであって、固定具は、移動可能なキャリアを備えるシステム。
- 請求項69に記載のシステムであって、キャリアは、同一タイプの複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージラックであるシステム。
- 請求項69に記載のシステムであって、キャリアは、同じタイプの複数の個別に固定された部品またはサブアセンブリを位置決めして支持するためのストレージカセットであるシステム。
- 請求項69に記載のシステムであって、キャリアは、同じタイプの複数の個別に固定された車体を位置決めして支持するカーキャリアであるシステム。
- 請求項62に記載のシステムであって、各センサは、部品またはサブアセンブリに照明によって既知のパターンの放射を投射するシステム。
- 請求項73に記載のシステムであって、照明は、可視放射線のスペクトルの外側のパターンに集中しているシステム。
- 請求項62に記載のシステムであって、3Dボクセルのクラウドは、ポーズ測定を改良するために、各ボクセルのカラーまたはグレースケール情報を含むシステム。
- 請求項62に記載のシステムであって、基準クラウドは、実質的に基準面全体を表しているシステム。
- 請求項76に記載のシステムであって、部品またはサブアセンブリのCADモデルをさらに備え、制御ロジックがCADモデルを基準クラウドに変換するシステム。
- 請求項76に記載のシステムであって、構築された部品を剛体的に固定する固定具と、複数の視点から3Dボクセルの複数の基準クラウドをキャプチャする複数のセンサとをさらに備えるシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/174,554 | 2018-10-30 | ||
US16/174,554 US10776949B2 (en) | 2018-10-30 | 2018-10-30 | Machine vision-based method and system for measuring 3D pose of a part or subassembly of parts |
PCT/US2019/058440 WO2020092292A1 (en) | 2018-10-30 | 2019-10-29 | Machine vision-based method and system for measuring 3d pose of a part or subassembly of parts |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022506235A true JP2022506235A (ja) | 2022-01-17 |
JP7362146B2 JP7362146B2 (ja) | 2023-10-17 |
Family
ID=70327567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523448A Active JP7362146B2 (ja) | 2018-10-30 | 2019-10-29 | 部品の一部又はサブアセンブリの3dポーズを測定するためのマシンビジョンベースの方法とシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10776949B2 (ja) |
EP (1) | EP3874227A4 (ja) |
JP (1) | JP7362146B2 (ja) |
CA (1) | CA3117796A1 (ja) |
WO (1) | WO2020092292A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108453646A (zh) * | 2018-04-20 | 2018-08-28 | 深圳市道通科技股份有限公司 | 装夹装置及汽车标定设备 |
US11436753B2 (en) | 2018-10-30 | 2022-09-06 | Liberty Reach, Inc. | Machine vision-based method and system to facilitate the unloading of a pile of cartons in a carton handling system |
US11892184B2 (en) * | 2018-12-03 | 2024-02-06 | Mitsubishi Electric Corporation | Facility apparatus control device and facility apparatus control method |
IT201900000995A1 (it) * | 2019-01-23 | 2020-07-23 | Nuovo Pignone Tecnologie Srl | Apparecchiatura robotica industriale con generazione di percorso di lavorazione migliorata e metodo per azionare un' apparecchiatura robotica industriale secondo un percorso di lavorazione migliorato |
DE102019111760A1 (de) * | 2019-05-07 | 2020-11-12 | Dürr Systems Ag | Beschichtungsverfahren und entsprechende Beschichtungsanlage |
CN112697058A (zh) * | 2020-11-27 | 2021-04-23 | 北京机科国创轻量化科学研究院有限公司 | 一种基于机器视觉的大尺寸板材装配间隙在线测量系统与方法 |
EP4275174A1 (en) * | 2021-01-05 | 2023-11-15 | Liberty Reach Inc. | Machine vision-based method and system to facilitate the unloading of a pile of cartons in a carton handling system |
US11826768B2 (en) | 2021-03-11 | 2023-11-28 | Ford Global Technologies, Llc | Method and apparatus for adaptive control and real-time edge tracking of adhesive and sealer dispensing |
EP4352451A1 (en) * | 2021-05-20 | 2024-04-17 | Eigen Innovations Inc. | Texture mapping to polygonal models for industrial inspections |
CN113715016B (zh) * | 2021-08-17 | 2023-05-09 | 嘉兴市敏硕智能科技有限公司 | 一种基于3d视觉的机器人抓取方法、系统、装置及介质 |
US11897145B1 (en) * | 2022-08-10 | 2024-02-13 | Wilder Systems Inc. | Part modeling for path generation to guide robotic end effector |
WO2024059953A1 (en) * | 2022-09-23 | 2024-03-28 | Eigen Innovations Inc. | Inspection camera deployment solution |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3180205A (en) | 1960-06-09 | 1965-04-27 | Itt | Distance measuring apparatus having a digital output circuit |
US4195221A (en) | 1978-07-03 | 1980-03-25 | The United States Of America As Represented By The Secretary Of The Navy | Scanning focused local oscillator optical heterodyne imaging system |
US4373804A (en) | 1979-04-30 | 1983-02-15 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects |
US5081530A (en) | 1987-06-26 | 1992-01-14 | Antonio Medina | Three dimensional camera and range finder |
US6751344B1 (en) | 1999-05-28 | 2004-06-15 | Champion Orthotic Investments, Inc. | Enhanced projector system for machine vision |
JP4001600B2 (ja) * | 2002-06-28 | 2007-10-31 | 富士通株式会社 | 3次元イメージ比較プログラム、3次元イメージ比較方法、および3次元イメージ比較装置 |
JP4087841B2 (ja) * | 2004-12-21 | 2008-05-21 | ファナック株式会社 | ロボット制御装置 |
KR101181024B1 (ko) | 2006-12-12 | 2012-09-07 | 기아자동차주식회사 | 적재부품의 하적장치 |
JP2008279549A (ja) | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | ワーク搬送システムおよびワーク搬送方法 |
EP2236441B1 (de) * | 2009-04-01 | 2017-06-07 | Walter Winkler | Anlage und Verfahren zur Kommissionierung von Waren |
US20130329012A1 (en) * | 2012-06-07 | 2013-12-12 | Liberty Reach Inc. | 3-d imaging and processing system including at least one 3-d or depth sensor which is continually calibrated during use |
US9138895B2 (en) | 2014-01-10 | 2015-09-22 | Recognition Robotics, Inc. | Method for picking up an article using a robot arm and associated system |
US9862090B2 (en) * | 2014-07-25 | 2018-01-09 | California Institute Of Technology | Surrogate: a body-dexterous mobile manipulation robot with a tracked base |
JP6497953B2 (ja) | 2015-02-03 | 2019-04-10 | キヤノン株式会社 | オフライン教示装置、オフライン教示方法及びロボットシステム |
US9740191B2 (en) * | 2015-02-12 | 2017-08-22 | The Boeing Company | Location calibration for automated production manufacturing |
US9868212B1 (en) | 2016-02-18 | 2018-01-16 | X Development Llc | Methods and apparatus for determining the pose of an object based on point cloud data |
JP6681747B2 (ja) | 2016-03-02 | 2020-04-15 | 株式会社神戸製鋼所 | アタッチメント認識装置 |
US9990685B2 (en) | 2016-03-21 | 2018-06-05 | Recognition Robotics, Inc. | Automated guidance system and method for a coordinated movement machine |
US10591277B2 (en) | 2016-07-28 | 2020-03-17 | Liberty Reach Inc. | Method and system for measuring outermost dimension of a vehicle positioned at an inspection station |
US10049443B2 (en) | 2016-08-29 | 2018-08-14 | Liberty Reach Inc. | Method and system for determining the presence or absence of a part of an assembly within a work cell |
US20180120218A1 (en) | 2016-11-02 | 2018-05-03 | Liberty Reach Inc. | Method, system and optical sensor assembly for optically inspecting an object located in an environment having airborne particulate matter or vapor capable of coating an optically transparent window of a sensor of the assembly |
KR102647351B1 (ko) * | 2017-01-26 | 2024-03-13 | 삼성전자주식회사 | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 |
US10499793B2 (en) | 2017-02-17 | 2019-12-10 | Align Technology, Inc. | Longitudinal analysis and visualization under limited accuracy system |
-
2018
- 2018-10-30 US US16/174,554 patent/US10776949B2/en active Active
-
2019
- 2019-10-29 EP EP19877660.1A patent/EP3874227A4/en active Pending
- 2019-10-29 JP JP2021523448A patent/JP7362146B2/ja active Active
- 2019-10-29 WO PCT/US2019/058440 patent/WO2020092292A1/en unknown
- 2019-10-29 CA CA3117796A patent/CA3117796A1/en active Pending
-
2020
- 2020-09-15 US US17/020,910 patent/US11461926B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CA3117796A1 (en) | 2020-05-07 |
EP3874227A1 (en) | 2021-09-08 |
US11461926B2 (en) | 2022-10-04 |
US20200134860A1 (en) | 2020-04-30 |
EP3874227A4 (en) | 2022-08-03 |
WO2020092292A1 (en) | 2020-05-07 |
US10776949B2 (en) | 2020-09-15 |
JP7362146B2 (ja) | 2023-10-17 |
US20200410712A1 (en) | 2020-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7362146B2 (ja) | 部品の一部又はサブアセンブリの3dポーズを測定するためのマシンビジョンベースの方法とシステム | |
US10875187B2 (en) | Robotic arm camera system and method | |
CN110136208B (zh) | 一种机器人视觉伺服系统的联合自动标定方法及装置 | |
US9796089B2 (en) | Supervised autonomous robotic system for complex surface inspection and processing | |
US20080069435A1 (en) | System and method of determining object pose | |
EP3290860B1 (en) | Method and system for determining the presence or absence of a part of an assembly within a work cell | |
US20220024042A1 (en) | Method and system for robot control using visual feedback | |
CN101973032A (zh) | 一种焊接机器人线结构光视觉传感器离线编程系统和方法 | |
CN108627515B (zh) | 计算成为检查系统的检查对象外的图像区域的装置及方法 | |
US20190255706A1 (en) | Simulation device that simulates operation of robot | |
JP6973444B2 (ja) | 制御システム、情報処理装置および制御方法 | |
US20220124260A1 (en) | Combined UV and Color Imaging System | |
CN116079732A (zh) | 基于激光跟踪仪和双目视觉混合引导的舱内组件装配方法 | |
Brecher et al. | 3D assembly group analysis for cognitive automation | |
CN218098822U (zh) | 一种应用于航空发动机的保险丝状态检测设备 | |
Zaki et al. | Trajectory planning of collaborative robotic contact-based applications | |
WO2022208963A1 (ja) | ロボット制御用のキャリブレーション装置 | |
Pozo León et al. | Vision-driven assembly robot | |
Guo et al. | Calibration of refueling robot based on binocular vision | |
CN117754589A (zh) | 标定方法、标定装置、计算机设备和计算机可读存储介质 | |
JP2022006427A (ja) | 撮像システム構築装置 | |
Campos | Design and implementation of a methodology to integrate the vision and robot technologies | |
Jatko et al. | Crusader Automated Docking System Phase 3 report |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7362146 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |