JP2017123147A - ロボットを案内するための特徴位置の特定 - Google Patents
ロボットを案内するための特徴位置の特定 Download PDFInfo
- Publication number
- JP2017123147A JP2017123147A JP2016204026A JP2016204026A JP2017123147A JP 2017123147 A JP2017123147 A JP 2017123147A JP 2016204026 A JP2016204026 A JP 2016204026A JP 2016204026 A JP2016204026 A JP 2016204026A JP 2017123147 A JP2017123147 A JP 2017123147A
- Authority
- JP
- Japan
- Prior art keywords
- electromagnetic sensor
- feature
- geometric shape
- point cloud
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 131
- 238000000034 method Methods 0.000 claims description 61
- 238000003708 edge detection Methods 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000013461 design Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 102100034761 Cilia- and flagella-associated protein 418 Human genes 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 101100439214 Homo sapiens CFAP418 gene Proteins 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010297 mechanical methods and process Methods 0.000 description 1
- 230000005226 mechanical processes and functions Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/144—Image acquisition using a slot moved over the image; using discrete sensing elements at predetermined points; using automatic curve following means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40033—Assembly, microassembly
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
【解決手段】特徴検出システムは、異なる角度又は視点から特徴の画像をキャプチャする少なくとも2つのカメラを含む。これらの画像から、システムは画像の構成要素の3D点群を生成する。点群上に特徴の境界を直接投影する代わりに、3D点群における所定の幾何学的形状を識別する。システムは次に、特徴の境界の画素位置を、点群における識別された幾何学的形状上に投影する。こうすることで、製造プロセスを実施するために次にロボットによって使用されうる特徴の3D座標が作成される。
【選択図】図1
Description
第1の電磁センサとの固定された空間関係に配置された第2の電磁センサと、
プロセッサと、
メモリに保存された検出ロジックと
を備え、
プロセッサによって実行された時に、メモリに保存された検出ロジックが、
第1の電磁センサ及び第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて3D 点群を生成し、
3D点群において少なくとも1つの所定の幾何学的形状を識別し、
第1の電磁センサ及び前記第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて、特徴のエッジに対応する境界画素を識別し、
境界画素に対応する特徴の3D位置を識別するために、識別された幾何学的形状上に境界画素の位置を投影する
ように動作可能である、
特徴検出システム。
3D点群において所定の幾何学的形状の複数のインスタンスを識別することと、
所定の幾何学的形状のインスタンスを、第1の電磁センサと第2の電磁センサの少なくとも1つの視覚領域内で、構成要素の設計モデルのモデル形状と照合することと、
特徴を含むモデル形状と一致する所定の幾何学的形状のインスタンスを識別することによって、識別された幾何学的形状を選択することと
を含む、条項1に記載の特徴検出システム。
ランダムドットパターンを放射するように構成されたレーザーを備え、
可視光カメラによってキャプチャされた画像は、ランダムドットパターンの少なくとも一部を含む、条項1に記載の特徴検出システム。
第1の画像においてエッジ検出を実施することを含み、
境界画素が、2D画像面上に位置している、条項4に記載の特徴検出システム。
第1の電磁センサによってキャプチャされた第1の画像におけるオブジェクトの位置を、第2の電磁センサによってキャプチャされた第2の画像におけるオブジェクトの位置と比較することによって、オブジェクトと、第1の電磁センサ及び第2の電磁センサとの間の距離を示す視差マップを生成することと、
視差マップに基づいて3D点群を生成することとを含む、条項1に記載の特徴検出システム。
特徴の3D位置を特徴の予測される幾何学的形状に適合させるように構成され、3D位置のうちの幾つかは、外れ値として識別され無視される、条項1に記載の特徴検出システム。
3D点群において少なくとも1つの所定の幾何学的形状を識別することと、
第1の電磁センサと第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて、特徴のエッジに対応する境界画素を識別することと、
境界画素に対応する特徴の3D位置を識別するために、識別された幾何学的形状上に境界画素の位置を投影することと
を含む方法。
3D点群において所定の幾何学的形状の複数のインスタンスを識別することと、
所定の幾何学的形状のインスタンスを、第1の電磁センサと第2の電磁センサの少なくとも1つの視覚領域内で、構成要素の設計モデルのモデル形状と照合することと、
特徴を含むモデル形状と一致する所定の幾何学的形状のインスタンスを識別することによって、識別された幾何学的形状を選択することと
を含む、条項8に記載の方法。
方法が更に、ランダムドットパターンを放射するレーザーを起動することを含み、可視光カメラによってキャプチャされた画像が、ランダムドットパターンの少なくとも一部を含む、条項8に記載の方法。
識別された幾何学的形状に境界画素の位置を投影することが、係数によって定義される面に境界画素の位置を投影することとを含む、条項10に記載の方法。
第3の画像においてエッジ検出を実施すること
を含み、
境界画素は2D画像面に位置している、条項8に記載の方法。
第1の電磁センサによってキャプチャされた第1の画像におけるオブジェクトの位置を、第2の電磁センサによってキャプチャされた第2の画像におけるオブジェクトの位置と比較することによって、オブジェクトと、第1の電磁センサ及び第2の電磁センサとの間の距離を示す視差マップを生成することと、
視差マップに基づいて3D点群を生成することと
を含む、条項8に記載の方法。
一又は複数のコンピュータプロセッサによって、
第1の電磁センサ及び第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて3D 点群を生成することであって、第1の電磁センサが第2の電磁センサとの固定された空間関係に配置される、生成することと、
3D点群において少なくとも1つの所定の幾何学的形状を識別することと、
第1の電磁センサ及び前記第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて、特徴のエッジに対応する境界画素を識別することと、
境界画素に対応する特徴の3D位置を識別するために、識別された幾何学的形状上に境界画素の位置を投影することと
を実行可能なコンピュータ可読プログラムコードを含む、コンピュータ可読記憶媒体。
3D点群において所定の幾何学的形状の複数のインスタンスを識別することと、
所定の幾何学的形状のインスタンスを、第1の電磁センサと第2の電磁センサの少なくとも1つの視覚領域内で、構成要素の設計モデルのモデル形状と照合することと、
特徴を含むモデル形状と一致する所定の幾何学的形状のインスタンスを識別することによって、識別された幾何学的形状を選択することと
を実行させることを含む、条項14に記載のコンピュータ可読記憶媒体。
ランダムドットパターンを放射するレーザーを起動すること
を実行させることを含み、可視光カメラによってキャプチャされた画像は、ランダムドットパターンの少なくとも一部を含む、条項14に記載のコンピュータ可読記憶媒体。
面適合技法を使用して、識別された幾何学的形状に対応する係数を決定すること
を実行させることを更に含み、
識別された幾何学的形状の境界画素の位置を投影することが、境界画素の位置を係数によって定義された面に投影することを含む、条項14に記載のコンピュータ可読記憶媒体。
第3の画像においてエッジ検出を実施すること
を含み、境界画素は2D画像面に位置している、条項14に記載のコンピュータ可読記憶媒体。
第1の電磁センサによってキャプチャされた第1の画像におけるオブジェクトの位置を、第2の電磁センサによってキャプチャされた第2の画像におけるオブジェクトの位置と比較することによって、第1の電磁マップ及び第2の電磁マップとオブジェクトとの間の距離を示す視差マップを生成することと、
視差マップに基づいて3D点群を生成することと
を実行させることを含む、条項14に記載のコンピュータ可読記憶媒体。
Claims (13)
- 第1の電磁センサと、
前記第1の電磁センサとの固定された空間関係に配置された第2の電磁センサと、
プロセッサと、
メモリに保存された検出ロジックと
を備え、
前記プロセッサによって実行された時に、前記メモリに保存された検出ロジックが、
前記第1の電磁センサ及び前記第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて3D点群を生成し、
前記3D点群において少なくとも1つの所定の幾何学的形状を識別し、
前記第1の電磁センサ及び前記第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて、特徴のエッジに対応する境界画素を識別し、
前記境界画素に対応する前記特徴の3D位置を識別するために、前記識別された幾何学的形状上に前記境界画素の位置を投影する
ように動作可能である、
特徴検出システム。 - 前記3D点群において前記所定の幾何学的形状を識別することが、
前記3D点群において前記所定の幾何学的形状の複数のインスタンスを識別することと、
前記所定の幾何学的形状の前記インスタンスを、前記第1の電磁センサと前記第2の電磁センサの少なくとも1つの視覚領域内で、構成要素の設計モデルのモデル形状と照合することと、
前記特徴を含むモデル形状と一致する前記所定の幾何学的形状のインスタンスを識別することによって、前記識別された幾何学的形状を選択することと
を含む、請求項1に記載の特徴検出システム。 - 前記第1の電磁センサと前記第2の電磁センサはそれぞれ可視光カメラであり、前記特徴検出システムが更に、
ランダムドットパターンを放射するように構成されたレーザーを備え、
前記可視光カメラによってキャプチャされた画像は、前記ランダムドットパターンの少なくとも一部を含む、請求項1に記載の特徴検出システム。 - 前記境界画素が、前記可視光カメラのうちの1つによりキャプチャされた第1の画像を使用して識別され、前記第1の画像は、前記レーザーが動作を停止している時にキャプチャされる、請求項3に記載の特徴検出システム。
- 前記境界画素を識別することが、
前記第1の画像においてエッジ検出を実施することを含み、
前記境界画素が、2D画像面上に位置している、請求項4に記載の特徴検出システム。 - 前記3D点群を生成することが、
前記第1の電磁センサによってキャプチャされた第1の画像におけるオブジェクトの位置を、前記第2の電磁センサによってキャプチャされた第2の画像における前記オブジェクトの位置と比較することによって、前記オブジェクトと、前記第1の電磁センサ及び前記第2の電磁センサとの間の距離を示す視差マップを生成することと、
前記視差マップに基づいて前記3D点群を生成することとを含む、請求項1に記載の特徴検出システム。 - 前記検出ロジックが、
前記特徴の前記3D位置を前記特徴の予測される幾何学的形状に適合させるように構成され、前記3D位置のうちの幾つかは、外れ値として識別され無視される、請求項1に記載の特徴検出システム。 - 第1の電磁センサと第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて3D点群を生成することであって、前記第1の電磁センサは、前記第2の電磁センサとの固定された空間関係に配置されている、生成することと、
前記3D点群において少なくとも1つの所定の幾何学的形状を識別することと、
前記第1の電磁センサと前記第2の電磁センサのうちの少なくとも1つによってキャプチャされたデータに基づいて、特徴のエッジに対応する境界画素を識別することと、
前記境界画素に対応する前記特徴の3D位置を識別するために、前記識別された幾何学的形状上に前記境界画素の位置を投影することと
を含む方法。 - 前記3D点群において前記所定の幾何学的形状を識別することが、
前記3D点群において前記所定の幾何学的形状の複数のインスタンスを識別することと、
前記所定の幾何学的形状の前記インスタンスを、前記第1の電磁センサと前記第2の電磁センサの少なくとも1つの視覚領域内で、構成要素の設計モデルのモデル形状と照合することと、
前記特徴を含むモデル形状と一致する前記所定の幾何学的形状のインスタンスを識別することによって、前記識別された幾何学的形状を選択することと
を含む、請求項8に記載の方法。 - 前記第1の電磁センサと前記第2の電磁センサはそれぞれ可視光カメラであり、
前記方法が更に、ランダムドットパターンを放射するレーザーを起動することを含み、前記可視光カメラによってキャプチャされた画像が、前記ランダムドットパターンの少なくとも一部を含む、請求項8に記載の方法。 - 面適合技法を使用して、前記識別された幾何学的形状に対応する係数を決定することであって、前記係数は自由空間における面を表す、決定することを更に含み、
前記識別された幾何学的形状に前記境界画素の前記位置を投影することが、前記係数によって定義される前記面に前記境界画素の前記位置を投影することとを含む、請求項10に記載の方法。 - 前記境界画素を識別することが、
第3の画像においてエッジ検出を実施することを含み、
前記境界画素は2D画像面に位置している、
請求項8に記載の方法。 - 前記3D点群を生成することが、
前記第1の電磁センサによってキャプチャされた第1の画像におけるオブジェクトの位置を、前記第2の電磁センサによってキャプチャされた第2の画像における前記オブジェクトの位置と比較することによって、前記オブジェクトと、前記第1の電磁センサ及び前記第2の電磁センサとの間の距離を示す視差マップを生成することと、
前記視差マップに基づいて前記3D点群を生成することと
を含む、請求項8に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/930,931 US10002431B2 (en) | 2015-11-03 | 2015-11-03 | Locating a feature for robotic guidance |
US14/930,931 | 2015-11-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017123147A true JP2017123147A (ja) | 2017-07-13 |
JP6871712B2 JP6871712B2 (ja) | 2021-05-12 |
Family
ID=56979336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016204026A Active JP6871712B2 (ja) | 2015-11-03 | 2016-10-18 | ロボットを案内するための特徴位置の特定 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10002431B2 (ja) |
EP (1) | EP3166043B1 (ja) |
JP (1) | JP6871712B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109655009A (zh) * | 2017-10-10 | 2019-04-19 | 南京金正奇交通设备有限责任公司 | 一种高铁构件快速检测系统 |
EP3495202B1 (en) * | 2017-12-05 | 2020-08-19 | Guima Palfinger S.A.S. | Truck-mountable detection system |
US10664974B2 (en) | 2018-02-23 | 2020-05-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for object detection using edge characteristics |
JP2019158691A (ja) * | 2018-03-15 | 2019-09-19 | セイコーエプソン株式会社 | 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 |
US10657419B2 (en) * | 2018-03-28 | 2020-05-19 | The Boeing Company | Machine vision and robotic installation systems and methods |
US10935365B2 (en) * | 2018-04-18 | 2021-03-02 | Faro Technologies, Inc. | Mounting arrangement for 3D sensor |
US11040452B2 (en) * | 2018-05-29 | 2021-06-22 | Abb Schweiz Ag | Depth sensing robotic hand-eye camera using structured light |
US10964053B2 (en) * | 2018-07-02 | 2021-03-30 | Microsoft Technology Licensing, Llc | Device pose estimation using 3D line clouds |
US11029146B2 (en) | 2018-10-18 | 2021-06-08 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
US10839556B2 (en) | 2018-10-23 | 2020-11-17 | Microsoft Technology Licensing, Llc | Camera pose estimation using obfuscated features |
JP2020149672A (ja) * | 2019-03-11 | 2020-09-17 | 株式会社ミツトヨ | 測定結果表示装置及びプログラム |
US10488185B1 (en) * | 2019-03-14 | 2019-11-26 | The Boeing Company | Methods and systems for characterizing a surface of a structural component |
US11120280B2 (en) | 2019-11-15 | 2021-09-14 | Argo AI, LLC | Geometry-aware instance segmentation in stereo image capture processes |
CN111156983B (zh) * | 2019-11-19 | 2023-06-13 | 石化盈科信息技术有限责任公司 | 目标设备定位方法、装置、存储介质以及计算机设备 |
FR3105053B1 (fr) * | 2019-12-20 | 2022-09-09 | Airbus Operations Sas | Procédé de vissage ou de sertissage automatisé et dispositif pour sa mise en œuvre |
CN113103226A (zh) * | 2021-03-08 | 2021-07-13 | 同济大学 | 一种面向陶瓷素坯加工制造的视觉引导机器人系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006048725A1 (de) * | 2006-10-16 | 2008-04-17 | Robert Bosch Gmbh | Verfahren zum Ermitteln der Drehachse eines Fahrzeugrades |
US9098908B2 (en) * | 2011-10-21 | 2015-08-04 | Microsoft Technology Licensing, Llc | Generating a depth map |
US9324190B2 (en) * | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
CN104346608B (zh) | 2013-07-26 | 2017-09-08 | 株式会社理光 | 稀疏深度图稠密化方法和装置 |
TWI534755B (zh) * | 2013-11-20 | 2016-05-21 | 財團法人資訊工業策進會 | 三維立體模型之建立方法和裝置 |
US9436987B2 (en) * | 2014-04-30 | 2016-09-06 | Seiko Epson Corporation | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images |
-
2015
- 2015-11-03 US US14/930,931 patent/US10002431B2/en active Active
-
2016
- 2016-08-16 EP EP16184247.1A patent/EP3166043B1/en active Active
- 2016-10-18 JP JP2016204026A patent/JP6871712B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP6871712B2 (ja) | 2021-05-12 |
US20170124714A1 (en) | 2017-05-04 |
EP3166043B1 (en) | 2018-12-05 |
EP3166043A1 (en) | 2017-05-10 |
US10002431B2 (en) | 2018-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6871712B2 (ja) | ロボットを案内するための特徴位置の特定 | |
TWI566204B (zh) | 三維物件識別技術 | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
US10867407B2 (en) | System and methods for extrinsic calibration of cameras and diffractive optical elements | |
US10452949B2 (en) | System and method for scoring clutter for use in 3D point cloud matching in a vision system | |
CN112652016B (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
JP5539138B2 (ja) | シーンにおける物体の姿勢を求めるためのシステム及び方法 | |
KR102011564B1 (ko) | 비전 시스템에서 3d 정렬 알고리즘의 자동 선택을 위한 시스템 및 방법 | |
US9639942B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
CN108495113B (zh) | 用于双目视觉系统的控制方法和装置 | |
KR20220137926A (ko) | 복합 3차원 블롭 도구 및 그 작동 방법 | |
Kinnell et al. | Autonomous metrology for robot mounted 3D vision systems | |
KR102270922B1 (ko) | 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 | |
US20220088784A1 (en) | Method and Apparatus for Monitoring Robot System | |
KR102427739B1 (ko) | 거울들을 사용하는 멀티 카메라들의 캘리브레이션을 위한 방법 및 장치 | |
KR101747350B1 (ko) | 비주얼 서보잉을 위한 객체의 좌표 인식 방법 | |
CN112819805B (zh) | 一种基于一字激光的物体位置识别方法及装置 | |
Kim et al. | Pose initialization method of mixed reality system for inspection using convolutional neural network | |
KR20180107916A (ko) | 고정된 패턴 마스크를 이용하여 블랙, 화이트를 프로젝션을 수행하는 방법 및 시스템 | |
KR20180107917A (ko) | 서로 다른 편광에 대응하는 패턴 및 인버스 패턴을 이용하는 방법 및 장치 | |
KR101813979B1 (ko) | 가정된 캘리브레이션 모델 없이 측정된 데이터를 이용하여 캘리브레이션을 수행하는 방법 및 상기 방법을 수행하는 3차원 스캐너 캘리브레이션 시스템 | |
Xing et al. | Target-free Extrinsic Calibration of Event-LiDAR Dyad using Edge Correspondences | |
CA3173451A1 (en) | System for welding at least a portion of a piece and related methods | |
CN112819805A (zh) | 一种基于一字激光的物体位置识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6871712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |