JP2022028860A - ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 - Google Patents
ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2022028860A JP2022028860A JP2021190600A JP2021190600A JP2022028860A JP 2022028860 A JP2022028860 A JP 2022028860A JP 2021190600 A JP2021190600 A JP 2021190600A JP 2021190600 A JP2021190600 A JP 2021190600A JP 2022028860 A JP2022028860 A JP 2022028860A
- Authority
- JP
- Japan
- Prior art keywords
- information
- edge
- image
- alignment
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 230000008569 process Effects 0.000 claims abstract description 49
- 238000001514 detection method Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000000513 principal component analysis Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012854 evaluation process Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 16
- 230000036544 posture Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 8
- 230000000712 assembly Effects 0.000 description 6
- 238000000429 assembly Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000014616 translation Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003908 quality control method Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- YLJREFDVOIBQDA-UHFFFAOYSA-N tacrine Chemical compound C1=CC=C2C(N)=C(CCCC3)C3=NC2=C1 YLJREFDVOIBQDA-UHFFFAOYSA-N 0.000 description 2
- 229960001685 tacrine Drugs 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Architecture (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
ソースポイントクラウド内の各点について、リファレンスポイントクラウド内の最も近い点を見いだす。
平均二乗誤差コスト関数を用いて、各ソース点を先行ステップで見いだされた一致に最も良くアライメントする回転と並進の組み合わせを推定する。
得られた変換を使用してソース点を変換する。
点の再関連付けを反復する。
ここで、diはi番目の目標位置、siはi番目のソース位置、niはi番目のソース法線、Mはソースを目標にマッピングする姿勢、そして・はドット積を表す。
記号uiはi番目のエッジ方向であり、×はクロス積を表す。概して上記の関係は当業者には明白なはずである。好ましい実施形態においてハイブリッドメトリックHは、次式からなる関係に寄与している。
これによりこの手法は、3つの固有ベクトルと固有値を出力する。固有値は、固有値の固有ベクトルの方向に存在する情報量を示す数値を提供する(ゼロに近い固有値は情報が少なく、大きい固有値は情報が多いことを示す)。いつ十分な情報が存在するかに関するカットオフを決定するために適切な閾値を使用できる。
ここで、基本分布曲線710は図7のグラフ700に示されており、3つの定数a、b及びcは、ガウス分布の形状を定義する数値である。最初のaは、曲線の最高点の値である。bはx軸に沿った並進を定義し、cは曲線の幅を定義する。例示的な実装において、aは10に、bはゼロに、及びCは2に設定できる(従って指数の分母は8に等しい)。しかしながら本使用例では例示的な固有値λは常に正であるため曲線710の左側を無視して、図示されたグラフ720と、図7Aの関連する正値曲線722を得ることができる。これは本明細書に記載するシステム及び方法の一実施形態で使用するための例示的な分布を表している。X軸は固有値を表し、Y軸は、この方向を考慮した場合にエッジの重みを乗算するために使用される定数である。従ってこの場合には、特定の固有方向の固有値が非常に小さいと重み乗数は約10に等しくなり、特定の固有方向の固有値が非常に大きいと重み乗数は0に接近できる。従ってエッジが固有値の大きい方向で情報に寄与する場合(即ちその方向に対して既に重要な情報が存在する場合)、そのエッジは低い重みが割り当てられる(重み乗数が小さいので)。逆に、エッジが固有値の小さい方向(即ち情報がほとんど又は全く利用できない方向)で情報に寄与する場合は、その重みは大きい(重み乗数が大きいので)。より一般的に、代替実施形態において(a)入力が小さい場合は出力が大きい、(b)入力が大きい場合は出力が小さい、(c)連続的である、及び(d)単調に減少するなどの種々の関数を使用できる。一例では、下方に傾斜した線が実行可能な機能を提供できる。従って上記のガウス関数は、パラメータa、b及びcに対して使用される特定の値に基づいて、所望の目的を達成するための便利で効果的なメカニズムである。パラメータは、所望の結果を達成するために別の値に設定でき、例えばcは2.5に設定することができる。
ここで、uはエッジ、viはi番目の固有ベクトルである。上記の式は2つの部分を含む。第1の部分は、それぞれのエッジが与えられた方向でどれだけの情報に寄与するか、そしてその方向は重みの全体的計算にどれほど重要であるかに関係する。従って当該エッジが重要な情報に寄与し、その方向が法線によって提供されない場合は、計算された重みは高くなるはずである。逆に、それ以外のいかなる情報と方向の重要性を組み合わせによっても、計算された重みは低くなるはずである。また、エッジと固有ベクトルの間の角度の正弦は、2つのベクトルがどれほど垂直であるかの尺度であり、それによりエッジが当該方向でどれだけの情報に寄与するかを測定する(エッジはそれ自身に対して垂直な方向で情報に寄与するので)。上記の式の第2の部分は、当該方向にどれほど重要であるかに関係し、固有値が小さければ、法線は当該方向で重要な情報に寄与せず、従って値G(λ)は大きくなるであろう。これは固有値λに対するg(λ)の例示的なプロット710を示す図7のグラフ700で図解されている。λの値が増すにつれて(この例では約λ=7より上)、g(λ)の値はゼロ(0)に近づくことに留意されたい。
Claims (20)
- 3Dカメラアセンブリによって取得したオブジェクトの3D画像内の3Dモデルの姿勢を検出するための方法であって、
3Dモデルをビジョンシステムプロセッサに提供するステップと、
取得した3D画像をビジョンシステムプロセッサに提供するステップと、
前記プロセッサを用いて前記姿勢を検出するステップであって、前記姿勢は前記3Dモデル内の3Dエッジを前記3D画像内の3Dエッジに一致させ、同時に、前記3Dモデル内の3D法線を前記3D画像内の3D法線に一致させるものである、前記検出するステップと、
を含む上記方法。 - 前記検出するステップは、画像内の3Dエッジの使用を3D法線に対比して重み付けするために、3D画像内の3Dエッジと3D画像内の3D法線に重み付けを適用することを含む、請求項1に記載の方法。
- 前記検出するステップは、(a)オブジェクトの面は3D法線に対して平行な方向におけるアライメントに関する情報を提供するか、及び(b)オブジェクトのエッジはエッジに対して垂直な1つ以上の方向におけるアライメントに関する情報を提供するかを、それぞれ決定する、請求項2に記載の方法。
- 更に、点対線メトリックを用いて、3Dモデル内の3Dエッジを3D画像内の3Dエッジに一致させることを含む、請求項1に記載の方法。
- 更に、点対面メトリックを用いて、3Dモデル内の3D法線を3D画像内の3D法線に一致させることを含む、請求項4に記載の方法。
- 更に、点対面メトリックを用いて、3Dモデル内の3D法線を3D画像内の3D法線に一致させることを含む、請求項1に記載の方法。
- 前記検出するステップは、十分な量の情報が存在する方向を表す法線情報マトリックスを定義することを含む、請求項3に記載の方法。
- 更に、前記情報を特定するために前記マトリックスで主成分分析(PCA)を実行するステップ、および、その情報が前記検出するステップで使用するために利用可能であるか決定するステップを含む、請求項7に記載の方法。
- 前記実行するステップは、各方向で寄与された情報の量と、利用可能な情報について、それぞれエッジを評価することを含む、請求項8に記載の方法。
- 前記実行するステップは、
(a)各エッジの1つが有用な方向で相当な量の情報に寄与する場合は、計算においてそのエッジの1つに高い重みを割り当て、そして
(b)各エッジの1つが有用な方向で相当な量の情報に寄与しないか又はその方向が有用でない場合は、計算においてそのエッジの1つに比較的低い重みを割り当てることによってエッジを評価する、請求項9に記載の方法。 - 更に、点対面メトリックを用いて計算した距離の合計と、点対エッジメトリックを用いて計算した距離の合計を同時に最小化する線形最小化関数の操作を含む、請求項6に記載の方法。
- 3Dカメラアセンブリによって取得したオブジェクトの3D画像内の3Dモデルの姿勢を検出するためのシステムであって、
3Dモデルと取得した3D画像を受信するビジョンシステムプロセッサと、
前記3Dモデル内の3Dエッジを前記3D画像内の3Dエッジに一致させ、同時に、前記3Dモデル内の3D法線を前記3D画像内の3D法線に一致させる、姿勢検出プロセスと、
を含むシステム。 - 前記姿勢検出プロセスは、画像内の3Dエッジの使用を3D法線に対比して重み付けするために、3D画像内の3D画像と3D画像内の3D法線に重み付けを適用する、請求項12に記載のシステム。
- 前記姿勢検出プロセスは、(a)オブジェクトの面は3D法線に対して平行な方向におけるアライメントに関する情報を提供するか、(b)オブジェクトのエッジはエッジに対して垂直な1つ以上の方向におけるアライメントに関する情報を提供するかを、それぞれ決定する、請求項13に記載のシステム。
- 前記姿勢検出プロセスは、少なくとも(a)点対線メトリックを用いて、3Dモデル内の3Dエッジを3D画像内の3Dエッジに一致させるか、又は(b)点対線メトリックを用いて、3Dモデル内の3D法線を3D画像内の3D法線に一致させる、請求項14に記載のシステム。
- 前記姿勢検出プロセスは、十分な量の情報が存在する方向を表す法線情報マトリックスを定義する、請求項15に記載のシステム。
- 前記姿勢検出プロセスは、前記マトリックスで主成分分析(PCA)を実行して情報を特定し、その情報が姿勢検出のために利用できるか決定する、請求項16に記載のシステム。
- 前記姿勢検出プロセスは、各方向で寄与された情報の量と、利用可能な情報について、それぞれエッジを評価する評価プロセスを含む、請求項17に記載のシステム。
- 前記評価プロセスは、
(a)各エッジの1つが有用な方向で相当な量の情報に寄与する場合は、計算においてそのエッジの1つに高い重みを割り当て、
(b)各エッジの1つが有用な方向で相当な量の情報に寄与しないか又はその方向が有用でない場合は、計算においてそのエッジの1つに比較的低い重みを割り当てることによって姿勢エッジを評価する、請求項18に記載のシステム。 - 更に、点対面メトリックを用いて計算した距離の合計と、点対エッジメトリックを用いて計算した距離の合計を同時に最小化する線形最小化プロセスを含む、請求項15に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023136625A JP2023159360A (ja) | 2018-02-21 | 2023-08-24 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/901,117 US10957072B2 (en) | 2018-02-21 | 2018-02-21 | System and method for simultaneous consideration of edges and normals in image features by a vision system |
US15/901,117 | 2018-02-21 | ||
JP2019026907A JP6983828B2 (ja) | 2018-02-21 | 2019-02-18 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026907A Division JP6983828B2 (ja) | 2018-02-21 | 2019-02-18 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023136625A Division JP2023159360A (ja) | 2018-02-21 | 2023-08-24 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022028860A true JP2022028860A (ja) | 2022-02-16 |
JP7339316B2 JP7339316B2 (ja) | 2023-09-05 |
Family
ID=67482273
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026907A Active JP6983828B2 (ja) | 2018-02-21 | 2019-02-18 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
JP2021190600A Active JP7339316B2 (ja) | 2018-02-21 | 2021-11-24 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
JP2023136625A Pending JP2023159360A (ja) | 2018-02-21 | 2023-08-24 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026907A Active JP6983828B2 (ja) | 2018-02-21 | 2019-02-18 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023136625A Pending JP2023159360A (ja) | 2018-02-21 | 2023-08-24 | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10957072B2 (ja) |
JP (3) | JP6983828B2 (ja) |
CN (2) | CN117541753A (ja) |
DE (1) | DE102019104310A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10962630B1 (en) * | 2019-10-18 | 2021-03-30 | Toyota Research Institute, Inc. | System and method for calibrating sensors of a sensor system |
CN112734783B (zh) * | 2020-02-14 | 2022-02-25 | 牧今科技 | 用于处理候选边缘的方法和计算系统 |
CN113405451B (zh) * | 2020-10-15 | 2022-05-31 | 南京航空航天大学 | 一种基于单目视觉的齿形结构装配测量方法 |
US11861793B2 (en) * | 2022-05-24 | 2024-01-02 | Hunan University | Method for merging surface skin three-dimensional data |
US20240029407A1 (en) * | 2022-07-22 | 2024-01-25 | General Electric Company | Machine learning model training corpus apparatus and method |
CN116108722B (zh) * | 2023-02-28 | 2024-05-07 | 南京理工大学 | 基于数字孪生的大型结构件面形调控方法 |
CN117824546A (zh) * | 2024-03-04 | 2024-04-05 | 泉州湖南大学工业设计与机器智能创新研究院 | 一种洗手盆平面度检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014528057A (ja) * | 2011-12-19 | 2014-10-23 | 三菱電機株式会社 | 物体の姿勢を推定するための方法 |
JP2016186488A (ja) * | 2011-04-13 | 2016-10-27 | 株式会社トプコン | 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム |
Family Cites Families (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5028138A (en) | 1989-05-23 | 1991-07-02 | Wolff Lawrence B | Method of and apparatus for obtaining object data by machine vision form polarization information |
US5078496A (en) | 1990-08-14 | 1992-01-07 | Autospect, Inc. | Machine vision surface characterization system |
US5557324A (en) | 1992-10-29 | 1996-09-17 | The Johns Hopkins University | Polorization viewer |
USRE37752E1 (en) | 1992-10-29 | 2002-06-18 | Equinox Corporation | Polarization viewer |
EP0718624A3 (en) | 1994-12-19 | 1997-07-30 | At & T Corp | Device and method for illuminating transparent and semi-transparent materials |
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6858826B2 (en) | 1996-10-25 | 2005-02-22 | Waveworx Inc. | Method and apparatus for scanning three-dimensional objects |
US6064759A (en) | 1996-11-08 | 2000-05-16 | Buckley; B. Shawn | Computer aided inspection machine |
US6504957B2 (en) | 1997-07-07 | 2003-01-07 | General Electric Company | Method and apparatus for image registration |
US6173070B1 (en) | 1997-12-30 | 2001-01-09 | Cognex Corporation | Machine vision method using search models to find features in three dimensional images |
WO2001078005A2 (en) | 2000-04-11 | 2001-10-18 | Cornell Research Foundation, Inc. | System and method for three-dimensional image rendering and analysis |
JP3513562B2 (ja) | 2000-04-20 | 2004-03-31 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 形状解析システム、3次元形状モデルの差分検出システム、類似形状検索システム、形状解析方法及び記憶媒体 |
US6701005B1 (en) | 2000-04-29 | 2004-03-02 | Cognex Corporation | Method and apparatus for three-dimensional object segmentation |
US20040184653A1 (en) | 2003-03-20 | 2004-09-23 | Baer Richard L. | Optical inspection system, illumination apparatus and method for use in imaging specular objects based on illumination gradients |
WO2006002320A2 (en) | 2004-06-23 | 2006-01-05 | Strider Labs, Inc. | System and method for 3d object recognition using range and intensity |
US7576738B2 (en) * | 2005-05-27 | 2009-08-18 | California Institute Of Technology | Method for constructing surface parameterizations |
WO2006138525A2 (en) | 2005-06-16 | 2006-12-28 | Strider Labs | System and method for recognition in 2d images using 3d class models |
US7756325B2 (en) | 2005-06-20 | 2010-07-13 | University Of Basel | Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object |
US8064731B2 (en) | 2006-11-13 | 2011-11-22 | Siemens Audiologische Technik Gmbh | Generalized rigid alignment of 3D ear impression models |
US8126260B2 (en) * | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
US8591225B2 (en) | 2008-12-12 | 2013-11-26 | Align Technology, Inc. | Tooth movement measurement by automatic impression matching |
US8090160B2 (en) | 2007-10-12 | 2012-01-03 | The University Of Houston System | Automated method for human face modeling and relighting with application to face recognition |
US8085987B2 (en) | 2007-10-26 | 2011-12-27 | Ahmed Shalaby | Method and tool for surface texture evaluation |
US8786595B2 (en) | 2008-06-10 | 2014-07-22 | Pinpoint 3D | Systems and methods for estimating a parameter for a 3D model |
CA2734143C (en) | 2008-08-15 | 2021-08-31 | Brown University | Method and apparatus for estimating body shape |
US8442304B2 (en) | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8175617B2 (en) | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
JP5746477B2 (ja) * | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
US8660355B2 (en) | 2010-03-19 | 2014-02-25 | Digimarc Corporation | Methods and systems for determining image processing operations relevant to particular imagery |
US10702216B2 (en) | 2010-06-08 | 2020-07-07 | Styku, LLC | Method and system for body scanning and display of biometric data |
WO2012018560A2 (en) * | 2010-07-26 | 2012-02-09 | Kjaya, Llc | Adaptive visualization for direct physician use |
US8942062B2 (en) | 2010-10-25 | 2015-01-27 | Lockheed Martin Corporation | Detecting structural changes to underwater structures |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US20120314031A1 (en) | 2011-06-07 | 2012-12-13 | Microsoft Corporation | Invariant features for computer vision |
US9129277B2 (en) | 2011-08-30 | 2015-09-08 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
WO2013033442A1 (en) | 2011-08-30 | 2013-03-07 | Digimarc Corporation | Methods and arrangements for identifying objects |
JP5953842B2 (ja) * | 2012-03-14 | 2016-07-20 | オムロン株式会社 | 画像検査方法および検査領域設定方法 |
US9593982B2 (en) | 2012-05-21 | 2017-03-14 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
JP2015532077A (ja) * | 2012-09-27 | 2015-11-05 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法 |
US9196088B2 (en) | 2013-03-14 | 2015-11-24 | Robert Bosch Gmbh | System and method for classification of three-dimensional models in a virtual environment |
US9154773B2 (en) | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
WO2014169238A1 (en) | 2013-04-11 | 2014-10-16 | Digimarc Corporation | Methods for object recognition and related arrangements |
US20150003669A1 (en) * | 2013-06-28 | 2015-01-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | 3d object shape and pose estimation and tracking method and apparatus |
US9443297B2 (en) | 2013-07-10 | 2016-09-13 | Cognex Corporation | System and method for selective determination of point clouds |
US9171403B2 (en) * | 2014-02-13 | 2015-10-27 | Microsoft Technology Licensing, Llc | Contour completion for augmenting surface reconstructions |
EP3747388A1 (en) * | 2014-07-10 | 2020-12-09 | Mohamed R. Mahfouz | Surgical navigation |
JP6594129B2 (ja) * | 2014-11-28 | 2019-10-23 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
KR102306780B1 (ko) | 2014-12-15 | 2021-09-30 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US10115035B2 (en) | 2015-01-08 | 2018-10-30 | Sungkyunkwan University Foundation For Corporation Collaboration | Vision system and analytical method for planar surface segmentation |
KR102399686B1 (ko) * | 2015-07-28 | 2022-05-19 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
CN108604301B (zh) | 2015-12-04 | 2022-03-25 | 欧特克公司 | 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征 |
US20180053040A1 (en) * | 2016-08-19 | 2018-02-22 | Umm Al-Qura University | System and method for 3d local surface matching |
JP6697986B2 (ja) * | 2016-09-07 | 2020-05-27 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像領域分割方法 |
US9990780B2 (en) * | 2016-10-03 | 2018-06-05 | Ditto Technologies, Inc. | Using computed facial feature points to position a product model relative to a model of a face |
WO2018125939A1 (en) | 2016-12-30 | 2018-07-05 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
SG10201700299QA (en) | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
-
2018
- 2018-02-21 US US15/901,117 patent/US10957072B2/en active Active
-
2019
- 2019-02-18 JP JP2019026907A patent/JP6983828B2/ja active Active
- 2019-02-20 DE DE102019104310.7A patent/DE102019104310A1/de active Pending
- 2019-02-21 CN CN202311309936.8A patent/CN117541753A/zh active Pending
- 2019-02-21 CN CN201910129981.2A patent/CN110176075B/zh active Active
-
2021
- 2021-03-22 US US17/208,990 patent/US11881000B2/en active Active
- 2021-11-24 JP JP2021190600A patent/JP7339316B2/ja active Active
-
2023
- 2023-08-24 JP JP2023136625A patent/JP2023159360A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016186488A (ja) * | 2011-04-13 | 2016-10-27 | 株式会社トプコン | 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム |
JP2014528057A (ja) * | 2011-12-19 | 2014-10-23 | 三菱電機株式会社 | 物体の姿勢を推定するための方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110176075B (zh) | 2023-10-20 |
US11881000B2 (en) | 2024-01-23 |
CN117541753A (zh) | 2024-02-09 |
JP2023159360A (ja) | 2023-10-31 |
JP6983828B2 (ja) | 2021-12-17 |
JP7339316B2 (ja) | 2023-09-05 |
US10957072B2 (en) | 2021-03-23 |
CN110176075A (zh) | 2019-08-27 |
US20190259177A1 (en) | 2019-08-22 |
US20210366153A1 (en) | 2021-11-25 |
DE102019104310A1 (de) | 2019-08-22 |
JP2019153290A (ja) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6983828B2 (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
JP6506731B2 (ja) | ビジョンシステムで3dポイントクラウドマッチングに使用するクラッタをスコアリングするためのシステム及び方法 | |
JP6503153B2 (ja) | ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法 | |
CN110648361B (zh) | 一种三维目标物体的实时位姿估计方法及定位抓取系统 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
KR100920931B1 (ko) | Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 | |
US9639942B2 (en) | Information processing apparatus, information processing method, and storage medium | |
KR20180014677A (ko) | 3d 이미지 데이터에서 3d 포즈와 기생포인트 제거의 스코어링을 개선하는 시스템 및 방법 | |
Gao et al. | A stable and accurate marker-less augmented reality registration method | |
Pretto et al. | Flexible 3D localization of planar objects for industrial bin-picking with monocamera vision system | |
US20180247150A1 (en) | Information processing device, information processing method, and article manufacturing method | |
JP2021168143A (ja) | ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
Asif et al. | Real-time pose estimation of rigid objects using RGB-D imagery | |
JPH07103715A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
Peng et al. | Real time and robust 6D pose estimation of RGBD data for robotic bin picking | |
Cui et al. | ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization | |
Alborzi | Automated vision-based part localization and path generation in robotic fiberglass trimming | |
Alizadeh et al. | A real-time object distance measurement using a monocular camera | |
JP2021012628A (ja) | 位置姿勢推定装置及び位置姿勢推定方法 | |
Mateo Agulló et al. | Visual perception for the 3D recognition of geometric pieces in robotic manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230302 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230429 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7339316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |