JP2020509370A5 - - Google Patents

Download PDF

Info

Publication number
JP2020509370A5
JP2020509370A5 JP2019545948A JP2019545948A JP2020509370A5 JP 2020509370 A5 JP2020509370 A5 JP 2020509370A5 JP 2019545948 A JP2019545948 A JP 2019545948A JP 2019545948 A JP2019545948 A JP 2019545948A JP 2020509370 A5 JP2020509370 A5 JP 2020509370A5
Authority
JP
Japan
Prior art keywords
cad model
test object
features
points
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019545948A
Other languages
English (en)
Other versions
JP6858878B2 (ja
JP2020509370A (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2018/017191 external-priority patent/WO2018160326A1/en
Publication of JP2020509370A publication Critical patent/JP2020509370A/ja
Publication of JP2020509370A5 publication Critical patent/JP2020509370A5/ja
Application granted granted Critical
Publication of JP6858878B2 publication Critical patent/JP6858878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本方法はさらに、シフトした第二位置において、隣接面によって覆われない試験点上のエッジのセット(集合)を有する、最小全域木を生成する工程を含んでいてよい。
3DのCADモデルの仮想輪郭エッジ(ここでは、シルエットエッジとも称する)の生成は、三角形エッジに関する三角形隣接情報に基づく。より具体的には、3Dモデルにおける各サーフェスの3D境界ポリラインを集める。ここで、各ポリラインは、頂点とこれら頂点間の線分の集合である。すなわち、ワイヤフレームポリラインからの全ての線分を集める。次に、3Dメッシュのシルエットエッジの全ての線分を集める。ある構成では、CADモデルのメッシュは、例えば図4に示すCADモデルボウルのような、CADモデルの表面を表わす三角形メッシュ400であり、各三角形は3つの点とその間の3つの線分の集まりである。各三角形エッジに関する三角形隣接情報を用いて、可能性のあるシルエットエッジを認識する。2つの隣接する三角形について以下が真であれば、三角形エッジは可能性のあるシルエットエッジ410である。(i)隣接する三角形の1つ(符号402で示す三角形A)の法線ベクトルがカメラ視線方向(camera view direction)40
4からやや離れた方向を向いている。(ii)隣接する三角形の他方(例えば符号406
で示す三角形B)の法線ベクトルがカメラ視線方向404とやや同じ方向を向いている。
候補となる輪郭線分は、3D境界のポリラインの線分であり、カメラ視線方向404を用いて2Dに投影された(平らになされた)シルエット線分の可能性がある。候補となる輪郭線分の全てが輪郭の一部を成す訳ではない。集められた候補の2D輪郭線分が真の輪郭線分であるか否かを判定するために、その線分上に所定の点生成密度で2Dの点を生成し、所定のカメラの方向と位置を用いて、3Dメッシュ三角形を2Dに投影し、いずれかの2D三角形によって覆われた2D点は除去する。線分上に生成された2D点間の距離は3DのCADモデルの最小のフィーチャよりも小さいことを理解されたい。2D点は、2D三角形領域内にあれば、輪郭だけを残して、2D三角形によって「覆われている」と見なされる。すなわち、3DのCADモデルの境界の内側にあるは、除去される。
より具体的には、図5〜図7に示すように、線分502に沿って候補の2D輪郭点500の集合を生成する。この時点では、どの点が三角形エッジ上に生成され、どの点が2D三角形領域内に生成されたものであるかを判定するのは困難である。そのため、各点500について、図6に示すシフト試験を行なうことができる。一例では、候補点500から試験点512、514、516、518、520、522、524、526を生成する。試験点512、514、516、518、520、522、524、526をシフトして、試験点512、514、516、518、520、522、524、526が候補点500の位置からシフトされたときに隣接面によって覆われるか否かを判定する。例えば、「A面」のエッジにある点512、514をそれぞれ位置513、515にシフトさせた時、点512、514はいずれの隣接面によっても覆われることはない。同様に、「B面」のエッジにある点518、520をそれぞれ位置519、521にシフトさせた時、点518、520はいずれの隣接面によっても覆われることはない。したがって、2D点518、520は「真の」輪郭点であると判定される。「A」面と「B」面の境界にある点522、524、526をそれぞれ位置528、530、532、または位置534、536、538にシフトさせた時、それぞれ「B」面および「A」面によって覆われる。これらの2D点522、524、526は隣接面によって覆われるため、2D点522、524および526は「真の」輪郭点であるとは見なされない。図7に示すとおり、いかなる隣接面によっても覆われることのないシフトされた点は「真の」輪郭点506として示される(図7において若干大きく示す)。「A」面および「B」面と境界を成す点516が位置517にシフトされた時、点516は隣接面によって覆われることはない。したがって、この2D点516は「真の」輪郭点であると判定される。

Claims (17)

  1. カメラの視軸を含む座標軸を有するマシンビジョンシステムにおいて3DのCADモデルを試験対象物にアライメントする方法であって、
    測定したい試験対象物のフィーチャに対応するCADモデルのフィーチャを露出させるように、前記マシンビジョンシステムのモデルウィンドウにおいて前記3DのCADモデルを方向付ける工程と、
    前記試験対象物を前記マシンビジョンシステムのステージ上に、前記3DのCADモデルの方向とほぼ一致する方向に載置する工程と、
    前記ステージ上の試験対象物の画像を前記カメラで撮影し、前記カメラの視軸に垂直な基準面における周辺境界を抽出する工程と、
    対応する基準面における前記3DのCADモデルのシルエット境界を抽出する工程と、
    フィッティングアルゴリズムを用いて、前記3DのCADモデルの前記シルエット境界を、前記対応する基準面において前記試験対象物の前記周辺境界とマッチングするように、相対的に位置決めする工程と、
    前記3DのCADモデルにおける点の座標を、前記対応する基準面内で前記視軸に沿って参照された前記試験対象物の対応する点の座標とマッチングさせる工程と、
    を備え、
    前記対応する基準面における前記3DのCADモデルのシルエット境界を抽出する工程が、さらに、
    前記CADモデルの3Dの三角形メッシュのうちの可能性を有するシルエットエッジから、全線分を集める工程と、
    前記可能性を有するシルエットの線分を、前記カメラの視線方向を用いて2Dに投影する工程と、
    前記線分に2Dの候補輪郭点を生成する工程と、
    前記候補輪郭点と一致する第一位置から、第二のシフト位置へと移動可能な試験点を生成する工程と、
    前記シフト位置にある各試験点が、前記CADモデルの三角形メッシュの他の面によって覆われているか否かを判定し、前記第二のシフト位置にある試験点がいずれの他の面によっても覆われていない2Dの候補輪郭点を、真の輪郭点であるとする工程と、
    を備えた方法。
  2. 前記シフトした第二位置において、いずれの他の面によっても覆われていない試験点上のエッジのセットを有する、最小全域木を生成する工程をさらに備えたことを特徴とする請求項に記載の方法。
  3. 点生成密度よりも長い前記最小全域木のエッジのサブセットを捨てる工程をさらに備え、前記最小全域木のエッジの残りのサブセットが、前記3DのCADモデルの真の輪郭の線分であることを特徴とする請求項に記載の方法。
  4. フィッティングアルゴリズムを用いて、前記最小全域木のエッジの残りのサブセットを前記試験対象物の周辺境界にフィットさせる工程、をさらに備えたことを特徴とする請求項に記載の方法。
  5. 前記3DのCADモデルが頂点によって結ばれた線を含み、前記シルエット境界を抽出する工程が、前記対応する基準面における前記3DのCADモデルの境界よりも内側にある線を除去する工程を含むことを特徴とする請求項1に記載の方法。
  6. 前記3DのCADモデル上で測定対象のフィーチャを選択する工程と、
    前記対応する基準面内で視軸に沿って参照される前記試験対象物の対応する点の座標とマッチングする前記3DのCADモデルの点の座標に基づいて、前記ステージと前記カメラのうち少なくとも一方を所望の位置に自動的に平行移動させる工程と、
    前記CADモデルの選択されたフィーチャに対応する試験対象物のフィーチャを測定する工程と、
    をさらに備えたことを特徴とする請求項1に記載の方法。
  7. 前記3DのCADモデル上で測定対象フィーチャを選択する工程と、
    前記試験対象物の選択されたフィーチャを測定する前に、前記CADモデルの選択されたフィーチャの1以上の点の座標に基づいて、前記カメラを前記試験対象物に対して自動的に焦点合わせする工程と、
    をさらに備えたことを特徴とする請求項1に記載の方法。
  8. 前記ステージ上の試験対象物の画像を前記カメラで撮影する工程は、ビデオカメラを用いて、(i)静止画像データ、および(ii)ビデオストリームからのフレームの画像データのうちの1つを提供する工程を含むことを特徴とする請求項1に記載の方法。
  9. 前記ステージ上の前記試験対象物の画像を前記カメラで撮影する前に、前記試験対象物に背後から照明を当てる工程をさらに備えたことを特徴とする請求項1に記載の方法。
  10. 前記3DのCADモデル上で測定対象フィーチャを選択する工程と、
    前記対応する基準面内で視軸に沿って参照される前記試験対象物の対応する点の座標とマッチングする前記3DのCADモデルの点の座標に基づいて、前記ステージと前記カメラのうち少なくとも一方を所望の位置に自動的に平行移動させる工程と、
    前記カメラを自動的に焦点合わせする工程と、
    前記CADモデルの前記選択されたフィーチャに対応する試験対象物のフィーチャを測定する工程と、
    をさらに備えたことを特徴とする請求項1に記載の方法。
  11. 3DのCADモデルを参照しマシンビジョンシステムで試験対象物の異なるフィーチャを測定する方法であって、
    前記3DのCADモデルをモデルウィンドウにおいて方向付ける工程と、
    ビデオカメラで前記試験対象物のビデオ画像を取得する工程と、
    前記ビデオカメラの視軸に垂直な基準面における撮像された試験対象物の周辺境界を抽出する工程と、
    3DのCADモデルのシルエット境界を、対応する基準面において前記試験対象物の周辺境界とマッチングするように相対的に位置決めする工程と、
    前記3DのCADモデルにおける点の座標を、前記対応する基準面内で前記視軸に沿って参照される前記試験対象物の対応する点の座標と、マッチングさせる工程と、
    モデルウィンドウ内で前記CADモデルのフィーチャを選択し、前記フィーチャの1以上の点の座標を同定する工程と、
    前記モデルウィンドウ内で選択されたCADモデルのフィーチャに対応する試験対象物のフィーチャを測定する工程と、
    を備えた方法。
  12. 前記試験対象物のフィーチャを測定する前に、前記視軸に沿って参照される前記CADモデルの選択されたフィーチャの1以上の点の座標に基づいて、前記試験対象物に対する前記ビデオカメラの焦点を変える工程をさらに備えたことを特徴とする請求項11に記載の方法。
  13. 前記対応する基準面内において前記視軸に沿って参照される前記CADモデルの選択されたフィーチャの1以上の点の座標に基づいて、前記試験対象物の照明条件を変える工程をさらに備えたことを特徴とする請求項11に記載の方法。
  14. 前記ビデオカメラの視野(FOV)を調節して、測定すべき前記試験対象物の前記フィーチャが視野(FOV)内に収まるようにする工程を、さらに備えたことを特徴とする請求項11に記載の方法。
  15. 前記ビデオカメラの被写界深度(DOF)を調節して、試験対象物の周辺境界が基準面に近いか否かにかかわらず、前記試験対象物の周辺境界全体が焦点内にとどまるようにする工程を、さらに備えたことを特徴とする請求項11に記載の方法。
  16. 前記ビデオカメラの前記視野(FOV)を調節する工程が自動的に行われることを特徴とする請求項14に記載の方法。
  17. 前記ビデオカメラの前記被写界深度(DOF)を調節する工程が自動的に行われることを特徴とする請求項15に記載の方法。
JP2019545948A 2017-02-28 2018-02-07 3dモデルの試験対象物への自動アライメント Active JP6858878B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762464620P 2017-02-28 2017-02-28
US62/464,620 2017-02-28
PCT/US2018/017191 WO2018160326A1 (en) 2017-02-28 2018-02-07 Automatic alignment of a 3d model to a test object

Publications (3)

Publication Number Publication Date
JP2020509370A JP2020509370A (ja) 2020-03-26
JP2020509370A5 true JP2020509370A5 (ja) 2020-05-07
JP6858878B2 JP6858878B2 (ja) 2021-04-14

Family

ID=61244787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019545948A Active JP6858878B2 (ja) 2017-02-28 2018-02-07 3dモデルの試験対象物への自動アライメント

Country Status (4)

Country Link
US (1) US10579890B2 (ja)
JP (1) JP6858878B2 (ja)
CN (1) CN110753952A (ja)
WO (1) WO2018160326A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11906285B2 (en) * 2018-06-21 2024-02-20 Fill Gesellschaft M.B.H. Method for storing real data relating to a body contour of a body
JP2020187626A (ja) * 2019-05-16 2020-11-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN110363801B (zh) * 2019-07-04 2023-04-18 陕西丝路机器人智能制造研究院有限公司 工件实物与工件三维cad模型的对应点匹配方法
US11625843B2 (en) * 2020-06-24 2023-04-11 Bluebeam, Inc. Systems and methods for automatic alignment of drawings
CN114882103A (zh) * 2022-04-20 2022-08-09 南昌龙旗信息技术有限公司 手写笔螺母对位方法、装置、设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US20040223053A1 (en) * 2003-05-07 2004-11-11 Mitutoyo Corporation Machine vision inspection system and method having improved operations for increased precision inspection throughput
US20050031191A1 (en) * 2003-08-04 2005-02-10 Mitutoyo Corporation Methods and apparatus for inspection of lines embedded in highly textured material
US7324682B2 (en) * 2004-03-25 2008-01-29 Mitutoyo Corporation System and method for excluding extraneous features from inspection operations performed by a machine vision inspection system
US7590276B2 (en) * 2004-12-20 2009-09-15 Mitutoyo Corporation System and method for programming interrupting operations during moving image acquisition sequences in a vision system
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
US7580560B2 (en) * 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition
US8311311B2 (en) * 2005-10-31 2012-11-13 Mitutoyo Corporation Optical aberration correction for machine vision inspection systems
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US8248417B1 (en) 2008-08-28 2012-08-21 Adobe Systems Incorporated Flattening 3D images
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8526705B2 (en) * 2009-06-10 2013-09-03 Apple Inc. Driven scanning alignment for complex shapes
JP5597056B2 (ja) * 2010-08-02 2014-10-01 株式会社キーエンス 画像測定装置、画像測定方法及び画像測定装置用のプログラム
US9582934B2 (en) 2010-09-20 2017-02-28 Siemens Healthcare Gmbh Method and system for efficient extraction of a silhouette of a 3D mesh
KR101706092B1 (ko) * 2010-09-29 2017-02-14 삼성전자주식회사 3차원 물체 추적 방법 및 장치
JP5679560B2 (ja) 2011-02-01 2015-03-04 株式会社キーエンス 寸法測定装置、寸法測定方法及び寸法測定装置用のプログラム
CN103196370B (zh) * 2013-04-01 2015-05-27 北京理工大学 一种导管接头空间位姿参数的测量方法和装置
CN105051487B (zh) * 2013-06-17 2020-03-03 海克斯康测量技术有限公司 使用选择性成像测量物体的方法和设备
US9489765B2 (en) 2013-11-18 2016-11-08 Nant Holdings Ip, Llc Silhouette-based object and texture alignment, systems and methods
JP5911934B2 (ja) * 2014-09-18 2016-04-27 ファナック株式会社 輪郭線計測装置およびロボットシステム
JP6594129B2 (ja) * 2014-11-28 2019-10-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Similar Documents

Publication Publication Date Title
JP2020509370A5 (ja)
EP3907702B1 (en) Three-dimensional sensor system and three-dimensional data acquisition method
JP5480914B2 (ja) 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP5593177B2 (ja) 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
KR101396346B1 (ko) 다수의 2차원 실사 영상들을 이용하여 3차원 영상을생성하는 방법 및 장치
WO2011162388A1 (ja) 点群データ処理装置、点群データ処理システム、点群データ処理方法、および点群データ処理プログラム
CN112161619B (zh) 位姿检测方法、三维扫描路径规划方法和检测系统
JP2011185872A (ja) 情報処理装置、その処理方法及びプログラム
CN111879235A (zh) 弯管的三维扫描检测方法、三维扫描系统和计算机设备
EP2294555A1 (en) Three dimensional mesh modeling
JP2004213332A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2008145431A (ja) 3次元表面形状再構築のための装置および方法
JP6858878B2 (ja) 3dモデルの試験対象物への自動アライメント
CN111445529B (zh) 一种基于多激光测距的标定设备及方法
JP4761670B2 (ja) 動立体モデル生成装置及び方法
KR101593316B1 (ko) 스테레오 카메라를 이용한 3차원 모델 재구성 방법 및 장치
US9245375B2 (en) Active lighting for stereo reconstruction of edges
JP2017010082A (ja) 地図作成装置、地図作成方法、およびモービルマッピング用計測装置
JP2010060451A (ja) ロボット装置及び物体の位置姿勢推定方法
TW202014993A (zh) 資訊處理裝置、記錄媒體、程式產品及資訊處理方法
CN111445528B (zh) 一种在3d建模中多相机共同标定方法
CN114170284B (zh) 基于主动标志点投射辅助的多视图点云配准方法
CN110070608B (zh) 一种自动删除基于图像的三维重建冗余点的方法
Collins et al. Site model acquisition and extension from aerial images
JP2021021577A (ja) 画像処理装置及び画像処理方法