JP6978330B2 - オブジェクト形状および設計からのずれの監視 - Google Patents

オブジェクト形状および設計からのずれの監視 Download PDF

Info

Publication number
JP6978330B2
JP6978330B2 JP2018005503A JP2018005503A JP6978330B2 JP 6978330 B2 JP6978330 B2 JP 6978330B2 JP 2018005503 A JP2018005503 A JP 2018005503A JP 2018005503 A JP2018005503 A JP 2018005503A JP 6978330 B2 JP6978330 B2 JP 6978330B2
Authority
JP
Japan
Prior art keywords
point cloud
point
model
recorded
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018005503A
Other languages
English (en)
Other versions
JP2019040577A (ja
Inventor
ライアン・ユーレンブロック
ディーパック・コースラ
ヤン・チェン
ケヴィン・アール・マーティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2019040577A publication Critical patent/JP2019040577A/ja
Application granted granted Critical
Publication of JP6978330B2 publication Critical patent/JP6978330B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Generation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)

Description

本開示は、欠陥検出に関する。
施工中のオブジェクトは、完成時のオブジェクトの寸法を決定するために手動で測定されうる。完成時のオブジェクトと設計時のオブジェクトとの間のずれを特定するために、完成時のオブジェクトの寸法と設計時のオブジェクトの寸法とを比較することができる。あるいは、システムが完成状態モデルを設計状態モデルと比較して、モデル間のずれを特定することもある。これらのシステムは、通常、完成状態モデルと設計状態モデルとの間の手動記録を必要とし、リアルタイムでは動作せず、オブジェクトレベルの差異を解析する。
いくつかの実施態様において、システムは、第1のセンサデータを生成する第1のセンサを含む。本システムは、第2のセンサデータを生成する第2のセンサを含む。本システムは、オブジェクトの3次元(3D)モデルを格納するメモリを含む。本システムは、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成するプロセッサを含む。第2の3D点群は第1のセンサデータに基づくものであり、第1の3D点群はオブジェクトの3Dモデルに基づくものである。プロセッサは、第1の3D点群と、第2のセンサデータに基づくものである第3の3D点群とに基づいて第2の記録された3D点群を生成するように構成される。プロセッサは、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成するように構成される。プロセッサは、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較するように構成される。プロセッサは、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成するように構成される。本システムは、出力データに基づいて差異のグラフィック表示を表示するディスプレイを含む。
いくつかの実施態様において、方法は、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成するステップを含む。第2の3D点群は、第1のセンサからの第1のセンサデータに基づくものである。第1の3D点群は、オブジェクトの3Dモデルに基づくものである。本方法は、第1の3D点群と第3の3D点群とに基づいて第2の記録された3D点群を生成するステップを含む。第3の3D点群は、第2のセンサからの第2のセンサデータに基づくものである。本方法は、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成するステップを含む。本方法は、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較するステップを含む。本方法は、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成するステップを含む。
特定の実施態様において、プロセッサ読み取り可能な媒体は、プロセッサによって実行されると、プロセッサに、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成させるプロセッサ実行可能命令を格納する。第2の3D点群は、第1のセンサからの第1のセンサデータに基づくものであり、第1の3D点群は、オブジェクトの3Dモデルに基づくものである。命令は、プロセッサによって実行されると、プロセッサに、第1の3D点群と第3の3D点群に基づいて第2の記録された3D点群を生成させる。第3の3D点群は、第2のセンサからの第2のセンサデータに基づくものである。命令は、プロセッサによって実行されると、プロセッサに、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成させる。命令は、プロセッサによって実行されると、プロセッサに、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較させる。命令は、プロセッサによって実行されると、プロセッサに、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成させる。
本明細書に記載される特徴、機能、および利点は、様々な実施形態において独立して達成することが可能であり、またはさらに別の実施形態において組み合わせられてもよく、そのさらなる詳細について以下の説明および図面を参照して開示する。
複数のセンサからのセンサデータに基づいて、オブジェクトのメッシュモデルと結合された3次元(3D)点群との間の差異を示す出力データを生成するシステムを示すブロック図である。 図1のシステム100の動作時の例示的な段階を示す図である。 複数のセンサからのセンサデータに基づいて、オブジェクトのメッシュモデルと結合された3D点群との間の差異を示す出力データを生成する方法のフローチャートである。 複数のセンサからのセンサデータに基づいて、オブジェクトのメッシュモデルと結合された3D点群との間の差異を示す出力データの生成をサポートするコンピューティング環境の特定の例のブロック図である。
本開示の特定の実施形態について、以下で図面を参照して説明する。説明において、共通の特徴は図面を通して共通の参照番号で指定されている。
各図および以下の説明は、特定の例示的実施形態を示すものである。当業者は、本明細書には明示的に記述も図示もされてもいないが、本明細書に記載される原理を具現化し、添付の特許請求の範囲内に含まれる様々な構成を考案できることが理解されるであろう。さらに、本明細書に記載される例はいずれも、本開示の原理の理解を助けるためのものであり、限定しないものであると解釈されるべきである。よって、本開示は、以下で説明する特定の実施形態または例だけに限定されず、特許請求の範囲およびその均等物によって限定されるものである。
本明細書に記載される例は、オブジェクトの(複数のセンサからのデータに基づいて生成された)完成状態モデルと、オブジェクトの設計状態モデル(例えばコンピュータ支援設計(computer aided design、CAD)モデル)との間の差異を決定するシステムを含む。システムは、複数のセンサからの(オブジェクトを含む)場面の点群を、設計状態モデルから生成された点群に記録し、セグメント化し、またはその両方を行う。各センサからの記録された点群は、結合された点群モデルを生成するように融合される。システムは、結合された点群モデルを、設計状態モデルから生成されたオブジェクトのメッシュモデルと比較する比較器を含む。比較器は、結合された点群モデルとメッシュモデルとの間の差異を決定する。いくつかの例では、システムは、複数のセンサからのストリーミング・センサ・データに基づいて、一連の結合された3次元(3D)点群モデルを生成し、オブジェクトに設計からのずれがないかリアルタイムで監視することを可能にするために、結合された3D点群モデルの各々をメッシュモデルと比較する。
図1に、オブジェクト104の3Dモデル102(例えば、設計状態モデル)と結合された3D点群106(例えば、完成状態モデル)との間の差異を決定するシステム100のブロック図を示す。システム100は、プロセッサ126とメモリ112とを含む。メモリ112は、3Dモデル102など、1または複数の3Dモデルを格納するように構成される。いくつかの例では、3Dモデル102は、(設計時の)オブジェクト104のCADモデルに対応する。
システム100は、第1のセンサ108や第2のセンサ110など、複数のセンサ107を含む。いくつかの実施態様において、複数のセンサ107は、3つ以上のセンサを含む。例えば、図1では、システム100はN個のセンサ(第Nのセンサ115を含む)を含み、Nは2より大きい整数である。複数のセンサ107の各々は、システム100の動作時に、複数のセンサ107のその他のセンサとは異なる視野を有する。複数のセンサ107の各々は、動作時に、各センサの視野に対応する場面のデータ(例えば、画像データ)を取り込むように構成される。複数のセンサ107は、動作時に、複数のセンサ107の各々の視野がオブジェクト104を含む(例えば、複数のセンサ107により取り込まれた場面がオブジェクト104を含む)ように構成される。この説明では主に、オブジェクト104が監視されている例に焦点を当てているが、他の例では、システム100は、複数のオブジェクトを監視するように構成される。例えば、システム100は、製造プロセスにおける複数のオブジェクトの接合時に(例えば、正しいアラインメントのために)複数のオブジェクトを監視するように構成されてもよい。システム100が複数のオブジェクトを監視するように構成される例では、複数のセンサ107によって取り込まれた場面は複数のオブジェクトを含みうる。加えて、複数のセンサ107のうちの1または複数の場面は、オブジェクト104以外の構成要素も含みうる。オブジェクト104以外の追加的な構成要素に対応する点は、後述するセグメント化および記録の間に除去されうる。
複数のセンサ107は3Dセンサを含む。いくつかの例では、複数のセンサ107は、ステレオカメラ、飛行時間型カメラ、走査光検出・測距(LIDAR)システム、構造化光カメラ、またはそれらの組み合わせを含む。いくつかの例では、複数のセンサ107は、異なるタイプのセンサを含む。例えば、第1のセンサ108はステレオカメラを含んでいてもよく、第2のセンサ110は飛行時間型カメラを含んでいてもよい。
第1のセンサ108は、第1のセンサデータ114を生成するように構成される。第1のセンサデータ114は、複数のデータフレームに対応し、または複数のデータフレームを含みうる。システム100は、第1のセンサデータ114に基づいて1または複数の点群を生成するように構成される。例えば、システム100は、第1のセンサデータ114に基づいて第2の3D点群111を生成するように構成される。システム100は、第1のセンサデータ114に基づいて複数の点群を生成しうる。例えば、第1のセンサデータ114は複数のデータフレームを含んでいてもよく、システム100は、第1のセンサデータ114の複数のデータフレームの各々に基づいて点群を生成してもよい。
第1のセンサ108は、深度画像データ(例えば、画素の2次元グリッド)の形で第1のセンサデータ114を生成するように構成されうる。例えば、第1のセンサデータ114の複数のデータフレームの各フレームが、深度画像に対応していてもよい。深度画像データによって定義された深度画像の各画素は、第1のセンサ108から第1のセンサ108によって取り込まれた場面内の最も近い点までの範囲を指定する。第1のセンサ108またはプロセッサ126は、第2の3D点群111を含む1または複数の点群を生成するために(例えば、第1のセンサ108の固有のパラメータに基づいて)深度画像データを処理するように構成される。よって、第2の3D点群111は、(例えば、第1のセンサデータ114に基づくものである)第1のセンサ108からのデータに基づくものである。
第2のセンサ110は、第2のセンサデータ116を生成するように構成される。第2のセンサデータ116は、複数のデータフレームに対応し、または複数のデータフレームを含みうる。システム100は、第2のセンサデータ116に基づいて1または複数の点群を生成するように構成される。例えば、システム100は、第2のセンサデータ116に基づいて第3の3D点群113を生成するように構成される。システム100は、第2のセンサデータ116に基づいて複数の点群を生成しうる。例えば、第2のセンサデータ116は複数のデータフレームを含んでいてもよく、システム100は、第2のセンサデータ116の複数のデータフレームの各々に基づいて点群を生成してもよい。
第2のセンサ110は、深度画像データ(例えば、画素の2次元グリッド)の形で第2のセンサデータ116を生成するように構成されうる。例えば、第1のセンサデータの複数のデータフレームの各フレームが、深度画像に対応していてもよい。深度画像データによって定義された深度画像の各画素は、第2のセンサ110から第2のセンサ110によって取り込まれた場面内の最も近い点までの範囲を指定する。第2のセンサ110またはプロセッサ126は、第3の3D点群113を含む1または複数の点群を生成するために(例えば、第2のセンサ110の固有のパラメータに基づいて)深度画像データを処理するように構成される。よって、第3の3D点群113は、(例えば、第2のセンサデータ116に基づくものである)第2のセンサ110からのデータに基づくものである。
本明細書の説明では主に、複数のセンサ107が2つのセンサ(例えば、第1のセンサ108および第2のセンサ110)を含む例に焦点を当てているが、他の例では、複数のセンサ107はN個のセンサを含み、Nは2より大きい。そのような例では、結合された3D点群106は、3つ以上のセンサのセンサデータからの点群に基づいて生成される。例えば、図1では、第Nのセンサ115はプロセッサ126にセンサデータ117を提供するように構成される。この例では、センサデータ117は、1または複数の追加の記録された点群145を生成するのに使用され、追加の記録された点群145は、結合された3D点群106を生成するために第1の記録された点群142および第2の記録された点群144と結合される。
よって、システム100は、複数のセンサ107からのデータから点群のストリームを生成するように構成されうる。各点群は、オブジェクト104に対応する点を含む。例えば、第2の3D点群111は、オブジェクト104に対応する第1の点122を含み、第1のセンサ108によって取り込まれた場面の他の部分に対応する追加の点を含みうる。別の例として、第3の3D点群113は、オブジェクト104に対応する第2の点124を含み、第2のセンサ110によって取り込まれた場面の他の部分に対応する追加の点を含みうる。システム100によって生成された各点群は、各点群が基づいているセンサデータの取り込み時刻と関連付けられている。例えば、第1のセンサデータ114は、第1の時刻に取り込まれた第1のフレームを含み、第2のセンサデータ116は、第1の時刻に取り込まれた第2のフレームを含みうる。この例では、第1のフレームに基づいて生成された第2の3D点群111は、第2のフレームに基づいて生成された第3の3D点群113と同じ時刻に対応しうる。後述するように、同じ時刻と関連付けられた記録された点群は、結合された3D点群106を形成するために結合される。
プロセッサ126は、3Dモデル102に基づいてオブジェクト104のメッシュモデル132を生成するメッシュジェネレータ128を含む。いくつかの例では、メモリ112は、複数の3Dモデルまたはオブジェクト104を含む複数のオブジェクトを格納し、システム100は、オブジェクト104を認識するオブジェクト認識動作を行い、システム100がオブジェクト104を認識したことに基づいて3Dモデル102を選択するように構成される。
メッシュモデル132は、設計時のオブジェクト104の形状を定義する多角形(例えば、三角形)などの複数の頂点、エッジ、および面を含む。メッシュモデル132のメッシュ面のサイズは、システム100の出力の解像度を決定する。解像度(よって、メッシュ面のサイズ)は、遭遇すると予期される変形または欠陥のスケール、結合された3D点群106の予期される密度、またはそれらの組み合わせに基づいて選択されうる。
プロセッサ126は、設計時のオブジェクト104の表面を表す第1の3D点群136を生成する点群生成器134をさらに含む。プロセッサ126は、3Dモデル102の表面をサンプリングすることによって第1の3D点群136を生成するように構成されうる。いくつかの例では、プロセッサ126は、3Dモデル102をランダムにサンプリングしうる。より高密度のサンプリング(例えば、第1の3D点群136の点数)は、より低密度のサンプリングよりも正確な記録を提供しうる。
プロセッサ126は、複数のセンサ107からのデータに基づいて(例えば、第1のセンサデータ114と、第2のセンサデータ116と、第Nのセンサデータ117とに基づいて)生成された1または複数の3D点群に対応する記録された点群140を生成するセグメント化・記録エンジン138をさらに含む。例えば、セグメント化・記録エンジン138は、第1の3D点群136と第2の3D点群111とに基づいて第1の記録された3D点群142を生成し、第1の3D点群136と第3の3D点群113とに基づいて第2の記録された3D点群144を生成するように構成される。システム100が3つ以上のセンサを含む場合、セグメント化・記録エンジン138は、第Nのセンサデータ117に基づいて第Nの記録された3D点群145を生成するように構成される。各記録された点群142、144、145は、3Dモデル102の座標系に(例えば、第1の3D点群136の座標系に)記録される。
いくつかの例では、セグメント化・記録エンジン138は、複数のセンサ107からの1または複数の点群を第1の3D点群136に個別に記録することによって、記録された点群140を生成するように構成される。例えば、セグメント化・記録エンジン138は、第2の3D点群111をセグメント化して、オブジェクト104に対応する第1の点122を識別し、第2の3D点群111の残りの点を除去することによって、第1の記録された3D点群142を生成するように構成されうる。第2の3D点群111をセグメント化することにより、セグメント化された第1の点群が生成される。いくつかの例では、第2の3D点群111は、第1のセンサ108の座標系におけるオブジェクト104の最後の既知の位置および姿勢に基づいてセグメント化される。例えば、プロセッサ126は、オブジェクト104の最後の既知の位置および姿勢に基づいて、オブジェクト104からの第2の3D点群111の点の距離を決定するように構成されうる。第1のセンサ108の座標系におけるオブジェクト104の最後の既知の位置および姿勢に基づいて指示される、オブジェクト104から距離閾値を超えて離れている第2の3D点群111の点は、除去され、または廃棄されうる。残りの点(例えば、セグメント化された第2の点群)は次いで、第1の記録された3D点群142を生成するために第1の3D点群136に記録される。いくつかの例では、プロセッサ126は、セグメント化された第1の点群を第1の3D点群136に記録するために反復最近接点(iterative closest point、ICP)法を実行するように構成される。よって、プロセッサ126は、第1の3D点群136と第2の3D点群111とに基づいて第1の記録された3D点群142を生成するように構成される。
別の例として、いくつかの実施態様において、セグメント化・記録エンジン138は、第3の3D点群113をセグメント化して、オブジェクト104に対応する第2の点124を識別し、第3の3D点群113の残りの部分を除去することによって、第2の記録された3D点群144を生成するように構成される。第3の3D点群113をセグメント化することにより、セグメント化された第3の3D点群が生成される。いくつかの例では、第3の3D点群113は、第2のセンサ110の座標系におけるオブジェクト104の最後の既知の位置および姿勢に基づいてセグメント化される。例えば、プロセッサ126は、オブジェクト104の最後の既知の位置および姿勢に基づいて、オブジェクト104からの第3の3D点群113の点の距離を決定するように構成されうる。第2のセンサ110の座標系におけるオブジェクト104の最後の既知の位置および姿勢に基づいて指示される、オブジェクト104から距離閾値を超えて離れている第3の3D点群113の点は、除去され、または廃棄されうる。残りの点(例えば、セグメント化された第3の点群)は次いで、第2の記録された3D点群144を生成するために第1の3D点群136に記録される。いくつかの例では、プロセッサ126は、セグメント化された第3の点群を第1の3D点群136に記録するために反復最近接点(ICP)法を実行するように構成される。よって、プロセッサ126は、第1の3D点群136と第3の3D点群113とに基づいて第2の記録された3D点群144を生成するように構成される。
システム100が3つ以上のセンサを含む場合、他の記録された点群(例えば、第Nの記録された点群)を生成するために同様の操作が行われうる。したがって、セグメント化・記録エンジン138は、複数のセンサ107からの点群の記録された点群140を生成するように構成される。記録された点群140は、3Dモデル102の座標系に記録される。
いくつかの例では、セグメント化・記録エンジン138は、KDツリーおよびサブツリーキャッシングを使用して、複数のセンサ107からの1または複数の点群に基づいて記録された3D点群140を生成するように構成される。KDツリーの根ノードは、第1の3D点群136のすべての点に対応し、またはそれらを含む。KDツリーの葉ノードは、第1の3D点群136の単一の点または複数の点を含む。KDツリーの各ノードは、各ノードに対応する第1の3D点群136の3D点を、最高の分散を有する次元に垂直な平面で3D点を分割することによって2つの半分に分割する。いくつかの例では、セグメント化・記録エンジン138は、第1のセンサデータ114からの点群の配列データ構造と第2のセンサデータ116からの点群の配列構造とを使用してサブツリーキャッシングを行う。例えば、セグメント化・記録エンジン138は、第2の3D点群111に第1の配列データ構造を、第3の3D点群113に第2の配列データ構造を使用しうる。第1のセンサデータ114に基づく点群の配列データ構造は第1のセンサデータ114と同じ寸法を有し、第2のセンサデータ116に基づく点群の配列データ構造は第2のセンサデータ116と同じ寸法を有する。各配列データ構造の各配列要素は、KDツリー内のノードのメモリ内の位置を指し示すポインタを含む。各入力画素への第1の3D点群136の最後の既知の最近傍点を含むサブツリーを指し示すポインタは、配列データ構造に格納(キャッシュ)される。このキャッシュされたポインタは、次の最近傍探索の開始点として使用される。
例えば、いくつかの例では、プロセッサ126は、第1のKDツリーおよび第1の配列データ構造を使用して、第1の記録された3D点群142を生成するように構成される。セグメント化・記録エンジン138は、第1のセンサデータ114からの点群に対して行われた最近のセグメント化および記録操作からの変換行列を使用して、第2の3D点群111を第1のセンサ108の座標系から3Dモデル102の座標系に変換するように構成される。例えば、変換行列は、第2の3D点群111に対して行われたセグメント化および記録操作の先の反復時に決定された変換行列であってもよい。代替として、または加えて、変換行列は、第1のセンサデータ114の先のフレーム(例えば、先の3D点群)に基づくものである点群について決定された変換行列であってもよい。第2の3D点群111内の点ごとに、第1の3D点群136内の最近点の探索は、第2の3D点群111内の点に対応する第1の配列データ構造の要素においてキャッシュされたポインタによって識別される第1のKDツリーのノードから開始する。例えば、第2の3D点群111内の点に対応する第1のセンサデータ114内の画素の座標は、第2の3D点群111内の点と関連付けられた(第1の配列データ構造内の)キャッシュされたポインタの座標に対応する。探索は、L2ノルムユークリッド距離に基づいて第2の3D点群111の点に最も近い第1の3D点群136の点を含む第1のKDツリーの葉ノードに至る。第2の3D点群111の点に最も近い第1の3D点群136内の点の間の距離がリセット閾値よりも小さい場合、第1の3D点群136内の最近点の座標は対応のリストに付加される。距離がリセット閾値よりも大きい場合、新しい探索が第1のKDツリーの根から開始され、第2の3D点群111の点に最も近い第1の3D点群136の点を含む第1のKDツリーの葉ノードに至る。最近点の座標が対応のリストに付加される。プロセッサ126は、第2の3D点群111の点に最も近い第1の3D点群136の点と関連付けられた第1のKDツリーの葉ノードの上の特定の高さの第1のKDツリーのノードを指し示す(第1の配列データ構造の対応する要素内の)ポインタを設定することによってキャッシュを更新するように構成される。探索は、第2の3D点群111のすべての点について行われ、第2の3D点群111と第1の3D点群136との間の対応のリストが得られる。
閾値ユークリッド距離を超えて離れた点間の点対応は破棄される。閾値ユークリッド距離を超える点間の点対応を破棄することは、点群をセグメント化することに対応する。セグメント化段階が行われた後に残る点対応は、変換行列を推定するために使用される。いくつかの例では、変換行列は特異値分解を使用して推定される。最近傍探索、セグメント化、および変換行列推定の各段階は、第1のセンサ108から新しい入力フレームが利用可能になるまで、または所定回数の反復が行われるまで反復される。最後の反復で残る第2の3D点群111の点は、第1の記録された3D点群142に対応する。
別の例として、いくつかの実施態様において、プロセッサ126は、第2のKDツリーおよび第2の配列データ構造を用いて、第2の記録された3D点群144を生成するように構成される。セグメント化・記録エンジン138は、第2のセンサデータ116からの点群に対して行われた最近のセグメント化および記録操作からの変換行列を使用して、第3の3D点群113を第1のセンサ108の座標系から3Dモデル102の座標系に変換するように構成される。例えば、変換行列は、第3の3D点群113に対して行われたセグメント化および記録操作の先の反復時に決定された変換行列であってもよい。代替として、または加えて、変換行列は、第2のセンサデータ116の先のフレーム(例えば、先の3D点群)に基づくものである点群について決定された変換行列であってもよい。第3の3D点群113内の点ごとに、第1の3D点群136内の最近点の探索は、第3の3D点群113内の点に対応する第2の配列データ構造の要素においてキャッシュされたポインタによって識別される第2のKDツリーのノードから開始する。例えば、第3の3D点群113内の点に対応する第2のセンサデータ116内の画素の座標は、第3の3D点群113内の点と関連付けられた(第1の配列データ構造内の)キャッシュされたポインタの座標に対応する。探索は、L2ノルムユークリッド距離に基づいて第3の3D点群113の点に最も近い第1の3D点群136の点を含む第2のKDツリーの葉ノードに至る。第3の3D点群113の点に最も近い第1の3D点群136内の点の間の距離がリセット閾値よりも小さい場合、第1の3D点群136内の最近点の座標は対応のリストに付加される。距離がリセット閾値よりも大きい場合、新しい探索が第2のKDツリーの根から開始され、第3の3D点群113の点に最も近い第1の3D点群136の点を含む第2のKDツリーの葉ノードに至る。最近点の座標が対応のリストに付加される。プロセッサ126は、第3の3D点群113の点に最も近い第1の3D点群136の点と関連付けられた第2のKDツリーの葉ノードの上の特定の高さの第2のKDツリーのノードを指し示す(第2の配列データ構造の対応する要素内の)ポインタを設定することによってキャッシュを更新するように構成される。探索は、第3の3D点群113のすべての点について行われ、第3の3D点群113と第1の3D点群136との間の対応のリストが得られる。
閾値ユークリッド距離を超えて離れた点間の点対応は破棄される。閾値ユークリッド距離を超える点間の点対応を破棄することは、点群をセグメント化することに対応する。セグメント化段階が行われた後に残る点対応は、変換行列を推定するために使用される。いくつかの例では、変換行列は特異値分解を使用して推定される。最近傍探索、セグメント化、および変換行列推定の各段階は、第2のセンサ110から新しい入力フレームが利用可能になるまで、または所定回数の反復が行われるまで反復される。最後の反復で残る第3の3D点群113の点は、第2の記録された3D点群144に対応する。
上述したKDツリーおよびサブツリーキャッシングの技法を使用して第1の記録された3D点群142を生成することにより、KDツリーおよびサブツリーキャッシングを用いないシステムが同じ時間量で記録できるよりも複数のセンサ107からの多くの点群を記録することが可能になり、システム100によるリアルタイムの記録の実現が可能になる。
プロセッサ126(例えば、セグメント化・記録エンジン138)は、結合された3D点群を形成するために、同じ時刻と関連付けられた記録された点群140を融合または結合するように構成される。例えば、上述したように、第2の3D点群111と第3の3D点群113とが同じ時刻と関連付けられている場合がある。この例では、したがって、第1の記録された3D点群142と第2の記録された3D点群144とは同じ時刻と関連付けられている。この例では、プロセッサ126は、結合された3D点群106を生成するために、第1の記録された3D点群142と第2の記録された3D点群144とを融合または結合するように構成される。プロセッサ126は、複数のセンサ107からの入力データに基づいて生成された点群と関連付けられた時刻に対応する記録された点群を融合または結合し、結合された3D点群のストリームまたはシーケンスを得ることによって、複数の結合された3D点群(のストリームやシーケンスなど)を生成しうる。
プロセッサ126は、比較器146を含む。比較器146は、結合された3D点群の各々をメッシュモデル132と比較するように構成される。例えば、比較器146は、結合された3D点群106をメッシュモデル132と比較するように構成される。いくつかの例では、比較器146は、結合された3D点群モデルの各々をメッシュモデルと比較して、結合された3D点群の点ごとに、各点に最も近いメッシュモデル132のメッシュ面を特定するように構成される。例えば、比較器146は、結合された3D点群106をメッシュモデル132と比較して、結合された3D点群106の点ごとに、メッシュモデル132の点に最も近いメッシュ面を特定するように構成される。点に最も近いメッシュ面は、点の「対応メッシュ面」と呼ばれる。比較器146は、結合された3D点群106の点ごとに、各点と対応メッシュ面の最も近い部分との間の距離を決定するようにさらに構成される。いくつかの例では、結合された3D点群106のすべての点がメッシュモデル132の他のメッシュ面により近いために、メッシュ面が結合された3D点群106の対応点を含まない場合もある。プロセッサ126は、結合された3D点群106の複数の対応点と関連付けられたメッシュモデルのメッシュ面ごとに、複数の対応点と各メッシュ面との間の平均距離を決定するように構成される。
プロセッサ126は、比較に基づいて、完成状態モデルによって表される(例えば、結合された3D点群の各々によって表される)オブジェクト104と、設計状態モデル(例えば3Dモデル102)によって表されるオブジェクト104との間の差異を示す出力データ148を生成するように構成される。例えば、プロセッサ126は、比較に基づいて、結合された3D点群106によって表されるオブジェクト104とオブジェクト104の3Dモデル102によって表される(例えば、メッシュモデル132によって表される)オブジェクト104との間の差異152を示す出力データ148を生成するように構成される。
いくつかの例では、差異152は、メッシュモデル132のメッシュ面ごとに決定された差異を含む。これらの例では、プロセッサ126は、メッシュモデル132のメッシュ面ごとの差異を決定するように構成される。結合された3D点群106の単一の対応点と関連付けられた特定のメッシュ面について決定される差異は、単一の点とメッシュ面の最も近い部分との間の距離に基づくものである。結合された3D点群106の複数の対応点と関連付けられた特定のメッシュ面について決定される差異は、複数の対応点とメッシュ面との間の平均距離(例えば、メッシュ面について決定された平均距離)に基づくものである。
システム100は、出力データ148に基づいて差異152のグラフィック表示156を表示するディスプレイ154を含む。例えば、ディスプレイ154はモニタや他の表示装置を含んでいてよく、グラフィック表示156は、メッシュ面について決定された(差異152の)差異に基づいてメッシュモデル132のメッシュ面ごとの色を示すヒートマップまたはカラーマップを含んでいてよい。例えば、プロセッサ126は、第1のメッシュ面のそれぞれの部分と、第1のメッシュ面に対応する結合された3D点群106の点との間の平均距離に基づいて第1のメッシュ面の0.5マイクロメーターの値に対応する第1の差異を決定し、第2のメッシュ面のそれぞれの部分と、第2のメッシュ面に対応する結合された3D点群106の点との間の平均距離に基づいて第2のメッシュ面の0.7マイクロメーターの値に対応する第2の差異を決定することができる。ディスプレイ154は、第1のメッシュ面に第2のメッシュ面の色と異なる色を表示することができ、第2のメッシュ面に使用される色は、第1のメッシュ面に使用される色よりも大きい3Dモデル102との相違を示しうる。
よって、システム100は、3Dモデル102(例えば、設計状態モデルに基づくメッシュモデル132)とセンサデータからのモデル(例えば、結合された3D点群106に対応する完成状態モデル)との間の相違を示す出力を生成する。出力は、メッシュモデルのメッシュ面ごとに、メッシュ面と結合された3D点群106との間の相違を示し、システムがオブジェクトレベルで相違を示すより細かい解像度で相違の指示を提供する。加えて、セグメント化・記録エンジン138は、出力が、上述したように複数のセンサ107からのデータストリームに基づいてリアルタイムで生成されることを可能にする。
リアルタイムでの差異を示す出力を生成できることにより、リアルタイムの計測が可能になる。例えば、システム100は、製造プロセスにおいて、結合された構成要素のモデルと、それらの構成要素が相互に移動されて近接する際の構成要素の結合された3D点群との間のずれを検出したことに基づいて、相互に接合されるべき2つの構成要素がずれていると判定することができる。システム100は、設計状態モデルと完成状態モデルとの間の差異152またはずれが閾値を満たすことを示す出力データ148に基づいて、警告を生成するように構成することができ、これにより、2つの構成要素が相互に誤って接合または付着される前に接合または結合プロセスを中断させることが可能になる。
別の例として、システム100は、製造プロセスにおいて工場現場で使用されうる。この例では、複数のセンサ107は、オブジェクト104がオブジェクト104の製造中に工場現場を移動する際のオブジェクト104を含む1または複数のオブジェクトを含む工場現場の一部の場面の画像データを提供するように構成されうる。システム100は、工場現場の新しい部分または構成要素を、オブジェクト認識に基づいてオブジェクト104に対応するものとして検出しうる。システム100は、オブジェクト104が工場を移動する際にオブジェクト104の完成状態モデル(例えば、結合された3D点群)を生成することによって、オブジェクト104に欠陥がないかを自動的に監視しうる。システム100は、完成状態モデルを設計状態モデル(例えば、3Dモデル102)と比較し、比較の結果(例えば、グラフィック表示156)を表示装置(例えば、ディスプレイ154)に表示しうる。システム100は、製造プロセスの自動化された部分に、完成時のオブジェクト104の外観が誤っていることを示す表示結果に基づいて製造を調整するよう指示する能力を含みうる。
例えば、システム100は、ずれが閾値を超えていることを示す出力データ148に基づいて製造仕様を調整すべきであることを検出するように構成されうる。例えば、工場現場で行われる製造プロセスは、特定の構成要素(例えば、オブジェクト104)内に穴、開口部または空洞を形成することを含む場合があり、システム100は、その特定の構成要素の製造時にその特定の構成要素の生産を監視するように取り付けられ、構成されうる。システム100は、穴、開口部または空洞に対応するメッシュ面と関連付けられたずれを示す出力データ148に基づいて、穴、開口部または空洞と関連付けられたずれ(例えば、誤ったサイズや位置)を検出するように構成されうる。システム100は、ずれが閾値を満たしていると判断し、警告を生成することができ、正しいサイズまたは正しい位置で穴、開口部または空洞を生成するように製造プロセスを調整することが可能になる。あるいは、システム100は、工場のロボットに誤差を補正するように自動的に指示してもよい(例えば、ロボットに、穴、開口部または空洞が存在すべき場所を指示し、それによってロボットに、穴、開口部または空洞を形成する位置を補正させることができる)。
図2に、図1のシステム100の動作時の例示的な段階を示す図を示す。第1段階では、センサデータ(例えば、第1のセンサデータ114および第2のセンサデータ116)が、複数のセンサ107のそれぞれのセンサによって収集される。例えば、第1のセンサデータ114および第2のセンサデータ116が、それぞれ図1の第1のセンサ108および第2のセンサ110によって収集されうる。例示を容易にするために、図2には、2組のセンサデータ114、116および関連する動作のみが示されている。しかし、システム100が3つ以上のセンサを含む場合には、後述する動作と同様の動作が、他のセンサの各々からのセンサデータについても実行されうる。
第2の3D点群111および第3の3D点群113は、上述したようにそれぞれ第1のセンサデータ114および第2のセンサデータ116に基づいて生成される。図2には、第2の3D点群111の点のグラフィック表現201と、第1のセンサ108によって取り込まれた場面に含まれるオブジェクト104の例の輪郭(破線)とが示されている。オブジェクト104の輪郭線(破線)は状況説明のために描かれており、第2の3D点群111には存在しない。図2にはまた、第3の3D点群113の点のグラフィック表現203と、第2のセンサ110によって取り込まれた場面に含まれるオブジェクト104の例の輪郭(破線)とが示されている。オブジェクト104の輪郭線(破線)は状況説明のために描かれており、第3の3D点群113には存在しない。
第2の3D点群111は、オブジェクト104に対応する図1の第1の点122(例えば、破線の輪郭内の点)と、第1のセンサ108によって取り込まれた場面の他の部分に対応する点202、204、206とを含む。第3の3D点群113は、オブジェクト104に対応する図1の第2の点124(例えば、破線の輪郭内の点)と、第2のセンサ110によって取り込まれた場面の他の部分に対応する点208、212、214とを含む。第2の3D点群111は、第1のセンサ108の座標系232で定義されている。第3の3D点群113は、第2のセンサ110の座標系234で定義されている。
第2段階では、第2の3D点群111および第3の3D点群113が個別にセグメント化され、第1の記録された3D点群142および第2の記録された3D点群144を生成するために第1の3D点群136に記録される。第2の3D点群111および第3の3D点群113は、図1を参照して上述したように、個別にセグメント化され、記録されうる。図2には、第1の記録された3D点群142の一例のグラフィック描写205が示されており、第2の記録された3D点群144の一例のグラフィック描写207が示されている。第1の記録された3D点群142は、オブジェクト104に対応する第1の点122を含み、第1のセンサ108によって取り込まれた場面の他の部分に対応する点202、204、206を含まない。第1の記録された3D点群142は、3Dモデル102の座標系236に記録される。第2の記録された3D点群144は、オブジェクト104に対応する第2の点124を含み、第2のセンサ110によって取り込まれた場面の他の部分に対応する点208、212、214を含まない。第2の記録された3D点群144は、図1の3Dモデル102の座標系236に記録される。
第3段階では、第1の記録された3D点群142と第2の記録された3D点群144とを融合することによって図1の結合された3D点群106が生成される。図2には、図1の結合された3D点群106の例のグラフィック描写209が示されている。
第4段階では、図1の結合された3D点群106が図1のメッシュモデル132と比較される。図2には、図1のメッシュモデル132のグラフィック描写が示されている。メッシュモデル132は、複数のメッシュ面221、222、223、224、225、226、227、228、229、230などの複数の面を含む。図1の結合された3D点群106は、図1を参照して上述したように、メッシュモデル132と比較される。例えば、図1のプロセッサ126は、結合された3D点群106の点ごとに、複数のメッシュ面221、222、223、224、225、226、227、228、229、230の、メッシュモデル132に最も近いメッシュ面を特定しうる。例えば、プロセッサ126は、点262、264、266、268に最も近いメッシュ面はメッシュ面230であると判断しうる。
プロセッサ126は、結合された3D点群106の各点と、各点の対応メッシュ面の最も近い部分との間の距離を決定しうる。例えば、プロセッサ126は、メッシュ面230の部分272が点262に最も近く、メッシュ面230の部分274が点264に最も近く、メッシュ面230の部分276が点266に最も近く、メッシュ面230の部分278が点268に最も近いと判断しうる。プロセッサ126は、点262と部分272との間の距離282、点264と部分274との間の距離284、点266と部分276との間の距離286、および点268と部分278との間の距離288を決定しうる。
結合された3D点群106の複数の対応点を含むメッシュ面ごとに、プロセッサ126は、対応点とメッシュ面との間の平均距離を決定する。例えば、メッシュ面230について、プロセッサ126は、距離282、284、286、288の平均値を決定しうる。
第5段階では、プロセッサ126は、結合された3D点群106と3Dモデル102(例えば、メッシュモデル132)との間の差異を示す出力データを提供する。この差異は、メッシュモデル132のメッシュ面ごとに決定された差異を含む。出力データは、差異152のグラフィック表示156を表示するディスプレイ154に提供される。グラフィック表示156は、色に基づいて3Dモデル102からのずれ量を示すヒートマップまたはカラーマップの形態であってもよい。例えば、図2には、グラフィック表示156の一例が示されている。グラフィック表示156の各メッシュ面は、カラーマップの色に対応しうる対応するシェーディングを有する。各シェーディングは、その差異に基づくメッシュ面と結合された3D点群106との間のずれ量を示すことができる。
図3に、複数のセンサからのセンサデータに基づいて、オブジェクトのメッシュモデルと結合された3D点群との間の差異を示す出力データを生成する方法300のフローチャートを示す。いくつかの例では、方法300は、図1のシステム100によって行われる。方法300は、302で、第1の3D点群と第2の3D点群とに基づいて、第1の記録された3D点群を生成するステップを含む。例えば、第1の記録された3D点群は、図1を参照して上述した第1の記録された3D点群142に対応し、第1の3D点群は第1の3D点群136に対応し、第2の3D点群は第2の3D点群111に対応しうる。第2の3D点群は、第1のセンサからの第1のセンサデータに基づくものであり、第1の3D点群は、オブジェクトの3Dモデルに基づくものである。例えば、第2の3D点群は第1のセンサデータ114に基づいて生成され、第1の3D点群は、図1を参照して上述したオブジェクト104の3Dモデル102に基づいて生成されうる。
方法300は、304で、第1の3D点群と第3の3D点群とに基づいて、第2の記録された3D点群を生成するステップを含む。例えば、第2の記録された3D点群は、図1を参照して上述した第2の記録された3D点群144に対応し、第3の3D点群は第3の3D点群113に対応しうる。第3の3D点群は、第2のセンサからの第2のセンサデータに基づくものである。例えば、第3の3D点群は、図1を参照して上述したように第2のセンサデータ116に基づいて生成されうる。
方法300は、306で、第1の記録された3D点群と第2の記録された3D点群とに基づいて、結合された3D点群を生成するステップを含む。例えば、結合された3D点群は、図1を参照して上述した結合された3D点群106に対応し、結合された3D点群は、図1を参照して上述したようにプロセッサ126によって生成されうる。システム100が3つ以上のセンサを含む実施態様では、記録された点群が他のセンサからのセンサデータに基づいて同様に生成される。そのような実施態様では、結合された3D点群は、他のセンサと関連付けられた記録された点群にも基づくものである。
方法300は、308で、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較するステップを含む。例えば、メッシュモデルは、図1または図2のメッシュモデル132に対応しうる。結合された3D点群は、図1および図2を参照して上述したように、メッシュモデルと比較されうる。いくつかの実施態様では、結合された3D点群をオブジェクトのメッシュモデルと比較するステップは、結合された3D点群の点ごとに、メッシュモデルの対応メッシュ面を決定するステップを含む。例えば、図1のプロセッサ126は、図1を参照して上述したように、結合された3D点群の点ごとにメッシュモデルの対応メッシュ面を決定しうる。いくつかの実施態様では、結合された3D点群をメッシュモデルと比較するステップは、点と点の対応メッシュ面との間の距離を決定するステップをさらに含む。いくつかの実施態様では、結合された3D点群をメッシュモデルと比較するステップは、結合された3D点群の複数の対応点と関連付けられたメッシュモデルのメッシュ面ごとに、複数の対応点とメッシュ面との間の平均距離を決定するステップを含む。
方法300は、310で、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成するステップをさらに含む。いくつかの実施態様において、差異は、メッシュモデルのメッシュ面ごとに決定された差異を含み、結合された3D点群の複数の対応点と関連付けられた特定のメッシュ面の差異は、メッシュ面について決定された平均距離に基づくものである。
いくつかの実施態様において、方法300は、差異を表示するステップをさらに含む。例えば、差異はカラーマップを使用して表示されてもよく、メッシュモデルの各メッシュ面はメッシュ面について決定された差異に基づく色を割り当てられる。よって、ディスプレイは、完成時のオブジェクトと設計時のオブジェクトとの間の差異を図式的に示す。
図4は、本開示によるコンピュータ実装方法およびプロセッサ実行可能プログラム命令(またはコード)の実施形態をサポートするように構成されたデバイス410(例えば、汎用コンピューティングデバイス)を含むコンピューティング環境400のブロック図である。例えば、コンピューティングデバイス410またはその部分は、システム100の機能またはプロセッサ126などのシステム100の一部分の機能を果たすプロセッサ実行可能命令を実行しうる。システム100(またはプロセッサ126、セグメント化・記録エンジン138、比較器146など、システム100の一部分)を制御するプロセッサ実行可能命令は、図1、図2、または図3を参照して上述したように、図1の結合された3D点群106を生成し、結合された3D点群106をメッシュモデル132と比較し、差異152を示す出力データ148を生成するプロセッサ実行可能命令を含みうる。コンピューティングデバイス410またはその一部分は、図3の方法300など、本明細書に記載の方法のいずれかによるプロセッサ実行可能命令をさらに実行しうる。
プロセッサ126は、システムメモリ430、1もしくは複数の記憶装置440、またはそれらの組み合わせなどの非一時的なプロセッサ読み取り可能な媒体と通信しうる。プロセッサ126は、1もしくは複数の入出力インターフェース450、1もしくは複数の通信インターフェース460、またはそれらの組み合わせともさらに通信しうる。システムメモリ430は、揮発性メモリデバイス(例えば、ランダム・アクセス・メモリ(RAM)デバイス)、不揮発性メモリデバイス(例えば、読み出し専用メモリ(ROM)デバイス、プログラム可能な読み出し専用メモリ、およびフラッシュメモリ)、またはその両方含みうる。システムメモリ430は、コンピューティングデバイス410を起動するための基本入出力システムと、コンピューティングデバイス410がユーザー、他のプログラム、および他のデバイスと対話することを可能にする完全なオペレーティングシステムを含むオペレーティングシステム432も含みうる。システムメモリ430は、プロセッサ126によって実行可能な1または複数のアプリケーション(例えば、プロセッサ実行可能命令)434を含み、または格納しうる。例えば、1または複数のアプリケーション434は、図1〜図3を参照して上述した1または複数の機能またはステップを実行するためにプロセッサ126によって実行可能なプロセッサ実行可能命令を含みうる。
例えば、システムメモリ430は、プロセッサ126によって実行されると、図1〜図3を参照して上述したように、プロセッサ126に、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成させるプロセッサ実行可能命令を格納しうる。プロセッサ実行可能命令は、プロセッサ126によって実行されると、図1〜図3を参照して上述したように、プロセッサ126に、第1の3D点群と第3の3D点群とに基づいて第2の記録された3D点群を生成させる。プロセッサ実行可能命令は、プロセッサ126によって実行されると、図1〜図3を参照して上述したように、プロセッサ126に、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成させる。プロセッサ実行可能命令は、プロセッサ126によって実行されると、図1〜図3を参照して上述したように、プロセッサ126に、結合された3D点群をオブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較させる。プロセッサ実行可能命令は、プロセッサ126によって実行されると、図1〜図3を参照して上述したように、プロセッサ126に、比較に基づいて、結合された3D点群によって表されるオブジェクトと、3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成させる。
プロセッサ126はまた、1または複数の記憶装置440と通信しうる。例えば、1または複数の記憶装置440は、磁気ディスク、光ディスク、フラッシュメモリデバイスなどの不揮発性記憶装置を含みうる。記憶装置440は、リムーバブル・メモリ・デバイスと非リムーバブル・メモリデバイスの両方を含みうる。記憶装置440は、オペレーティングシステム、オペレーティングシステムの画像、アプリケーション、およびプログラムデータを格納するように構成されうる。記憶装置440はまた、3Dモデル102も格納しうる。特定の実施形態では、システムメモリ430、記憶装置440、またはその両方が、有形のコンピュータ読み取り可能な媒体を含む。
プロセッサ126は、コンピューティングデバイス410がユーザー対話を容易にする1または複数の入出力デバイス470と通信することを可能にする1または複数の入出力インターフェース450と通信しうる。入出力インターフェース450は、シリアルインターフェース(例えば、USB(universal serial bus、ユニバーサル・シリアル・バス)インターフェースやIEEE(Institute of Electrical and Electronics Engineers、米国電気電子技術者協会)1394インターフェース)、パラレルインターフェース、ディスプレイアダプター、オーディオアダプター、および他のインターフェースを含みうる。入出力デバイス470は、キーボード、ポインティングデバイス、ディスプレイ、スピーカー、マイクロホン、タッチスクリーン、および他のデバイスを含みうる。プロセッサ126は、入出力インターフェース450を介して受け取られたユーザー入力に基づいて対話イベントを検出しうる。加えて、プロセッサ126は、入出力インターフェース450を介して表示装置(例えば、出力装置180)に表示を送信しうる。
プロセッサ126は、1または複数の通信インターフェース460を介して、複数のセンサ107、1もしくは複数のデバイス480、またはそれらの組み合わせと通信しうる。1または複数の通信インターフェース460は、有線イーサネット(登録商標)インターフェース、IEEE802無線インターフェース、他の無線通信インターフェース、または他のネットワークインターフェースを含みうる。1または複数のデバイス480は、ホストコンピュータ、サーバ、ワークステーション、および他のコンピューティングデバイスを含みうる。
本明細書に記載した例の説明は、様々な実施形態の構造の一般的な理解を提供するためのものである。これらの説明は、本明細書に記載した構造または方法を利用した装置およびシステムのすべての要素および特徴の完全な説明として使用されることを意図したものではない。本開示を考察すれば当業者には多くの他の実施形態が明らかになるであろう。本開示から他の実施形態を利用し、考案することもでき、よって、本開示の範囲を逸脱することなく構造的、論理的な置き換えおよび変更を行うことができる。例えば、方法ステップは、図示された順序と異なる順序で実行されてもよく、1または複数の方法ステップが省略されてもよい。したがって、本開示および各図は、限定ではなく例示とみなされるべきである。
添付の各図に示されているフローチャート、モジュール、または構成要素は、ソフトウェア命令およびハードウェア論理に基づいて動作するハードウェア、ハードウェアに動作を行うよう指図するソフトウェア、またはその両方を表しうる。特に、図1〜図4を参照して上述したセグメント化・記録エンジン138、比較器146、またはそれらの組み合わせは、図1〜図4を参照して上述したプロセッサ126を、図1〜図4を参照して上述したセグメント化・記録エンジン138、比較器146、またはそれらの組み合わせを有しないプロセッサと比較して専用のプロセッサに変換する。
さらに、本開示は、以下の各項目による実施形態を含む。
項目1.第1のセンサデータを生成する第1のセンサと、第2のセンサデータを生成する第2のセンサと、オブジェクトの3次元(3D)モデルを格納するメモリと、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成し、第2の3D点群が第1のセンサデータに基づくものであり、第1の3D点群がオブジェクトの3Dモデルに基づくものであり、第1の3D点群と、第2のセンサデータに基づくものである第3の3D点群とに基づいて第2の記録された3D点群を生成し、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成し、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較し、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成する、プロセッサと、出力データに基づいて差異のグラフィック表示を表示するように構成されたディスプレイと、を含む、システム。
項目2.第1の記録された3D点群と第2の記録された3D点群とは3Dモデルの座標系に記録される、項目1に記載のシステム。
項目3.プロセッサは、第1の記録された3D点群および第2の記録された3D点群を生成するために反復最近接点アルゴリズムを実行するように構成される、項目1に記載のシステム。
項目4.結合された3D点群をオブジェクトのメッシュモデルと比較するために、プロセッサは、結合された3D点群の点ごとに、メッシュモデルの対応メッシュ面を決定し、各点と各点の対応メッシュ面との間の距離を決定する、ように構成される、項目1に記載のシステム。
項目5.結合された3D点群をメッシュモデルと比較するために、プロセッサは、結合された3D点群の複数の対応点と関連付けられたメッシュモデルのメッシュ面ごとに、複数の対応点とメッシュ面との間の平均距離を決定するようにさらに構成される、項目4に記載のシステム。
項目6.差異は、メッシュモデルのメッシュ面ごとに決定された差異を含み、結合された3D点群の複数の対応点と関連付けられた特定のメッシュ面の差異は、メッシュ面について決定された平均距離に基づくものである、項目5に記載のシステム。
項目7.3Dモデルはコンピュータ支援設計(CAD)モデルを含み、プロセッサは、CADモデルに基づいてメッシュモデルを生成し、CADモデルに基づいて第1の3D点群を生成する、ようにさらに構成される、項目1に記載のシステム。
項目8.第1の3次元(3D)点群と第2の3D点群とに基づいて第1の記録された3D点群を生成するステップであって、第2の3D点群は第1のセンサからの第1のセンサデータに基づくものであり、第1の3D点群はオブジェクトの3Dモデルに基づくものである、ステップと、第1の3D点群と第3の3D点群とに基づいて第2の記録された3D点群を生成するステップであって、第3の3D点群は第2のセンサからの第2のセンサデータに基づくものである、ステップと、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成するステップと、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較するステップと、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成するステップと、を含む、方法。
項目9.第1の記録された3D点群と第2の記録された3D点群とは3Dモデルの座標系に記録される、項目8に記載の方法。
項目10.第1の記録された3D点群と第2の記録された3D点群とを生成するステップは、反復最近接点アルゴリズムを実行するステップを含む、項目9に記載の方法。
項目11.結合された3D点群をオブジェクトのメッシュモデルと比較するステップは、結合された3D点群の点ごとに、メッシュモデルの対応メッシュ面を決定するステップと、各点と各点の対応メッシュ面との間の距離を決定するステップと、を含む項目10に記載の方法。
項目12.結合された3D点群をメッシュモデルと比較するステップは、結合された3D点群の複数の対応点と関連付けられたメッシュモデルのメッシュ面ごとに、複数の対応点とメッシュ面との間の平均距離を決定するステップを含む、項目11に記載の方法。
項目13.差異は、メッシュモデルのメッシュ面ごとに決定された差異を含み、結合された3D点群の複数の対応点と関連付けられた特定のメッシュ面の差異は、メッシュ面について決定された平均距離に基づくものである、項目12に記載の方法。
項目14.3Dモデルはコンピュータ支援設計(CAD)モデルを含み、CADモデルに基づいてメッシュモデルを生成するステップと、CADモデルに基づいて第1の3D点群を生成するステップと、をさらに含む、項目13に記載の方法。
項目15.プロセッサによって実行されると、プロセッサに、第1の3D点群と第2の3D点群とに基づいて第1の記録された3D点群を生成させ、第2の3D点群が第1のセンサからの第1のセンサデータに基づくものであり、第1の3D点群がオブジェクトの3次元(3D)モデルに基づくものであり、第1の3D点群と第3の3D点群とに基づいて第2の記録された3D点群を生成させ、第3の3D点群が第2のセンサからの第2のセンサデータに基づくものであり、第1の記録された3D点群と第2の記録された3D点群とに基づいて結合された3D点群を生成させ、結合された3D点群を、オブジェクトの3Dモデルに基づくものであるオブジェクトのメッシュモデルと比較させ、比較に基づいて、結合された3D点群によって表されるオブジェクトとオブジェクトの3Dモデルによって表されるオブジェクトとの間の差異を示す出力データを生成させるプロセッサ実行可能命令を格納した非一時的なプロセッサ読み取り可能な媒体。
項目16.第1の記録された3D点群と第2の記録された3D点群とは3Dモデルの座標系に記録される、項目15に記載の非一時的なプロセッサ読み取り可能な媒体。
項目17.第1の記録された3D点群と第2の記録された3D点群とを生成することは、反復最近接点アルゴリズムを実行することを含む、項目16に記載の非一時的なプロセッサ読み取り可能な媒体。
項目18.結合された3D点群をオブジェクトのメッシュモデルと比較することは、結合された3D点群の点ごとに、メッシュモデルの対応メッシュ面を決定することと、各点と各点の対応メッシュ面との間の距離を決定することと、を含む、項目17に記載の非一時的なプロセッサ読み取り可能な媒体。
項目19.結合された3D点群をメッシュモデルと比較することは、結合された3D点群の複数の対応点と関連付けられたメッシュモデルのメッシュ面ごとに、複数の対応点とメッシュ面との間の平均距離を決定することを含む、項目18に記載の非一時的なプロセッサ読み取り可能な媒体。
項目20.差異は、メッシュモデルのメッシュ面ごとに決定された差異を含み、結合された3D点群の複数の対応点と関連付けられた特定のメッシュ面の差異は、メッシュ面について決定された平均距離に基づくものである、項目19に記載の非一時的なプロセッサ読み取り可能な媒体。
さらに、本明細書では特定の例について図示し、説明したが、図示した特定の実施形態の代わりに同じ結果または類似した結果を達成するように設計された任意の後続の構成が用いられうることを理解されたい。本開示では、様々な実施形態のすべての後続の適合形態または変形形態を包含することが意図されている。説明を考察すれば当業者には、上記の実施形態の組み合わせ、および本明細書に具体的に記載されていない他の実施形態が明らかになるであろう。
本開示の要約書は、特許請求の範囲または意味を解釈または限定するために使用されないという了解のもとで提出されたものである。加えて、以上の詳細な説明では、本開示を簡素化する目的で、様々な特徴がまとめてグループ化され、または単一の実施形態として記載されている場合もある。添付の特許請求の範囲が表すように、特許請求される主題は、開示の例のいずれかのすべてには満たない特徴を対象とする場合もある。
上述した例は、本開示を例示するが、本開示を限定するものではない。また、本開示の原理に従った多くの改変形態および変形形態が可能であることも理解されたい。したがって、本開示の範囲は、添付の特許請求の範囲およびそれらの均等物によって定義される。
100 システム
102 3Dモデル
104 オブジェクト
106 結合された3D点群
107 センサ
108 第1のセンサ
110 第2のセンサ
111 第2の3D点群
112 メモリ
113 第3の3D点群
114 第1のセンサデータ
115 第Nのセンサ
116 第2のセンサデータ
117 第Nのセンサデータ
122 第1の点
124 第2の点
126 プロセッサ
128 メッシュジェネレータ
132 メッシュモデル
134 点群生成器
136 第1の3D点群
138 セグメント化・記録エンジン
140 記録された3D点群
142 第1の記録された3D点群
144 第2の記録された3D点群
145 第Nの記録された3D点群
146 比較器
148 出力データ
152 差異
154 ディスプレイ
156 グラフィック表示
180 出力装置
201 グラフィック表現
202 点
203 グラフィック表現
204 点
205 グラフィック描写
206 点
207 グラフィック描写
208 点
209 グラフィック描写
212 点
214 点
221 メッシュ面
222 メッシュ面
223 メッシュ面
224 メッシュ面
225 メッシュ面
226 メッシュ面
227 メッシュ面
228 メッシュ面
229 メッシュ面
230 メッシュ面
232 座標系
234 座標系
236 座標系
262 点
264 点
266 点
268 点
272 部分
274 部分
276 部分
278 部分
282 距離
284 距離
286 距離
288 距離
400 コンピューティング環境
410 コンピューティングデバイス
430 システムメモリ
432 オペレーティングシステム
434 アプリケーション
440 記憶装置
450 入出力インターフェース
460 通信インターフェース
480 デバイス

Claims (11)

  1. 第1のセンサデータ(114)を生成する第1のセンサ(108)と、
    第2のセンサデータ(116)を生成する第2のセンサ(110)と、
    オブジェクト(104)の3次元(3D)モデル(102)を格納するメモリ(112)と、
    プロセッサ(126)と、
    出力データ(148)に基づいて差異(152)のグラフィック表示(156)を表示するように構成されたディスプレイ(154)と
    を含んでなるシステム(100)であって、
    前記プロセッサ(126)が、
    第1の3D点群(136)と第2の3D点群(111)とに基づいて第1の記録された3D点群(142)を生成し、前記第2の3D点群(111)が前記第1のセンサデータ(114)に基づき、前記第1の3D点群(136)が前記オブジェクト(104)の3Dモデルに基づくもので、
    前記第1の3D点群(136)と、前記第2のセンサデータ(116)に基づくものである第3の3D点群(113)とに基づいて第2の記録された3D点群(144)を生成し、
    前記第1の記録された3D点群(142)と前記第2の記録された3D点群(144)とに基づいて結合された3D点群(106)を生成し、
    前記結合された3D点群(106)を、前記オブジェクト(104)の前記3Dモデル(102)に基づくものである前記オブジェクト(104)のメッシュモデル(132)と比較し、
    当該比較に基づいて、前記結合された3D点群(106)によって表される前記オブジェクト(104)と前記オブジェクト(104)の前記3Dモデル(102)によって表される前記オブジェクト(104)との間の前記差異(152)を示す前記出力データ(148)を生成する、
    ことを特徴とするシステム(100)。
  2. 前記第1の記録された3D点群(142)および前記第2の記録された3D点群(144)が、前記3Dモデル(102)の座標系に記録されることを特徴とする、請求項1に記載のシステム(100)。
  3. 前記プロセッサ(126)は、前記第1の記録された3D点群(142)および前記第2の記録された3D点群(144)を生成するために反復最近接点アルゴリズムを実行するように構成されることを特徴とする、請求項1に記載のシステム(100)。
  4. 前記結合された3D点群(106)を前記オブジェクト(104)の前記メッシュモデル(132)と比較するために、前記プロセッサ(126)は、前記結合された3D点群(106)の点ごとに、
    前記メッシュモデル(132)の対応メッシュ面を決定し、
    点と前記点の対応メッシュ面との間の距離を決定する、
    ように構成され、
    前記プロセッサ(126)は、前記結合された3D点群(106)の複数の対応点と関連付けられた前記メッシュモデル(132)のメッシュ面ごとに、前記複数の対応点と前記メッシュ面との間の平均距離を決定するように構成されることを特徴とする、請求項1に記載のシステム(100)。
  5. 前記差異(152)が、前記メッシュモデル(132)のメッシュ面ごとに決定された差異を含み、前記結合された3D点群(106)の複数の対応点と関連付けられた特定のメッシュ面の差異が、前記メッシュ面について決定された前記平均距離に基づくものであることを特徴とする、請求項4に記載のシステム(100)。
  6. 第1の3次元(3D)点群(136)と第2の3D点群(111)とに基づいて第1の記録された3D点群(142)を生成するステップであって、前記第2の3D点群(111)は第1のセンサ(108)からの第1のセンサデータ(114)に基づくもので、前記第1の3D点群(136)はオブジェクト(104)の3Dモデル(102)に基づくものである、第1の記録された3D点群(142)を生成するステップと、
    前記第1の3D点群(136)と第3の3D点群(113)とに基づいて第2の記録された3D点群(144)を生成するステップであって、前記第3の3D点群(113)は第2のセンサ(110)からの第2のセンサデータ(116)に基づくものである、第2の記録された3D点群(144)を生成するステップと、
    前記第1の記録された3D点群(142)と前記第2の記録された3D点群(144)とに基づいて結合された3D点群(106)を生成するステップと、
    前記結合された3D点群(106)を、前記オブジェクト(104)の前記3Dモデル(102)に基づくものである前記オブジェクト(104)のメッシュモデル(132)と比較するステップと、
    前記比較に基づいて、前記結合された3D点群(106)によって表される前記オブジェクト(104)と、前記オブジェクト(104)の前記3Dモデル(102)によって表される前記オブジェクト(104)と、の間の差異(152)を示す出力データ(148)を生成するステップと、
    を含んでなることを特徴とする方法。
  7. 前記第1の記録された3D点群(142)と前記第2の記録された3D点群(144)とが、前記3Dモデル(102)の座標系に記録されることを特徴とする、請求項6に記載の方法。
  8. 前記第1の記録された3D点群(142)と前記第2の記録された3D点群(144)とを生成するステップが、反復最近接点アルゴリズムを実行するステップを含むことを特徴とする、請求項7に記載の方法。
  9. 前記結合された3D点群(106)を前記オブジェクト(104)の前記メッシュモデル(132)と比較するステップが、前記結合された3D点群(106)の点ごとに、
    前記メッシュモデル(132)の対応メッシュ面を決定するステップと、
    点と前記点の対応メッシュ面との間の距離を決定するステップと、
    を含むことを特徴とする、請求項8に記載の方法。
  10. 前記結合された3D点群(106)を前記メッシュモデル(132)と比較するステップが、前記結合された3D点群(106)の複数の対応点と関連付けられた前記メッシュモデル(132)のメッシュ面ごとに、前記複数の対応点と前記メッシュ面との間の平均距離を決定するステップ、を含み、
    前記差異(152)が、前記メッシュモデル(132)のメッシュ面ごとに決定された差異を含み、前記結合された3D点群(106)の複数の対応点と関連付けられた特定のメッシュ面の前記差異が、前記メッシュ面について決定された前記平均距離に基づくものであることを特徴とする、請求項9に記載の方法。
  11. 前記3Dモデル(102)がコンピュータ支援設計(CAD)モデルを含む請求項10に記載の方法であって、
    CADモデルに基づいて前記メッシュモデル(132)を生成するステップと、
    前記CADモデルに基づいて前記第1の3D点群(136)を生成するステップと、
    をさらに含んでなることを特徴とする、請求項10に記載の方法。
JP2018005503A 2017-05-15 2018-01-17 オブジェクト形状および設計からのずれの監視 Active JP6978330B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/595,806 2017-05-15
US15/595,806 US10255480B2 (en) 2017-05-15 2017-05-15 Monitoring object shape and deviation from design

Publications (2)

Publication Number Publication Date
JP2019040577A JP2019040577A (ja) 2019-03-14
JP6978330B2 true JP6978330B2 (ja) 2021-12-08

Family

ID=61017778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005503A Active JP6978330B2 (ja) 2017-05-15 2018-01-17 オブジェクト形状および設計からのずれの監視

Country Status (4)

Country Link
US (1) US10255480B2 (ja)
EP (1) EP3404612B1 (ja)
JP (1) JP6978330B2 (ja)
KR (1) KR102539085B1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565787B1 (en) * 2017-01-27 2020-02-18 NHIAE Group, LLC Systems and methods for enhanced 3D modeling of a complex object
US10600199B2 (en) * 2017-06-27 2020-03-24 Toyota Research Institute, Inc. Extending object detection and identification capability for an object sensor device
US10989795B2 (en) 2017-11-21 2021-04-27 Faro Technologies, Inc. System for surface analysis and method thereof
US10740914B2 (en) * 2018-04-10 2020-08-11 Pony Ai Inc. Enhanced three-dimensional training data generation
CN109015641B (zh) * 2018-08-16 2019-12-03 居鹤华 基于轴不变量的通用6r机械臂逆解建模与解算方法
US10834413B2 (en) * 2018-08-24 2020-11-10 Disney Enterprises, Inc. Fast and accurate block matching for computer generated content
US11182954B2 (en) 2018-09-07 2021-11-23 Hivemapper Inc. Generating three-dimensional geo-registered maps from image data
US10346998B1 (en) * 2019-02-25 2019-07-09 Nurulize, Inc. Method of merging point clouds that identifies and retains preferred points
US10930062B2 (en) * 2019-07-18 2021-02-23 Raytheon Company 3D view model generation of an object utilizing geometrically diverse image clusters
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
US11113844B2 (en) 2019-11-26 2021-09-07 The Boeing Company Systems and methods for automatic quality assessment of multiple-camera calibration
CN111402308B (zh) * 2020-03-17 2023-08-04 阿波罗智能技术(北京)有限公司 障碍物速度的确定方法、装置、设备和介质
US11430182B1 (en) 2021-03-09 2022-08-30 Pony Ai Inc. Correcting or expanding an existing high-definition map
CN113557528B (zh) * 2021-03-30 2023-11-28 商汤国际私人有限公司 生成点云补全网络及点云数据处理方法、装置和系统
CN113111974B (zh) * 2021-05-10 2021-12-14 清华大学 基于深度典型相关分析的视觉-激光雷达融合方法及系统
CN113490406B (zh) * 2021-07-07 2022-09-16 广州市爱浦电子科技有限公司 一种微功率模块电源组成结构的自动化生产方法
KR102554504B1 (ko) * 2022-05-18 2023-07-11 이재경 3d모델 기반 철골 구조물의 자동 검수방법
US20240161261A1 (en) * 2022-11-14 2024-05-16 The Boeing Company Systems and methods for registering data to a coordinate system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8326587B2 (en) 2007-12-13 2012-12-04 The Boeing Company System, method, and computer program product for predicting cruise orientation of an as-built airplane
CN101464999B (zh) 2007-12-19 2011-01-05 鸿富锦精密工业(深圳)有限公司 三维色阶比对系统及方法
US9607370B2 (en) * 2014-01-15 2017-03-28 The Boeing Company System and methods of inspecting an object
FI127088B (en) * 2015-10-20 2017-11-15 Elomatic Oy Method and system for determining the manufacturing dimensions of a connector
US10706615B2 (en) * 2015-12-08 2020-07-07 Matterport, Inc. Determining and/or generating data for an architectural opening area associated with a captured three-dimensional model

Also Published As

Publication number Publication date
EP3404612A1 (en) 2018-11-21
KR20180125379A (ko) 2018-11-23
US10255480B2 (en) 2019-04-09
US20180330149A1 (en) 2018-11-15
EP3404612B1 (en) 2020-11-04
JP2019040577A (ja) 2019-03-14
KR102539085B1 (ko) 2023-05-31

Similar Documents

Publication Publication Date Title
JP6978330B2 (ja) オブジェクト形状および設計からのずれの監視
CN108253941B (zh) 深度传感器噪声
EP2874118B1 (en) Computing camera parameters
KR102318023B1 (ko) 에지를 이용한 3차원 모델 생성
JP6426968B2 (ja) 情報処理装置およびその方法
EP2811463B1 (en) Designing a 3d modeled object with 2d views
JP2016128810A (ja) 奥行きカメラを校正する方法
JP2017111019A (ja) モデル生成装置、位置姿勢算出装置、およびハンドリングロボット装置
CN108961144A (zh) 图像处理系统
JP6091658B2 (ja) 情報処理装置及び情報処理方法及びプログラム
CN109658497B (zh) 一种三维模型重建方法及装置
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
US11908081B2 (en) Method and system for automatic characterization of a three-dimensional (3D) point cloud
JPWO2023112083A5 (ja)
TW201518970A (zh) 量測設備離線點雲模擬系統及方法
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
JP2011048627A (ja) マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム
JP4714050B2 (ja) 3次元形状モデル生成システム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6793055B2 (ja) フィルタ処理装置及びプログラム
JP2016162034A (ja) 3次元モデル生成システム、3次元モデル生成装置および3次元モデル生成方法
CN113657010B (zh) 索具模型的网格划分调整方法、系统以及电子设备
JP6548789B2 (ja) 位置姿勢計測装置及び方法
CN117974793A (zh) 单目螺母6d姿态的估计方法、估计装置和姿态管理系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211111

R150 Certificate of patent or registration of utility model

Ref document number: 6978330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150