JP7327872B2 - コンピュータによる検査システム及び方法 - Google Patents

コンピュータによる検査システム及び方法 Download PDF

Info

Publication number
JP7327872B2
JP7327872B2 JP2020520008A JP2020520008A JP7327872B2 JP 7327872 B2 JP7327872 B2 JP 7327872B2 JP 2020520008 A JP2020520008 A JP 2020520008A JP 2020520008 A JP2020520008 A JP 2020520008A JP 7327872 B2 JP7327872 B2 JP 7327872B2
Authority
JP
Japan
Prior art keywords
sensor package
model
computer model
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020520008A
Other languages
English (en)
Other versions
JP2021524014A (ja
JPWO2019222255A5 (ja
Inventor
ガービス サルギアン,
ボグダン シー. マテル,
タラガイ オスキパー,
ミハイル シジンツェヴ,
ラケッシュ クマー,
スプン サマラセケラ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SRI International Inc
Original Assignee
SRI International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SRI International Inc filed Critical SRI International Inc
Publication of JP2021524014A publication Critical patent/JP2021524014A/ja
Publication of JPWO2019222255A5 publication Critical patent/JPWO2019222255A5/ja
Application granted granted Critical
Publication of JP7327872B2 publication Critical patent/JP7327872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

分野
[0001]本発明の実施形態は、概して、コンピュータによる検査システム(CAIS)及び方法に関し、より詳細には、拡張現実及び自己位置推定(localization、ローカリゼーション)技術を使用して、調査、検査、保守管理及び修復のような用途のために、構造物の精細なレベルの検査及び3D(3次元)モデルに対する比較を実施するのを支援するための方法及びシステムに関する。
背景
[0002]現在、構造物(例えば、鉄道線路、橋梁、建造物又は建造物の部分、「竣工」現場、車両(例えば、船舶、航空機、自動車など)の検査は手動で行われている。手動の検査は、構造物が設計計画、建築基準法、建築モデルなどに準拠していることを確認するために実施されなければならない、煩雑な過程である。労働コストが増大し、検査及び関連付けられる修復/保守管理を実施するには熟練した労働者を見つける必要があるため、手動検査を実施するには、人件費と検査が完了するのを待つ遅延の両方において、法外に費用がかかることになる。
[0003]多くの事例において、特定のミスはコストがかかりすぎて、一定の時点の後では修正することができない(例えば、誤りが後に発見された場合に、鉄道線路を破棄すること)。したがって、検査が完了するまで、特定の構造物に対して建造/作業を続行することはできない。したがって、建造の様々な態様が計画/法令に従って行われることを保証する必要がある。さらに、大規模な構造物及び建造現場を検査するためには、検査される必要がある建造物又は建造物の部分について現場を調査し、すべての必要な図面/計画書を携行し、現場を検査し、任意の不一致を記録するなどのために、多くの時間及び人的資源が必要である。
[0004]したがって、煩雑な手作業を、調査、検査、保守管理及び修復のような用途のために、大きい領域/構造物の自動化された精細なレベルの検査及びモデルに対する比較を実施するのを支援することができるシステム及び方法に置き換える必要がある。
概要
[0005]構造物の検査、誤り分析及び比較のためのコンピュータによる検査システム(CAIS)及び方法が、本明細書において提示される。いくつかの実施形態において、CAISは、第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界の大域的自己位置推定(global localization、グローバルローカリゼーション)情報を決定するように構成されているSLAMシステムと、決定されているグローバルローカリゼーション情報を使用して、検査されている構造物の3Dコンピュータモデル内の対応する位置にインデックス付けすることと、第1のセンサパッケージから得られる観察結果及び/又は情報を、抽出される構造物のモデル3Dコンピュータモデルの局所的領域(local area, ローカルエリア)に位置姿勢合わせ(align、アライン)することとを行うように構成されているモデル位置姿勢合わせ(alignment、アライメント)システムと、構造物の精細なレベルの測定値を得るように構成されている第2のセンサパッケージと、第2のセンサパッケージから構造物に関して得られる精細なレベルの測定値及び情報を、3Dコンピュータモデルと比較するように構成されているモデル認識システムとを含むことができる。
[0006]いくつかの実施形態において、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法は、第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するステップと、決定されているグローバルローカリゼーション情報を使用して、検査されている構造物の3Dコンピュータモデル内の対応する位置にインデックス付けし、モデルの関連部分を抽出するステップと、第1のセンサパッケージから得られる観察結果及び/又は情報を、構造物のモデル3Dコンピュータモデルにアラインするステップと、第2のセンサパッケージを使用して精細なレベルの測定値を得るステップであり、第2のセンサパッケージから構造物に関して得られる情報を、構造物の3Dコンピュータモデルと比較する、測定値を得るステップとを含むことができる。
[0007]いくつかの実施形態において、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法は、第1のセンサパッケージから構造物の3Dコンピュータモデルを受信するステップと、mmレベルの測定を得るように構成されている高分解能センサから得られる構造物に関する精細なレベルの測定値及び情報を使用して、構造物の3D点群表現を生成するステップと、構造物の3d点群表現内で関心物体を検出し、高分解能センサを使用して上記関心物体の測定値及び情報を得るステップと、構造物の3D点群表現を、受信されている3dコンピュータモデルにアラインするステップと、関心物体と、受信されている3dコンピュータモデルとの間の相違を検出するステップとを含むことができる。
[0008]本発明の原理による他の実施形態及びさらなる実施形態が、下記に説明される。
[0009]本発明の原理の上記で記載した特徴を詳細に理解することができるように、上記で簡潔に要約した原理の、より特定的な説明を、実施形態を参照することによって得ることができ、実施形態の一部は添付の図面に示されている。しかしながら、添付の図面は、本発明の原理による典型的な実施形態のみを示しており、したがって、本発明の原理を限定するものとして考えられるべきではなく、したがって、当該原理は、他の等しく有効な実施形態を容認し得る。
[0010]図1は、本発明の原理の実施形態によるコンピュータによる検査システム(CAIS)の高レベルのブロック図である。
[0011]図2A及び2Bは、本発明の原理の実施形態によるコンピュータによる検査システム(CAIS)の高レベルのブロック図の追加の表現を示す図である。 [0011]図2A及び2Bは、本発明の原理の実施形態によるコンピュータによる検査システム(CAIS)の高レベルのブロック図の追加の表現を示す図である。
[0012]図3は、本発明の原理の一実施形態による、ユーザによって装着される第1のグローバルローカリゼーションセンサパッケージの少なくとも1つの実施形態を示す図である。
[0013]図4は、本発明の原理の一実施形態による、第2の精細レベル測定手持ち式センサ及びディスプレイパッケージの少なくとも1つの実施形態を示す図である。
[0014]図5は、本発明の原理の一実施形態による、第1のセンサパッケージと第2のセンサパッケージとの間のハンドシェイキングプロセスの機能ブロック図である。
[0015]図6は、本発明の原理の一般的な実施形態による、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法の流れ図である。
[0016]図7は、本発明の原理の一般的な実施形態による、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法の少なくとも1つの他の実施形態の流れ図である。
[0017]図8A及び8Bは、本発明の原理の一般的な実施形態による、鉄道線路に使用されるCAISの動作を示す図である。 [0017]図8A及び8Bは、本発明の原理の一般的な実施形態による、鉄道線路に使用される上記CAISの関連付けられるシステム図である。
[0018]図9は、本発明の様々な実施形態に利用することができるコンピュータシステムの図である。
[0019]理解を促進するために、図面に共通する同一の要素を示すために、可能な場合には、同一の参照符号が使用されている。図面は原寸に比例して描写されておらず、明瞭にするために単純化されている場合がある。1つの実施形態の要素及び特徴を、さらに記述することなく他の実施形態に有益に組み込むことができることが企図されている。
詳細な説明
[0020]本発明の原理の実施形態は、概して、コンピュータによる検査システム(CAIS)及び方法に関し、より詳細には、拡張現実及びローカリゼーション技術を使用して、検査、調査、誤り検出及び分析、保守管理並びに修復のような用途のために、構造物の精細なレベルの検査及び3Dモデルに対する比較を実施するのを支援するための方法及びシステムに関する。本発明の原理の概念は様々な改変及び代替の形態の影響を受けるが、当該概念の具体的な実施形態が例として図面内に示されており、下記に詳細に記載されている。本発明の原理の概念を、記載されている特定の形態に限定することは意図されていないことは理解されたい。逆に、本発明の原理及び添付の特許請求の範囲と一致するすべての改変、均等物、及び代替形態を包含することが意図されている。例えば、本発明の原理の実施形態は、主にコンピュータによる検査システム及び方法に関連して記載されるが、当該教示は、限定であると考えられるべきではない。本発明の原理による実施形態は、任意のタイプの構造物の検査、調査、誤り検出、保守管理及び修復、並びに、本明細書において記載されているような他の当該概念に適用することができる。
[0021]本発明の原理による実施形態は、鉄道線路、橋梁、建造物又は建造物の部分、「竣工」現場、車両(例えば、船舶、航空機、自動車など)などのような構造物の検査過程を支援するためのシステムを対象とする。本明細書において提示されている本発明の実施形態は、大規模な、複数フロアの領域(例えば、200m×200m以上)にわたる精細なレベルの検査(mmスケール)及び3Dコンピュータモデル(例えば、船舶のCAD図面、建造物のビルディングインフォメーションモデル(BIM)、又は当該モデルの部分)との比較を実施する。本発明の方法及びシステムは、一定の正確度(例えば、10cm)までのグローバルローカリゼーションと、非常に精密な(例えば、mmレベル)の相対的に局所的な測定及び3Dコンピュータモデルとの比較とを組み合わせる。
[0022]下記にさらに詳細に説明するように、本開示と一致する実施形態は一般的に、ユーザをローカルエリア内(例えば、10cm内)まで位置推定(localize、ローカライズ)し、当該ローカリゼーションを使用して3Dコンピュータモデル内の対応する位置へとインデックス付けし、モデル(例えば、BIMモデルのようなCAD 3D表現)の関連部分を抽出し、センサからの観察結果をモデルと照合し、最終的に、精細なレベルの測定(mmスケールにおける)及び3Dモデルとの比較を行うことによって、コンピュータによる検査を実施する。
[0023]コンピュータによる検査システム(CAIS)及び方法、並びに、より詳細には、拡張現実及びローカリゼーション技術を使用して、調査、検査、保守管理及び修復のような用途のために、構造物の精細なレベルの検査及び3Dモデルに対する比較を実施するのを支援するための方法及びシステムの様々な実施形態を、ここで図1~図9に関連して詳細に説明する。
[0024]図1は、本発明の原理の実施形態によるコンピュータによる検査システム(CAIS)100の高レベルのブロック図を示す。CAIS100は、グローバルローカリゼーションシステム102と、局所的測定システム114とを含む。
[0025]GLS102によって実施されるグローバルローカリゼーションは、第1のセンサパッケージ104を使用して画像特徴を獲得及び追跡し、視覚的ランドマーク、タグ、又は位置座標を、当該領域の建造前のマップと照合することによって機能する。第1のセンサパッケージ104によって獲得される情報を使用して、GLS102は、作業現場(例えば、建造現場、船舶又は造船所、鉄道線路など)にわたって、図1の106における世界(global、グローバル)座標系において5~15cm又は約10cm内まで、ユーザの位置を追跡することが可能である。したがって、GLS102は、追跡情報を使用して、108において検査されている構造物/減歩の3Dコンピュータモデルと関連付けられるモデル座標系内の当該同じレベル内まで、ユーザをローカライズする(すなわち、対応する位置にあるモデルへとインデックス付けする)ことが可能である。
[0026]GLS102は、第1のセンサパッケージ104から得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するように構成されている、図2A及び図2Bに示すような自己位置推定と環境地図作成の同時実施(Simultaneous Localization and Mapping、サイマルタネアス ローカリゼーション アンド マッピング:SLAM、スラム)システム252を使用する。SLAMは、航法状態とランドマーク位置の両方を同時に推定することによって位置情報を決定し、当該好いては、コンピュータビジョンにおいてバンドル調整としても知られる一貫したSLAM問題定式化である。いくつかの実施形態において、ユーザは、既知の視覚的パターンを有する指定の調査位置(複数可)において開始する。システムは、当該過程に基づいてシステムのグローバル位置及び向きを初期化することが可能である。次いで、ユーザが現場にわたって動くと、システムは、ユーザの位置を約5~15cm、又は約10cmの正確度までローカライズすることができる。いくつかの実施形態において、グローバルローカリゼーションに使用される第1のセンサパッケージ104は、1つ又は複数の広視野カメラ、IMU、気圧計、高度計、磁気計、GPS(全地球測位システム)などを有するウェアラブルセンサパッケージである。いくつかの実施形態において、グローバルローカリゼーション(作業現場ローカリゼーションとしても参照される)は、図3に示すような、ヘルメット装着型コンパクトセンサパッケージ及びベルト装着型プロセッサから収集される情報によって達成される。具体的には、図3は、ヘルメット装着型ステレオカメラ及びIMUセンサ302、ヘルメット装着型ディスプレイ(HMD)拡張現実ゴーグル/グラス304、ベルト装着型バッテリパック306、及び第1のセンサパッケージ104のすべての他の要素をリンクさせるプロセッサ308を含む、グローバルローカリゼーションに使用される第1のセンサパッケージ104の要素を装着しているユーザを示す。
[0027]いくつかの実施形態において、標準的な一ベースの技術(例えば、GPSなど)が、SLAMシステム252によって、グローバルローカリゼーションを実施するために使用されてもよい。他の実施形態においては、GPSデータ/サービスが利用可能でない場合があり、制限される場合があり、又は、拒絶される場合がある。GPSが拒絶されるか、又は、GPSが制限される環境においては、協調的ナビゲーション及びマッピング、並びに、ランドマーク又は物体検出に基づく位置検出が、SLAMシステム252によって、グローバル座標系及び3Dコンピュータモデル座標系内でユーザをローカライズするために使用されてもよい。いくつかの実施形態において、GLS102は、決定されているグローバルローカリゼーション情報を使用して、検査されている構造物の3Dコンピュータモデル内の対応する位置へとインデックス付けし、3Dコンピュータモデルのローカルエリアを抽出する3Dモデルアライメントシステム254からの機能をさらに使用することができる。次いで、3Dモデルアライメントシステム254は、第1のセンサパッケージ104から得られる観察結果及び/又は情報を、抽出されている構造物のモデル3Dコンピュータモデルのローカルエリアにアラインする。
[0028]いくつかの実施形態において、作業現場/建造地域にわたる現実世界の位置に配置されている視覚的タグ(例えば、QRタイプコード、又は他の容易に識別可能な物体)が、精密なモデルとマップとの整合、改善されたマップベースの追跡、ナビゲーション、及びローカリゼーションのために使用される。タグは、最小限のオーバーヘッドで、ユーザ介入がほとんどからまったくない状態で、モデルとアラインされたマップを自動的に生成するように、SLAMフレームワークを増強するために使用することができる。上記を達成するために、現実世界において利用可能な少数の調査点が、付随するモデル座標とともに使用される(すなわち、現実世界のタグ)。いくつかの実施形態において、少なくとも3つの日線形的な点が使用され、1つの実施形態においては、当該点は、各々から相対的に離間されており、より離れるほど良好になる。上記は通常、トータルステーション、精密な距離測定のための電気光学機器を介して達成される。いくつかの実施形態において、すべての調査点はタグとして識別され、3D-2D接合点として記憶される。調査タグに加えて、SLAMフレームワークは環境内の非調査タグを利用することができ、非調査タグはすべて、広いベースライン及び異なるスケールにわたって照合することができる特別なランドマークとして作用する。上記目的のために、バンドル調整プロセス中、調査タグは2つの座標系(すなわち、グローバル座標系及び3Dモデル座標系)のグローバルアライメント及びマップの微調整に使用され、上記の副産物として、非調査タグの3Dコーナ座標も得られる。さらに、調査タグのサブセットを除外し、当該サブセットを非調査として扱うことによって、SLAMシステムが、上記タグの推定座標と、隠れているが分かっているグランドトゥルースタグコーナ(すなわち、位置が分かっている調査タグ)とを比較することによって、定量的なエラー番号を得ることが可能になる。
[0029]いくつかの実施形態において、GLS102はまた、110においてユーザによって識別される位置をマーク及び記憶し、112において、仮想ノートをマークされた位置と(例えば、POST-ITノートの電子版と同様に)関連付けることも可能である。上記によって、ユーザは、構造物の3Dコンピュータモデルと関連付けられる特定の3D位置にあるノート(すなわち、テキスト、画像、音響メッセージ、ビデオメッセージなど)を作成し、取り出し、編集し、削除し、ノートを3Dコンピュータモデルに重ね合わせることが可能である。各マークされている位置及び関連付けられるノート(複数可)はテーブルに記憶される。モデル内の特定の位置に行き当たると、テーブルから情報が抽出され、ディスプレイ(例えば、ヘルメット装着型ディスプレイ)に表示される。
[0030]上述したように、グローバルローカリゼーションシステム(GLS)102を介してユーザがローカライズされると、次のステップは、局所的測定(すなわち、モデルへのインデックス付け)を実施する前に、構造物の3Dコンピュータモデルを用いて同様の位置を決定することである。当該情報は、GLS102によってLMS114に渡されなければならない。同様に、LMS114によって局所的測定が実施された後、当該測定値は、グローバル座標系に配置されなければならない。GLS102とLMS114との間の情報の当該転送を容易にするために、いくつかの実施形態において、グローバルローカリゼーションシステム(GLS)102は、図1において115によって示されているように、有線又は無線通信プロトコルを使用して局所的測定システム(LMS)114に通信可能に結合される。いくつかの実施形態において、図5に関連して下記により詳細に説明するように、GLS102の要素とLMS114の要素との間でハンドシェイキングプロセスが実施されて、2つのシステムの間で情報がアラインされる。具体的には、図5に示すように、いくつかの実施形態において、ヘルメット装着型カメラ、センサ、及びARディスプレイを含む第1のセンサパッケージ104は、タブレットを含む第2のセンサパッケージ116とハンドシェイクして、第2のセンサパッケージによって捕捉されるポーズを、第1のセンサパッケージによって捕捉されるポーズとアラインすることができる。例えば、第1のセンサパッケージ又は第2のセンサパッケージによって捕捉されるポーズは、6自由度(6DOF)ポーズであってもよい。上記は、第1のセンサパッケージ104から第2のセンサパッケージ116へと複数の顕著な特徴(画像特徴記述子及び対応する3D点)を送信することによって達成される(図5の左の図)。タブレットサブシステム116は、受信される特徴(506及び510)及びタブレット画像内の照合される特徴(508)に基づいて3D-2D照合(図5の右の図)を実施して、タブレットカメラとヘルメットカメラとの間の6DOFポーズ変換(回転及び並進)を計算する。当該変換は、次いで、第2のセンサパッケージのポーズと、第1のセンサパッケージのポーズとをアラインするために使用される。当該ハンドシェイク手順は、第2のセンサポーズがグローバル基準フレームにアラインされることを保証するために、局所的検査のシーケンスを記録する前に、ユーザによって(例えば、タブレット上の又は第1のセンサパッケージと関連付けられるボタンを押下することによって)開始される。
[0031]LMS114によって実施される局所的相対測定は、より狭い視野によって作動することによってより高い分解能をもたらす第2のセンサパッケージ116を使用して達成される。いくつかの実施形態において、mmレベルの精度における局所的な精細レベルの相対測定に使用される第2のセンサパッケージ116は、図4に示すように、1つ又は複数のカメラ、三眼顕微鏡カメラ406a~c、高分解能距離センサ、IMU410、GPS、視覚化、照明用発光装置408などを含むことができる、タブレット402のような手持ち式デバイスを含む。手持ち式タブレット402はまた、ハンドル414と、データを転送するための通信ケーブル412(すなわち、USBケーブルなど)とを含むこともできる。構造物の一シーンの局所的再構成を、グローバルローカリゼーションの正確度(すなわち、約5~15cmレベル)でグローバル座標に配置することができる。設計図(例えば、船舶のCADモデル、建造物のBIM)が利用可能である場合、局所的再構成を設計図にアラインすることによって、正確なローカリゼーションが達成される。検査結果及びモデルとの比較を、拡張現実(AR)グラスに表示することができる。
[0032]いくつかの実施形態において、第2のセンサパッケージ116は、構造物に関する精細なレベルの測定値(mmレベルの測定値)及び情報を得るように構成され、モデル認識システム256比較は、第2のセンサパッケージから構造物に関して得られる精細なレベルの測定値及び情報を、構造物の3Dコンピュータモデルと比較するように構成される。いくつかの実施形態において、モデル認識システム256は、第2のセンサパッケージから構造物に関して得られる測定値及び情報と構造物の3Dコンピュータモデルとの間で決定される不一致を含むコンプライアンス報告を生成するようにさらに構成される。
[0033]図2A及び図2Bは、本開示の実施形態と一致するCAIS100の様々なシステム及び当該システムの他害に対する関係/相互作用の高レベルブロック図を示す。具体的には、図2Aに示すように、CAISシステム100は、ユーザAと関連付けられる1つ又は複数のデバイス、ユーザBと関連付けられる1つ又は複数のデバイス、及びサーバ250から成ることができる。上述したグローバルローカリゼーションシステム102が、図2A内に分散して示されており、GLS102のいくつかの要素は、第1のセンサパッケージ104の一部分であり、サーバ250の一部分である。同様に、上述した局所的測定システム114が、図2A内に分散して示されており、LMS114のいくつかの要素は、第2のセンサパッケージ116の一部分であり、サーバ250の一部分である。ユーザA、ユーザB、及びサーバ250と関連付けられるすべてのデバイスは、ネットワーク220を介して互いに通信可能に結合される。
[0034]ネットワーク/クラウド220は、ワイヤ、ケーブル、光ファイバ、及び/又は、ハブ、スイッチ、ルータなどのような様々なタイプの周知のネットワーク要素によって促進される無線リンクによってコンピュータを接続する1つ又は複数の通信システムを含む。ネットワーク220は、インターネットプロトコル(IP)ネットワーク又は他のパケットベースの通信ネットワークを含んでもよく、様々な周知のプロトコルを利用して、ネットワーク資源の間で情報を通信することができる。いくつかの実施形態において、ユーザAのデバイス(すなわち、第1のセンサパッケージ104A、及び第2のセンサパッケージ116A)は、WIFI、BLUETOOTH(登録商標)、又は任意の他の無線若しくは有線通信プロトコルを通じて、互いと、ユーザBのデバイス(すなわち、第1のセンサパッケージ104B、及び第2のセンサパッケージ116B)と、及び、サーバ250と直接的に通信することができる。
[0035]各第1のセンサパッケージ104は、中央処理装置(CPU)202と、サポート回路204と、ディスプレイ206と、メモリ208と、地理位置情報(geolocation、ジオロケーション)追跡モジュール210と、仮想マーキングモジュール212と、モデル情報214とを備えることができる。
[0036]各第2のセンサパッケージ116は、中央処理装置(CPU)202と、サポート回路204と、ディスプレイ206と、メモリ208と、測定モジュール216と、モデル比較モジュール218と、モデル情報214とを備えることができる。
[0037]サーバ250は、中央処理装置(CPU)202と、サポート回路204と、ディスプレイ206と、メモリ208と、SLAMシステム252と、3Dアライメントシステム254と、モデル認識システム256と、モデル情報214とを備えることができる。
[0038]CPU202は、データ処理及び記憶を促進する1つ又は複数の市販のマイクロプロセッサ、マイクロコントローラ、FPGAなどを含んでもよい。様々なサポート回路204は、CPU202の動作を促進し、1つ又は複数のクロック回路、電源、キャッシュ、入出力デバイス及び回路などを含む。サポート回路204の入出力デバイスは、オーディオ入力及び出力(例えば、不一致が見つかった場所を修復するためのコマンド又は命令)を含むことができる。いくつかの実施形態において、ディスプレイ206は、GLS102について図3に関連して図示及び説明されているような、ヘルメット装着型ディスプレイの一部分としてのARディスプレイであってもよい。いくつかの実施形態において、ディスプレイ206は、LMS114について図4に関連して図示及び説明されているような、第2のセンサパッケージ116の一部分としての手持ち式デバイスディスプレイ(例えば、タブレット)であってもよい。メモリ208は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ディスクドライブ記憶装置、光学記憶装置、取り外し可能記憶装置などのうちの少なくとも1つを含む。
[0039]動作時、ユーザAは、第1のセンサパッケージ104(例えば、図3に示すような、身体に装着する機器)を使用して、作業現場(例えば、建造現場、船舶又は造船所、鉄道線路など)にわたって、グローバル座標系において5~15cm又は約10cm内まで、ユーザAの位置を追跡及び地理的に定位(geolocate、ジオロケート)するために、GLS102Aの一部分としての第1のセンサパッケージ104Aを使用している場合がある。第1のセンサパッケージ104から得られる情報は、ジオロケーション追跡モジュール210及びSLAMシステム252によって、ユーザをグローバルにローカライズするために使用される。いくつかの実施形態において、ジオロケーション追跡モジュール210自体が、上述したようにユーザをグローバルにローカライズするためにSLAMシステム252を含んでもよい。他の実施形態において、ジオロケーション追跡モジュール210は、サーバ250上のSLAMシステム252と通信することができ、SLAMシステム252は、位置計算/決定を実施し、当該情報を第1のセンサパッケージ104に提供し戻す。
[0040]検査されている構造物の3Dコンピュータモデル内でユーザがローカライズされると、ユーザは、ユーザによって識別される位置(すなわち、座標)をマーク及び記憶し、仮想マーキングモジュール212を使用して、仮想ノートをマークされた位置と(例えば、POST-ITノートの電子版と同様に)関連付けることができる。上記によって、ユーザは、構造物の3Dコンピュータモデルと関連付けられる特定の3D位置にあるノート(すなわち、テキスト、画像、音響メッセージ、ビデオメッセージなど)を作成し、取り出し、編集し、削除し、ノートを3Dコンピュータモデルに重ね合わせることが可能である。各マークされている位置及び関連付けられるノート(複数可)はテーブルに記憶される。モデル内の特定の位置に行き当たると、テーブルから情報が抽出され、ディスプレイ(例えば、ヘルメット装着型ディスプレイ)に表示される。ユーザAによってマークされている位置及び関連付けられる視覚的ノートは、ユーザBによって、ユーザBのディスプレイ206を介して確認することができる。いくつかの実施形態において、ユーザA及びユーザBは、現場/構造物にわたって歩き回りながら、視覚的又は聴覚的に、互いが確認するものを確認すること、及び/又は、互いに通信することが可能であり得る。
[0041]構造物の3Dコンピュータモデル内でユーザがローカライズされると、ユーザは、構造物のローカルエリアの局所的検査及び測定を開始することができる。ユーザは、第2のセンサパッケージによって捕捉される姿勢(pose、ポーズ)を、第1のセンサパッケージによって捕捉されるポーズとアラインするために、図5に関連して上述したハンドシェイキングプロセスを開始するために、第1のセンサパッケージ104又は第2のセンサパッケージ116上の物体を選択するか、又は、センサパッケージ上のボタンを押下することができる。当該アライメントは、サーバ250の3Dモデルアライメントモジュール254によって、又は、第2のセンサパッケージ116上でローカルに実施されてもよい。ハンドシェイキングが完了し、モデルがアラインされた後、測定モジュール216及び/又はモデル認識システム256によって局所的測定を実施することができる。次いで、測定情報が、モデル情報と比較され、不一致が決定される。
[0042]上述したように、本明細書において開示され、図1、図2A及び図2Bに示す実施形態によって与えられる利点の少なくとも一部は、構造物の3Dコンピュータモデルを用いずに(例えば、BIMを用いずに)構造物及び構造物の部分の相対測定値が得られ、mm精度で3m×3m面積内の距離が測定されること(118、120)、ビデオ/ディスプレイ画像に重ね合わされた構造物の3Dコンピュータモデル(例えば、BIM)を表示することによって、視覚的検査が実施されること(122、124)、照合するために構造物の3Dコンピュータモデルを用いて又は用いずに、0.1メートル~10メートルの区画内で、限定ではないが、構造的支持要素の数、支持要素の直径/厚さ、各支持要素間の間隔、及び引張マーキングのような構造的情報を決定するために局所的検査が実施されること(126、128)、現場全体を通じてレイアウトされているマーカに対して、建造物建造現場にわたって5~15cm内で、又は、船舶のような大型構造物内でユーザをローカライズするために作業現場ローカリゼーションが実施されること(106、108)、並びに、構造物の3Dコンピュータモデルと関連付けられる特定の3D位置におけるノート(テキスト、画像、オーディオメッセージ、ビデオメッセージなど)の追加及び取り出しを可能にする視覚的ノート(例えば、POST-ITノートの電子版と同様の)を使用することが可能になること(110、112)を含む。
[0043]図6は、本発明の原理の一般的な実施形態による、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法600の流れ図を示す。方法600は、602において開始し、604に進み、第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対するユーザの現実世界のグローバルローカリゼーション情報が決定される。606において、決定されているグローバルローカリゼーション情報が使用されて、検査されている構造物の3Dコンピュータモデル内の対応する位置へとインデックス付けされ、モデルの関連部分が抽出される。方法は608に進み、第1のセンサパッケージから得られる観察結果及び/又は情報が、構造物の3Dコンピュータモデルにアラインされる。
[0044]610において、第2のセンサパッケージから構造物に関して得られる情報を、構造物の3Dコンピュータモデルと比較するために、精細なレベルの測定値が、第2のセンサパッケージを使用して得られる。方法は612に進み、第2のセンサパッケージから構造物に関して得られる測定値及び情報と、構造物の3Dコンピュータモデルとの間の不一致が決定及びコンパイルされ、当該不一致又は不一致に関する情報/要約を含むコンプライアンス報告が生成される。構造物に関して得られる測定値及び情報と、構造物の3Dコンピュータモデルとの間で決定される不一致は、モデル内の構造的支持要素の数に対する、測定される構造的支持要素の数の差、支持要素の直径/厚さ、各支持要素間の間隔、様々な支持要素上の引張マーキング、鉄道線路及び/又は支持要素の角度などの差を含んでもよい。コンプライアンス報告は、例えば、何が測定されたか、及び、不一致がどこにあるかを含んでもよい。いくつかの実施形態において、測定データはモデルデータと比較され、所定の閾値(例えば、期待値の0.1~25%)を超える値が、不一致としてフラグ立てされ、コンプライアンス報告に含まれてもよい。いくつかの実施形態において、測定値が所定の閾値を超える場合、誤っている要素が修復/補正及び再検査されることになる。例えば、構造的要素内に亀裂が見つかった場合、亀裂が補正されるまで、当該要素と関連付けられるすべての作業が停止する。他の例において、間隔又は軌間は、一定の許容範囲(すなわち、所定の閾値)内にある限り、許容可能と考えることができ、作業を進めることができる。いくつかの実施形態において、不一致は、ビデオ/ディスプレイ画像上に重ね合わされた構造物の3Dコンピュータモデル(例えば、BIM)を表示することによって、視覚的に検出することができる(122、124)。ユーザは、上述したように視覚的ノートを用いて不一致のある領域をマークすることができる(110、112)。方法は、614において終了する。
[0045]図7は、本発明の原理の一般的な実施形態による、構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法700の流れ図を示す。方法700は、702において開始し、704に進み、構造物の3Dコンピュータモデルが第1のセンサパッケージから受信される。706において、mmレベルの測定値を得るように構成されている高分解能センサから得られる構造物に関する精細なレベルの測定値及び情報を使用して、構造物の3D点群表現が生成される。方法は708に進み、関心物体が構造物の3D点群表現内で検出され、710において、上記関心物体の測定値及び情報が、高分解能センサを使用して得られる。712において、構造物の3D点群表現が、受信されている3Dコンピュータモデルにアラインされる。方法は714に進み、図6の612に関連して上述したように、関心物体と、受信されている3dコンピュータモデルとの間で不一致が検出される。いくつかの実施形態において、不一致を検出することは、決定された不一致を含むコンプライアンス報告を生成することをさらに含む。方法は、716において終了する。
[0046]ここで、上述したシステム及び方法を利用する様々な使用事例を説明する。具体的には、本明細書において説明されているシステムは、2つの重要な機能、すなわち、グローバル定位及びアライメントを実施するためのGLS102、及び、精細な測定及び誤り検出を実施するためのLMS114を統合する。第1の機能は、ユーザが、広い作業現場を歩き回り、現場内で自身を約10センチメートルの正確度でローカライズし、ウェアラブルディスプレイ上でARアイコンを重ね合わせることを可能にする。10cmの精度でローカリゼーションを行うことによって、また、システムが、ユーザが介入することなくモデルを高精度タブレットビデオに自動的に照合することも可能にする。第2の機能は、ユーザが高精度且つ高正確度の測定(ミリメートルレベル)を行うことを可能にする。本明細書において使用される場合、正確度とは、測定値が標準的な又は既知の値に近いことを指し、一方、精度とは、2つ以上の測定値が互いに近いことを指す。例えば、精度とは、何かを10回測定した場合、測定値が常に一定である(すなわち、誤っていたとしても、常に同じである)ことを意味する。一方、正確度とは、測定値が正しいことを指す。したがって、高精度且つ高正確度の測定とは、測定値がミリメートルレベルで一定であるとともに正確であることを指す。当該システム及び技法は一般的に、様々な用途に適用することができる。
[0047]典型的には、後述する使用事例において、高解像度ビデオ表示画面を有する、1mm精度の測定を行うためのステレオセンサヘッドが取り付けられているタブレットが局所的測定に使用され(LMS114、すなわち第2のセンサパッケージの一部分として)、独立した頭部装着型光学シースルーディスプレイが、ユーザを5cm~約15cmの正確度又は約10cmの正確度までローカライズし、作業現場のどこにいてもユーザに拡張現実オーバーレイを提供する(GLS102、すなわち、第1のセンサパッケージの一部分として)。図6及び図7に関連して上述したように、第2のセンサパッケージから得られる、構造物に関して得られる測定値及び情報と、構造物の3Dコンピュータモデルとの間で決定される不一致は、モデル内の構造的支持要素の数に対する、測定される構造的支持要素の数の差、支持要素の直径/厚さ、各支持要素間の間隔、様々な支持要素上の引張マーキング、鉄道線路及び/又は支持要素の角度などの差を含んでもよい。
[0048]当該技術には、多くの用途がある。1つの使用事例において、CAISは、鉄道線路の検査に使用される。具体的には、鉄道線路は、所定の値から1/16インチ程度のわずかな逸脱について評価するために、毎月検査される必要がある。現在の検査手順は完全に主導であり、労働集約的で、もっぱら人間の観察及び測定に依拠する。これまで、人間が携帯するシステムから線路状態の定量的データを自動的に獲得する技術及びシステムは限られていた。本明細書において説明されているCAISの実施形態を利用することによって、図8A~図8Eに示すような、線路検査を自動化するためのシステムが達成される。具体的には、図8Aに示すように、鉄道検査を自動化するためのビデオベースの3D再現及び測定システムが描写されている。いくつかの実施形態において、オペレータは、画面に表示される案内に従って、精細レベルセンサパッケージ(例えば、上述した第2のセンサパッケージ116など)を使用して、データ捕捉システムを用いて線路に沿ってビデオを記録する。収集されたビデオから線路の3Dモデルが生成され、必要な測定値を生成し、任意の領域が仕様(例えば、鉄道線路インフラストラクチャ完全性コンプライアンスマニュアル(Track and Rail and Infrastructure Integrity Compliance Manual)において規定されている要件/仕様)を遵守していないかを決定するために使用される。例えば、非遵守項目は、継ぎ目板の中央の亀裂又は破損、中央に亀裂が入った又は中央が破断した継ぎ目板の数、同じ位置において発生している複数の欠陥状態(例えば、板の中央に亀裂が入ることによる接合枕木の欠陥、枕木の欠陥による幾何学的欠陥など)、「鉄道線路末端のブレイクアウト(breakout in rail heads)」、釘の喪失、不適切な修復(継ぎ目板が施与されるレールに対する構造的に堅固な設計及び寸法のものでない継ぎ目板の設置、又は、TSSに準拠しないレール端部における穿孔の失敗)によって引き起こされる線路欠陥、分岐器枕木の欠陥、又は、ウィング可動クロッシングに、ホールドダウンハウジングとホーン(複数可)との間に過剰な隙間をもたせる不十分な支持、車輪の外側によるウィングレールのゲージ側に対するえぐれ又は接触、重大な脱線災害を呈するほどに損傷又は摩耗している、損傷又は摩耗したスイッチ点を含み得る。
[0049]提案されている手法のシステム図が、図8Bに提示される。図8Bに示すように、当該使用事例の精細レベルセンサパッケージ116によるデータ収集(802)は、センサヘッドと、データ収集アプリケーションを作動させ、タッチスクリーンディスプレイを通じてユーザインターフェースを提供する12インチタブレットPCとから構成され得る。センサは、バックパック内又はベルト上に担持することができる電池から給電される。センサヘッドは、25cmのベースライン及び50°水平視野レンズ並びにGPS/IMUユニットを有する高精細カメラ(例えば、1920×1200画素)のステレオペアを有する。
[0050]3D再現モジュール804は、センサパッケージ116によって得られる地面上の同じ領域の複数のビューを有する一連の画像から密な3D点群を生成する。3D再現モジュール804は最初に、入力ビデオシーケンスに対して視覚ナビゲーションを作動させて、各画像の初期ポーズ推定値を得る。当該ポーズに基づいて、画像のサブセット(キーフレーム)が、3D再現のために選択される。次に、特徴トラックが複数のフレームにわたって生成され、次いで、カメラポーズ、及び、各特徴トラックに対応する3D点位値を微調整するために、バンドル調整が作動される。バンドル調整ステップは、左右のカメラの間の相対運動が経時的に一定であり、3D再構成のスケールを固定するための較正から分かるという事実を使用する。最後に、各ステレオペアからの3D点群が集約されて、検査される領域の密な点群が生成される。3Dモデル214が、入力として視覚化測定ツール806に提供される。第1のステップは、レールの既知の3Dプロファイルに基づく、レールの自動検出である。次に、遵守しておらず、コンプライアンス報告810に含まれる領域を決定するために、いくつかの測定が実施される。一例として、軌間(線路の間の距離)測定について、以下のステップ、すなわち、主な線路方向がY軸とアラインされるように局所的な点群をアラインするステップと、線路(例えば30cmの長さ)に沿ったチャンクにレールポイントを分割し、分類されているレールポイントを通じて平面を適合させるステップと、X軸に沿ったポイント分布を使用して、局所的な接線を各レールに適合させ、各区画の中心点間の距離を測定するステップと、トラックに沿ったすべての区画について繰り返して、測定値のリストを生成するステップとが実施される。
[0051]上述したような鉄道線路及び建造現場の検査に加えて、他の適用例は、船舶、建造物、及び航空機のような大型の構造物の修復及び保守管理を含む。例えば、船舶建造の事例においては、図1~図7を参照して上述したように、システムは、GLS102を使用して、第1のセンサパッケージ104を使用して画像特徴を獲得及び追跡し、視覚的ランドマーク、タグ、又は位置座標を船舶の事前に構築されたマップと照合することによって、船舶内でユーザをグローバルにローカライズする。第1のセンサパッケージ104によって獲得される情報を使用して、GLS102は、船舶にわたって、図1の106におけるグローバル座標系において5~15cm又は約10cm内まで、ユーザの位置を追跡することが可能である。システムは次いで、ユーザの位置に基づいて船舶のモデルの適切な部分においてインデックス付けし、修復、保守管理において、次に何をすべきかについて命令を重ね合わせ、オーディオキューを提供することによってユーザを補助する。例えば、センサパッケージがCADモデル基準フレーム内でローカライズされると、CADモデルからの任意の構成要素を、ディスプレイ(タブレット又は任意選択的にシースルーHMD)内で拡張現実オーバーレイとして提示することができる。当該機能は、例えば、空気ダクト、管、梁などの位置がモデル/計画と一致することを検証すること、及び、まだ構築されていない要素の位置を視覚化することなど、構築される要素を迅速に視覚的に検査することを可能にする。
[0052]CAISにおいて、システム100はまた、広い領域にわたって実行される特定のステップシーケンス内で行われなければならない、例えば工場内の炉の動力停止など、緊急状況に関する訓練及び案内に使用することもできる。本発明のシステムは、視覚的(AR)命令及び音声命令によって安全及び緊急応答手順を通じてユーザを案内する。ユーザは、質問し、問題を対話的に診断することができる。システムは、ユーザによって装着されるHMD又はユーザによって担持されるタブレット/スマートフォン上で指示を重ね合わされたアニメーションを表示する。システムはさらに自動的に、ユーザの行動を観察し、警告及びフィードバックを与えることができる。
[0053]上記の記述は、説明を目的として、特定の実施形態を参照して記載されている。しかしながら、上記の例示的な論述は、排他的であることも、本発明を開示された正確な形態に限定することも意図されてはいない。上記の教示を考慮して多くの改変及び変更が可能である。実施形態は本開示の原理及び当該原理の実際の適用を最良に説明するために、結果、当業者が、本発明及び様々な実施形態を、企図される特定の使用に適し得るように様々な改変を加えて最良に利用することを可能にするように、選択及び説明されている。
[0054]図9は、1つ又は複数の実施形態に従って、コンピュータ及び/又はディスプレイを実施するために本発明の様々な実施形態において利用することができるコンピュータシステム900を示す。
[0055]本明細書において説明されているように、踏査、検査、保守管理及び修復のような用途のために、構造物の精細なレベルの検査及び構造物の3Dモデルとの比較を実施するのを支援するために拡張現実及びローカリゼーション技術を使用する方法及び装置の様々な実施形態は、様々な他のデバイスと相互作用することができる、1つ又は複数のコンピュータシステム上で実行することができる。1つのそのようなコンピュータシステムは、様々な実施形態において、図1~図8Bに示す要素又は機能のいずれかを実施することができる、図9に示すコンピュータシステム900である。様々な実施形態において、コンピュータシステム900は、上述した方法を実施するように構成することができる。コンピュータシステム900は、上述した実施形態の任意の他のシステム、デバイス、要素、機能又は方法を実施するために使用することができる。例示されている実施形態において、コンピュータシステム900は、様々な実施形態において、方法600及び700を、プロセッサによって実行可能な、実行可能プログラム命令922(例えば、プロセッサ(複数可)910によって実行可能なプログラム命令)として実施するように構成することができる。
[0056]例示されている実施形態において、コンピュータシステム900は、入出力(I/O)インターフェース930を介してシステムメモリ920に結合されている1つ又は複数のプロセッサ910a~910nを含む。コンピュータシステム900は、I/Oインターフェース930に結合されているネットワークインターフェース940と、カーソル制御デバイス960、キーボード970、及びディスプレイ(複数可)980のような1つ又は複数の入出力デバイス950とをさらに含む。様々な実施形態において、上記構成要素のうちのいずれかは、システムによって、上述したユーザ入力を受信するために利用することができる。様々な実施形態において、ユーザインターフェースは、ディスプレイ980上に生成及び表示することができる。いくつかの事例において、実施形態は、単一インスタンスのコンピュータシステム900を使用して実施されてもよく、一方、他の実施形態では、複数のそのようなシステム、又は、コンピュータシステム900を構成する複数のノードが、様々な実施形態の異なる部分又はインスタンスをホストするように構成されてもよいことが企図される。例えば、1つの実施形態において、いくつかの要素は、他の要素を実施するノードとは異なるコンピュータシステム900の1つ又は複数のノードを介して実施されてもよい。別の例において、複数のノードが、コンピュータシステム900を分散様式で実施してもよい。
[0057]異なる実施形態において、コンピュータシステム900は、限定ではないが、パーソナルコンピュータシステム、デスクトップコンピュータ、ラップトップ、ノートブック、タブレット又はネットブックコンピュータ、メインフレームコンピュータシステム、手持ち式コンピュータ、ワークステーション、ネットワークコンピュータ、カメラ、セットトップボックス、携帯デバイス、消費者デバイス、ビデオゲームコンソール、手持ち式ビデオゲームデバイス、アプリケーションサーバ、記憶デバイス、スイッチ、モデム、ルータのような周辺デバイス、又は、一般的に任意のタイプのコンピューティング若しくは電子デバイスを含む、様々なタイプのデバイスのいずれかであってもよい。
[0058]様々な実施形態においてコンピュータシステム900は、1つのプロセッサ910を含む単一プロセッサシステムであってもよく、又は、いくつかのプロセッサ910(例えば、2つ、4つ、8つ、又は別の適切な数)を含む多重プロセッサシステムであってもよい。プロセッサ910は、命令を実行することが可能な任意の適切なプロセッサであってもよい。例えば、様々な実施形態において、プロセッサ910は、様々な命令セットアーキテクチャ(ISA)のいずれかを実施する汎用又は内蔵プロセッサであってもよい。多重プロセッサシステムにおいて、プロセッサ910の各々は、必ずしもそうである必要はないが、共通して、同じISAを実施してもよい。
[0059]システムメモリ920は、プロセッサ910によってアクセス可能なプログラム命令922及び/又はデータ932を記憶するように構成することができる。様々な実施形態において、システムメモリ920は、スタティックランダムアクセスメモリ(SRAM)、同期型ダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプメモリ、又は任意の他のタイプのメモリのような、任意の適切なメモリ技術を使用して実施されてもよい。例示されている実施形態において、上述した実施形態の要素のいずれかを実施するプログラム命令及びデータは、システムメモリ920内に記憶することができる。他の実施形態において、プログラム命令及び/又はデータは、種々のタイプのコンピュータアクセス可能媒体又はシステムメモリ920若しくはコンピュータシステム900とは別個の同様の媒体上で受信、送信又は記憶されてもよい。
[0060]1つの実施形態において、I/Oインターフェース930は、プロセッサ910と、システムメモリ920と、ネットワークインターフェース940、又は、入出力デバイス950のような他の周辺インターフェースを含む、デバイス内の任意の周辺デバイスとの間でI/Oトラフィックを調整するように構成することができる。いくつかの実施形態において、I/Oインターフェース930は、任意の必要なプロトコル、タイミング又は他のデータ変換を実施して、1つの構成要素(例えば、システムメモリ920)からのデータ信号を、別の構成要素(例えば、プロセッサ910)によって使用するのに適したフォーマットに変換することができる。いくつかの実施形態において、I/Oインターフェース930は、例えば、周辺構成要素相互接続(PCI)バス規格又はユニバーサルシリアルバス(USB)規格の変形のような、様々なタイプの周辺バスを通じて取り付けられるデバイスのサポートを含むことができる。いくつかの実施形態において、I/Oインターフェース930の機能は、例えば、ノースブリッジ及びサウスブリッジのような、2つ以上の別個の構成要素に分割することができる。また、いくつかの実施形態において、システムメモリ920へのインターフェースのような、I/Oインターフェース930の機能の一部又は全部は、プロセッサ910に直に組み込まれてもよい。
[0061]ネットワークインターフェース940は、データが、コンピュータシステム900と、1つ若しくは複数の外部システムのようなネットワーク(例えば、ネットワーク990)に取り付けられている他のデバイスとの間、又は、コンピュータシステム900のノードの間で交換されることを可能にするように構成することができる。様々な実施形態において、ネットワーク990は、限定ではないが、ローカルエリアネットワーク(LAN)(例えば、Ethernet[登録商標]又は企業ネットワーク)、広域ネットワーク(WAN)(例えば、インターネット)、無線データネットワーク、何らかの他の電子データネットワーク、又は上記の何らかの組合せを含む、1つ又は複数のネットワークを含んでもよい。様々な実施形態において、ネットワークインターフェース940は、例えば、デジタルファイバ通信ネットワークを介する、ファイバチャネルSANのようなストレージエリアネットワークを介する、又は、任意の他の適切なタイプのネットワーク及び/若しくはプロトコルを介するなど、任意の適切なタイプのEthernetネットワークのような、有線又は無線一般データネットワークを介する通信をサポートすることができる。
[0062]入出力デバイス950は、いくつかの実施形態において、1つ又は複数のディスプレイ端子、キーボード、キーパッド、タッチパッド、走査デバイス、音声若しくは工学認識デバイス、又は、1つ若しくは複数のコンピュータシステム900によってデータを入力若しくはアクセスするのに適した任意の他のデバイスを含んでもよい。複数の入出力デバイス950が、コンピュータシステム900内に存在してもよく、又は、コンピュータシステム900の様々なノードに分散されてもよい。いくつかの実施形態において、同様の入出力デバイスが、コンピュータシステム900とは別個のものであってもよく、ネットワークインターフェース940などを介して、有線又は無線接続を通じてコンピュータシステム900の1つ又は複数のノードと相互作用することができる。
[0063]いくつかの実施形態において、例示されているコンピュータシステムは、図6及び図7の流れ図によって示されている方法のような、上述した動作及び方法のいずれかを実施してもよい。他の実施形態において、異なる要素及びデータが含まれてもよい。
[0064]コンピュータシステム900は例示に過ぎず、実施形態の範囲を限定するようには意図されていないことが、当業者には諒解されよう。特に、コンピュータシステム及びデバイスは、コンピュータ、ネットワークデバイス、インターネット家電、PDA、無線電話機、ページャなどを含む、様々な実施形態の示されている機能を実施することができるハードウェア又はソフトウェアの任意の組合せを含んでもよい。コンピュータシステム900はまた、例示されていない他のデバイスにも接続されてもよく、又は代わりに、独立型システムとして動作してもよい。加えて、例示されている構成要素によって提供される機能は、いくつかの実施形態において、より少数の構成要素の中で組み合わされてもよく、又は、追加の構成要素の中で分散されてもよい。同様に、いくつかの実施形態において、例示されている構成要素のうちの一部の機能は提供されなくてもよく、及び/又は、他の追加の機能が利用可能であってもよい。
[0065]様々な項目が、使用されている間にメモリ内又はストレージ上に記憶されるものとして例示されているが、当該項目又は項目の部分は、メモリ管理及びデータ完全性の目的のために、メモリと他の記憶デバイスとの間で転送されてもよいことも、当業者には諒解されよう。代替的に、他の実施形態において、ソフトウェア構成要素の一部又は全部は、別のデバイス上のメモリ内で実行してもよく、コンピュータ間通信を介して、例示されているコンピュータシステムと通信してもよい。システム構成要素又はデータ構造の一部又は全部はまた、様々な例が上述されている適切なデバイスによって読み出されるように、コンピュータアクセス可能媒体又は携帯物品に(例えば、命令又は構造化データとして)記憶されてもよい。いくつかの実施形態において、コンピュータシステム900とは別個のコンピュータアクセス可能媒体に記憶される命令は、ネットワーク及び/又は無線リンクのような通信媒体を介して搬送される、電気信号、電磁信号、又はデジタル信号のような伝送媒体又は信号を介して、コンピュータシステム900に送信されてもよい。様々な実施形態は、コンピュータアクセス可能媒体上で又は通信媒体を介して上記の説明に従って実施される命令及び/又はデータを受信、送信又は記憶することをさらに含んでもよい。概して、コンピュータアクセス可能媒体は、例えば、ディスク又はDVD/CD-ROMなどの磁気又は光学媒体、RAM(例えば、SDRAM、DDR、RDRAM、SRAMなど)、ROMなどのような揮発性又は不揮発性媒体のような、記憶媒体又はメモリ媒体を含んでもよい。
[0066]本明細書において記載されている方法は、種々の実施形態において、ソフトウェア、ハードウェア、又は上記の組合せにおいて実施されてもよい。加えて、方法の順序は変更されてもよく、様々な要素が、追加、順序変更、組合せ、省略、又は他の様態で改変されてもよい。本明細書において記載されているすべての例は、非限定的に提示されている。様々な改変及び変更が、本開示の利点を得る当業者には明らかになり得る。実施形態による実現が、特定の実施形態の文脈において記載されている。当該実施形態は、限定ではなく例示であるように意図されている。多くの変形、改変、追加、及び改善が可能である。したがって、本明細書において単一のインスタンスとして記載されている構成要素に対して、複数のインスタンスが提供されてもよい。様々な構成要素、動作及びデータストアの間の境界は任意裁量によるものであり、特定の動作は、特定の例示的な構成の文脈において示されている。機能の他の配分が想定され、添付の特許請求項の範囲内に入り得る。最後に、例示的な構成において個別の構成要素として提示されている構造及び機能は、組み合わされた構造又は構成要素として実施されてもよい。これらの及び他の変形、改変、追加、及び改善は、添付の特許請求項において規定されているような実施形態の範囲内に入り得る。
[0067]上記の説明において、本開示のより完全な理解を提供するために、多数の具体的な詳細、例、及びシナリオが記載されている。しかしながら、本開示の実施形態はそのような具体的な詳細なしに実践され得ることが諒解されよう。さらに、そのような例及びシナリオは例示のために提供されており、決して本開示を限定するようには意図されていない。当業者であれば、含まれている説明によって、必要以上の実験を行うことなく適切な機能を実施することが可能なはずである。
[0068]本明細書における「一実施形態」などへの参照は、記載されている実施形態が、特定の特徴、構造、又は特性を含み得ることを示すが、すべての実施形態が必ずしも当該特定の特徴、構造、又は特性を含んでいなくてもよい。上記語句は必ずしも同じ実施形態を参照しているとは限らない。さらに、特定の特徴、構造、又は特性が一実施形態に関連して記載されているとき、明示的に示されているか否かにかかわらず、当該特徴、構造、又は特性が他の実施形態に関連して影響を及ぼすことは、当業者の知識の範囲内であると考えられる。
[0069]本開示による実施形態は、ハードウェア、ファームウェア、ソフトウェア、又は上記の任意の組合せにおいて実施されてもよい。実施形態はまた、1つ又は複数のプロセッサによって読み出され、実行され得る、1つ又は複数の機械可読媒体を使用して記憶される命令として実施されてもよい。機械可読記憶媒体は、機械(例えば、コンピューティングデバイス、又は、1つ若しくは複数のコンピューティングデバイス上で作動する「仮想機械」)によって読み出し可能な形態で情報を記憶又は送信するための任意のメカニズムを含んでもよい。例えば、機械可読媒体は、任意の適切な形態の揮発性又は不揮発性メモリを含んでもよい。
[発明の項目]
[項目1]
構造物の検査、誤り分析及び比較のためのコンピュータによる検査システムであって、
第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するように構成されている、スラム(SLAM)システムと、
モデルアライメントシステムであり、
決定されている前記グローバルローカリゼーション情報を使用して、前記検査されている構造物の3次元コンピュータモデル内の対応する位置へとインデックス付けし、前記3次元コンピュータモデルのローカルエリアを抽出することと、
前記第1のセンサパッケージから得られる観察結果及び/又は情報を、抽出されている前記構造物の前記モデル3次元コンピュータモデルの前記ローカルエリアにアラインすることと
を行うように構成されている、モデルアライメントシステムと、
前記構造物に関する精細なレベルの測定値及び情報を得るように構成されている第2のセンサパッケージと、
前記第2のセンサパッケージから前記構造物に関して得られる前記精細なレベルの測定値及び前記情報を、前記構造物の前記3次元コンピュータモデルと比較するように構成されているモデル認識システムと
を備える、コンピュータによる検査システム。
[項目2]
前記モデル認識システムが、前記第2のセンサパッケージから前記構造物に関して得られる前記測定値及び前記情報と前記構造物の前記3次元コンピュータモデルとの間で決定される不一致を含むコンプライアンス報告を生成するようにさらに構成されている、項目1に記載のコンピュータによる検査システム。
[項目3]
所定のエラー閾値を超える不一致が、前記コンプライアンス報告に含まれる、項目2に記載のコンピュータによる検査システム。
[項目4]
前記グローバルローカリゼーション情報が、前記ユーザを、前記構造物が位置する作業現場にわたって約5cm~約15cm内までローカライズする、項目1に記載のコンピュータによる検査システム。
[項目5]
前記構造物に関する前記精細なレベルの測定値及び前記情報が、ミリメートルの精度及び/又は正確度レベルにある、項目1に記載のコンピュータによる検査システム。
[項目6]
前記第1のセンサパッケージが、カメラと、慣性測定ユニット(IMU)、気圧計、高度計、又は全地球測位システムデバイスのうちの少なくとも1つとを含む、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目7]
前記第2のセンサパッケージが、mmレベルの測定値を得るように構成されている視野の狭い1つ又は複数の高分解能センサを含む、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目8]
前記第1のセンサパッケージが、ヘルメット装着型拡張現実(AR)ディスプレイを含み、前記3次元コンピュータモデルが前記拡張現実ディスプレイに重ね合わされ、前記システムが、前記ユーザによって識別される前記モデル内の位置をマーク及び記憶し、仮想ノートをマークされている前記位置と関連付けるように構成されている、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目9]
前記第2のセンサパッケージが、ディスプレイを有する手持ち式デバイスを含み、前記手持ち式デバイスが、選択可能な物体を含み、前記選択可能な物体が、前記物体の選択に応答して前記構造物のローカルエリアの検査及び測定を開始するように構成されている、項目8に記載のコンピュータによる検査システム。
[項目10]
前記第1のセンサパッケージが、前記手持ち式デバイスと通信可能にハンドシェイクして、前記手持ち式デバイスによって捕捉されるポーズを、前記第1のセンサパッケージによって捕捉される前記ポーズとアラインするように構成されている、項目8に記載のコンピュータによる検査システム。
[項目11]
前記第1のセンサパッケージ及び/又は前記手持ち式デバイスによって捕捉される前記ポーズが、6自由度(6DOF)ポーズであり、ハンドシェイクが、前記第1のセンサパッケージから前記手持ち式デバイスへと複数の顕著な特性を送信することによって達成される、項目10に記載のコンピュータによる検査システム。
[項目12]
前記第1のセンサパッケージ及び前記第2のセンサパッケージが、同じセンサの一部を共有する、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目13]
前記スラムシステムが、既知の位置を有する現実世界タグを使用して、前記ユーザをローカライズする、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目14]
前記スラムシステムが、全地球測位システムが拒絶されるか、又は、全地球測位システムが制限される環境において、前記ユーザに関するローカリゼーション情報を決定するように構成されている、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目15]
前記モデルアライメントシステムが、前記構造物の点群モデルを、前記3次元コンピュータモデルとアラインするようにさらに構成されており、前記構造物の点群モデルが、前記第1のセンサパッケージ又は前記第2のセンサパッケージのうちの少なくとも一方から得られる前記測定値及び前記情報から作成される、項目1~5のいずれか一項に記載のコンピュータによる検査システム。
[項目16]
構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法であって、
第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するステップと、
決定されている前記グローバルローカリゼーション情報を使用して、前記検査されている構造物の3次元コンピュータモデル内の対応する位置へとインデックス付けし、前記モデルの関連部分を抽出するステップと、
前記第1のセンサパッケージから得られる観察結果及び/又は情報を、前記構造物の前記3次元コンピュータモデルにアラインするステップと、
精細なレベルの測定値を、第2のセンサパッケージを使用して得て、前記第2のセンサパッケージから前記構造物に関して得られる情報を、前記構造物の前記3次元コンピュータモデルと比較するステップと
を含む、コンピュータによる検査方法。
[項目17]
前記第2のセンサパッケージの高分解能センサから得られる前記構造物に関するmmレベルの測定値及び情報を使用して、前記構造物の3次元点群表現を生成するステップと、
関心物体を前記構造物の前記3次元点群表現内で検出し、前記関心物体の測定値及び情報を、前記高分解能センサを使用して得るステップと、
前記構造物の前記3次元点群表現を、受信されている前記3次元コンピュータモデルにアラインするステップと、
前記関心物体と受信されている前記3次元コンピュータモデルとの間の不一致を検出するステップと
をさらに含む、項目16に記載のコンピュータによる検査方法。
[項目18]
前記関心物体と受信されている前記3次元コンピュータモデルとの間に検出された前記不一致を含むコンプライアンス報告を生成するステップをさらに含む、項目16に記載のコンピュータによる検査方法。
[項目19]
前記3次元コンピュータモデル内でユーザによって識別される位置をマーク及び記憶し、仮想ノートをマークされている前記位置と関連付けるステップと、
任意のユーザが見るために視覚的に表示されるように、前記仮想ノートを前記3次元コンピュータモデルに重ね合わせるステップと
をさらに含む、項目16に記載のコンピュータによる検査方法。
[項目20]
構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法であって、
精細レベルセンサパッケージを使用して構造物のビデオ、画像及び/又は測定値のうちの1つ又は複数を得るステップと、
得られている前記ビデオ、画像及び/又は測定値を使用して、前記構造物の3次元点群モデルを生成するステップと、
前記構造物の仕様及び/又は要件を遵守していないすべての領域を決定するステップと、
遵守していない前記領域及び問題を含むコンプライアンス報告を生成するステップと
を含む、コンピュータによる検査方法。

Claims (19)

  1. 構造物の検査、誤り分析及び比較のためのコンピュータによる検査システムであって、
    第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するように構成されている、スラム(SLAM)システムと、
    モデルアライメントシステムであり、
    決定されている前記グローバルローカリゼーション情報を使用して、前記検査されている構造物の3次元コンピュータモデル内の対応する位置へとインデックス付けし、前記3次元コンピュータモデルのローカルエリアを抽出することと、
    前記第1のセンサパッケージから得られる観察結果及び/又は情報を、抽出されている前記構造物の前記3次元コンピュータモデルの前記ローカルエリアにアラインすることと
    を行うように構成されている、モデルアライメントシステムと、
    前記構造物に関するmmレベルの測定値及び情報を得るように構成されている第2のセンサパッケージと、
    前記第2のセンサパッケージから前記構造物に関して得られる前記mmレベルの測定値及び前記情報を、前記構造物の前記3次元コンピュータモデルと比較するように構成されているモデル認識システムと
    を備える、コンピュータによる検査システム。
  2. 前記モデル認識システムが、前記第2のセンサパッケージから前記構造物に関して得られる前記測定値及び前記情報と前記構造物の前記3次元コンピュータモデルとの間で決定される不一致を含むコンプライアンス報告を生成するようにさらに構成されている、請求項1に記載のコンピュータによる検査システム。
  3. 所定のエラー閾値を超える不一致が、前記コンプライアンス報告に含まれる、請求項2に記載のコンピュータによる検査システム。
  4. 前記グローバルローカリゼーション情報が、前記ユーザを、前記構造物が位置する作業現場にわたって5cm~15cm内までローカライズする、請求項1に記載のコンピュータによる検査システム。
  5. 前記構造物に関する前記mmレベルの測定値及び前記情報が、ミリメートルの精度及び/又は正確度レベルにある、請求項1に記載のコンピュータによる検査システム。
  6. 前記第1のセンサパッケージが、カメラと、慣性測定ユニット(IMU)、気圧計、高度計、又は全地球測位システムデバイスのうちの少なくとも1つとを含む、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  7. 前記第2のセンサパッケージが、mmレベルの測定値を得るように構成されている視野の狭い1つ又は複数の高分解能センサを含む、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  8. 前記第1のセンサパッケージが、ヘルメット装着型拡張現実(AR)ディスプレイを含み、前記3次元コンピュータモデルが前記拡張現実ディスプレイに重ね合わされ、前記システムが、前記ユーザによって識別される前記モデル内の位置をマーク及び記憶し、仮想ノートをマークされている前記位置と関連付けるように構成されている、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  9. 前記第2のセンサパッケージが、ディスプレイを有する手持ち式デバイスを含み、前記手持ち式デバイスが、選択可能な物体を含み、前記選択可能な物体が、前記物体の選択に応答して前記構造物のローカルエリアの検査及び測定を開始するように構成されている、請求項8に記載のコンピュータによる検査システム。
  10. 前記第1のセンサパッケージが、前記手持ち式デバイスと通信可能にハンドシェイクして、前記手持ち式デバイスによって捕捉されるポーズを、前記第1のセンサパッケージによって捕捉される前記ポーズとアラインするように構成されている、請求項9に記載のコンピュータによる検査システム。
  11. 前記第1のセンサパッケージ及び/又は前記手持ち式デバイスによって捕捉される前記ポーズが、6自由度(6DOF)ポーズであり、ハンドシェイクが、前記第1のセンサパッケージから前記手持ち式デバイスへと複数の顕著な特性を送信することによって達成される、請求項10に記載のコンピュータによる検査システム。
  12. 前記第1のセンサパッケージ及び前記第2のセンサパッケージが、同じセンサの一部を共有する、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  13. 前記スラムシステムが、既知の位置を有する現実世界タグを使用して、前記ユーザをローカライズする、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  14. 前記スラムシステムが、全地球測位システムが拒絶されるか、又は、全地球測位システムが制限される環境において、前記ユーザに関するローカリゼーション情報を決定するように構成されている、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  15. 前記モデルアライメントシステムが、前記構造物の点群モデルを、前記3次元コンピュータモデルとアラインするようにさらに構成されており、前記構造物の点群モデルが、前記第1のセンサパッケージ又は前記第2のセンサパッケージのうちの少なくとも一方から得られる前記測定値及び前記情報から作成される、請求項1~5のいずれか一項に記載のコンピュータによる検査システム。
  16. 構造物の検査、誤り分析及び比較のためのコンピュータによる検査方法であって、
    第1のセンサパッケージから得られる情報を使用して、検査されている構造物に対する、ユーザの現実世界のグローバルローカリゼーション情報を決定するステップと、
    決定されている前記グローバルローカリゼーション情報を使用して、前記検査されている構造物の3次元コンピュータモデル内の対応する位置へとインデックス付けし、前記モデルの関連部分を抽出するステップと、
    前記第1のセンサパッケージから得られる観察結果及び/又は情報を、前記構造物の前記3次元コンピュータモデルにアラインするステップと、
    mmレベルの測定値を、第2のセンサパッケージを使用して得て、前記第2のセンサパッケージから前記構造物に関して得られる情報を、前記構造物の前記3次元コンピュータモデルと比較するステップと
    を含む、コンピュータによる検査方法。
  17. 前記第2のセンサパッケージの高分解能センサから得られる前記構造物に関するmmレベルの測定値及び情報を使用して、前記構造物の3次元点群表現を生成するステップと、
    関心物体を前記構造物の前記3次元点群表現内で検出し、前記関心物体の測定値及び情報を、前記高分解能センサを使用して得るステップと、
    前記構造物の前記3次元点群表現を、受信されている前記3次元コンピュータモデルにアラインするステップと、
    前記関心物体と受信されている前記3次元コンピュータモデルとの間の不一致を検出するステップと
    をさらに含む、請求項16に記載のコンピュータによる検査方法。
  18. 前記関心物体と受信されている前記3次元コンピュータモデルとの間に検出された前記不一致を含むコンプライアンス報告を生成するステップをさらに含む、請求項17に記載のコンピュータによる検査方法。
  19. 前記3次元コンピュータモデル内でユーザによって識別される位置をマーク及び記憶し、仮想ノートをマークされている前記位置と関連付けるステップと、
    任意のユーザが見るために視覚的に表示されるように、前記仮想ノートを前記3次元コンピュータモデルに重ね合わせるステップと
    をさらに含む、請求項16に記載のコンピュータによる検査方法。
JP2020520008A 2018-05-14 2019-05-14 コンピュータによる検査システム及び方法 Active JP7327872B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862670985P 2018-05-14 2018-05-14
US62/670,985 2018-05-14
US16/412,067 US11270426B2 (en) 2018-05-14 2019-05-14 Computer aided inspection system and methods
US16/412,067 2019-05-14
PCT/US2019/032276 WO2019222255A1 (en) 2018-05-14 2019-05-14 Computer aided inspection system and methods

Publications (3)

Publication Number Publication Date
JP2021524014A JP2021524014A (ja) 2021-09-09
JPWO2019222255A5 JPWO2019222255A5 (ja) 2022-04-04
JP7327872B2 true JP7327872B2 (ja) 2023-08-16

Family

ID=68464932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520008A Active JP7327872B2 (ja) 2018-05-14 2019-05-14 コンピュータによる検査システム及び方法

Country Status (3)

Country Link
US (1) US11270426B2 (ja)
JP (1) JP7327872B2 (ja)
WO (1) WO2019222255A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2553148A (en) * 2016-08-26 2018-02-28 Nctech Ltd Modelling system and method
US11003911B2 (en) * 2017-02-28 2021-05-11 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium
US20210201273A1 (en) * 2018-08-14 2021-07-01 Carrier Corporation Ductwork and fire suppression system visualization
US11349843B2 (en) * 2018-10-05 2022-05-31 Edutechnologic, Llc Systems, methods and apparatuses for integrating a service application within an existing application
DE102019201490A1 (de) * 2019-02-06 2020-08-06 Robert Bosch Gmbh Kalibriereinrichtung für eine Überwachungsvorrichtung, Überwachungsvorrichtung zur Man-Overboard-Überwachung sowie Verfahren zur Kalibrierung
JP6748793B1 (ja) * 2019-03-22 2020-09-02 Sppテクノロジーズ株式会社 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法
CN110956032B (zh) * 2019-12-04 2023-06-27 广联达科技股份有限公司 模型与模型的对量方法、装置、存储介质、电子设备
US11042953B1 (en) * 2019-12-23 2021-06-22 Shopify Inc. Methods and systems for detecting errors in kit assembly
US11481857B2 (en) 2019-12-23 2022-10-25 Shopify Inc. Methods and systems for generating a product packaging model
US11557046B2 (en) 2020-09-30 2023-01-17 Argyle Inc. Single-moment alignment of imprecise overlapping digital spatial datasets, maximizing local precision
WO2022081690A1 (en) * 2020-10-14 2022-04-21 Amec Foster Wheeler Usa Corporation Method and system for measurement of coke drum deformation
JP2024518862A (ja) * 2020-12-01 2024-05-08 クリアエッジ・スリー・ディー インコーポレイテッド 施工検証システム、方法およびコンピュータプログラム製品
WO2022167097A1 (en) * 2021-02-08 2022-08-11 Abb Schweiz Ag Human-robot collaborative navigation
KR102603276B1 (ko) * 2021-06-21 2023-11-17 정재헌 Xr 기반의 감리 보조 장치, 방법 및 프로그램
US20230054838A1 (en) * 2021-08-23 2023-02-23 Verizon Patent And Licensing Inc. Methods and Systems for Location-Based Audio Messaging
GB2613155A (en) * 2021-11-24 2023-05-31 Xyz Reality Ltd Matching a building information model
JP7200422B1 (ja) 2022-04-28 2023-01-06 株式会社 商船三井 プログラム、システム及び情報処理装置
US11900490B1 (en) * 2022-09-09 2024-02-13 Morgan Stanley Services Group Inc. Mobile app, with augmented reality, for checking ordinance compliance for new and existing building structures

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101583723B1 (ko) 2015-01-16 2016-01-08 단국대학교 산학협력단 Bim 디지털 모델과 건설 현장의 양방향 동기화 시스템
US20180082414A1 (en) 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2980195B2 (ja) 1996-01-10 1999-11-22 鹿島建設株式会社 鉄筋径の計測方法及び装置
US6922599B2 (en) * 2001-08-13 2005-07-26 The Boeing Company System and method for producing an assembly by directly implementing three-dimensional computer-aided design component definitions
US7965886B2 (en) 2006-06-13 2011-06-21 Sri International System and method for detection of multi-view/multi-pose objects
GB2489179B (en) * 2010-02-05 2017-08-02 Trimble Navigation Ltd Systems and methods for processing mapping and modeling data
US9031809B1 (en) 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
US8761439B1 (en) 2011-08-24 2014-06-24 Sri International Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
WO2013096704A1 (en) * 2011-12-20 2013-06-27 Sadar 3D, Inc. Systems, apparatus, and methods for acquisition and use of image data
JP6236199B2 (ja) * 2012-06-18 2017-11-22 株式会社大林組 配筋検査システム
US9488492B2 (en) 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
US9285296B2 (en) * 2013-01-02 2016-03-15 The Boeing Company Systems and methods for stand-off inspection of aircraft structures
AU2014218525B2 (en) * 2013-02-25 2019-01-24 Commonwealth Scientific And Industrial Research Organisation 3D imaging method and system
JP6083091B2 (ja) 2013-06-18 2017-02-22 株式会社竹中工務店 鉄筋検査支援装置およびプログラム
EP2916189B1 (en) * 2014-03-06 2019-05-08 Hexagon Technology Center GmbH Quality assured manufacturing
WO2016066988A2 (en) * 2014-10-27 2016-05-06 Sensewhere Limited Position estimation
US10055892B2 (en) * 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
US10504218B2 (en) * 2015-04-21 2019-12-10 United Technologies Corporation Method and system for automated inspection utilizing a multi-modal database
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
JP6594686B2 (ja) * 2015-07-14 2019-10-23 東急建設株式会社 三次元形状計測装置、三次元形状計測方法、及びプログラム
EP3182065A1 (de) * 2015-12-14 2017-06-21 Leica Geosystems AG Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
CA3012049A1 (en) * 2016-01-20 2017-07-27 Ez3D, Llc System and method for structural inspection and construction estimation using an unmanned aerial vehicle
JP2017151026A (ja) 2016-02-26 2017-08-31 東急建設株式会社 三次元情報取得装置、三次元情報取得方法、及びプログラム
US10989542B2 (en) * 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US10191486B2 (en) * 2016-03-28 2019-01-29 Aveopt, Inc. Unmanned surveyor
JP6797556B2 (ja) * 2016-05-13 2020-12-09 株式会社トプコン 管理装置、管理方法および管理用プログラム
JP2018010599A (ja) * 2016-07-15 2018-01-18 富士通株式会社 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム
IL310337A (en) * 2016-08-11 2024-03-01 Magic Leap Inc Automatic positioning of a virtual object in 3D space
US11003911B2 (en) * 2017-02-28 2021-05-11 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium
US10948285B2 (en) * 2017-07-28 2021-03-16 Faro Technologies, Inc. Three-dimensional measurement device mobile geometry verification
US11042146B2 (en) * 2017-11-17 2021-06-22 Kodak Alaris Inc. Automated 360-degree dense point object inspection
US10713840B2 (en) * 2017-12-22 2020-07-14 Sony Interactive Entertainment Inc. Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot
US11288412B2 (en) * 2018-04-18 2022-03-29 The Board Of Trustees Of The University Of Illinois Computation of point clouds and joint display of point clouds and building information models with project schedules for monitoring construction progress, productivity, and risk for delays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101583723B1 (ko) 2015-01-16 2016-01-08 단국대학교 산학협력단 Bim 디지털 모델과 건설 현장의 양방향 동기화 시스템
US20180082414A1 (en) 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection

Also Published As

Publication number Publication date
WO2019222255A1 (en) 2019-11-21
US11270426B2 (en) 2022-03-08
US20190347783A1 (en) 2019-11-14
JP2021524014A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
JP7327872B2 (ja) コンピュータによる検査システム及び方法
JP6940047B2 (ja) コンピュータによる鉄筋測定検査システム及び鉄筋測定検査方法
US20130010068A1 (en) Augmented reality system
US8315425B2 (en) Method for comparison of 3D computer model and as-built situation of an industrial plant
US20140336928A1 (en) System and Method of Automated Civil Infrastructure Metrology for Inspection, Analysis, and Information Modeling
US20160104276A1 (en) In-process fault inspection using augmented reality
KR20210085053A (ko) Gpr 탐사를 이용한 지하시설물 관리시스템
US9546002B1 (en) Virtual instrument verification tool
CN105091817A (zh) 用于处理局部信息的方法
Luo et al. 3D deformation monitoring method for temporary structures based on multi-thread LiDAR point cloud
KR20210022343A (ko) 지하시설물 관련 혼합현실 제공방법 및 시스템
Kopsida et al. BIM registration methods for mobile augmented reality-based inspection
Feng et al. Computer vision for structural dynamics and health monitoring
Choi et al. Position-based augmented reality platform for aiding construction and inspection of offshore plants
Han et al. Research on the feasibility of visual measurement using first‐person perspective based on smartphones
Nowicki A data-driven and application-aware approach to sensory system calibration in an autonomous vehicle
Zhang et al. Developing novel monocular-vision-based standard operational procedures for nondestructive inspection on constructed concrete cracks
Yang et al. Research on Satellite Cable Laying and Assembly Guidance Technology Based on Augmented Reality
CN103440353A (zh) 一种基于vc++软件的针对双基站对无线电源三角定位及其误差分析方法
Kriebisch et al. Generation of 3D models of victims within their surroundings at rescue sites
CN105678230A (zh) 一种红外目标投影模型指导的飞机感兴趣区测谱方法
Karji et al. Integration of lidar and augmented reality for construction quality control, a conceptual framework
JPWO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
Dzeng et al. A Scaffolding Assembly Deficiency Detection System with Deep Learning and AR
US20170211937A1 (en) Indoor Positioning System with Fast Plan Mapping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7327872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150