JP2016521360A - Lidarを有する水中プラットフォーム及び関連する方法 - Google Patents

Lidarを有する水中プラットフォーム及び関連する方法 Download PDF

Info

Publication number
JP2016521360A
JP2016521360A JP2016506647A JP2016506647A JP2016521360A JP 2016521360 A JP2016521360 A JP 2016521360A JP 2016506647 A JP2016506647 A JP 2016506647A JP 2016506647 A JP2016506647 A JP 2016506647A JP 2016521360 A JP2016521360 A JP 2016521360A
Authority
JP
Japan
Prior art keywords
underwater
laser
data
virtual model
platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016506647A
Other languages
English (en)
Inventor
クリスチャン・エイチ・デブラナー
アラン・ケイ・フェッティンガー
フィリップ・エイ・ブクサイン
Original Assignee
ロッキード・マーチン・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロッキード・マーチン・コーポレーション filed Critical ロッキード・マーチン・コーポレーション
Publication of JP2016521360A publication Critical patent/JP2016521360A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B1/00Hydrodynamic or hydrostatic features of hulls or of hydrofoils
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/008Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Hydrology & Water Resources (AREA)
  • Optics & Photonics (AREA)
  • Fluid Mechanics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Laser Beam Processing (AREA)
  • Image Generation (AREA)

Abstract

AUV、ROV、又はトライポッド等の水中プラットフォーム上に取り付けられた3Dレーザを使用して海中構造物及び他の水中構造物の自律型水中検査を行うシステム及び方法。本明細書に記載されるシステム及び方法は、例えば水中構造物との水中機の衝突を回避する等の目的のために水中構造物のより良好な理解を得るために、また水中構造物の検査、修理、及び操作を指示するために、水中構造物を走査するために使用可能である。

Description

本開示は、海中構造物及び他の水中構造物の検査を行うための、水中プラットフォーム上のLIDARの使用に関する。LIDARから得られるデータは複数の目的のために使用可能であり、上記複数の目的は、水中構造物に対して相対的な水中機(underwater vehicle)の位置と向きに関する情報を取得すること、又は水中構造物に構造的な変化が発生したかに関する情報を取得することを含むが、これらに限定されない。
国際公開第2012/061069号(特許文献1)、国際公開第2012/061097号(特許文献2)、国際公開第2012/061099号(特許文献3)、国際公開第2012/061137号(特許文献4)、国際公開第2012/061135号(特許文献5)、及び国際公開第2012/061134号(特許文献6)より、海中構造物及び他の水中構造物の検査を行う水中機上の3Dソナーを用いるシステム及び方法は公知であり、これらの各々は、参照によりその全体が本明細書に組み込まれる。国際公開第2012/061134号(特許文献6)及び国際公開第2012/061135号(特許文献5)において、水中構造物に対して相対的な水中機の位置と向きに関する情報、又は水中構造物に構造的な変化が発生したかに関する情報を取得するために、3Dソナーから得られるデータが使用される。
国際公開第2012/061069号 国際公開第2012/061097号 国際公開第2012/061099号 国際公開第2012/061137号 国際公開第2012/061135号 国際公開第2012/061134号
本開示は、3Dレーザを使用して海中構造物及び他の水中構造物の検査を行うシステム及び方法に関する。特に、3Dレーザを使用した自律型水中検査に関連するシステム及び方法が記載され、当該自律型水中検査はすなわち光検出及び測距(Light Detection and Ranging)(又はLIDAR)であり、またレーザ検出及び測距(Laser Detection and Ranging)(又はLADAR)とも称される。本開示全体を通して使用されるLIDAR、LADAR、及び3Dレーザの用語(又は同様の用語)は、互いに同義的であることが意図される。
本明細書に記載されるシステム及び方法は、移動する水中機等の適切な水中プラットフォームを用いて実施され、当該水中機は自律型水中機(AUV)、遠隔操作型機(ROV)、若しくはダイバーにより操作される装置、又はトライポッド等の他の水中プラットフォームを含むが、これらに限定されない。従って、以下の記載は特にAUVに対して言及し得るが、本明細書に記載されるシステム及び方法は、固定されるか静止した他の種類の水中プラットフォームを採用して用いられることが可能である。本明細書において用いられるように、ROVは、ケーブルを用いて水上船等のホストにテザー接続されることができる遠隔操作型水中機である。ROVはホストに搭乗したパイロットによって占有されず、また当該ROVは当該ホストによって操作される。テザーは、ホストとROVとの間で双方向に、例えば電力(これに代えて若しくはこれに加えて、自給式のシステム上の補助バッテリ電力)、映像信号及びデータ信号を伝送することができる。本明細書において用いられるように、AUVは、無人の且つホスト船舶にテザー接続されていない自律型水中機である。
本明細書に記載されるシステム及び方法は、例えば、水中機の水中構造物との衝突を回避すること等の目的のために水中構造物を走査して水中構造物のより良好な理解を得るために、また水中構造物の検査、修理、及び操作を指示するために、使用可能である。
記載されるシステム及び方法は、任意の種類の水中構造物を走査するように使用可能である。例えば、水中構造物は、海上石油プラットフォームの支持構造物及び橋脚、並びに油井関連の設備等の人工オブジェクトを含み、また海中山脈等の自然オブジェクトを含み、更に全体的に又は部分的に水中にある構造物を含むことができる。水中構造物はまた、静止した構造物と、例えば水中環境において漂流を経験し得る静止しない構造物との両方を含むことができる。より一般的に、水中構造物は、深さ変化を有し且つ変動する複雑性を有し得る、任意の3次元構造物を包含することが意図される。
本明細書において用いられるように、「水中」の用語は、水中構造物が位置され得且つ本明細書に記載されるシステム及び方法を用いて走査される必要があり得る、任意の種類の水中環境を含み、当該水中環境は海及び大洋等の塩水位置並びに淡水位置を含むが、これらに限定されない。
一実施形態において、方法は、少なくともレーザビームパルスを、水中プラットフォーム上に取り付けられた3Dレーザから水中構造物に向けるステップと、水中構造物の一部に衝突して当該水中構造物の一部から反射された光を検出するステップと、を含む。検出され反射された光から複数のデータポイントが取得され、当該複数のデータポイントは、水中構造物の上記一部の走査された3次元仮想モデルを提供するように、処理されることができる。取得された複数のデータポイントは、水中構造物の既存の3次元仮想モデルに対してアラインされる。
一実施形態において、上記アラインメントに基づいて、水中構造物に対して相対的な水中プラットフォームの位置と向き(すなわち姿勢)について、推定が行われる。
別の実施形態において、複数のデータポイントのアラインメントの後、水中構造物における構造的な変化の発生を検出するために、走査された3次元仮想モデルが作成されて既存の3次元仮想モデルと比較される。
別の実施形態において、システムは、水中プラットフォームと、当該水中プラットフォーム上に取り付けられた3次元レーザシステムと、を含む。レーザシステムは、複数のレーザビームパルスを水中構造物に向けて投射する操向可能なレーザと、水中構造物から反射された光を検出する光検出器と、を含む。ポイントクラウドデータストレージは、レーザシステムによって生成されたポイントクラウドデータを格納するためにレーザシステムと通信し、またデータプロセッサは、ポイントクラウドデータストレージと通信して、データストレージからのポイントクラウドデータを処理する。データプロセッサは、(例えばファームウェア若しくはソフトウェア、又は他のプログラミングコードを実行することによって、)水中構造物に対して相対的な水中プラットフォームの位置と向きを推定し、及び/又は水中構造物における構造的な変化が発生したかを決定するように構成される。
本明細書に記載されるAUVベースの3Dレーザ検査システムの一例を示す。 パイロンにおける3Dレーザの配置を示す、AUVから取り除かれたAUVパイロンの上面図である。 3Dレーザの光学部品のための圧力容器を示す。 3Dレーザを制御する電子部品のための圧力容器を示す。 3Dレーザの向きを示す、AUVの前面図である。 連続ライン走査モードにおける3Dレーザの動作を示す。 ボウタイモードにおける3Dレーザの動作を示す。 フル走査モードにおける3Dレーザの動作を示す、AUVの側面図である。 フル走査モードにおける動作を示す、AUVの前面図である。 フル走査モードにおける前向きの視野を示す、AUVの上面図である。 パイプライン検査を行うための向きの一実施形態をデモンストレートする、AUVの前面図である。 AUV上の3Dレーザと他のサブシステムとの間の例示的なインタフェースを示す。 種々のアジマスにおける管状のオブジェクトを走査するときの、レーザのカバレッジを示す。 種々のアジマスにおける管状のオブジェクトを走査するときの、レーザのカバレッジを示す。 種々のアジマスにおける管状のオブジェクトを走査するときの、レーザのカバレッジを示す。 姿勢を推定する又は構造的な変化を検出するための方法の実施形態のフロー図である。 図14の方法において用られ得る、反射された光波からのポイントクラウドデータを水中構造物の既存のモデルにアラインする実施形態のフロー図である。 図14の方法において用られ得る、ポイントクラウドデータに対する例示的なフィルタリング処理のフロー図である。 3Dレーザを有するAUVの概略図である。 ポイントクラウドデータから得られる走査された3D仮想モデルを既存の3D仮想モデルと比較して水中構造物に構造的な変化が発生したかを示すために使用される、変化検出モデルのための複数のセルの概略的な空間的表現の実施形態を示す。 図18における複数のセルの空間的表現を用い得る、水中構造物の構造的な変化を検出する例示的な実施形態のフロー図である。
図1は、水中構造物の検査を行うために水面下に自航式AUV2が配置される、AUVベースの(LIDAR又はLADARとも呼ばれる)3Dレーザ検査システム1の一例を示す。レーザビームの投射と反射の検出との間の時間を測定して距離を測定することと、LADARを用いて3D仮想モデルを生成することを含むLADARシステムの構成、操作、及び使用は、本技術分野においてよく知られている。以下において更に検討されるポイントクラウドは、投射されるレーザビームパルスの角度及び時間と、検出されるパルスの時間と、水中機航行システムによって報告されるセンサの位置と、から生成される。
AUV2は、任意の水中構造物を検査するように使用可能である。水中構造物の例は、複数の支持脚部を備えるプラットフォーム支持構造物3、水中パイプライン4、水中施設5、及び他の水中構造物を含むが、これらに限定されない。AUV2動作は水上船又は他の非水中式機によって支援されることができ、この水上船又は他の非水中式機は、地上施設と通信可能である人工衛生と通信可能である。この通信チェインは例示的でしかなく、他の通信チェインが利用されることは可能である。
AUV2には、水中構造物の3Dレーザ検査を行う3Dレーザシステムを収容するパイロン6が取り付けられる。AUV2は、水中移動と動作を行うように構成され且つ3Dレーザシステムを支持することができる任意の水中機であることが可能である。1つの非限定的な例において、3Dレーザシステムを収容できるパイロンを有するAUVは、メリーランド州ベセスダのロッキード・マーティン社から入手可能であるMarlin(登録商標) AUVである。3Dレーザシステムはパイロン6内にあるものに限定されず、またAUV2内に位置するものに限定されない。むしろ、3Dレーザシステムは、AUV2の外側を含むAUV2上の任意の適切な位置に装着可能である。
AUVは、任意の適切な3Dレーザシステムを使用することができる。1つの非限定的な例において、使用される3Dレーザシステムは、コロラド州ボルダーの3D At Depth,LLCによって製造されるDepth Perception 3Dレーザに基づくことができる。Depth Perception 3Dレーザは、最大3000メートルまでの深さにおける調査品質3Dデータ収集を提供する。Depth Perceptionレーザは、パルスレーザと、レーザ受信器電子部品(例えば、光検出器等の反射された光を検出する手段)と、処理ソフトウェア及びアルゴリズムと、を含む。
AUVは本明細書に記載され、また図示される実施形態において示されるが、3Dレーザシステムは他の水中プラットフォーム上に取り付け可能である。当該他の水中プラットフォームは、ROV等の他の自航式のプラットフォーム、又はトライポッド等の非自航式のプラットフォームを含むが、これらに限定されない。
AUV2並びに水上船及び/又は地上施設等の支援サブシステムは、以下の機能及び能力が、単独で又は任意の組み合わせで、提供されることができる。
・AUVは、一般的な3Dマッピング及び検査を実行する。
・AUVは、近距離での検査及び測定を実行する。
・水上船及び/又は他の(複数の)支援サブシステムは、AUV上の、前向きのソナー、3Dソナー、3Dレーザ、及び静止画像カメラの動作状態を表示することができる。
・水上船及び/又は他の(複数の)支援サブシステムは、AUVの操作者が3Dレーザの動作を命令することを可能にする。この3Dレーザの動作は、連続走査モード、フル走査モード、又はボウタイ走査モードを含むが、これらに限定されない。
・水上船及び/又は他の(複数の)支援サブシステムは、マルチ解像度モデルを生成する能力を有することができ、ここで、ソナー、レーザ、又は結合され最適化されるデータセットがモデルのセクションに使用可能であるかに依存して、モデルの異なるセクションは異なる解像度を有する。
・AUVは、予め決定された距離の範囲において予め決定されたサイズ又はより大きなサイズを有する存在する構造物によって囲われていない正の異常(すなわち、既存のモデルに基づくと予期されないが、生成されたデータには現れる構造物)の統計的性能検出の能力を有することができる。
・AUVは、予め決定された距離の範囲において予め決定されたサイズ又はより大きなサイズを有する存在する構造物によって囲われていない負の異常(すなわち、既存のモデル上に現れるが、生成されたデータには現れない構造物)の統計的性能検出の能力を有することができる。
・AUVは、予め決定された距離の範囲において予め決定されたサイズを有する略存在する構造物の正の異常の、統計的性能検出の能力を有することができる。
・AUVは、予め決定された距離の範囲において予め決定されたサイズを有する略存在する構造物の負の異常の、統計的性能検出の能力を有することができる。
ひとたび異常が3Dマッピング走査から特定されると、AUVは、自律的に又は支援サブシステムからの命令に基づいて、高精細光学画像の収集に適した離れた距離におけるこれらの領域を再調査するための経路を再計画することができる。
例示的な一実施形態において、AUVが水中にある間、レーザデータのいかなる処理も発生することはない。この例において、生のセンサデータは、支援サブシステムによって、例えばホスト水上船又は地上施設によって、複数のポイントクラウドに格納されて処理されることとなる。複数のポイントクラウドは次いで、モデル構築及び変化検出のために後処理されることができる。レーザデータのリアルタイム変化検出が望まれる場合、レーザデータのリアルタイム処理は、AUV上で発生することができる。
AUVは、水面下の構造物の検査動作と、構造的な異常を検査及び報告することと、分析のための詳細な検査データを収集することとを自律的に実行するように構成可能である。検査されるべき水中構造物に応じて、AUVは、検査を可能にするための適切な検査パッケージが提供されることができる。
図2〜4を参照して、パイロン6は、3Dレーザシステム10を当該パイロン6に収容する。図示される例において、3Dレーザシステム10の電子部品及び光学部品は、2つの分離したエンクロージャに分割可能である。当該2つの分離したエンクロージャは、レーザエミッタ及び反射光検出器を含む3Dレーザのための光学部品を収容する光学部品圧力容器エンクロージャ12と、レーザを操作及び制御する電子部品を収容する電子部品圧力容器エンクロージャ14とを含む。
レーザは、動作シナリオ毎に任意の軸センサ角度で取り付け可能である。一実施形態において、光学部品エンクロージャ12のレーザは、図5に示すように、側方を見下げる近似的に45度の角度αで、取り付け可能である。この側方を見る角度は、関心領域の垂直方向及び水平方向の面の良好なカバレッジを提供する。レーザは左舷(ポートサイド)を指し示すように取り付けられるように図示されているが、レーザは、右舷(スターボード)、前方、船尾方向、下方、又は上方を向くように取り付け可能である。
一実施形態において、レーザ取り付け角度の電動化された制御は提供可能である。図3を参照し、光学部品エンクロージャ12は、レーザビームの軸外(オフアクシス)のポインティングを提供する操向可能なミラーアセンブリ16を収容する。図5に示す一例において、折り下げアセンブリ16は、例えばエンクロージャに直交する約±15度の、動作Xの結果ウィンドウを提供する垂直方向のラスタ走査と、例えばエンクロージャに対して約0度から約15度までの軸の前方向のラスタ走査とを提供することができる。前方向の走査装置(スキャナ)動作と垂直方向の走査装置動作の両方は、各種の動作モードに対応するように完全にプログラム可能であることができる。
一実施形態において、3Dレーザ10は、以下のうち1つ又は複数を有することができる:
・「側方を向く」能力
・スタンドアロンユニット又は「ブラックボックス」としてセンサが使用されることを可能にするイーサネット(登録商標)アプリケーションプログラマブルインタフェース(API)
・最大約300メートルまでの深さの能力
・アイセーフモードにおいて動作が可能
・常時安全な動作を確実にするための安全保護装置(セーフティインターロック)を含む
・電気的雑音は最小化され、信号品質は維持される
・種々のAUVの速度、範囲(レンジ)、及び走査装置構成のための、十分なスポットカバレッジ
図4を参照して、電子部品エンクロージャ14は、電力、及びAUV2との通信インタフェース、並びに光学部品エンクロージャ12とのインタフェースを提供する。
3Dレーザ10は、動作の任意の適切なモードに制御可能であり、当該動作は、以下の3つの例示的な動作モードを含むが、これらに限定されない。
・連続走査モード
・ボウタイモード
・フル走査モード
イーサネットアプリケーションプログラミングインタフェース(API)は、走査モードが調整されることを可能にする。
図6を参照して、連続走査モードは、AUV2の前方移動を利用して、完全にプログラム可能な、ライン走査する、垂直方向に走査する動作を提供する。連続走査モードにおいて、検査されている水中構造物の一部によって反射されたレーザ光によって生成されるレーザリターンデータは、各走査線の後に、電子部品からホストプロセッサに送信される。これは、リアーム(re−arm)時間と呼ばれる。垂直方向の走査線毎のわずかな前進軌道修正は、略垂直方向の走査パターンを提供して更に対称的な全体の走査パターンを得るように、適用可能である。図6は、垂直方向のターゲットのための連続走査モードを示す。
図7を参照して、連続走査モードの適合であるボウタイ走査モードが示される。ボウタイ走査モードは、インタレースされた前方ポインティングを用いた、完全にプログラム可能なライン走査動作を提供する。このモードは、高速走査と、航行援助として有用である完全な視野動作とを提供する。図7に示すように、レーザビームは、位置1から開始して、AUVの移動の方向に位置2へ一般的に横に移動して、「ボウタイ」パターンを通って掃引される。位置2から、レーザビームは位置3へ向かう角度で掃引し、次いで位置3から位置4へ横に掃引し、最後に位置4から位置1に戻る角度で掃引する。ボウタイパターンの特徴は完全にプログラム可能であることができ、また一実施形態において、4つの掃引セグメントの各々は、等しい数のレーザパルスを含む。
図8〜10を参照して、連続走査モードに類似して機能するフル走査モードが示される。しかしながら、フル走査モードにおいて、前進軌道角度は、所与のターゲットの高度な詳細をキャプチャするために、又はより大きな視野を迅速にキャプチャするために、垂直方向の複数のパスの間でステップが設けられる。リアーム動作は、連続走査モードにおけるように、垂直方向の各パスの後の代わりに、完全な走査の後に発生する。フル走査モードにおいて、前進軌道走査角度θは、例えば約0度から約15度までの角度でステップが設けられる。フル走査モードは、走査レート並びに前方向及び垂直方向のカバレッジ角度のために、完全にプログラム可能である。側方走査方向に対して「垂直方向の」と名前が付けられているが、それにもかかわらずラスタ走査モーションは「交差軌道」であると見なされる。レーザは、見下げるように、又は関心のあるターゲットに依存する回転された向きで、取り付け可能である。更に、即時の調整及びターゲットカバレッジに対するアプリケーション毎のセンサの電動化された移動はまた、提供可能である。
上で指摘したように、センサの全視野を使用することは、ターゲット表面のより良好なカバレッジを提供する。走査パターンは残りのポイントクラウド誤差に対して影響を及ぼさないことが見つけ出された。選択された走査パターンは視野の両端を使用すべきであり、高いデータレートを提供すべきであり、且つ典型的な動作範囲及び速度で構造物の均一なサンプリングを提供すべきである、ということが理解されよう。可能な最も高いデータレートを得るために、走査線間のダウンタイムは最小化されるべきである。最小のダウンタイムで視野の一方の側を走査して次に他方の側を走査するために、対角の走査線は使用可能である。これらの因子に基づいて、多数の例においてボウタイ走査パターンは好ましい走査パターンであり得る、ということが見つけ出されている。
命令及び制御のための通信パケットは、例えばTCP/IPイーサネットプロトコルを介して、レーザ10から送信及び受信可能である。レーザは、そのネットワーク接続のための静的IPアドレスを用いて構成可能である。レーザは、テレメトリと呼ばれる、特定の命令に対する命令確認応答パケットを提供することができる。更に、レーザは、一定間隔で「ハウスキーピング」テレメトリパケットを提供してレーザの現在の動作状態を記述することができる。環境情報はまた、レーザ測距精度及びレーザのための安全な動作条件の決定のために、レーザ送信可能である。更に、AUVとレーザの間で時刻同期が用られることができる。時刻同期は、現在のレーザポインティング及び測距情報をAUVの現在の位置と向きと同期させるために、利用される。
図12は、AUV上の3Dレーザ10と他のサブシステムとの間の例示的なインタフェースを示す。例えば、時刻同期信号、レーザ電力制御、及び他の信号は、レーザ10とAUV制御モジュール18との間で通信可能であり、その一方でレーザ制御信号及び環境データ信号は、レーザ10と、AUV知覚モジュール20との間で通信可能である。
レーザは、例えばパケットを用いて、AUVモジュール18及び20と通信可能である。全ての命令及びテレメトリパケットは、パケットヘッダと、パケットデータとを含むことができる。命令パケットはAUV2上で生成されて、TCP/IPインタフェースを介してレーザ10に送信される。レーザは、命令の成否(パス/失敗)状態を記述する応答テレメトリパケットを用いて全ての命令パケットに対して応答することとなる。
テレメトリパケットはレーザ10上で生成されて、TCP/IPインタフェースを介してAUVモジュール18及び20に送信される。いくつかのテレメトリパケットは命令に応答して発行され、またハウスキーピングパケット等の他の信号は一定間隔で送信される。
3D仮想モデルを構築するとき、以下の誤差原因は最小化されるべきである。
センサノイズ(アジマス、エレベーション、レンジ雑音)
塩分濃度及び温度の勾配
3DレーザシステムとAUV航行システムとの間の時刻同期誤差
航行誤差
較正誤差
(無視可能な)3Dモデル表現誤差
分離したミッションは、GPS誤差により、異なる初期位置誤差を有する。2つのミッションの間の差異は、簡単に数メートルになり得る。互いのデータセットのアラインメントは、自動化された変化検出に必要である。
例えば1ミリ秒(ms)未満のタイミング誤差を保つ、3DレーザシステムとAUVの航行システムとの間の時刻同期アプローチはまた、選択可能である。従来の時刻同期技術は同期を達成するように使用可能である。
較正誤差は、航行システムの姿勢に対して相対的な3Dレーザシステムの姿勢の測定における誤差である。較正誤差を低減するために、オフライン(陸地)及びオンラインの較正測定アプローチが比較された。オンラインアラインメントアプローチは、それが1回だけのオフラインアラインメントの後の物理的なミスアラインメントによってもたらされる任意の誤差を除去するため、好ましいと思われる。
図13A〜13Cを参照して、アジマスの全範囲上の走査は、感知される領域を最大化する。図13Aは、単一のアジマスにおいてオブジェクトを走査するときのカバレッジ領域を示す。図13Bは、アジマスの全範囲において走査するときのカバレッジ領域を示す。図13Cに示すように、構造物のコーナーにおいてアジマスの全範囲上を走査するときに、更なるカバレッジが提供される。
LADARを有するAUVを用いた、水中構造物に対して相対的なAUVの位置と向きの推定
AUV2の例示的な使用において、特に構造物が静止していないとき、AUV、ROV、又は海中構造物の周囲の他の水中機を、安全に操作することが可能である必要がある。構造物の近傍において水中機を安全に操作するために、構造物に対して相対的なAUVの位置と向き(姿勢)を知る必要がある。更に、構造物に対して相対的な姿勢を知り経時的にセンサ情報を組み合わせる必要がある。演習命令を実施するために、安全な操作及びセンサ情報の組み合わせは、リアルタイム(典型的には1秒未満)で、この情報を必要とする。
本明細書に記載される実施形態において、3Dレーザは、各レーザパルスに対して少なくとも1つのデータポイントを生成して、複数のデータポイントが組み合わせられた状態で構造物の完全深度仮想モデルを生成する。これは、複数のデータポイントを、構造物の格納された3D仮想モデルにアラインすることによる、姿勢の推定を可能にし、またGPSセンサ、鈍い(Dopier)センサ、又は慣性センサを必要としない。3Dデータにおける詳細な構造物及び雑音の変化は、格納された3D仮想モデルと3Dレーザによって生成された複数のデータポイントとの間の差異により、アラインメント処理を複雑にする。アラインメント処理は、3Dレーザによって提供される水平方向及び垂直方向の空間解像度の違いによって、更に複雑にされる。
代替の実施形態において、各レーザパルスに対して少なくとも1つのデータポイントを生成する3Dレーザを使用することの代わりに、単一のレーザパルスから、例えばフラッシュLADARシステムから、複数のデータポイントを生成する3Dレーザシステムが、使用可能であり得る。
水中機に対する姿勢推定は現在、慣性の、ドップラ速度ログ(DVL)、又はUSBL等の参照ビーコンに基づいている。本明細書に記載される方法は、DVL、USBL、及びLBL等の航行援助が利用可能でないか望ましくないかのいずれかである状況において、有用である。
姿勢推定の現在のアプリケーションは、等深線又は3D撮像ソナーデータを用いて、適用される。等深線ソナーから水中機の姿勢を推定するそれらは、ライン走査データの2.5dパッチを一緒に適合させることによって、そうする。これらのパッチは、慣性の、GPS、又は鈍い(Dopier)速度センサからの航行/姿勢情報に基づいて、作成される。このアプローチは、多くの深さの変化を有する石油掘削装置又は橋脚等の、3Dレーザデータ又は複雑な3D構造物に対しては、対処できない。3D撮像ソナーから水中機姿勢を推定することは類似のアプローチを適用するが、これは、センサの解像度限界により、提案されたアプローチの精度を達成できない。
3Dレーザの場合において、DVL又は参照ビーコンは必須ではないため、このアプローチは、海底から離れて且つビーコンの更なるハードウェア要求無しに、使用可能である。またそれは、モデル化された構造物に対して相対的な姿勢を生成するため、それはまた、固定されていない構造物の周囲の水中機を航行するために使用可能である。この技術によって、非静的条件において、複雑なリジッドな水中構造物のAUV及びROV航行、及びセンサデータ統合が可能である。
図14は、水中構造物に対して相対的な水中機の位置と向きを推定する方法30の一実施形態のフロー図を示す。一般的に、本方法は、水中機の慣性航行能力と、3Dレーザセンサと、3Dレーザセンサによって回収された複数のデータポイントを水中構造物の既存の3D仮想モデルとアラインするプロセッサと、を用いて、実施される。多くの環境において、これは、多くの場合約1秒間で、またときとして約1秒未満で、リアルタイムで実行可能である。例えば、複数のレーザパルスが関心のある構造物上に衝突するように3Dレーザから当該複数のレーザパルスを送出して、構造物の一部によって反射された光を検出(32)してデータポイントクラウドを生成(34)して、データをフィルタリングして、複数のデータポイントを以前のモデルにアライン(36)する処理は、約1秒又はそれ未満の時間で、完了し得る。
方法30は、複数のレーザパルスが構造物の一部上に衝突するように当該複数のレーザパルスを、3Dレーザから水中構造物に向けるステップを含む。構造物から反射された光は検出され(32)、複数のデータポイントクラウドを生成する(34)。複数のポイントクラウドは、3次元仮想画像を生成するために処理されることが可能である。3Dレーザは、伝達された複数の光パルスからの反射された光から3D画像を作成することができる、任意の3Dレーザであることが可能である。適切な3Dレーザの一例は、コロラド州ボルダーの3D At Depth,LLCによって製造されるDepth Perception 3Dレーザである。しかしながら、上で指摘したように、フラッシュLADARシステムもまた使用可能であり得る。3Dレーザは、それが水中構造物を指し示すように配置可能であり、その結果この3Dレーザは、複数のレーザパルスを水中構造物に送ることができ、また上で検討されたように種々の所望の角度に向き付けられることができ、また水中構造物から離間する、ということが理解されよう。
慣性航行システムは知られており、水中機の位置、向き、及び速度(例えば、移動の方向及び速度)を決定するために使用される、ということが理解されよう。慣性航行システムは、速度の決定に用いるために下を向くドップラ速度ログ(DVL)ユニットを含むことができるが、慣性航行システムは位置、向き、及び速度(例えば移動の方向及び速度)を決定することができる任意のシステムであることができるということが理解されよう。適切な慣性航行システムの一例は、Kearfott Corporationから入手可能であるSEADeVilである。
ひとたび反射された光が3Dレーザの光センサによって検出されると、水中構造物の走査された3D仮想モデルを形成するのに適切な複数のデータポイントが、取得される(34)。複数のデータポイントは次いで、水中構造物の既存の3D仮想モデルにアラインされる(36)。複数のデータポイントを既存の3Dモデルと一般的にアラインすることによって、走査されている構造物の一部の姿勢に対して相対的な、推定される姿勢が何であるかを知ることができる。
比較ステップ36を参照して、一実施形態において、3Dレーザからの複数のデータポイントは、データを既存の3Dモデルとフィットさせる反復処理を用いて、水中構造物の既存の3D仮想モデルとアラインされる。幾つかの実施形態において、この反復処理は、(例えばフラッシュLADARの場合において)単一の3Dレーザパルスからのデータに基づくことができる。別の実施形態において、反復処理は、複数の3Dレーザパルスからのデータに基づく。アラインメントに基づいて、水中構造物に対して相対的な水中機の位置と向きは、決定され、更新されることができる(38)。
既存の3D仮想モデルを参照して、既存の3D仮想モデルは、3Dレーザによって生成されたデータに対するアラインメントのために使用可能であることが仮定される。既存の3D仮想モデルのソースは変化することができるということが理解されよう。一例において、既存の3D仮想モデルは、例えばコンピュータにより支援される設計ソフトウェアから入手可能である電子ファイルからなど、水中機の位置と向きの推定を開始するときにおいて存在する。これは、例えば、水中構造物の最初の参照モデルが使用されて、モデル構造の後の比較を実行するときの場合であり得る。他の例において、既存の3D仮想モデルは、水中構造物の3D仮想モデルを生成した後に、又は位置と向きを更新した後に入手可能であり、これはステップ32、34、36、及び38の最初の反復によって行われる。最初の反復又は他の以前の反復の仮想モデルに適合させることによって位置、向き、及びモデル構造を更に更新する後続の反復は、その後に受信されるデータに対する既存の3D仮想モデルとして使用可能である。
すなわち、幾つかの場合において、初始動において、最初の参照は、既に利用可能である電子ファイルからのものであり得る。また、ひとたび3Dレーザがデータを生成すると、位置と向きに対する後続の更新は、更なるアラインメントのために使用されることができる。
アラインメントステップ36を更に参照して、図15は、検出されたデータから水中構造物の既存の仮想モデルへのアライン情報の一実施形態のフロー図を示す。図示の実施形態において、複数のデータポイントをアラインすることは、複数のデータポイントを水中構造物の既存の3D仮想モデルにアラインすることを含む。図示のように、アラインすることは、複数のデータポイントの複数のサンプルに基づいてフィット処理を繰り返し実行する反復的手法を含み、これは以下において更に説明され、またここで、フィット処理は、サンプリングされた複数のデータポイントを調整して水中構造物の既存の3D仮想モデルとアラインすることを含む。
図15の細部を参照して、3Dレーザは、アラインメント処理を実行するために使用される複数のポイントクラウド110を提供する。複数のポイントクラウドは、後述の変化検出処理において使用される水中構造物の走査された3D仮想モデルを生成するために使用可能な、複数のデータポイントを含む。通常の高いレベルの雑音、及び発生することが知られている潜在的な非有用な情報によって、幾つかの環境における複数のデータポイントは、アラインメントを受ける前にフィルタリングされる(142)。
図16は、フィルタリング処理142の一実施形態のフロー図を示し、これは、図14に示す複数のデータポイントを取得するステップ34の一部として含まれ得る。フィルタリング処理142は、アラインメントの間に使用される複数のデータポイントを取得するように、水中構造物上に衝突する複数のレーザ光パルスから得られる、検出された光をフィルタリングすることを含む。ポイントクラウド110からのデータは、一連のデータ処理及びフィルタリングステップを介して入力され、これにより、フィルタリングされたポイントクラウド160が得られる。図示の実施形態において、ポイントクラウド110は強度閾値フィルタ162に入力される。一般的に、フィルタリング処理142は、ポイントクラウド110に対して形態的な操作を実行することができる。例えば、各レンジビンの形態的な浸食164は実行可能であり、次いで隣接レンジビンは組み合わせられることができる(166)。ボックス164及び166は、フィルタリング処理142において使用可能である形態的な操作の非限定的な例を表す。次に、非最大抑制(168)ステップは、フィルタリングされたポイントクラウド160が取得される前に、実行可能である。
図15を更に参照して、フィルタリングされたポイントクラウド160は処理ループ144に進む。一実施形態において、処理ループ144は、「アウトライア」を含む観測されたデータのセットから数学的モデルのパラメータを推定するための反復的手法であるRANSAC(ランダムサンプルコンセンサス)ループであることができる。例えば、ループ144は、それが一定の確率で合理的な結果を生成するという意味において、非決定的アルゴリズムを表し、ここで上記確率は、より多くの反復が実行されると上昇し得る。この場合において、数学的モデルのパラメータは、水中構造物の既存の仮想モデルに対して相対的な3Dレーザの位置と向き(姿勢)であり、観測されたデータは、レーザからの複数のデータポイントである。基本的な仮定は、観測されたデータが「インライア」と「アウトライア」からなる、ということである。ここで、「インライア」はすなわち、幾つかの姿勢パラメータを有する数学的モデルによって説明されることができるデータであり、「アウトライア」は従って説明されることができないデータである。既存の3Dモデルは本明細書における方法において利用可能であるため、インライアの小さなセットが与えられるそのような反復処理は、データ(すなわち複数の3Dレーザデータポイント)をそれらの対応する最も近いモデルポイントに最適にフィットさせる姿勢を計算することによって姿勢のパラメータを推定するために使用可能である。
図15に示すように、処理ループ144は、変換152、ランダムサンプル154、及びフィット156の処理機能を含むことができる。変換152部分において、複数のポイントクラウドは、当該ポイントクラウドを既存の3D仮想モデルとの近似的なアラインメントに導く、初期姿勢130によって特定される座標系への変換を受ける。
図15に更に示すように、初期姿勢130は変換152に入力される。いくつかの例において、初期姿勢130は、水中機の慣性航行システムからの位置と向きを表す。後続の反復において、初期姿勢は、図15に示す手続きを受ける間に発生した最初のアライメント又は任意の先行するアラインメントの、更新された知識から得られるものであることができる。慣性速度又は加速度、及び水中機の慣性航行システムからの他の入力等の他の測定に基づいて、先行するアラインメントは適切に調整可能であるということが理解されよう。
利用可能な既存の3D仮想モデルを参照して、既存の3D仮想モデルは、ステップ146、156、及び150において入力可能であり、以下に更に説明されることができる。
ループ144のランダムサンプル154の部分において、ポイントクラウドからの複数のポイントのサンプルは、更なる処理のために、且つ既存の3Dモデルとのアラインメントのために、取得される。ループ144のフィット156の部分は、ランダムサンプル154からサンプリングされた複数のポイントが既存の3Dモデルと並ぶように調整される部分である。すなわち、3Dレーザデータの集合体の位置(姿勢)、例えば複数のデータポイントは、複数のポイントを既存の3Dモデルとアラインするようにリジッドに調整される。フィット156の部分において、複数のデータポイントは、モデル上の最も近いポイントを決定するために、1つ又は複数の最も近いポイントの計算を受けることができる。複数のデータポイント及び各データポイントに対するモデル上の最も近いポイントは、初期姿勢130に対する修正を計算するために使用され、ここで当該初期姿勢130に対する修正は、上記複数のデータポイント及び各データポイントに対するモデル上の最も近いポイントを最適にアラインする。
記載されるように、アラインメント処理は、可能な限り多数のデータポイント(インライア)を既存の3D仮想モデルとアラインする初期姿勢130に対する修正を決定するための、反復的手法である。幾つかの実施形態において、3Dレーザの複数のレーザパルスから得られる複数のデータポイントは、必要に応じて用られ得る。他の実施形態において、3Dレーザからの単一のレーザパルスからの複数のデータポイントは、使用可能である。
従って、変換152、ランダムサンプル154、及びフィット156の機能はループ144として構成され、当該ループ144は、必要に応じて反復して、これらの反復において発見された既存の3D仮想モデルとのデータの最良のアラインメントが真に最良の実現し得るアラインメントであることの確実性を高めることができる(144a)、ということが理解されよう。多くの実施形態におけるアラインするステップは、複数のデータポイントの複数のサンプルに基づいたフィット処理を繰り返し実行することを含み、ここで上記フィット処理は、サンプリングされた複数のデータポイントを調整して水中構造物の既存の3D仮想モデルとアラインすることを含む。適切な環境において、ループ144の処理を受ける複数のデータポイントサンプルは多くの場合、重複する複数のデータポイントを有する場合があり、ここでこの重複は、複数のデータポイントのモデルとの最良の実現し得るアラインメントを発見する確率を高めることを、更に助けることができる、ということが理解されよう。
すなわち、フィットは、複数のデータポイントのサブサンプルを用いて実行可能である。フィットは、これらのポイントを使用して、仮想モデルに対して相対的なセンサの姿勢を推定する。この推定された変換は全てのデータポイントに対して適用される。変換された複数のポイントは次いで、データをどのように良好に適合させるかを決定するために、既存の仮想モデルにアラインされる。
また、適切な反復の回数、及びアラインメント及びフィットを実行するために使用される重複の量は、幾つかの因子のバランスに依存することができる、ということが理解されよう。いくつかの因子は、例えば、用いられる処理電力の量、データを収集するためにどれだけの時間が使用されるか、収集されたデータの信頼性及び利用可能な既存の仮想モデル、どのように水中機が移動しているか、及び水中構造物の複雑性、を含むことができるが、これらに限定されない。1つよりも多くの3Dレーザパルスが用いられるところにおいて、例えば3Dレーザのパルスレート、経時的な初期姿勢130の誤差の潜在的な増加、及び仮想モデルの精度等の他の因子は、アラインメント処理のどれだけ多くの反復が必要とされるかの決定において考慮されることができる。
複数のデータポイントの多数のランダムサンプルがフィットされた後、複数の解が取得可能である。図15は、誤差によって解を順序づける部分(146)と、最良解を発見する部分(148)とを示す。ループ144aによって提供される解は、(例えば148において)最良解が取得可能であるように、(例えば146において)順序づけられる。ひとたび最良解が取得されると、この解のインライアの各々に対する既存の3D仮想モデル上の最も近いポイントが決定され、またこれらのインライアを最も近いポイントと最良にアラインする初期姿勢に対する修正は、インライアとフィットさせるステップにおいて計算される。更新された姿勢は送信されて例えば水中機の慣性航行システムに戻される。
本明細書に記載されるデータ処理は、AUVが構造物の近傍において航行している間、AUV上でリアルタイムで実行可能である。
図17は、姿勢推定を実行するAUV2の構成例を、概略的に示す。一実施形態において、AUVは、3Dレーザセンサ10と慣性航行システムとを含み、位置と向きの推定を実行するための適切な処理能力を有する。特徴のこの組み合わせは、システムが、例えば水中構造物に対して相対的に水中機を航行させるために使用されることを可能にする。
図示の実施形態において、3Dレーザセンサ10は、関心のある水中構造物によって反射された光を検出して、集められたデータをデータストレージ220に送信する。データプロセッサ230は、データストレージ220から複数のデータポイントを取得するように構成される。データプロセッサ230は、例えば、任意の適切な処理ユニットであることが可能である。以下において更に検討される実施形態において、複数のデータポイントは、変化検出の目的のために、水中構造物の走査された3D仮想モデルを生成するように処理されることができる。プロセッサ230は、複数のデータポイントを水中構造物の既存の3D仮想モデルにアラインするように構成される。アラインメントに基づいて、プロセッサ230は、水中構造物に対して相対的なAUVの位置と向きを決定するように構成される。位置と向きは、例えば慣性航行システムである水中機航行システム240を、更新するために使用可能である。構成要素はAUV2によって電力供給されることができるということが理解されよう。
本明細書において上に記載される方法及びシステムは、3Dレーザ走査からの水中構造物の特徴に基づいて水中構造物に対して相対的に水中機を航行させるために使用可能である。一実施形態において、3Dレーザ走査からのデータは収集され、慣性航行からのデータは収集され、またデータは、ログに記録されて、データを水中構造物の既存の3D仮想モデルとアラインするように処理される。データの収集、ロギング、及び処理は、AUVに搭載されたデータ処理電子部品を使用して実行可能である。
LADARを用いて構成されたAUVを使用したリアルタイムでの水中構造物の変化検出
AUV2の更なる例示的な使用において、AUV又はROV等の水中機を使用して、海中構造物の変化、損傷、又は変形を検査することができる必要性がある。構造物が静止していないとき、検査は特に困難である。効率的な動作のために、この検査のための処理は、海面との通信が多くの場合制限されるか帯域幅を有しないために、ROV又はAUV上で、リアルタイムで(典型的には1秒未満で)実行可能である。多くの場合、構造物の検査は、ルーチンであり且つ定期的であるが、ときとしてそれらはまた緊急でもあり、例えばハリケーン後の損傷検査又は損傷対策緊急検査である。他の実施形態において、処理は、AUV2から遠隔して、例えばホスト水上船又は陸上施設上で、実行可能である。
説明されたアプローチは、撮像されている空間の領域及び撮像されていない空間の領域の軌道をリアルタイムで保ち、また、撮像されている空間の領域において、変化した構造物の領域を特定する。従来技術の現在の状況は、多くの咬合を有する複雑な水中3D構造物に適用できない。変化検出の現在のアプリケーションは、等深線ソナーを使用し、リアルタイムで処理されず、また複雑な水中構造物に適用できない。存在するアプローチは、以前に咬み合わされた構造物と変化している構造物との間を識別することができないため、以前の収集とは異なる視点からオブジェクトが撮像される場合に困難に遭遇する。
説明された技術によって、変化検出方法は、現在の又は以前のLADARデータにおいてオブジェクトが咬み合わされたことによって明白な変化が発生したかを決定することが可能である。これによって、構造物のどの部分が撮像されていないかの迅速且つ自律的な決定が可能である。説明されたモデリングアプローチによって、多くの視点からLADARデータの効率的な組み合わせを行ってどのリターンがアーティファクトでありどれが実構造から発生するかを確実に決定することが可能である。
図14に再び戻り、水中構造物における構造的な変化を検出する方法は、上述の姿勢推定方法に実質的に類似する。一般的に、本方法は、3Dレーザセンサと、センサによって回収されたデータを水中構造物の既存の3D仮想モデルに比較するプロセッサとを伴って、AUVの慣性航行能力を用いて実施される。多くの環境において、これは、多くの場合において約1秒間で、またときとして約1秒未満で、AUVに搭載されて(オンボードで)リアルタイムで実行可能であるが、本処理は、AUVに搭載しないで、例えばAUVが検査ミッションを完了した後に、実行可能である。
姿勢推定方法30と同様に、変化検出方法は、1つ又は複数のレーザパルスが構造物の一部に衝突するように、当該1つ又は複数のレーザパルスを水中構造物に向けることを含む。構造物から反射された光は検出されて(32)、既存の3D仮想モデルにアラインされることができる複数のデータポイントクラウドを生成する(34)。複数のポイントクラウドのうちの少なくとも1つのは次いで、走査された3D仮想モデルを生成するように処理されて、生成された3D仮想モデルは次いで、変化を検出するために既存の3D仮想モデルと比較される。
3Dレーザは、送信された(複数の)光パルスからの反射された光から3D画像を作成することができる任意の3Dレーザであることが可能である。適切な3Dレーザの一例は、コロラド州ボルダーの3D At Depth,LLCによって製造されるDepth Perception 3Dレーザである。適切な3Dレーザの更なる例はフラッシュLADARである。3Dレーザは、当該3Dレーザが水中構造物を指し示すように、配置可能であり、その結果、この3Dレーザは、複数のレーザパルスを水中構造物に送ることができ、上で説明されたように種々の所望の角度に向けられることができ、そして水中構造物から離れる、ということが理解されよう。
慣性航行システムは知られており、水中機の位置、向き、及び速度(例えば、移動の方向及び速度)を決定するために使用されるということが理解されよう。慣性航行システムは、速度の決定に用いるために下を向くドップラ速度ログ(DVL)ユニットを含むことができるが、慣性航行システムは位置、向き、及び速度(例えば移動の方向及び速度)を決定することができる任意のシステムであることができるということが理解されよう。適切な慣性航行システムの一例は、Kearfott Corporationから入手可能であるSEADeVilである。
ひとたび反射された光が3Dレーザの光検出器によって検出されると、水中構造物の走査された3D仮想モデルを形成するのに適切である複数のデータポイントが取得される(34)。複数のデータポイントは、姿勢を決定するために、上で検討されたように、水中構造物の既存の3D仮想モデルにアラインされることができる(36)。
更に、変化検出のために、以前に生成された複数のポイントクラウドのうちの少なくとも1つのから、例えば以前に生成されたポイントクラウドのうちの全てから、走査された3D仮想モデルが生成される(40)。走査された3D仮想モデルは次いで、走査された構造物が変化しているかを決定するために、既存の3Dモデルと比較される(42)。
図18及び19を参照して、上述のアラインメント処理において使用される複数のデータポイントクラウドは、水中構造物において構造的な変化が発生しているかを決定するように更に処理される(例えば変化検出)。
アラインメント中に使用される複数のデータポイントは、走査された3D仮想モデルを生成するために使用され、当該走査された3D仮想モデルは、水中構造物の既存の3D仮想モデルと比較するために使用される。比較に基づいて、水中構造物における構造的な変化は検出可能である。
図18は、変化検出モデルのための複数のセル300の概略的な空間的表現である。比較は、受信された新しいデータに対するモデルに対して行われることができ、ここでそのような(複数の)比較は、水中構造物の構造的な変化が発生したかを示す。複数のセル300の空間的表現が示され、ここで各セル310は、いくつかの子ノード310に分割される。図18は、空間の立方体の体積を表すために八分木がどのように使用され得るのかを示す例示的な図である。「モデル」は実際には、八分木の複数のセルの各々に格納されるデータである。図示のように、複数のセルのうちの幾つかは、8個の子ノード310に分割される。全てのセルが分割され又は更に分割される必要があるわけではなく、適切な環境において、よりコンパクトなモデルが許されるということが理解されよう。複数のセルは、モデルの忠実性を改善するために、更に小さな複数の子セルを必要とするモデルの領域において更に分割されるのみである。
説明されたように、図18の空間的表現は八分木として知られている。八分木は、各内部セル又はノードがちょうど0個又は8個の子を有するツリーデータ構造物である。八分木は、3次元空間を8分の1に再帰的に更に分割することによって3次元空間を区分化するのに有用である。他の空間的表現は可能であり得、また、八分木はこの処理に適切であることが知られているが、八分木が用いられる必要があるという制限はないということが理解されよう。
図18を更に参照して、走査された3D仮想モデルが生成されると、各セルは、レーザヒット若しくは占有された空間、レーザ通過若しくは空き空間(empty space)、及び未知の領域に関する情報を含む。各セルは、レーザヒットの二次モーメント、レーザ通過、又はレーザ通過の二次モーメントを収容し得る。八分木、八分木におけるデータの集約、及び二次モーメントは、当業者が理解し得る通常の概念であるということが理解されよう。例えば、レーザヒットがセルに記録されるとき、その情報はその特定のセルにおける二次モーメントモデルに追加される。同様に、レーザビームがセルを貫通するとき、その情報は、そのセルにおけるレーザ通過及び視点相違モデルに記録される。そのような情報は、ノードが、空(empty)であると見なされるべきか、占有されている(occupied)と見なされるべきか、又は未知である(例えば、十分な情報ではない)と見なされるべきか、を決定するために、一緒に使用される。
図18における八分木の使用は、構造物が存在する占有された空間に関する情報を収集することと、構造物が存在しない占有されていない空間に関する情報を収集することと、構造物が存在するかしないかを決定するために十分な情報がない未知の空間を特定することによって、走査された3Dモデルの生成を可能にする。適切な環境において、走査された3Dモデルは、複数のアラインされたサンプルの入力に基づいている。各サンプルは、更に多くの視点が使用される程、構造物が存在する(又は存在しない)確実性が高まるように、検査される領域の異なる視点から収集されたデータを表す。この更に高い確実性は、変化検出モデルが精度を有して作成された更に高い確率を表す。
また、幾つかの視点から情報を取得することに加えて、レーザセンサによって各空のセルと占有されたセルが感知される回数はまた、監視されて計数され得、これは生成されたモデルの確実性を更に高めることが可能である、ということが理解されよう。
新しい走査された3D仮想モデルを構築した後、図19は、例えば図18の走査された3D仮想モデルを使用して、水中構造物の構造的な変化を検出する一実施形態180を示すフロー図を示す。図示のように、正の変化186と負の変化188の両方は、水中構造物に対して生成された新しい走査された3Dモデル(新しいモデル)182と水中構造物の既存のモデル(以前のモデル)184との両方の使用を決定可能である。本明細書において用いられるように、正の変化は、以前のモデルには存在しなかった、新たに検出される構造である。本明細書において用いられるように、負の変化は、以前のモデルには存在した、新しいモデルにおいて欠けている構造である。
図示の実施形態において、正の変化は、新しいモデル182と以前のモデル184の両方の入力によって決定される。新しいモデル182における複数の占有されたセルからのデータは、以前のモデル184と一緒に更なる処理のために入力される。更なる処理は、新しいモデル182及び以前のモデル184からの占有されたセルを比較するために発生する。最も近いポイントは、以前のモデルに対して相対的な新しいモデル182の複数の占有されたセルのために発見される。以前のモデルにおける最も近いポイントへの距離が閾値よりも大きい占有されたセルは取り除かれ(192)、残存する複数の占有されたセルにおける連結成分(連結した成分)は計算される(194)。閾値を上回るサイズの連結成分に含まれる複数の占有されたセルは(196)、(複数の)正の変化として出力される(186)。
図示の実施形態において、負の変化(188)は、新しいモデル182と以前のモデル184の両方の入力によって決定される。以前のモデル184における複数の占有されたセルは、新しいモデル182を用いた更なる処理のために入力される。更なる処理は、新しいモデル182と以前のモデル184からのデータを比較するために発生する。新しいモデル182におけるにおいて空でない以前のモデル184の複数の占有されたセルは取り除かれる(198)。図示のように、新しいモデルにおける空のセルにおける視点方向が以前のモデルにおけるモデル表面に対して直角をなす場合(202)、残存する複数の占有されたセルは取り除かれる。残存する複数の占有されたセルの連結成分は計算され(204)、閾値よりも大きな連結成分における複数のセル(206)は、(複数の)負の変化として出力される(188)。
図19に示すように、変化検出の方法(180)は、以前のモデルと新しいモデルの両方において感知されたものと感知されなかったものとを記録することによって、正の変化と負の変化の両方を確実に発見する。例えば、それは、以前のモデルにお見られなかった新しい走査されたモデルにおける表面と、以前のモデルになかった新しいモデルにおける表面との間を区別する(例えば、正の変化)。また、本明細書における方法は、以前のモデルにおいて感知されなかったために新しいモデルにおいて欠けているモデル表面と、もはや存在しなくなったために新しいモデルにおいて欠けているモデル表面との間を区別することができる(例えば負の変化)。更に、セル310が空として感知される回数と、空として感知される視点の相違とを記録することによって、方法は雑音とアーティファクトの影響を低減する。
図17に示すAUV2は、構造的な変化を検出するために使用可能である。
本明細書において上に記載される方法及びシステムは、3Dレーザ走査から、水中構造物の特徴に基づいて、水中構造物の構造的な変化を検出するために使用可能である。そのようなアプリケーションは、商用の海中構造物検査及び軍用の海中構造物検査の両方、港検査、及び機雷検出/対策を含むことができるが、これらに限定されない。一実施形態において、3Dレーザ走査からのデータは収集され、慣性航行からのデータは収集され、データはログに記録されて、走査された水中構造物の3D画像を水中構造物の既存の3Dモデルと比較するように処理される。データの収集、ログへの記録、及び処理は、リアルタイム処理能力を有する、水中機に搭載されたデータ処理電子回路を使用して、実行可能である。
本出願において開示された例は、全ての態様において、例示的且つ非限定的であると見なされるべきである。本発明の範囲は、上述の記載によるよりもむしろ、添付の請求項により示され、また、請求項の意味及び均等の範囲内に入る全ての変更は本発明に含まれることが意図される。

Claims (16)

  1. 少なくとも1つのレーザビームパルスを、水中プラットフォーム上に取り付けられたレーザから水中構造物に向けるステップと、
    前記水中プラットフォーム上に取り付けられた光検出器を使用して、前記水中構造物から反射された光を検出するステップと、
    検出された光から少なくとも1つのデータポイントクラウドを生成するステップであって、各データポイントクラウドは、前記水中構造物の走査された3次元仮想モデルを生成することに適している、ステップと、
    前記水中構造物の既存の3次元仮想モデルに、前記複数のデータポイントクラウドのうちの少なくとも1つにおける複数のデータポイントをアラインするステップと、
    を含む、方法。
  2. 前記アラインメントに基づいて、前記水中構造物に対して相対的な前記水中プラットフォームの位置と向きを推定する、
    請求項1に記載の方法。
  3. 前記複数のデータポイントクラウドのうちの少なくとも1つから、走査された3次元仮想モデルを作成するステップと、
    前記走査された3次元仮想モデルを、前記既存の3次元仮想モデルに比較するステップと、
    前記水中構造物における構造的な変化が発生したかを決定するステップと、
    を更に含む、請求項1に記載の方法。
  4. 複数のレーザビームパルスを、前記レーザから前記水中構造物に向けるステップと、
    各レーザビームパルスに対して、前記水中プラットフォーム上に取り付けられた前記検出器を使用して、前記水中構造物から反射された光を検出するステップと、
    を更に含む、請求項1に記載の方法。
  5. ボウタイ走査モード、連続走査モード、又はフル走査モードにおいて、前記複数のレーザビームパルスを、前記レーザから前記水中構造物に向けるステップを更に含む、
    請求項4に記載の方法。
  6. 前記少なくともレーザビームパルスを向けて反射された光を検出するとき、前記水中プラットフォームは静止していない、
    請求項1に記載の方法。
  7. 前記水中プラットフォームは、自律型水中機、遠隔操作型水中機、又はトライポッドのうちの1つである、
    請求項1に記載の方法。
  8. 前記データポイントクラウドをフィルタリングするステップを更に含む、
    請求項1に記載の方法。
  9. 前記複数のデータポイントをアラインするステップは、前記複数のレーザビームパルスからの複数のデータポイントを用いて、反復的なフィット処理を実行するステップを含み、前記反復的なフィット処理は、前記水中構造物の前記既存の3次元仮想モデルとアラインする前記複数のデータポイントを調整することを含む、
    請求項1に記載の方法。
  10. 前記複数のデータポイントをアラインした後、前記既存の3次元仮想モデルを更新するステップを含む、
    請求項1に記載の方法。
  11. 前記走査された3次元仮想モデルを作成するステップは、構造物が存在する占有された空間に関する情報を収集するステップと、構造物が存在しない占有されていない空間に関する情報を収集するステップと、情報が収集されていない未知の空間を特定するステップとを含む、請求項3に記載の方法。
  12. 前記走査された3次元仮想モデルを作成するステップは、複数のアラインされたデータサンプルを入力するステップであって、各アラインされたデータサンプルは、前記水中構造物の領域の異なる視点から収集されたデータを表す、ステップを含む、
    請求項11に記載の方法。
  13. 水中プラットフォーム及び当該水中プラットフォーム上に取り付けられた3次元レーザシステムであって、前記レーザシステムは、複数のレーザビームパルスを水中構造物に向けて投射する操向可能なレーザと、前記水中構造物から反射された光を検出する光検出器とを含む、水中プラットフォーム及び当該水中プラットフォーム上に取り付けられた3次元レーザシステムと、
    前記レーザシステムによって生成されたポイントクラウドデータを格納する、前記レーザシステムと通信するポイントクラウドデータストレージと、
    前記データストレージからのポイントクラウドデータを処理する、前記ポイントクラウドデータストレージと通信するデータプロセッサであって、前記データプロセッサは、前記水中構造物に対して相対的な前記水中プラットフォームの位置と向きを推定するように、及び/又は前記水中構造物における構造的な変化が発生したかを決定するように構成される、データプロセッサと、
    を備える、システム。
  14. 前記水中プラットフォームは、自律型水中機、遠隔操作型水中機、又はトライポッドのうちの1つである、
    請求項13に記載のシステム。
  15. 前記水中プラットフォームは、自律型水中機又は遠隔操作型水中機を備え、
    前記ポイントクラウドデータストレージ及び前記データプロセッサは、前記水中プラットフォーム上にあり、
    前記水中プラットフォームは、前記データプロセッサと通信する水中機航行システムを更に含む、
    請求項13に記載のシステム。
  16. 前記データプロセッサ、及び/又は前記ポイントクラウドデータストレージは、前記水中プラットフォームから分離した1つ又は複数の位置にある、
    請求項13に記載のシステム。
JP2016506647A 2013-04-05 2014-04-04 Lidarを有する水中プラットフォーム及び関連する方法 Pending JP2016521360A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361808994P 2013-04-05 2013-04-05
US61/808,994 2013-04-05
PCT/US2014/032988 WO2014165764A1 (en) 2013-04-05 2014-04-04 Underwater platform with lidar and related methods

Publications (1)

Publication Number Publication Date
JP2016521360A true JP2016521360A (ja) 2016-07-21

Family

ID=50694046

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016506647A Pending JP2016521360A (ja) 2013-04-05 2014-04-04 Lidarを有する水中プラットフォーム及び関連する方法
JP2016506655A Pending JP2016526148A (ja) 2013-04-05 2014-04-04 Lidarを有する水中プラットフォーム及び関連する方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016506655A Pending JP2016526148A (ja) 2013-04-05 2014-04-04 Lidarを有する水中プラットフォーム及び関連する方法

Country Status (8)

Country Link
US (2) US9229108B2 (ja)
EP (2) EP2981788A1 (ja)
JP (2) JP2016521360A (ja)
CN (2) CN105264402B (ja)
AU (2) AU2014247986B2 (ja)
BR (2) BR112015025450A2 (ja)
CA (2) CA2908744A1 (ja)
WO (2) WO2014165764A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023515644A (ja) * 2020-03-06 2023-04-13 レイセオン カンパニー 水中モノスタティックレーザイメージング

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015199789A2 (en) 2014-04-08 2015-12-30 University Of New Hampshire Optical based pose detection for multiple unmanned underwater vehicles
US9510757B2 (en) * 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
WO2016024026A1 (en) * 2014-08-15 2016-02-18 Fugro N.V. Underwater laser based modeling device
AT515931B1 (de) * 2015-01-22 2016-01-15 Riegl Laser Measurement Sys Vorrichtung zur Messung der Entfernung zu einem Objekt in einem Gewässer
US10183732B2 (en) * 2015-04-09 2019-01-22 University of New Hamphire Pose detection and control of unmanned underwater vehicles (UUVs) utilizing an optical detector array
US10407135B2 (en) * 2015-06-29 2019-09-10 Pgs Geophysical As Motion compensation for relative motion between an object connected to a vessel and an object in the water
CN105240643B (zh) * 2015-09-14 2017-08-08 中国海洋石油总公司 深水管道封堵器的调试安装方法
CN105425246B (zh) * 2015-11-20 2017-10-03 山东科技大学 一种在水池内进行的船载一体化测量系统精密检校方法
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
WO2017155970A1 (en) 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10579746B2 (en) * 2016-03-28 2020-03-03 Jz Technologies, Llc Method and apparatus for applying an architectural layout to a building construction surface
EP3485112B1 (en) 2016-07-15 2021-08-25 Fastbrick IP Pty Ltd Vehicle which incorporates a brick laying machine
WO2018009980A1 (en) 2016-07-15 2018-01-18 Fastbrick Ip Pty Ltd Boom for material transport
CN106407408B (zh) * 2016-09-22 2019-08-16 北京数字绿土科技有限公司 一种海量点云数据的空间索引构建方法及装置
CN106643671B (zh) * 2016-12-01 2019-04-09 江苏省测绘工程院 一种基于机载LiDAR测深系统的水下点云去噪方法
FR3060113B1 (fr) * 2016-12-09 2019-08-09 Kopadia Procede et systeme d'acquisition de donnees d'analyse dans une zone d'observation d'un environnement subaquatique.
CN108241365B (zh) * 2016-12-27 2021-08-24 法法汽车(中国)有限公司 估计空间占据的方法和装置
JP2020506402A (ja) * 2017-01-06 2020-02-27 ジェー. ブラウン,ウィリアム 自由空間光通信及びlidarのためのシステム
SG10201700299QA (en) * 2017-01-13 2018-08-30 Otsaw Digital Pte Ltd Three-dimensional mapping of an environment
CN108510593B (zh) * 2017-02-28 2021-07-13 中兴通讯股份有限公司 一种基于电磁波的立体空间模型采集方法及装置
DE102017207138A1 (de) * 2017-04-27 2018-10-31 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum rechnergestützten Erzeugen einer virtuellen Zugumgebung
AU2018261777B2 (en) * 2017-05-04 2023-05-11 3D at Depth, Inc. Systems and methods for monitoring underwater structures
US11082717B2 (en) 2017-07-05 2021-08-03 Onesubsea Ip Uk Limited Data compression for communication in subsea oil and gas systems
US11441899B2 (en) 2017-07-05 2022-09-13 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CA3069305A1 (en) 2017-07-10 2019-01-17 3D at Depth, Inc. Underwater optical positioning systems and methods
WO2019033165A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd CONFIGURATION OF INTERACTION SYSTEM
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光跟踪器
US10679338B2 (en) * 2017-08-23 2020-06-09 General Electric Company Three-dimensional modeling of an object
JP2019064402A (ja) * 2017-09-29 2019-04-25 東亜建設工業株式会社 船舶航行用監視システム
US11415675B2 (en) 2017-10-09 2022-08-16 Luminar, Llc Lidar system with adjustable pulse period
US11415676B2 (en) * 2017-10-09 2022-08-16 Luminar, Llc Interlaced scan patterns for lidar system
WO2019071313A1 (en) 2017-10-11 2019-04-18 Fastbrick Ip Pty Ltd MACHINE FOR CARRYING OBJECTS AND CARROUSEL WITH SEVERAL COMPARTMENTS FOR USE WITH THE SAME
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
RU2692829C2 (ru) * 2017-12-08 2019-06-28 Общество С Ограниченной Ответственностью "Газпром Трансгаз Краснодар" Способ позиционирования подводного оборудования относительно обследуемого подводного трубопровода
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2019178429A1 (en) * 2018-03-15 2019-09-19 Kaarta, Inc. Methods and systems for filtering point cloud map data for use with acquired scan frame data
CN108680923B (zh) * 2018-03-21 2020-08-04 浙江大学 一种基于角锥器激光反射的水下机器人三维定位通信装置及其方法
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
JP7148266B2 (ja) * 2018-04-26 2022-10-05 川崎重工業株式会社 自律型無人潜水機を用いた作業方法
GB2573794B (en) * 2018-05-17 2022-08-24 1Csi Ltd Scanning apparatus and scanning method
CN108921936A (zh) * 2018-06-08 2018-11-30 上海大学 一种基于光场模型的水下激光条纹匹配和立体重建方法
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US11182954B2 (en) 2018-09-07 2021-11-23 Hivemapper Inc. Generating three-dimensional geo-registered maps from image data
CN109115189B (zh) * 2018-09-11 2021-06-25 上海交颐信息技术服务有限公司 一种基于人工智能间接指示的海洋参数获取分析方法
EP3651056A1 (en) * 2018-11-06 2020-05-13 Rovco Limited Computing device and method for video object detection
CN109883464A (zh) * 2019-01-08 2019-06-14 中国海洋大学 深海自升式三脚架海底边界层观测系统
US10832444B2 (en) * 2019-02-18 2020-11-10 Nec Corporation Of America System and method for estimating device pose in a space
US11280905B2 (en) 2019-05-03 2022-03-22 Seagate Technology Llc Underwater imaging system with multiple connected autonomous underwater vehicles
CN110057383B (zh) * 2019-05-05 2023-01-03 哈尔滨工程大学 一种auv推位导航系统杆臂误差标校方法
CN110319811B (zh) * 2019-06-27 2021-07-20 华南理工大学 一种自适应波浪效应的水下单波束高精度探测系统及方法
US11958579B2 (en) * 2019-07-30 2024-04-16 Schlumberger Technology Corporation System and method for autonomous exploration for mapping underwater environments
JP7362343B2 (ja) * 2019-08-09 2023-10-17 川崎重工業株式会社 水中作業システム
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
WO2024043865A1 (en) * 2019-09-17 2024-02-29 Bae Systems Information And Electronic Systems Integration Inc. Correction of internal wave effects on a propagating acoustic signal
KR102276943B1 (ko) * 2019-09-23 2021-07-13 포항공과대학교 산학협력단 초음파 카메라를 이용한 수중 오브젝트의 스캔경로 설정 방법 및 수중로봇
CN111257906B (zh) * 2020-02-11 2022-05-17 鹏城实验室 一种激光雷达监测系统、方法和装置
CN111580131B (zh) * 2020-04-08 2023-07-07 西安邮电大学 三维激光雷达智能车在高速公路上识别车辆的方法
EP4150378A1 (en) 2020-05-13 2023-03-22 Luminar, LLC Lidar system with high-resolution scan pattern
EP4158112A1 (en) 2020-05-25 2023-04-05 Wing Marine LLC Material handling systems and methods
CN112254675B (zh) * 2020-10-15 2023-04-11 天目爱视(北京)科技有限公司 一种包含运动物体的空间占用率采集判断设备及方法
US11158120B1 (en) * 2020-11-18 2021-10-26 Motional Ad Llc Ghost point filtering
RU2753986C1 (ru) * 2020-12-08 2021-08-25 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-Морского Флота "Военно-морская академия им. Адмирала Флота Советского Союза Н.Г. Кузнецова" Авиационный плавающий подводный снаряд
CN113238249B (zh) * 2021-05-17 2021-12-28 湖南力研光电科技有限公司 一种水下实时三维成像方法及雷达装置
US20240017420A1 (en) * 2021-07-26 2024-01-18 Subrahmanya Jahnu Peri Non-destructive device and method for surveying, inspection, and cleaning marine growth around offshore structure
JP7462096B1 (ja) 2023-05-17 2024-04-04 日本信号株式会社 距離画像生成装置及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003294841A (ja) * 2002-03-29 2003-10-15 Mitsubishi Heavy Ind Ltd 水中における探査対象物の探査方法及び探査システム
JP2006258457A (ja) * 2005-03-15 2006-09-28 Omron Corp レーザスキャン装置
US20110291862A1 (en) * 2010-05-28 2011-12-01 Conocophillips Company Ice data collection system
US20120099402A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Building a three-dimensional model of an underwater structure
US20120099395A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Detecting structural changes to underwater structures
US20120099400A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590640B1 (en) 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US7417666B2 (en) 2003-04-01 2008-08-26 University Of South Florida 3-D imaging system
CN1841008A (zh) 2005-04-01 2006-10-04 鸿富锦精密工业(深圳)有限公司 激光量测机台扫描精度验证方法
US8625854B2 (en) * 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
CA2606267A1 (fr) 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US9041915B2 (en) * 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
US8542413B2 (en) * 2009-02-23 2013-09-24 2G Robotics Inc. Laser scanner assembly
CN103492946B (zh) 2010-10-25 2016-11-09 洛克希德马丁公司 远程进水构件检测
CA2814843C (en) 2010-10-25 2017-10-03 Lockheed Martin Corporation Sonar data collection system
EP2633375B1 (en) 2010-10-25 2018-12-05 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle based on correlated sensor data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003294841A (ja) * 2002-03-29 2003-10-15 Mitsubishi Heavy Ind Ltd 水中における探査対象物の探査方法及び探査システム
JP2006258457A (ja) * 2005-03-15 2006-09-28 Omron Corp レーザスキャン装置
US20110291862A1 (en) * 2010-05-28 2011-12-01 Conocophillips Company Ice data collection system
US20120099402A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Building a three-dimensional model of an underwater structure
US20120099395A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Detecting structural changes to underwater structures
US20120099400A1 (en) * 2010-10-25 2012-04-26 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KLEPSVIK,J.O. 外1名: ""Laser-Radar Technology for Underwater Inspection, Mapping"", SEA TECHNOLOGY, vol. Volume 37, Number 1, JPN6017045624, January 1996 (1996-01-01), pages 49 - 53, ISSN: 0003901617 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023515644A (ja) * 2020-03-06 2023-04-13 レイセオン カンパニー 水中モノスタティックレーザイメージング
JP7394236B2 (ja) 2020-03-06 2023-12-07 レイセオン カンパニー 水中モノスタティックレーザイメージング

Also Published As

Publication number Publication date
WO2014165764A1 (en) 2014-10-09
WO2014165781A1 (en) 2014-10-09
EP2981788A1 (en) 2016-02-10
AU2014247986B2 (en) 2018-01-04
US20140300885A1 (en) 2014-10-09
BR112015025450A2 (pt) 2017-07-18
JP2016526148A (ja) 2016-09-01
CN105264402B (zh) 2018-02-06
BR112015025449A2 (pt) 2017-07-18
AU2014248003A1 (en) 2015-10-29
US9223025B2 (en) 2015-12-29
EP2981843A1 (en) 2016-02-10
AU2014247986A2 (en) 2015-10-29
CA2908738A1 (en) 2014-10-09
AU2014247986A1 (en) 2015-10-29
CA2908744A1 (en) 2014-10-09
US9229108B2 (en) 2016-01-05
AU2014248003B2 (en) 2017-06-01
CN105264402A (zh) 2016-01-20
CN105264336A (zh) 2016-01-20
US20150092178A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
US9223025B2 (en) Underwater platform with LIDAR and related methods
CA2814839C (en) Detecting structural changes to underwater structures
US8929176B2 (en) Building a three-dimensional model of an underwater structure
CA2814833C (en) Estimating position and orientation of an underwater vehicle based on correlated sensor data
KR101888171B1 (ko) 무인 수상정의 자세정보 기반 환경인식 장치 및 방법
CA2814837A1 (en) Estimating position and orientation of an underwater vehicle relative to underwater structures
Nornes et al. Automatic relative motion control and photogrammetry mapping on steep underwater walls using ROV
Tani et al. Comparison of Monocular and Stereo Vision approaches for Structure Inspection using Autonomous Underwater Vehicles
Sam-Odusina A coordinated UAV deployment based on stereovision reconnaissance for low risk water assessment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181023