JP5968894B2 - 相関付けられたセンサデータに基づいた水中航走体の位置および向きの推定 - Google Patents

相関付けられたセンサデータに基づいた水中航走体の位置および向きの推定 Download PDF

Info

Publication number
JP5968894B2
JP5968894B2 JP2013536713A JP2013536713A JP5968894B2 JP 5968894 B2 JP5968894 B2 JP 5968894B2 JP 2013536713 A JP2013536713 A JP 2013536713A JP 2013536713 A JP2013536713 A JP 2013536713A JP 5968894 B2 JP5968894 B2 JP 5968894B2
Authority
JP
Japan
Prior art keywords
attitude
vehicle
posture
estimate
underwater
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013536713A
Other languages
English (en)
Other versions
JP2014502344A (ja
Inventor
タンギラーラ、セカール、シー.
フェルドマン、ウォルター、ケイ.
デブランナー、クリスチャン、エイチ.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lockheed Martin Corp
Original Assignee
Lockheed Martin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Martin Corp filed Critical Lockheed Martin Corp
Publication of JP2014502344A publication Critical patent/JP2014502344A/ja
Application granted granted Critical
Publication of JP5968894B2 publication Critical patent/JP5968894B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願への相互参照
本出願は、2010年10月25日付で出願された「ESTIMATING POSITION AND ORIENTATION OF AN UNDERWATER VEHICLE BASED ON CORRELATED SENSOR DATA」という名称の米国仮特許出願第61/406,476号の優先権を請求する。これに言及することにより、そのすべての内容は本出願に組み込まれる。
本開示は、水中航走体の位置および向きを非常に高い精度で推定することに関する。この推定は、収集されたセンサデータに基づく航走体の位置および向きの非常に高精度な推定値と航走体の航法装置によって提供される位置および向きのデータとを組み合わせることによって求められる。組み合わされたデータもまた処理されて航走体の航法装置に更新された位置修正値(position fix)を提供し、そして航法装置は航走体の位置および向きの推定値を更新する。
水中環境において航走体の位置および向きを推定する能力を有することが必要とされている。しばしば、非常に高い精度で周囲を航行する必要があるかもしれない水中構造物や他の設備が数多く存在する。現在行われている水中航走体の位置および向きの推定方法は、要求される非常に高い精度の計測値を提供するものではない1つまたは複数のセンサを使用することを含んでいる。
例えば水中構造物に対する水中航走体の位置および向きを推定する目的などで水中構造物をよりよく理解するために、水中構造物を高い精度で走査するのに用いることができる方法およびシステムを記載する。このような位置および向きの推定はしばしば「姿勢(pose)」として知られる。このような能力は、例えば、水中構造物の点検、修理、および操作を指揮する際に有用であり得る。
本明細書に記載の方法およびシステムは、いかなる種類の水中構造物を走査するためにも用いることができる。例えば、水中構造物は、海上石油プラットフォームの支持構造物および桟橋ならびに油井関連設備のような人工物と、水中山脈のような自然物とを含む。水中構造物はまた、完全にまたは部分的に水中にあるものを含み、また、静止した構造物と、例えば水中環境で漂流し得る、静止していない構造物との両方を含み得る。より一般的には、水中構造物は、深さがさまざまで、さまざまな複雑性を有する、いかなる任意の3次元構造物をも意味する。
本明細書において、用語「水中」は、水中構造物が位置し得、かつ、本明細書に記載のシステムを用いて走査される必要があり得るいかなる種類の水中環境をも含み、限定されるわけではないが、海洋のような塩水域と、淡水域とを含む。
一般に、本明細書に記載の方法およびシステムは、2つの情報源からの位置および向き(姿勢)に関する推定値を利用する。これらの推定値は組み合わされて、水中構造物に対する水中航走体の位置および向きを更新するのに用いられる融合された推定値となる。
一実施形態において、水中航走体の位置および向きの推定方法は、一方の情報源からの位置および向きのデータを受信することと、他方の情報源からの姿勢データを受信することとを含む。上記一方の情報源からのデータと上記他方の情報源からのデータは組み合わされ、この組み合わせの結果として、融合された姿勢推定値が得られる。上記一方の情報源か上記他方の情報源かのどちらか一方から受信したデータの前方予測を生成するかどうかが判定され、必要であれば前方予測が生成される。上記融合された姿勢推定値に基づいて水中航走体の更新された姿勢が決定される。
一実施形態において、上記一方の情報源は、水中航走体の姿勢の推定値を提供するように構成された、水中航走体の航走体航法装置である。一実施形態において、上記他方の情報源は、水中構造物の3次元画像を提供するように構成された、ソーナーに基づくセンサである。
いくつかの実施形態において、ソーナーに基づくセンサに由来する姿勢の推定値は、航走体航法装置の支援を受けて得られてよく、よって、航走体航法装置に由来する推定値に相関付けられる。これらの推定値の融合は、最新の融合された姿勢の推定値を提供するためにこれらの相関を考慮し、例えば、2つの推定値の相対頻度を考慮する。
さらに別の実施形態において、水中航走体上で上記の推定を実施可能なシステムを有することが好ましい。水中航走体は、例えば、自律型潜水機(autonomous underwater vehicle)(AUV)および遠隔操作水中探査機(remotely operated underwater vehicle)(ROV)のうちの1つであるが、これに限定されるわけではない。本明細書において、ROVとは、水上船のようなホストにケーブルでつながれた遠隔操作水中探査機である。ROVは、無人であり、ホストに乗っている操縦者によって操作される。つなぎケーブル(tether)は、例えば、電力(自蔵式の(self-contained)システム上の蓄電池電力の代わりまたは補助として)、映像信号、およびデータ信号を、ホスト・ROV間でやりとりすることができる。本明細書において、AUVとは、無人で、ホスト船につながれていない自律型潜水機である。
一実施形態において、水中航走体の姿勢を推定するこのようなシステムは、水中航走体に搭載されたセンサを含む。センサは、ソーナー音波を水中構造物に向けて送出するように構成され、反射されたソーナー音波は処理されて、水中構造物の3次元画像を提供し、また、姿勢の画像センサに基づく姿勢推定値を提供する。水中航走体には航走体航法装置(vehicle navigation system)が搭載される。航走体航法装置は、水中航走体の姿勢の推定値を提供するように構成される。ソーナーセンサ音波の処理によって提供された撮像センサに基づく姿勢推定値は、航走体航法装置によって提供された支援を通じて、航走体航法装置によって提供された推定値と相関付けられる。撮像センサに基づく姿勢推定値を受信するように構成されたデータ記憶装置が水中航走体に搭載される。
水中航走体にはデータ処理装置が搭載される。データ処理装置は、処理されたソーナーセンサ音波により得られた撮像センサに基づく姿勢推定値と航走体航法装置からの姿勢推定値との両方を受信するように構成される。上記処理装置は、センサによって提供された推定値と航走体航法装置によって提供された推定値とを組み合わせるように構成され、この組み合わせの結果として、融合された姿勢推定値が得られる。上記処理装置は、画像センサに基づく姿勢推定値の前方予測を生成するかどうかを判定するようにも構成され、必要であれば前方予測を生成するように構成される。上記処理装置は、融合された姿勢推定値に基づいて水中航走体の更新された姿勢推定値を決定するように構成される。上記処理装置は、融合された位置修正値を航走体航法装置に提供し、リセットとしてのこの位置修正値をいつ航走体航法装置に提供するかを決定するようにも構成される。
図1は、水中航走体の姿勢を推定するための方法の一実施形態のフローチャートを示す。
図2は、航走体航法装置データに相関付けられたセンサデータを処理し、航走体航法装置からの姿勢データを処理するための一実施形態のフローチャートを示す。
図3は、水中航走体の姿勢を推定するためのシステムの概略図を示す。
図4は、画像センサのような特徴に基づくセンサから取得された姿勢の前方伝播(forward propagation)の一例を示す。
[水中航走体の姿勢の推定方法]
図1は、水中航走体の姿勢を推定するための方法10の一実施形態のフローチャートを示す。概して、本方法は、水中航走体の航法機能を、画像センサ、例えばソーナー撮像センサ、のような特徴に基づくセンサと、推定された水中航走体の姿勢を更新する処理装置と共に用いることによって実施される。多くの状況において、推定は、例えば、適切な市販の組み込みハードウェアおよびソフトウェアを用いることなどによって、水中航走体上でリアルタイムで行われ得る。
本方法10は、例えば支援を受ける航走体航法装置または支援を受けない航走体航法装置のような水中航走体航法装置から姿勢データを受信12することを含む。水中航走体航法装置からの推定姿勢データに相関付けられた推定姿勢データがセンサから受信14される。
一実施形態において、ステップ14でセンサから受信されたデータは、水中構造物に向けてソーナー音波を送出することを含む。ソーナー音波の送出後、反射された音響ソーナー応答が水中構造物から受信される。一実施形態において、例えば3次元(3D)撮像ソーナーでは、ソーナー音波が処理されて、3次元画像が生成される。3D撮像ソーナーは、1つの送信ソーナー音波つまり探信音から3D画像を生成するものであればいかなる3Dソーナーでもよい。適切な3Dソーナーの一例は、コーダオクトパス・プロダクツ(CodaOctopus Products)から入手可能なコーダオクトパス・エコースコープ(CodaOctopus Echoscope)である。上記3Dソーナーは、水中構造物を向くように調整および配置できるので、水中構造物に向かって探信音を発信でき、鉛直に対して様々な所望の角度を成す向きで、かつ、様々な視点(viewpoint)および当該水中構造物からの距離で配置できることが理解されるであろう。
航走体航法装置が知られており、水中航走体の位置、向き、および速度(例えば、動きの方向および速さ)を測定(determine)するのに用いられていることが理解されるであろう。いくつかの例において、航走体航法装置は慣性航法装置(inertial navigation system)(INS)である。航走体航法装置は、速度測定用に下方に向けられたドップラー速度ログ(doppler velocity log)(DVL)ユニットを含み得るが、航走体航法装置は、位置、向き、および速度(例えば、動きの方向および速さ)を測定できるものであればいかなる装置でもよいことが理解されるであろう。適切な航走体航法装置の一例は、キアフォット社(Kearfott Corporation)から入手可能なSEADeVilであり、例えば、テレダインRDI(Teledyne RDI)社のDVL(ドップラー速度ログ)を含み得る。
航走体航法装置は、航走体航法装置姿勢推定値を生成し、3Dソーナーセンサは、撮像センサに基づく姿勢推定値を生成する。一般に、本方法は、航走体航法装置および3Dソーナーセンサからの推定値を組み合わせてこれらの2つの情報源からの融合された姿勢推定値を提供すること16を含む。適切および/または必要な場合、融合された推定値は、センサに基づく姿勢推定値と航走体航法装置の位置推定値との相関時間によって決定されるある周期で定期的に航走体航法装置におけるドリフトを補正するのに用いられる。このような位置修正値は、融合処理から高い頻度で入手可能であり、例えば、融合された推定値の自己相関(auto correlation)によって決定されるより低い頻度でリセットを行うために、航走体航法装置に適用される。
一実施形態において、融合は、航走体航法装置からの直近の入手可能な姿勢推定値、例えばINSからの慣性姿勢、に対応する時点へと前方伝播された直近の特徴に基づく姿勢推定値、例えば画像センサに基づく姿勢推定値、に作用するように構成されたベイジアン・コンバイナ(Bayesian Combiner)を用いることによって達成される。これにより、3Dソーナーセンサ(あるいは画像センサ)からの推定値を、現在時点に適用可能なように調整18することができる。例えば、18において、14からの位置および向きの推定値を、航走体の航法装置からの慣性データを用いて前方へ伝播させることができる。図4も参照されたい。
図4を参照して、画像センサから取得された姿勢、例えば3Dソーナーからの姿勢を、例えば本システムで用いられる処理装置によって、前方へ伝播(propagate)させることができる。図示するように、新しい航走体航法装置姿勢が入手可能である場合は、直近の画像センサに基づく姿勢を現在の航走体航法装置姿勢の時点へ伝播させることができる。図4の左側の囲み枠を参照されたい。別の実施形態として、新しい撮像センサに基づく姿勢が入手可能である場合は、航走体航行速度、角速度、および共分散(covariance)を用いてそれを航走体航法装置の現在の姿勢の時点へ伝播させることができる。伝播された姿勢は、次いで、ベイジアン・コンバイナのようなコンバイナに入力される(図4の右側の囲み枠を参照)。「現在時点における画像センサに基づく姿勢および共分散」の矢印を参照されたい。航走体航法装置の姿勢および共分散も、コンバイナに入力され、ここで航走体航法装置の姿勢と画像センサに基づく姿勢とが組み合わされて、共分散を有する融合された姿勢が得られる。
さらに図1を参照して、必要に応じて、組み合わされた推定値と18の調整あるいは伝播とに基づき、水中航走体の姿勢を更新およびリセット20することができ、これは、航走体の誘導および制御のために、また、これから先の画像センサに基づく航行のための初期条件として、有用であり得る。例えば、20において、組み合わされた位置および向きのデータに基づいて航走体航法装置の位置および向きの推定値をリセットすることが可能である。
図2は、航走体航法装置データに相関付けられたセンサデータを処理し、航走体航法装置からの位置および向きのデータを処理するための一実施形態のフローチャート300を示す。
図示するように、航走体航法装置310が、姿勢データを処理ユニット330つまりNav融合に提供する。航走体航法装置310は、水中航走体の姿勢の推定値を提供する。同様に、知覚ブロックにおいて、3Dソーナーセンサのような姿勢センサ320が、姿勢データをNav融合330に提供する。センサ320は、水中航走体の姿勢の画像センサに基づく推定値を提供する。図示するように、センサ320は、Nav融合330によって提供される推定姿勢データに依存し、したがって、その推定姿勢データは航走体航法装置310からのデータに相関付けられる。
さらにNav融合330を参照すると、航走体航法装置310およびセンサ320からの推定値のさらなる処理が行われる。これらの推定値は、ブロック332で組み合わされる。図示した実施形態においては、これらの推定値を組み合わせあるいは融合するために、上記のようなベイジアン・コンバイナが用いられる。コンバイナは、直近の入手可能な航走体航法装置310の姿勢推定値の時点へ前方伝播された、直近の画像センサに基づく姿勢推定値(例えば、センサ320からの)に作用するように構成される。コンバイナは、センサに基づく姿勢と航走体航法装置の推定姿勢とをこれらのセンサのそれぞれにおける誤差の推定値に基づいて重み付けするアルゴリズムを含むことが理解されるであろう。
さらに前方伝播に関して、ブロック334は、直近の入手可能な航走体航法装置310の姿勢推定値と融合できるようにセンサ320からの推定値を前方予測(forward prediction)でさらに処理することを示す。多くの場合において、航走体航法装置310の姿勢推定値とセンサ320の姿勢推定値とは異なる頻度およびタイミングでNav330に到達する異なるデータフローであり、そのため、融合を完了させるためには一方の前方伝播が必要である。例えば、センサの推定値の頻度は約5Hzであり、航走体航法装置の姿勢推定値の頻度は20Hzであり得る。このため、ブロック334においては、センサの姿勢推定値が、航走体航法装置の姿勢推定値と融合され得るように前方へ伝播される。
ブロック336において、誤差または故障の検出処理が採用され得る。センサ320から入力される姿勢推定値には誤差が含まれやすいことがあるので、最新の融合された姿勢推定値と相互参照させることが役に立ち得る。入力センサ推定値の不確かさがある特定の閾値を超えている場合、または、当該推定値の融合された姿勢推定値からのずれがある特定の閾値を超えている場合、追加の処理を行ってより高精度な別の姿勢推定値を生成するために、センサ320を再初期化することができる。このことを、共分散と例えば現時点で認められている姿勢推定値からのイノベーションの逸脱(innovations divergence)との監視と呼ぶ。
推定値が組み合わされると、水中航走体の姿勢を更新することができる。ブロック336におけるさらなる処理は、航走体航法装置の姿勢推定値を融合された姿勢推定値に基づいて定期的にリセットできることを示す。融合のためにセンサ320からのデータを航走体航法装置と調和させるので、航走体航法装置がリセットされると、このようなリセットがセンサ320に通知されることが理解されるであろう。
ブロック340に示したもののようないくつかの実施形態において、融合された姿勢推定値は、センサ320だけでなく他の航走体サブシステムにも送信され得る。
航法装置に相関付けられた姿勢センサ(例えば、3Dソーナーセンサなど)にさらに関して、このような3Dソーナーセンサを用いた姿勢の推定は、以下に参照情報を示す同時係属中の仮出願に開示されている。これらの仮出願は、代理人整理番号20057.0145USP1、名称「ESTIMATING POSITION AND ORIENTATION OF AN UNDERWATER VEHICLE RELATIVE TO UNDERWATER STRUCTURES」;代理人整理番号20057.146USP1、名称「DETECTING STRUCTURAL CHANGES TO UNDERWATER STRUCTURES」;および代理人整理番号20057.0147USP1、名称「BUILDING A THREE DIMENSIONAL MODEL OF AN UNDERWATER STRUCTURE」であり、これらはすべてそれぞれ仮出願番号第61/406424号、第61/406435号、および第61/406444号として2010年10月25日付で本出願と同時に出願されたものであり、これに言及することにより、そのすべての内容は本出願に組み込まれる。
[水中航走体の姿勢を推定するシステム]
本明細書に記載の水中航走体の位置および向き(姿勢)の推定方法は水中航走体に搭載された自律型システムに備えられ得ることが理解されるであろう。いくつかの実施形態において、水中航走体は、リアルタイムで姿勢を推定する適切な処理能力を有する自律型潜水機である。但し、上記システムが、完全にまたは部分的に、例えばROVまたは有人海洋船のような他の航走体に搭載されてもよいことが理解されるであろう。
一実施形態において、上記システムは、3Dソーナーセンサと航走体航法装置とを、水中構造物のモデル構築または撮像センサに基づいた構造点検を実施するのに適切な処理能力と共に含む。
図3は、水中航走体の姿勢を推定するためのシステム200を示す。適切な状況においては、システム200は、水中航走体に搭載されてその一部をなし、例えば約1秒で、場合によってはそれ未満で姿勢を推定するリアルタイム処理能力を有する。
図示した実施形態において、3D撮像ソーナーセンサ210は、3Dソーナー探信音により得られた応答をデータ記憶装置220へ電気的に伝送し得る。一実施形態において、センサは水中航走体に搭載される。センサ210は、ソーナー音波を水中構造物に向けて送出するように構成され、当該構造物から反射されたソーナー音波はセンサによって処理されて、3次元画像と航走体姿勢の推定値とが生成される。データ記憶装置220は、センサ210からの応答を受信するように構成され、この応答は、姿勢の画像センサに基づく姿勢推定値を提供することができる。一実施形態において、データ記憶装置220は水中航走体に搭載される。
一実施形態において、水中航走体航法装置240は、姿勢の推定値を水中航走体に搭載されたデータ処理装置230に提供する航走体航法装置を含む。
処理装置230は、画像センサに基づく姿勢推定値と航走体航法装置からの推定値とを受信するように構成される。一実施形態において、データ処理装置230は水中航走体に搭載される。データ処理装置230は、画像センサに基づく姿勢推定値210と航走体航法装置240からの姿勢推定値との両方を受信するように構成され、センサによって提供された画像センサに基づく姿勢推定値と航走体航法装置によって提供された姿勢推定値とを組み合わせるように構成される。この組み合わせの結果として、融合された姿勢推定値が得られる。処理装置230は、画像センサに基づく姿勢推定値の前方予測を生成するかどうかを判定するように構成され、必要であれば前方予測を生成するように構成される。また、処理装置230は、融合された姿勢推定値に基づいて水中航走体の更新された姿勢を決定するように構成される。
システム200の各構成要素には水中航走体によって電力を供給可能であることが理解されるであろう。
上記の方法およびシステムは、水中構造物に対する水中航走体の姿勢を推定および更新するために用いることができる。このような用途は、限定されるわけではないが、商業的および軍事的な場の両方における海中構造物の点検および修理、港湾の点検、ならびに機雷探知および/または対策を含み得る。一実施形態においては、3Dソーナー走査からのデータが収集され、慣性航法装置からのデータが収集され、これらのデータが記録および処理される。概して、データが融合されることにより融合された姿勢が生成され、この融合された姿勢は、1立方フィート以内または数立方センチメートル以内というような非常に高い精度を達成し得る。データの収集、記録、および処理は、水中航走体に搭載されたリアルタイム処理能力を有するデータ処理用電子機器を用いて行われ得る。
本明細書に記載のような、姿勢を推定するためのこのような方法およびシステムは、水中構造物に損傷、変形がないか点検する場合に有用であり得る。上記の方法およびシステムは、例えば、水中航走体が海底から遠く、例えば1000メートルよりも離れていてDVLなどの他の航法支援を利用できないような状況において有用であり得る。本明細書に記載の方法およびシステムは、磁気コンパスおよび対水速度基準(speed-through-the-water reference)を備えたもののような非慣性水中航走体航法装置にも適用可能であることが理解されるであろう。本明細書に記載の方法およびシステムは、その他の画像に基づくセンサの必要性をなくし得ることも理解されるであろう。静止していない水中構造物も本明細書に記載の方法およびシステムを用いて調査し得ることも理解されるであろう。3Dソーナーを使用することにより、複雑な3D構造物を走査して、十分な奥行の画像と完全な6自由度の姿勢推定値とを提供することが可能になる。
本出願において開示された例は、すべての点で例示であって限定的なものではないと考えられるべきである。本発明の範囲は、以上の説明によってではなく添付の特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内のすべての変更を包含するものである。

Claims (9)

  1. 水中航走体の位置および向き(姿勢)を推定する方法であって、
    前記水中航走体の航走体航法装置である一方の情報源から、姿勢データを処理装置で受信することと、
    前記航走体航法装置である前記一方の情報源とは異なる、画像センサに基づく情報源である他方の情報源から、姿勢データを処理装置で受信することと、
    処理装置を用いて融合された姿勢推定値を決定するにあたって、前記航走体航法装置からの前記姿勢データに対する前記画像センサに基づく情報源からの前記姿勢データの前方伝播に基づいて、前記画像センサに基づく情報源から受信した前記姿勢データの前方予測を決定し、処理装置を用いて、前記航走体航法装置からの前記姿勢データと前記画像センサに基づく情報源からの前記姿勢データの前記前方予測とを組み合わせ、その結果として前記融合された姿勢推定値を得ることと、
    処理装置を用いて、前記融合された姿勢推定値に基づいて前記水中航走体の更新された姿勢を推定することと、を含む方法。
  2. 前記航走体航法装置が、前記水中航走体の姿勢の推定値を提供するように構成された、前記水中航走体の慣性航法装置である、請求項1に記載の方法。
  3. 前記画像センサに基づく情報源が、水中構造物の3次元画像と前記水中航走体の姿勢の推定値とを提供するように構成された、3次元ソーナーに基づくセンサである、請求項1に記載の方法。
  4. 前記更新された姿勢を推定するステップが、前記航走体航法装置におけるドリフトを補正することを含み、前記ドリフトの補正を、前記融合された姿勢推定値の相関時間によって決定される周期で行う、請求項1に記載の方法。
  5. より高精度かつ現在の融合された姿勢推定値と整合する異なる姿勢データを生成するために、処理装置を用いて、前記画像センサに基づく情報源を再初期化することをさらに含み、前記再初期化は故障検出処理を行うことを含む、請求項1に記載の方法。
  6. 前記融合された姿勢推定値に基づいて、処理装置を用いて、前記航走体航法装置の姿勢をリセットすることをさらに含む、請求項1に記載の方法。
  7. 前記水中航走体が、自律型潜水機および遠隔操作探査機のうちの1つである、請求項1に記載の方法。
  8. 前記水中構造物が静止していない、または静止している、請求項3に記載の方法。
  9. 水中航走体の姿勢を推定するためのシステムであって、
    水中航走体に搭載され、ソーナー音波を水中構造物に向けて送出して反射させるように構成されたセンサであって、反射された前記ソーナー音波を受信して画像センサに基づく姿勢推定値を生成するために処理されるように構成されたセンサと、
    前記水中航走体に搭載され、前記水中航走体の姿勢の推定値を提供するように構成された航走体航法装置と、
    前記水中航走体に搭載され、前記画像センサに基づく姿勢推定値を受信するように構成されたデータ記憶装置と、
    前記水中航走体に搭載されたデータ処理装置であって、
    前記画像センサに基づく姿勢推定値と前記航走体航法装置からの姿勢の推定値との両方を受信するように構成され、
    融合された姿勢推定値を決定するように構成され、前記航走体航法装置からの姿勢の推定値に対する前記画像センサに基づく姿勢推定値の前方伝播に基づいて、前記画像センサに基づく姿勢推定値の前方予測を決定し、前記航走体航法装置からの姿勢の推定値と前記画像センサに基づく姿勢推定値の前記前方予測とを組み合わせ、その結果として前記融合された姿勢推定値を得るように構成され、且つ、
    前記融合された姿勢推定値に基づいて前記水中航走体の更新された姿勢を推定するように構成された、データ処理装置と、を含むシステム。
JP2013536713A 2010-10-25 2011-10-25 相関付けられたセンサデータに基づいた水中航走体の位置および向きの推定 Expired - Fee Related JP5968894B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US40647610P 2010-10-25 2010-10-25
US61/406,476 2010-10-25
US13/280,536 US8965682B2 (en) 2010-10-25 2011-10-25 Estimating position and orientation of an underwater vehicle based on correlated sensor data
US13/280,536 2011-10-25
PCT/US2011/057606 WO2012061099A1 (en) 2010-10-25 2011-10-25 Estimating position and orientation of an underwater vehicle based on correlated sensor data

Publications (2)

Publication Number Publication Date
JP2014502344A JP2014502344A (ja) 2014-01-30
JP5968894B2 true JP5968894B2 (ja) 2016-08-10

Family

ID=45973667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013536713A Expired - Fee Related JP5968894B2 (ja) 2010-10-25 2011-10-25 相関付けられたセンサデータに基づいた水中航走体の位置および向きの推定

Country Status (9)

Country Link
US (1) US8965682B2 (ja)
EP (1) EP2633375B1 (ja)
JP (1) JP5968894B2 (ja)
CN (1) CN103201693B (ja)
AU (1) AU2011323845B2 (ja)
BR (1) BR112013010120A2 (ja)
CA (1) CA2814833C (ja)
MY (1) MY164768A (ja)
WO (1) WO2012061099A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
WO2012061134A2 (en) * 2010-10-25 2012-05-10 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures
WO2012061097A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Sonar data collection system
MY162073A (en) 2010-10-25 2017-05-31 Lockheed Corp Building a three dimensional model of an underwater structure
US8942062B2 (en) 2010-10-25 2015-01-27 Lockheed Martin Corporation Detecting structural changes to underwater structures
US9778657B2 (en) 2010-11-19 2017-10-03 Bradley Tyers Automatic location placement system
US11480965B2 (en) 2010-11-19 2022-10-25 Maid Ip Holdings Pty/Ltd Automatic location placement system
US9243916B2 (en) 2013-02-21 2016-01-26 Regents Of The University Of Minnesota Observability-constrained vision-aided inertial navigation
US9223025B2 (en) 2013-04-05 2015-12-29 Lockheed Martin Corporation Underwater platform with LIDAR and related methods
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
CN103760909B (zh) * 2014-01-23 2018-01-02 河海大学常州校区 一种水下探测装置的控制系统
WO2015199789A2 (en) 2014-04-08 2015-12-30 University Of New Hampshire Optical based pose detection for multiple unmanned underwater vehicles
US10012504B2 (en) * 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
US10183732B2 (en) * 2015-04-09 2019-01-22 University of New Hamphire Pose detection and control of unmanned underwater vehicles (UUVs) utilizing an optical detector array
EP3158411B1 (en) * 2015-05-23 2020-07-29 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN105241442B (zh) * 2015-09-01 2017-12-19 北京理工大学 基于“虚拟短基线”定位系统的惯导/水声组合导航方法
US9915947B1 (en) 2016-02-26 2018-03-13 Waymo Llc System and method for determining pose data for a vehicle
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
JP6722521B2 (ja) * 2016-06-23 2020-07-15 古野電気株式会社 水中探知システム
US11466990B2 (en) 2016-07-22 2022-10-11 Regents Of The University Of Minnesota Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
KR101720327B1 (ko) * 2016-10-28 2017-03-28 한국지질자원연구원 수중 이상체의 위치 측정 장치 및 방법
DE102017108107A1 (de) * 2017-04-13 2018-10-18 Volkswagen Aktiengesellschaft Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
CN107037821B (zh) * 2017-05-12 2019-10-29 中国人民解放军91550部队 连续冲击载荷下的水下潜器运动姿态估计及控制方法
KR101987655B1 (ko) * 2017-06-13 2019-06-12 주식회사 포스코 수중 지형 측정용 무인 보트
AU2018300057A1 (en) * 2017-07-10 2020-02-27 3D at Depth, Inc. Underwater optical metrology system
CN107276684B (zh) * 2017-07-19 2020-10-09 河海大学常州校区 水下传感器网络中基于auv位置预测的数据收集方法
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
CN108444478B (zh) * 2018-03-13 2021-08-10 西北工业大学 一种用于水下航行器的移动目标视觉位姿估计方法
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
JP6800918B2 (ja) * 2018-07-12 2020-12-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd エラー回復を実行するための方法、システム、及びプログラム
CN112146654B (zh) * 2020-08-25 2022-08-23 浙江大学 基于关键约束帧的前视成像声呐水下定位与导航方法
CN113640780B (zh) * 2021-08-23 2023-08-08 哈尔滨工程大学 基于改进的联邦滤波的水下auv传感器时间配准方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991009375A1 (en) * 1989-12-11 1991-06-27 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5245587A (en) * 1990-12-14 1993-09-14 Hutson William H Multi-dimensional signal processing and display
JPH0717492A (ja) * 1993-07-01 1995-01-20 Japan Aviation Electron Ind Ltd 遠隔操縦方式の無人ヘリコプタシステム
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
JP4597423B2 (ja) * 2001-05-30 2010-12-15 本田技研工業株式会社 位置補正装置
WO2005033629A2 (en) * 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
JP2005348475A (ja) * 2004-06-01 2005-12-15 Matsushita Electric Ind Co Ltd 電動機駆動装置
CN1325932C (zh) * 2004-11-17 2007-07-11 中国科学院沈阳自动化研究所 载人潜水器的组合导航定位方法
WO2007038622A2 (en) 2005-09-28 2007-04-05 The Government Of The United State Of America , As Represented By The Secretary Of The Navy Open-loop controller
JP2007210402A (ja) * 2006-02-08 2007-08-23 Kawasaki Heavy Ind Ltd 自律型無人潜水機およびその水中航行方法
JP5039392B2 (ja) * 2006-03-27 2012-10-03 三菱重工業株式会社 水中航走体、及び水中航走体の測位方法
US7599789B2 (en) * 2006-05-24 2009-10-06 Raytheon Company Beacon-augmented pose estimation
AU2007347733B2 (en) * 2006-10-06 2012-05-03 Irobot Corporation Robotic vehicle
CN101419464B (zh) * 2008-06-13 2010-07-07 哈尔滨工程大学 一种采用矢量推进器的无人潜水器定深航行控制方法
JP5328252B2 (ja) * 2008-07-30 2013-10-30 アルパイン株式会社 ナビゲーションシステムの位置検出装置および位置検出方法
AU2009344853A1 (en) * 2008-12-19 2011-08-04 Xollai, Llc System and method for autonomous vehicle control
CN101750611B (zh) * 2009-12-02 2012-05-09 哈尔滨工程大学 一种水下机器人目标探测装置及探测方法
MY162073A (en) 2010-10-25 2017-05-31 Lockheed Corp Building a three dimensional model of an underwater structure
US8942062B2 (en) 2010-10-25 2015-01-27 Lockheed Martin Corporation Detecting structural changes to underwater structures
WO2012061097A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Sonar data collection system
MY163821A (en) 2010-10-25 2017-10-31 Lockheed Corp Remote flooded member detection
WO2012061134A2 (en) 2010-10-25 2012-05-10 Lockheed Martin Corporation Estimating position and orientation of an underwater vehicle relative to underwater structures

Also Published As

Publication number Publication date
US8965682B2 (en) 2015-02-24
JP2014502344A (ja) 2014-01-30
CA2814833C (en) 2018-11-06
EP2633375B1 (en) 2018-12-05
CA2814833A1 (en) 2012-05-10
AU2011323845A1 (en) 2013-05-02
AU2011323845B2 (en) 2015-10-29
CN103201693B (zh) 2016-01-06
EP2633375A4 (en) 2015-01-14
CN103201693A (zh) 2013-07-10
EP2633375A1 (en) 2013-09-04
BR112013010120A2 (pt) 2018-07-24
MY164768A (en) 2018-01-30
US20120101715A1 (en) 2012-04-26
WO2012061099A1 (en) 2012-05-10

Similar Documents

Publication Publication Date Title
JP5968894B2 (ja) 相関付けられたセンサデータに基づいた水中航走体の位置および向きの推定
JP5886303B2 (ja) 水中構造物の3次元モデルの構築
CN103620442B (zh) 判断水下航行器相对于水下结构的位置和方向
JP6761216B2 (ja) 水中航走体の経路設定方法、それを用いた水中航走体の最適制御方法及び水中航走体並びに移動体の経路設定方法
Georgiades et al. AQUA: an aquatic walking robot
US11486346B1 (en) Autonomous underwater beacon locator
JP2016526148A (ja) Lidarを有する水中プラットフォーム及び関連する方法
JP6425133B2 (ja) 水中航走体の相対位置制御方法及び相対位置制御システム
JP2007210402A (ja) 自律型無人潜水機およびその水中航行方法
Zhou et al. Mapping the underside of an iceberg with a modified underwater glider
KR102140650B1 (ko) 무인잠수정의 수중 항법 성능 평가 방법
Kim et al. Imaging sonar based navigation method for backtracking of AUV
JPWO2020054500A1 (ja) 潜水機システム及び作業方法
KR20200021433A (ko) 수중 플랫폼의 운용을 위한 센서 융합 기반의 연동 제어장치 및 그 동작 방법
JP7243319B2 (ja) 消失予防装置及び消失予防方法
Kim et al. Terrain-adaptive optimal guidance for near-bottom survey by an autonomous underwater vehicle
Tani et al. Comparison of Monocular and Stereo Vision approaches for Structure Inspection using Autonomous Underwater Vehicles
Lee et al. An in-situ method for the correction of initial position error of an autonomous underwater vehicle near sea floor
JP2021116019A (ja) 水中航走体の自己位置推定誤差補正方法及び水中航走体の自己位置推定誤差補正システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160328

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160706

R150 Certificate of patent or registration of utility model

Ref document number: 5968894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees