JP2005528707A - データ組間の特徴マッピング - Google Patents

データ組間の特徴マッピング Download PDF

Info

Publication number
JP2005528707A
JP2005528707A JP2004509881A JP2004509881A JP2005528707A JP 2005528707 A JP2005528707 A JP 2005528707A JP 2004509881 A JP2004509881 A JP 2004509881A JP 2004509881 A JP2004509881 A JP 2004509881A JP 2005528707 A JP2005528707 A JP 2005528707A
Authority
JP
Japan
Prior art keywords
data set
points
data
mapping
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004509881A
Other languages
English (en)
Other versions
JP2005528707A5 (ja
Inventor
ダグラス レイナー カーミチャエル
シーン アラリック チャップマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qinetiq Ltd
Original Assignee
Qinetiq Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qinetiq Ltd filed Critical Qinetiq Ltd
Publication of JP2005528707A publication Critical patent/JP2005528707A/ja
Publication of JP2005528707A5 publication Critical patent/JP2005528707A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods

Abstract

【課題】 本発明の特徴マッピングは、無人水中移動体のナビゲーション、特徴追跡、及びイメージ処理システムを改良することを目的とする。
【解決手段】 本発明は、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップすることを含む。最初に、特徴の個別の点がマップされて、個別のマッピングから全体の特徴をマッピングするための変換が導出される。

Description

本発明は、データ・マッピングに関し、より詳細には、第1データ組の特徴を第2データ組内の対応する特徴にマップする変換を導出する方法に関する。
本発明の文脈において、データ組は、特に、例えば、写真イメージ又はソナー測定から得られた海底領域の水深測量等高線地図などの特徴のどんな二次元配列であってよい。特徴は、地形学的又は物理的実在である必要がないことが認識されている。従って、特徴は現実又は抽象にかかわらず、どんな独特な又は特徴的な実在であってよい。
データ組間で特徴をマップするのに必要な変換の導出は、多くの多様なアプリケーションで重要な機能である。車のナビゲーションの分野では、さまざまな種類のセンサー(例えば、ソナー、レーダー、又は、写真センサー)により得られるデータ組は、1つのデータ組を別にマップするのに必要な変換の知識から導出される車の位置、速度、及び方向についての情報を与えるために処理できる。また、このような変換を導出することによるデータの一致は、例えば、カメラ又はカムコーダにより撮られた一連の個別の光景からパノラマ光景を生成するために、及び、一連の個別の写真イメージから衝突又は犯罪光景中の項目の正確な位置を確定するために、必要である。また、データ組、特に、写真イメージのこのような一致は、溶接監視及び腐食監視などの、パイプライン検査のさまざまな観点において必要である。さらに、データ組間のマッピングのための変換の知識が有用な2つの例は、データ圧縮(例えば、線形動画光景の一般的ビデオ圧縮)及びペーパー追跡記録からのデータ検索/保存である。
情報の分析は、重要性の増大する分野である。処理能力が安くなり高速になるにつれて、開発者の中ではより大きなデータ組を処理することを求める要望がある。これはデジタル化能力のぼっ発により生じた技術分野で特に真実である。このような技術の例は、ビデオ画像及び走査画像の操作である。また、先進的なマッピング及びナビゲーション技術の発展はより詳細で従ってより大きなデータ組に非常に依存しているのが実際である。困ったことに、このように大きなデータ組を相対的に効率的且つ安価に処理するため処理及び実際の記憶能力は現在存在するが、データ組の分析についてはそうではない。このようなデータを分析する技術はそれを作成する能力よりずっと遅れている。情報分析により、情報を統合し管理する能力、及び、データ組から重要、異常、興味のある、又は、予想できない特徴のさまざまなタイプを抽出する技術が理解される。データ組はさまざまな形式で存在でき、そしてさまざまなソースから得ることができることが理解される。例えば、データ組はデータベース上のファイルの形式で記憶装置にイメージ又は同様なものとして保持される。このような記憶装置は、もちろん、実際にファイル自身のように、分配できる。さらに、データ組は実時間で得られる情報から生成されてよい。また、データ組は、明らかに、多かれ又は少なかれ、雑音、脱落又は誤りを有するのが実際である。
従って、本発明の1つの観点は、従来技術の方法よりも計算的により効率的で、従って、従来技術の方法よりはずっと早く及び/又は減少したコンピュータ・ハードウェア要求でもって実行できる、特徴追跡変換を導出する方法を提供することである。
上述したように、データ組間のマッピングは特に広い範囲のアプリケーションに関係する。このようなアプリケーションの例は、限定的ではなく、モデリング、シミュレーション、ナビゲーション、データ圧縮及びイメージングを含む。
本発明の第1の観点によると、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴上にマップするための特徴マッピング変換を導出する方法であって、(a)前記第1データ組中の前記少なくとも1つの特徴に関する点の第1組を抽出するステップと、(b)点の前記第1組を前記第2データ組中の点の第2組と関連付けするステップと、(c)前記第1データ組からの点の前記第1組を前記第2データ組中の点の前記第2組へ少なくとも近似的にマップするために前記特徴追跡変換を計算するステップとを含み、前記特徴追跡変換を計算する前記ステップが、(i)個別の点のマッピング推定を生成するために、点の前記2つの組の内の1つの組の各点に対して、点の前記他の組中の選択された点への前記点のマッピングを推定するステップと、(ii)点の前記1つの組を点の前記他の組へマップするための推定変換を生成するために前記個別の点のマッピングの推定を組合わせるステップと、(iii)近似イメージ位置を生成するために前記推定変換を点の前記1つの組へ適用するステップと、(iv)点の前記他の組を前記近似イメージ位置からの点の組へマッピングするための推定変換を生成するために前記(i)乃至(iii)ステップを反復繰返すステップと、(v)点の前記第1組を点の前記第2組へマッピングするために前記推定変換の組合せから前記特徴追跡変換を導出するステップとを含む方法が提供される。
本発明の1つの実施の形態は、水中の環境下でのデータ組間の特徴追跡及び/又はデータ組一致を含む非伝統的ナビゲーションへのアプリケーションを含む。データ組間の特徴マッピングについての問題は、特に、データ組の1つの正確性が高くない場合、2つのシステム間の雑音は、どの点が1つのデータ組の特定の特徴に関連するか及びどの点が他に対応するかを正確に見つけることを困難にすることである。すなわち、2つのデータ組間のマッピングの計算を困難にする。
実際、データ組間の雑音及び1つのデータ組からの特徴が他のデータ組中の対応する特徴と同じ数の点を含まない事実は、データ組間の特徴のマッピングの計算を困難にする。個別点マッピングを最初に処理しそして結果を組合わせる反復方法は、この状況を処理するために特に効率的な方法である。特に、近似イメージを作るために個別点をマッピングしてそして他の方向にマッピングすることは、不一致のどんな点、すなわち、一回の反復では他のデータ組の正しい対応点へマップされなかった点、はその後の反復マッピング・ステップにおいてこの誤りがそれ自身で修正されるように正しくマップできることを意味する。さらに、データ組間の特徴のマッピングを計算する反復方法は、大量のコンピュータ処理能力を必要とせず相対的に低コストである。さらに、点の第1組から個別の点を点の第2組へのマッピングを推定し、そして、点の第2組からの操作を点の第1組へ逆方向にすることにより、システムの対称性が保存されて、これが誤りを防止する又は誤りへの収束の可能性を最小に減少させる。
好適な実施の形態では、方法は、最新の前記近似イメージ位置及び交互に点の第1及び第2組を使用して所定の限界内で前記近似イメージ位置が点の前記第2組と整列するまでステップ(i)乃至(iii)を反復繰返し、そして前記推定変形の組合わせから前記特徴追跡変形を導出するステップさらに含む。
全ての反復方法のように、必要な計算能力の量は結果の精度に関係している実行される反復ステップ数に依存する。従って、所定の限界は所望の精度及び使用可能な計算能力量に従って設定できる。
所望の精度はいくつかの方法で指定できるが、好適な方法は前記推定変換を前記近似イメージへ適用しても前記近似イメージに動きが生じなくなった時に反復を停止することである。
ステップ(i)において他のデータ組中の点はさまざまな方法で選択できるが、好ましくは、点の前記1つの組内の各点を点の前記他の組内でその空間的に最近隣接点にマップすることにより、他の点が最も近い隣を基礎として選択される。特に、これは、一旦、与えられた半径内で第1点が見つかれば、この半径から遠方のいずれの点も除去でき、そして次のテスト点について行うことができるから、点のマッピングの効率的な方法である。従って、この技術は計算的に大変効率である。
好ましくは、個別点のマッピングを推定するステップ(i)は最適割当てアルゴリズムを用いて行われる。
好適な実施の形態では、個別点のマッピングを推定する前記ステップは、指定された距離よりも大きい距離にマップされた前記データ組からのどんな点も点の組から削除される削除ステップを含む。これは、他のデータ組中でそれらの対応する点からずっと離れた点を点の組から除去することができる。このため、同じ特徴の部分ではない点又は雑音に起因する点からの誤りを減少する。
好適な実施の形態では指定された距離はいくつかの方法で選択できるが、前記指定された距離は、点の1つの組内の個別の点と点の他の組内のその最も近い隣との間の距離の平方距離分布の中間値を何倍かしたものを含む。
いくつかの実施の形態では、前記第1データ組を前記第2データ組へマップするための変換を導出するステップは、前記推定変換の前記マッピングを加算することを含む。変形が平行移動と回転を含む実施の形態では、異なる平行移動と回転は加算されて合成平行移動と回転を生成する。この方法では、データの両組は等しい重みを与えられる。しかし、他の実施の形態では、データの第1組はデータの第2組よりもずっと正確であることが知られている。この場合、推定変換は、この正確さの異なる程度を反映してそれらが組合わせられる前に重み付けされる。変換が加算できない他の実施の形態では、それらは異なる方法で組合わせられる。
点の第1組は、角又は明度の遷移の検知などのさまざまな方法により抽出できるが、好適な実施の形態では、点の第1組を抽出するステップは、前記第1データ組から前記点を抽出するためにエッジ検出アルゴリズムを使用することを含む。エッジ検出アルゴリズムは、ある特徴のエッジを識別するために使用でき、そして、点の組はこのエッジから抽出できる。特に、ビデオ・データに効率的である。
使用される特徴はエッジ検出器からの線などのさまざまなものであることができるが、水中ナビゲーションに関する実施の形態では、特徴は水深測量等高線に関する。同じく、特徴はビデオ画像中のエッジ検出又はトポグラフイック・イメージから得られた輪郭に関する。
推定変換と特徴追跡変換は、好適な実施の形態では同音異義変換など異なるものを含むことができるが、それらはデータ点の組の平行移動と回転を含むアフィン変換を含む。アフィン変換はデータ点の一つの組をデータ点の別の組へ空間的にマッピングする効率的な方法である。
好ましくは、点の前記第1組を点の前記第2組へマップするための推定変換を導出するために個別点のマッピングの推定を使用する前記ステップは、最小平方又は反復再重み付け最小平方の方法を用いた個別マッピングを組合わせること、そしてアフィン変換からの前記パラメータを推定することを含む。これは、推定変換を与えるために個別マッピングを組合わせる便利で、正確で、費用効率的な方法である。
好ましくは、点の前記第1組は百以上の点を含む。特徴に関して多数の点を使用することは、良い特徴マッピングを必要としないことを意味する。これは、もし、1つの点が特徴の同じ位置に対応しない点にマップされたとしても、あまり重要でないからである。さらに、反復マッピングの技術の使用は、最初に一致しない点にマップされたいくつかの点がさらなる反復でそれらの正しい対応点にマップされることを意味する。
好適な実施の形態では、点の組ではなく、位置及び方向を持つベクトルの組が抽出され、関連付けされ、マップされる。前記方法に追加される制約は、同様な方向成分を持つベクトルのみが互いにマップされるということである。
もし、点ではなく、ベクトルが使用されると、データ組の個別の成分が一致する時、方向の追加的制約が不一致の数を減少させ、方法をより頑健なものにして、誤った収束の可能性を減少させることが知られている。使用できるベクトルの例は、値及び等高線値の増大を示す方向の両方を持つ等高線又は暗い遷移への光を示す方向を持つエッジである。
適用される方向制約の大きさは状態に依存する。もし、低すぎる回転角度が適用される場合、アルゴリズムはより高いある角度へ回転されたイメージを回復することができない。しかし、本発明の実施の形態の追跡アルゴリズムが小さな動きの追跡に特に適用可能であるならば、かなり小さな程度の回転制約は多くの場合に適当であることが理解されている。前記第1データ組からのベクトルが前記第1データ組ベクトルの±90°の範囲内の方向成分を持つ前記第2データ組からのベクトルにマップされることだけを許せば特に効率的であることが理解されている。このような方向制約は、一致プロセスを過度に複雑にすることなく、不一致を減少することが理解されている。
本発明の第2の観点は、第1データ組を第2データ組へマップするためのデータ組変換を導出する方法であって、本発明の第1の観点による方法、及び、前記第1データ組を前記第2データ組へマップするためのデータ組変換として前記特徴追跡変換を出力するステップをさらに含む。1つのデータ組内の1つの特徴を第2データ組内の位置へマッピングすることは、どのように第1データ組を第2データ組へマップするかを示唆し、そして特徴をマップするために導出されたこのような変換を必要ならば全データ組をマップするための変換として使用できる。
いくつかの実施の形態では、この方法はさらに、前記第1データ組からさらに少なくとも1つの特徴に関連するベクトル又は点の少なくとも1つのさらなる組を抽出し、前記ベクトル又は点の少なくとも1つのさらなる組を第2データ組中のベクトル又は点の第2のさらなる組へ関連付けし、本発明の第1の観点のステップ(i)乃至(v)を用いて前記第1データ組からの前記ベクトル又は点の少なくとも1つのさらなる組を前記第2データ組からのベクトル又は点の第2のさらなる組へ少なくとも近似的にマップするために少なくとも1つのさらなる特徴追跡変換を計算し、データ組変換を生成するために前記少なくとも1つの特徴追跡変換及び前記さらなる特徴追跡変換を組合わせ、そして前記データ組変換を出力する、さらなるステップを含む。
第1データ組からの2つの特徴を第2データ組へマッピングすることはいくつかの長所を有する。第一に、実際のマッピングは点の2つの組に関係する。従って、より多い数の点が存在する。さらに、マップされる点の数が増加しないように各組はそれ自身の組に関連付けることができる。従って、より多くのデータがありそしてこのデータがマップされる場所についてより多くの制約があるから、この技術は頑健である。これが働くためには容易に分離される2つの特徴が必要である。
上述したように、本発明は広範囲の技術に適用可能である。従って、以下に詳細に説明される特定の実施の形態は水中ナビゲーション環境に関するものであるが、当業者には本発明は本発明はこの分野の応用に限定されることを意図しないものであることは容易に理解できる。
背景として、将来の機雷除去(MCM)操作を支援するために、自律的水中移動体(AUV)及び無人水中移動体(UUV)の使用が望まれている。現在のシステムは、自律的にナビゲートし、通信し、そして操作するための能力の観点からは限られたレベルの性能しか与えていない。
AUVシステムは、一般に、MCM偵察作業(機雷対策)のために自律的に作業するように設計されている。一方、UUVは、一般に、機雷処理及び干渉作業のために使用され、このため、相対的に短い範囲にわたり作業する。しかし、これらは石油開発などの商業的応用に使用できる。
MCMの目的は、機雷による脅威を評価して減少することである。脅威評価活動は、機雷の存在又は不存在を攻撃隊に知らせて、その後のMCM及び機動隊の作業の最適な計画を可能にする偵察及び実地調査作業を含む。もし、機雷評価中に、機雷又は機雷フィールドが検出されたならば、機雷が安全な距離だけ回避できそして素早くクリアランスを取るために再配置できるよう、それらの位置が指定された精度でタイムリーに報告されなければならない。現在は公然と実施されているが、MCM操作を隠れて実施することが望ましい。すなわち、敵対勢力(OPFOR)に知られることなく実施することが望ましい。これは操作を検知されるチャンスが少ないように実施すべきことを示唆している。明らかに、一旦、発進されると、操作中に海面下に留まれば、OPFORが海中音響検知技術を有するとしても、AUVは検知されないままでいるチャンスが増加する。また、移動体は海底上の最適深さ/高さで探索ソナーのための安定したプラットホームを与えるため、延長された時間間隔で水中操作が可能であるべきである。
短及び長い持続期間のミッションの両方が可能なAUVと異なり、UUVは一般に、ホスト・プラットホームから600mまでの範囲で作業する短い持続期間のミッションを行う。UUVの実用的な例は一回で使い捨ての移動体のミッションである。
UUVシステムの主な要件は、処理又は干渉作業のいずれかを行うために、目標の位置へ移動することである。従って、ナビゲーション・システムは、短距離にわたって動作することが要求され、そして、前に発見された目標へ移動体を案内することが要求される。
また、検出された目標位置についての誤りの可能性のため、ナビゲーション・システムは、目標を探索しながら移動体の移動をマップすることを可能にし、そして探索される海底領域を識別することを可能にするための十分な解像度を提供しなければならない。この場合、移動体システムの探索の開始点に対する移動は、絶対的なナビゲーション正確さよりもおそらく重要である。
ナビゲーション性能は、移動体のセンサーが誤った目標により迷わされる可能性のあるより高度に乱雑な条件において、最高でなければならない。海底が完全に平らな良いソナー環境においては、UUVのナビゲーションの必要性は移動体上のセンサーの改善された性能のために顕著に減少する。
将来の使い捨てUUVの主な要件は、正確なナビゲーションよりも、目標の再配置及び処理に要する時間を最小にすることである。
現在のAUVナビケーション・システムは、INS(慣性ナビゲーション・システム)の使用に基づいている。慣性ナビゲーション・システムは、慣性センサー出力(移動体の動きから得られる)をデカルト座標基準フレーム中に変換することにより達成される。初期化の後、INSは移動体内に搭載された慣性センサー出力から、移動体の位置、速度、傾き、及び移動方向の推定を計算することを可能にする。これらのシステムはかなり正確であるが、固有のシステムのドリフトを修正するために頻繁なグローバルポジショニングシステム(GPS)調整(調整は各3kmでナビゲーション・システムに必要とされて、約2600万円(£130k)程度の費用がかかる)のために海面にでる必要がある。大きなソナー・スワス距離で目標位置性能を維持することはナビゲーション・システム能力に増大した負担を与え、より頻繁な間隔で海面に浮上することを必要とする。改良されたナビゲーション性能は伝統的により高価なINSを使用することで達成されていたが、将来のMCMシステムにより要求される高い性能レベルでは、全体システムのドリフトの小さなレベルの減少でさえも、達成するのは大変高価である。
要するに、INS、ドップラー速度ログ(DVL)、及び深度センサーを組み込んだ現在の伝統的な水中ナビゲーション技術は、AUVがGPSを得るために頻繁な間隔で水面に出ることができれば、AUVナビゲーションの需要を満足することができる。現代の機雷ハンテイング操作の極限の目標範囲において目標の正確な位置を支援するため十分な性能を持つAUVを提供する能力は、大変頻繁に海上への浮上及びその結果の偵察データの損失/中断を必要とし、達成するのが困難である。伝統的な技術を使用したAUVナビゲーションの性能を増強するには、より高価なセンサーを使用することが必要であるが、大変なコストを費やしても性能の増強は相対的に中程度である。さらに、特別なナビゲーション・センサーを含ませると、パワーに利用可能な体積を減らし、システム全体の持久力を減少させる。
現在のMCM UUVは、超短ベースライン(USBL)又は短ベースライン(SBL)音響ナビゲーション・システムの使用に依存している。これらのシステムは、300mの範囲で潜在的に適当な性能を提供するが、性能は600mの範囲で維持することはできそうもない。実際、信号に雑音が多く、探索及び再配置の作業を実行することはしばしば困難であり、最適条件からは遠い。
いくつかの実施の形態では、水深測量等高線が使用され、1つの特徴がある深度の等高線であり、そしてさらなる特徴が異なる深度の等高線である。
本発明の第3の観点では、本発明の第2の観点による第1データ組を第2データ組へマップするためのデータ組変換を導出することを含んだ移動体の増強されたナビゲーション方法が提供される。この方法において、前記第1データ組はナビゲーションされるべき領域の格納されたマップデータを含み、前記第2データ組は前記ナビゲーション中に前記移動体上の検出器により検出されたデータを含み、前記データ組変換は前記移動体のナビゲーション制御を調節するために使用される。
1つのデータ組を別のものにマッピングするための変換を導出する方法は、増強されたナビゲーションの分野で特に効率的であり、2つのデータ組間の一致は移動体のナビゲーションを調節を助けるために使用できる。いくつかの実施の形態では、データの第1組は例えば地図からの既知のデータであり、データの第2組はナビゲーション中に移動体により検出されたデータである。代替的に、データの第1組は移動体の前方を見る検出器により検出されたデータであり、データの第2組は移動体の下方を監視することにより検出されたデータに対応するデータの組であってよい。
特に、この方法は、検出器がソナー検出器である無人水中移動体に適している。
本発明の実施の形態は、特に特徴が豊富な環境での単独ナビゲーションとして使用できるが、慣性移動センサーなどの従来システムからのナビゲーションを改良するためにしばしば使用される。
本発明の第4の観点は、領域を相対的に移動しながらイメージを検知するセンサーにより生成された前記領域の複数の前記イメージから前記領域のマップを生成するためのイメージ処理方法を提供する。前記方法は、本発明の第2の観点による第1データ組を第2データ組上へマッピングするためのデータ組変換を導出するステップを含み、前記第1データ組は前記センサーにより検知された前記領域の最初のイメージを含み、前記第2データ組は前記センサーがある距離を移動した後に前記センサーにより検知された前記領域のその後のイメージを含み、イメージ間で前記領域に対して前記センサーが相対的に移動した前記距離を推定するために前記データ組変換を使用し、前記推定された距離を用いて前記イメージを組合わせ、そして、前記組合わせられたイメージから前記領域のマップを生成するためにその後のイメージについて前記ステップを繰返すことを含む。
特に、本発明の第2の観点のデータ組変換は、例えば、移動するセンサーにより撮られたイメージの組から1つの領域のマップを生成するイメージ処理に適している。これは、移動体がパイプラインに沿って移動しながら一連のイメージを撮る、パイプライン・マッピングなどの分野において応用を有する。このイメージ処理方法は、前記パイプラインのマップを生成するためにこれらのイメージを組合わせるために使用できる。
本発明の第5の観点は、特徴がセンサーに対して相対的に移動する時に特徴を追跡するための特徴追跡方法を提供する。この方法は、本発明の第1の観点による第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出する方法を含み、前記第1データ組は前記センサーにより検知されたイメージを含み、前記第2データ組は前記センサーによりその後に検知されたイメージを含み、前記特徴追跡変換から前記特徴が移動した方向及び距離を導出することを含む。
特に、本発明のこの方法は、特徴追跡に適している。これは、マッピングが大きな距離にわたって実行されないような2つのデータ組が互いに似ている状況においては、この方法は特に良好に動作するからである。このシステムはセンサーを通過するコンベイヤーベルト上の物体を追跡するなどの多用な応用に使用できる。この方法は、イメージがおそらくは弱い照明に起因して貧弱な場合など、雑音の多いデータ組について、特に効率的であることが分かった。
本発明の第6の観点は、本発明の第1の観点による方法のステップを実行するため、コンピュータを制御することにより、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするためにコンピュータを制御できるコンピュータ・プログラム製品を提供する。
本発明の第7の観点は、本発明の第2の観点による方法のステップを実行するため、コンピュータを制御することにより、第1データ組を第2データ組へマップするためのデータ組変換を導出するためにコンピュータを制御できるコンピュータ・プログラム製品を提供する。
本発明のさらなる観点は、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出するための装置を提供する。この装置は、前記第1データ組から少なくとも1つの特徴に関連する点の第1組を抽出しそして点の前記第1組を第2データ組内の点の第2組に一致させることができる信号プロセッサと、前記第1データ組からの点の前記第1組を前記第2データ組内の点の前記第2組へ少なくとも近似的にマップするための特徴追跡変換を計算できる計算回路とを含む。前記計算回路は次のステップを実行できる。すなわち、点の前記第1組又は前記第2組の1つの組の各点について、前記点を点の前記第1組又は前記第2組の他の組内の点へのマッピングを推定するステップ、点の前記1つの組を点の前記他の組へマップするための推定変換を生成するために前記個別の点のマッピング推定を組合わせるステップ、近似イメージ位置を生成するために前記推定変換を点の前記1つの組に適用するステップ、点の前記他の組を前記近似イメージ位置から点の組へマッピングするための推定変換を生成するため前記ステップを反復して繰返すステップ、そして、前記推定変換の組合わせから点の前記第1組を点の前記第2組へマッピングするための前記特徴追跡変換を導出するステップである。そして、前記装置はさらに前記特徴追跡変換を出力するための出力装置を含む。
本発明のさらに別の観点は、移動体のナビゲーション能力を増強するためのナビゲーション・システムを提供する。前記システムは、マップデータを格納することができる記憶手段と、前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、前記記憶手段に格納されている前記マップデータを含む第1データ組を前記少なくとも1つのセンサーにより検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる本発明の第7の観点によるコンピュータ・プログラム製品を含む信号プロセッサと、前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができる。
本発明のさらに別の観点は、移動体のナビゲーション能力を増強するためのナビゲーション・システムを提供する。前記システムは、マップデータを格納することができる記憶手段と、前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、前記記憶手段に格納されている前記マップデータを含む第1データ組を前記少なくとも1つのセンサーにより検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる本発明の第7の観点によるコンピュータ・プログラム製品を含む信号プロセッサと、前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができる。
本発明のまたさらに別の観点は、移動体のナビゲーション能力を増強するためのナビゲーション・システムを提供する。前記システムは、マップデータを格納することができる記憶手段と、前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、格納されたマップデータ及びマップデータが利用できない所で前記センサーにより前に検出されたデータの両方を含む第1データ組を前記少なくとも1つのセンサーにより現在検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる本発明の第7の観点によるコンピュータ・プログラム製品を含む信号プロセッサと、前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができる。
本発明のさらに別の観点は、移動体のナビゲーション能力を増強するためのナビゲーション・システムを提供する。前記システムは、マップデータを格納することができる記憶手段と、前記移動体の前側の領域と前記移動体の下側の領域とを含む前記移動体の外側の前記環境を検出するための複数のセンサーと、前記移動体の前側の領域を監視している前記センサーにより検出されたデータを含む第1データ組を前記移動体の下側の領域を監視している前記センサーにより検出されたデータを含む第2データ組へマップすることができるデータ組変換を計算できる本発明の第7の観点によるコンピュータ・プログラム製品を含む信号プロセッサと、前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができる。
以下に、添付図面を参照して、例示のために、本発明の特定の実施の形態について詳細に説明する。
本発明の実施の形態は、移動体の位置の精度を改善するために、前方監視又は水深測量ソナーのそれぞれから得られた特徴又は等高線に関する情報を使用することを目的としそしてAUVナビゲーションを支援するために使用できる光景に基づくアルゴリズムに関する。全体コンセプトは2つの技術をカバーする。移動体の真の位置を推定するための光景一致技術(例えば、ソナー情報をその領域の前の調査からの同様な情報と比較する)及び移動体の動きに対して相対的な光景中の特徴の動きの追跡の使用、それにより既存の調査情報が利用できない領域での移動体の動きを推測することである。両方法は、地図のある領域及び地図のない領域でそれぞれの応用を持つが、最初により単純な前者を説明し、その後に後者を詳細に説明する。
アルゴリズムは、推測航法技術に固有なドリフトを制限する目的及びGPS調整のために海上に浮上する必要性を減少/無くする目的のため、現在観察された光景を格納された又は保存された調査情報と一致させるために点に基づいた技術を使用する。この技術は次のように動作する。
最初に、顕著な点又は特徴がソナー・センサーデータから抽出される。
そして、現在の光景を調査データベース内の領域の1つと最も近く一致させるアフィン変換が見つけられる。
光景がデータベース内の領域と一致されると、現在の移動体の状態(x及びy位置、速度及び移動体の進行方向)が更新されて、次のソナー・ピングの状態を前もって予測するために使用される。
もし、データベースと現在の光景との間の一致が見つからなければ、最新の信頼性の有る移動体の状態が次のピングの前に予測するために使用される。
分類子からのテクスチャ境界が、一致アルゴリズムにより使用される点データ組を与えるために使用できる。この技術は境界が繰返され一致する場合にはよく動作する。しかし、分類子出力はときどき海底のタイプ及び調査が実行された時の状態の両方の関数である。例えば、砂の波紋は、もし、誤った方向からインソニファイされて、よって、分類子により認識できなければ、ある条件下ではソナー・イメージでは現れない。従って、もし、光景が前の調査が実行されたのとは異なる方向からインソニファイされると、技術は妥協される。さらに、もし、大きなサンプリング・ウインドウが要求される分別の程度を与えるために必要な場合、分類子により与えられる境界解像度はときどき低い。この理由のため、レジストレイション・アルゴリズムのため点データ組を与えるには、エッジ検出器を使用することが良い。
平行移動と回転移動の両方からなるアフィン変換が使用される。大きさの変化は使用できるが、ソナー光景の一致の文脈では、平行移動又は回転移動よりも重要性は低い。
1つのデータ組を他に変換するアフィン変換を導出するために、最初に、両データ組内の対応するデータ点対の間のマッピングを指定することが必要である。これを実行して、変換パラメータを推定するための基礎が導出される。困ったことに、与えられたデータ組内で点を関係付けるに必要な文脈的情報を得ることが難しく、問題はさらにデータ組間での雑音の存在及びデータ組は一般に同じ数の点を含まないという事実により複雑になる。従って、新規な技術がこれらの問題を回避するために開発され、そして以下に説明される。
最初のマッピングが2つのデータ組中の対応すると思われる点の間で試験的に確立される。これは、第1データ組内の各点を第2の組内の空間的にその最隣接点にマッピングすることにより、最隣接点ベースに基づいて行われる。代替的に、最適割当てアルゴリズム(例えば、マンクレ又はハンガリアン・アルゴリズム)がユークリッド距離費用計量に基づく割当てを実行するために使用できる。そして、アフィン変換パラメータが、最小平方又は反復再重み付け最小平方の方法を用いて、この試験的マッピングに基づいて、推定される。そして、アフィン変換が第1データ組の各点に適用される。このアルゴリズムの基礎にある基本的な前提は、もし、最初の割当ての顕著な数か正しければ、変換されたデータ組は開始前よりも第2組へより近くなると合理的に予想されることである。もし、そうであれば、データ組の点間の改良されたマッピングを得ることが可能で、そして収束が達成されるまで反復する態様でこのプロセスを繰返す。実際には、第2から第1データ組への逆割当ても、対称性を保存し、そして誤った極小へ収束することを防止するために実行される。
図1は、本発明の実施の形態によるデータ・マッピング方法の要約を与えるフロー・チャートである。最初に、データ組1からデータ組2への点マッピングが推定される。データ組1は典型的に領域のマップデータを含む。一方、データ組2は領域を移動する移動体上のセンサーにより検出されたイメージである。点マッピングは、第1データ組から特徴を抽出すること及びそれを第2データ組内の特徴と一致させることを含む。そして、データ組1中の特徴を構成する個別の点が、データ組2中の個別の点にマップされる。一般に、これは最近隣接ベースに基づいて実行される。もし、特定の点が不一致でも、見つかる誤りを減少できるから、特徴毎に数百点が使用される。複数の個別マッピングを使用して、検出された特徴を調査データベース上の対応する特徴にマッピングするアフィン変換が発見される。そして、プロセスがデータベース2からデータベース1へ繰返されて、さらなるアフィン変換が計算される。そして、全体プロセスが繰返される。
図2に、このプロセスが点の2つのV形組を使用した例を示す。基準データ組が実線で示されている。破線の第2データ組は、基準データ組を平行移動し回転移動して、組中の各点へ空間的雑音成分を追加することで得られた。図2bは、点の第1組から第2組への最初のマッピングを示す。正しい関連付けは実線で示されていて、正しくない関連付けは点線で示されている。図2cは、この最初のマッピング(3つの正しい関連付け及び4つの正しくない関連付けを含む)に基づいてアフィン変換を第2データ組へ適用した結果を示す。理解されるように、7つの割当て中、4つは正しくないが、変換された組はオリジナルにずっと接近している。図2dは、一致プロセスを繰返した結果を示す。最終結果が図2eに示されている(空間的雑音成分による差異は今明確である)。
上で概観したように、第1の推定フェーズの成功は第2のそれに依存していて、その逆も正しい。第1(マッピング)フェーズ中で不正確に一致されたいかなる点は、アルゴリズムの第2(パラメータ推定)フェーズ中の誤りを導く。しかし、経験により、十分な点が最初に正確に一致していれば、アルゴリズムは大変素早くロックを確立して、収束方向へ急速に加速されることが理解される。
実際には、1つのデータ組からのいくつかの点は他の組のいずれの点に必ずしも対応しない。これは、雑音の存在に起因するか、又は、光景中の真の違いに起因することもある(例えば、調査が実行された時とUUVミッションの時との間で海底のテクスチュが僅かに変化したか、又は、魚などのオブジェクトが光景中に入っている)。これは点対の平方距離分布に統計的な局外物の存在を生じ、変換パラメータの良好な推定を汚染する。1つの解決は、これらの統計的な局外物を、許容できないと見なされる平方距離値に関する上側閾値を置くことにより、排除することを試みることである。これは、統計的な局外物に対して、技術をより頑健なものとする。
基本的な閾値を計算する1つの方法は、平方距離分布の中央値の倍数を選ぶことにより決定される。中央値は、より頑健な統計値であるため、平均値よりも好んで選択される。代替的に、局外物に対してより洗練された技術を使用できる。
もし、誤り省略法が各点について利用可能であるならば、この情報が適合したデータ組間の差異を最小にするために使用される距離計量へ組み込むことができる。誤り計量はもはや単に点の両組間の平均平方距離ではなく、各点に関連した位置的不正確さ(x及びyの両方向での)を反映する。変位計量は、点と誤り省略法との間の両相対的位置の確率関数である。もし、位置誤りが全ての点についてx及びyの両方向において同じならば、誤り省略法は円に縮退して、前と同様に平均平方変位誤りを使用できる。すなわち、もし、可能ならば、個別の点のナビゲーションの不正確さを技術に組み込むことかできる。
試験において、収束が達成される点は2つのデータ組の点の密度に依存することが知られている。この最初のシミュレーションにおいては、収束は、それ以下では解決が発見されたと見なされる閾値最小限度レベルにより決定される。最適な閾値は、点密度、局外物のレベル等のパラメータに依存する。収束を識別するためのより頑健な方法は、適合の平均平方誤りが最小に安定する点を使用することである。
図3は、本発明の実施の形態によるナビゲーション・システムを概略的に示すもので、マップデータを記憶するためのデータ記憶10と移動体の外の環境を検出するための少なくとも1つのセンサー20とを含む。これらは、センサーにより検知されたデータを含む第1データ組をデータ記憶10に記憶されたマップデータである第2データ組へマップすることができるデータ組変換を計算する信号プロセッサ30に接続されている。そして、この変換データはナビゲーション制御40に供給されて、計算された変換に応答して移動体のナビゲーション制御を調節する。
上述のアルゴリズムは、例えば、ナビゲーションを改良するために無人水中移動体のナビゲーション・システムに使用でき、第1データ組が領域のマップであり、第2データ組が無人水中移動体上のソナー検出器により検出された領域である。試験は、平らな領域では、水深測量ソナー検出器はFLS(前方監視ソナー)よりも良い結果を生ずることを示した。しかし、最良の結果は2つのタイプのソナーがタンデムに使用する時に得られた。
代替的な実施の形態では、移動体の進行を描くことができるように、第1データ組は前のソナー・ピングからのデータを含む。他の実施の形態では、2つのシステムは、マップデータが利用可能な場所ではマップデータを使用できるようにし、そして利用可能でない場合は前のソナー・ピングからのデータが使用できるように、一緒にすることができる。
マップデータが利用可能でない環境では、ソナーデータを前に記録された興味の有る領域のソナーマップと一致させることにより、移動体の位置を修正できる潜在能力がある。以下のパラグラフでは、海底のイメージに基づいて、以前にマップされていない領域内で、移動体の動きを6つの自由度の全てで計算するため、連続するデータ組間の変化を使用することを説明する。
特に、光学カメラ技術を用いたビジュアルベース技術が特に効率的であることが知られている。しかし、濁りがカメラの視覚を制限する環境下では、従来の2D又は3Dソナーが使用できる。カメラを用いた技術は、水上の応用、例えば、車のための自動操縦、船のために海岸線を基準にすること、飛行機のために着陸滑走路を追尾すること、に特に効率的である。
この技術が動作するためには、1つのデータ組から別のデータ組へマップできる特徴の抽出に成功することが重要である。エッジ検出、ハック変換評価、テクチャベース特徴抽出、及び第2次導関数技術を含む、さまざまな特徴抽出技術が使用できる。
一旦、特徴が識別されると、それらの動きがイメージ・フレーム間で追跡されなければならない。これは本発明の実施の形態の特徴マッピング方法を使用して行うことができる。
本発明のさらなる実施の形態は、合成開口ソナー(SAS)に使用できる。SASの目的はソナーのプラットホームが移動する時に記録される一連のピングを一貫性を保ちながら統合することにより、高い解像度のイメージを形成することである。これが動作するさめには、音響波面の一貫性のある加算のために正確な統合経路が要求される。本発明の実施の形態の技術は、統合経路の正確性を改善するために、従来の前方監視ソナーデータと一緒に使用できる。この一貫性のある統合を実行するためには、合成開口長の全体にわたりソナー波長の小さな一部内でソナーの位置を知ることができなければならない。本発明の実施の形態の特徴マッピング技術はセンサーの位置検出を増強するために使用でき、よって、合成開口ソナーの精度を改良することができる。これは連続するピング間で相当な重複が存在する場合、例えば、同じ領域について典型的にいくつかの調査を与える側方監視ソナーを使用する場合、に動作する。重要な要件は、特徴が比較できるように、海底の同じ区画を複数回調査できることである。SASデータは、低いレベルで処理されて、そしてこの情報は高解像度イメージを生成するために使用され、これは対照的にカメラに基づく応用で実行されるのと同様に高レベルでイメージを融合する。
本発明の実施の形態は、監視システム中を通過する対象を追跡するために使用される特徴追跡アルゴリズムに使用できる。本発明の別の実施の形態は、移動体に搭載されたカメラなど、移動するセンサーにより生成されるイメージからマップデータを生成するために使用できる。それは、例えば、コンベヤベルト上で移動する対象の工業的検査などの検査及び品質管理のためにも使用できる。この技術は、一旦、異常が検出されると、対象を追跡するために使用できる。また、前述したマッピングの説明は地理的又は他の物理的なデータのマッピングに限定する意図は無いことが理解できる。この用語は、数学的意味、すなわち、与えられた組の各要素が第2組の1つの要素に関連付けられている一致、を含むことを意図している。また、異なるタイプ又はプロセス又はスキーム内の異なるレベルでの関連する要素間のより一般的な意味の程度の対応を含むことを意図している。同様に、前述の特徴の用語の説明は、地形学的又は物理的特徴に限定する意図はない。従って、視覚的及び/又は音声データ組内に表されるものを含む抽象的な特徴も含むことを意図している。
本発明の特定の実施の形態について説明したが、本発明はそれに限定する意図はなく、多くの修正や追加が本発明の範囲内で行うことができることは明らかである。例えば、本発明の範囲から逸脱することなく、独立の請求項の特徴のさまざまな組合わせを従属する請求項の特徴と共に行うことができる。
本発明の1つの実施の形態によるデータ・マッピング方法を概略的に説明するフローチャート。 データ組間の特徴マッピングの例を示す図。 本発明の1つの実施の形態によるナビゲーション・システムの概略的な例を示す図。

Claims (36)

  1. 第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴上にマップするための特徴追跡変換を導出する方法であって、
    (a)前記第1データ組中の前記少なくとも1つの特徴に関する点の第1組を抽出するステップと、
    (b)点の前記第1組を前記第2データ組中の点の第2組と関連付けするステップと、
    (c)前記第1データ組からの点の前記第1組を前記第2データ組中の点の前記第2組へ少なくとも近似的にマップするために前記特徴追跡変換を計算するステップとを含み、前記特徴追跡変換を計算する前記ステップが、
    (i)個別の点のマッピング推定を生成するために、点の前記2つの組の内の1つの組の各点に対して、点の前記他の組の選択された点への前記点のマッピングを推定するステップと、
    (ii)点の前記1つの組を点の前記他の組へマップするための推定変換を生成するために前記個別の点のマッピングの推定を組合わせるステップと、
    (iii)近似イメージ位置を生成するために前記推定変換を点の前記1つの組へ適用するステップと、
    (iv)点の前記他の組を前記近似イメージ位置からの点の組へマッピングするための推定変換を生成するために前記(i)乃至(iii)ステップを反復繰返すステップと、
    (v)点の前記第1組を点の前記第2組へマッピングするために前記推定変換の組合せから前記特徴追跡変換を導出するステップとを含む方法。
  2. 最新の前記近似イメージ位置及び交互に点の第1及び第2組を使用して所定の限界内で前記近似イメージ位置が点の前記第2組と整列するまでステップ(i)乃至(iii)を反復繰返すステップと、そして
    前記推定変形の組合わせから前記特徴追跡変形を導出するステップと、
    をさらに含む請求項1に記載の方法。
  3. 前記推定変換を前記近似イメージに適用しても前記近似イメージに動きが生じ無くなるまで、前記ステップ(i)乃至(iii)が反復繰返される請求項2に記載の方法。
  4. ステップ(i)において、他のデータ組中の点が、点の前記1つの組内の各点を点の前記他の組内でその空間的に最近隣接点にマップすることにより、最近隣接点ベースに基づいて選択される、前記請求項のいずれかに記載の方法。
  5. ステップ(i)の個別の点のマッピングの推定が、最適割当てアルゴリズムを使用して実行される、前記請求項のいずれかに記載の方法。
  6. ステップ(i)の個別の点のマッピングを推定が、指定された距離よりも大きい距離にマップされた前記データ組からのどんな点も点の組から削除される削除ステップを含む、前記請求項のいずれかに記載の方法。
  7. 前記指定された距離が、点の1つの組内の個別の点及び点の他の組内のそれらの最近隣接点の間の距離の平方距離分布の中央値の倍数を含む請求項6に記載の方法。
  8. 特徴追跡変換を導出することが、前記推定変換の前記マッピングを加算することを含む前記請求項のいずれかに記載の方法。
  9. 点の前記第1組を抽出するステップ(a)が、前記第1データ組から前記点を抽出するためにエッジ検出アルゴリズムを使用することを含む、前記請求項のいずれかに記載の方法。
  10. 前記少なくとも1つの特徴が水深測量等高線を含む、前記請求項のいずれかに記載の方法。
  11. 前記推定変換及び前記特徴追跡変換が、データ点の平行移動と回転移動を含むアフィン変換を含む前記請求項のいずれかに記載の方法。
  12. 請求項2又は3において、前記ステップ(ii)の点の前記第1組を点の前記第2組へマップするための推定変換を導出するため、最小平方又は反復再重み付け最小平方の方法を用いた個別マッピングを組合わせること、そして、それからアフィン変換からの前記パラメータを推定することを含む請求項11に記載の方法。
  13. 点の前記第1組が百以上の点を含む前記請求項のいずれかに記載の方法。
  14. 点の組の代わりに位置と方向を持つベクトルの組が抽出され、関連付けられ、そしてマップされ、さらに、同様な方向成分を持つベクトルのみが互いにマップされるような制約が前記方法に追加されている請求項1乃至14のいずれかに記載の方法。
  15. 前記制約が、前記第1データ組のベクトルの±90°の範囲内の方向成分を持つ前記第2データ組からのベクトルに前記第1データ組からのベクトルがマップされることのみを許すことを含む請求項15に記載の方法。
  16. 第1データ組を第2データ組上にマップするためのデータ組変換を導出する方法であって、請求項1乃至16のいずれかに記載の方法を含み、
    前記特徴追跡変換を前記第1データ組を前記第2データ組上にマップするためのデータ組変換として出力するステップをさらに含む方法。
  17. 前記第1データ組からさらに少なくとも1つの特徴に関連するベクトル又は点の少なくとも1つのさらなる組を抽出するさらなるステップを含み、
    前記ベクトル又は点の少なくとも1つのさらなる組を第2データ組中のベクトル又は点の第2のさらなる組へ関連付けし、
    請求項1のステップ(i)乃至(v)を用いて、前記第1データ組からの前記ベクトル又は点の少なくとも1つのさらなる組を前記第2データ組からのベクトル又は点の第2のさらなる組へ少なくとも近似的にマップするために少なくとも1つのさらなる特徴追跡変換を計算し、
    データ組変換を生成するために前記少なくとも1つの特徴追跡変換及び前記さらなる特徴追跡変換を組合わせ、そして
    前記データ組変換を出力する、
    ことを含む請求項17に記載のデータ組変換を抽出する方法。
  18. 前記少なくとも1つの特徴がある深度の水深測量等高線を含み、そして前記少なくとも1つのさらなる特徴が異なる深度の水深測量等高線を含む請求項18に記載の方法。
  19. 移動体の増強されたナビゲーションの方法であって、請求項17乃至19のいずれかの記載の第1データ組を第2データ組上にマップするためのデータ組変換を導出する方法を含み、前記第1データ組がナビゲートされるべき領域の記憶されたマップデータを含み、そして前記第2データ組が前記ナビゲーション中に前記移動体上の検出器により検出されたデータを含み、前記データ組変換が前記移動体のナビゲーション制御の調節に使用される増強されたナビゲーションの方法。
  20. 移動体の増強されたナビゲーションの方法であって、請求項17乃至19のいずれかの記載の第1データ組を第2データ組上にマップするためのデータ組変換を導出する方法を含み、前記第1データ組が前記移動体の前方の領域を監視する検出器により検出されたデータを含み、そして前記第2データ組が前記ナビゲーション中に前記移動体の下側の領域を監視する検出器により検出されたデータを含み、前記データ組変換が前記移動体のナビゲーション制御の調節に使用される増強されたナビゲーションの方法。
  21. 移動体の増強されたナビゲーションの方法であって、請求項17乃至19のいずれかの記載の第1データ組を第2データ組上にマップするためのデータ組変換を導出する方法を含み、前記第1データ組が記憶されたマップデータ及びマップデータが利用できない場合はナビゲーション中に前記移動体上の検出器により前に検出されたデータの両方を含み、そして前記第2データ組が前記検出器により現在検出されたデータを含み、前記データ組変換が前記移動体のナビゲーション制御の調節に使用される増強されたナビゲーションの方法。
  22. 前記検出器がソナー検出器を含み、そして前記移動体が無人水中移動体である請求項20乃至22のいずれかに記載の増強されたナビゲーションの方法。
  23. 前記データ組変換が、前記移動体をナビゲートするための慣性センサーからのデータと共に使用される請求項23に記載の増強されたナビゲーションの方法。
  24. 領域を相対的に移動しながらイメージを検知するセンサーにより生成された前記領域の複数の前記イメージから前記領域のマップを生成するためのイメージ処理方法であって
    請求項17乃至19のいずれかに記載の第1データ組を第2データ組上へマッピングするためのデータ組変換を導出する方法を含み、前記第1データ組は前記センサーにより検知された前記領域の最初のイメージを含み、前記第2データ組は前記センサーがある距離を移動した後に前記センサーにより検知された前記領域のその後のイメージを含み、
    イメージ間で前記領域に対して前記センサーが相対的に移動した前記距離を推定するために前記データ組変換を使用し、
    前記推定された距離を用いて前記イメージを組合わせ、そして
    前記組合わせられたイメージから前記領域のマップを生成するためにその後のイメージについて前記ステップを繰返す
    ことを含むイメージ処理方法。
  25. 特徴がセンサーに対して相対的に移動する時に特徴を追跡するための特徴追跡方法であって、
    請求項1乃至16のいずれかに記載の第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出する方法を含み、前記第1データ組は前記センサーにより検知されたイメージを含み、前記第2データ組は前記センサーによりその後に検知されたイメージを含み、前記特徴追跡変換から前記特徴が移動した方向及び距離を導出することを含む特徴追跡方法。
  26. 請求項1乃至16のいずれかに記載の方法のステップを実行するために、コンピュータを制御することにより、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴上へマップするための特徴追跡変換を導出するため、前記コンピュータを制御できるコンピュータ・プログラム製品。
  27. 請求項17乃至19のいずれかに記載の方法のステップを実行するために、コンピュータを制御することにより、第1データ組を第2データ組へマップするためのデータ組変換を導出するため前記コンピュータを制御できるコンピュータ・プログラム製品。
  28. 第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出するための装置であって、
    前記第1データ組から少なくとも1つの特徴に関連する点の第1組を抽出しそして点の前記第1組を第2データ組内の点の第2組に一致させることができる信号プロセッサと、
    前記第1データ組からの点の前記第1組を前記第2データ組内の点の前記第2組へ少なくとも近似的にマップするための特徴追跡変換を計算できる計算回路とを含み、前記計算回路は以下のステップを実行でき、
    点の前記第1組又は前記第2組の1つの組の各点について、前記点を点の前記第1組又は前記第2組の他の組内の点へのマッピングを推定するステップ、
    点の前記1つの組を点の前記他の組へマップするための推定変換を生成するために前記個別の点のマッピング推定を組合わせるステップ、
    近似イメージ位置を生成するために前記推定変換を点の前記1つの組に適用するステップと、
    点の前記他の組を前記近似イメージ位置から点の組へマッピングするための推定変換を生成するため前記ステップを反復繰返して実行するステップ、そして
    前記推定変換の組合わせから点の前記第1組を点の前記第2組へマッピングするための前記特徴追跡変換を導出するステップ、
    前記装置は、さらに前記特徴追跡変換を出力するための出力装置を含む装置。
  29. 点の組の代わりに位置と方向を持つベクトルの組が抽出され、一致され、そしてマップされ、前記計算回路が同様な方向成分を持つベクトルのみが互いにマップされるような制約を含む請求項29に記載の装置。
  30. 前記制約は、前記第1データ組からのベクトルが前記第1データ組のベクトルの±90°の範囲内の方向成分を持つ前記第2データ組からのベクトルにマップされることのみを許すことを含む請求項30に記載の装置。
  31. 移動体のナビゲーション能力を増強するためのナビゲーション・システムであって、
    マップデータを格納することができる記憶手段と、
    前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、
    請求項28に記載のコンピュータ・プログラム製品を含み、前記記憶手段に格納されている前記マップデータを含む第1データ組を前記少なくとも1つのセンサーにより検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる信号プロセッサと、
    前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、
    前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができるナビゲーション・システム。
  32. 移動体のナビゲーション能力を増強するためのナビゲーション・システムであって、
    マップデータを格納することができる記憶手段と、
    前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、
    請求項28に記載のコンピュータ・プログラム製品を含み、前記記憶手段に格納されている前記マップデータを含む第1データ組を前記少なくとも1つのセンサーにより検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる信号プロセッサと、
    前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、
    前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができるナビゲーション・システム。
  33. 移動体のナビゲーション能力を増強するためのナビゲーション・システムであって、
    マップデータを記憶することができる記憶手段と、
    前記移動体の外側の前記環境を検出するための少なくとも1つのセンサーと、
    請求項28に記載のコンピュータ・プログラム製品を含み、記憶されているマップデータ及びマップデータが利用できない場合は前記センサーにより前に検出されたデータの両方を含む第1データ組を前記少なくとも1つのセンサーにより現在検出されたイメージデータを含む第2データ組へマップすることができるデータ組変換を計算できる信号プロセッサと、
    前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、
    前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができるナビゲーション・システム。
  34. 移動体のナビゲーション能力を増強するためのナビゲーション・システムであって、
    マップデータを記憶することができる記憶手段と、
    前記移動体の前側の領域及び前記移動体の下側の領域を含む前記移動体の外側の前記環境を検出するための複数のセンサーと、
    請求項28に記載のコンピュータ・プログラム製品を含み、前記移動体の前方の領域を監視する前記センサーにより検出されたデータを含む第1データ組を前記移動体の下側の領域を監視する前記センサーにより検出されたデータを含む第2データ組へマップすることができるデータ組変換を計算できる信号プロセッサと、
    前記移動体のナビゲーションを制御できるナビゲーション制御手段とを含み、
    前記ナビゲーション制御手段は前記計算されたデータ組変換に応答することができるナビゲーション・システム。
  35. 図1及び図2を参照して実質的に明細書に説明された、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出する方法。
  36. 図1及び図2を参照して実質的に明細書に説明された、第1データ組からの少なくとも1つの特徴を第2データ組からの対応する特徴へマップするための特徴追跡変換を導出する装置。
JP2004509881A 2002-05-31 2003-05-28 データ組間の特徴マッピング Pending JP2005528707A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0212748.8A GB0212748D0 (en) 2002-05-31 2002-05-31 Feature mapping between data sets
PCT/GB2003/002329 WO2003102870A2 (en) 2002-05-31 2003-05-28 Feature mapping between data sets

Publications (2)

Publication Number Publication Date
JP2005528707A true JP2005528707A (ja) 2005-09-22
JP2005528707A5 JP2005528707A5 (ja) 2009-12-03

Family

ID=9937900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004509881A Pending JP2005528707A (ja) 2002-05-31 2003-05-28 データ組間の特徴マッピング

Country Status (6)

Country Link
US (1) US7124022B2 (ja)
EP (1) EP1516286A2 (ja)
JP (1) JP2005528707A (ja)
AU (1) AU2003241021A1 (ja)
GB (1) GB0212748D0 (ja)
WO (1) WO2003102870A2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7315259B2 (en) * 2005-08-11 2008-01-01 Google Inc. Techniques for displaying and caching tiled map data on constrained-resource services
US7933897B2 (en) 2005-10-12 2011-04-26 Google Inc. Entity display priority in a distributed geographic information system
WO2008022313A2 (en) * 2006-08-18 2008-02-21 Raytheon Company Method and system for determining task scheduling probability
US8220408B2 (en) * 2007-07-31 2012-07-17 Stone William C Underwater vehicle with sonar array
US8082100B2 (en) 2007-10-19 2011-12-20 Grace Ted V Watercraft automation and aquatic effort data utilization
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
US20090216410A1 (en) * 2008-02-26 2009-08-27 William Edward Allen Automated machine management system with destination selection
US8233664B2 (en) * 2008-11-12 2012-07-31 Eastman Kodak Company Determining relative depth of points in multiple videos
WO2010095946A1 (en) * 2009-02-20 2010-08-26 Nederlandse Organisatie Voor Toegepast-Natuurwetenschappelijk Onderzoek Tno A method of detecting a scatterer in a structure, a radar system and a computer program product
US8463470B2 (en) * 2009-09-03 2013-06-11 Johnson Outdoors Marine Electronics, Inc. Shallow water highlight method and display systems
US8442709B2 (en) * 2009-12-11 2013-05-14 Lockheed Martin Corporation Underwater investigation system providing unmanned underwater vehicle (UUV) guidance based upon updated position state estimates and related methods
JP2011198330A (ja) * 2010-03-24 2011-10-06 National Institute Of Advanced Industrial Science & Technology 3次元位置合わせにおける照合方法およびそのプログラム
US8761976B2 (en) 2010-07-16 2014-06-24 Johnson Outdoors Inc. System and method for controlling a trolling motor
US8629788B1 (en) * 2010-08-10 2014-01-14 Rockwell Collins, Inc. Sensing, display, and dissemination of detected turbulence
US8645012B2 (en) 2010-08-20 2014-02-04 Johnson Outdoors Inc. System and method for automatically navigating a depth contour
US8543269B1 (en) * 2010-08-20 2013-09-24 Johnson Outdoors Marine Electronics, Inc. Digital mapping display functions for a GPS/sonar unit
CN101957992B (zh) * 2010-09-30 2012-05-02 清华大学 一种二维单射曲面数据的特征提取与匹配方法
US8442716B2 (en) * 2010-10-31 2013-05-14 Microsoft Corporation Identifying physical locations of entities
US11480965B2 (en) 2010-11-19 2022-10-25 Maid Ip Holdings Pty/Ltd Automatic location placement system
US9778657B2 (en) 2010-11-19 2017-10-03 Bradley Tyers Automatic location placement system
SE535920C2 (sv) * 2011-02-10 2013-02-19 Hans Frimmel Bildbehandlingsmetod baserad på level-set-funktion
US9104697B2 (en) * 2012-07-24 2015-08-11 Navico Holdings As Aquatic geographic information system
US9147226B2 (en) * 2012-09-10 2015-09-29 Nokia Technologies Oy Method, apparatus and computer program product for processing of images
JP6321202B2 (ja) * 2015-07-14 2018-05-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォームの運動を決定する方法、装置、及びシステム
US10365366B2 (en) 2016-06-21 2019-07-30 Navico Holding As Adjustable range viewing of sonar imagery during trip replay
US9986197B2 (en) 2016-08-24 2018-05-29 Navico Holding As Trip replay experience
DE102016116471A1 (de) 2016-09-02 2018-03-08 Atlas Elektronik Gmbh Navigationskorrekturmodul sowie unbemanntes Unterwasserfahrzeug damit und Verfahren
US10304342B2 (en) * 2016-11-08 2019-05-28 Ge Aviation Systems Llc Ground-based data acquisition system
US11035933B2 (en) 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
US11061132B2 (en) * 2018-05-21 2021-07-13 Johnson Controls Technology Company Building radar-camera surveillance system
JP7051625B2 (ja) * 2018-07-12 2022-04-11 古野電気株式会社 水中探知装置及び水中探知方法
EP3702802A1 (en) * 2019-03-01 2020-09-02 Aptiv Technologies Limited Method of multi-sensor data fusion
AU2020289853B2 (en) * 2020-04-09 2022-02-03 Sensetime International Pte. Ltd. Matching method and apparatus, electronic device, computer-readable storage medium, and computer program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3177299D1 (de) * 1980-04-11 1993-04-15 Ampex Bildverarbeitungssystem fuer raeumliche bildtransformation.
JPS6084610A (ja) 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
GB8706348D0 (en) * 1987-03-17 1987-04-23 Quantel Ltd Electronic image processing systems
US4891762A (en) 1988-02-09 1990-01-02 Chotiros Nicholas P Method and apparatus for tracking, mapping and recognition of spatial patterns
DE3915631A1 (de) 1989-05-12 1990-11-15 Dornier Luftfahrt Navigationsverfahren
US5303795A (en) * 1991-01-24 1994-04-19 Buell Motor Company, Inc. Motorcycle luggage carrier
US5592599A (en) * 1991-12-18 1997-01-07 Ampex Corporation Video special effects system with graphical operator interface
GB9813760D0 (en) 1998-06-25 1998-08-26 Geco Prakla Uk Ltd Seismic data signal processing method
IL135560A0 (en) 2000-04-09 2001-05-20 Dream Team Ltd Method for processing an image

Also Published As

Publication number Publication date
EP1516286A2 (en) 2005-03-23
WO2003102870A3 (en) 2004-07-01
WO2003102870A2 (en) 2003-12-11
US20060123050A1 (en) 2006-06-08
AU2003241021A8 (en) 2003-12-19
GB0212748D0 (en) 2002-07-10
AU2003241021A1 (en) 2003-12-19
US7124022B2 (en) 2006-10-17

Similar Documents

Publication Publication Date Title
US7124022B2 (en) Feature mapping between data sets
US20230130320A1 (en) Laser scanner with real-time, online ego-motion estimation
Palomer et al. Inspection of an underwater structure using point‐cloud SLAM with an AUV and a laser scanner
US10096129B2 (en) Three-dimensional mapping of an environment
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
Muhovič et al. Obstacle tracking for unmanned surface vessels using 3-D point cloud
US10307910B2 (en) Apparatus of recognizing position of mobile robot using search based correlative matching and method thereof
US20170151675A1 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
WO2018071416A1 (en) Laser scanner with real-time, online ego-motion estimation
Nair et al. Moving obstacle detection from a navigating robot
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
Fiala et al. Visual odometry using 3-dimensional video input
KR102064257B1 (ko) 잠수정의 수중항법 방법 및 시스템
Clement et al. Robust monocular visual teach and repeat aided by local ground planarity and color‐constant imagery
Elibol et al. Augmented state–extended Kalman filter combined framework for topology estimation in large‐area underwater mapping
Hurtós et al. Real-time mosaicing with two-dimensional forward-looking sonar
Wang et al. Real-time dense 3d mapping of underwater environments
Birk et al. Simultaneous localization and mapping (SLAM)
Amarasinghe et al. Monocular visual slam for underwater navigation in turbid and dynamic environments
Sekkati et al. 3-D motion estimation for positioning from 2-D acoustic video imagery
Ruscio et al. Visual-based navigation strategy for autonomous underwater vehicles in monitoring scenarios
Gracias Mosaic-based visual navigation for autonomous underwater vehicles
Vandrish et al. Towards auv route following using qualitative navigation
Kleiner et al. Mapping for the support of first responders in critical domains
McConnell et al. Perception for Underwater Robots

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090413

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090713

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091007

A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20091007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091116