JP2008292449A - 水中で対象物を検知し分類する自動目標識別システム - Google Patents
水中で対象物を検知し分類する自動目標識別システム Download PDFInfo
- Publication number
- JP2008292449A JP2008292449A JP2008007644A JP2008007644A JP2008292449A JP 2008292449 A JP2008292449 A JP 2008292449A JP 2008007644 A JP2008007644 A JP 2008007644A JP 2008007644 A JP2008007644 A JP 2008007644A JP 2008292449 A JP2008292449 A JP 2008292449A
- Authority
- JP
- Japan
- Prior art keywords
- target
- voxel data
- data
- superframe
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/04—Systems determining presence of a target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B49/00—Arrangements of nautical instruments or navigational aids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Ocean & Marine Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Analysis (AREA)
Abstract
【課題】水量に関するレーダー画像内にある対象物を検知するデータ処理アルゴリズムを改善する自動目標識別システムの提供。
【解決手段】水中で目標物を検知する方法は、対象領域の複数の画像を捉える工程と、画像からボクセルデータを抽出する工程と、ボクセルデータを処理して対象領域の対象項目を検知する工程とからなる。
【選択図】図2
【解決手段】水中で目標物を検知する方法は、対象領域の複数の画像を捉える工程と、画像からボクセルデータを抽出する工程と、ボクセルデータを処理して対象領域の対象項目を検知する工程とからなる。
【選択図】図2
Description
政府所有であることの陳述
本発明は、契約番号N61331−00−C−0022に基づいて成された。米国政府は契約の下、本発明に対する権利を有する。
本発明は、契約番号N61331−00−C−0022に基づいて成された。米国政府は契約の下、本発明に対する権利を有する。
本発明は、水中で対象物を検知し分類する方法及び装置に関する。
発明の背景
水中の機雷(mine)を捜し出し、識別する種々のシステムが提案されてきた。機雷を検知する1つのシステムは、アメリカ合衆国海軍用に開発され構築されたノースロップグラマン空中レーザー機雷検知システム(ALMDS)である。ALMDSシステムは、一連の画像の形式で情報を捉えるレーザー検知及び分類システム(LADAR)である。各画像は、検査対象の水分量を通して略垂直なスライス画像を表す。
水中の機雷(mine)を捜し出し、識別する種々のシステムが提案されてきた。機雷を検知する1つのシステムは、アメリカ合衆国海軍用に開発され構築されたノースロップグラマン空中レーザー機雷検知システム(ALMDS)である。ALMDSシステムは、一連の画像の形式で情報を捉えるレーザー検知及び分類システム(LADAR)である。各画像は、検査対象の水分量を通して略垂直なスライス画像を表す。
ALMDSシステムは、パルス状のファンビーム送信器、4つのストリーク式受像管、及びデータ処理ユニットを含む。各受信器は、ストリーク式受像管画像化装置、増強装置、画像を捉えるカメラ、及び水量に機雷が含まれているかを判断するデータ処置機器から構成される。各受信器は、送信されたファンビームの約1/4から反射された光を記録する。全てのこのハードウエアは、一般にヘリコプターに取り付けられるポッドに含まれる。
本発明は、水量に関するレーダー画像内にある対象物を検知するデータ処理アルゴリズムを改善することを追求する。
発明の要約
本発明は、部分的に透明な材料、一般に海水内にて、ユーザが選択したサイズの対象物を検知する方法を提供する。方法は、検査対象の体積についての複数の画像を捉える工程と、画像からボクセルデータ(voxel data)を抽出する工程と、ボクセルデータを処理して水量内、又は水量の材料の表面に浮いている対象物を検知する工程を有する。水量内の材料が海水であるとき、これらの対象物は、「コンタクト」としてアメリカ海軍に知られている。本発明は更に、「コンタクト」を機雷のような対象物又は非機雷のような対象物の何れかとして分類する。
本発明は、部分的に透明な材料、一般に海水内にて、ユーザが選択したサイズの対象物を検知する方法を提供する。方法は、検査対象の体積についての複数の画像を捉える工程と、画像からボクセルデータ(voxel data)を抽出する工程と、ボクセルデータを処理して水量内、又は水量の材料の表面に浮いている対象物を検知する工程を有する。水量内の材料が海水であるとき、これらの対象物は、「コンタクト」としてアメリカ海軍に知られている。本発明は更に、「コンタクト」を機雷のような対象物又は非機雷のような対象物の何れかとして分類する。
発明の詳細な記載
図1に関して、図1は本発明の実施例に従って、構成され動作する装置(10)の概略図である。装置は、航空機(14)上に取り付けられたレーザーレーダーシステム(12)を含む。レーダーシステムのレーザーは、信号を空間的なファンビームの一時的なパルスの形式で送信し、信号は対象領域(16)に向けられる。特にこの場合、対象領域は、水域を含む。
図1に関して、図1は本発明の実施例に従って、構成され動作する装置(10)の概略図である。装置は、航空機(14)上に取り付けられたレーザーレーダーシステム(12)を含む。レーダーシステムのレーザーは、信号を空間的なファンビームの一時的なパルスの形式で送信し、信号は対象領域(16)に向けられる。特にこの場合、対象領域は、水域を含む。
図2は、本発明の方法の一実施例を実行するのに用いられる装置のブロック図である。システムは、レーザー(18)及び、航空機に取り付けられる1又は2以上のカメラ(20)の形式である単一又は複数台のセンサを含む。レーザーは、送信された光のパルスで対象領域を照射する。送信された信号は、対象領域内の対象物に反射されて、カメラによって受信される戻り信号を生成し、カメラはボクセルの形式で対象領域の画像を生成する。ボクセルデータは、ポッド装備信号処理デバイス(22)にて処理され(また、データプロセッサとも言われる)、対象領域の対象物を検知し区別する。反射データはカメラ(22)によって受信され、生データレコーダ(RDR)によって記録される。カメラによって観察された反射に対応するボクセル値は、データプロセッサ内で予備処理され(26)、画像処理され(28)、検知され(30)及び区別される。検知された機雷のような対象物はデータベース(34)及び/又は他の出力デバイス(36)に送られる。本発明はデータベース内に含まれるアルゴリズムを用いて実行される。
ここで用いられる、「生データ」は電子カメラ(20)を出たデータである。生データは、対象領域の量に関する情報を表す。生データは以下のように収集される。ALMDSの例に於いて、ライダーはライダープラットホームの進行方向に直交する60度のファンビームの形状でパルスを送信する。センサは「押し方式(pushbroom)」センサとして知られている。水量は、1回で1の「スライス」を画像化する。水量を表すデータは、順序付けられた(ordered)一組のスライスである。これらのスライスは、また「フレーム」と呼ばれる。小さなオーバーラップを除いて、各カメラは送信されたファンビームからの反射の特定の角度セクタから反射を記録する。一般に、ファンビームは約648フィートを横切り、各カメラはファンビームの約15度、即ち約162フィートから生じる反射を記録する。データプロセッサでは、これらのフレームは、後でスーパーフレーム(図4)として知られる8つのグループに集約される。
ALMDSによって生成された生のデータは、円柱座標内に収集され、その中では列が円錐角に対応し、行が斜距離(slant range)に対応し(飛行時間に対応する)、フレームは進路沿い(along-track)の光景に対応し、即ち円柱座標の用語で、角度シータ、半径r、軸Zに夫々対応する。
送信されたパルスは、送信信号と言われ、受信されたパルスは受信信号と言われる。1つの送信されたパルスは、多くの受信パルスに膨らみを与える、なぜなら水自体の量要素は各々が、送信されたパルスの小さいが探知可能な部分をレーダーに戻し反射し、これらは時間増分で解かれるからである。しばしば、水面からの明るいフラッシュが、水中の対象物からの反射と同様に、この「容積測定」のリターンに追加される。送信された信号は、光学系、空気、対象領域の水上の霞、水面、水、を含むチャンネルを通り、次に(もし、あれば)目標に反射する。
ここで用いられるように、「コンタクト」は水、海底、波の何れでもないものの検知を意味する。コンタクトは、例えば、魚、機雷、又は浮いている破片である。「分類」はコンタクトが機雷のような対象物(MLO)又は非機雷のような対象物(NMLO)の何れかであることの表示(declaration)である。この用語は、本発明が機雷を見付けるとの当初の動機付け故に用いられる。しかし、カーネルの形を変えることにより(図6及び図7)、他の形を有する物体、例えば魚のような物体を見つけるのに、本発明が用いられる。「識別」とは機雷のタイプを判断することを意味し、種々の現存のアルゴリズムの変数を用いることにより、より詳細に形を決定することが可能である。
検知されたら、検知と地理位置情報(geolocation)のような更なる情報を有するボクセルの生データキューブ及び水の減衰定数は、データキューブとともに、データベース(34)に格納される。生データレコーダ(RDR)(24)と言われる他のデータベースは、1又は2以上のカメラから流れる生画像を同時に記録することができる。
水を透過するレーザーレーダーには、係留している機雷に対してMLO又はNMLOであるとして、データキューブの識別を難しくしている2つの様相がある。1つ目の様相は、水(及び他の要素)により起こされる吸収と散乱であり、2つ目の態様は目標からの反射された光のレベルが低いことである。減衰が強いと、ぼやけと結びついて、機雷から受信された反射は、このアルゴリズムによって検知されても、画像データ内には肉眼によって識別されない。ぼやけ及び検知の統計特性が既知であれば、統計的評価により、更なる改善が可能である。
図3に示すように、一実施例において、本発明の方法は4つの工程を有する。前処理工程(40)、画像処理工程(422)、検知工程(44)、及び識別工程(46)である。前処理工程は、データ流れを減じ、受信器の副作用物を除去するのに用いられる。画像処理工程は、対象領域を決定し、検知器の性能を低下させるデータ内のバイアスを除去する。検知工程は、修正された尤度比表現を用いてコンタクトを検知する。識別工程は、外観、サイズのような特徴を演算して、該特徴は機雷のような対象物(MLOs)又は非機雷のような対象物(NMLOs)を区別するのに用いられる。
ここでの自動目標認識(ATR)は、警告/確認連続検知器と考えられる。検知器は、各塊量につて、即ちこれはコンタクト又は否かを決定する。検知後に、第2段階はコンタクトを機雷状の対象物(MLO)又は非機雷状の対象物(NMLO)かを識別する。信号処理は空中レーザー機雷検知システム(ALMDS)補助タンクにてデータ処理ユニット内のソフトウエアを用いて実行され得る。
各カメラからのデータは、一般に行列ビューに画素値の行列として表示され、データは直角座標システムに表されるとの誤った印象を与える。例えば、ALMDSが陸上のデータ収集に用いられるならば、データは円筒座標システムに収集される。これは対象領域が海面のみの場合も同じである。列は、円錐角に直に対応し、行は原点(センサ)からの半径距離に対応し、フレーム(進路沿いの動き)は、Z軸(航空機の飛行方向)に沿った動きに対応する。これは、空気と水面の境界に於いてスネルの法則による(Snell)光線の屈折を考慮し、光量子の飛行時間が水中の光速度を考慮に入れて解釈されなければならない点を除き、水面下のデータについても当てはまる。
このように、角度/半径画素の行列は、しばしばカルテシアン配列の行列にて示されるが、実際には完全なカルテシアンではない。及びスネルの法則の屈折故に、正確にはまっすぐな円筒座標システムでもない。このように(カルテシアンフレームの行列として)データを示すことは、レーダーによって捉えられた画像をゆがめることである。特に、海洋の場合は、局部的には平均すると平坦であると誰もが知っているが、ALMDSデータでは、平均すると、曲がって表れる。センサが等間隔でなければ、表面のカーブは数学的にロール角(又は、列)について正弦関係となる。データを本来(native)の座標システムからカルテシアンシステムに変更することは、オルト調整(ortho-rectification)と呼ばれる。これは水面下のデータでは行われない、なぜなら対象物である機雷のサイズの歪みは小さく、オルト調整は、コンピュータ的に高価だからである。この種の処理が必要であれば、目標のテンプレートは、全てのデータを処理するのではなく、データの歪みと整合するように修正されるであろう。
このように、角度/半径画素の行列は、しばしばカルテシアン配列の行列にて示されるが、実際には完全なカルテシアンではない。及びスネルの法則の屈折故に、正確にはまっすぐな円筒座標システムでもない。このように(カルテシアンフレームの行列として)データを示すことは、レーダーによって捉えられた画像をゆがめることである。特に、海洋の場合は、局部的には平均すると平坦であると誰もが知っているが、ALMDSデータでは、平均すると、曲がって表れる。センサが等間隔でなければ、表面のカーブは数学的にロール角(又は、列)について正弦関係となる。データを本来(native)の座標システムからカルテシアンシステムに変更することは、オルト調整(ortho-rectification)と呼ばれる。これは水面下のデータでは行われない、なぜなら対象物である機雷のサイズの歪みは小さく、オルト調整は、コンピュータ的に高価だからである。この種の処理が必要であれば、目標のテンプレートは、全てのデータを処理するのではなく、データの歪みと整合するように修正されるであろう。
前処理工程は、2つの機能を有する。(1)受信器の副作用物(artifact)を除去すること(2)データ流れを減じることである。例えば、カメラ画像の垂直列中に、データではなく、受信器の副作用物しかないときは、この列は左及び右のデータの平均値と置き換えられる。
レーダーデータは、8つの連続したフレームの各グループを平均化することによって、1つのスーパーフレーム(図4)へとグループ化(binned)される。このように、スーパーフレーム内の各画素は、「生」のフレームに同じ行列指数を有する8つの画素の平均である。各スーパーフレームは、画像処理の為に送られ、次に検知器に送られる2次元の対象物である。グループ化は2つのストライドで実行される。言い換えれば、各スーパーフレームは、その構成の中に、前のスーパーフレーム及び次のスーパーフレームにある6つのフレームを共有する。
レーダーデータは、8つの連続したフレームの各グループを平均化することによって、1つのスーパーフレーム(図4)へとグループ化(binned)される。このように、スーパーフレーム内の各画素は、「生」のフレームに同じ行列指数を有する8つの画素の平均である。各スーパーフレームは、画像処理の為に送られ、次に検知器に送られる2次元の対象物である。グループ化は2つのストライドで実行される。言い換えれば、各スーパーフレームは、その構成の中に、前のスーパーフレーム及び次のスーパーフレームにある6つのフレームを共有する。
ライダーシステムが飛行すると、フレームは、秒当たりの所定のフレーム数の速度で収集される。図4の例は、各スーパーフレームは、時間内に連続して収集された8つの生のフレームの平均であることを示している。次のスーパーフレームは、以前のスーパーフレームと6つのフレームを共有する。これは各画素の移動平均を構成するのと近似している。 数学的に、グループ化の効果は、非干渉性積分(non-coherent integration)の効果と近似しており、進路沿いの次元(along-track dimension)にてパルス整合したフィルタを用いた畳み込みに似ている。
ALMDSカメラフレームデータは、0〜511まで番号付けられた512の列に配列される。ALMDSレシーバーは四分円境界で副作用物を有し、前のフレーム511番目の列は、現在のフレームの構造の0番目の列に複写される。四分円境界は128、256及び384番目の列に位置する。四分円境界はデータがない列である。前処理しないと、それらは、検知器の実行に影響する場合がある。
四分円境界列(128、256、384)のデータは、左右の列のデータの平均値と置き替えられる。511列を0列にコピーすることによって、511列(右端の列)を0列(左端の列)に複製化することが行われる。
異なる副作用物又は異なるデータ速度を有する異なるLIDARが使用された場合、又はデータプロセッサに異なる計算容量(FLOPSで)があった場合、この手順への適切な変更が為されねばならない。
四分円境界列(128、256、384)のデータは、左右の列のデータの平均値と置き替えられる。511列を0列にコピーすることによって、511列(右端の列)を0列(左端の列)に複製化することが行われる。
異なる副作用物又は異なるデータ速度を有する異なるLIDARが使用された場合、又はデータプロセッサに異なる計算容量(FLOPSで)があった場合、この手順への適切な変更が為されねばならない。
画像処理段階は、海面が水平に見えるという点でオルト調整に似ている工程を有する。
工程はフレームを「ゆがめない」として知られている。ゆがめないために、画像の各列に相当する円錐角を知る必要がある。
従って、円錐角は、画像内の各列が対応するセンサ内の視角と同様に、プラットフォーム(例えばヘリコプター)の地上に対する向き、及びプラットフォームに対するセンサの向きに依る。各列の大凡の円錐角を以下の公式から得てもよい。
αcone(j)=cos-1(cos(φroll(j))cos(θplatpitch)) (1)
ここで、θplatpitchはプラットフォームのピッチであり、φrollは特定の列に対応したプラットフォームロールとロール角の合計である。
φroll(j)=φplatroll+φcolroll(j) (2)
工程はフレームを「ゆがめない」として知られている。ゆがめないために、画像の各列に相当する円錐角を知る必要がある。
従って、円錐角は、画像内の各列が対応するセンサ内の視角と同様に、プラットフォーム(例えばヘリコプター)の地上に対する向き、及びプラットフォームに対するセンサの向きに依る。各列の大凡の円錐角を以下の公式から得てもよい。
αcone(j)=cos-1(cos(φroll(j))cos(θplatpitch)) (1)
ここで、θplatpitchはプラットフォームのピッチであり、φrollは特定の列に対応したプラットフォームロールとロール角の合計である。
φroll(j)=φplatroll+φcolroll(j) (2)
センサ座標システムに於いて(航空機の座標システムに対するものとして)、特定の列に対応するロール角jは、以下によって与えられる。
φcolroll(j)=−0.507891+radians/col×
[(512−20.48)(NcamID−1)+j+0.5], (3)
ここで、NcamIDは図8に示す約束事に従ったカメラ識別(ID)である。
φcolroll(j)=−0.507891+radians/col×
[(512−20.48)(NcamID−1)+j+0.5], (3)
ここで、NcamIDは図8に示す約束事に従ったカメラ識別(ID)である。
ソフトウエアは、一実施例に於いてカメラは20.48列の重なりがあり、及び視野の縁は14.1、0.3、−0.3及び−14.1度の回転角だけ離れていることを考慮に入れる。
Δi(j)を直接使用することについての問題は、海面の行が天底から絶対変位であることであり、従って、このjの関数は、天底から特定カメラでの最高位の海面の行までの変位に等しい一定バイアスを持つということである。
外側寄りのカメラは通常は、天底の列を含まない。従って、外側寄りのカメラは、隣接した内側のカメラを横切る海面の行と同程度に、行に大きな一定のバイアスを持っていてもよい。画像をゆがめないようにするために、海面の最上位の行が見つけられる列は0行にて置換され、海洋表面がより低い他の列は、「引き上げられて」、海面の最上位の行と一致する。
最上位の行は、LIDARに最接近しているライダーの反射を表わす行、即ち図を見るユーザの視点である。行列インデックスの標準的な数学的な約束事が利用されるので、(0、0)は左上に位置し、即ち、より低位の行インデックスは、LIDARに一層接近している反射を含んでいる。
最上位の行は、LIDARに最接近しているライダーの反射を表わす行、即ち図を見るユーザの視点である。行列インデックスの標準的な数学的な約束事が利用されるので、(0、0)は左上に位置し、即ち、より低位の行インデックスは、LIDARに一層接近している反射を含んでいる。
特定のカメラについての海面の絶対変位の範囲は、ソフトウェア内の徹底的な探索によって見つかる。数学的には、それは以下に表現される。
Δiextent=Δi(jmax)−Δi(jmin) (5)
ここで、
である。
Δiextent=Δi(jmax)−Δi(jmin) (5)
ここで、
各列の行インデックスから引き出される実際の変位は、以下によって与えられる。
Δi(j)←Δi(j)−Δi(jmin) (8)
Δi(j)←Δi(j)−Δi(jmin) (8)
このように、海面が最上位の列jminは全く動かない。他の全ての画素値は、以下の公式に従って移動する。
λij→λi-Δi(j),j , (9)
(ここで、λijは行i及び列jでの画像のグレイレベルであり、)iの値が増加しながら、反復されねばならない(データを重ね書きしないために)。これにより、画像内で列は上に引き上げられるように見え、海面は「平坦化された」ように見えるだろう。
λij→λi-Δi(j),j , (9)
(ここで、λijは行i及び列jでの画像のグレイレベルであり、)iの値が増加しながら、反復されねばならない(データを重ね書きしないために)。これにより、画像内で列は上に引き上げられるように見え、海面は「平坦化された」ように見えるだろう。
航空機データプロセッサのメモリハードウエアが小規模の場合、全ての画素が移動するのではない。フレームの底部は、歪まない操作の後、「削除」される。この点から先は、データプロセッサは一層小さなフレームで動作する。
均等化は、先ず最初にそのインデックスが10−501の範囲内の列にあって、正常に動作する(well-behaved)列(WBC)を見つけることにより行なわれる。画像の縁の近傍の列は、副作用物、即ちノイズデータを有する。正常に動作する列は、4000を越える値、又は所定の最小値未満の値を決して有さない。第1の制約は、列が不飽和であることを保証し、第2の制約は、列が現実的な表面反射を有する少なくとも1つの画素を有することを保証する。このように、正常に動作する列は飽和することなく、良好なダイナミックレンジを有する。これらの良い特性故に、正常に動作する列はまた、κlidar(後記する)を演算するのにも用いられる。
均等化のモデルは、各列が乗定数を除いて、同じ減衰曲線に追随することである。減衰曲線は指数関数的である必要はない。実際、指数関数曲線ではなくWBCが用いられるのは正確にこの理由からである。即ち、あらゆる画素(海面下)の値のモデルは、以下である。
λij=Ajf(i), (11)
ここで、f(i)はWBCの減衰曲線で、Ajは海面でのカーブの値であり、
である。j'をWBCのインデックスとする。減衰曲線は以下の如く、形成される。
λij=Ajf(i), (11)
ここで、f(i)はWBCの減衰曲線で、Ajは海面でのカーブの値であり、
このように、減衰曲線は、(海面にて)1つの最大値を有する一組の数であり、インデックスiが増加するにつれ、ゼロに向かって減少する。
このモデルは、WBCを均等化するのに完璧である。このモデルが、各列jについて完璧であったならば、
λij/Ajf(i) (13)
式(13)は目標を含む画素を除き、常に1つである。これはWBCが目標を含まないと仮定する。勿論、これは現実の場合ではない。しかし、十分に現実に近づいている。水中の外乱又は受信器の副作用物は、均等化に関する問題に繋がる。このように、ストリーク管のブロブ、即ちMLO画素は正確には等しくないだろう。概して、それは検知器の役に立つ。
λij/Ajf(i) (13)
式(13)は目標を含む画素を除き、常に1つである。これはWBCが目標を含まないと仮定する。勿論、これは現実の場合ではない。しかし、十分に現実に近づいている。水中の外乱又は受信器の副作用物は、均等化に関する問題に繋がる。このように、ストリーク管のブロブ、即ちMLO画素は正確には等しくないだろう。概して、それは検知器の役に立つ。
システム全体に於いて、目標がWBC内に時々あるという事実により、検知に失敗する可能性が、少し生じる。この問題は、WBCをテストして、目標がないことを確かめることにより克服される。これを行う多くの方法がある。
目標がWBCの内にあると判れば、他の列はWBCにあるように選ばれなけばならない。
目標がWBCの内にあると判れば、他の列はWBCにあるように選ばれなけばならない。
上記のシステムは、Aj=Σλijとして修正され、ここで合計は海面下の行にて実行される。海面下の行のグレイレベルの平均を用いることは、1つのグレイレベルを使用するよりも安定している。
検知器は、データ領域(即ち、大凡MLOのサイズ)の統計値を計算し、該統計値をスレッショルドと比較することにより作動する。統計値がスレッショルドよりも大きければ、目標はデータのその地域に存在することが示される。統計値がスレッショルドよりも大きくなければ、目標は示されない。この手順は、目標の捜索にて、データの全地域に徹底的に適用される。目標が示されても、それはMLOかNMLOにまだ分類されなければならない。
本発明は、ストリーク管/CCDカメラ用のデータモデルがポアソン分布(Poisson)として合理的にモデル化されると仮定する。その場合、非均一な強度の目標は、その十分な統計として重み付け合計を有している。
異なるデータモデルがデータに、より良く当てはまる場合、十分な計算容量があれば、上記の式は置き換えられてもよい。
この合計が、1の振幅の方形パルスで重畳されたものと、数学的に等価であることに注意されたい。換言すれば、「1を掛け、加える」は「加える」と等価である。十分な統計は、単に画素値の合計である。性能評価は、十分な統計及びポアソン見込みモデルから分析的に導かれる。図5は、(二次元)検知器の一次元の例である。
均一な強度を仮定することは、検知器が相関性受信器であることを意味する。受信器は、入力データの標準化されたバージョンを格納された矩形テンプレートと比較する。これは、格納されたテンプレート中の対応する画素と、データの地域の各画素をポイントごとに掛け合わせて合計することにより実行される。
次に、標準化された合計は、スレッショルドと比較される。スレッショルドは、連続する検知の「警戒」部分の偽警報割合(FAR)を決定する。検知性能がシステムの要求を下回ることなく、偽警報割合ができるだけ低いように、スレッショルドが設定される。
ALMDS検知器用の格納されたテンプレートは、1つのスーパーフレーム中の行列次元で数の矩形領域である。テンプレートを多次元空間のベクトルであると考えてもよい。
'1'と'0'を使用するテンプレートについて、過剰に単純化された見方は、図6に示される。図6は、機雷の単純なNxNテンプレートである。影が付けられた画素は、目標('1')に相当し、また、明るい画素は背景('0')に相当する。各ボックスは1つの画素を表わす。
図7は、動作システムのより現実的なテンプレートの例を示す。図7は、矩形フィルタの下方範囲(行)対進路の交差の次元を示す。計算を促進するために1と0からなるが、それは、図6に示すものよりはるかに大きなテンプレートである。テンプレート次元はソフトウェアへの入力パラメータである。
以前に記載されたように、単純な2進法のテンプレート(1と0)を選択することにより、計算が促進され得る。これは、以下の2つの理由による:
(1) 各テンプレート位置にて、実行されなければならない乗算/加算は単なる「加算」であり、(2) 次のテンプレート位置に於ける合計は、図8に一次元で示すように、1のデータ値を加え、他のデータ値を引くことにより見出されるからである。図8は、演算を加速する一次元の例である。最初の加算が終了した後に、それに続く各合計は1つの数を加え他の数を引くことにより見出される。
(1) 各テンプレート位置にて、実行されなければならない乗算/加算は単なる「加算」であり、(2) 次のテンプレート位置に於ける合計は、図8に一次元で示すように、1のデータ値を加え、他のデータ値を引くことにより見出されるからである。図8は、演算を加速する一次元の例である。最初の加算が終了した後に、それに続く各合計は1つの数を加え他の数を引くことにより見出される。
二次元に於いて、この工程は以下の如く、実行される。図10のスーパーフレームを考えると、部分和(図11)のフレームは、全ての画素を加算することにより計算され、それらのインデックスは部分和のフレームの画素のインデックス未満又はインデックスに等しい。全ての加算は、矩形フィルタによる畳込み計算を加速するために前もって為されている。
部分和のフレームが作成される理由は、部分和は図9に示すように、わずか3つの加算しか要求しない単純な方法で組み合わせられるからであり、矩形フィルタの出力は(矩形A+矩形D)の和から(矩形B+矩形C)を引いたものに等しい。
部分和のフレームが作成される理由は、部分和は図9に示すように、わずか3つの加算しか要求しない単純な方法で組み合わせられるからであり、矩形フィルタの出力は(矩形A+矩形D)の和から(矩形B+矩形C)を引いたものに等しい。
図10及び図11は、加算された画像を用いて2x2矩形の整合フィルタの計算の実行例を示す。図10に強調されるスーパーフレームの画素値の合計は、18である。
この同じ値は、図9の規則に従って、図11の部分和のフレームからの値を組み合わせることにより得られる。再び、値18が得られる。
この同じ値は、図9の規則に従って、図11の部分和のフレームからの値を組み合わせることにより得られる。再び、値18が得られる。
検知器を信号の強さではなく信号の形状に反応するようにするために、検知器へ送られる画像の全ての領域は単位エネルギーに標準化される。領域内のエネルギーは、L1ノルム法(L1 norm)によって概算され、換言すれば画素値の合計に接近する。
これにより、信号のエネルギーを計算するのに、正方形を合計するコストの高い計算ではなく、部分和の加算画像を再度使用することができる。このように、検知器の出力は実際には、2つの合計の比率である。部分和のフレームは各合計を計算するのに利用される。
図12は、検知器の出力が外部の矩形の中で画素値の合計で除算された内部の矩形中の画素値の合計の比率であることを示す。
図12では、小さな矩形(50)の内部和(整合フィルタの値)は、大きな矩形(52)(データ中のエネルギ)内の外部合計で除算される。
これにより、信号のエネルギーを計算するのに、正方形を合計するコストの高い計算ではなく、部分和の加算画像を再度使用することができる。このように、検知器の出力は実際には、2つの合計の比率である。部分和のフレームは各合計を計算するのに利用される。
図12は、検知器の出力が外部の矩形の中で画素値の合計で除算された内部の矩形中の画素値の合計の比率であることを示す。
図12では、小さな矩形(50)の内部和(整合フィルタの値)は、大きな矩形(52)(データ中のエネルギ)内の外部合計で除算される。
スレッショルドが深さに依存するとの意味に於いて、スレッショルドはまた一般化された。これは、以下のように実行される。各深さ(行)に於ける検知器の出力は、その深さに於ける検知器の平均値及び標準偏差を計算するために利用される。検知器の統計kは、その列に於いて、(検知器の出力χijから自身の行平均
を引いたものを)標準偏差σiで除したものとして、定義される。
それは実際には、スレッショルドと比較される検知器出力の統計kである。
標準的なスレッショルドrbは4.5と同じくらい高いと経験的に決定され、検知の可能性を下げることなく、偽警報割合を著しく減じた。
標準的なスレッショルドrbは4.5と同じくらい高いと経験的に決定され、検知の可能性を下げることなく、偽警報割合を著しく減じた。
検知器は、互いの近傍に多重ヒット(スレッショルド交差)を生じ得る。そのような事象は目標の近傍では一般的である。それが起こる場合、最も大きな統計kを有するヒットが保持される。各列には1つの目標だけが許されるように、アルゴリズムに規則が組み込まれる。これは、クラスタリング・アルゴリズムと呼ばれる。これは、レーダーが目標を透かして見ることが物理的に不可能で、各列が視野方向角度に正確に対応しているからである。
分類器は、目標を分類するのに外観、サイズ及びアスペクト比を使用する。分類器は、入力として二次元の領域(「ポステージスタンプ」として知られている)を採り、該領域はコンタクトに集中した(コンタクトキューブとして知られる)50列、10行の三次元50フレームから構成されるテンソルである。全てのポステージスタンプは、50列毎の50フレームである。ポステージスタンプは、目標の周りの領域の5行を平均化することにより構成される。
外観(texture)は、クリューゲル空間のグレイレベルに依存する行列の簡略版を使用して計算される。サイズとアスペクト比は、レーベンバーグ−マルクワルト・アルゴリズムを使用して、目標の二次元の投影に適合する二次元のガウス強度表面のパラメーターから導き出される。
外観は、目標と偽警報を区別するために利用される主な特徴である。コンタクトが滑らかであるほど、そのコンタクトは一層確かにMLOであろう。一例に於いて、外観は121の数からなるポステージスタンプ内の11の列領域毎に11のフレームについて測定される。
関連する外観の識別器は、クリューゲル空間のグレイレベルに依存する行列に依存する。
ここで、S(i,j|d,θ)は、グレイレベルiがグレイレベルjに対して向かう回数であり、
及び
であれば、
であり、且つ
である。
S関数は、近傍の画素(距離d内)中のグレイレベルの同時確率関数(joint probability function)に似ている。全てのこれから、1つの外観番号が、全ての方向の平均を採ることにより生成される。
関連する外観が、深さに依存するスレッショルドよりも大きければ、コンタクトはMLOであると示される。
海面の目標は、影一致検知(CSD)として知られている付加的な処理段階を経る。図13は、CSDアルゴリズムの重要点を記載するトップレベルのブロックダイヤグラムである。アルゴリズムは、信号(60)を生で検知し、影を検知し(62)、クラスタリングし(64)、目標を検知し(66)及び外観による識別(68)の工程を含んでいる。
信号を生で検知するには、表面層を画素ユニット内の深さn1及びn2の間に収容する。所定の方位角mについては、信号が最大であるとき、n1≦nmax(m)≦n2を深さとする。これは「海面」を定義する。
「海面信号」はS(m、nmax(m)、κ)で表示され、ここでκはフレームのインデックスである。所定のスレッショルドTrawについて、{mp,p=1,2,3…}を一組の方位角にし、そこではスレッショルドを越えて信号がピークになる。即ち、
S(mp、nmax(mp)、κ)≧Traw (22)
S(mp、nmax(mp)、κ)≧Traw (22)
この工程の出力は、方位角が検知されたピークの関数として、ピークが検知された深さである。
nmax(mp)(p=1,2,3…) (23)
nmax(mp)(p=1,2,3…) (23)
工程の影検知部では、影の存在は、生の検知段階で見つかったピーク方位角{mp,p=1,2,3…}で調べられる。所定のmpについて、影の確認は、方位角画素mpの回りに集中した3・(2Δm+1)画素を用いて「影深さ」で行なわれる。
nshadow=nmax(mp)+noffset, (24)
nshadow=nmax(mp)+noffset, (24)
図14は、△m=2の場合の影検知スキームを描く。影の確認工程の第1段階は、ローパスフィルタリングである。これは、単純な5点の三角形フィルタを用いて、信号を畳み込むことにより達成することができる。濾過された画素値は、以下によって与えられる。
S(−1)=S(2),S(0)=S(1),S(16)=S(15)及びS(17)=S(14) (27)
Pcenter<Pleft 及び Pcenter>Pright (28)
であれば、影は表現される。
であれば、影は表現される。
この工程は、noffsetから開始してN個の異なる深さで、繰り返される。その後、N個の影からM個を検知する基準が課せられて、調査(interrogation)中のピーク信号が影を有するか否かを決定する。
クラスタリング及び一致した影の検知については、影検知工程の出力はデータキューブであり、三次元中の影が検知された位置の組は(ms,ns,κ)である。
この例において、海面の目標に厳密に対処しているので、このデータキューブは深さ次元で崩壊し、クラスタリングは方位角でのみ行われる。表面下の目標検知が対象の場合、この手順は有効ではない。結果はデータシートである、即ち、方位角及び軌跡に沿う次元内にある影検出位置の二次元配列(ms,κ)である。
この例において、海面の目標に厳密に対処しているので、このデータキューブは深さ次元で崩壊し、クラスタリングは方位角でのみ行われる。表面下の目標検知が対象の場合、この手順は有効ではない。結果はデータシートである、即ち、方位角及び軌跡に沿う次元内にある影検出位置の二次元配列(ms,κ)である。
方位角「クラスタリング・ウィンドウ」のサイズをmwとする。一致した影を検知するプリカーサーとして、ウィンドウ内のデータは方位角次元で崩壊する。
図15に図示するように、クラスタ処理は進む。
図15に図示するように、クラスタ処理は進む。
図16は、「スライディングウィンドウ」クラスタリング(単一ストライドを具えた)の結果を示す。図16では、M番目の行は、M番目の方位角から(M+mw−1)番目の方位角に延びるクラスタリングウィンドウ内に生じる検知の投影(projection)を示す。
一実施例に於いて、検知の基準は、連続した5つの影の最小値、又は7つの影の中から6つの最小値(8つの中の7つ、9つの中の8つの様でもよい)の何れかである。
それらの間に2つ以上の連続する影が見当たらない場合、2つの検知は、軌跡に沿う次元で個別であると考えられる。
それらの間に2つ以上の連続する影が見当たらない場合、2つの検知は、軌跡に沿う次元で個別であると考えられる。
この基準を満たす影検知のグループについては、方位角及び検知された対象物のフレームは、グループ内の方位角及び検知のフレーム数によって決定される。
差別化はシンチレーション計数を使用して実行され得る。目標信号の一時的な変化は、目標の中心方位角で検討される。一定数以上のシンチレーションが生じる場合、コンタクトはMLOであると考えられない。これを表示するシンチレーション及びシンチレーションのスレッショルド番号は、経験的に決定される。
指数関数的減衰のモデルが仮定される場合、変数κlidarは水からのライダーエコーの減衰係数である。κlidarを評価するアルゴリズムの微分は、容積測定のリターンが水中の繰り返し往復の減衰に比例した強度を持っているとの観察から始まる。
別の記述の観点から、
即ち、2つの隣接した行の容積測定のリターンの比は理想的には、定数である。いくつかの比率は平均化されて、より多くの安定した評価を作り出す。操作上、ソフトウェアでは、4行が平均化される、なぜならこれらの行に最も多くの有効数字があるからである。
システム有効度インデックス(SEI)は、探索された(任務中に計算された)水量及びデータ初期化中の十分な深さ性能を生成すること(k′z′)についての評価されたk値(kest)に基づいて計算される。
SEIは次のように計算される:
SEI=(k′z′)/kest)
システムは、更に十分な深さ性能を生成するためのデフォルト値を計算する。
SEI=(k′z′)/kest)
システムは、更に十分な深さ性能を生成するためのデフォルト値を計算する。
そこで、
ここで、Kdは拡散減衰の測定値であり、K′dは任務が計画された時の拡散減衰の予測値であり、z′は深さ探知の仕様である。例えば、K′dは光学海洋学教科書中のテーブル、又は海軍MEDALシステムから得られる海洋のその部分についての拡散減衰の値であるかも知れない。
SEIは距離を測定する。SEIPIDSは、以下のように開発された。特定の深さz′に於けるATRPd及びFAR性能は、生成物K′dZ′によって決定され、ここでK′dは予測された拡散減衰である。
拡散減衰の測定値Kdが予測値と異なれば、減衰物が一定に保たれる限り、新たな深さzで同じ性能が達成される。即ち、
Kdz=K′dz′ (39)
Kdz=K′dz′ (39)
このように、システムの有効性は現実的で、絶対的な深さであり、予想される拡散減衰K′dを用いて、特定の深さz′で予想されたものと、同じ性能が得られた。
発明は幾つかの実施例について記載されてきたが、以下の請求の範囲に示した発明の範囲から離れることなく、記載された実施例に種々の変更が為され得ることは当業者ならば明白であろう。
Claims (21)
- 光が透過する媒体内、又は該媒体に浮いている対象物を検知する方法であって、
対象領域の複数の画像を捉える工程と、
画像からボクセルデータを抽出する工程と、
ボクセルデータを処理して、対象領域の対象項目を検知し且つ分類する工程とを有する方法。 - 更に、ボクセルデータの歪みを戻す工程を有する、請求項1に記載の方法。
- 対象領域の複数の画像を捉える工程は、
送信されたビームをレーダー送信器から対象であるボクセルに伝搬する工程と、
反射されたビームを対象であるボクセルからレーダー送信器に伝搬する工程を有する、請求項1に記載の方法。 - 更に、ボクセルデータを処理して、副産物が誘発されたシステムを除去する工程を有する、請求項1に記載の方法。
- 画像からボクセルデータを抽出する工程は、連続した画像フレームの一群をスーパーフレームに平均化する工程を有する、請求項1に記載の方法。
- 各スーパーフレームは、以前及びそれに続く後のスーパーフレームと、複数の画像フレームを共有する、請求項5に記載の方法。
- 更に、光が透過する媒体の表面の歪みを戻す工程と、
標準的な列に基づいて適応衰滅モデルを用いて深さに依存した強度均等化を実行する工程を有する、請求項1に記載の方法。 - 減衰係数klidarとして知られる水の混濁度の測定は、標準的な列から評価される、請求項7に記載の方法。
- ボクセルデータを処理して、対象領域の対象項目を検知する工程は、
ボクセルデータの正規化された部分行列を、格納されたテンプレートと比較する工程を有する、請求項1に記載の方法。 - ボクセルデータの正規化された部分行列を、格納されたテンプレートと比較する工程は、
ボクセルデータの各画素と、テンプレートに格納された対応する画素とポイントごとに掛け合わせて合計して、合計を生成する工程と、
合計を正規化する工程と、
合計をスレッショルドと比較する工程を有する、請求項9に記載の方法。 - 部分的な合計の行列は、ボクセルデータの正規化された部分行列と格納されたテンプレートとの比較演算を加速するのに用いられる、請求項10に記載の方法。
- スレッショルドは深さに依存する、請求項10に記載の方法。
- 検査対象の対象項目を分類する工程は、外観、サイズ及びアスペクト比を用いて目標を識別する、請求項1に記載の方法。
- 検査対象の表面項目は、影一致探知が行われる、請求項1に記載の方法。
- 更に、検査対象の対象項目を集める工程を有する、請求項1に記載の方法。
- 対象の表面項目について、ボクセルデータは深さ次元に折り畳まれ、集める工程は方位角のみに行われる、請求項15に記載の方法。
- 対象領域の複数画像を捉える複数のセンサと、
画像からボクセルデータを抽出し、該ボクセルデータを処理して対象領域の対象項目を検知するプロセッサを具えた装置。 - プロセッサは、ボクセルデータの歪みを戻す、請求項17に記載の装置。
- プロセッサは、続いた画像フレームのグループをスーパーフレームに平均化する、請求項17に記載の装置。
- 各スーパーフレームは、前の及び次のスーパーフレームと複数の画像フレームを共有する、請求項19に記載の装置。
- プロセッサは、対象項目を分類する、請求項17に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/654,886 US7916933B2 (en) | 2007-01-18 | 2007-01-18 | Automatic target recognition system for detection and classification of objects in water |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008292449A true JP2008292449A (ja) | 2008-12-04 |
Family
ID=39641241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008007644A Withdrawn JP2008292449A (ja) | 2007-01-18 | 2008-01-17 | 水中で対象物を検知し分類する自動目標識別システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US7916933B2 (ja) |
JP (1) | JP2008292449A (ja) |
KR (1) | KR20080068569A (ja) |
AU (1) | AU2008200193A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8131065B2 (en) * | 2007-12-20 | 2012-03-06 | Intel Corporation | Method and apparatus for obtaining and processing image features |
US8509538B2 (en) * | 2007-12-20 | 2013-08-13 | Intel Corporation | Method and apparatus for obtaining and processing Gabor image features |
EP2246806B1 (en) * | 2009-04-29 | 2014-04-02 | Autoliv Development AB | Vision method and system for automatically detecting objects in front of a motor vehicle |
WO2010131043A1 (en) * | 2009-05-14 | 2010-11-18 | Bae Systems Plc | Object classification |
EP2430590A1 (en) | 2009-05-14 | 2012-03-21 | BAE Systems PLC | Object classification |
JP2013012267A (ja) | 2011-06-29 | 2013-01-17 | Toshiba Corp | 不揮発性半導体記憶装置 |
US9092866B1 (en) | 2012-03-14 | 2015-07-28 | Lockheed Martin Corporation | Airborne mine countermeasures |
CN102692625A (zh) * | 2012-05-15 | 2012-09-26 | 哈尔滨工程大学 | 一种Rn空间中的水底目标回波和混响的特征联合建模方法 |
ITUD20120187A1 (it) * | 2012-11-07 | 2014-05-08 | Eidon Lab S C A R L | Apparecchiatura e procedimento di rilevazione per rilevare ostacoli alla navigazione per via d'acqua |
US10502820B2 (en) | 2013-02-13 | 2019-12-10 | Farsounder, Inc. | Integrated sonar devices and methods |
KR101527584B1 (ko) * | 2013-10-18 | 2015-06-16 | 한국해양과학기술원 | 레이다를 이용한 해양 내부파 측정 방법 |
US9424470B1 (en) | 2014-08-22 | 2016-08-23 | Google Inc. | Systems and methods for scale invariant 3D object detection leveraging processor architecture |
CN104516028A (zh) * | 2014-12-09 | 2015-04-15 | 佛山市顺德区元智电子技术有限公司 | 一种激光测距识别物体方法 |
CN105005089A (zh) * | 2015-06-08 | 2015-10-28 | 上海交通大学 | 基于计算机视觉的机场道面异物探测系统与方法 |
CN105059504A (zh) * | 2015-07-24 | 2015-11-18 | 侯贻平 | 去除散射光的潜水携带装置 |
CN105129052A (zh) * | 2015-07-24 | 2015-12-09 | 王翠平 | 一种水下人体搜寻方法 |
TWI683276B (zh) * | 2017-11-10 | 2020-01-21 | 太豪生醫股份有限公司 | 病灶偵測裝置及其方法 |
US20200057161A1 (en) * | 2018-08-17 | 2020-02-20 | Bae Systems Information And Electronic Systems Integration Inc. | Obstacle sensing using lidar |
CN111413702B (zh) * | 2020-05-13 | 2022-04-05 | 中国水产科学研究院渔业机械仪器研究所 | 用于宽带探鱼仪的高效目标分割方法 |
CN113240026B (zh) * | 2021-05-24 | 2022-03-25 | 中国科学院重庆绿色智能技术研究院 | 一种矢栅结合的内陆水面漂浮物批量识别提取方法 |
CN115100688B (zh) * | 2022-07-20 | 2023-04-07 | 水电水利规划设计总院有限公司 | 一种基于深度学习的鱼类资源快速识别方法和系统 |
CN115328988B (zh) * | 2022-10-14 | 2023-01-24 | 山东商业职业技术学院 | 一种基于大数据和互联网的信息管理方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4862257A (en) * | 1988-07-07 | 1989-08-29 | Kaman Aerospace Corporation | Imaging lidar system |
US5231401A (en) | 1990-08-10 | 1993-07-27 | Kaman Aerospace Corporation | Imaging lidar system |
US5276632A (en) | 1990-08-10 | 1994-01-04 | Kaman Aerospace Corporation | Method and apparatus for improved visual display of a target viewed by an imaging sensor device |
US5270780A (en) | 1991-09-13 | 1993-12-14 | Science Applications International Corporation | Dual detector lidar system and method |
US5243541A (en) | 1991-10-11 | 1993-09-07 | Kaman Aerospace Corporation | Imaging lidar system for shallow and coastal water |
US5457639A (en) | 1991-10-11 | 1995-10-10 | Kaman Aerospace Corporation | Imaging lidar system for shallow and coastal water |
US5446529A (en) * | 1992-03-23 | 1995-08-29 | Advanced Scientific Concepts, Inc. | 3D imaging underwater laser radar |
US5886661A (en) | 1993-04-16 | 1999-03-23 | The United States Of America As Represented By The Secretary Of The Navy | Submerged object detection and classification system |
US5822047A (en) | 1995-08-29 | 1998-10-13 | The United States Of America As Represented By The Secretary Of The Navy | Modulator LIDAR system |
US6963354B1 (en) | 1997-08-07 | 2005-11-08 | The United States Of America As Represented By The Secretary Of The Navy | High resolution imaging lidar for detecting submerged objects |
NL1008276C2 (nl) | 1998-02-11 | 1999-08-12 | Hollandse Signaalapparaten Bv | Detectieinrichting. |
US6836285B1 (en) | 1999-09-03 | 2004-12-28 | Arete Associates | Lidar with streak-tube imaging,including hazard detection in marine applications; related optics |
US6512838B1 (en) * | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US6255980B1 (en) | 1999-11-12 | 2001-07-03 | The United States Of America As Represented By The Secretary Of The Navy | Radar-acoustic hybrid detection system for rapid detection and classification of submerged stationary articles |
US6664529B2 (en) | 2000-07-19 | 2003-12-16 | Utah State University | 3D multispectral lidar |
US7035166B2 (en) * | 2002-10-21 | 2006-04-25 | Farsounder, Inc. | 3-D forward looking sonar with fixed frame of reference for navigation |
US7417666B2 (en) * | 2003-04-01 | 2008-08-26 | University Of South Florida | 3-D imaging system |
US7068815B2 (en) * | 2003-06-13 | 2006-06-27 | Sarnoff Corporation | Method and apparatus for ground detection and removal in vision systems |
US7391907B1 (en) * | 2004-10-01 | 2008-06-24 | Objectvideo, Inc. | Spurious object detection in a video surveillance system |
-
2007
- 2007-01-18 US US11/654,886 patent/US7916933B2/en active Active
-
2008
- 2008-01-15 AU AU2008200193A patent/AU2008200193A1/en not_active Abandoned
- 2008-01-17 JP JP2008007644A patent/JP2008292449A/ja not_active Withdrawn
- 2008-01-17 KR KR1020080005240A patent/KR20080068569A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
US7916933B2 (en) | 2011-03-29 |
KR20080068569A (ko) | 2008-07-23 |
US20080175434A1 (en) | 2008-07-24 |
AU2008200193A1 (en) | 2008-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7916933B2 (en) | Automatic target recognition system for detection and classification of objects in water | |
US7430303B2 (en) | Target detection method and system | |
US6437728B1 (en) | A-scan ISAR target recognition system and method | |
EP2283380B1 (en) | Target detection in a sar-imaged sea area | |
US20090232355A1 (en) | Registration of 3d point cloud data using eigenanalysis | |
US8422738B1 (en) | Adaptive automated synthetic aperture radar vessel detection method with false alarm mitigation | |
US9235896B2 (en) | Sonar imaging | |
Shahrezaei et al. | Fractal analysis and texture classification of high-frequency multiplicative noise in SAR sea-ice images based on a transform-domain image decomposition method | |
Dolin et al. | Theory of imaging through wavy sea surface | |
JP7386136B2 (ja) | 雲高計測装置、計測点決定方法、および雲種類決定方法 | |
EP3028255B1 (fr) | Dispositif d'aide a la detection d'objets poses sur le sol a partir d'images du sol issues d'un dispositif d'imagerie par reflexion d'ondes | |
Nevis et al. | Advantages of three-dimensional electro-optic imaging sensors | |
CN107729903A (zh) | 基于区域概率统计和显著性分析的sar图像目标检测方法 | |
Del Rio Vera et al. | Automatic target recognition in synthetic aperture sonar images based on geometrical feature extraction | |
Yan | Airborne LiDAR data artifacts: What we know thus far | |
Wiles et al. | Recognition of volcanoes on Venus using correlation methods | |
Narayanan et al. | Classification of SHOALS 3000 bathymetric LiDAR signals using decision tree and ensemble techniques | |
Pyo et al. | Acoustic beam-based man-made underwater landmark detection method for multi-beam sonar | |
Wang | Registration of synthetic aperture imagery using feature matching. | |
CN117237430B (zh) | 一种高精度多时序水深反演方法、计算设备及存储介质 | |
Jähne et al. | An imaging optical technique for bubble measurements | |
de Paula et al. | Bathymetric DEM derived from Lyzenga’s algorithm (multispectral Bathymetry) using Landsat 8 images: a case study of Fort Lauderdale coast | |
James et al. | Blind Estimation of Sonar Images from Diverse Speckle-Scene Models | |
Conder et al. | Automated Impulse Response Detection and Analysis in Synthetic Aperture Radar Imagery. | |
Li et al. | Land-sea classification based on the fast feature detection model for ICESat-2 ATL03 datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110405 |