JP2022504560A - 機械学習を用いた3次元前方探知ソナー標的認識 - Google Patents

機械学習を用いた3次元前方探知ソナー標的認識 Download PDF

Info

Publication number
JP2022504560A
JP2022504560A JP2021519634A JP2021519634A JP2022504560A JP 2022504560 A JP2022504560 A JP 2022504560A JP 2021519634 A JP2021519634 A JP 2021519634A JP 2021519634 A JP2021519634 A JP 2021519634A JP 2022504560 A JP2022504560 A JP 2022504560A
Authority
JP
Japan
Prior art keywords
data
fls
sensor
algorithm
sonar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021519634A
Other languages
English (en)
Other versions
JP7507753B2 (ja
Inventor
マシュー ジェイソン ジマーマン,
ヒース ヘンリー,
オースティン ベラード,
エヴァン ラピスキー,
Original Assignee
ファーサウンダー, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファーサウンダー, インコーポレイテッド filed Critical ファーサウンダー, インコーポレイテッド
Publication of JP2022504560A publication Critical patent/JP2022504560A/ja
Application granted granted Critical
Publication of JP7507753B2 publication Critical patent/JP7507753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52003Techniques for enhancing spatial resolution of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/53Means for transforming coordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022504560000001
機械学習アルゴリズムは、3次元ソナーデータを解読し、海底の深さおよび水中標的の検出および分類のより精密かつ正確な決定を提供し得る。モデルは、体積型データを解読するためのアーキテクチャを3次元前方探知ソナーデータに適用する。訓練データのベースラインセットは、従来の画像および信号処理技術を用いて生成され、機械学習モデルを訓練および評価するために用いられ、機械学習モデルは、海底検出および水中標的検出の両方を向上させるために、追加の入力によってさらに向上させられる。

Description

(関連出願への相互参照)
本願は、2018年10月10日に出願された米国仮特許出願第62/743,768号の利益およびこの出願への優先権を主張し、その内容は、その全体が参照によって援用される。
(本発明の分野)
本開示は、ソナーシステムに関し、特に、3次元前方探知ソナーデータを分析するための機械学習アルゴリズムに関している。
(背景)
暗礁に乗り上げることも、何らかの水面下物体または障害に衝突することもなく、ボートまたは他の航海船を安全にナビゲートすることは、海底または他の水中標的を検出し得るセンサ装備を必要とする。オペレータは、安全な航路を維持するために、センサによってピックアップされたデータを解釈して操作が必要であるか否かを決定することが可能である必要がある。水面下標的を識別することは、他の目的のためにも重要である。例えば、漁船は、海洋生物または他の水中特徴の位置を特定し、識別する必要があり得る。
多くのボートは、水深測量測定のために、および水面下物体の検出のためにソナーに依拠している。ソナーシステムは、音響の伝播を用いて海底をマッピングし、水面下にある物体を識別する。3次元前方探知ソナーシステムは、秒単位で更新する大量のデータを生成し、それは、ボートのオペレータのためにデータを解釈しにくくする。したがって、これらのシステムは、リアルタイムナビゲーション用途へのそれらの適用を制限されていた。
(概要)
本開示は、3次元ソナーデータを解読するために機械学習アルゴリズムを活用するソナーシステムおよび関連方法を提供し、3次元ソナーデータは、従来の検出アルゴリズムで既に利用可能である海底の深さの決定および水中標的の検出および分類のより精密かつ正確な決定、検出および分類を可能にする。開示される機械学習モデルは、本発明が3次元前方探知ソナー(3D-FLS)データに適用した体積型データを解読するためのアーキテクチャに基づく。本発明では、訓練データのベースラインの組が、従来的な画像および信号処理技術を用いて生成され、機械学習モデルを訓練し評価するために用いられる。モデルは、追加のデータ入力を用いてさらに向上させられ、海底および水中標的検出の両方に関する誤った正例および誤った負例を除去する。
モデルによる海底決定は、各種の源からの訓練データを用いて向上させられる。例えば、入力は、独立した参照源からの水深測量調査データ、またはシングルビームもしくはマルチビーム下方探知ソナー等の他のセンサからのデータを含み得、それらのデータは、船の通常の移動のコース中に重複する他の地理的に参照される入力データに関連付けられ得る。3次元後方散乱強度データに関する手動ラベル編集ツールは、オペレータによって実装されて、さらに訓練データを向上させ得る。一組のベースライン訓練における海底検出を向上させ拡大させるために用いられ得る他の入力が本明細書中で説明される。訓練データ内の海底ポイントのさらなる距離および数は、追加の入力特徴、パラメータ、または層を有する機械学習モデルによってフィッティングさせられ得る。より多くの特徴がモデルに入力されるにつれて、層および訓練可能なパラメータの数が増加させられ、性能を向上させる。
水中標的に関して、訓練データは、独立した水深測量調査、表面レーダデータ、自動識別システムデータ、歴史上の海図データ、航空調査データ、視覚的観察、魚底引き網捕獲データ、および/または従来的に処理された3Dソナーデータの手動でラベル付けされた出力に由来する地理的に参照される水中標的場所を含む。
本発明のシステムは、教師有り機械学習アルゴリズムによってソナーセンサのデータから標的検出および標的分類を抽出することが可能なソナープロセッサを含む。アルゴリズムへの入力は、ソナーセンサからの後方散乱強度の3次元アレイと、随意に、1つ以上の追加的入力とを含む。追加の入力は、センサロール方位、センサピッチ方位、センサヒーブ、1次元、2次元または3次元のセンサの回転速度、センサの進行方向、センサのコース、センサの緯度/経度、水温、水の塩分、船の速さ、船のコース、1次元、2次元または3次元のセンサ加速度測定値であり得る。
本発明の側面は、水面下特徴を検出し分類するための方法を提供する。方法は、3次元前方探知ソナー(3D-FLS)データを取得することと、入力として3D-FLSデータを機械学習アルゴリズムに提供することと、アルゴリズムを用いて3D-FLSデータ内の特徴を検出し、特徴を海底または水中標的として分類することとを伴う。
実施形態において、3D-FLSデータは、後方散乱強度データのポイントクラウドであり、それは、ボートの船体に搭載された3D-FLSシステムから取得され得る。3D-FLSデータは、センサ加速度読み取り値、ジャイロスコープ読み取り値、センサロール方位、センサピッチ方位、センサヒーブ、センサの進行方向、センサのコース、センサの緯度、センサの経度、水温、水の塩分、および/または音速プロファイル等、追加のデータまたはメタデータも含み得る。アルゴリズムは、3D-FLSシステムに動作可能に接続されたプロセッサにおいて実行され得る。
いくつかの実施形態では、アルゴリズムは、畳み込みニューラルネットワークである。アルゴリズムは、ラベル付けされた3D-FLS訓練データにおいて訓練され得、3D-FLSデータ内の各ポイントに関する分類を備えている出力を生成し得、分類は、ポイントが(i)海底、(ii)水中標的、または(iii)背景に対応する可能性を表す。いくつかの実施形態では、水中標的は、航跡、ブイ、魚、ボート、および/またはエンジンノイズとしてさらに分類される。
方法は、二次源からデータを取得することと、ラベル付けされた3D-FLS訓練データを二次源データによって向上させることとをさらに伴う。二次源は、例えば、手動でラベル付けされた体積型後方散乱強度データ、参照源からの水深測量調査データ、3D-FLSデータと同一の船または異なる船から取得されたマルチビーム音響測深機データ(MBES)、3D-FLSデータと同一の船から取得された同一の船から取得されたシングルビーム音響測深機データ(SBES)、異なる角度で、または異なる時間に同一のソナーシステムから取得された3D-FLSデータ、海図データ、レーダデータ、および自動識別システム(AIS)データであり得る。二次源データは、位置、速さ、および進行方向に関する情報を備え得る。
関連する側面において、本発明は、水面下特徴のリアルタイム検出および分類のためのシステムを提供する。システムは、船の前方の領域に音波を照射し3D-FLSデータを収集するように構成された3次元前方探知ソナー(3D-FLS)デバイスと、3D-FLSデバイスに動作可能に結合されたプロセッサとを含み、プロセッサは、3D-FLSデータにおいて機械学習アルゴリズムを実行し、3D-FLSデータ内の特徴を検出して分類するように構成され、特徴は、海底と水中標的とを備えている。
実施形態において、3D-FLSは、ボートの船体に搭載され、3D-FLSが取得するデータは、後方散乱強度データの体積型ポイントクラウドを形成するソナー帰還信号である。3D-FLSデータは、センサの加速度読み取り値、ジャイロスコープの読み取り値、センサのロール方向、センサのピッチ方向、センサのヒーブ、センサの進行方向、センサのコース、センサの緯度、センサの経度、水温、水の塩分、および/または音速プロファイル等のデータまたはメタデータをさらに含み得る。システムは、特徴をそれらの分類または分類可能性を示すラベルと一緒に表示するためのディスプレイをさらに含み得る。
実施形態において、アルゴリズムは、畳み込みニューラルネットワークであり得る。アルゴリズムは、ラベル付けされた3D-FLS訓練データにおいて訓練され得る。アルゴリズムは、3D-FLSデータ内の各ポイントに関する分類を備えている出力を生成するように構成され得、分類は、ポイントが(i)海底、(ii)水中標的、または(iii)背景に対応する可能性を表す。実施形態において、プロセッサは、手動でラベル付けされた体積型後方散乱強度データまたは海底データによって訓練データを向上させるようにさらに構成されている。システムは、プロセッサに動作可能に接続され参照海底データを取得するように構成された音響測深機等の下方探知ソナーも含み得る。アルゴリズムは、異なる角度でまたは異なる時間に3D-FLSデバイスから収集された3D-FLSデータにおいても訓練され得る。プロセッサは、航跡、ブイ、魚、ボート、および/またはエンジンノイズとして水中標的を下位分類するようにさらに構成され得る。
図1は、3D前方探知ソナーシステムを示している。
図2は、3D-FLSを用いた単一のピングからの標的強度値の3D投影の例を示している。
図3は、信号および画像処理技術のフローチャートを示している。
図4-図6は、センサのピングに関連付けられた調査データを示している。 図4-図6は、センサのピングに関連付けられた調査データを示している。 図4-図6は、センサのピングに関連付けられた調査データを示している。
図7および図8は、移動する船の経路に沿ったデータ収集を例証している。 図7および図8は、移動する船の経路に沿ったデータ収集を例証している。
図9は、本発明の使用のための例示的コンピュータ環境を示している。
図10および図11は、2つの体積型モデルの性能の例を示している。 図10および図11は、2つの体積型モデルの性能の例を示している。
(詳細な説明)
本開示は、ナビゲーション用途のための3D-FLSデータにおける自動リアルタイム標的検出のためのシステムおよび方法を提供する。本発明において、3D-FLSセンサは、データの体積型ポイントクラウドを生成し、データは、海底および水中標的の両方を検出するように構成されたアルゴリズムによって解読される。本発明のアルゴリズムは、3D-FLSデータから学習すること、および3D-FLSデータに基づいて予測を作成することの両方ができ、従来の画像および信号処理技術に比べて優れた出力を提供する。アルゴリズムは、以下で説明されるように、1つ以上の二次データ源に基づいて訓練することによってさらに向上させられ得る。
本発明の船は、船体に取り付けられたトランスデューサモジュールを有し得、トランスデューサモジュールは、1つ以上のソナー伝送トランスデューサまたはソナー受信トランスデューサを含み、随意に、本明細書中で説明されるアルゴリズムを実行するためのソナー処理電子機器、本明細書中で説明されるデータ収集を実行するためのソナー処理電子機器、本明細書中で説明される訓練を実行するためのソナー処理電子機器、および本明細書中で説明される処理機能を実行するためのソナー処理電子機器のうちのいくつかまたは全てを含み得る。好ましくは、トランスデューサ内のユニットは、船内または遠隔に位置し得るオペレータにアクセス可能なディスプレイユニットに結合されている。そのようなトランスデューサモジュールを有するソナーシステムは、例えば、海底調査、水雷検出、および釣り等の娯楽的趣味を含む各種の目的のために用いられ得る。ソナーアレイのうちの少なくとも1つは、前方探知ソナーであり、前方探知ソナーは、ボートの先の危険な浅瀬および障害物、または、難破船、岩山、魚、もしくは他の海洋生物のような他の水中物体を検出するために用いられ得る。以下で説明されるように、音響測深機等の他のセンサも本発明に対応可能である。
図1は、特定の実施形態による3D前方探知ソナー(3D-FLS)システム111を描写している。前方探知ソナーシステム111は、伝送デバイス119と受信アレイ115とを含む。レシーバの静電容量特性に起因して、レシーバプリアンプは、各レシーバ要素の近くに位置付けられ得る。レシーバのチャンネル数に起因して、残りのレシーバ電子機器は、トランスデューサモジュール内に位置付けられている可能性が最も高い。これは、トランスデューサモジュールからプロセッサモジュールに伸びることを必要とされる個々の導体の数を低減させる。前方探知システム111は、単一のピングで船の前方の3次元画像を生成することが可能である。実施形態において、前方探知システム111レシーバアレイ115は、アレイが鉛直方向性および水平方向性の両方を有するように向けられた要素を有する2次元アレイから成る。本発明の1つの実施形態では、従来的なビーム形成が、鉛直方向および水平方向の両方において活用されている。別の実施形態では、ビーム形成が水平方向において活用され、干渉法が鉛直方向において用いられる。この実施形態の1つのバリエーションでは、レシーバ要素は、水平の向きより鉛直の向きに長いような形状である。上の実施形態の1つのバリエーションでは、レシーバアレイは、平坦でない形状に適合している。3Dソナーシステムは、米国特許第7,035,166号および米国特許公報第2015/0369908号において説明されており、それらの各々の内容が、参照によって援用される。
好ましい実施形態では、伝送トランスデューサ119は、受信アレイ115から分離しており、伝送トランスデューサ119は、単一の伝送が船の前方の対象体積全体に音波を照射でき、この対象体積がレシーバシステムの鉛直範囲および水平範囲全体に対応するように十分大きい水平および鉛直のビームパターンを有する。この実施形態の1つのバリエーションでは、トランスミッタは、2つ以上の水平の行から成り、それによって、伝送されるビームパターンは、標準的なフェイズドビーム操向または時間遅延ビーム操向の使用によって鉛直方向に操向させられ得る。前方探知システムは、好ましくは、トランスデューサモジュール内に収容されている。
3D-FLSシステムの課題の1つは、それらが人間のオペレータによってリアルタイムで解読することが困難であり得ることである。3D-FLSシステムは、体積型ポイントクラウドの形式で大量のデータを生成し、体積型ポイントクラウドは、ソナーシステムのピング毎に秒単位で更新する。迅速に変化する大量のデータに起因して、人間のオペレータがデータを用いてリアルタイムで船をナビゲートすることは、非常に困難である。
したがって、本開示は、3D-FLSデータを解釈し表示するための機械学習モデルを用いたリアルタイムでのナビゲーションのためのソナーベースのシステムのための自動標的認識を提供する。自動標的認識アルゴリズムも、ナビゲーション用3D-FLSの自律的適用のために用いられ得る。本発明の実施形態では、ナビゲーション用3D-FLSシステムは、船の前方(概して、左舷および右舷に対して60度で約1000メートル前方、または左舷および右舷に対して90度で約500メートル前方)の体積に音波を照射し、船首に搭載されたトランスデューサアレイを用いて後方散乱レベルを収集する。結果として生じるデータは、船の前方における標的強度値の3Dポイントクラウドを提供する。概して、システムは、数秒に一度、例えば1.6秒に一度ピングする。
図2は、3D-FLSを用いた単一のピングからの標的強度値の3D投影の例を示している。ポイント201に位置付けられた船は、前方探知方向にソナー信号を発する。データは、比較的低い信号対ノイズ比(SNR)を有する後方散乱情報の高密度なクラウドである。明確性のために、図は、鉛直平面210、水平平面220、および放射面230を示しているが、辺250によって画定される体積全体を表すデータが取得されることが理解されるべきである。システムは、ピング毎に新たな体積型ポイントクラウドを取得する。
結果として生じるデータは、トランスデューサアレイによって処理される。図2に示される視覚化において、音調の変動は、デシベルでの標的強度に対応している。オペレータが生ソナーデータを視覚的に調べて海底および任意のナビゲーション危険物の場所を識別することは、多大な訓練および注意深さを必要とするであろう。全体のデータセットが高速で新しくなる場合、データを人力で監視して標的を認識しナビゲーションを決定することは、困難な作業である。したがって、本明細書中で説明される自動標的認識アルゴリズムは、ナビゲーション用3D-FLSデータの使用および理解の容易さを増加させる。
図2に示されるように3D-FLSを用いて取得された後方散乱結果の3Dポイントクラウドを活用するために、データは、エンドユーザにとって理解することが容易である態様で処理され、提示されなければならない。図3は、従来の信号および画像処理技術を用いて、データ内の標的を検出し、船の前方の海底および任意のナビゲーション危険物の場所に関する情報を取得する処理チェーン300のフローチャートを示している。ビームフォーマ310は、前方向に伝送されレシーバのアレイによって受信されるソナー信号から角度の関数として後方散乱信号の体積型プロットを生み出す。ソナーの戻りは、標的抽出部321および標的分類部322によって定義される検出アルゴリズム320に入る。標的抽出部321は、データ内の物体を表す可能性が高い特徴を決定し、標的分類部322は、特徴が海底、水中標的、または背景のどれであるかを識別する。標的分類部322は、船の向きを示すピッチロールセンサ330等の他のセンサからの入力も受信する。表面クラッター残響除去フィルタ340は、海面クラッターを示すデータ内のエコーを識別し、クラッターを引き起こす体積または表面の知識を標的分類部322に提供する。これらの入力を用いて、標的分類部322は、水中標的モデル350および海底モデル360を生成する。これらのモデルは、海底および水中標的の両方を示す単一のディスプレイ370に結合され、ディスプレイ370は、船のナビゲーションのためにオペレータによって使用され得る。加えて、水中標的は、航跡、ブイ、魚、動く標的、静止標的、ボート、または関連ノイズ(例えば、エンジンノイズ)を含む各種の下位分類にさらに分類され得る。
本発明の検出アルゴリズムは、リアルタイムでデータを解釈し得る機械学習モデルである。開示される機械学習ベースの標的検出方法は、ソナー用途のために開発されてきた他の標的検出方法または標的認識方法を向上させる。従来の方法は、固定閾値または適応性閾値のいずれかを用いてソナーの戻り内のピークを決定し、データのポイントを分類することに基づいている。エッジ検出等の画像処理技術は、標的をアルゴリズム的に検出するために閾値処理と組み合わせて用いられ得る。
本発明において、機械学習アルゴリズムを実行するプロセッサは、船の前方の体積を走査する3D-FLSから、後方散乱強度データの3Dポイントクラウドを取得する。開示されるシステムは、データに機械学習モデルを適用し、ソナーのピングサイクル時間内の単一のピングから収集されたソナーデータを処理する。
3D畳み込み層を実装する畳み込みニューラルネットワーク(CNN)は、画像セグメンテーションおよびソナーデータによって提示される物体検出問題のために特に有用なモデルである。CNNフレームワークは、ソナー画像内の水雷のような物体または小型遠隔操作船の検出のために用いられてきた。しかし、従来の前方探知ソナー画像内の物体検出における先行の試行は、前方探知ソナーデータにおける典型的に低い信号対ノイズ比および公共的に利用可能なラベル付けされたデータの不足に起因して、効果的ではなかった。先行の前方探知ソナー画像検出は、短範囲高分解能2D撮像ソナーを考えていた。今回開示されるシステムおよび方法は、3D-FLSデータを用い、標的強度または後方散乱強度値の3Dポイントクラウドを生成し得る。
データの体積型ポイントクラウドを分析するためのいくつかのCNNフレームワークが、自律運転用途、ならびに、MRIおよび共焦点顕微鏡データ等の医療撮像用途において用いられてきたが、ここで開示されるモデルは、初めて3D-FLSデータを用いる。加えて、開示されるモデルは、アルゴリズムを向上させるために他の二次データ源を提供し、それによって、3Dデータのための既に公知のCNNベースのモデルに勝る向上した標的検出性能を提供する。
いくつかの実施形態では、開示されるシステムアーキテクチャは、3D U-NetおよびV-Netアーキテクチャ等、体積型データを処理するための公知のCNNアーキテクチャの修正されたバージョンである。アーキテクチャは、Cicek et ak,「3D U―net: Learning dense volumetric segmentation from sparse annotation」,Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 9901 LNCS, pp.424-432, 2016、および、Milletari et ak,「V―Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation,」 pp. 1―11, 2016において説明されており、その両方が参照によって本明細書中に援用される。両アーキテクチャにおいて、特徴層の数は、GPUメモリのフットプリントを低減させるように調整され得る。
3D U-Netおよび3D V-Netアーキテクチャの修正されたバージョンは、3D-FLSデータを処理するために用いられ得る。3D-FLSセンサによって生成される入力データのサイズに起因して、体積型畳み込みにおいて用いられるフィルタの数は、U-netモデルおよびV-Netモデルの両方から低減させられ、それによって、8GB Nvidia GTX 1070 GPUにおけるメモリリソースを使い果たすことなく正しく訓練され得る。代替的実施形態において、これは、より多くの利用可能なGPUメモリを有するシステムにおいて実行され得る。しかしながら、現在(4GBのGPUメモリを有する)Nvidia GTX 1050で指定されているコンピュータにおいてリアルタイム標的検出用ネットワークを展開するために、フィルタの数が低減させられ得る。
代替的実施形態では、これらのモデルの2Dバージョンが、3D畳み込みを2D畳み込みに切り替えることによって作り出され得、3D入力データの2Dスライスをモデルに入力することによってテストされ得る。同一のサイズのGPUメモリフットプリントに関して、モデルの2Dバージョンは、データを通した隣接するスライスに関する情報を無視しつつ、より多くのフィルタが各層において考慮されることを可能にする。
本開示は、概して、画像セグメンテーションおよび物体検出動作のためのCNNにおける実装を言及しているが、本テクノロジが概して教師有り機械学習に適用可能であり、特定のタイプの機械学習アルゴリズムに依存しないことが理解されるべきである。モデルは、異なるネットワークアーキテクチャおよび損失関数、オプティマイザ、ならびに/またはハイパーパラメータの組み合わせに対応可能である。ネットワークアーキテクチャは、所与の用途のための任意の機械学習ベースのモデルの効力のために重要であり、3Dデータを処理するための多くの異なるシステムアーキテクチャが、本明細書中で開示される方法において用いられ、および/または向上させられ得る。
モデルがCNNかまたは他のタイプの教師有り機械学習アルゴリズムであるかどうかに関わらず、モデルは、図2に示されるアレイ等の後方散乱強度の3次元アレイの入力を用いて訓練される。そのようなアレイ内のボクセルの数は、数百万の単位である。ラベル付けされたデータの初期訓練の組は、センサレベルデータを人間が読み取り可能な検出マップに変換するために、図3に示されるアルゴリズム等の従来のアルゴリズムによって生成され得る。いくつかの実施形態では、訓練データは、以下でより詳細に議論される方法によって、手動で、または従来の後処理アルゴリズムによって、外れ値を除去され得る。アルゴリズムは、出力として、入力体積内の各ポイントに関する「クラス」ラベルを生成し、(1)背景、(2)海底、または(3)水中標的のいずれかとしてポイントを識別する。これは、最初の3次元での入力と同一形状であるが最後に付与された3要素ベクトルの追加の次元を有する出力を生み出す。最後の次元における3要素ベクトルは、ボクセルが背景、海底、または水中標的である可能性を表す。
従来の処理アルゴリズムから開発された訓練データにおいて機械学習モデルを訓練することに加え、本発明は、さらなる入力を含み、さらなる入力は、検出器の性能を高めるために追加され得る。これらの入力は、二次源からのラベル付けされたデータであり得、それらは、3D-FLSデータ入力を向上させることを助ける。いくつかの実施形態では、二次データは、信頼性のある基準源から、またはクラウドソーシングされたデータからのものである。他の実施形態では、手動でラベル付けされたデータが追加される。いくつかの実施形態では、ソナー以外の他のタイプのセンサからのデータが、3D-FLSデータを増強させるために用いられる。システムが新たな信号を動作させて解読しているとき、アルゴリズムは、これらの入力に基づいて継続的に訓練され得る。
手動でラベル付けされた海底または水中標的は、訓練データに追加され得る。手動でラベル付けされたデータは、船の航跡またはエンジンノイズの干渉等、オペレータによって認識され得る特定の所望されない特徴を除去するために特に有用である。船の航跡またはエンジンノイズの干渉等の標的を検出し続けるようにモデルを訓練することを避けるために、随意の実施形態において、本発明は、データからそれらの特徴を手動で取り払うためのツールを提供する。ツールは、ソナーオペレータが相互作用し得るディスプレイに動作可能に結び付けられ得る。オペレータは、ディスプレイで各ピングを調べ、クラッター、航跡、または干渉として識別されたオブジェクトのいくつかをタグ付けし得る。したがって、これらの手動でラベル付けされたタグでモデルを訓練することによって、アルゴリズムは、実際の標的を示していない特定の検出を無視することを学習し得る。
手動でラベル付けされたデータに加え、アルゴリズムは、入力として他の源からのデータも受け入れ得る。本発明は、海底および水中標的(IWT)の2つの特徴のクラスの各々におけるデータを訓練することを向上させるために異なる手法を想定している。これらの手法は、互いに別々に、または一緒に用いられ得る。
海底検出は、深さに関する情報の他の源を参照して向上させられ得る。概して、海底検出は、船の前方の海底の深さを測定する。しかしながら、本発明では、これらの測定は、既知の基準源からの訓練データで補足され得る。例えば、National Oceanic and Atmospheric Administration (NOAA)によって収集された水深測量調査データが、3D-FLSによって生成される海底の検出を補足するために用いられ得る。NOAA調査データは、より高い分解能のセンサ(マルチビーム音響測深機)を用いて収集され、水路測量技師による後処理で洗練されているので、部分的に有用な補足である。したがって、領域が比較的最近調査されたことを仮定すると、NOAA調査データは、領域内のグラウンドトゥルース深さの合理的に適切な推定であり得る。これらの調査は、調査ポイントについての場所および深さを含む訓練データ内のデータベースに追加される。
各ピングに関して、データベースは、センサの視野(FOV)内にある調査されたポイントを問い合わせられる。図4-図6は、3D-FLSの単一のピングの視野内に含まれるNOAA調査データを示している。側面図が、図4において示され、見下げ図が、図5に示され、回転図が、図6に示されている。3つのサブプロットは、対象の水深測量を有する領域内の位置の関数として深さを例証している。このフィッティング手続が、多くのピングにわたって適用される。
放射基底関数(RBF)補間部は、センサ視野内の所与の緯度および経度におけるこの深さの組をフィッティングするために用いられ得る1つの例示的方法である。3Dポイントクラウド内の各ポイントのために、RBF補間部を用いて予測される場合、緯度および経度が、深さを算出するために用いられる。算出された深さが、3Dクラウド内のポイントの深さの任意に選択された許容値に属する場合、ポイントは、底としてラベル付けされる。ラベルの新たなアレイは、モデルを訓練するために保存され、用いられる。
別の二次水深測量データ源は、クラウドソーシングされたデータであり得る。他の船からの水深測量の読み取り値は、1つ以上のポイントにおいて合意された深さを形成し得、モデルのための入力として用いられ得る。いくつかの実施形態では、システムは、他の近くの船から現在の水深測量データを受信し得、またはデータベースから履歴データを受信し得る。
NOAAもしくはクラウドソーシングされたデータ、または別の信頼性のある源からの水深測量データを用いてラベル付けされた訓練データを向上させることに加え、データは、他の方法によっても向上させられ得る。例えば、単純な下方探知音響測深機がFLSデータより正確な水深の測定を提供することが知られている。したがって、ほぼ全ての船に搭載されて含まれている高分解能マルチビーム音響測深機(MBES)ソナーまたは標準的なシングルビーム音響測深機(SBES)からのデータは、船の軌跡に沿って海底データを収集するために用いられ得る。船が前方に移動するとき、音響測深機のカバレッジラインは、前方探知ソナーの現在の視野に重複する。音響測深機からの重複底測定は、訓練データ/ラベルが生成されるときの船の軌跡に沿ってラベルを向上させるために用いられ得る。つまり、FLSのFOV内またはFLSからの現在のピングのFOV内の海底の深さに関するSBESセンサからの情報が存在する場合、その情報は、次のモデルの開発のために訓練の組において海底をラベル付けするために用いられる。
訓練においてラベル付けされた海底データを向上させる別の手法は、上の手法と同様であるが、追加的な音響測深機センサを必要としない。その代わり、この方法は、3D-FLSデータ自体に依拠する。概してFLSから急な下方探知角度が浅い下方探知角度よりビームのフットプリント内の水深のより正確な測定を提供することが知られている。船の運動、センサの不正確性、およびより低いSNRに起因して、(FLSセンサから海底への角度がより急である)船により近い海底の検出は、(より浅い角度で)より遠く離れて行われる検出より正確である。3D-FLSからのより高い正確性の短距離海底検出は、船が前進するにつれて、長距離海底検出に重複する。したがって、システムは、訓練を向上させるために、および/またはモデルのライブ訓練のために、「過去の」長距離検出に代えて「現在の」急角度FLSデータをグラウンドトゥルース水深測量として用い得る。より高い正確性の短距離海底3D-FLS検出が、訓練データ/ラベルの組が生成されるときに海底に関する訓練ラベルを向上させるために用いられ、これらの更新されたデータが、訓練においてモデルの海底予測を向上させるために用いられる。つまり、同一の領域から取得されるが異なる時間または角度で撮影された3D-FLSデータが、自身のデータセットを向上させるために用いられ得る。
この重複が、図7および図8に示されている。図7において、船750は、前方向に移動し、船が前進するにつれて一連のピング701-704で3D-FLSデータを取得しているように示されている。3D-FLSは、船の前方においてV字型FOVを有し、音響測深機より遥かに広い幅に伝わる。各V字型ピングは、船の船首を始点とする90°の弓形で図中に表されている。船が経時的に移動するにつれて、船は、以前にピングを取得した領域を通って進み、それによって、同一の海底の場所に対応するが異なる角度から取得された複数のデータポイントを生成する。
ピング701は、時刻tにおけるカバレッジゾーンを表す。ピング702は、時刻tにおけるカバレッジゾーンであり、ピング703は、時刻tにおけるカバレッジゾーンであり、ピング704は、時刻tにおけるカバレッジゾーンである。これらのピングは、例えば1.6秒間隔であり得る。図中に見られ得るように、710で番号付けされたくさび形の領域は、ピング702、703、および704によって覆われている、時刻tにおいて、ピング702はおそらく500~1000メートル離れた距離から浅い角度で領域710のデータを収集する。時刻tにおいて、船750は、より領域710の近くに前進しており、ピング703は、比較的急角度で追加のデータポイントを取得する。時刻tにおいて、領域710は、船750のすぐ近くにあり、ピング704によって収集されたデータは、急峻な角度である。急峻な下方探知角度は、音速の変動による影響をほとんど受けず、そのため、前方探知ソナーからのもっとも高い正確性の角度は、船が直接標的上にあるときである。ピング704によって収集された領域710に関するデータは、(ピング701-704の中から)その領域のグラウンドトゥルースに最も近いとみなされ得る。船が前進するときの各読み取り値は、最後の読み取り値より正確であり、つまり、領域において収集される追加データは、より遠くからの過去の読み取り値と比較され得、この態様において、連続するピングは、アルゴリズムを訓練するための重複するデータを提供し、モデルがより正確な特徴の読み取り値を与えることを可能にする。
いくつかの実施形態では、重複する3D-FLSデータは、上で説明されるような音響測深機データと組み合わせられ得る。図7において、船750は、その経路に沿って示される各ポイントにおいて、SBESからの音響も取得する。
図8に示されるように、船の音響測深機またはより高い正確性の前方探知ソナー角度からの最新の測深は、船の過去の場所からの過去の前方探知ソナーピングのカバレッジゾーンに地理的に参照され得る。ソナーカバレッジゾーン801は、過去のカバレッジゾーンの対象の場所を示しており、その上に、音響測深機からの最新の測深またはカバレッジゾーン802-804がマッピングされ得る。
ラベル付けされた海底データの質を向上させることに加え、今回開示されるシステムおよび方法は、数多くの方法で水中標的(IWT)ラベルを向上させる。IWTは、暗礁、輸送コンテナ、氷山、または海図に載っていない特徴等、ナビゲーション危険物になるほど十分大きい水柱内の検出を指す。上で議論されるように、航跡、強い潮流、および他の船のエンジンからの干渉も、ノイズから信号を取り出すことを困難にし得る。この情報を有用な態様で表示することは、ナビゲーション危険物に対応し得る全てのIWT検出を維持しながら、可能な限り多くのノイズを取り除くことを必要とする。
このことを達成するために、機械学習モデル用の訓練データにおけるIWTラベルは、「正」例(すなわち、ブイ、船、海岸線、および海図に載っている岩等、モデルが検出すべき特徴を強化すること)、および「負」例(すなわち、船の航跡等、モデルが無視すべき特徴を強化すること)の両方を用いて向上させられる。手動でラベル付けされたデータは、既に上で議論されており、正例および負例の両方に対応し得る。
IWTデータを向上させるための別の手法は、海図から抽出されたデータを用いてIWTラベルを生成することを伴う。例えば、ベクトル形式のナビゲーション用海図は、岩山および海底の特徴の場所に関する重要な情報のみならず、ブイ、海岸線、橋脚、桟橋、難破船の場所に関する情報も含む。この情報は、対象の領域内のデータベースの中に引き抜かれ、この情報は、訓練データ/ラベルデータセットが同一の領域内の3D-FLSデータのために生成されるとき、IWTラベルを向上させるために用いられる。
この手法は、静的情報を用いてラベルを向上させるが、現在の環境の動態に関する情報を全く含まない。他の手法は、現在の環境に関する情報を提供し、これらは、海図または手動で入力されたラベルの代替として用いられるか、またはそれと一緒に用いられ得る。
FLSの動作環境に関する動的情報のいくつかの源が、利用可能であり、訓練データに統合され得る。例えば、ブイ、海岸線、桟橋、およびおそらく非常に重要である他の船等、多くのタイプの関連のあるソナー標的も、レーダ反射を生成する。船等の近くの物体の位置、速さ、進行方向を示すレーダデータが、地上速さ対水中速さの比と一緒にモデルに入力され、船によって生成される関連航跡を推定するために用いられる。通過する船の航跡の場所および時間に関する情報は、訓練データ/ラベルが生成されるとき、IWTラベルに統合される。
同様の手法は、近くの船に関する位置、速さおよび進行方向の情報を取得するための自動識別システム(AIS)データを用いて、適用される。レーダと同様、AISからの情報は、容易に船の航跡に関連付けられ得、情報は、同一の態様で用いられ、IWTラベルを向上させる。
現在のシステム動作環境の動態に関するオペレータの観測も、IWTラベルを修正し向上させるために用いられ得る。例えば、ブイまたは氷山が観測されたとき、それらの精密な場所が、オペレータによって記録され得る。そして、このデータストリームは、海図、レーダ、およびAISと同一の態様で用いられ、訓練の組が生成されるときIWTラベルを向上させる。
これらのデータを用いて、モデルは、ソナーの底マッピング距離を超える海底からの検出、船の航跡からの検出、他の船のエンジンノイズ等の外部の継続的な干渉源からの検出、魚および他の海洋生物からの検出、船の船体からの検出、およびクラッターを含む1つ以上の下位分類にIWTをさらに分類し得る。
上で言及されるデータ源の全てが、他の状況データおよびメタデータを含み得る。これらのデータおよびメタデータは、船自体または環境的条件に関連し得る。例えば、入力データは、加速器の読み取り値、ジャイロスコープの読み取り値、ロール/ピッチ/ヒーブ値、センサの進行方向、コース、および緯度/経度、ならびに/または、船の速さおよびコースを含み得る。データは、水の温度および塩分、音速プロファイル(SSP)またはSSPと同等の屈折等の環境的要因を含み得る。本発明は、船が進むにつれてソナーの動作環境が変化し、ソナーの性能はそれらが動作する水のいくつかのパラメータによる影響を受けるという事実を説明する。アルゴリズムは、水中での非定常的な音速を説明し得る。システムは、リアルタイムでその周辺の音速を推定し得る。
本発明の実施形態は、コンピュータ環境で実装される。機械学習アルゴリズムを動作させるように構成されているプロセッサは、3D-FLSシステム、音響測深機システム、他のセンサ、手動でラベル付けされたデータ源、または遠隔データベース等、1つ以上のデータ入力源に接続される。
いくつかの実施形態では、ソナーオペレータ等のユーザは、視覚的インタフェースと相互作用して、ラベルまたはパラメータを入力するかまたは選択する。ユーザからの入力または別のデータ源からの入力は、例えばコンピュータ449等の電子デバイス内のプロセッサによって受信される。データは、可視的ディスプレイにレンダリングされ得る。図9に示される例示的システムに示されるように、データ獲得モジュール855を含むソナーシステム859は、コンピュータ449のみならず、ネットワーク409上のサーバ413とも通信する。データは、他のセンサまたは他のデータベースによっても取得され得る。いくつかの実施形態では、オペレータは、コンピュータ449を用いて、システム900を制御し、またはデータを受信し得る。データは、モニタを含み得るI/O454、437、または471を用いて表示され得る。任意のI/Oは、プロセッサ421、459、441または475のいずれかと通信し、例えば、データが任意の有形の非一過性メモリ463、445、479、または429内に記憶されるようにするために、キーボード、マウス、またはタッチスクリーンを含み得る。サーバ413は、概して、ネットワーク409上での通信を有効化するか、またはデータをデータファイル417に書き込むために、インタフェースモジュール425を含む。本発明の方法は、ソフトウェア、ハードウェア、ファームウェア、ハードワイヤリング、またはこれらのうちのいずれかの組み合わせを用いて実施され得る。特徴実装機能も、種々の位置に物理的に位置付けられ得、分散させられて機能の一部が異なる物理的場所において実装されることを含む(例えば、ソナー859が1つの場所にあり、サーバが別の場所にあり、例えば、無線または有線で接続されている)。
コンピュータプログラムの実行のために適したプロセッサは、例えば、汎用マイクロプロセッサおよび専用マイクロプロセッサの両方、ならびに、任意の種類のデジタルコンピュータのうちの1つ以上のプロセッサを含む。概して、プロセッサは、読み取り専用メモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受信する。コンピュータの本質的要素は、命令を実行するためのプロセッサ、ならびに、命令およびデータを記憶するための1つ以上のメモリデバイスである。概して、コンピュータは、データを記憶するための1つ以上マスストレージデバイス(例えば、磁気ディスク、磁気光学ディスク、または光ディスク)も含むか、または、そこからデータを受信しもしくはデータを転送するか、またはその両方を行うように動作可能に結合されている。コンピュータプログラム命令およびデータを具現化するために適した情報キャリアは、例えば半導体メモリデバイス(例えば、EPROM、EEPROM、NANDベースのフラッシュメモリ、ソリッドステートドライブ(SSD)、および他のフラッシュメモリデバイス)、磁気ディスク(例えば、内部ハードディスクまたはリムーバブルディスク)、磁気光学ディスク、および光ディスク(例えば、CDおよびDVDディスク)を含むすべての形式の不揮発性メモリを含む。プロセッサおよびメモリは、専用論理回路によって補強され得、またはそれらに組み込まれ得る。
本明細書中で説明される主題は、バックエンドコンポーネント(例えば、データサーバ413)、ミドルウェアコンポーネント(例えば、アプリケーションサーバ)、またはフロントエンドコンポーネント(例えば、ユーザが本明細書中で説明される主題の実装と相互作用し得るグラフィカルユーザインタフェース454またはウェブブラウザを有するクライアントコンピュータ449)、またはそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、およびフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムにおいて実装され得る。システムのコンポーネントは、任意の形式または媒体のデジタルデータ通信(例えば通信ネットワーク)によってネットワーク409を通じて相互接続され得る。通信ネットワークの例は、携帯電話ネットワーク(3G、4G)、ローカルエリアネットワーク(LAN)、およびワイドエリアネットワーク(WAN)、例えばインターネットを含む。
本発明の方法がクライアント/サーバアーキテクチャを採用する場合、本発明の方法のステップは、サーバ413を用いて実施され得、サーバ413は、プロセッサおよびメモリのうちの1つ以上を含み、サーバ413は、データ、命令等を取得することが可能であるか、または、インタフェースモジュールを介して結果を提供することが可能であるか、もしくはファイルとして結果を提供することが可能である。サーバ413は、Hitachiによる商標BLADE(登録商標)として販売されているラックマウントコンピュータ等、単一または複数のコンピュータデバイスによって提供され得る。サーバ413は、オンサイトもしくはオフサイトまたはその両方に位置付けられたサーバの組として提供され得る。サーバ413は、所有されているか、またはサービスとして提供され得る。サーバ413またはストレージは、Amazon Web ServiceまたはGoogle等のクラウドベースリソースとして全体的にまたは部分的に提供され得る。クラウドリソースの包含は、利用可能なハードウェアが要求に即座に応じてスケールアップしスケールダウンするときに有益であり得る。計算タスクを実施する実際のプロセッサ(特有のシリコンチップ)は、情報処理がスケールアップまたはスケールダウンするときに任意に変化し得る。ある実施形態では、サーバ413は、クラウドリソースと一緒に動作する1つまたは複数のローカルユニットを含む(ここで、ローカルとは、クラウドではないことを意味し、オフサイトを含む(include or off-site))。サーバ413は、コンピュータ449によってネットワーク409上で係合させられ得、その一方または両方がストレージと係合し得る。システム400では、各コンピュータは、好ましくは、メモリに結合された少なくとも1つのプロセッサと、少なくとも1つの入力/出力(I/O)機構とを含む。
頻繁に決定されるべき数百万のパラメータが存在するので、ディープラーニングアルゴリズムは、学習を実施するためにグラフィカル処理ユニット(GPU)に大きく依拠している。モデルの開発において、干渉、認識、またはセグメンテーションステップも、GPUによって提供されるそのような強力な並行処理を必要とし、したがって、GPUは、開発が、モデルおよび入力データの量に依存して、効率的に実行するためにCPUに加えて専用ハードウェアを必要とすることを必要とする。GPUは、典型的に、グラフィックスカードに収容されている。そのため、開発は、グラフィックスカードを有する通常のPCを用いてもよいし、または、その代わり、クラウドに収容されたサーバを用いてもよい。このことは、これらの方法の1つの実現が、クラウドに画像データをプッシュすることを伴い、情報をローカルに回収する前にクラウドにおいて処理が発生することを示唆している。そして、受信デバイスは、コンピュータ(PC)、またはスマートフォンもしくはタブレットであり得る。
本明細書中で説明される主題は、データ処理装置(例えば、プログラマブルプロセッサ、コンピュータ、または複数のコンピュータ)による実行のため、または、その動作を制御するための情報キャリアとして(例えば、非一過性のコンピュータ読み取り可能な媒体として)有形で具現化された1つ以上のコンピュータプログラム等の1つ以上のコンピュータプログラム製品として実装され得る。コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、マクロ、またはコードとしても知られている)は、コンパイル型言語またはインタプリタ型言語(例えば、C、C++、Perl)を含む任意の形式のプログラミング言語で記述され得、それは、スタンドアロン型プログラムとして、または、コンピューティング環境における使用のために適したモジュール、コンポーネント、サブルーチン、もしくは他のユニットを含む任意の形式で開発され得る。本発明のシステムおよび方法は、C、C++、Perl、Java(登録商標)、ActiveX、HTML5、Visual Basic、またはJavaScript(登録商標)を限定することなく含む業界において知られているプログラミング言語を含み得る。
コンピュータプログラムは、必ずしもファイルに対応しているわけではない。プログラムは、他のプログラムまたはデータを保持するファイル417の一部として、当該プログラム専用の単一のファイルとして、または複数の連携されたファイルとして(例えば、1つ以上のモジュール、サブプログラム、またはコードの一部を記憶しているファイル)として記憶され得る。コンピュータプログラムは、展開されて、1つのコンピュータ上で、または、1つの場所において複数のコンピュータ上で、もしくは複数の場所にわたって分散され通信ネットワークによって相互接続された複数のコンピュータ上で実行され得る。
ファイルは、例えば、ハードドライブ、SSD、CD、または他の有形の非一過性媒体に記憶されているデジタルファイルであり得る。ファイルは、1つのデバイスからネットワーク409上の別のデバイスに(例えば、ネットワークインターフェースカード、モデム、無線カード、または同様のものを通じてサーバからクライアントに送信されるパケットとして)送信され得る。
本発明によるファイルへの書き込みは、例えば、読み取り/書き込みヘッドによって磁化パターンに(例えば、正味電荷または双極子モーメントを有する)粒子を追加し、除去し、または再配置することによって、有形の非一過性のコンピュータ読み取り可能な媒体を変形させることを伴い、パターンは、その後、ユーザによって所望されユーザにとって有用な情報の新たなコレクションを表す。いくつかの実施形態では、書き込みは、特定の特性を有する有形の非一過性のコンピュータ読み取り可能な媒体における材料の物理的変形を伴い、それによって、光読み取り/書き込みデバイスは、新しい有用な情報のコレクションを読み取り得る(例えば、CD-ROMを焼く)。いくつかの実施形態では、ファイルに書き込むことは、NANDフラッシュメモリ等のフラッシュメモリを用いることを含み、メモリセルのアレイ内に情報を記憶することは、フローティングゲートトランジスタを含む。ファイルに書き込む方法は、業界において周知であり、例えば、プログラムによって自動的に呼び出され得るか、または、保存コマンドによってソフトウェアから保存コマンドによって、もしくはプログラミング言語から書き込みコマンドによって呼び出され得る。
(例)
CNNベースのモデルは、3D-FLSデータを分析するためのそれらの適性を決定するため、およびどのアーキテクチャおよびパラメータを用いるかを査定するために調査された。ここで提示される例に加え、多数の可能なネットワークアーキテクチャおよびハイパーパラメータの組み合わせが、本発明において用いられ得る。
1450個の3D-FLSピングのデータセットが、一組のベースライン訓練としての使用のために記録された。データセット内に含まれるピングは、各種の異なる場所の異なる日の異なるボート航海に由来する。データセットは、さらに、訓練用の1187個のピングとバリデーション用の263個のピングとに分割された。テストされる各モデルは、KerasおよびTensorflowを用いてpythonで実装された。それらは、8GBの専用メモリを有するNvidia GTX 1070 GPUを有するコンピュータにおいて訓練された。データをGPUにフィッティングすることが要求されたので、CNNモデルの3Dバージョンの全てにバッチサイズ1が用いられた。各エポックは、完了に約5時間かかり、モデルの各々は、10エポックの間実行された。10エポックリミットが経験的に選択され、それにより、損失および正確性は、1つのエポックから次のエポックに大きくは変更していなかった。モデルの2Dバージョンは、バッチサイズ10で約10エポックの間、または損失が変化しなくなるまで実行され、実行時間は、同一のシステムにおいてエポックあたり1.5時間であった。U-Netの2DバージョンおよびV-Netの2Dバージョンの両方のために、体積型畳み込みを有するモデルの1つのバージョンが、2D畳み込みと切り替えられたが、多くの特徴は一定を維持された。各モデルの第2の2Dバージョンは、畳み込み層において用いられるフィルタの数を増加させることにより、大量の訓練可能なパラメータを用いて作り出された。
全てのモデルを訓練するために、Adamオプティマイザが用いられ、全てのケースにおいて、多クラス交差エントロピーが損失として選択された。検出を表すポイントの数と比べた3D-FLSデータ内の背景ポイントの数の不均衡に起因して、2つの異なる重み付け方法がテストされた。第1は、ピング内のクラスの周波数を用いて各サンプルを重み付けするサンプル重み付け手法であり、第2では、全体のデータセットにわたる所与のクラスの頻度を用いて重みが計算された。後者の方法は、より高い訓練およびバリデーション正確性を有するモデルを生み出した。
この作業において考慮されたモデルの全てを実行した結果が表1に集計されている。表において、CW=クラス重み付け損失関数であり、SW=サンプル重み付け損失関数であり、多クラス交差エントロピー損失関数が全てのケースに用いられ、パラメータを訓練するために、デフォルトのKerasパラメータを有するAdam最適化アルゴリズムが用いられた。「*」は、訓練可能なパラメータの数を増加させるために畳み込み層において増加した特徴を有するモデルを表す。
Figure 2022504560000002
訓練およびバリデーションにおける正確性の定量的メトリックに関して、クラス重み付け損失を用いた3D V-Netモデルの方がよい性能であった。しかしながら、クラス重み付けであるにもかかわらず、訓練データおよびバリデーションデータの両方において、このモデルは、収束して、海底クラス(最も過小評価されたクラス)をほとんど予測しなかった。対照的に、3D U-netモデルは、同様の正確性を達成したが、それが訓練データの頻度により近い頻度を有するクラスを予測するという意味で、質的により良い性能であった。この理由のため、クラス重み付け手法を用いた3D U-netモデルが、調査されたからのさらなる開発のために最も良い候補であった。
図10および図11において、モデルの質的性能の例が与えられ、それらの図は、所与の入力に関する3D U-Netモデルおよび従来の検出モデルの質的出力の比較を示している。体積型入力データが、左に示され、従来モデルの結果が、右上に示され、CNNベースのモデルの結果が右下に示されている。図10および図11を生成するために用いられるピングは、CNNモデル用の訓練データの組に含まれていなかった。図10および図11の両方において、CNNモデルは、水中標的特徴を検出することが可能であり、水中標的特徴は、桟橋の縁に対応する従来的処理を用いて検出される。しかしながら、訓練データには存在しないいくらかの追加の検出が明確に存在している。図11を生成するために用いられるCNNモデルは、重み付けされた損失を用いた同一の3D U-Netモデルである。しかしながら、それは、Adamの代わりに5エポックのAdaDeltaオプティマイザを用いて、ピング毎の入力を標準化せずに訓練された。このモデルは、より少ない「誤りの正」検出を有するように思われる。図10および図11におけるCNNモデルの両方によって生成される海底検出は、短距離での標準化アルゴリズムによく一致している。しかしながら、両方のCNNモデルは、より長い距離において、さらに深い海底の標的を検出する。長距離の検出は、全てのピングに存在しているわけではなく、海底は、他の調査されたピングのいくつかにおいて、従来のアルゴリズムによく一致している。
結果は、これらの利用可能なCNNモデルが、従来の検出アルゴリズムに取って替わり得ることを示している。しかしながら、モデルは、本明細書中で開示される方法でさらに洗練され、特に海底の余計な検出を低減させ得る。これらのCNNモデルは、従来の検出アルゴリズムによって検出された特徴の全ての再現した一方で、それらは、エンジンノイズおよび通過する船による航跡等の所望されない検出も複製した。これらの所望されない検出は、上で議論されるストラテジーによって低減させられ、または除去され得る。
訓練データのサブセットは、既に説明された自動化されたプロセスを用いて向上させられ、3D U-Netモデルの訓練を継続するために用いられた。モデルは、大量の訓練可能なパラメータまたは追加の層を用いてさらに向上させられ得る。さらに、後方散乱強度に加えて追加の特徴が、CNNモデルの入力に追加され得る。例えば、後方散乱強度と一緒にポイントクラウド内の各要素のデカルト位置を含むことは、ネットワークがデータのデカルト座標表示および球面座標表示の間の差を取り扱うことを可能にする。

Claims (27)

  1. 水面下特徴を検出し分類する方法であって、前記方法は、
    3次元前方探知ソナー(3D-FLS)データを取得することと、
    入力として前記3D-FLSデータを機械学習アルゴリズムに提供することと、
    前記アルゴリズムを用いて、前記3D-FLSデータ内の特徴を検出し、前記特徴を海底または水中標的として分類することと
    を含む、方法。
  2. 前記3D-FLSデータは、後方散乱強度データのポイントクラウドを備えている、請求項1に記載の方法。
  3. 前記3D-FLSデータは、センサの加速度読み取り値、ジャイロスコープの読み取り値、センサのロール方位、センサのピッチ方位、センサのヒーブ、センサの進行方向、センサのコース、センサの緯度、センサの経度、水温、水の塩分、および音速プロファイルのうちの1つ以上を備えているメタデータを備えている、請求項1に記載の方法。
  4. 前記3D-FLSデータは、ボートの船体に搭載されるように構成されている3D-FLSシステムから取得される、請求項1に記載の方法。
  5. 前記アルゴリズムは、前記3D-FLSシステムに動作可能に接続されているプロセッサにおいて実行される、請求項4に記載の方法。
  6. 前記アルゴリズムは、畳み込みニューラルネットワークである、請求項1に記載の方法。
  7. 前記アルゴリズムは、ラベル付けされた3D-FLS訓練データにおいて訓練されている、請求項1に記載の方法。
  8. 二次源からデータを取得することと、
    前記ラベル付けされた3D-FLS訓練データを前記二次源データを用いて向上させることと
    をさらに含む、請求項7に記載の方法。
  9. 前記二次源データは、
    手動でラベル付けされた体積型後方散乱強度データと、
    参照源からの水深測量調査データと、
    マルチビーム音響測深機データ(MBES)と、
    シングルビーム音響測深機データ(SBES)と、
    異なる角度で、または異なる時間に同じソナーシステムから取得された3D-FLSデータと、
    海図データと、
    レーダデータと、
    自動識別システム(AIS)データと
    のうちの1つ以上を備えている、請求項8に記載の方法。
  10. 前記MBESデータまたはSBESデータは、前記3D-FLSデータと同じ船から取得される、請求項9に記載の方法。
  11. 前記二次源データは、位置、速さ、および進行方向に関する情報を備えている、請求項8に記載の方法。
  12. 航跡、ブイ、魚、ボートおよびエンジンノイズのうちの1つ以上として前記水中標的を下位分類することをさらに含む、請求項1に記載の方法。
  13. 前記アルゴリズムは、前記3D-FLSデータ内のポイントにおける各ポイントのための分類を備えている出力を生成し、前記分類は、前記ポイントが(i)海底、(ii)水中標的、または(iii)背景に対応する可能性を表す、請求項1に記載の方法。
  14. 水面下特徴のリアルタイム検出および分類のためのシステムであって、前記システムは、
    船の前方の領域に音波を照射し、3D-FLSデータを収集するように構成されている3次元前方探知ソナー(3D-FLS)デバイスと、
    前記3D-FLSデバイスに動作可能に結合されているプロセッサと
    を備え、
    前記プロセッサは、前記3D-FLSデータに基づいて機械学習アルゴリズムを実行し、前記3D-FLSデータ内の特徴を検出し分類するように構成され、前記特徴は、海底および水中標的を備えている、システム。
  15. 前記3D-FLSデバイスは、ボートの船体に搭載されるように構成されている、請求項14に記載のシステム。
  16. 前記3D-FLSデータは、後方散乱強度データの体積型ポイントクラウドを形成するソナー帰還信号を備えている、請求項14に記載のシステム。
  17. 前記3D-FLSデータは、センサの加速度読み取り値、ジャイロスコープの読み取り値、センサのロール方位、センサのピッチ方位、センサのヒーブ、センサの進行方向、センサのコース、センサの緯度、センサの経度、水温、水の塩分、および音速プロファイルのうちの1つ以上を備えているメタデータを備えている、請求項14に記載のシステム。
  18. 前記アルゴリズムは、畳み込みニューラルネットワークである、請求項14に記載のシステム。
  19. 前記アルゴリズムは、ラベル付けされた3D-FLS訓練データにおいて訓練されている、請求項14に記載のシステム。
  20. 前記プロセッサは、手動でラベル付けされた体積型後方散乱強度データを用いて前記訓練データを向上させるように構成されている、請求項19に記載のシステム。
  21. 前記アルゴリズムは、参照海底データに基づいてさらに訓練されている、請求項19に記載のシステム。
  22. 前記プロセッサに動作可能に接続されている下方探知ソナーをさらに備え、前記下方探知ソナーは、前記参照海底データを取得するように構成されている、請求項21に記載のシステム。
  23. 前記下方探知ソナーは、音響測深機を備えている、請求項22に記載のシステム。
  24. 前記アルゴリズムは、異なる角度で、または異なる時間に前記3D-FLSデバイスから収集された3D-FLSデータに基づいてさらに訓練されている、請求項19に記載のシステム。
  25. 前記プロセッサは、航跡、ブイ、魚、ボート、およびエンジンノイズのうちの1つ以上として前記水中標的を下位分類するようにさらに構成されている、請求項14に記載のシステム。
  26. 前記アルゴリズムは、前記3D-FLSデータ内のポイントにおける各ポイントのための分類を備えている出力を生成し、前記分類は、前記ポイントが(i)海底、(ii)水中標的、または(iii)背景に対応する可能性を表す、請求項14に記載のシステム。
  27. 前記特徴をそれらの分類または分類可能性を示すラベルとともに表示するためのディスプレイをさらに備えている、請求項14に記載のシステム。
JP2021519634A 2018-10-10 2019-10-09 機械学習を用いた3次元前方探知ソナー標的認識 Active JP7507753B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862743768P 2018-10-10 2018-10-10
US62/743,768 2018-10-10
PCT/US2019/055435 WO2020139442A2 (en) 2018-10-10 2019-10-09 Three-dimensional forward-looking sonar target recognition with machine learning

Publications (2)

Publication Number Publication Date
JP2022504560A true JP2022504560A (ja) 2022-01-13
JP7507753B2 JP7507753B2 (ja) 2024-06-28

Family

ID=71129655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519634A Active JP7507753B2 (ja) 2018-10-10 2019-10-09 機械学習を用いた3次元前方探知ソナー標的認識

Country Status (4)

Country Link
US (1) US20200379104A1 (ja)
EP (1) EP3864435A4 (ja)
JP (1) JP7507753B2 (ja)
WO (1) WO2020139442A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470016B2 (ja) 2020-11-10 2024-04-17 株式会社日立製作所 機械学習を用いた物体検出用識別モデル生成装置およびプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036452B (zh) * 2020-08-13 2024-02-02 西安理工大学 一种基于ssd神经网络的水深自动监测方法
US12007512B2 (en) * 2020-11-30 2024-06-11 Navico, Inc. Sonar display features
CN112526524B (zh) * 2020-12-09 2022-06-17 青岛澎湃海洋探索技术有限公司 一种基于前视声纳图像和auv平台的水下渔网检测方法
CN113435276A (zh) * 2021-06-16 2021-09-24 中国电子科技集团公司第五十四研究所 一种基于对抗残差网络的水声目标识别方法
EP4345497A1 (en) * 2022-09-27 2024-04-03 Furuno Electric Co., Ltd. Device and method for shoal detection
CN115880572A (zh) * 2022-12-19 2023-03-31 江苏海洋大学 一种基于异步学习因子的前视声呐目标识别方法
CN117234217B (zh) * 2023-11-13 2024-02-02 华中科技大学 基于三维时空域的水面无人艇轨迹跟踪制导方法及系统
CN117437409A (zh) * 2023-12-14 2024-01-23 华中师范大学 基于多视角声图的深度学习目标自动识别方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6449215B1 (en) * 2001-10-09 2002-09-10 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional imaging system for sonar system
US20070025183A1 (en) * 2003-10-17 2007-02-01 Zimmerman Matthew J 3-D forward looking sonar with fixed frame of reference for navigation
US20100046327A1 (en) * 2008-08-06 2010-02-25 Orlin David J Methods and Systems to Detect Changes in Multiple-Frequency Band Sonar Data
US20140254324A1 (en) * 2013-03-11 2014-09-11 The Government Of The United States Of America, As Represented By The Secretary Of The Navy System and method for classification of objects from 3d reconstruction
JP2016510106A (ja) * 2013-02-13 2016-04-04 ファーサウンダー, インコーポレイテッド 統合されたソナーデバイスおよび方法
JP2016151460A (ja) * 2015-02-17 2016-08-22 いであ株式会社 水中探査解析方法
US20160306040A1 (en) * 2015-04-20 2016-10-20 Navico Holding As Methods and apparatuses for constructing a 3d sonar image of objects in an underwater environment
US20170371039A1 (en) * 2015-04-20 2017-12-28 Navico Holding As Presenting objects in a sonar image of an underwater environment

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1656568B1 (en) * 2003-07-11 2017-12-27 Teledyne RESON A/S Systems and methods implementing frequency-steered acoutic arrays for 2d and 3d imaging
US7221621B2 (en) * 2004-04-06 2007-05-22 College Of William & Mary System and method for identification and quantification of sonar targets in a liquid medium
US8929178B2 (en) * 2010-10-25 2015-01-06 Lockheed Martin Corporation Sonar data collection system
WO2012061135A2 (en) * 2010-10-25 2012-05-10 Lockheed Martin Corporation Detecting structural changes to underwater structures
US10514451B2 (en) * 2014-07-15 2019-12-24 Garmin Switzerland Gmbh Marine sonar display device with three-dimensional views
WO2019010022A1 (en) * 2017-07-03 2019-01-10 R2Sonic, Llc SYSTEM AND METHOD FOR MULTI-PERSPECTIVE INSONIFICATION
US10914810B2 (en) * 2018-05-17 2021-02-09 Navico Holding As Marine electronic device for presentment of nautical charts and sonar images
JP7093284B2 (ja) * 2018-10-11 2022-06-29 古野電気株式会社 水中探知装置、および、水中探知方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6449215B1 (en) * 2001-10-09 2002-09-10 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional imaging system for sonar system
US20070025183A1 (en) * 2003-10-17 2007-02-01 Zimmerman Matthew J 3-D forward looking sonar with fixed frame of reference for navigation
US20100046327A1 (en) * 2008-08-06 2010-02-25 Orlin David J Methods and Systems to Detect Changes in Multiple-Frequency Band Sonar Data
JP2016510106A (ja) * 2013-02-13 2016-04-04 ファーサウンダー, インコーポレイテッド 統合されたソナーデバイスおよび方法
US20140254324A1 (en) * 2013-03-11 2014-09-11 The Government Of The United States Of America, As Represented By The Secretary Of The Navy System and method for classification of objects from 3d reconstruction
JP2016151460A (ja) * 2015-02-17 2016-08-22 いであ株式会社 水中探査解析方法
US20160306040A1 (en) * 2015-04-20 2016-10-20 Navico Holding As Methods and apparatuses for constructing a 3d sonar image of objects in an underwater environment
US20170371039A1 (en) * 2015-04-20 2017-12-28 Navico Holding As Presenting objects in a sonar image of an underwater environment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470016B2 (ja) 2020-11-10 2024-04-17 株式会社日立製作所 機械学習を用いた物体検出用識別モデル生成装置およびプログラム

Also Published As

Publication number Publication date
US20200379104A1 (en) 2020-12-03
EP3864435A2 (en) 2021-08-18
WO2020139442A2 (en) 2020-07-02
JP7507753B2 (ja) 2024-06-28
EP3864435A4 (en) 2022-07-06
WO2020139442A3 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
JP7507753B2 (ja) 機械学習を用いた3次元前方探知ソナー標的認識
US10809376B2 (en) Systems and methods for detecting objects in underwater environments
Neupane et al. A review on deep learning-based approaches for automatic sonar target recognition
Huy et al. Object perception in underwater environments: a survey on sensors and sensing methodologies
Zhang et al. Subsea pipeline leak inspection by autonomous underwater vehicle
Buscombe Shallow water benthic imaging and substrate characterization using recreational-grade sidescan-sonar
Mayer Frontiers in seafloor mapping and visualization
Luo et al. Sediment classification of small-size seabed acoustic images using convolutional neural networks
Dunlop et al. Detection and characterisation of deep-sea benthopelagic animals from an autonomous underwater vehicle with a multibeam echosounder: A proof of concept and description of data-processing methods
Zhou et al. Mapping the underside of an iceberg with a modified underwater glider
Maki et al. Volumetric mapping of tubeworm colonies in Kagoshima Bay through autonomous robotic surveys
Trenkel et al. Overview of recent progress in fisheries acoustics made by Ifremer with examples from the Bay of Biscay
Wawrzyniak et al. MSIS image postioning in port areas with the aid of comparative navigation methods
Jiang et al. A survey of underwater acoustic SLAM system
Yamasaki et al. Acoustic water bottom investigation with a remotely operated watercraft survey system
Negaharipour On 3-D scene interpretation from FS sonar imagery
McConnell et al. Perception for Underwater Robots
Fan et al. Underwater ice adaptive mapping and reconstruction using autonomous underwater vehicles
Villar et al. Pipeline detection system from acoustic images utilizing CA-CFAR
Savini Side-scan sonar as a tool for seafloor imagery: Examples from the Mediterranean Continental Margin
Pulido et al. Time and cost-efficient bathymetric mapping system using sparse point cloud generation and automatic object detection
Henley et al. Deep learning in shallow water: CNN-based 3D-FLS target recognition
Muduli et al. A Review On Recent Advancements In Signal Processing and Sensing Technologies for AUVs
Sivachandra et al. A Review: Object Detection and Classification Using Side Scan Sonar Images via Deep Learning Techniques
Shalev et al. AUV navigation using cues in the sand ripples

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240618