JP7221454B2 - 識別装置、学習装置およびモデル生成方法 - Google Patents

識別装置、学習装置およびモデル生成方法 Download PDF

Info

Publication number
JP7221454B2
JP7221454B2 JP2022535069A JP2022535069A JP7221454B2 JP 7221454 B2 JP7221454 B2 JP 7221454B2 JP 2022535069 A JP2022535069 A JP 2022535069A JP 2022535069 A JP2022535069 A JP 2022535069A JP 7221454 B2 JP7221454 B2 JP 7221454B2
Authority
JP
Japan
Prior art keywords
image
radar
isar
neural network
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022535069A
Other languages
English (en)
Other versions
JPWO2022049619A1 (ja
Inventor
一貴 平嶋
將 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022049619A1 publication Critical patent/JPWO2022049619A1/ja
Application granted granted Critical
Publication of JP7221454B2 publication Critical patent/JP7221454B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Description

本開示は、レーダ画像に写った目標の種別を識別する識別装置、学習装置およびモデル生成方法に関する。
逆合成開口レーダ(以下、ISARと記載する)によって得られた2次元レーダ画像を用いて、物体を識別する技術が知られている。ISARは、遠距離で移動する目標の観測に適したレーダモードである。ISARでは、レンジ方向を受信エコーの到達時間差で分離し、レンジ方向に直交するクロスレンジ方向を、目標の姿勢の変化によって生じるドップラ周波数差で分離することによって2次元レーダ画像を得ている。レンジ方向は、電波照射方向である。例えば、特許文献1には、ISAR画像を参照して艦船を類別する目標類別装置が記載されている。
特許文献1に記載された目標類別装置は、類別対象として選択したISAR画像と、艦級の特徴を表す複数の特徴情報のそれぞれとの類似度を算出し、算出した複数の類似度の分布状態に基づいて分布係数を算出する。そして、目標類別装置は、算出した分布係数を用いて、複数の類似度を艦級ごとに統合し、統合結果に基づいて、複数の艦級のうち、統合された類似度が高い艦級を表示する。
特開2012-26976号公報
特許文献1に記載された目標類別装置において、類別対象のレーダ画像は、オペレータによって複数のレーダ画像から選択されていた。このため、オペレータが選択するレーダ画像によって識別性能が変わってしまうという課題があった。
本開示は上記課題を解決するものであり、オペレータが識別対象のレーダ画像を選択することなく、レーダ画像に写った物体の種別を識別することができる識別装置、学習装置およびモデル生成方法を得ることを目的とする。
本開示に係る識別装置は、連続した複数のフレームのレーダ画像であるレーダ動画像を、レーダ画像に写った物体の種別の識別に用いられる形式のデータに変換する前処理部と、形式が変換されたレーダ動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、レーダ動画像から物体の種別を識別する識別部とを備え、前処理部は、レーダ動画像において、レーダ画像内の信号値を正規化し、信号値を正規化したレーダ画像からノイズを除去し、ノイズが除去されたレーダ画像に写った物体の部分画像をトリミングし、部分画像を学習済みモデルが要求するサイズにリサイズし、識別部は、前段に畳み込みニューラルネットワークが配置され、後段に再帰型ニューラルネットワークが配置されたネットワーク構造を有する機械学習モデルに対して、一定数分連続した複数のフレームのレーダ画像からトリミングされ、かつリサイズされた複数の部分画像を時系列順に一度に入力し、畳み込みニューラルネットワークが入力した部分画像から物体の視覚的な特徴を抽出し、再帰型ニューラルネットワークが部分画像から物体の時系列的な特徴を抽出して、抽出した物体の視覚的な特徴および時系列的な特徴に基づいてレーダ動画像から物体の種別を識別する
本開示によれば、連続した複数のフレームのレーダ画像であるレーダ動画像が、レーダ画像に写った物体の種別の識別に用いられる形式のデータに変換され、形式を変換したレーダ動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、レーダ動画像から物体の種別が識別される。これにより、本開示に係る識別装置は、オペレータが識別対象のレーダ画像を選択することなく、レーダ画像に写った物体の種別を識別することができる。
実施の形態1に係る識別装置を備えたレーダ画像処理システムの構成例を示すブロック図である。 実施の形態1に係る識別装置の動作を示すフローチャートである。 レーダ画像前処理の例を示すフローチャートである。 図4Aは、未処理のレーダ画像を示す画像図であり、図4Bは、正規化したレーダ画像を示す画像図であり、図4Cは、ノイズを除去したレーダ画像を示す画像図であり、図4Dは、レーダ画像からトリミングされた部分画像を示す画像図であり、図4Eは、トリミングされた部分画像をリサイズした画像を示す画像図である。 学習済みモデルの例を示す概要図である。 図6Aは、実施の形態1に係る識別装置の機能を実現するハードウェア構成を示すブロック図であり、図6Bは、実施の形態1に係る識別装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態1に係る学習装置の構成例を示すブロック図である。 実施の形態1に係るモデル生成方法を示すフローチャートである。
実施の形態1.
図1は、レーダ画像処理システム1の構成例を示すブロック図である。レーダ画像処理システム1は、n台のレーダ2-1,2-2,・・・,2-nから取得した受信信号に基づいてISAR動画像を生成し、生成したISAR動画像を用いて、ISAR画像に写る物体の種別を識別し、識別した物体の種別を出力するシステムである。nは1以上の整数である。目標の物体は、例えば、水上を航行する艦船である。ISAR動画像は、時間的に連続した複数のフレームのISAR画像からなるレーダ動画像である。ISAR動画像において、フレーム幅およびフレーム数は任意である。
図1に示すレーダ画像処理システム1は、レーダ2-1,2-2,・・・,2-n、動画像生成部3、動画像格納部4、識別装置5、記憶部6、識別結果格納部7および表示部8を備える。また、識別装置5は、前処理部51および識別部52を備える。動画像格納部4、記憶部6および識別結果格納部7は、例えば、識別装置5とは別に設けられた記憶装置に設けられる。ただし、動画像格納部4、記憶部6および識別結果格納部7は、識別装置5が備えるメモリに設けられてもよい。動画像生成部3または表示部8は、識別装置5とは別に設けられた外部装置が備える構成要素であるが、識別装置5が備えてもよい。
レーダ2-1,2-2,・・・,2-nは、空間に電波を送信し、空間に存在する物体において反射された電波(エコー)を受信する送受信レーダである。動画像生成部3は、レーダ2-1,2-2,・・・,2-nによって受信されたエコーの信号を順次取得し、受信エコー信号を処理してフレームごとのISAR画像を生成することにより、ISAR動画像を生成する。動画像格納部4は、動画像生成部3によって生成されたISAR動画像を格納する。識別装置5には、動画像格納部4からISAR動画像が順次出力される。識別装置5に順次出力されるISAR動画像は、動画像格納部4に対して予め設定されたフレーム数分のISAR画像が連続したISAR動画像である。
識別装置5は、ISAR動画像を用いてISAR画像に写った物体の種別を識別する。記憶部6は、各種情報を記憶する。例えば、記憶部6には、識別装置5による物体の種別の識別に用いられる学習済みモデルが記憶される。識別結果格納部7には、識別装置5によって識別された物体の種別を示す情報が格納される。表示部8は、識別結果格納部7に格納された物体の種別の識別結果を表示する。
前処理部51は、動画像格納部4から取得した複数のフレームのISAR画像からなるISAR動画像を、ISAR画像に写った物体の種別の識別に用いられる形式のデータに変換する。例えば、識別部52が学習済みモデルを用いて物体の種別を識別する場合に、物体の種別の識別処理において識別部52が用いる形式のデータとなるように、前処理部51は、ISAR動画像における各ISAR画像を学習済みモデルが要求する画像サイズに変換する。また、前処理部51は、学習済みモデルがISAR画像に写った物体の特徴を捉え易くするために、ISAR画像からノイズを除去し、ISAR画像における物体が写った部分をトリミングし、ISAR画像の明暗を強調する。
識別部52は、前処理部51によって形式が変換されたISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、ISAR動画像から物体の種別を識別する。例えば、識別部52は、記憶部6に記憶された学習済みモデルを用いて、ISAR動画像から物体の種別を識別する。学習済みモデルは、一定数分連続した複数のフレームのISAR画像を一度に入力し、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、入力した複数のISAR画像から物体の種別を識別するための学習済みモデルである。
学習済みモデルは、例えば、畳み込みニューラルネットワーク(以下、CNNと記載する)と、再帰型ニューラルネットワーク(以下、RNNと記載する)とが組み合わされたネットワーク構造を有する。物体の視覚的な特徴は、ISAR画像内の物体が写っている部分画像の視覚的な特徴である。例えば、CNNが、ISAR動画像から物体の視覚的な特徴を抽出する。物体の時系列な特徴は、物体が写った部分画像における視覚的な特徴の時間経過に伴った変化を表す特徴である。例えば、RNNが、ISAR動画像から時系列的な特徴を抽出する。
図2は、識別装置5の動作を示すフローチャートであり、識別装置5による物体の種別の識別処理を示している。まず、前処理部51は、動画像格納部4から取得したISAR動画像を、ISAR画像に写った物体の種別の識別に用いられる形式のデータに変換する(ステップST1)。この処理がレーダ画像前処理である。次に、識別部52は、前処理部51によって変換されたISAR動画像を入力し、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいてISAR動画像から目標物体の種別を識別する(ステップST2)。識別部52から出力された目標種別の識別結果を示す情報は、識別結果格納部7に格納される。表示部8は、識別結果格納部7から出力された識別結果を表示する。
図3は、レーダ画像前処理の例を示すフローチャートであり、前処理部51による一連の処理を示している。図4Aは、未処理のレーダ画像を示す画像図であり、前処理部51に入力されるISAR動画像におけるISAR画像を示している。図4Bは、正規化したレーダ画像を示す画像図であり、図4AのISAR画像を正規化した画像を示している。図4Cは、ノイズを除去したレーダ画像を示す画像図であり、図4BのISAR画像からノイズを除去した画像を示している。図4Dは、レーダ画像からトリミングされた部分画像を示す画像図であり、図4CのISAR画像からトリミングされた部分画像を示している。図4Eは、トリミングされた部分画像をリサイズした画像を示す画像図であり、図4Dの部分画像をリサイズした画像を示している。
レーダ2-1,2-2,・・・,2-nから空間に送信された電波は、空間内の物体において反射され、反射波が受信されることにより、物体は、複数の方向から撮影される。ISAR画像などのレーダ画像は、複数の方向から撮影された物体の画像を合成することによって生成される。一般に、レーダ画像内の輝度は、レーダ2-1,2-2,・・・,2-nによって受信された反射波の信号値に対応する。信号値は、例えば、反射波の受信信号の振幅の大きさである。
前処理部51は、ISAR動画像を入力すると、入力したISAR動画像から、例えば図4Aに示すISAR画像を取得する。前処理部51は、ISAR画像内で最大の信号値を抽出し、抽出した信号値に対応するISAR画像内の位置を基準とした一定の範囲内の信号値を0から255の値で正規化する(ステップST1a)。ISAR画像内の信号値を正規化することによって、図4Bに示すように、ISAR画像内の明暗が強調される。これにより、ISAR画像内で信号が強い部分を際立たせることができる。
続いて、前処理部51は、ISAR画像からノイズを除去する(ステップST2a)。例えば、前処理部51は、メジアンフィルタを用いることにより、ISAR画像における物体が写った部分以外に対応する信号を限りなく小さくする。図4Bに示したISAR画像からノイズを除去することによって、図4Cに示すISAR画像が得られる。前処理部51は、ISAR画像から、閾値を超える信号値に対応する部分画像をトリミングする(ステップST3a)。図4Dに示す画像は、前処理部51によって、図4Cに示したISAR画像からトリミングされた部分画像である。
この後、前処理部51は、ISAR画像からトリミングした部分画像を、学習済みモデルが要求する画像サイズに変換する(ステップST4a)。例えば、学習済みモデルを構成するニューラルネットワーク(以下、NNと記載する。)は、複数のISAR画像を、同一の画像サイズで入力する。NNに入力されるISAR画像の画像サイズが、学習済みモデルが要求する画像サイズである。図4Dに示した部分画像は、図4Eに示す画像サイズにリサイズされる。
図5は、学習済みモデルの例を示す概要図である。識別部52は、例えば、図5に示す学習済みモデルを用いることにより、ISAR動画像から物体の種別を識別する。図5に示す学習済みモデルは、前段にCNNが配置され、後段にRNNが配置されたネットワーク構造を有する機械学習モデルである。ここで、CNNは、ISAR画像から物体の視覚的な特徴を抽出するためのNNであり、RNNは、ISAR動画像における複数のフレームのISAR画像から物体の時系列的な特徴を抽出するためのNNである。
例えば、前処理部51が、艦船SH1が写った、nフレーム分のISAR画像7-1,7-2,・・・,7-nからなるISAR動画像に対して、前述した前処理を施すことによって、前処理済みのISAR画像8-1,8-2,・・・,8-nを生成する。nは、学習済みモデルが指定するISAR画像のフレーム数であり、例えばn=10であれば、学習済みモデルには、10フレーム分のISAR画像であるISAR画像8-1,8-2,・・・,8-10が一度に入力される。図5に示す学習済みモデルは、ISAR画像の入力フレーム数n分のネットワーク構造を有しており、ISAR画像8-1,8-2,・・・,8-nは、時系列順に、ネットワーク構造に入力される。
時系列順に設けられたネットワーク構造において、前段のCNNは、ISAR画像から艦船SH1の視覚的な特徴を抽出し、後段のRNNに出力する。RNNは、図5において矢印で示すように、時系列で後の時間に対応するRNNとの間で視覚的な特徴を合わせることにより、艦船SH1の時系列的な特徴を抽出する。艦船SH1の時系列な特徴とは、艦船SH1が写った部分画像の視覚的な特徴の時間経過に伴った変化の特徴である。RNNは、ISAR画像における艦船SH1の視覚的な特徴だけでなく、例えば、艦船SH1が波の影響を受けて船体がしなやかに揺れる様子を表す時系列な特徴を抽出する。艦船SH1の視覚的な特徴と時系列的な特徴を利用することで、艦船SH1の種別の識別精度が向上する。
時系列でn番目の時間に対応するネットワーク構造におけるRNNから出力された艦船SH1の視覚的および時系列的な特徴量は、例えば全結合層F1を経て、ソフトマックス関数が適用されることにより各識別クラスに正しく分類される確率が算出され、識別結果として出力される。識別部52から出力された識別結果は、識別結果格納部7に格納される。表示部8は、識別結果における各識別クラスへ分類される確率のうち、最も高い確率に対応する一つの種別を表示してもよいし、確率が上位にある複数の種別を表示してもよい。表示部8に表示された識別結果を参照することにより、オペレータは、艦船SH1の種別を認識でき、または、推定される艦船の種別候補を認識することができる。
識別装置5が備える前処理部51および識別部52の機能は、処理回路により実現される。すなわち、識別装置5は、図2に示したステップST1からステップST2の処理を実行する処理回路を備える。処理回路は、専用のハードウェアであってもよいし、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
図6Aは、識別装置5の機能を実現するハードウェア構成を示すブロック図であり、図6Bは、識別装置5の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図6Aおよび図6Bにおいて、入力インタフェース100は、例えば、動画像格納部4から識別装置5へ出力されたISAR動画像を中継するインタフェースである。出力インタフェース101は、識別装置5から識別結果格納部7へ出力される識別結果を中継するインタフェースである。入出力インタフェース102は、記憶装置103と識別装置5との間で入出力されるデータを中継するインタフェースである。記憶装置103は、図1に示した記憶部6を備えた記憶装置であり、例えば、学習済みモデルを表すパラメータ情報が記憶されている。
処理回路が図6Aに示す専用のハードウェアの処理回路104である場合、処理回路104は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。識別装置5が備える前処理部51および識別部52の機能は、別々の処理回路で実現されてもよいし、これらの機能がまとめて1つの処理回路で実現されてもよい。
処理回路が図6Bに示すプロセッサ105である場合、識別装置5が備える前処理部51および識別部52の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ106に記憶される。
プロセッサ105は、メモリ106に記憶されたプログラムを読み出して実行することにより、識別装置5が備える前処理部51および識別部52の機能を実現する。例えば、識別装置5は、プロセッサ105によって実行されるときに、図2に示すフローチャートにおけるステップST1からステップST2までの処理が結果的に実行されるプログラムを記憶するためのメモリ106を備える。これらのプログラムは、前処理部51および識別部52の手順または方法をコンピュータに実行させる。メモリ106は、コンピュータを前処理部51および識別部52として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
メモリ106は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
識別装置5が備える前処理部51および識別部52の機能の一部は専用ハードウェアによって実現され、一部はソフトウェアまたはファームウェアによって実現されてもよい。例えば、前処理部51は、専用のハードウェアである処理回路104によってその機能が実現され、識別部52は、プロセッサ105がメモリ106に記憶されたプログラムを読み出し実行することにより、その機能が実現される。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能を実現することができる。
図7は、実施の形態1に係る学習装置9の構成例を示すブロック図である。学習装置9は、識別装置5による物体の種別の識別処理に用いられる学習済みモデルを生成する装置であり、図7に示すように、学習用データ取得部91およびモデル生成部92を備える。学習用データ取得部91は、モデル生成部92によって用いられる学習用データを取得する。学習用データは、ISAR動画像とISAR動画像に写った物体の種別とが対応付けられたデータである。例えば、学習用データは、ISAR動画像に対して、このISAR動画像に写った物体の種別がタグ付けされたデータセットである。
モデル生成部92は、学習用データを用いて学習済みモデルを生成する。学習済みモデルは、一定数n分連続したnフレームのISAR画像を一度に入力し、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、入力したISAR画像から物体の種別を識別するための機械学習モデルである。ここで、nは1以上の整数である。モデル生成部92によって生成された学習済みモデルは、記憶部6に記憶される。識別部52は、記憶部6から読み出した学習済みモデルを用いてISAR動画像から物体の種別を識別する。
図8は、実施の形態1に係るモデル生成方法を示すフローチャートであり、学習装置9による一連の処理を示している。学習用データ取得部91は、学習用データを取得する(ステップST1b)。例えば、動画像生成部3を備えた演算装置が、ISAR動画像に対して艦船の種類をタグ付けする機能を有する場合、学習用データ取得部91は、当該演算装置から学習用データを取得する。また、学習用データを生成する装置は、識別装置5および学習装置9とは別に設けられた装置であってもよいし、識別装置5であってもよいし、学習装置9であってもよい。
次に、モデル生成部92は、学習用データ取得部91によって取得された学習用データを用いて、学習済みモデルを生成する(ステップST2b)。具体的には、モデル生成部92は、入力した学習用データに含まれるISAR動画像とタグ付けされた艦船の種類とが高い確率で整合するようにNNのパラメータを学習していく。例えば、NNは、図5に示したネットワーク構造を有している。NNは、学習用データに含まれるISAR画像を入力し、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、艦船の種類についての予測値を出力する。この予測値と、学習用データに含まれる艦船の種類との誤差は、損失関数によって算出される。学習済みモデルは、損失関数を用いて算出された誤差が最小になるように重み行列などのパラメータが更新されたNNである。損失関数には、例えば、ソフトマックス関数が利用される。モデル生成部92によって生成された学習済みモデルは、記憶部6に記憶される。
なお、学習装置9が備える学習用データ取得部91およびモデル生成部92の機能は、処理回路によって実現される。すなわち、学習装置9は、図8に示したステップST1bからステップST2bまでの処理を実行するための処理回路を備えている。処理回路は、図6Aに示した専用のハードウェアの処理回路104であってもよいし、図6Bに示したメモリ106に記憶されたプログラムを実行するプロセッサ105であってもよい。
以上のように、実施の形態1に係る識別装置5は、連続した複数のフレームのISAR画像であるISAR動画像を、ISAR画像に写った物体の種別の識別に用いられる形式のデータに変換し、形式が変換されたISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、ISAR動画像から物体の種別を識別する。これにより、識別装置5は、オペレータが識別対象のISAR画像を選択することなく、ISAR画像に写る物体の種別を識別することができる。
また、オペレータによって選択されたISAR画像は、オペレータによって意識的に抽出された特徴を有したレーダ画像と言える。このため、ISAR画像の視覚的な特徴は、オペレータごとに変化する可能性があり、選択されたISAR画像ごとに変化する可能性もある。ISAR画像の視覚的な特徴の変化は、目標種別の識別性能を劣化させる要因となり得る。識別装置5は、オペレータがISAR画像を選択しなくても、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて物体の種別を識別することが可能である。これにより、目標種別の識別精度が向上する。
実施の形態1に係るモデル生成方法は、ISAR動画像とISAR画像に写る物体の種別とが対応付けられた学習用データ用いて、一定数分連続した複数のフレームのISAR画像を一度に入力し、ISAR動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、入力したISAR画像から物体の種別を識別するための学習済みモデルを生成する。識別装置5は、生成された上記学習済みモデルを用いることにより、オペレータが識別対象のISAR画像を選択することなく、ISAR画像に写る物体の種別を識別することができる。
なお、実施の形態の任意の構成要素の変形もしくは実施の形態の任意の構成要素の省略が可能である。
本開示に係る識別装置は、例えば、艦船を検出するレーダ装置に利用可能である。
1 レーダ画像処理システム、2-1~2-n レーダ、3 動画像生成部、4 動画像格納部、5 識別装置、6 記憶部、7 識別結果格納部、7-1~7-n ISAR画像、8 表示部、8-1~8-n ISAR画像、9 学習装置、51 前処理部、52 識別部、91 学習用データ取得部、92 モデル生成部、100 入力インタフェース、101 出力インタフェース、102 入出力インタフェース、103 記憶装置、104 処理回路、105 プロセッサ、106 メモリ。

Claims (4)

  1. 連続した複数のフレームのレーダ画像であるレーダ動画像を、前記レーダ画像に写った物体の種別の識別に用いられる形式のデータに変換する前処理部と、
    形式が変換された前記レーダ動画像に写った物体の視覚的な特徴および時系列的な特徴に基づいて、前記レーダ動画像から物体の種別を識別する識別部と、を備え、
    前記前処理部は、前記レーダ動画像において、前記レーダ画像内の信号値を正規化し、信号値を正規化した前記レーダ画像からノイズを除去し、ノイズが除去された前記レーダ画像に写った物体の部分画像をトリミングし、前記部分画像を前記学習済みモデルが要求するサイズにリサイズし、
    前記識別部は、前段に畳み込みニューラルネットワークが配置され、後段に再帰型ニューラルネットワークが配置されたネットワーク構造を有する機械学習モデルに対して、一定数分連続した複数のフレームの前記レーダ画像からトリミングされ、かつリサイズされた複数の前記部分画像を時系列順に一度に入力し、前記畳み込みニューラルネットワークが入力した前記部分画像から物体の視覚的な特徴を抽出し、前記再帰型ニューラルネットワークが前記部分画像から物体の時系列的な特徴を抽出して、抽出した物体の視覚的な特徴および時系列的な特徴に基づいて前記レーダ動画像から物体の種別を識別する
    ことを特徴とする識別装置。
  2. 前記識別部は、一定数分連続した複数のフレームの前記レーダ画像を一度に入力し、入力した前記レーダ画像から物体の種別を識別するための学習済みモデルを用いて、前記レーダ動画像から物体の種別を識別する
    ことを特徴とする請求項1に記載の識別装置。
  3. 連続した複数のフレームのレーダ画像であるレーダ動画像と、前記レーダ画像に写った物体の種別とが対応付けられた学習用データを取得する学習用データ取得部と、
    前段に畳み込みニューラルネットワークが配置され、後段に再帰型ニューラルネットワークが配置されたネットワーク構造を有しており、一定数分連続した複数のフレームの前記レーダ画像からトリミングされ、かつリサイズされた複数の部分画像が時系列順に一度に入力されると、前記畳み込みニューラルネットワークが入力した前記部分画像から物体の視覚的な特徴を抽出し、前記再帰型ニューラルネットワークが前記部分画像から物体の時系列的な特徴を抽出する前記学習済みモデルを、取得された前記学習用データを用いて生成するモデル生成部と、を備えた
    ことを特徴とする学習装置。
  4. 学習用データ取得部が、連続した複数のフレームのレーダ画像であるレーダ動画像と、前記レーダ画像に写った物体の種別とが対応付けられた学習用データを取得するステップと、
    モデル生成部が、前段に畳み込みニューラルネットワークが配置され、後段に再帰型ニューラルネットワークが配置されたネットワーク構造を有しており、一定数分連続した複数のフレームの前記レーダ画像からトリミングされ、かつリサイズされた複数の部分画像が時系列順に一度に入力されると、前記畳み込みニューラルネットワークが入力した前記部分画像から物体の視覚的な特徴を抽出し、前記再帰型ニューラルネットワークが前記部分画像から物体の時系列的な特徴を抽出する前記学習済みモデルを、取得された前記学習用データを用いて生成するステップと、を備えた
    ことを特徴とするモデル生成方法。
JP2022535069A 2020-09-01 2020-09-01 識別装置、学習装置およびモデル生成方法 Active JP7221454B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033027 WO2022049619A1 (ja) 2020-09-01 2020-09-01 識別装置、学習装置およびモデル生成方法

Publications (2)

Publication Number Publication Date
JPWO2022049619A1 JPWO2022049619A1 (ja) 2022-03-10
JP7221454B2 true JP7221454B2 (ja) 2023-02-13

Family

ID=80491820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022535069A Active JP7221454B2 (ja) 2020-09-01 2020-09-01 識別装置、学習装置およびモデル生成方法

Country Status (2)

Country Link
JP (1) JP7221454B2 (ja)
WO (1) WO2022049619A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095667A (ja) 2012-11-12 2014-05-22 Mitsubishi Electric Corp 目標類識別装置及び目標類識別方法
JP2018028906A (ja) 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
WO2019040214A1 (en) 2017-08-22 2019-02-28 Northrop Grumman Systems Corporation SYSTEM AND METHOD FOR DISTRIBUTIVE LEARNING AND WEIGHT DISTRIBUTION IN A NEURONAL NETWORK
JP2019194821A (ja) 2018-05-06 2019-11-07 英俊 古川 目標認識装置、目標認識方法及びプログラム
JP2020003379A (ja) 2018-06-29 2020-01-09 三菱重工業株式会社 データ生成装置、画像識別装置、データ生成方法及びプログラム
US20200025877A1 (en) 2018-07-18 2020-01-23 Qualcomm Incorporated Object verification using radar images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095667A (ja) 2012-11-12 2014-05-22 Mitsubishi Electric Corp 目標類識別装置及び目標類識別方法
JP2018028906A (ja) 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
WO2019040214A1 (en) 2017-08-22 2019-02-28 Northrop Grumman Systems Corporation SYSTEM AND METHOD FOR DISTRIBUTIVE LEARNING AND WEIGHT DISTRIBUTION IN A NEURONAL NETWORK
JP2019194821A (ja) 2018-05-06 2019-11-07 英俊 古川 目標認識装置、目標認識方法及びプログラム
JP2020003379A (ja) 2018-06-29 2020-01-09 三菱重工業株式会社 データ生成装置、画像識別装置、データ生成方法及びプログラム
US20200025877A1 (en) 2018-07-18 2020-01-23 Qualcomm Incorporated Object verification using radar images

Also Published As

Publication number Publication date
JPWO2022049619A1 (ja) 2022-03-10
WO2022049619A1 (ja) 2022-03-10

Similar Documents

Publication Publication Date Title
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
US10970871B2 (en) Estimating two-dimensional object bounding box information based on bird's-eye view point cloud
US11804026B2 (en) Device and a method for processing data sequences using a convolutional neural network
CN111639513A (zh) 一种船只遮挡识别方法、装置及电子设备
Gao et al. Improved YOLOv4 based on attention mechanism for ship detection in SAR images
CN111323757B (zh) 一种航海雷达目标检测方法及装置
Long et al. Underwater forward-looking sonar images target detection via speckle reduction and scene prior
JP7221454B2 (ja) 識別装置、学習装置およびモデル生成方法
Christensen et al. Side-scan sonar imaging: Automatic boulder identification
CN115661611A (zh) 一种基于改进Yolov5网络的红外小目标检测方法
CN111079797B (zh) 一种图像分类的方法、装置和存储介质
Park et al. Range-doppler map augmentation by generative adversarial network for deep UAV classification
Lee et al. Preliminary study on a framework for imaging sonar based underwater object recognition
Busson et al. Seismic shot gather noise localization using a multi-scale feature-fusion-based neural network
Fu et al. A shadow-removal based saliency map for point feature detection of underwater objects
Jaswanth et al. Change detection of sar images based on convolution neural network with curvelet transform
JP7048705B1 (ja) 対象物認識装置、対象物認識方法、およびプログラム
CN114842012B (zh) 基于位置意识u型网络的医学图像小目标检测方法及装置
US20230267749A1 (en) System and method of segmenting free space based on electromagnetic waves
Nian et al. Image Enhancement Algorithm based on Local Contrast for Convolutional Neural Network-Based Infrared Target Recognition:* Note: Subtitles are not captured in Xplore and should not be used
CN115273013B (zh) 车道线检测方法、系统、计算机及可读存储介质
Wang et al. Object detection in side scan sonar
JP7345680B2 (ja) 推論装置、推論方法及び推論プログラム
Ji et al. Adaptive underwater sonar image target detection
Winkler et al. Activity Segmentation and Fish Tracking from Sonar Videos by combining Artifacts Filtering and a Kalman Approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7221454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150