JP2019053012A - Radar signal processor, method for processing radar signal, and program - Google Patents

Radar signal processor, method for processing radar signal, and program Download PDF

Info

Publication number
JP2019053012A
JP2019053012A JP2017179128A JP2017179128A JP2019053012A JP 2019053012 A JP2019053012 A JP 2019053012A JP 2017179128 A JP2017179128 A JP 2017179128A JP 2017179128 A JP2017179128 A JP 2017179128A JP 2019053012 A JP2019053012 A JP 2019053012A
Authority
JP
Japan
Prior art keywords
target
unit
distribution
reflection level
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017179128A
Other languages
Japanese (ja)
Other versions
JP6751063B2 (en
Inventor
飯田 直樹
Naoki Iida
直樹 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017179128A priority Critical patent/JP6751063B2/en
Publication of JP2019053012A publication Critical patent/JP2019053012A/en
Application granted granted Critical
Publication of JP6751063B2 publication Critical patent/JP6751063B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

To provide a radar signal processor, a method for processing a radar signal, and a program that can reduce processing load of signal processing.SOLUTION: The radar signal processor according to an embodiment includes a derivation unit and a calculation unit. The derivation unit derives the distribution of the reflection level of a region including an object as a target to be recognized by an electric wave, from a rader image. The calculation unit calculates the coefficient of correlation between the distribution of the reflection level of the region including the object derived by the derivation unit and the distribution of the reflection level of the region including the object stored in advance.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、レーダ信号処理装置、レーダ信号処理方法、およびプログラムに関する。   Embodiments described herein relate generally to a radar signal processing device, a radar signal processing method, and a program.

逆合成開口レーダ(ISAR: Inverse Synthetic Aperture Radar)で取得したISAR画像を用いて、遠方の複数の目標物から、目標とする目標物を判別する技術が知られている。
しかし、この技術では、ISAR画像を画像処理することによって、目標物の特徴量を抽出するため、信号処理の処理負荷が大きくなってしまう。
A technique for discriminating a target from a plurality of distant targets using an ISAR image acquired by Inverse Synthetic Aperture Radar (ISAR) is known.
However, in this technique, since the feature amount of the target is extracted by performing image processing on the ISAR image, the processing load of signal processing increases.

特開2016−57164号公報JP, 2006-57164, A

本発明が解決しようとする課題は、信号処理の処理負荷を軽減することができるレーダ信号処理装置、レーダ信号処理方法、およびプログラムを提供することである。   The problem to be solved by the present invention is to provide a radar signal processing apparatus, a radar signal processing method, and a program capable of reducing the processing load of signal processing.

実施形態のレーダ信号処理装置は、導出部と、算出部とを持つ。前記導出部は、レーダ画像から、電波を用いて判別する対象である目標物を含む領域の反射レベルの分布を導出する。前記算出部は、前記導出部が導出した前記目標物を含む領域の前記反射レベルの分布と、予め記憶された前記目標物を含む領域の反射レベルの分布との相関係数を算出する。   The radar signal processing apparatus according to the embodiment includes a derivation unit and a calculation unit. The deriving unit derives a reflection level distribution of a region including a target that is a target to be determined using radio waves from a radar image. The calculation unit calculates a correlation coefficient between the reflection level distribution of the region including the target derived by the deriving unit and the distribution of the reflection level of the region including the target stored in advance.

本実施形態のレーダシステムの一例を示すブロック図。The block diagram which shows an example of the radar system of this embodiment. 本実施形態のレーダシステムの信号処理部の処理の一例(その1)を示す図。The figure which shows an example (the 1) of a process of the signal processing part of the radar system of this embodiment. 本実施形態のレーダシステムの信号処理部の処理の一例(その2)を示す図。The figure which shows an example (the 2) of a process of the signal processing part of the radar system of this embodiment. 本実施形態のレーダシステムの信号処理部の処理の一例(その3)を示す図。The figure which shows an example (the 3) of a process of the signal processing part of the radar system of this embodiment. 本実施形態のレーダシステムの処理の流れの一例(その1)を示すフローチャート。The flowchart which shows an example (the 1) of the flow of a process of the radar system of this embodiment. 本実施形態のレーダシステムの処理の流れの一例(その2)を示すフローチャート。The flowchart which shows an example (the 2) of the flow of a process of the radar system of this embodiment.

以下、実施形態のレーダ信号処理装置、レーダ信号処理方法、およびプログラムを、図面を参照して説明する。なお以下の説明では、同一または類似の機能を有する構成に同一の符号を付す。そして、それら構成の重複する説明は省略する場合がある。   Hereinafter, a radar signal processing device, a radar signal processing method, and a program according to embodiments will be described with reference to the drawings. In the following description, the same reference numerals are given to configurations having the same or similar functions. And the description which overlaps those structures may be abbreviate | omitted.

また、本願でいう「XXに基づく」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づく」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。   Further, “based on XX” in the present application means “based on at least XX”, and includes a case based on another element in addition to XX. Further, “based on XX” is not limited to the case where XX is directly used, but also includes the case where it is based on an operation or processing performed on XX. “XX” is an arbitrary element (for example, arbitrary information).

(実施形態)
(レーダシステム)
本実施形態のレーダシステムは、電波(レーダ信号)を送信し、送信したレーダ信号の物体による反射波(反射エコー)を受信する。レーダシステムは、受信した反射エコーに基づいて、一または複数の飛翔体などの目標物を判別する。ここで、目標物は、レーダ信号を用いて判別する物体などの対象である。レーダシステムは、判別した一または複数の目標物の各々を、反射エコーのS/N比(signal-noise ratio)の大きさに基づいて並べる。
レーダシステムは、反射エコーのS/N比の大きさに基づいて並べた一または複数の目標物の各々について、その目標物の大きさが閾値以下であるか否かを判定する。レーダシステムは、その目標物の大きさが閾値以下でない場合には、反射エコーに基づいて、ISAR画像などのレーダ画像を生成する。本実施形態では、レーダ画像の一例として、ISAR画像を生成する場合について説明する。レーダシステムは、レーダ画像において、目標物を通過する一または複数の線分上の反射レベルの分布を導出する。レーダシステムは、導出した反射レベルの分布と、予め記憶されているテンプレートから選択される目標物を含む領域の反射レベルの分布との相関係数を算出する。レーダシステムは、算出した相関係数に基づいて、一または複数の目標物の各々を、目標とする順序に並べる。
(Embodiment)
(Radar system)
The radar system of the present embodiment transmits radio waves (radar signals) and receives reflected waves (reflected echoes) from the objects of the transmitted radar signals. The radar system determines a target such as one or more flying objects based on the received reflected echo. Here, the target is a target such as an object to be identified using a radar signal. The radar system arranges each of the determined one or more targets based on the magnitude of the S / N ratio (signal-noise ratio) of the reflected echo.
The radar system determines, for each of one or more targets arranged based on the magnitude of the S / N ratio of the reflected echo, whether the size of the target is equal to or less than a threshold value. The radar system generates a radar image such as an ISAR image based on the reflected echo when the size of the target is not less than the threshold value. In the present embodiment, a case where an ISAR image is generated as an example of a radar image will be described. The radar system derives a distribution of reflection levels on one or more line segments that pass through the target in the radar image. The radar system calculates a correlation coefficient between the derived reflection level distribution and the reflection level distribution of an area including a target selected from a template stored in advance. The radar system arranges each of one or a plurality of targets in a target order based on the calculated correlation coefficient.

図1は、本実施形態のレーダシステムの一例を示すブロック図である。
レーダシステム100は、例えば、アンテナ102と、サーキュレータ104と、送信部106と、受信部108と、信号処理部110と、記憶部126と、表示部130とを備える。レーダシステム100は、移動体に搭載されて移動しながら使用されてもよいし、静止した状態で使用されてもよい。
FIG. 1 is a block diagram illustrating an example of a radar system according to the present embodiment.
The radar system 100 includes, for example, an antenna 102, a circulator 104, a transmission unit 106, a reception unit 108, a signal processing unit 110, a storage unit 126, and a display unit 130. The radar system 100 may be used while being mounted on a moving body or may be used in a stationary state.

アンテナ102は、複数のアンテナ素子を配列して大開口アレイを形成するフェーズドアレイアンテナであり、送信部106が特定の周期で繰り返し出力する特定周波数の送信パルス信号(以下、「レーダ信号」という)を指定方向に送信し、送信したレーダ信号の物体による反射エコーを、受信部108へ出力する。
サーキュレータ104は、アンテナ102と接続される。サーキュレータ104は、送受信信号を分離する循環回路である。サーキュレータ104は、送信部106が出力したレーダ信号をアンテナ102へ出力し、アンテナ102が出力した反射エコーを受信部108へ出力する。
The antenna 102 is a phased array antenna in which a plurality of antenna elements are arranged to form a large aperture array, and a transmission pulse signal (hereinafter referred to as a “radar signal”) having a specific frequency that is repeatedly output by the transmission unit 106 at a specific period. Is transmitted in the designated direction, and the echo reflected by the object of the transmitted radar signal is output to the receiving unit.
Circulator 104 is connected to antenna 102. The circulator 104 is a circulation circuit that separates transmission / reception signals. The circulator 104 outputs the radar signal output from the transmission unit 106 to the antenna 102 and outputs the reflected echo output from the antenna 102 to the reception unit 108.

送信部106は、サーキュレータ104と接続される。送信部106は、例えば、特定の周期でレーダ信号を生成し、生成したレーダ信号を、サーキュレータ104を介してアンテナ102から空間へ送信(放射)する。アンテナ102により送信されたレーダ信号の一部は、物体によって反射される。
受信部108は、サーキュレータ104と接続される。受信部108は、送信部106がレーダ信号を生成する周期に基づく周期で、アンテナ102が出力する信号に基づいて、レーダ受信信号を生成する。具体的には、受信部108は、アンテナ102の複数のアンテナ素子でそれぞれ受信された信号を、位相制御を施し合成することで、任意の方向に受信ビーム(レーダ受信信号)を形成する。受信部108は、生成したレーダ受信信号を信号処理部110に出力する。また、受信部108は、レーダシステム100の外部から送信される目標情報を受信し、受信した目標情報を、姿勢角推定部121aへ出力する。ここで、目標情報には、目標位置、目標速度、ビーム指向方向などが含まれる。目標位置は目標物の位置であり、目標速度は目標物の速度であり、ビーム指向方向はレーダシステム100が送信するレーダ信号の指向方向である。
Transmitter 106 is connected to circulator 104. For example, the transmission unit 106 generates a radar signal at a specific period, and transmits (radiates) the generated radar signal from the antenna 102 to the space via the circulator 104. A part of the radar signal transmitted by the antenna 102 is reflected by the object.
The receiving unit 108 is connected to the circulator 104. The receiving unit 108 generates a radar reception signal based on a signal output from the antenna 102 at a cycle based on a cycle at which the transmission unit 106 generates a radar signal. Specifically, the reception unit 108 forms a reception beam (radar reception signal) in an arbitrary direction by performing phase control and combining the signals received by the plurality of antenna elements of the antenna 102. The receiving unit 108 outputs the generated radar reception signal to the signal processing unit 110. The receiving unit 108 receives target information transmitted from the outside of the radar system 100, and outputs the received target information to the attitude angle estimating unit 121a. Here, the target information includes a target position, a target speed, a beam pointing direction, and the like. The target position is the position of the target, the target speed is the speed of the target, and the beam pointing direction is the pointing direction of the radar signal transmitted by the radar system 100.

記憶部126は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部126には、信号処理部110により参照される各種情報が格納されている。具体的には、記憶部126は、一または複数の目標物を含む領域の反射レベルの分布のテンプレートが記憶される。目標物を含む領域の反射レベルの分布については後述する。ここで、目標物が同じでも、目標物の姿勢角が異なる場合には、目標物を含む領域の反射レベルは、異なる。このため、所定の姿勢角毎に、目標物を含む領域の反射レベルの分布が記憶される。
また、記憶部126には、信号処理部110がCPU(Central Processing Unit)などのプロセッサを含む場合、プロセッサにより実行されるプログラム(信号処理プログラム)が格納されてよい。
表示部130は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置などにより実現される。表示部130は、信号処理部110が出力した目標とする順序に目標物を並べた画面を表示する。
The storage unit 126 is realized by, for example, a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), a flash memory, or a hybrid storage device in which a plurality of these are combined. Various information referred to by the signal processing unit 110 is stored in the storage unit 126. Specifically, the storage unit 126 stores a reflection level distribution template of an area including one or more targets. The reflection level distribution of the region including the target will be described later. Here, even if the target is the same, when the posture angle of the target is different, the reflection level of the region including the target is different. For this reason, the distribution of the reflection level of the area including the target is stored for each predetermined posture angle.
In addition, when the signal processing unit 110 includes a processor such as a CPU (Central Processing Unit), the storage unit 126 may store a program (signal processing program) executed by the processor.
The display unit 130 is realized by an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display device, or the like. The display unit 130 displays a screen in which targets are arranged in the target order output by the signal processing unit 110.

信号処理部110の全部または一部は、例えば、CPUなどのプロセッサが記憶部126に記憶されたプログラムを実行することにより実現される機能部(以下、ソフトウェア機能部と称する)である。なお、信号処理部110の全部または一部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。
信号処理部110は、例えば、S/N比判別部112と、範囲判別部114と、ISAR画像生成部116と、画像処理部118と、導出部120と、姿勢角推定部121aと、選択部121bと、相関係数算出部122と、目標順序設定部124とを備える。
All or part of the signal processing unit 110 is a functional unit (hereinafter referred to as a software functional unit) realized by a processor such as a CPU executing a program stored in the storage unit 126, for example. Note that all or part of the signal processing unit 110 may be realized by hardware such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). It may be realized by a combination of a unit and hardware.
The signal processing unit 110 includes, for example, an S / N ratio determination unit 112, a range determination unit 114, an ISAR image generation unit 116, an image processing unit 118, a derivation unit 120, an attitude angle estimation unit 121a, and a selection unit. 121b, a correlation coefficient calculation unit 122, and a target order setting unit 124.

S/N比判別部112は、受信部108と接続される。S/N比判別部112は、受信部108が出力したレーダ受信信号を取得する。S/N比判別部112は、取得したレーダ受信信号に基づいて、パルス圧縮、レンジ圧縮、クロスレンジ圧縮などの処理を行うことによって、レーダ受信信号が表わす一または複数の目標物を判別する。また、レーダシステム100は、アンテナ102が複数の素子を備えるため、レーダビーム内における受信強度の強弱を把握することができる。S/N比判別部112は、受信強度の分布や、受信強度の大きい領域の連結成分(画像処理におけるセグメント)などを基準として、物体を周辺領域と区別して特定する。また、S/N比判別部112は、反射エコーのS/N比に基づいて、S/N比が大きい順に、レーダ受信信号に基づいて判別した一または複数の目標物を順序付けする。S/N比判別部112は、一または複数の目標物を順序付けした結果を、範囲判別部114へ出力する。   The S / N ratio discriminating unit 112 is connected to the receiving unit 108. The S / N ratio determination unit 112 acquires the radar reception signal output from the reception unit 108. The S / N ratio discriminating unit 112 discriminates one or a plurality of targets represented by the radar reception signal by performing processing such as pulse compression, range compression, and cross-range compression based on the acquired radar reception signal. Further, since the antenna 102 includes a plurality of elements, the radar system 100 can grasp the strength of the reception intensity in the radar beam. The S / N ratio discriminating unit 112 distinguishes and identifies an object from the surrounding area based on the distribution of received intensity, the connected component (segment in image processing) of an area with high received intensity, and the like. Further, the S / N ratio discriminating unit 112 orders one or a plurality of targets discriminated based on the radar reception signal in descending order of the S / N ratio based on the S / N ratio of the reflected echo. The S / N ratio discriminating unit 112 outputs the result of ordering one or more targets to the range discriminating unit 114.

範囲判別部114は、S/N比判別部112と接続される。範囲判別部114は、S/N比判別部112が出力した一または複数の目標物を順序付けした結果を取得し、取得した順序にしたがって、一または複数の目標物の各々について、その目標物の大きさが閾値以下であるか否かを判定する。具体的には、範囲判別部114は、目標物よりも小さいレンジセル単位で、RCS(Radar Cross Section)強度を検出する。範囲判別部114は、検出したRCS強度に基づいて、目標物が占めるレンジセルを特定し、特定したレンジセルに基づいて、目標物の大きさを推定する。範囲判別部114は、閾値以下でないと判定した目標物を、目標とする。範囲判別部114は、閾値以下でないと判定した目標物による反射エコーから生成されたレーダ受信信号を、ISAR画像生成部116へ出力する。   Range determination unit 114 is connected to S / N ratio determination unit 112. The range discriminating unit 114 acquires the result of ordering the one or more targets output from the S / N ratio discriminating unit 112, and for each of the one or more targets, according to the acquired order, It is determined whether the size is equal to or smaller than a threshold value. Specifically, the range discriminating unit 114 detects the RCS (Radar Cross Section) intensity in units of range cells smaller than the target. The range discriminating unit 114 identifies the range cell occupied by the target based on the detected RCS intensity, and estimates the size of the target based on the identified range cell. The range determination unit 114 sets a target determined as not being equal to or less than the threshold as a target. The range discriminating unit 114 outputs the radar reception signal generated from the reflected echo by the target determined not to be equal to or less than the threshold value to the ISAR image generating unit 116.

ISAR画像生成部116は範囲判別部114と接続される。ISAR画像生成部116は、範囲判別部114が出力したレーダ受信信号を取得し、取得したレーダ受信信号に基づいて、レンジ・ドップラ法によりISAR画像を生成する。具体的には、ISAR画像生成部116は、時間領域のデータであるレーダ受信信号に対して、FFT(Fast Fourier Transform; 高速フーリエ変換)を行って、周波数領域のレーダ受信信号を導出する。ISAR画像生成部116は、時間領域のデータであるレンジ参照信号に対して、FFTを行って、周波数領域のレンジ参照信号を導出する。ISAR画像生成部116は、導出した周波数領域のレーダ受信信号と、導出した周波数領域のレンジ参照信号とを掛け合わせることで、周波数領域のレンジ圧縮データを導出する。
さらに、ISAR画像生成部116は、時間領域のデータであるクロスレンジ参照信号に対して、FFTを行って、周波数領域のクロスレンジ参照信号を導出する。ISAR画像生成部116は、周波数領域のレンジ圧縮データと周波数領域のクロスレンジ参照信号とを掛け合わせることで、周波数領域のクロスレンジ圧縮データを導出する。ISAR画像生成部116は、周波数領域のクロスレンジ圧縮データに対して、2次元FFTを行って、時間領域のクロスレンジ圧縮データを導出し、導出した時間領域のクロスレンジ圧縮データに基づいて画像データを出力する。
図2は、本実施形態のレーダシステムの信号処理部の処理の一例(その1)を示す図である。図2の(a)は目標物のモデルの一例であり、図2の(b)はその目標物を含む領域のISAR画像の一例である。図2の(a)と図2の(b)において、横軸はレンジ方向の距離を表し、縦軸はクロスレンジを表している。また、図2の(b)に示される画像における濃淡(輝度)は、反射波の強度のレベル(反射レベル)を示している。ISAR画像生成部116は、生成したISAR画像を、画像処理部118へ出力する。
The ISAR image generation unit 116 is connected to the range determination unit 114. The ISAR image generation unit 116 acquires the radar reception signal output from the range determination unit 114, and generates an ISAR image by a range Doppler method based on the acquired radar reception signal. Specifically, the ISAR image generation unit 116 performs FFT (Fast Fourier Transform) on the radar reception signal, which is time domain data, to derive the frequency domain radar reception signal. The ISAR image generation unit 116 performs FFT on the range reference signal, which is time domain data, to derive a frequency domain range reference signal. The ISAR image generation unit 116 derives frequency domain range compressed data by multiplying the derived frequency domain radar reception signal by the derived frequency domain range reference signal.
Further, the ISAR image generation unit 116 performs FFT on the cross-range reference signal that is time-domain data to derive a frequency-domain cross-range reference signal. The ISAR image generation unit 116 multiplies the frequency domain range compressed data and the frequency domain cross range reference signal to derive frequency domain cross range compressed data. The ISAR image generation unit 116 performs two-dimensional FFT on the frequency domain cross-range compressed data to derive time-domain cross-range compressed data, and image data based on the derived time-domain cross-range compressed data. Is output.
FIG. 2 is a diagram illustrating an example (part 1) of processing performed by the signal processing unit of the radar system according to the present embodiment. 2A is an example of a target model, and FIG. 2B is an example of an ISAR image of a region including the target. 2A and 2B, the horizontal axis represents the distance in the range direction, and the vertical axis represents the cross range. Further, the shading (luminance) in the image shown in FIG. 2B indicates the intensity level (reflection level) of the reflected wave. The ISAR image generation unit 116 outputs the generated ISAR image to the image processing unit 118.

図1に戻り、画像処理部118について説明する。画像処理部118は、ISAR画像生成部116と接続され、ISAR画像生成部116が出力したISAR画像を取得する。画像処理部118は、取得したISAR画像に対して画像処理を施すことによって、ノイズを除去する。具体的には、画像処理部118は、ISAR画像の複数の画素の各々について、反射レベルの値が閾値以上であれば黒とし、閾値未満であれば白とすることによって、2値化する。画像処理部118は、ISAR画像を2値化することによって得られる画像から目標物を含む領域の画像を抽出し、抽出した目標物を含む領域の画像を、導出部120へ出力する。
図3は、本実施形態のレーダシステムの信号処理部の処理の一例(その2)を示す図である。図3の左図は図2の(b)に示したISAR画像を2値化することによって得られる画像の一例を示す。図3の左図において、横軸はレンジ[m]であり、縦軸はクロスレンジ[m]である。また、図3の右図は、ISAR画像を2値化することによって得られる画像から目標物を含む領域を抽出した結果を示す。図3の右図において、横軸はレンジ[m]であり、縦軸はクロスレンジ[m]である。2値化することによって、ISAR画像から目標物を含む領域を抽出し易くすることができる。
Returning to FIG. 1, the image processing unit 118 will be described. The image processing unit 118 is connected to the ISAR image generation unit 116 and acquires the ISAR image output from the ISAR image generation unit 116. The image processing unit 118 removes noise by performing image processing on the acquired ISAR image. Specifically, the image processing unit 118 binarizes each of the plurality of pixels of the ISAR image by setting the pixel to black if the reflection level value is equal to or greater than the threshold value and white if the reflection level value is less than the threshold value. The image processing unit 118 extracts an image of a region including the target from an image obtained by binarizing the ISAR image, and outputs the extracted image of the region including the target to the deriving unit 120.
FIG. 3 is a diagram illustrating an example (part 2) of the processing of the signal processing unit of the radar system according to the present embodiment. The left diagram in FIG. 3 shows an example of an image obtained by binarizing the ISAR image shown in FIG. In the left diagram of FIG. 3, the horizontal axis is the range [m], and the vertical axis is the cross range [m]. Moreover, the right figure of FIG. 3 shows the result of having extracted the area | region containing a target object from the image obtained by binarizing an ISAR image. In the right diagram of FIG. 3, the horizontal axis is the range [m], and the vertical axis is the cross range [m]. By binarizing, it is possible to easily extract a region including the target from the ISAR image.

図1に戻り、導出部120について説明する。導出部120は、画像処理部118が出力した目標物を含む領域の画像に基づいて、目標物を含む領域の画像のレンジ方向の線分上、およびレンジ方向に直交するクロスレンジ方向の線分上のいずれか一方又は両方について、反射レベルの分布を導出する。以下、導出部120は、画像処理部118が出力した目標物を含む領域の画像に基づいて、目標物を含む領域の画像のレンジ方向の線分上、およびレンジ方向に直交するクロスレンジ方向の線分上の両方について、反射レベルの分布を導出する場合について、説明を続ける。ここで、線分上は、線分を含む。具体的には、導出部120は、目標物を含む領域の画像を、レンジ方向にN(Nは、N>0の整数)個に分割することによって、複数の分割画像を取得する。導出部120は、複数の分割画像の各々に含まれる画素について、その画素に表される反射レベルの値を累積することによって、レンジ方向の反射レベルの分布を導出する。
また、導出部120は、目標物を含む領域の画像を、クロスレンジ方向にM(Mは、M>0の整数)個に分割することによって、複数の分割画像を取得する。導出部120は、複数の分割画像の各々に含まれる画素について、その画素に表される反射レベルの値を累積することによって、クロスレンジ方向の反射レベルの分布を導出する。導出部120は、導出したレンジ方向の反射レベルの分布とクロスレンジ方向の反射レベルの分布とを、相関係数算出部122へ出力する。
Returning to FIG. 1, the deriving unit 120 will be described. The deriving unit 120 is based on the image of the region including the target object output from the image processing unit 118, on the line segment in the range direction of the image including the target object, and the line segment in the cross range direction orthogonal to the range direction. A distribution of reflection levels is derived for either or both of the above. Hereinafter, based on the image of the region including the target object output from the image processing unit 118, the deriving unit 120 is on the line segment in the range direction of the image including the target object and in the cross range direction orthogonal to the range direction. The description of the case of deriving the reflection level distribution for both of the line segments will be continued. Here, the line segment includes the line segment. Specifically, the derivation unit 120 acquires a plurality of divided images by dividing an image of a region including the target object into N (N is an integer of N> 0) in the range direction. The deriving unit 120 derives the distribution of the reflection level in the range direction by accumulating the value of the reflection level represented in each pixel included in each of the plurality of divided images.
The deriving unit 120 acquires a plurality of divided images by dividing the image of the region including the target object into M (M is an integer of M> 0) in the cross range direction. The deriving unit 120 derives the distribution of the reflection level in the cross-range direction by accumulating the value of the reflection level represented in each pixel included in each of the plurality of divided images. The deriving unit 120 outputs the derived reflection level distribution in the range direction and the reflection level distribution in the cross range direction to the correlation coefficient calculation unit 122.

図4は、本実施形態のレーダシステムの信号処理部の処理の一例(その3)を示す図である。図4の(a)はレンジ方向の反射レベルの分布の一例を示し、図4の(b)はクロスレンジ方向の反射レベルの分布の一例を示す。図4の(a)に示すレンジ方向の反射レベルの分布の一例によれば、図3の右図において、レンジが4mと12mの近傍の領域が反射レベルの高い黒色となっているため、反射レベルの値を累積することによって得られる反射レベルの分布である図4の(a)において、二つの山が形成されている。ただし、図4の(a)においては、図3の右図のレンジが8mを、0mとして表している。
また、図4の(b)に示すクロスレンジ方向の反射レベルの分布の一例によれば、図3の右図において、クロスレンジが4mの近傍の領域が反射レベルの高い黒色となっているため、反射レベルの値を累積することによって得られる反射レベルの分布である図4の(b)において、一つの山が形成されている。ただし、図4の(b)においては、図3の右図のクロスレンジが4mを、0mとして表している。
FIG. 4 is a diagram illustrating an example (part 3) of the processing of the signal processing unit of the radar system according to the present embodiment. 4A shows an example of the distribution of the reflection level in the range direction, and FIG. 4B shows an example of the distribution of the reflection level in the cross range direction. According to an example of the distribution of the reflection level in the range direction shown in FIG. 4 (a), in the right diagram of FIG. 3, the areas near the ranges 4m and 12m are black with a high reflection level. In FIG. 4A, which is a reflection level distribution obtained by accumulating level values, two peaks are formed. However, in (a) of FIG. 4, the range of the right figure of FIG. 3 represents 8 m as 0 m.
Further, according to the example of the distribution of the reflection level in the cross range direction shown in FIG. 4B, the region near the cross range of 4 m is black with a high reflection level in the right diagram of FIG. In FIG. 4B, which is a reflection level distribution obtained by accumulating the reflection level values, one mountain is formed. However, in FIG. 4B, the cross range in the right diagram of FIG. 3 represents 4 m as 0 m.

図1に戻り、姿勢角推定部121aについて説明する。姿勢角推定部121aは、受信部108と接続され、受信部108が出力する目標情報を取得する。目標情報には、目標位置情報、目標速度情報、ビームの指向方向情報などが含まれる。姿勢角推定部121aは、取得した目標情報に基づいて、目標物の姿勢角を推定し、推定した姿勢角を示す情報を、選択部121bへ出力する。
選択部121bは、姿勢角推定部121aと接続され、姿勢角推定部121aが出力した姿勢角を示す情報を取得する。選択部121bは、目標物の姿勢角を示す情報と、記憶部126に記憶されているテンプレートに含まれる目標物を含む領域の反射レベルの分布の識別情報とを関連付けて記憶している。選択部121bは、取得した姿勢角を示す情報に基づいて、目標物を含む領域の反射レベルの分布の識別情報を選択する。選択部121bは、選択した目標物を含む領域の反射レベルの分布の識別情報を、相関係数算出部122へ出力する。
Returning to FIG. 1, the attitude angle estimation unit 121a will be described. The posture angle estimation unit 121a is connected to the reception unit 108 and acquires target information output by the reception unit 108. The target information includes target position information, target speed information, beam pointing direction information, and the like. The posture angle estimation unit 121a estimates the posture angle of the target based on the acquired target information, and outputs information indicating the estimated posture angle to the selection unit 121b.
The selection unit 121b is connected to the posture angle estimation unit 121a and acquires information indicating the posture angle output by the posture angle estimation unit 121a. The selection unit 121b stores information indicating the posture angle of the target and the identification information of the distribution of the reflection level of the region including the target included in the template stored in the storage unit 126 in association with each other. The selection unit 121b selects the identification information of the distribution of the reflection level of the area including the target based on the acquired information indicating the posture angle. The selection unit 121b outputs the identification information of the distribution of the reflection level of the region including the selected target to the correlation coefficient calculation unit 122.

相関係数算出部122は、選択部121bと、導出部120と接続される。
相関係数算出部122は、選択部121bが出力した目標物を含む領域の反射レベルの分布の識別情報を取得する。
相関係数算出部122は、導出部120が出力した目標物を含む領域の反射レベルの分布を取得する。また、相関係数算出部122は、目標物を含む領域の反射レベルの分布の識別情報に該当する目標物を含む領域の反射レベルの分布を、記憶部126に記憶されたテンプレートから取得する。目標物を含む領域の反射レベルの分布は、レンジ方向の反射レベルの周辺分布と、クロスレンジ方向の反射レベルの周辺分布とを含む。
相関係数算出部122は、導出部120から取得した目標物を含む領域のレンジ方向の反射レベルの分布と、テンプレートから取得した目標物を含む領域のレンジ方向の反射レベルの分布との間の相関係数(以下、「レンジ方向の相関係数」という)を算出する。また、相関係数算出部122は、導出部120から取得した目標物を含む領域のクロスレンジ方向の反射レベルの分布と、テンプレートから取得した目標物を含む領域のクロスレンジ方向の反射レベルの分布との間の相関係数(以下、「クロスレンジ方向の相関係数」という)を算出する。相関係数算出部122は、レンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とを、目標順序設定部124へ出力する。
具体的には、相関係数算出部122は、レンジ方向の相関係数を、式(1)によって算出する。
The correlation coefficient calculation unit 122 is connected to the selection unit 121b and the derivation unit 120.
The correlation coefficient calculation unit 122 acquires the identification information of the reflection level distribution of the region including the target output from the selection unit 121b.
The correlation coefficient calculation unit 122 acquires the reflection level distribution of the region including the target output from the derivation unit 120. Further, the correlation coefficient calculation unit 122 acquires the reflection level distribution of the region including the target corresponding to the identification information of the reflection level distribution of the region including the target from the template stored in the storage unit 126. The distribution of the reflection level in the region including the target includes the peripheral distribution of the reflection level in the range direction and the peripheral distribution of the reflection level in the cross range direction.
The correlation coefficient calculation unit 122 is between the distribution of the reflection level in the range direction of the region including the target acquired from the derivation unit 120 and the distribution of the reflection level in the range direction of the region including the target acquired from the template. A correlation coefficient (hereinafter referred to as “range direction correlation coefficient”) is calculated. The correlation coefficient calculation unit 122 also distributes the reflection level distribution in the cross-range direction of the region including the target acquired from the derivation unit 120 and the distribution of the reflection level in the cross-range direction of the region including the target acquired from the template. Is calculated (hereinafter referred to as “correlation coefficient in the cross-range direction”). The correlation coefficient calculation unit 122 outputs the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction to the target order setting unit 124.
Specifically, the correlation coefficient calculation unit 122 calculates the correlation coefficient in the range direction using Expression (1).

式(1)において、「ρ(A,B)」はレンジ方向の相関係数であり、Aは導出部120から取得した目標物を含む領域のレンジ方向の反射レベルの分布であり、Bは記憶部126から取得した目標物を含む領域のレンジ方向の反射レベルの分布である。また、「N」はISAR画像のレンジ方向の分割数であり、「Ai」は目標物のレンジ方向の反射レベルの分布における反射レベルの値である。「μA」、および「σA」は目標物を含む領域のレンジ方向の反射レベルの分布における反射レベルの値の平均値、および分散値である。また、「Bi」は目標物を含む領域のレンジ方向の反射レベルの分布における反射レベルの値であり、「μB」、および「σB」は目標物を含む領域のレンジ方向の反射レベルの分布における反射レベルの値の平均値、および分散値である。   In Expression (1), “ρ (A, B)” is a correlation coefficient in the range direction, A is a distribution of reflection levels in the range direction of the region including the target acquired from the derivation unit 120, and B is It is the distribution of the reflection level in the range direction of the region including the target acquired from the storage unit 126. “N” is the number of divisions in the range direction of the ISAR image, and “Ai” is the value of the reflection level in the distribution of reflection levels in the range direction of the target. “ΜA” and “σA” are the average value and dispersion value of the reflection level values in the distribution of the reflection level in the range direction of the region including the target. “Bi” is the value of the reflection level in the distribution of the reflection level in the range direction of the region including the target, and “μB” and “σB” are the distribution of the reflection level in the range of the region including the target. The average value of the reflection level value and the dispersion value.

また、相関係数算出部122は、クロスレンジ方向の相関係数を、式(2)によって算出する。   In addition, the correlation coefficient calculation unit 122 calculates the correlation coefficient in the cross range direction using Expression (2).

式(2)において、「ρ(C,D)」はクロスレンジ方向の相関係数であり、Cは導出部120から取得した目標物を含む領域のクロスレンジ方向の反射レベルの分布であり、Dは記憶部126から取得した目標物を含む領域のクロスレンジ方向の反射レベルの分布である。また、「M」は目標物を含む領域の画像のクロスレンジ方向の分割数であり、「Ci」は目標物を含む領域のクロスレンジ方向の反射レベルの分布における反射レベルの値であり、「μC」、および「σC」は目標物を含む領域のクロスレンジ方向の反射レベルの分布における反射レベルの値の平均値、および分散値である。また、式(2)において、「Di」は目標を含む領域物のクロスレンジ方向の反射レベルの分布における反射レベルの値であり、「μD」、および「σD」は目標物を含む領域のクロスレンジ方向の反射レベルの分布における反射レベルの値の平均値、および分散値である。   In Expression (2), “ρ (C, D)” is a correlation coefficient in the cross range direction, C is a distribution of the reflection level in the cross range direction of the region including the target acquired from the derivation unit 120, D is the distribution of the reflection level in the cross range direction of the region including the target acquired from the storage unit 126. Further, “M” is the number of divisions in the cross range direction of the image of the region including the target, and “Ci” is the value of the reflection level in the distribution of the reflection level in the cross range direction of the region including the target. “μC” and “σC” are the average value and the dispersion value of the reflection level values in the distribution of the reflection level in the cross range direction of the region including the target. In Expression (2), “Di” is the value of the reflection level in the distribution of the reflection level in the cross range direction of the area object including the target, and “μD” and “σD” are the cross of the area including the target object. It is the average value and dispersion value of the reflection level values in the distribution of the reflection level in the range direction.

目標順序設定部124は、相関係数算出部122と接続され、相関係数算出部122が出力した一または複数の目標物の各々について、レンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とを取得する。目標順序設定部124は、取得した一または複数の目標物の各々についてのレンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とに基づいて、相関係数が大きい順に並べる。例えば、目標順序設定部124は、レンジ方向の相関係数の算出結果とクロスレンジ方向の相関係数の算出結果との和などの統計値を導出し、導出した統計値が大きい順に並べるようにしてもよい。目標順序設定部124は、一または複数の目標物を並べた結果を示した画像を作成し、作成した画像を、表示部130へ出力する。
表示部130は、目標順序設定部124と接続され、目標順序設定部124が出力した目標物を並べた結果を示した画像を取得し、取得した画像を表示する。
The target order setting unit 124 is connected to the correlation coefficient calculation unit 122, and for each of one or a plurality of targets output by the correlation coefficient calculation unit 122, the calculation result of the correlation coefficient in the range direction and the cross range direction And the correlation coefficient calculation result. The target order setting unit 124 has a large correlation coefficient based on the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction for each of the acquired one or more targets. Arrange in order. For example, the target order setting unit 124 derives a statistical value such as the sum of the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction, and arranges the calculated statistical values in descending order. May be. The target order setting unit 124 creates an image showing the result of arranging one or a plurality of targets, and outputs the created image to the display unit 130.
The display unit 130 is connected to the target order setting unit 124, acquires an image showing a result of arranging the targets output by the target order setting unit 124, and displays the acquired image.

(レーダシステムの動作)
本実施形態のレーダシステムの動作を、図5、図6を参照して説明する。
図5は、本実施形態のレーダシステムの処理の流れの一例(その1)を示すフローチャートである。図5は、レーダシステム100の外部から通知される目標情報に基づいて、信号処理部110が、目標物を含む領域の反射レベルの分布を選択する処理を示す。
(ステップS101) 信号処理部110の姿勢角推定部121aは、レーダシステム100の外部から、目標情報を取得する。
(ステップS102) 信号処理部110の姿勢角推定部121aは、取得した目標情報に基づいて、目標物の姿勢角を推定する。姿勢角推定部121aは、目標物の姿勢角の推定結果を、選択部121bへ出力する。
(ステップS103) 信号処理部110の選択部121bは、姿勢角推定部121aが出力した目標物の姿勢角の推定結果に基づいて、目標物を含む領域の反射レベルの分布の識別情報を選択する。選択部121bは、選択した目標物を含む領域の反射レベルの分布の識別情報を、相関係数算出部122へ出力する。
(Radar system operation)
The operation of the radar system of this embodiment will be described with reference to FIGS.
FIG. 5 is a flowchart illustrating an example (part 1) of the processing flow of the radar system according to the present embodiment. FIG. 5 shows a process in which the signal processing unit 110 selects the distribution of the reflection level of the region including the target based on the target information notified from the outside of the radar system 100.
(Step S <b> 101) The attitude angle estimation unit 121 a of the signal processing unit 110 acquires target information from outside the radar system 100.
(Step S102) The posture angle estimation unit 121a of the signal processing unit 110 estimates the posture angle of the target based on the acquired target information. The posture angle estimation unit 121a outputs the estimation result of the posture angle of the target to the selection unit 121b.
(Step S103) The selection unit 121b of the signal processing unit 110 selects the identification information of the distribution of the reflection level of the region including the target based on the estimation result of the target posture angle output from the posture angle estimation unit 121a. . The selection unit 121b outputs the identification information of the distribution of the reflection level of the region including the selected target to the correlation coefficient calculation unit 122.

図6は、本実施形態のレーダシステムの処理の流れの一例(その2)を示すフローチャートである。図6は、レーダシステム100の信号処理部110が、目標とする順に、目標物を並べる処理を示す。
(ステップS201) 信号処理部110のS/N比判別部112は、レーダ受信信号を取得し、取得したレーダ受信信号に基づいて、一または複数の目標物を判別する。S/N比判別部112は、判別した一または複数の目標物を、反射エコーのS/N比が大きい順に、順序付けする。
(ステップS202) 信号処理部110の範囲判別部114は、S/N比判別部112が出力した一または複数の目標物を順序付けした結果を取得する。範囲判別部114は、取得した順序にしたがって、一または複数の目標物の各々について、その目標物の大きさが閾値以下であるか否かを判定することによって、目標物の大きさを判定する。目標物の大きさが、閾値以下である場合にはステップS203へ移行し、閾値より大きい場合にはステップS204へ移行する。
FIG. 6 is a flowchart illustrating an example (part 2) of the processing flow of the radar system according to the present embodiment. FIG. 6 shows a process in which the signal processing unit 110 of the radar system 100 arranges the targets in the target order.
(Step S201) The S / N ratio determination unit 112 of the signal processing unit 110 acquires a radar reception signal, and determines one or more targets based on the acquired radar reception signal. The S / N ratio discriminating unit 112 orders the discriminated one or more targets in descending order of the S / N ratio of the reflected echo.
(Step S202) The range determination unit 114 of the signal processing unit 110 acquires the result of ordering one or more targets output from the S / N ratio determination unit 112. The range discriminating unit 114 determines the size of the target object by determining whether or not the size of the target object is equal to or less than a threshold value for each of the one or more target objects according to the acquired order. . If the size of the target is less than or equal to the threshold, the process proceeds to step S203, and if greater than the threshold, the process proceeds to step S204.

(ステップS203) 信号処理部110の範囲判別部114は、他の目標物があるか否かを判定する。他の目標物がある場合にはステップS202へ移行し、ない場合にはステップS208へ移行する。
(ステップS204) 信号処理部110のISAR画像生成部116は、範囲判別部114が出力したレーダ受信信号を取得し、取得したレーダ受信信号に基づいて、ISAR画像を生成する。
(ステップS205) 信号処理部110の画像処理部118は、ISAR画像生成部116が出力したISAR画像を取得し、取得したISAR画像に対して画像処理を施すことによって、ノイズを除去する。画像処理部118は、ISAR画像を2値化することによってノイズを除去した画像から目標物を含む領域の画像を抽出し、抽出した目標物を含む領域の画像を、導出部120へ出力する。
(Step S203) The range determination unit 114 of the signal processing unit 110 determines whether there is another target. If there is another target, the process proceeds to step S202, and if not, the process proceeds to step S208.
(Step S204) The ISAR image generation unit 116 of the signal processing unit 110 acquires the radar reception signal output from the range determination unit 114, and generates an ISAR image based on the acquired radar reception signal.
(Step S205) The image processing unit 118 of the signal processing unit 110 acquires the ISAR image output from the ISAR image generation unit 116, and removes noise by performing image processing on the acquired ISAR image. The image processing unit 118 extracts the image of the region including the target from the image from which noise has been removed by binarizing the ISAR image, and outputs the extracted image of the region including the target to the deriving unit 120.

(ステップS206) 信号処理部110の導出部120は、画像処理部118が出力した目標物を含む領域の画像に基づいて、目標物を含む領域の画像のレンジ方向、およびクロスレンジ方向について、目標物を含む領域の反射レベルの分布を導出する。
(ステップS207) 信号処理部110の相関係数算出部122は、導出部120が出力した目標物を含む領域の反射レベルの分布を取得する。また、相関係数算出部122は、選択部121bが出力する目標物を含む領域の反射レベルの分布の識別情報に該当する目標物を含む領域の反射レベルの分布を、記憶部126に記憶されたテンプレートから取得する。相関係数算出部122は、レンジ方向の相関係数と、クロスレンジ方向の相関係数とを算出する。相関係数算出部122が、レンジ方向の相関係数と、クロスレンジ方向の相関係数とを算出した後、ステップS203へ移行する。
(ステップS208) ステップS203で、他の目標物がないと判定された場合、信号処理部110の目標順序設定部124は、相関係数算出部122が出力した一または複数の目標物の各々について、レンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とを取得する。目標順序設定部124は、取得した一または複数の目標物の各々について、レンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とに基づいて、目標とする順序に、目標物を並べる。目標順序設定部124は、目標とする順序に、目標物を並べた結果を示した画像を作成し、作成した画像を表示部130へ出力する。
(ステップS209) 表示部130は、目標順序設定部124が出力した目標物を並べた結果を示した画像を取得し、取得した画像を表示する。
(Step S <b> 206) The deriving unit 120 of the signal processing unit 110 performs the target for the range direction and the cross range direction of the image of the region including the target based on the image of the region including the target output from the image processing unit 118. The distribution of the reflection level of the area including the object is derived.
(Step S207) The correlation coefficient calculation unit 122 of the signal processing unit 110 acquires the distribution of the reflection level of the region including the target output from the derivation unit 120. In addition, the correlation coefficient calculation unit 122 stores the reflection level distribution of the region including the target corresponding to the identification information of the distribution of the reflection level of the region including the target output from the selection unit 121b in the storage unit 126. From a template. The correlation coefficient calculation unit 122 calculates a correlation coefficient in the range direction and a correlation coefficient in the cross range direction. After the correlation coefficient calculation unit 122 calculates the correlation coefficient in the range direction and the correlation coefficient in the cross range direction, the process proceeds to step S203.
(Step S208) When it is determined in step S203 that there is no other target, the target order setting unit 124 of the signal processing unit 110 outputs each of the one or more targets output from the correlation coefficient calculation unit 122. The calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction are acquired. The target order setting unit 124 sets the target order for each of the acquired one or more targets based on the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction. , Line up the targets. The target order setting unit 124 creates an image showing the result of arranging the targets in the target order, and outputs the created image to the display unit 130.
(Step S209) The display unit 130 acquires an image indicating a result of arranging the targets output by the target order setting unit 124, and displays the acquired image.

前述した実施形態では、レーダ画像が、レンジ・ドップラ法により生成されるISAR(Inverse Synthetic Aperture Radar)画像である場合について説明したが、この例に限られない、例えば、レーダ画像は、SAR(Synthetic Aperture Radar)画像であってもよいし、前方監視レーダ画像や側方監視レーダ画像であってもよい。
また、前述した実施形態では、目標順序設定部124が、一または複数の目標物の各々についてのレンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とに基づいて、相関係数が大きい順に並べる場合について説明したが、この例に限られない。例えば、目標順序設定部124が、一または複数の目標物の各々について、レンジ方向の相関係数の算出結果と、クロスレンジ方向の相関係数の算出結果とに基づいて、相関係数が低い方から削除するようにしてもよい。
また、前述した実施形態では、目標物を含む領域の画像のレンジ方向の線分上、およびクロスレンジ方向の線分上のいずれか一方又は両方について、反射レベルの分布を導出する場合について説明したが、この例に限られない。例えば、目標物を含む領域画像において、目標物を通過する複数の線分上の反射レベルの分布を導出するようにしてもよい。
In the above-described embodiment, the case where the radar image is an ISAR (Inverse Synthetic Aperture Radar) image generated by the range Doppler method has been described. However, the present invention is not limited to this example. Aperture Radar) image, forward monitoring radar image or side monitoring radar image.
Further, in the above-described embodiment, the target order setting unit 124 is based on the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction for each of the one or more targets. The case where the correlation coefficients are arranged in descending order has been described, but the present invention is not limited to this example. For example, the target order setting unit 124 has a low correlation coefficient for each of one or more targets based on the calculation result of the correlation coefficient in the range direction and the calculation result of the correlation coefficient in the cross range direction. You may make it delete from the direction.
In the above-described embodiment, the case where the reflection level distribution is derived for one or both of the line segment in the range direction and the line segment in the cross range direction of the image of the region including the target object has been described. However, it is not limited to this example. For example, in a region image including a target, a distribution of reflection levels on a plurality of line segments passing through the target may be derived.

以上説明した少なくとも一つの実施形態によれば、レーダ画像から、電波を用いて判別する対象である目標物を含む領域の反射レベルの分布を導出する導出部と、導出部が導出した目標物を含む領域の反射レベルの分布と、予め記憶された目標物を含む領域の反射レベルの分布との相関係数を算出する算出部(相関係数算出部122)とを備えたことによって、ISAR画像から目標物の特徴量を抽出する場合と比較して、画素毎の計算を不要にできるため、計算負荷を軽減できる。
さらに、導出部は、レーダ画像において、目標物を通過する複数の線分上の反射レベルの分布を導出し、算出部は、導出部が導出した反射レベルの分布の各々について、予め記憶された目標物を含む領域の反射レベルの分布との相関係数を算出する。このように、目標物を通過する複数の線分上の反射レベルの分布を用いることによって、複数の相関係数を求めることができるため、目標物の判別精度を向上させることができる。
さらに、算出部が算出した複数の前記目標物の相関係数の各々に基づいて、複数の前記目標物を、目標とする順序に並べる目標順序設定部をさらに備える。このように構成することによって、相関係数に基づいて、目標とする順序に、目標物を並べることができる。
According to at least one embodiment described above, a derivation unit for deriving a reflection level distribution of an area including a target object to be determined using radio waves from a radar image, and a target derived by the derivation unit By providing a calculation unit (correlation coefficient calculation unit 122) for calculating a correlation coefficient between the distribution of the reflection level of the area including the distribution and the distribution of the reflection level of the area including the target stored in advance, the ISAR image Compared with the case of extracting the feature amount of the target from the above, calculation for each pixel can be made unnecessary, so that the calculation load can be reduced.
Further, the derivation unit derives the distribution of the reflection level on the plurality of line segments passing through the target in the radar image, and the calculation unit stores in advance each of the distribution of the reflection level derived by the derivation unit. A correlation coefficient with the distribution of the reflection level in the region including the target is calculated. As described above, since the plurality of correlation coefficients can be obtained by using the distribution of the reflection level on the plurality of line segments passing through the target, the accuracy of determining the target can be improved.
Furthermore, a target order setting unit that arranges the plurality of targets in a target order based on each of the correlation coefficients of the plurality of targets calculated by the calculation unit is further provided. With this configuration, it is possible to arrange the targets in a target order based on the correlation coefficient.

また、反射エコーに基づいて目標物を判別し、判別した一または複数の目標物の各々を、S/N比の大きさに基づいて並べるS/N比判別部を備え、導出部は、S/N比判別部によって並べられた一または複数の目標物の各々が表されたレーダ画像から、目標物を含む領域の反射レベルの分布を導出する。このように構成することによって、S/N比が小さい目標物(すなわち反射強度が低く、判別する対象である可能性が低いもの)、については処理の対象から除外あるいは順序を下げるため、無駄な処理を省略して効率的な処理を行うことができる。
また、反射エコーに基づいて目標物を判別し、判別した一または複数の目標物の各々大きさが、閾値以下であるか否かを判定する範囲判定部を備え、導出部は、範囲判定部によって、目標物の各々大きさが閾値以下でないと判定された場合に、目標物が表された前記レーダ画像から、前記目標物を含む領域の反射レベルの分布を導出する。このように構成することによって、大きさが想定範囲外であるような目標物については処理の対象から除外あるいは順序を下げるため、無駄な処理を省略して効率的な処理を行うことができる。
In addition, an S / N ratio discriminating unit that discriminates the target based on the reflected echo and arranges each of the discriminated target or objects based on the magnitude of the S / N ratio, and the derivation unit includes S The distribution of the reflection level of the region including the target is derived from the radar image representing each of the one or more targets arranged by the / N ratio discriminating unit. With this configuration, a target with a low S / N ratio (that is, a low reflection intensity and a low possibility of being an object to be discriminated) is excluded from processing targets or the order is lowered, which is useless. Efficient processing can be performed by omitting the processing.
In addition, the range determination unit includes a range determination unit that determines a target based on the reflected echo and determines whether each of the determined one or more targets is equal to or smaller than a threshold value. Thus, when it is determined that the size of each target is not less than or equal to the threshold value, the reflection level distribution of the region including the target is derived from the radar image representing the target. By configuring in this way, a target whose size is out of the assumed range is excluded from the target of processing or the order is lowered, so that it is possible to perform efficient processing by omitting useless processing.

以上、本発明の実施形態およびその変形例を説明したが、これらの実施形態およびその変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態およびその変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態およびその変形例は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   As mentioned above, although embodiment of this invention and its modification were demonstrated, these embodiment and its modification are shown as an example, and are not intending limiting the range of invention. These embodiments and modifications thereof can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

100…レーダシステム、102…アンテナ、104…サーキュレータ、106…送信部、108…受信部、110…信号処理部、112…S/N比判別部、114…範囲判別部、116…ISAR画像生成部、118…画像処理部、120…導出部、121a…姿勢角推定部、121b…選択部、122…相関係数算出部、126…記憶部、128…入力部、130…表示部   DESCRIPTION OF SYMBOLS 100 ... Radar system, 102 ... Antenna, 104 ... Circulator, 106 ... Transmission part, 108 ... Reception part, 110 ... Signal processing part, 112 ... S / N ratio discrimination | determination part, 114 ... Range discrimination | determination part, 116 ... ISAR image generation part 118 ... Image processing unit 120 ... Derivation unit 121a ... Attitude angle estimation unit 121b ... Selection unit 122 ... Correlation coefficient calculation unit 126 ... Storage unit 128 ... Input unit 130 ... Display unit

Claims (7)

レーダ画像から、電波を用いて判別する対象である目標物を含む領域の反射レベルの分布を導出する導出部と、
前記導出部が導出した前記目標物を含む領域の前記反射レベルの分布と、予め記憶された前記目標物を含む領域の反射レベルの分布との相関係数を算出する算出部とを備える、
レーダ信号処理装置。
A derivation unit for deriving a reflection level distribution of an area including a target object to be discriminated using radio waves from a radar image;
A calculation unit that calculates a correlation coefficient between the distribution of the reflection level of the region including the target derived by the deriving unit and the distribution of the reflection level of the region including the target stored in advance.
Radar signal processing device.
前記導出部は、前記レーダ画像において、前記目標物を通過する複数の線分上の反射レベルの分布を導出し、
前記算出部は、前記導出部が導出した前記反射レベルの分布の各々について、予め記憶された前記目標物の反射レベルの分布との相関係数を算出する、請求項1に記載のレーダ信号処理装置。
The derivation unit derives a distribution of reflection levels on a plurality of line segments passing through the target in the radar image,
The radar signal processing according to claim 1, wherein the calculation unit calculates a correlation coefficient with each of the reflection level distributions stored in advance for each of the reflection level distributions derived by the deriving unit. apparatus.
前記算出部が算出した複数の前記目標物の相関係数の各々に基づいて、複数の前記目標物を、目標とする順序に並べる目標順序設定部をさらに備える、請求項1または請求項2に記載のレーダ信号処理装置。   The system further comprises a target order setting unit that arranges the plurality of targets in a target order based on each of the correlation coefficients of the plurality of targets calculated by the calculation unit. The radar signal processing apparatus described. 反射エコーに基づいて目標物を判別し、判別した一または複数の目標物の各々を、S/N比の大きさに基づいて並べるS/N比判別部を備え、
前記導出部は、前記S/N比判別部によって並べられた前記一または複数の目標物の各々が表された前記レーダ画像から、前記目標物を含む領域の反射レベルの分布を導出する、請求項1から請求項3のいずれか一項に記載のレーダ信号処理装置。
An S / N ratio discriminating unit that discriminates a target based on the reflected echo and arranges each of the discriminated one or more targets based on the magnitude of the S / N ratio;
The derivation unit derives a reflection level distribution of a region including the target from the radar image in which each of the one or more targets arranged by the S / N ratio determination unit is represented. The radar signal processing apparatus according to any one of claims 1 to 3.
反射エコーに基づいて目標物を判別し、判別した一または複数の目標物の各々大きさが、閾値以下であるか否かを判定する範囲判定部を備え、
前記導出部は、前記範囲判定部によって、前記目標物の各々大きさが閾値以下でないと判定された場合に、前記目標物が表された前記レーダ画像から、前記目標物を含む領域の反射レベルの分布を導出する、請求項1から請求項4のいずれか一項に記載のレーダ信号処理装置。
A range determination unit that determines a target based on a reflected echo and determines whether or not each of the determined one or more targets is equal to or less than a threshold value,
The derivation unit, when the range determination unit determines that each size of the target is not less than or equal to a threshold value, a reflection level of an area including the target from the radar image representing the target The radar signal processing apparatus according to any one of claims 1 to 4, wherein a distribution of the signal is derived.
コンピュータが、
レーダ画像から、電波を用いて判別する対象である目標物を含む領域の反射レベルの分布を導出し、
前記導出した前記反射レベルの分布と、予め記憶された前記目標物を含む領域の反射レベルの分布との相関係数を算出する、
レーダ信号処理方法。
Computer
From the radar image, derive the distribution of the reflection level in the area that includes the target that is to be identified using radio waves,
Calculating a correlation coefficient between the derived distribution of the reflection level and the distribution of the reflection level of a region including the target stored in advance;
Radar signal processing method.
コンピュータに、
レーダ画像から、電波を用いて判別する対象である目標物を含む領域の反射レベルの分布を導出させ、
前記導出させた前記反射レベルの分布と、予め記憶された前記目標物を含む領域の反射レベルの分布との相関係数を算出させる、
プログラム。
On the computer,
From the radar image, let us derive the reflection level distribution of the area including the target that is the target to be identified using radio waves,
Calculating a correlation coefficient between the derived distribution of the reflection level and the distribution of the reflection level of a region including the target stored in advance.
program.
JP2017179128A 2017-09-19 2017-09-19 Radar signal processing device, radar signal processing method, and program Expired - Fee Related JP6751063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017179128A JP6751063B2 (en) 2017-09-19 2017-09-19 Radar signal processing device, radar signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017179128A JP6751063B2 (en) 2017-09-19 2017-09-19 Radar signal processing device, radar signal processing method, and program

Publications (2)

Publication Number Publication Date
JP2019053012A true JP2019053012A (en) 2019-04-04
JP6751063B2 JP6751063B2 (en) 2020-09-02

Family

ID=66014726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017179128A Expired - Fee Related JP6751063B2 (en) 2017-09-19 2017-09-19 Radar signal processing device, radar signal processing method, and program

Country Status (1)

Country Link
JP (1) JP6751063B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021025972A (en) * 2019-08-08 2021-02-22 株式会社東芝 Radar device and signal processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003436A (en) * 1998-06-16 2000-01-07 Mitsubishi Electric Corp Device and method for recognizing isar picture
US6337654B1 (en) * 1999-11-05 2002-01-08 Lockheed Martin Corporation A-scan ISAR classification system and method therefor
JP2004309260A (en) * 2003-04-04 2004-11-04 Mitsubishi Electric Corp Radar
JP2005291816A (en) * 2004-03-31 2005-10-20 Mitsubishi Electric Corp Radar system
JP2010271226A (en) * 2009-05-22 2010-12-02 Mitsubishi Electric Corp Radar apparatus
JP2012128558A (en) * 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
JP2015052549A (en) * 2013-09-09 2015-03-19 株式会社東芝 Synthetic aperture radar system and method of image processing thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003436A (en) * 1998-06-16 2000-01-07 Mitsubishi Electric Corp Device and method for recognizing isar picture
US6337654B1 (en) * 1999-11-05 2002-01-08 Lockheed Martin Corporation A-scan ISAR classification system and method therefor
JP2004309260A (en) * 2003-04-04 2004-11-04 Mitsubishi Electric Corp Radar
JP2005291816A (en) * 2004-03-31 2005-10-20 Mitsubishi Electric Corp Radar system
JP2010271226A (en) * 2009-05-22 2010-12-02 Mitsubishi Electric Corp Radar apparatus
JP2012128558A (en) * 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
JP2015052549A (en) * 2013-09-09 2015-03-19 株式会社東芝 Synthetic aperture radar system and method of image processing thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川上かおり 諏訪啓 若山俊夫 原照幸: "衛星搭載レーダを用いた目標類別 −注目画素フィルタ法の検討−", 電子情報通信学会技術研究報告, vol. 第113巻 第165号, JPN6020009312, 19 July 2013 (2013-07-19), JP, pages 35 - 40, ISSN: 0004231328 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021025972A (en) * 2019-08-08 2021-02-22 株式会社東芝 Radar device and signal processing method
JP7273653B2 (en) 2019-08-08 2023-05-15 株式会社東芝 Radar device and signal processing method

Also Published As

Publication number Publication date
JP6751063B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
CN103971127B (en) Forward-looking radar imaging sea-surface target key point detection and recognition method
CN109613527B (en) Method and device for generating detection threshold of moving target
EP3757607A1 (en) Radar data processing device and local range resolving power adjusting method
US10429500B2 (en) Tracking apparatus, tracking method, and computer-readable storage medium
JP5305985B2 (en) Artifact detection device, artifact detection method, and artifact detection program
JP5731800B2 (en) Target detection method, target detection program, target detection apparatus, and radar apparatus
JP5580621B2 (en) Echo signal processing device, radar device, echo signal processing method, and echo signal processing program
Ran et al. An adaptive fast factorized back-projection algorithm with integrated target detection technique for high-resolution and high-squint spotlight SAR imagery
JP5775287B2 (en) Scanning correlation method for moving target
US20210018609A1 (en) Method and system for object detection
JP2018115931A (en) Radar device and method for detecting target
US9684065B2 (en) Method and device for detecting structures in an object under investigation
KR102074372B1 (en) Method and Apparatus for Radar Signal Processing Using Convolutional Neural Network
WO2021250943A1 (en) Graph-based array signal denoising for perturbed synthetic aperture radar
JP2018159552A (en) Signal processing device and signal processing method
JP2017158067A (en) Monitoring system, monitoring method, and monitoring program
JP2020507767A (en) Inverse synthetic aperture radar for vehicle radar systems
JP6751063B2 (en) Radar signal processing device, radar signal processing method, and program
WO2019234852A1 (en) Radar signal imaging device, radar signal imaging method, and radar signal imaging program
US20230036450A1 (en) Improving angular resolution of radars using an artificial neural network
JP2017211348A (en) Locus estimation device, locus estimation method, and program
US11307288B2 (en) Object sensing apparatus, object sensing method, and computer readable recording medium
JP2014174007A (en) Radar apparatus
JP2016166802A (en) Position detecting system, position detecting device, and position detecting method
JP7030629B2 (en) Radar signal processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6751063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees