JP7466418B2 - ISAR image data learning device, target classification device and radar device - Google Patents

ISAR image data learning device, target classification device and radar device Download PDF

Info

Publication number
JP7466418B2
JP7466418B2 JP2020154473A JP2020154473A JP7466418B2 JP 7466418 B2 JP7466418 B2 JP 7466418B2 JP 2020154473 A JP2020154473 A JP 2020154473A JP 2020154473 A JP2020154473 A JP 2020154473A JP 7466418 B2 JP7466418 B2 JP 7466418B2
Authority
JP
Japan
Prior art keywords
target
isar image
image data
integral
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154473A
Other languages
Japanese (ja)
Other versions
JP2022048584A (en
JP2022048584A5 (en
Inventor
洋平 大政
啓 諏訪
哲朗 古田
陽平 野上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020154473A priority Critical patent/JP7466418B2/en
Publication of JP2022048584A publication Critical patent/JP2022048584A/en
Publication of JP2022048584A5 publication Critical patent/JP2022048584A5/ja
Application granted granted Critical
Publication of JP7466418B2 publication Critical patent/JP7466418B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本開示は、ISAR画像データを学習するISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置に関するものである。 This disclosure relates to an ISAR image data learning device that learns ISAR image data, and a target classification device and radar device that use the same.

従来から、逆合成開口レーダ(ISAR:Inverse Synthetic Aperture Radar)は、レーダエコーから作成されるISAR画像を用いて目標識別を行う処理に利用されている。例えば、ISARにより捕捉された目標と予めデータベースに記憶されている目標形状モデルとを模擬、照合する手法、ISAR画像及び目標形状モデルの双方からそれぞれ複数の特徴点を抽出する手法がある。 Conventionally, inverse synthetic aperture radar (ISAR) has been used to identify targets using ISAR images created from radar echoes. For example, there is a method for simulating and matching a target captured by ISAR with a target shape model stored in a database in advance, and a method for extracting multiple feature points from both the ISAR image and the target shape model.

従来、目標類別装置には、ISAR画像から目標の識別を常に精度良く行うために、ISAR画像から目標の全長と構造物の大きさとを抽出し、それらに基づいて目標の識別を行うものがある(例えば、特許文献1参照)。また、目標類別装置には、識別目標の回転運動による姿勢変化をパラメータとして、識別目標の三次元モデルから疑似ISAR画像を生成するものがある(例えば、特許文献2参照)。 Conventionally, some target classification devices extract the overall length of a target and the size of a structure from an ISAR image and identify the target based on this in order to consistently identify targets from ISAR images with high accuracy (see, for example, Patent Document 1). In addition, some target classification devices generate pseudo ISAR images from a three-dimensional model of an identified target using the attitude change due to the rotational motion of the identified target as a parameter (see, for example, Patent Document 2).

さらに、ISAR画像の類別において、観測諸元パラメータの離散的分布の影響を補い、適合度の高いフィルタを生成して、高精度な種類判定を行うものがある(例えば、特許文献3参照)。一方、ISAR画像の類別などに使用するために、AI(Artificial Intelligence)などを使った機械学習による学習モデルを作成するものがある(例えば、特許文献4参照)。 Furthermore, in classifying ISAR images, there are methods that compensate for the effects of discrete distribution of observation parameters, generate highly compatible filters, and perform highly accurate type determination (see, for example, Patent Document 3). On the other hand, there are methods that create learning models by machine learning using AI (Artificial Intelligence) for use in classifying ISAR images (see, for example, Patent Document 4).

なお、従来からISAR画像を時間で積分した上で抽出処理を行う手法がある(例えば、特許文献5参照)。ISAR画像を時間で積分すると、その積分時間に応じて複数枚の画像が重畳されることになるので、見た目の不鮮明さが改善される効果がある。特許文献5では、ISAR画像の積分時間に応じて複数枚の画像が重畳されることによる見た目の不鮮明さの改善よりも、全体の形状がぼやけてしまうことを嫌って、積分することなく1枚のISAR画像を用いて目標を特定する手法が開示されている。 Note that there has been a conventional method of integrating ISAR images over time before performing extraction processing (see, for example, Patent Document 5). When ISAR images are integrated over time, multiple images are superimposed according to the integration time, which has the effect of improving apparent blur. Patent Document 5 discloses a method of identifying a target using a single ISAR image without integration, in order to avoid blurring the overall shape, rather than improving apparent blur caused by superimposing multiple images according to the integration time of the ISAR image.

もちろん、全体の形状がぼやけてしまうことを避けるため、適切な積分時間(観測時間)を設定することが行われている(例えば、特許文献6参照)。通常、長時間観測すれば、積分効果により微弱信号を積上げることができるが、ISAR画像の場合は、適切な積分時間(観測時間)を超える長時間観測とすると、目標の各反射点の運動が複雑なものとなり、積分時間(観測時間)内で速度の変化が大きくなる。そのため、ドップラの広がりが大きくなり、画像にぼけが生じるので適切な観測時間を設定する必要がある。適切な観測時間は、ISARと目標との相対運動に依存して決められるものである。 Of course, to avoid the overall shape becoming blurred, an appropriate integration time (observation time) is set (see, for example, Patent Document 6). Normally, if observation is performed for a long period of time, weak signals can be accumulated due to the integration effect, but in the case of ISAR images, if observation is performed for a long period of time that exceeds the appropriate integration time (observation time), the movement of each reflection point of the target becomes complex, and the change in speed within the integration time (observation time) becomes large. This causes the Doppler spread to become large, causing the image to become blurred, so it is necessary to set an appropriate observation time. The appropriate observation time is determined depending on the relative motion between the ISAR and the target.

特開2001-221857号公報JP 2001-221857 A 特開2004-93166号公報JP 2004-93166 A 特開2012-127920号公報JP 2012-127920 A WO2020-3586WO2020-3586 特開2016-57164号公報JP 2016-57164 A 特開2009-162611号公報JP 2009-162611 A

しかしながら、特許文献4に開示されるような従来の機械学習は、類別するために使用する学習結果の範囲を制限する学習モデルが検討されていないという課題があった。なお、特許文献5及び6に開示される手法は、積分時間を学習モデルに使用することを示唆していない。 However, conventional machine learning such as that disclosed in Patent Document 4 has a problem in that it does not consider a learning model that limits the range of learning results used for classification. The methods disclosed in Patent Documents 5 and 6 do not suggest using integral time in the learning model.

本開示は、上記のような課題を解決するためになされたものであり、類別するために使用する学習結果の範囲を制限できるように、学習結果を生成するISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置を得ることを目的とする。 The present disclosure has been made to solve the problems described above, and aims to provide an ISAR image data learning device that generates learning results so that the range of learning results used for classification can be limited, and a target classification device and radar device that use the same.

本開示に係るISAR画像データ学習装置は、観測点に設置された逆合成開口レーダによって得られたISAR画像データから目標を類別するために学習結果を生成するISAR画像データ学習装置であって、前記ISAR画像データが入力されるISAR画像入力部と、前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから前記目標を類別するように学習する学習部とを備える。 The ISAR image data learning device of the present disclosure is an ISAR image data learning device that generates learning results for classifying targets from ISAR image data obtained by an inverse synthetic aperture radar installed at an observation point , and includes an ISAR image input unit to which the ISAR image data is input, an integral time input unit to which the integral time used to derive the ISAR image data is input, and a learning unit that learns to classify the targets from the ISAR image data corresponding to the integral time input to the integral time input unit.

本開示に係る目標類別装置は、ISAR画像データが入力されるISAR画像入力部と、前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから目標を類別して学習する学習部と、新たに得た新規ISAR画像データが入力される新規ISAR画像入力部と、前記新規ISAR画像データを導出した積分時間が入力される新規積分時間入力部と、前記学習部が学習した学習結果に基づいて、前新規ISAR画像データから前記目標を類別する目標類別部とを備える The target classification device according to the present disclosure includes an ISAR image input unit to which ISAR image data is input, an integral time input unit to which an integral time used to derive the ISAR image data is input, a learning unit that classifies and learns targets from the ISAR image data corresponding to the integral time input to the integral time input unit , a new ISAR image input unit to which newly obtained new ISAR image data is input, a new integral time input unit to which the integral time used to derive the new ISAR image data is input, and a target classification unit that classifies the targets from the new ISAR image data based on the learning results learned by the learning unit.

本開示に係るレーダ装置は、ISAR画像データが入力されるISAR画像入力部と、前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから目標を類別して学習する学習部と、新たに得た新規ISAR画像データが入力される新規ISAR画像入力部と、前新規ISAR画像データを導出した積分時間が入力される新規積分時間入力部と、前記学習部が学習した学習結果に基づいて、前記新規ISAR画像データから前記目標を類別する目標類別部と、前記目標を追尾する追尾レーダと、前記追尾レーダで追尾した前記目標へ送信ビームを送信し、前記目標から反射された電波を受信する逆合成開口レーダと、前新規ISAR画像データを生成して、前記新規ISAR画像入力部へ送るために、前記目標から反射された電波から得たビデオ信号を積分する積分処理部とを備える The radar device according to the present disclosure includes an ISAR image input unit to which ISAR image data is input, an integral time input unit to which an integral time used to derive the ISAR image data is input, a learning unit that classifies and learns targets from the ISAR image data corresponding to the integral time input to the integral time input unit , a new ISAR image input unit to which newly obtained new ISAR image data is input , a new integral time input unit to which an integral time used to derive the new ISAR image data is input, a target classification unit that classifies the targets from the new ISAR image data based on the learning results learned by the learning unit , a tracking radar that tracks the targets, an inverse synthetic aperture radar that transmits a transmission beam to the target tracked by the tracking radar and receives radio waves reflected from the target, and an integration processing unit that integrates a video signal obtained from the radio waves reflected from the target to generate the new ISAR image data and send it to the new ISAR image input unit.

本開示によれば、特定の積分時間で得られたISAR画像データであっても、類別が可能な学習結果を得ることができるISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置を得ることができる。 According to the present disclosure, it is possible to obtain an ISAR image data learning device that can obtain learning results that enable classification even for ISAR image data obtained with a specific integration time, and a target classification device and radar device that use the same.

実施の形態1に係るISAR画像データ学習装置の機能ブロック図である。FIG. 2 is a functional block diagram of the ISAR image data learning device according to the first embodiment. 実施の形態1に係るISAR画像データ学習装置の動作(ISAR画像データ学習方法)を説明するフローチャートである。1 is a flowchart for explaining the operation of an ISAR image data learning device (ISAR image data learning method) according to the first embodiment. 実施の形態1に係るISAR画像データ学習装置の機能ブロック図である(ISAR画像生成部13付き)。FIG. 2 is a functional block diagram of the ISAR image data learning device according to the first embodiment (including an ISAR image generation unit 13). 実施の形態1に係るISAR画像データ学習装置、目標類別装置、レーダ装置の機能ブロック図である。1 is a functional block diagram of an ISAR image data learning device, a target classification device, and a radar device according to a first embodiment. 実施の形態1に係るISAR画像データ学習装置及び目標類別装置の動作(目標類別方法)を説明するフローチャートである。1 is a flowchart explaining the operation of the ISAR image data learning device and the target classification device (target classification method) of embodiment 1.

実施の形態1.
以下、実施の形態1に係るISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置(実施の形態1に係る目標類別装置、実施の形態1に係るレーダ装置)について、図1から図5を用いて説明する。図中、同一符号は、同一又は相当部分を示し、それらについての詳細な説明は省略する。ISARは、前述の通り、Inverse Synthetic Aperture Radarの略であり、逆合成開口レーダのことである。
Embodiment 1.
Hereinafter, an ISAR image data learning device according to a first embodiment, and a target classification device and a radar device using the same (the target classification device according to the first embodiment, and the radar device according to the first embodiment) will be described with reference to Fig. 1 to Fig. 5. In the drawings, the same reference numerals indicate the same or corresponding parts, and detailed description thereof will be omitted. As mentioned above, ISAR is an abbreviation for Inverse Synthetic Aperture Radar, which means an inverse synthetic aperture radar.

観測対象である目標1は、例えば、船舶や航空機などの移動体である。目標1の機体は、線状構造であるものが好ましい。つまり、目標1に対して相対的な観測点が変わったときに、目標1の形状が変わるようなものが好ましい。なお、線状構造であれば、側方から観察した場合と、前方又は後方から観察した場合は、形状が異なることは容易に理解できる。また、観測点自体が移動してもよいし、目標1が移動してもよい。本願では、複数の種別の目標1が存在することを前提にして学習するものである。よって、学習の量が進むにつれ、後述する新規のISAR画像データ撮影が未知の目標1のものの場合も、類似する種別の有無の判定や、類似のものがないという判定もすることができる。 The target 1 to be observed is a moving object such as a ship or an aircraft. The body of the target 1 is preferably a linear structure. In other words, it is preferable that the shape of the target 1 changes when the observation point relative to the target 1 is changed. If the structure is linear, it is easy to understand that the shape is different when observed from the side and when observed from the front or rear. The observation point itself may move, or the target 1 may move. In this application, learning is performed on the premise that there are multiple types of targets 1. Therefore, as the amount of learning progresses, even when new ISAR image data shooting described later is of an unknown target 1, it is possible to determine whether there is a similar type or whether there is nothing similar.

図1及び図3において、ISAR画像データ学習装置2は、観測点に設置された逆合成開口レーダ12によって得られたISAR画像データから対応する目標1を類別して目標1に対応する種別を判定するときに、ISAR画像データを導出した積分時間(観測時間)から、類別するために使用する学習結果の範囲を制限できるように、学習結果を生成する(実施の形態1に係るISAR画像データ学習装置)。積分時間(観測時間)に応じて、複数枚のISAR画像が重畳されてISAR画像データが構成されるため、同じ目標1のISAR画像データでも得るために積分した時間が変わると、ISAR画像データが変わることになる。 In Figures 1 and 3, when classifying corresponding targets 1 from ISAR image data obtained by an inverse synthetic aperture radar 12 installed at an observation point and determining the type corresponding to the target 1, the ISAR image data learning device 2 generates learning results so that the range of learning results used for classification can be limited from the integration time (observation time) during which the ISAR image data was derived (ISAR image data learning device according to embodiment 1). Since ISAR image data is constructed by superimposing multiple ISAR images according to the integration time (observation time), if the integration time used to obtain ISAR image data for the same target 1 changes, the ISAR image data will change.

図1及び図3において、ISAR画像入力部3は、目標1ごとにISAR画像データが入力されるものである。積分時間入力部4は、ISAR画像入力部3に入力されたISAR画像データごとの積分時間が入力されるものである。学習部5は、積分時間入力部4に入力された積分時間に対応するISAR画像データと、目標1の種別とを関連付けて学習するものである。目標1の種別の情報は、ISAR画像データに付与しておけばよい。また、学習部5は、積分時間ごと学習結果に生成してもよい。 In Figures 1 and 3, ISAR image input unit 3 receives ISAR image data for each target 1. The integral time input unit 4 receives integral times for each ISAR image data input to ISAR image input unit 3. The learning unit 5 learns by associating the ISAR image data corresponding to the integral time input to integral time input unit 4 with the type of target 1. Information on the type of target 1 may be added to the ISAR image data. The learning unit 5 may also generate learning results for each integral time.

これまでは、積分時間と観測時間とを等価に説明してきたが、厳密には異なる扱いをすることが可能である。ここで、積分時間は、積分開始時刻と積分終了時刻とで区切られた時間である。同じく、観測時間は、観測開始時刻と観測終了時刻とで区切られた時間である。例えば、積分時間入力部4には、同じ目標1のISAR画像データであって、目標1の観測開始時刻から観測了時刻までの間に、積分開始時刻と積分終了時刻が入る積分時間が入力されておればよい。もちろん、積分時間が同じでも、目標1の観測開始時刻から観測了時刻までの時間が異なるものでよい。これに含まれる例で、積分時間が異なっても、積分時間入力部4は、積分開始時刻が同じ積分時間が入力されてもよい。同じく、積分時間入力部4は、積分開始時刻が異なる積分時間が入力されてもよい。 Up to this point, the integral time and the observation time have been described as equivalent, but strictly speaking, they can be treated differently. Here, the integral time is a time delimited by an integral start time and an integral end time. Similarly, the observation time is a time delimited by an observation start time and an observation end time. For example, the integral time input unit 4 may be input with an integral time that is ISAR image data of the same target 1 and has an integral start time and an integral end time between the observation start time and the observation end time of the target 1. Of course, even if the integral time is the same, the time from the observation start time to the observation end time of the target 1 may be different. In the examples included here, even if the integral times are different, the integral time input unit 4 may input integral times with the same integral start time. Similarly, the integral time input unit 4 may input integral times with different integral start times.

さらに、積分時間入力部4は、積分開始時刻が同じで、目標1の動揺の周期が一往復するまでの時間に積分終了時間が来る積分時間が入力されてもよい。次に、積分時間入力部4は、積分開始時刻から積分終了時刻までが、同じ目標1の動揺の周期の一往復に相当する、積分時間が入力されてもよい。もちろん、ISAR画像入力部は3、同じ目標1のISAR画像データであって、積分時間が異なるものが入力されてもよい。 Furthermore, the integral time input unit 4 may input an integral time in which the integration start time is the same and the integration end time is the time it takes for the period of the target 1 to make one round trip. Next, the integral time input unit 4 may input an integral time from the integration start time to the integration end time that corresponds to one round trip of the period of the same target 1's vibration. Of course, the ISAR image input unit 3 may input ISAR image data of the same target 1 with different integration times.

目標1の種別としては、目標1の機種名、機体の寸法、機体の性能、機体の所属国・所属組織の少なくとも一つが含まれた情報であればよい。また、同じ目標1の種別であっても、ISAR画像データを取得した積分時間が異なれば、ISAR画像データが異なる。すなわち、ISAR画像入力部3に入力されるISAR画像データは、同じ目標1であっても、積分時間入力部4に入力される積分時間が異なる場合があるということになる。ISAR画像データは、実際にISAR12で取得したものでなく模擬用のデータであってもよい。積分時間は、実際に取得したものでなく模擬用のデータであってもよい。 The type of target 1 may be information that includes at least one of the model name of target 1, aircraft dimensions, aircraft performance, and the country/organization to which the aircraft belongs. Furthermore, even if the type of target 1 is the same, if the integral time at which the ISAR image data was acquired is different, the ISAR image data will be different. In other words, the ISAR image data input to the ISAR image input unit 3 may have a different integral time input to the integral time input unit 4, even for the same target 1. The ISAR image data may not be data that has actually been acquired by ISAR 12, but may be simulated data. The integral time may not be data that has actually been acquired, but may be simulated data.

図1(A)は、観測点から目標1までの距離の情報は、学習部5が学習する対象にしていないISAR画像データ学習装置2を示している。一方、図1(B)は、観測点から目標1までの距離の情報は、学習部5が学習する対象にしているISAR画像データ学習装置2を示している。学習部5で学習させる距離の情報の入力は、図1(B)に示すように、ISAR画像入力部3経由でも、積分時間入力部4経由でもよい。つまり、ISAR画像入力部3は、観測点から目標1までの距離の情報と関連付けられたISAR画像データが入力されるものとしてもよい。また、積分時間入力部4は、観測点から目標1までの距離の情報と関連付けられた積分時間が入力されるものとしてもよい。観測点から目標1までの距離の情報があれば、学習部5は、距離の情報から、ISAR画像データを所定の縮尺で学習することが可能である。 Figure 1 (A) shows an ISAR image data learning device 2 in which the learning unit 5 does not learn information about the distance from the observation point to the target 1. On the other hand, Figure 1 (B) shows an ISAR image data learning device 2 in which the learning unit 5 learns information about the distance from the observation point to the target 1. The distance information to be learned by the learning unit 5 may be input via the ISAR image input unit 3 or via the integral time input unit 4, as shown in Figure 1 (B). In other words, the ISAR image input unit 3 may receive ISAR image data associated with information about the distance from the observation point to the target 1. The integral time input unit 4 may receive an integral time associated with information about the distance from the observation point to the target 1. If there is information about the distance from the observation point to the target 1, the learning unit 5 can learn ISAR image data at a predetermined scale from the distance information.

図3は、ISAR画像入力部3及び積分時間入力部4が、それぞれISAR画像生成部13から出力されたISAR画像データ及び積分時間が入力される場合を図示している。図3(A)が図1(A)に対応し、図3(B)が図1(B)に対応している。つまり、図3(A)は、観測点から目標1までの距離の情報は、学習部5が学習する対象にしていないISAR画像データ学習装置2を示している。図3(B)は、観測点から目標1までの距離の情報は、学習部5が学習する対象にしているISAR画像データ学習装置2を示している。なお、ISAR画像データ学習装置2は、ISAR画像生成部13を備えていてもよいし、ISAR画像生成部13を外部に設けていてもよい。 Figure 3 illustrates a case where the ISAR image input unit 3 and the integral time input unit 4 respectively receive the ISAR image data and integral time output from the ISAR image generation unit 13. Figure 3(A) corresponds to Figure 1(A), and Figure 3(B) corresponds to Figure 1(B). That is, Figure 3(A) illustrates an ISAR image data learning device 2 in which the learning unit 5 does not learn information about the distance from the observation point to the target 1. Figure 3(B) illustrates an ISAR image data learning device 2 in which the learning unit 5 learns information about the distance from the observation point to the target 1. Note that the ISAR image data learning device 2 may include the ISAR image generation unit 13, or the ISAR image generation unit 13 may be provided externally.

目標1を観測する観測点には、レーダ装置10(追尾レーダ11、ISAR12)が設置されている。観測点が移動してもよい。つまり、レーダ装置10は、船舶や航空機などの移動体に搭載されたものであってもよい。走査範囲は、観測点を中心としたレーダ装置10(追尾レーダ11、ISAR12)から走査可能な範囲である。レーダ装置10は、方位角方向に360度の走査ができるものをなどが考えられる。観測点(レーダ装置10)は、それ自体が移動する船舶や航空機を想定しているが、観測点は固定点でもよい。 A radar device 10 (tracking radar 11, ISAR 12) is installed at an observation point that observes the target 1. The observation point may be mobile. In other words, the radar device 10 may be mounted on a moving body such as a ship or aircraft. The scanning range is the range that can be scanned from the radar device 10 (tracking radar 11, ISAR 12) centered on the observation point. The radar device 10 may be capable of scanning 360 degrees in the azimuth direction. The observation point (radar device 10) is assumed to be a ship or aircraft that itself moves, but the observation point may also be a fixed point.

次に、図2を用いて実施の形態1に係るISAR画像データ学習装置の動作(実施の形態1に係るISAR画像データ学習方法)を説明する。図2において、ステップ1は、ISAR画像入力部3に、目標1ごとにISAR画像データが入力される処理ステップである。ステップ2は、積分時間入力部4に、ISAR画像入力部3に入力されたISAR画像データごとの積分時間が入力される処理ステップである。ステップ1及びステップ2は、処理の順序は問わない。同時でもよい。ステップ3は、ISAR画像データと積分時間とに基づいて、学習部5に類別(判定)の根拠となる、積分時間入力部4に入力された積分時間に対応するISAR画像データと、目標1の種別とを関連付けて学習させる処理ステップである。目標1の種別の情報は、ステップ1を行う際に、ISAR画像データに付与しておけばよい。 Next, the operation of the ISAR image data learning device according to the first embodiment (the ISAR image data learning method according to the first embodiment) will be described with reference to FIG. 2. In FIG. 2, step 1 is a processing step in which ISAR image data is input to the ISAR image input unit 3 for each target 1. Step 2 is a processing step in which the integral time for each ISAR image data input to the ISAR image input unit 3 is input to the integral time input unit 4. The order of processing of steps 1 and 2 does not matter. They may be performed simultaneously. Step 3 is a processing step in which the learning unit 5 learns by associating the ISAR image data corresponding to the integral time input to the integral time input unit 4, which is the basis for classification (determination), with the type of target 1 based on the ISAR image data and the integral time. Information on the type of target 1 may be added to the ISAR image data when performing step 1.

図4において、目標類別装置6は、図1及び図4に示すISAR画像データ学習装置2の学習結果(学習モデル)を用いたものである(実施の形態1に係る目標類別装置)。新規ISAR画像入力部7は、新たに得たISAR画像データが入力されるものである。新規積分時間入力部8は、新規ISAR画像入力部7に入力された新たに得たISAR画像データごとの積分時間が入力されるものである。ここでいう新規のISAR画像データ(新たに得たISAR画像データ)、新規の積分時間(新たに得た積分時間)は、後述するレーダ装置10(実施の形態1に係るレーダ装置)や、後段の回路の演算で取得すればよい。後段の回路の演算とは、例えば、ISAR画像生成部13を新規用の演算に用いたり、後述の積分処理部14を使用したりすればよい。 In FIG. 4, the target classification device 6 uses the learning results (learning model) of the ISAR image data learning device 2 shown in FIG. 1 and FIG. 4 (target classification device according to embodiment 1). The new ISAR image input unit 7 is a unit to which newly obtained ISAR image data is input. The new integral time input unit 8 is a unit to which the integral time for each newly obtained ISAR image data input to the new ISAR image input unit 7 is input. The new ISAR image data (newly obtained ISAR image data) and new integral time (newly obtained integral time) referred to here may be obtained by the radar device 10 (radar device according to embodiment 1) described later or by the calculation of a subsequent circuit. The calculation of a subsequent circuit may, for example, use the ISAR image generation unit 13 for the new calculation or the integral processing unit 14 described later.

図4において、目標類別部9は、学習部5が学習した学習結果に基づいて、新たに得たISAR画像データに対応する目標1を類別して、目標1に対応する種別を判定するものである。また、学習部5が、観測点から目標1までの距離の情報も学習している場合、目標類別部9は、学習部5が学習した学習結果に基づいて、新たに得たISAR画像データを所定の縮尺に変換してから、対応する目標1を類別して、目標1に対応する種別を判定するようにしてもよい。 In FIG. 4, the target classification unit 9 classifies the target 1 corresponding to the newly obtained ISAR image data based on the learning results learned by the learning unit 5, and determines the type corresponding to the target 1. In addition, if the learning unit 5 has also learned information on the distance from the observation point to the target 1, the target classification unit 9 may convert the newly obtained ISAR image data to a predetermined scale based on the learning results learned by the learning unit 5, and then classify the corresponding target 1 and determine the type corresponding to the target 1.

目標類別部9は、処理の高速化を図るため、新たに得たISAR画像データごとの積分時間から、類別に使用する学習結果の範囲を制限してもよい。なお、学習部5が積分時間ごと学習結果に生成している場合、目標類別部9は、学習部5が学習して積分時間ごとに生成した学習結果に基づいて、目標1を類別して、目標1に対応する種別を判定することができる。 In order to speed up processing, the target classification unit 9 may limit the range of learning results used for classification based on the integral time for each newly obtained ISAR image data. Note that when the learning unit 5 generates learning results for each integral time, the target classification unit 9 can classify target 1 based on the learning results that the learning unit 5 has learned and generated for each integral time, and determine the type that corresponds to target 1.

学習部5の学習が進むと、目標類別部9は、新たに得たISAR画像データごとの積分時間が、積分時間入力部4に入力された積分時間と一致するものがない、又は、積分時間入力部4に入力された積分時間からの誤差が予め定められた範囲にないときは、最も近い角度の学習結果に基づいて、目標1を類別して、目標1に対応する種別を判定することが可能となる。 As the learning unit 5 progresses, when the integral time for each newly obtained ISAR image data does not match the integral time input to the integral time input unit 4, or when the error from the integral time input to the integral time input unit 4 is not within a predetermined range, the target classification unit 9 is able to classify target 1 based on the learning result of the closest angle and determine the type corresponding to target 1.

また、新規ISAR画像入力部7は、目標1が同一で積分時間が異なる複数の新たに得たISAR画像データが入力されるようにしてもよい。また、新規ISAR画像入力部7は、目標1及び積分時間がそれぞれ同一で当該積分時間の積分開始時刻と積分終了時刻とが異なる複数の新たに得たISAR画像データが入力されるようにしてもよい。これらの場合、目標類別部9は、学習部5が学習した学習結果に基づいて、複数の新たに得たISAR画像データごとに対応する目標1を類別して、目標1に対応する種別を判定することができるので、判定の精度が上がる。 The new ISAR image input unit 7 may also be configured to input multiple newly obtained ISAR image data having the same target 1 but different integral times. The new ISAR image input unit 7 may also be configured to input multiple newly obtained ISAR image data having the same target 1 and integral time but different integral start times and integral end times for the integral times. In these cases, the target classification unit 9 can classify the corresponding target 1 for each of the multiple newly obtained ISAR image data based on the learning results learned by the learning unit 5, and determine the type corresponding to the target 1, thereby improving the accuracy of the determination.

もちろん、これらの場合(目標1が同一で積分時間が異なる複数の新たに得たISAR画像データが入力される場合、目標1及び積分時間がそれぞれ同一で当該積分時間の積分開始時刻と積分終了時刻とが異なる複数の新たに得たISAR画像データが入力される場合)において、目標類別部9は、複数の新たに得たISAR画像データごとに対応する目標1を類別した結果が全て一致する場合、目標1に対応する種別を判定してもよい。また、目標類別部9は、複数の新たに得たISAR画像データごとに対応する目標1を類別した結果に一致しないものが含まれており、一致するものの数に対して一致しないものの数が少ない場合は、一致するものを類別した結果として、目標1に対応する種別を判定するようにしてもよい。 Of course, in these cases (when multiple newly obtained ISAR image data with the same target 1 but different integral times are input, or when multiple newly obtained ISAR image data with the same target 1 and integral times but different integral start and end times for the integral times are input), the target classification unit 9 may determine the type corresponding to the target 1 if the results of classifying the corresponding target 1 for each of the multiple newly obtained ISAR image data all match. Also, when the results of classifying the corresponding target 1 for each of the multiple newly obtained ISAR image data include ones that do not match and the number of ones that do not match is small compared to the number of ones that match, the target classification unit 9 may determine the type corresponding to the target 1 as a result of classifying the ones that match.

学習部5が、積分時間の異なるISAR画像データを複数使って総合的に学習しておれば、目標類別部9も総合的に類別することが可能となる。積分時間は、信号処理で自由に色々な場合のデータを生成できるため、学習部5の学習時も、目標類別部9の類別時も、自然環境条件を使用するよりも、有利であることが明らかである。 If the learning unit 5 performs comprehensive learning using multiple ISAR image data with different integration times, the target classification unit 9 can also perform comprehensive classification. Since the integration time can be freely used to generate data for various cases through signal processing, it is clearly more advantageous than using natural environmental conditions both when the learning unit 5 is learning and when the target classification unit 9 is classifying.

同じく、図4において、目標類別装置6(ISAR画像データ学習装置2及び目標類別装置6)を有するレーダ装置10は、次の構成を有している。追尾レーダ11は、前述のものと同じレーダで、目標1を追尾するものである。逆合成開口レーダ12(ISAR12)は、追尾レーダ11で追尾した目標1へ送信ビームを送信し、目標1から反射された電波を受信するものである。積分処理部14は、逆合成開口レーダ12と、新たに得たISAR画像データを生成して、新規ISAR画像入力部7へ送るために、目標1から反射された電波から得たビデオ信号を積分するものである。つまり、積分処理部14(ISAR画像生成部13も同様)は、複数枚のISAR画像を重畳して、ISAR画像データを生成するものであるといえる。 Similarly, in FIG. 4, the radar device 10 having the target classification device 6 (ISAR image data learning device 2 and target classification device 6) has the following configuration. The tracking radar 11 is the same radar as described above, and tracks the target 1. The inverse synthetic aperture radar 12 (ISAR 12) transmits a transmission beam to the target 1 tracked by the tracking radar 11 and receives radio waves reflected from the target 1. The integration processing unit 14 integrates the video signal obtained from the radio waves reflected from the target 1 in order to generate newly obtained ISAR image data and send it to the new ISAR image input unit 7 together with the inverse synthetic aperture radar 12. In other words, the integration processing unit 14 (similar to the ISAR image generation unit 13) can be said to generate ISAR image data by superimposing multiple ISAR images.

前述のように、新規ISAR画像入力部7が、目標1が同一で積分時間が異なる複数の新たに得たISAR画像データが入力されるようになる。よって、目標類別部9は、学習部5が学習した学習結果に基づいて、複数の新たに得たISAR画像データごとに対応する目標1を類別して、目標1に対応する種別を判定することができるので、判定の精度が上がる。 As described above, multiple newly obtained ISAR image data having the same target 1 but different integration times are input to the new ISAR image input unit 7. Therefore, the target classification unit 9 can classify the corresponding target 1 for each of the multiple newly obtained ISAR image data based on the learning results learned by the learning unit 5, and determine the type corresponding to the target 1, thereby improving the accuracy of the determination.

最後に、図5を用いて実施の形態1に係る主に目標類別装置の動作(実施の形態1に係る目標類類別方法)を説明する。図5において、ステップ11は、新規ISAR画像入力部7へ新たに得たISAR画像データが入力される処理ステップである。ステップ12は、新規積分時間入力部8へ新たに得たISAR画像データが入力される処理ステップである。ステップ11及びステップ12は、処理の順序は問わない。同時でもよい。ここでいう新規のISAR画像データ(新たに得たISAR画像データ)、新規の積分時間(新たに得た積分時間)は、レーダ装置10(実施の形態1に係るレーダ装置)で取得すればよい。 Finally, the operation of the target classification device according to embodiment 1 (the target classification method according to embodiment 1) will be described with reference to FIG. 5. In FIG. 5, step 11 is a processing step in which newly obtained ISAR image data is input to the new ISAR image input unit 7. Step 12 is a processing step in which newly obtained ISAR image data is input to the new integral time input unit 8. The order of processing of steps 11 and 12 does not matter. They may be performed simultaneously. The new ISAR image data (newly obtained ISAR image data) and new integral time (newly obtained integral time) referred to here may be obtained by the radar device 10 (the radar device according to embodiment 1).

ステップ13は、新規ISAR画像入力部7及び新規積分時間入力部8から学習部5へ新規のISAR画像データ(新たに得たISAR画像データ)と新規の積分時間(新たに得た積分時間)とを入力させて学習モデルを使用する処理ステップである。ステップ14は、学習部5が学習した学習結果(学習モデル)に基づいて、新たに得たISAR画像データに対応する目標1を類別して、目標1に対応する種別を判定するものである処理ステップである。その他の実施の形態1に係る目標類類別方法は、前述の実施の形態1に係る主に目標類別装置の動作と同じため、説明を省略する。 Step 13 is a processing step in which new ISAR image data (newly obtained ISAR image data) and new integral time (newly obtained integral time) are input from the new ISAR image input unit 7 and the new integral time input unit 8 to the learning unit 5, and the learning model is used. Step 14 is a processing step in which target 1 corresponding to the newly obtained ISAR image data is classified based on the learning result (learning model) learned by the learning unit 5, and the type corresponding to target 1 is determined. Other target classification methods according to embodiment 1 are mainly the same as the operation of the target classification device according to embodiment 1 described above, so their explanations are omitted.

実施の形態1に係るISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置では、学習部5が学習するISAR画像データ及び積分時間(観測時間)は、シミュレーションで得た模擬データでもよい。同じく、目標類別部9が類別する新規のISAR画像データ及び積分時間(観測時間)も、シミュレーションで得た模擬データでもよい。この模擬データで目標類別部9に類別させることによって、学習部5や目標類別部9の性能確認を行うことができる。つまり、ISAR画像生成部13が生成するISAR画像データ及び積分時間(観測時間)も、シミュレーションで得た模擬データでもよい。 In the ISAR image data learning device of embodiment 1, and the target classification device and radar device using the same, the ISAR image data and integral time (observation time) learned by the learning unit 5 may be simulated data obtained by simulation. Similarly, the new ISAR image data and integral time (observation time) classified by the target classification unit 9 may also be simulated data obtained by simulation. By having the target classification unit 9 classify using this simulated data, the performance of the learning unit 5 and the target classification unit 9 can be confirmed. In other words, the ISAR image data and integral time (observation time) generated by the ISAR image generation unit 13 may also be simulated data obtained by simulation.

以上のように実施の形態1に係るISAR画像データ学習装置、これを用いた目標類別装置及びレーダ装置は、積分時間に対応するISAR画像データと、目標1の種別とを関連付けて学習する、又は、その学習結果を利用するものであることから、積分時間を利用して目標1の類別をおこなうことができる。 As described above, the ISAR image data learning device of embodiment 1, and the target classification device and radar device using the same learn by associating the ISAR image data corresponding to the integral time with the type of target 1, or use the learning results, and can therefore classify target 1 using the integral time.

1 目標1、2 ISAR画像データ学習装置、3 ISAR画像入力部、
4 積分時間入力部、5 学習部、6 目標類別装置、7 新規ISAR画像入力部、
8 新規積分時間入力部、9 目標類別部、10 レーダ装置、
11 追尾レーダ、12 逆合成開口レーダ(ISAR)、13 ISAR画像生成部、
14 積分処理部。
1 Target 1, 2 ISAR image data learning device, 3 ISAR image input unit,
4 Integration time input unit, 5 Learning unit, 6 Target classifier, 7 New ISAR image input unit,
8 New integration time input unit, 9 Target classification unit, 10 Radar device,
11 tracking radar, 12 inverse synthetic aperture radar (ISAR), 13 ISAR image generator,
14. Integral processing unit.

Claims (20)

観測点に設置された逆合成開口レーダによって得られたISAR画像データから目を類別するために学習結果を生成するISAR画像データ学習装置であって、
記ISAR画像データが入力されるISAR画像入力部と、
前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、
前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから前記目標を類別するように学習する学習部とを備える、ISAR画像データ学習装置。
An ISAR image data learning device that generates learning results for classifying targets from ISAR image data obtained by an inverse synthetic aperture radar installed at an observation point, comprising:
an ISAR image input unit to which the ISAR image data is input;
an integral time input unit to which an integral time for deriving the ISAR image data is input;
a learning unit configured to learn to classify the target from the ISAR image data corresponding to the integral time input to the integral time input unit.
前記学習部は、前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データと前記目標の種別を関連付ける、請求項1に記載のISAR画像データ学習装置。The ISAR image data learning device according to claim 1 , wherein the learning unit associates the ISAR image data corresponding to the integral time input to the integral time input unit with a type of the target. 前記目標の種別は、前記目標の名前、前記目標の寸法、前記目標の性能、前記目標の所属国、及び前記目標の所属組織のうち少なくとも一つが含まれた情報である、請求項2に記載のISAR画像データ学習装置。The ISAR image data learning device of claim 2 , wherein the type of the target is information including at least one of the name of the target, the dimensions of the target, the performance of the target, the country to which the target belongs, and the organization to which the target belongs. 前記積分時間入力部は、前記目標の観測開始時刻から観測了時刻までの間に、積分開始時刻と積分終了時刻が設定された前記積分時間が入力される請求項1から請求項3のいずれか1項に記載のISAR画像データ学習装置。 The ISAR image data learning device according to any one of claims 1 to 3 , wherein the integral time input unit inputs the integral time in which an integral start time and an integral end time are set between an observation start time and an observation end time of the target. 前記積分時間入力部は、前記積分開始時刻が同じであり、異なる積分時間である前記積分時間が入力される請求項に記載のISAR画像データ学習装置。 5. The ISAR image data learning device according to claim 4 , wherein the integral time input unit inputs the integral times, the integral start times being the same and the integral times being different . 前記積分時間入力部は、前記積分開始時刻が同じであり、前記目標の動揺の周期が一往復するまでの間に前記積分終了時設定された前記積分時間が入力される請求項に記載のISAR画像データ学習装置。 The ISAR image data learning device according to claim 5 , wherein the integral time input unit inputs the integral time in which the integral start time is the same and the integral end time is set within the time it takes for the period of the target's vibration to go round trip. 前記積分時間入力部は、前記積分開始時刻から前記積分終了時刻までが、前記目標の動揺の周期の一往復に相当する前記積分時間が入力される請求項に記載のISAR画像データ学習装置。 5. The ISAR image data learning device according to claim 4 , wherein the integral time input unit inputs the integral time from the integral start time to the integral end time , the integral time corresponding to one round trip of a period of the target's motion. 前記ISAR画像データ学習装置は、ISAR画像生成部をさらに備え、
前記ISAR画像入力部及び前記積分時間入力部は、それぞれ前記ISAR画像生成部から出力された前記ISAR画像データ及び前記積分時間が入力される請求項1から請求項7のいずれか1項に記載のISAR画像データ学習装置。
The ISAR image data learning device further includes an ISAR image generation unit,
The ISAR image data learning device according to claim 1 , wherein the ISAR image input unit and the integral time input unit respectively receive the ISAR image data and the integral time output from the ISAR image generation unit.
記観測点から前記目標までの距離を示す情報と関連付けられた前記ISAR画像データが入力される前記ISAR画像入力部、または前記観測点から前記目標までの距離を示す情報と関連付けられた前記積分時間が入力される前記積分時間入力部を備える、請求項1から請求項のいずれか1項に記載のISAR画像データ学習装置。 9. The ISAR image data learning device according to claim 1 , further comprising: an ISAR image input unit to which the ISAR image data associated with information indicating the distance from the observation point to the target is input; or an integral time input unit to which the integral time associated with information indicating the distance from the observation point to the target is input. 前記学習部は、前記距離を示す情報から、前記ISAR画像データを所定の縮尺に変換した前記ISAR画像データを使用して学習する請求項に記載のISAR画像データ学習装置。 The ISAR image data learning device according to claim 9 , wherein the learning unit performs learning using the ISAR image data obtained by converting the ISAR image data into a predetermined scale based on the information indicating the distance. ISAR画像データが入力されるISAR画像入力部と、
前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、
前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから目標を類別して学習する学習部と
新たに得た新規ISAR画像データが入力される新規ISAR画像入力部と、
前記新規ISAR画像データを導出した積分時間が入力される新規積分時間入力部と、
前記学習部が学習した学習結果に基づいて、前新規ISAR画像データから前記目標を類別する目標類別部とを備える、目標類別装置。
an ISAR image input unit to which ISAR image data is input;
an integral time input unit to which an integral time for deriving the ISAR image data is input;
a learning unit that classifies and learns targets from the ISAR image data corresponding to the integral time input to the integral time input unit ;
a new ISAR image input unit to which newly obtained new ISAR image data is input;
a new integration time input unit to which an integration time for deriving the new ISAR image data is input;
A target classification device comprising: a target classification unit that classifies the target from the new ISAR image data based on a learning result learned by the learning unit.
前記目標類別部は、前記目標に対応する前記目標の種別を判定する、請求項11に記載の目標類別装置。The target classification device according to claim 11 , wherein the target classifier determines a type of the target corresponding to the target. 前記目標類別部は、前新規ISAR画像データごとの前記積分時間から、類別に使用する前記学習結果の範囲を制限する請求項11又は請求項12に記載の目標類別装置。 The target classification device according to claim 11 or 12 , wherein the target classification unit limits a range of the learning results used for classification from the integration time for each of the new ISAR image data . 前記目標類別部は、前記学習部が学習して前記積分時間ごとに生成した前記学習結果に基づいて、前記目標を類別して、前記目標に対応する前記目標の種別を判定する請求項11から請求項13のいずれか1項に記載の目標類別装置。 The target classification device according to claim 11 , wherein the target classification unit classifies the target based on the learning result generated by the learning unit during learning for each integral time, and determines the type of the target corresponding to the target . 前記目標類別部は、前新規ISAR画像データごとの前記積分時間が、前記積分時間入力部に入力された前記積分時間と一致するものがない、又は、前記積分時間入力部に入力された前記積分時間からの誤差が予め定められた範囲にないときは、最も近い時間の前記学習結果に基づいて、前記目標を類別して、前記目標に対応する前記目標の種別を判定する請求項11から請求項14のいずれか1項に記載の目標類別装置。 15. The target classification device according to claim 11 , wherein when the integral time for each of the new ISAR image data does not match the integral time input to the integral time input unit, or when an error from the integral time input to the integral time input unit is not within a predetermined range, the target classification unit classifies the target based on the learning result of the closest time, and determines the type of the target corresponding to the target . 前記新規ISAR画像入力部は、前記目標が同一で前記積分時間が異なる複数の前新規ISAR画像データが入力され、
前記新規積分時間入力部は、複数の前記新規ISAR画像データにそれぞれ対応する異なる複数の前記積分時間が入力され、
前記目標類別部は、前記学習部が学習した前記学習結果に基づいて、複数の前新規ISAR画像データごとに対応する前記目標を類別して、前記目標に対応する前記目標の種別を判定する請求項11から請求項15のいずれか1項に記載の目標類別装置。
The new ISAR image input unit receives a plurality of new ISAR image data sets having the same target and different integration times,
the new integration time input unit receives a plurality of different integration times corresponding to the plurality of new ISAR image data,
The target classification unit classifies the targets corresponding to each of the plurality of new ISAR image data based on the learning result learned by the learning unit, and determines the type of the target corresponding to the target . The target classification device according to any one of claims 11 to 15 .
前記新規ISAR画像入力部は、前記目標及び前記積分時間がそれぞれ同一で当該積分時間の積分開始時刻と積分終了時刻とが異なる複数の前新規ISAR画像データが入力され、
前記目標類別部は、前記学習部が学習した前記学習結果に基づいて、複数の前新規ISAR画像データごとに対応する前記目標を類別して、前記目標に対応する前記目標の種別を判定する請求項11から請求項15のいずれか1項に記載の目標類別装置。
The new ISAR image input unit receives a plurality of new ISAR image data sets each having the same target and integral time, and each having a different integral start time and an integral end time,
The target classification unit classifies the targets corresponding to each of the multiple new ISAR image data based on the learning results learned by the learning unit, and determines the type of the target corresponding to the target . The target classification device described in any one of claims 11 to 15 .
前記目標類別部は、複数の前新規ISAR画像データごとに対応する前記目標を類別した結果が全て一致する場合は、前記目標に対応する前記目標の種別を判定する請求項16又は請求項17に記載の目標類別装置。 The target classification device according to claim 16 or 17 , wherein the target classification unit determines the type of the target corresponding to the target when all results of classifying the corresponding targets for each of the multiple new ISAR image data match. 前記目標類別部は、複数の前新規ISAR画像データごとに対応する前記目標を類別した結果に一致しないものが含まれており、一致するものの数に対して一致しないものの数が少ない場合は、一致するものを類別した結果として、前記目標に対応する前記目標の種別を判定する請求項16又は請求項17に記載の目標類別装置。 The target classification unit determines the type of the target corresponding to the target as a result of classifying the matching targets when the results of classifying the corresponding targets for each of the multiple new ISAR image data include mismatches and the number of mismatches is small compared to the number of matches . The target classification device according to claim 16 or 17 . ISAR画像データが入力されるISAR画像入力部と、
前記ISAR画像データを導出した積分時間が入力される積分時間入力部と、
前記積分時間入力部に入力された前記積分時間に対応する前記ISAR画像データから目標を類別して学習する学習部と、
新たに得た新規ISAR画像データが入力される新規ISAR画像入力部と、
前記新規ISAR画像データを導出した積分時間が入力される新規積分時間入力部と、
前記学習部が学習した学習結果に基づいて、前記新規ISAR画像データから前記目標を類別する目標類別部と、
前記目標を追尾する追尾レーダと、
前記追尾レーダで追尾した前記目標へ送信ビームを送信し、前記目標から反射された電波を受信する逆合成開口レーダと
新規ISAR画像データを生成して、前記新規ISAR画像入力部へ送るために、前記目標から反射された電波から得たビデオ信号を積分する積分処理部とを備える、レーダ装置。
an ISAR image input unit to which ISAR image data is input;
an integral time input unit to which an integral time for deriving the ISAR image data is input;
a learning unit that classifies and learns targets from the ISAR image data corresponding to the integral time input to the integral time input unit;
a new ISAR image input unit to which newly obtained new ISAR image data is input;
a new integration time input unit to which an integration time for deriving the new ISAR image data is input;
a target classification unit that classifies the target from the new ISAR image data based on a learning result learned by the learning unit;
a tracking radar for tracking the target;
an inverse synthetic aperture radar that transmits a transmission beam to the target tracked by the tracking radar and receives radio waves reflected from the target ;
and an integration processing unit that integrates a video signal obtained from radio waves reflected from the target to generate the new ISAR image data and send it to the new ISAR image input unit.
JP2020154473A 2020-09-15 2020-09-15 ISAR image data learning device, target classification device and radar device Active JP7466418B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154473A JP7466418B2 (en) 2020-09-15 2020-09-15 ISAR image data learning device, target classification device and radar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154473A JP7466418B2 (en) 2020-09-15 2020-09-15 ISAR image data learning device, target classification device and radar device

Publications (3)

Publication Number Publication Date
JP2022048584A JP2022048584A (en) 2022-03-28
JP2022048584A5 JP2022048584A5 (en) 2023-06-08
JP7466418B2 true JP7466418B2 (en) 2024-04-12

Family

ID=80844134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154473A Active JP7466418B2 (en) 2020-09-15 2020-09-15 ISAR image data learning device, target classification device and radar device

Country Status (1)

Country Link
JP (1) JP7466418B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020057216A1 (en) 1999-11-05 2002-05-16 Richardson Dennis W. A-Scan ISAR classification system and method therefor
JP2009162611A (en) 2008-01-07 2009-07-23 Mitsubishi Electric Corp Radar system
JP2012128558A (en) 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
US20190033427A1 (en) 2016-02-05 2019-01-31 Thales Method for jamming synthetic aperture radars and associated device
JP2020003379A (en) 2018-06-29 2020-01-09 三菱重工業株式会社 Data generator, image identification device, data generation method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020057216A1 (en) 1999-11-05 2002-05-16 Richardson Dennis W. A-Scan ISAR classification system and method therefor
JP2009162611A (en) 2008-01-07 2009-07-23 Mitsubishi Electric Corp Radar system
JP2012128558A (en) 2010-12-14 2012-07-05 Toshiba Corp Identification apparatus
US20190033427A1 (en) 2016-02-05 2019-01-31 Thales Method for jamming synthetic aperture radars and associated device
JP2020003379A (en) 2018-06-29 2020-01-09 三菱重工業株式会社 Data generator, image identification device, data generation method, and program

Also Published As

Publication number Publication date
JP2022048584A (en) 2022-03-28

Similar Documents

Publication Publication Date Title
Jörgensen et al. Monocular 3d object detection and box fitting trained end-to-end using intersection-over-union loss
CN109284280B (en) Simulation data optimization method and device and storage medium
CN107980150A (en) Three dimensions is modeled
CN104200237A (en) High speed automatic multi-target tracking method based on coring relevant filtering
JP7332238B2 (en) Methods and Apparatus for Physics-Guided Deep Multimodal Embedding for Task-Specific Data Utilization
CN109871829A (en) A kind of detection model training method and device based on deep learning
CN110546687B (en) Image processing device and two-dimensional image generation program
JP7466418B2 (en) ISAR image data learning device, target classification device and radar device
CN112966815A (en) Target detection method, system and equipment based on impulse neural network
JP2019133545A (en) Feature expression device, recognition system including the same, and feature expression program
KR102482150B1 (en) Deep learning training apparatus and method for automatically recognizing target in SAR image, and apparatus for automatically recognizing target in SAR image
CN115937520A (en) Point cloud moving target segmentation method based on semantic information guidance
WO2021100650A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
US11874407B2 (en) Technologies for dynamic, real-time, four-dimensional volumetric multi-object underwater scene segmentation
Brosch et al. Automatic target recognition on high resolution sar images with deep learning domain adaptation
CN113960551A (en) Clutter image generation method and target detection method for SAR image
CN112529917A (en) Three-dimensional target segmentation method, device, equipment and storage medium
JP2022072084A (en) ISAR image data learning device, target classification device and radar device
JP2003331289A (en) Image discriminator, and radar system provided with the same
Duplevska et al. The synthetic data application in the UAV recognition systems development
CN117115366B (en) Environmental model reconstruction method, system and equipment based on unmanned system three-dimensional perception
JP7383212B1 (en) Data expansion method and data expansion device
CN113837270B (en) Target identification method, device, equipment and storage medium
Guo et al. Research on Boat Identification Based on Improved Loss Function of Deep Convolutional Neural Networks
Ang et al. Big Data Scenarios Simulator for Deep Learning Algorithm Evaluation for Autonomous Vehicle

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220427

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230531

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7466418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150