WO2024111103A1 - レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム - Google Patents

レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム Download PDF

Info

Publication number
WO2024111103A1
WO2024111103A1 PCT/JP2022/043434 JP2022043434W WO2024111103A1 WO 2024111103 A1 WO2024111103 A1 WO 2024111103A1 JP 2022043434 W JP2022043434 W JP 2022043434W WO 2024111103 A1 WO2024111103 A1 WO 2024111103A1
Authority
WO
WIPO (PCT)
Prior art keywords
mask
radar image
image
filter
radar
Prior art date
Application number
PCT/JP2022/043434
Other languages
English (en)
French (fr)
Inventor
麻由 菅原
正芳 土田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/043434 priority Critical patent/WO2024111103A1/ja
Publication of WO2024111103A1 publication Critical patent/WO2024111103A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques

Definitions

  • Synthetic aperture radar (SAR) images may have virtual images.
  • a virtual image is an image that is caused by a signal received from a scatterer outside the observation area at a certain observation timing. Examples of virtual images include azimuth ambiguity and range ambiguity.
  • Azimuth ambiguity is caused by a signal having a Doppler frequency that exceeds the observation pulse repetition frequency (PRF).
  • Range ambiguity is caused by receiving a reflected wave from a scatterer outside the observation area within the pulse repetition interval (PRI).
  • Patent Document 1 discloses a technique for detecting virtual images by focusing and forming an image outside the original imaging area (outside the observation area) at a certain observation timing, and suppressing the virtual image by replacing the pixel value where the detected virtual image exists with 0.
  • the process of suppressing the virtual image suppresses not only the virtual image but also the signal components of the true image, which can result in degradation of the resolution of the true image and the occurrence of artifacts.
  • the present disclosure has been made to solve these problems, and aims to provide a radar image processing technology that can suppress the degradation of resolution and artifacts that occur with the artifact suppression process performed on SAR images.
  • One aspect of a radar image processing device includes a mask creation unit that acquires a radar image and creates from the acquired radar image a first mask filter that masks an artifact source and a restoration filter that retains the signal of the artifact source, a mask application unit that applies the first mask filter to the acquired radar image to generate a masked radar image, a virtual image suppression processing unit that performs processing to suppress a virtual image on the created masked radar image to generate a virtual image suppressed radar image, and a mask restoration unit that synthesizes the created restoration filter with the created virtual image suppressed radar image to generate a reconstructed radar image.
  • the radar image processing device can suppress the degradation of resolution and artifacts that occur with the artifact suppression process performed on the SAR image.
  • FIG. 1 is a diagram showing an example of the configuration of a radar image processing system including a radar image processing device according to a first embodiment and a second embodiment.
  • FIG. 1 is a diagram illustrating an example of a hardware configuration of a radar image processing device according to a first embodiment and a second embodiment.
  • FIG. 1 is a diagram illustrating an example of a hardware configuration of a radar image processing device according to a first embodiment and a second embodiment.
  • 4A to 4C are diagrams illustrating a method for creating a mask filter and a restoration filter according to the first embodiment.
  • FIG. 1 is a diagram showing an outline of a radar image processing method using a mask filter and a restoration filter according to the first and second embodiments; 3 is a flowchart of a radar image processing method according to the first embodiment.
  • FIG. 1 is a diagram for explaining the operation of a radar image processing device according to the prior art.
  • 5 is a diagram for explaining the operation of the radar image processing device according to the first and second embodiments.
  • FIG. 11 is a diagram illustrating an example of the configuration of a mask processing unit of a radar image processing device according to a second embodiment.
  • 13A and 13B are diagrams illustrating a method for creating a mask filter and a restoration filter according to the second embodiment.
  • 13 is a flowchart of a mask process according to the second embodiment.
  • FIG. 1 is a diagram showing an example of the configuration of a radar image processing system including a radar image processing device 2 according to the first embodiment.
  • the radar image processing system includes a storage device 1 and a radar image processing device 2.
  • the storage device 1 includes a storage unit 11 that stores a SAR image (hereinafter, may be simply referred to as a "radar image”) that is image-processed by the radar image processing device 2, and a storage unit 12 that stores the radar image that has been image-processed by the radar image processing device 2.
  • a SAR image hereinafter, may be simply referred to as a "radar image”
  • the radar image processing device 2 includes a mask processing unit 21, a virtual image suppression processing unit 22, and a mask restoration unit 23.
  • the mask processing unit 21 is a functional unit that performs mask processing, and includes a mask creation unit 211 and a mask application unit 212.
  • the mask processing includes creation of a mask filter and a restoration filter, and application of the mask filter.
  • the virtual image suppression processing unit 22 includes a refocus unit 221, a virtual image determination unit 222, and a virtual image suppression unit 223.
  • the mask creation unit 211 acquires a radar image from the memory unit 11 of the storage device 1, and creates a mask filter and a restoration filter from the acquired radar image.
  • Fig. 3A shows how the mask creation unit 211 creates a mask filter and a restoration filter from the acquired radar image.
  • the mask filter is a filter for masking signals in an area (hereinafter referred to as a "mask area") that includes an artifact source in a radar image.
  • a mask area is an area in a radar image where the signal amplitude or power is equal to or greater than a predetermined threshold.
  • the threshold may be determined manually, may be set by the mask creation unit 211 as a constant multiple of the maximum amplitude or power in the radar image, or may be automatically set by the mask creation unit 211 based on a parameter study.
  • the mask region may be an artifact occurrence region where artifacts occur when a virtual image suppression process is performed on a radar image.
  • an artifact occurrence region can be defined as a region where the amplitude or power has increased in the radar image after the virtual image suppression process has been performed by comparing the radar image with the radar image after the virtual image suppression process has been performed. Since artifacts occur due to a loss of the signal of the true image, the artifact occurrence region may occur so as to overlap with the position of the true image in the radar image before the virtual image suppression process is performed. Therefore, a region in the original radar image that corresponds to the artifact occurrence region in the radar image after the virtual image suppression process may be masked.
  • the mask filter is a binary filter in which the filter coefficient of the masked region is 0 and the filter coefficient of the non-masked region other than the masked region is 1.
  • the region indicated by the black circle is the masked region with a filter coefficient value of 0, and the large region indicated in white indicates the non-masked region with a filter coefficient value of 1.
  • the mask filter may be a multi-value filter in which the filter coefficient value of the center of the masked region is 0, the filter coefficient value of the non-masked region is 1, and the filter coefficient value of the region between the center of the masked region and the non-masked region is a value in the range greater than 0 and less than 1.
  • Such a multi-value filter can be created, for example, by morphological dilation processing.
  • the restoration filter is a filter that retains the signal of the artifact source.
  • the area shown in white circle is the area that corresponds to the mask area, and retains the data of the signal of the artifact source in the radar image.
  • the wide area shown in black is an area with a value of 0.
  • the mask creation unit 211 outputs the created mask filter to the mask application unit 212.
  • the mask creation unit 211 may also output the acquired radar image to the mask application unit 212 together with the created mask filter.
  • the mask creation unit 211 outputs the created restoration filter to the mask restoration unit 23.
  • the mask application unit 212 acquires a radar image from the mask creation unit 211.
  • the mask application unit 212 also acquires a mask filter created by the mask creation unit 211.
  • the mask application unit 212 applies the acquired mask filter to the acquired radar image to generate a mask radar image, which is a radar image to which the mask filter has been applied.
  • the upper half of FIG. 3B shows how the mask application unit 212 generates a mask radar image.
  • the mask application unit 212 generates a mask radar image by multiplying the acquired radar image by the acquired mask filter.
  • the mask application unit 212 outputs the mask radar image to the virtual image suppression processing unit 22.
  • the virtual image suppression processing unit 22 acquires a mask radar image, and performs virtual image suppression processing on the acquired mask radar image to generate a virtual image suppressed radar image, which is a mask radar image in which a virtual image is suppressed.
  • the virtual image suppression processing unit 22 performs the virtual image suppression processing according to Patent Document 1.
  • the virtual image suppression processing unit 22 includes a refocusing unit 221, a virtual image determination unit 222, and a virtual image suppression unit 223.
  • the refocusing unit 221 refocuses the focal point of the mask radar image to generate a refocused radar image. More specifically, the refocusing unit 221 generates a refocused radar image by focusing on a region outside the original imaging region. In a mask radar image in which the focus is on the original imaging region, the region is imaged, but the virtual image is blurred. On the other hand, in a radar image in which the focus is on a region outside the original imaging region, the virtual image becomes clear when the focus is on the virtual image, and the true image formed in the original imaging region becomes blurred.
  • the virtual image determination unit 222 determines whether a virtual image is included in the refocus radar image. For example, the virtual image determination unit 222 determines that a virtual image is present when an image having a power equal to or greater than a predetermined threshold is detected. When it is determined that a virtual image is present, the virtual image determination unit 222 outputs the position information of the pixel in which it is determined that a virtual image is present and the refocus radar image.
  • the virtual image suppression unit 223 suppresses a virtual image included in the refocus radar image. For example, the virtual image suppression unit 223 sets the value of a pixel in the refocus radar image that is determined by the virtual image determination unit 222 to have a virtual image to 0. The virtual image suppression unit 223 outputs the virtual image suppressed radar image in which the virtual image is suppressed to the refocus unit 221.
  • the refocusing unit 221 further refocuses the virtual image suppressed radar image, the virtual image determination unit 222 determines whether there is a virtual image different from the already suppressed virtual image, and the virtual image suppression unit 223 suppresses the newly detected virtual image. In this way, one or more virtual images included in the mask radar image are suppressed.
  • the refocusing unit 221 returns the focus to the original imaging area, and outputs the finally obtained virtual image suppressed radar image (hereinafter simply referred to as the "virtual image suppressed radar image”) to the mask restoration unit 23.
  • the mask restoration unit 23 acquires the restoration filter and the virtual-image suppressed radar image, and applies the restoration filter to the acquired virtual-image suppressed radar image to generate a reconstructed radar image.
  • the mask restoration unit 23 outputs the generated reconstructed radar image to the memory unit 12 of the storage device 1.
  • the lower half of Figure 3B shows how the mask restoration unit 23 generates a reconstructed radar image.
  • the mask restoration unit 23 adds a restoration filter to the acquired virtual image suppression radar image to generate a reconstructed radar image.
  • the radar image processing device 2 is realized by a processing circuit.
  • the processing circuit may be a dedicated processing circuit 100a as shown in Figure 2A, or a computer equipped with a processor 100b that executes a program stored in a memory 100c as shown in Figure 2B.
  • the dedicated processing circuit 100a may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (application specific integrated circuit), an FPGA (field-programmable gate array), or a combination of these.
  • Each functional unit of the radar image processing device 2 may be realized by a plurality of separate processing circuits, or a plurality of functional units may be realized together by a single processing circuit.
  • the radar image processing device 2 is realized by software, firmware, or a combination of software and firmware.
  • the software and firmware are described as programs and stored in the memory 100c.
  • the processor 100b realizes each functional unit of the radar image processing device 2 by reading and executing the programs stored in the memory 100c. That is, the programs stored in the memory 100c are programs that describe the mask creation function performed by the mask creation unit 211, the mask application function performed by the mask application unit 212, the virtual image suppression processing function performed by the virtual image suppression processing unit 22, and the mask restoration function performed by the mask restoration unit 23.
  • the programs stored in the memory 100c may also describe the virtual image search function performed by the virtual image search unit 21M1 described later, and the mask re-creation function performed by the mask re-creation unit 21M2 described later.
  • Examples of memory 100c include non-volatile or volatile semiconductor memory such as random access memory (RAM), read-only memory (ROM), flash memory, erasable programmable read-only memory (EPROM), and electrically erasable programmable read-only memory (EEPROM), as well as magnetic disks, flexible disks, optical disks, compact disks, mini disks, and DVDs.
  • the functional parts of the radar image processing device 2 may be realized by dedicated hardware, and other functional parts may be realized by software or firmware.
  • the processing circuitry can realize each of the above-mentioned functions through hardware, software, firmware, or a combination of these.
  • step ST101 of FIG. 4 the mask creation unit 211 acquires a radar image from the memory unit 11 of the storage device 1, and creates a mask filter and a restoration filter from the acquired radar image.
  • step ST102 the mask application unit 212 acquires the radar image and the created mask filter from the mask creation unit 211, and applies the acquired mask filter to the acquired radar image to generate a mask radar image.
  • the refocusing unit 221 changes the focus of the mask radar image generated by the mask application unit 212. More specifically, the refocusing unit 221 adjusts the focus to outside the original imaging area to generate a refocused radar image.
  • step ST104 the virtual image determination unit 222 detects a virtual image contained in the refocused radar image, and the virtual image suppression unit 223 suppresses the virtual image contained in the refocused radar image.
  • steps ST103 and ST104 may be repeated multiple times to suppress multiple virtual images.
  • step ST105 the refocusing unit 221 returns the focus of the radar image after the virtual image has been suppressed to the original imaging area, and generates a virtual image suppressed radar image.
  • step ST106 the mask restoration unit 23 synthesizes the restoration filter created by the mask creation unit 211 and the virtual image suppression radar image generated by the virtual image suppression processing unit 22 to generate a reconstructed radar image.
  • Figure 5 is a diagram showing the operation of a radar image processing device according to conventional technology.
  • Figure 6 is a diagram showing the operation of the radar image processing device 2 of the present disclosure.
  • the horizontal axis represents distance or time on the azimuth axis or range axis, and the vertical axis represents amplitude or power.
  • Figure 5(a) is an example of a radar image focused within the original imaging area before the artifact suppression process is performed. In addition to the formed true images I1 and I2, Figure 5(a) also shows an artifact caused by reflected waves from objects outside the observation area.
  • a virtual image suppression process (FIGS. 5(b) and (c)) is performed on the radar image of FIG. 5(a) to generate a radar image in which the virtual image is suppressed (FIG. 5(d)).
  • the focal point is refocused from the original imaging region to outside that region. This causes a virtual image to form and the true images I1 and I2 to diffuse. As the true image diffuses, the virtual image may overlap with the diffused true image, as shown in FIG. 5(b).
  • a virtual image is detected by threshold processing, and the detected virtual image is suppressed.
  • the signal of the true image is also suppressed because the virtual image and the diffused true image overlap.
  • the focus is returned to the original imaging region, resulting in a radar image with suppressed artifacts.
  • the radar image processing device 2 of the present disclosure can solve such problems.
  • the mask application unit 212 applies the mask filter created by the mask creation unit 211 to the radar image.
  • the mask filter is a filter for masking artifact sources, and a true image I1 that has a large amplitude or power and is a large-amplitude or power artifact source is masked, and a true image I2 that has a small amplitude or power and is a small-amplitude or power artifact source is not masked. Note that if there are multiple true images that are large-amplitude or power artifact sources, the multiple true images are masked.
  • the radar image processing device 2 performs a false image suppression process on the mask radar image after the artifact source (true image I1) has been masked.
  • the mask restoration unit 23 applies a restoration filter that retains the signal of the artifact source (true image I1) to the virtual-image suppressed radar image that has been subjected to the virtual-image suppression process, to generate a reconstructed radar image.
  • the virtual image suppression process is performed with the artifact source (true image I1) masked, so the resolution of the artifact source (true image I1) is not degraded and the occurrence of artifacts can be suppressed.
  • Embodiment 2 a radar image processing device 2M according to a second embodiment will be described with reference to Fig. 1 and Fig. 7 to Fig. 9.
  • the second embodiment aims to provide a radar image processing device 2M configured not to mask an artifact source when a virtual image is superimposed on a pixel in which the artifact source exists.
  • the radar image processing device 2M has a configuration in which the mask processing unit 21 of the radar image processing device 2 is replaced with a mask processing unit 21M of Fig. 7.
  • the mask processing unit 21M includes a mask creation unit 211, a virtual image search unit 21M1, a mask re-creation unit 21M2, and a mask application unit 212.
  • the same reference numbers are used for functional units that are the same as those in Fig. 1.
  • the virtual image search unit 21M1 acquires a radar image from the storage unit 11 of the storage device 1 or from the mask creation unit 211, and searches for a virtual image contained in the acquired radar image (input radar image).
  • the search for a virtual image i.e., the determination of the presence or absence of a virtual image, can be performed, for example, by taking the coherence between the input radar image and a radar image obtained by shifting the input radar image by a resolution cell or more, and based on the coherence value. That is, since a virtual image has a spread and the similarity between radar images is high, the coherence value is large. In contrast, a true image is formed in a narrow area and the similarity between radar images is small, so the coherence value is small.
  • the virtual image search unit 21M1 determines that a virtual image is present when the coherence value between the input radar image and a radar image obtained by shifting the input radar image by a resolution cell or more is equal to or greater than a predetermined value.
  • the coherence may be calculated for each pixel, or may be calculated for each area including multiple pixels.
  • the virtual image search unit 21M1 may perform a virtual image suppression process on an input radar image to generate a radar image, compare the input radar image with the radar image generated by performing the virtual image suppression process to obtain the difference in amplitude or power, and determine that the portion where the amplitude or power is reduced is a virtual image.
  • the virtual image search unit 21M1 finds a virtual image through the search, it outputs the input radar image and a virtual image area indicating the area of pixels where it has been determined that the virtual image exists.
  • the mask re-creation unit 21M2 acquires the mask filter and the virtual image region, determines whether the mask region masked by the mask filter (first mask filter) is located within the virtual image region, and if the mask region is located within the virtual image region, re-creates the mask filter (second mask filter) so as not to mask the mask region.
  • the mask re-creation unit 21M2 changes the mask region of the first mask filter to a non-mask region and re-creates the second mask filter.
  • the second mask filter is re-created, for example, by replacing the value of the filter coefficient of the target region in the first mask filter from 0 to 1.
  • FIG. 8 shows how the mask filter is recreated by the mask recreate unit 21M2.
  • the mask recreate unit 21M2 recreates the mask filter so as not to mask the artifact source (mask region) located within the virtual image region.
  • the mask recreate unit 21M2 outputs the recreated mask filter to the mask application unit 212.
  • the mask application unit 212 applies the recreated mask filter to the acquired radar image.
  • the radar image may be acquired from the memory unit 11 of the storage device 1, or may be acquired via the mask creation unit 211, the virtual image search unit 21M1 and the mask recreation unit 21M2, or may be acquired via a control unit (not shown).
  • the radar image processing device 2M performs an operation in which the masking processes in steps ST101 and ST102 in Fig. 4 are entirely replaced by the masking processes in steps ST201 to ST204 in Fig. 9.
  • Step ST201 in FIG. 9 corresponds to step ST101 in FIG. 4, and the mask creation unit 211 creates a mask filter and a restoration filter from the acquired radar image.
  • step ST202 the virtual image search unit 21M1 searches for a virtual image contained in the input radar image.
  • step ST203 when a virtual image is present on the input radar image and the artifact source is located within the area of the virtual image, the mask re-creation unit 21M2 re-creates the mask filter so as not to mask the artifact source located within the area of the virtual image.
  • Step ST204 in FIG. 9 corresponds to step ST102 in FIG. 4, and the mask application unit 212 applies the recreated mask filter to the acquired radar image to generate a masked radar image.
  • the recreated mask filter is referred to as a recreated mask filter.
  • the radar image processing device 2M operates in the same way as the radar image processing device 2 using this mask radar image.
  • the radar image processing device 2M operates in the same manner as the radar image processing device 2 according to embodiment 1. Therefore, for artifact sources that overlap with a virtual image, it is possible to perform virtual image suppression processing with priority over suppression of resolution degradation and artifacts.
  • the radar image processing device disclosed herein can be used as a device for processing radar images reproduced by a synthetic aperture radar.
  • 1 storage device 2 (2M) radar image processing device, 11 storage unit, 12 storage unit, 21 (21M) mask processing unit, 21M1 virtual image search unit, 21M2 mask re-creation unit, 22 virtual image suppression processing unit, 23 mask restoration unit, 100a processing circuit, 100b processor, 100c memory, 211 mask creation unit, 212 mask application unit, 221 refocus unit, 222 virtual image determination unit, 223 virtual image suppression unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

レーダ画像処理装置(2;2M)は、レーダ画像を取得し、取得されたレーダ画像から、アーチファクト源をマスクする第1のマスクフィルタと、前記アーチファクト源の信号を保持する復元フィルタとを作成するマスク作成部(211)と、前記取得されたレーダ画像に、前記第1のマスクフィルタを適用して、マスクレーダ画像を生成するマスク適用部(212)と、その作成されたマスクレーダ画像に対して虚像を抑圧する処理を行って、虚像抑圧レーダ画像を生成する虚像抑圧処理部(22)と、その作成された復元フィルタと、その生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成するマスク復元部(23)と、を備える。

Description

レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム
 本開示は、レーダ画像処理技術に関する。
 合成開口レーダ(SAR:Synthetic Aperture Radar)画像には虚像が生じる場合がある。虚像は、ある観測タイミングにおける観測領域の外にある散乱体からの受信信号により生じる像である。虚像の例には、アジマスアンビギュイティおよびレンジアンビギュイティがある。アジマスアンビギュイティは、観測パルス繰り返し周波数(Pulse Repetition Frequency,PRF)を超えたドップラー周波数を有する信号により生じる。レンジアンビギュイティは、パルス繰返し周期(PRI:Pulse Repetition Interval)内に、観測領域外の散乱体からの反射波を受信することにより生じる。
 従来、虚像を検出して、検出した虚像を抑圧する技術が存する。例えば、特許文献1には、ある観測タイミングにおける本来の画像化の領域外(観測領域外)に焦点を合わせて結像することで虚像を検出し、検出した虚像の存在する画素の値を0に置き換えることで虚像を抑圧する技術が開示されている。
国際公開第2019/176016号
 従来技術によれば、虚像を抑圧する処理により虚像だけでなく真の像の信号成分も抑圧し、真の像の分解能が劣化するとともに、アーチファクトが発生する場合があるという課題がある。
 本開示はこのような課題を解決するためになされたものであり、SAR画像に対して行われる虚像抑圧処理に伴って生じる分解能劣化およびアーチファクトを抑制できるレーダ画像処理技術を提供することを目的とする。
 本開示の実施形態によるレーダ画像処理装置の一側面は、レーダ画像を取得し、取得されたレーダ画像から、アーチファクト源をマスクする第1のマスクフィルタと、前記アーチファクト源の信号を保持する復元フィルタとを作成するマスク作成部と、前記取得されたレーダ画像に、前記第1のマスクフィルタを適用して、マスクレーダ画像を生成するマスク適用部と、その作成されたマスクレーダ画像に対して虚像を抑圧する処理を行って、虚像抑圧レーダ画像を生成する虚像抑圧処理部と、その作成された復元フィルタと、その生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成するマスク復元部と、を備える。
 本開示の実施形態によるレーダ画像処理装置によれば、SAR画像に対して行われる虚像抑圧処理に伴って生じる分解能劣化およびアーチファクトを抑制できる。
実施の形態1および実施の形態2によるレーダ画像処理装置を含むレーダ画像処理システムの構成例を示す図である。 実施の形態1および実施の形態2によるレーダ画像処理装置のハードウェアの構成例を示す図である。 実施の形態1および実施の形態2によるレーダ画像処理装置のハードウェアの構成例を示す図である。 実施の形態1によるマスクフィルタおよび復元フィルタの作成方法を示す図である。 実施の形態1および実施の形態2によるマスクフィルタおよび復元フィルタを用いたレーダ画像処理方法の概略を示す図である。 実施の形態1によるレーダ画像処理方法のフローチャートである。 従来技術によるレーダ画像処理装置の動作を説明するための図である。 実施の形態1および実施の形態2によるレーダ画像処理装置の動作を説明するための図である。 実施の形態2によるレーダ画像処理装置のマスク処理部の構成例を示す図である。 実施の形態2によるマスクフィルタおよび復元フィルタの作成方法を示す図である。 実施の形態2によるマスク処理のフローチャートである。
 以下、添付の図面を参照して、本開示における種々の実施形態について詳細に説明する。なお、図面において同一または類似の符号を付された構成要素は、同一または類似の構成または機能を有するものであり、そのような構成要素についての重複する説明は省略する。
実施の形態1.
<構成>
 図1から図3を参照して、本開示の実施の形態1によるレーダ画像処理装置2の構成について説明する。図1は、実施の形態1によるレーダ画像処理装置2を含むレーダ画像処理システムの構成例を示す図である。図1に示されているように、レーダ画像処理システムは、記憶装置1とレーダ画像処理装置2を備える。記憶装置1は、レーダ画像処理装置2により画像処理されるSAR画像(以下、単に「レーダ画像」と称する場合がある。)を記憶する記憶部11と、レーダ画像処理装置2により画像処理されたレーダ画像を記憶する記憶部12とを備える。
(レーダ画像処理装置)
 図1に示されているように、レーダ画像処理装置2は、マスク処理部21、虚像抑圧処理部22、およびマスク復元部23を備える。マスク処理部21はマスク処理を行う機能部であり、マスク作成部211およびマスク適用部212を備える。マスク処理には、マスクフィルタおよび復元フィルタの作成、並びにマスクフィルタの適用が含まれる。虚像抑圧処理部22は、リフォーカス部221、虚像判定部222、および虚像抑圧部223を備える。
(マスク作成部)
 マスク作成部211は、記憶装置1の記憶部11からレーダ画像を取得し、取得したレーダ画像からマスクフィルタおよび復元フィルタを作成する。図3Aは、マスク作成部211が、取得したレーダ画像からマスクフィルタおよび復元フィルタを作成する様子を示している。
 マスクフィルタは、レーダ画像内のアーチファクト源を含む領域(以下、「マスク領域」と称する。)の信号をマスクするためのフィルタである。一例として、マスク領域は、レーダ画像のうち、信号の振幅または電力が予め定められたしきい値以上の領域である。しきい値は、マニュアルで定められてもよいし、レーダ画像における最大の振幅または電力の定数倍としてマスク作成部211が設定してもよいし、パラメータスタディに基づいてマスク作成部211が自動で設定してもよい。
 他の例として、マスク領域は、レーダ画像に対して虚像抑圧処理を行った場合にアーチファクトが発生するアーチファクト発生領域であってもよい。このようなアーチファクト発生領域は、レーダ画像と、レーダ画像に対して虚像抑圧処理を実施したレーダ画像とを比較して、虚像抑圧処理を実施したレーダ画像において振幅または電力が増加した領域として画定することができる。アーチファクトは真の像の信号が欠損することにより生じるので、アーチファクト発生領域は虚像抑圧処理を実施する前のレーダ画像における真の像の位置と重なるように発生することがある。そこで、虚像抑圧処理を実施したレーダ画像におけるアーチファクト発生領域に対応する元のレーダ画像における領域をマスクしてもよい。
 マスクフィルタは、一例として、マスク領域のフィルタ係数が0であり、マスク領域以外の非マスク領域のフィルタ係数が1である2値フィルタである。図3Aに図示されたマスクフィルタにおいて、黒丸で示された領域はフィルタ係数の値が0のマスク領域であり、白色で示された広い領域はフィルタ係数の値が1の非マスク領域を示す。他の例として、マスクフィルタは、マスク領域の中心のフィルタ係数の値が0であり、非マスク領域のフィルタ係数の値が1であり、マスク領域の中心と非マスク領域の間にある領域のフィルタ係数の値が0より大きく1未満の範囲の値である多値フィルタであってもよい。このような多値フィルタは、例えばモルフォロジ膨張処理により作成することができる。
 復元フィルタは、アーチファクト源の信号を保持するフィルタである。図3Aに図示された復元フィルタにおいて、白丸で示された領域は、マスク領域に相当する領域であり、レーダ画像におけるアーチファクト源の信号のデータを保持する。図3Aに図示された復元フィルタにおいて、黒色で示された広い領域は値が0の領域である。
 マスク作成部211は、一例として、作成したマスクフィルタをマスク適用部212へ出力する。マスク作成部211は、一例として、作成したマスクフィルタとともに、取得したレーダ画像もマスク適用部212へ出力してもよい。また、マスク作成部211は、作成した復元フィルタをマスク復元部23へ出力する。
 なお、レーダ画像処理装置2の機能部間でのデータの授受は、図示した機能部間で直接行うのでなく、不図示の制御部を介して行ってもよい。以下、同様である。
(マスク適用部)
 マスク適用部212は、一例として、マスク作成部211からレーダ画像を取得する。また、マスク適用部212は、マスク作成部211により作成されたマスクフィルタを取得する。マスク適用部212は、取得したレーダ画像に対して取得したマスクフィルタを適用して、マスクフィルタが適用されたレーダ画像であるマスクレーダ画像を生成する。
 図3Bの上半分は、マスク適用部212が、マスクレーダ画像を生成する様子を示している。マスク適用部212は、取得したレーダ画像に、取得したマスクフィルタを乗算することでマスクレーダ画像を生成する。
 マスク適用部212は、マスクレーダ画像を虚像抑圧処理部22へ出力する。
(虚像抑圧処理部)
 虚像抑圧処理部22は、マスクレーダ画像を取得し、取得したマスクレーダ画像に対して虚像抑圧処理を行って、虚像が抑圧されたマスクレーダ画像である虚像抑圧レーダ画像を生成する。虚像抑圧処理部22は、一例として、特許文献1に従って虚像抑圧処理を行う。虚像抑圧処理部22は、虚像抑圧処理を行うために、リフォーカス部221、虚像判定部222、および虚像抑圧部223を備える。
(リフォーカス部)
 リフォーカス部221は、マスクレーダ画像について、焦点をリフォーカスしてリフォーカスレーダ画像を生成する。より具体的には、リフォーカス部221は、本来の画像化の領域外に焦点を合わせることで、リフォーカスレーダ画像を生成する。本来の画像化の領域に焦点が合ったマスクレーダ画像においては、その領域が結像するが、虚像はぼけている。一方、本来の画像化の領域外に焦点が合ったレーダ画像では、虚像に焦点が合っている場合は虚像が明確となり、本来の画像化の領域で結像していた真の像はぼけることとなる。
(虚像判定部)
 虚像判定部222は、リフォーカスレーダ画像に虚像が含まれているかを判定する。例えば、虚像判定部222は、予め定められたしきい値以上の電力を有する像が検出された場合に虚像ありと判定する。虚像ありと判定した場合、虚像判定部222は、虚像が存在すると判定した画素の位置情報およびリフォーカスレーダ画像を出力する。
(虚像抑圧部)
 虚像抑圧部223は、リフォーカスレーダ画像に含まれる虚像を抑圧する。例えば、虚像抑圧部223は、リフォーカスレーダ画像において、虚像判定部222により虚像ありと判定された画素の値を0にする。虚像抑圧部223は、虚像を抑圧した虚像抑圧レーダ画像をリフォーカス部221へ出力する。
 虚像抑圧レーダ画像について、リフォーカス部221は更にリフォーカスし、虚像判定部222は既に抑圧された虚像とは異なる虚像の有無を判定し、虚像抑圧部223は新たに検出された虚像を抑圧する。このようにして、マスクレーダ画像に含まれる1または2以上の虚像が抑圧される。リフォーカス部221によるリフォーカスが終了した場合、リフォーカス部221は、焦点を本来の画像化の領域に戻して、最終的に得られた虚像抑圧レーダ画像(以下、単に「虚像抑圧レーダ画像」と称する。)をマスク復元部23へ出力する。
(マスク復元部)
 マスク復元部23は、復元フィルタおよび虚像抑圧レーダ画像を取得し、取得した虚像抑圧レーダ画像に復元フィルタを適用して、再構成レーダ画像を生成する。マスク復元部23は、生成した再構成レーダ画像を記憶装置1の記憶部12へ出力する。
 図3Bの下半分は、マスク復元部23が、再構成レーダ画像を生成する様子を示している。マスク復元部23は、取得した虚像抑圧レーダ画像に、復元フィルタを加算して、再構成レーダ画像を生成する。
 次に、図2Aおよび図2Bを参照して、レーダ画像処理装置2のハードウェアの構成例について説明する。レーダ画像処理装置2は、処理回路(processing circuitry)により実現される。処理回路(processing circuitry)は、図2Aに示されているような専用の処理回路(processing circuit)100aであっても、図2Bに示されているようなメモリ100cに格納されるプログラムを実行するプロセッサ100bを備えたコンピュータであってもよい。
 処理回路(processing circuitry)が専用の処理回路100aである場合、専用の処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(application specific integrated circuit)、FPGA(field-programmable gate array)、またはこれらを組み合わせたものが該当する。レーダ画像処理装置2の各機能部を別個の複数の処理回路(processing circuits)で実現してもよいし、複数の機能部をまとめて単一の処理回路(processing circuit)で実現してもよい。
 処理回路(processing circuitry)がプロセッサ100bの場合、レーダ画像処理装置2は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、レーダ画像処理装置2の各機能部を実現する。すなわち、メモリ100cに記憶されたプログラムは、マスク作成部211が行うマスク作成機能、マスク適用部212が行うマスク適用機能、虚像抑圧処理部22が行う虚像抑圧処理機能、およびマスク復元部23が行うマスク復元機能を記述するプログラムである。なお、メモリ100cに記憶されたプログラムは、後述の虚像探索部21M1が行う虚像探索機能、および後述のマスク再作成部21M2が行うマスク再作成機能を記述していてもよい。メモリ100cの例には、RAM(random access memory)、ROM(read-only memory)、フラッシュメモリ、EPROM(erasable programmable read only memory)、EEPROM(electrically erasable programmable read-only memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDが含まれる。
 なお、レーダ画像処理装置2の一部の機能部を専用のハードウェアで実現し、その他の機能部をソフトウェアまたはファームウェアで実現するようにしてもよい。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
<動作>
 次に、以上の構成を備えるレーダ画像処理装置2の動作について、図4から図6を参照して説明する。
 図4のステップST101において、マスク作成部211は、記憶装置1の記憶部11からレーダ画像を取得し、取得したレーダ画像からマスクフィルタおよび復元フィルタを作成する。
 ステップST102において、マスク適用部212は、マスク作成部211からレーダ画像および作成されたマスクフィルタを取得し、取得したレーダ画像に対して取得したマスクフィルタを適用してマスクレーダ画像を生成する。
 ステップST103において、リフォーカス部221は、マスク適用部212により生成されたマスクレーダ画像について、焦点を変更する。より具体的には、リフォーカス部221は、焦点を本来の画像化の領域外に合わせてリフォーカスレーダ画像を生成する。
 ステップST104において、虚像判定部222はリフォーカスレーダ画像に含まれる虚像を検出し、虚像抑圧部223はリフォーカスレーダ画像に含まれる虚像を抑圧する。
 ステップST103およびステップST104の処理は、複数回繰り返して、複数の虚像が抑圧されてよい。
 ステップST105において、リフォーカス部221は、虚像が抑圧された後のレーダ画像について、焦点を本来の画像化の領域に戻し、虚像抑圧レーダ画像を生成する。
 ステップST106において、マスク復元部23は、マスク作成部211により作成された復元フィルタと、虚像抑圧処理部22により生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成する。
 以上のようにして再構成レーダ画像を生成することで、従来技術に伴う課題が解決される。このことを、図5および図6を参照して説明する。図5は、従来技術によるレーダ画像処理装置の動作を示す図である。図6は、本開示のレーダ画像処理装置2の動作を示す図である。図5の(a)~(d)および図6の(a)~(e)の各図において、横軸はアジマス軸またはレンジ軸の距離若しくは時間を表し、縦軸は振幅または電力を表す。
 図5の(a)は、虚像抑圧処理を行う前の、本来の画像化の領域内に焦点が合ったレーダ画像の例である。図5の(a)には、結像された真の像I1および真の像I2の他、観測領域外の物体による反射波により生じた虚像が示されている。
 従来技術によれば、図5の(a)のレーダ画像に対して虚像抑圧処理(図5の(b)および(c))を行い、虚像が抑圧されたレーダ画像(図5の(d))を生成する。まず、図5の(b)に示されているように、焦点が本来の画像化の領域から、その領域外へリフォーカスされる。これにより、虚像が結像し、真の像I1およびI2は拡散する。真の像が拡散することで、図5の(b)に示されているように、虚像と拡散された真の像とが重なる場合がある。
 次に、図5の(c)に示されているように、しきい値処理により虚像が検出され、検出された虚像が抑圧される。虚像を抑圧する際、虚像と拡散された真の像とが重なっているので、真の像の信号も抑圧されることとなる。
 次に、図5の(d)に示されているように、焦点が本来の画像化の領域に復帰されて、虚像が抑圧されたレーダ画像が得られる。
 図5の(a)と図5の(d)を対比すると明らかなように、真の像の分解能(3dB分解能)は劣化し、アーチファクトが発生している。これらは何れも、虚像とともに真の像の一部も抑圧したために生じる現象であり、アーチファクトの発生は元の真の像の電力が高い場合に顕著となる。したがって、図5の(d)に示されたアーチファクトは主に真の像I1が抑圧されたことにより生じる。このように、従来技術によれば、虚像抑圧処理を行うと、真の像の分解能が劣化するとともに、アーチファクトが発生する場合があるという課題がある。
 これに対し、本開示のレーダ画像処理装置2によれば、そのような課題を解決できる。まず、図6の(a)および(b)に示されているように、マスク適用部212が、マスク作成部211により作成されたマスクフィルタをレーダ画像に対して適用する。マスクフィルタは、アーチファクト源をマスクするためのフィルタであり、振幅または電力が大きく、振幅または電力の大きなアーチファクト源となる真の像I1はマスクされ、振幅または電力が小さく、振幅または電力の小さなアーチファクト源である真の像I2はマスクされていない。なお、振幅または電力の大きなアーチファクト源となる真の像が複数存在する場合は、複数の真の像がマスクされる。
 次に、図6の(c)および(d)に示されているように、アーチファクト源(真の像I1)がマスクされた後のマスクレーダ画像に対して、レーダ画像処理装置2は、虚像抑圧処理を行う。
 その後、図6の(e)に示されているように、マスク復元部23が、虚像抑圧処理が行われた虚像抑圧レーダ画像に対してアーチファクト源(真の像I1)の信号を保持する復元フィルタを適用して、再構成レーダ画像を生成する。
 このように、レーダ画像処理装置2によれば、アーチファクト源(真の像I1)がマスクされた状態で虚像抑圧処理が行われるので、アーチファクト源(真の像I1)の分解能が劣化することはなく、アーチファクトの発生を抑制できる。
 実施の形態2.
 次に、図1および図7~図9を参照して、実施の形態2によるレーダ画像処理装置2Mについて説明をする。実施の形態2では、アーチファクト源の存在する画素に虚像が重畳する場合はアーチファクト源をマスクしないように構成されたレーダ画像処理装置2Mを提供することを目的とする。
<構成>
 このような目的を実現するため、レーダ画像処理装置2Mは、レーダ画像処理装置2のマスク処理部21が図7のマスク処理部21Mに置換された構成を備える。マスク処理部21Mは、マスク作成部211、虚像探索部21M1、マスク再作成部21M2、およびマスク適用部212を備える。図7において、図1と同様の機能部については同様の参照番号が付されている。
 虚像探索部21M1は、記憶装置1の記憶部11からまたはマスク作成部211からレーダ画像を取得し、取得したレーダ画像(入力レーダ画像)に含まれる虚像を探索する。虚像の探索、即ち虚像の有無の判定は、例えば、入力レーダ画像と入力レーダ画像を分解能セル以上ずらしたレーダ画像とのコヒーレンスを取り、コヒーレンスの値をもとに行うことができる。すなわち、虚像は拡がりがあり、レーダ画像間での類似度は高いので、コヒーレンスは大きい値となる。これに対し、真の像は狭い領域に結像しており、レーダ画像間での類似度は小さいので、コヒーレンスは小さい値となる。そこで、虚像探索部21M1は、入力レーダ画像と入力レーダ画像を分解能セル以上ずらしたレーダ画像とのコヒーレンスの値が予め定められた値以上の場合、虚像ありと判定する。なお、コヒーレンスは、画素ごとに算出してもよいし、複数の画素を含む領域ごとに算出してもよい。
 他の例として、虚像探索部21M1は、入力レーダ画像に対して虚像抑圧処理を行ってレーダ画像を生成し、入力レーダ画像と、虚像抑圧処理を実施して生成したレーダ画像とを比較して振幅または電力の差を取り、振幅または電力が減少している部分を虚像であると判定してもよい。
 虚像探索部21M1は、探索により虚像を発見した場合、虚像が存すると判定した画素の領域を示す虚像領域と入力レーダ画像を出力する。
 マスク再作成部21M2は、マスクフィルタおよび虚像領域を取得し、マスクフィルタ(第1のマスクフィルタ)によりマスクされるマスク領域が虚像領域内に位置するかを判定し、マスク領域が虚像の領域内に位置する場合、そのマスク領域をマスクしないようにマスクフィルタ(第2のマスクフィルタ)を再作成する。すなわち、マスク再作成部21M2は、第1のマスクフィルタのマスク領域を非マスク領域に変更して、第2のマスクフィルタを再作成する。第2のマスクフィルタの再作成は、例えば、第1のマスクフィルタにおける対象領域のフィルタ係数の値を0から1に置換することにより行う。
 図8は、マスク再作成部21M2によりマスクフィルタが再作成される様子を示している。図8に示されているように、入力レーダ画像上に虚像が存在する場合において、アーチファクト源(すなわち、マスクフィルタのマスク領域)が虚像の領域内に位置するときは、マスク再作成部21M2は、虚像の領域内に位置するアーチファクト源(マスク領域)をマスクしないようにマスクフィルタを再作成する。マスク再作成部21M2は、再作成したマスクフィルタをマスク適用部212へ出力する。
 実施の形態1の場合と同様に、マスク適用部212は、取得したレーダ画像に対して再作成されたマスクフィルタを適用する。レーダ画像は、記憶装置1の記憶部11から取得されてもよいし、マスク作成部211、虚像探索部21M1およびマスク再作成部21M2を介して取得されてもよいし、不図示の制御部を介して取得されてもよい。
<動作>
 次に、図4および図9を参照して、レーダ画像処理装置2Mの動作について説明をする。レーダ画像処理装置2Mは、図4のステップST101およびST102に係るマスク処理が、図9のステップST201からST204に係るマスク処理に全体的に置換された動作を行う。
 図9のステップST201は図4のステップST101に相当するステップであり、マスク作成部211は、取得したレーダ画像からマスクフィルタおよび復元フィルタを作成する。
 ステップST202において、虚像探索部21M1は、入力レーダ画像に含まれる虚像を探索する。
 ステップST203において、マスク再作成部21M2は、入力レーダ画像上に虚像が存在する場合において、アーチファクト源が虚像の領域内に位置するときは、虚像の領域内に位置するアーチファクト源をマスクしないようにマスクフィルタを再作成する。
 図9のステップST204は図4のステップST102に相当するステップであり、マスク適用部212は、取得したレーダ画像に対して再作成されたマスクフィルタを適用してマスクレーダ画像を生成する。なお、図9のステップST204では、再作成されたマスクフィルタを再作成マスクフィルタと表記している。
 レーダ画像処理装置2Mは、このマスクレーダ画像を用いてレーダ画像処理装置2と同様に動作する。
 レーダ画像処理装置2Mによれば、実施の形態1によるレーダ画像処理装置2と同様に動作する。したがって、虚像と重なるアーチファクト源については虚像抑圧処理を分解能劣化およびアーチファクトの抑制に優先させて行うことが可能となる。
 なお、実施形態を組み合わせたり、各実施形態を適宜、変形、省略したりすることが可能である。
 本開示のレーダ画像処理装置は、合成開口レーダにより再生されたレーダ画像を処理するための装置として用いることができる。
 1 記憶装置、2(2M) レーダ画像処理装置、11 記憶部、12 記憶部、21(21M) マスク処理部、21M1 虚像探索部、21M2 マスク再作成部、22  虚像抑圧処理部、23 マスク復元部、100a 処理回路、100b プロセッサ、100c メモリ、211 マスク作成部、212 マスク適用部、221 リフォーカス部、222 虚像判定部、223 虚像抑圧部。

Claims (10)

  1.  レーダ画像を取得し、取得されたレーダ画像から、アーチファクト源をマスクする第1のマスクフィルタと、前記アーチファクト源の信号を保持する復元フィルタとを作成するマスク作成部と、
     前記取得されたレーダ画像に、前記第1のマスクフィルタを適用して、マスクレーダ画像を生成するマスク適用部と、
     その作成されたマスクレーダ画像に対して虚像を抑圧する処理を行って、虚像抑圧レーダ画像を生成する虚像抑圧処理部と、
     その作成された復元フィルタと、その生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成するマスク復元部と、
    を備えるレーダ画像処理装置。
  2.  前記アーチファクト源は前記レーダ画像において予め定められたしきい値以上の振幅または電力を有する領域である、
    請求項1に記載されたレーダ画像処理装置。
  3.  前記アーチファクト源は、前記レーダ画像に虚像抑圧処理を行った場合にアーチファクトが発生するアーチファクト発生領域である、
    請求項1に記載されたレーダ画像処理装置。
  4.  前記マスクフィルタは複数の領域を備え、各領域はフィルタ係数が0から1の範囲の値を有する多値フィルタである、
    請求項1から3のいずれか1項に記載されたレーダ画像処理装置。
  5.  前記マスクフィルタは複数の領域を備え、各領域はフィルタ係数が0または1の値を有する2値フィルタである、
    請求項1から3のいずれか1項に記載されたレーダ画像処理装置。
  6.  前記レーダ画像において虚像が存在する虚像領域を探索する虚像探索部と、
     前記アーチファクト源がその探索された虚像領域内に位置する場合に、前記探索された虚像領域内に位置するアーチファクト源をマスクしないように、前記作成されたマスクフィルタによりマスクされる領域を変更して第2のマスクフィルタを作成するマスク再作成部と、
    を更に備え、
     前記マスク適用部は、前記第1のマスクフィルタに代えて、前記第2のマスクフィルタを適用する、
    請求項1から5のいずれか1項に記載されたレーダ画像処理装置。
  7.  前記虚像探索部は、前記レーダ画像と、前記レーダ画像が分解能セル以上ずれたレーダ画像とのコヒーレンスの値に基づいて前記虚像領域を探索する、
    請求項6に記載されたレーダ画像処理装置。
  8.  前記虚像探索部は、前記レーダ画像に虚像抑圧処理を行った場合に信号が抑圧される領域を前記虚像領域として探索する、
    請求項6に記載されたレーダ画像処理装置。
  9.  マスク作成部と、マスク適用部と、虚像抑圧処理部と、マスク復元部とを備えるレーダ画像処理装置が行うレーダ画像処理方法であって、
     前記マスク作成部が、レーダ画像を取得し、取得されたレーダ画像から、アーチファクト源をマスクする第1のマスクフィルタと、前記アーチファクト源の信号を保持する復元フィルタとを作成するステップと、
     前記マスク適用部が、前記取得されたレーダ画像に、前記第1のマスクフィルタを適用して、マスクレーダ画像を生成するステップと、
     前記虚像抑圧処理部が、その作成されたマスクレーダ画像に対して虚像を抑圧する処理を行って、虚像抑圧レーダ画像を生成するステップと、
     前記マスク復元部が、その作成された復元フィルタと、その生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成するステップと、
    を備えるレーダ画像処理方法。
  10.  レーダ画像を取得し、取得されたレーダ画像から、アーチファクト源をマスクする第1のマスクフィルタと、前記アーチファクト源の信号を保持する復元フィルタとを作成するマスク作成機能と、
     前記取得されたレーダ画像に、前記第1のマスクフィルタを適用して、マスクレーダ画像を生成するマスク適用機能と、
     その作成されたマスクレーダ画像に対して虚像を抑圧する処理を行って、虚像抑圧レーダ画像を生成する虚像抑圧処理機能と、
     その作成された復元フィルタと、その生成された虚像抑圧レーダ画像とを合成して、再構成レーダ画像を生成するマスク復元機能と、
    をコンピュータに実行させるレーダ画像処理プログラム。
PCT/JP2022/043434 2022-11-25 2022-11-25 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム WO2024111103A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/043434 WO2024111103A1 (ja) 2022-11-25 2022-11-25 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/043434 WO2024111103A1 (ja) 2022-11-25 2022-11-25 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2024111103A1 true WO2024111103A1 (ja) 2024-05-30

Family

ID=91195787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043434 WO2024111103A1 (ja) 2022-11-25 2022-11-25 レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2024111103A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033549A1 (en) * 2007-07-09 2009-02-05 Yuanwei Jin Application of time reversal to synthetic aperture imaging
US20090179790A1 (en) * 2006-03-31 2009-07-16 Qinetiq Limited System and method for processing imagery from synthetic aperture systems
JP2011112630A (ja) * 2009-11-30 2011-06-09 Mitsubishi Electric Corp レーダ画像処理装置
JP2011208974A (ja) * 2010-03-29 2011-10-20 Mitsubishi Electric Corp レーダ画像処理装置
WO2015008554A1 (ja) * 2013-07-19 2015-01-22 国立大学法人東北大学 合成開口処理を伴うセンサ、そのセンサの処理方法、および、プログラム
WO2019176016A1 (ja) * 2018-03-14 2019-09-19 三菱電機株式会社 レーダ画像処理装置およびレーダ画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090179790A1 (en) * 2006-03-31 2009-07-16 Qinetiq Limited System and method for processing imagery from synthetic aperture systems
US20090033549A1 (en) * 2007-07-09 2009-02-05 Yuanwei Jin Application of time reversal to synthetic aperture imaging
JP2011112630A (ja) * 2009-11-30 2011-06-09 Mitsubishi Electric Corp レーダ画像処理装置
JP2011208974A (ja) * 2010-03-29 2011-10-20 Mitsubishi Electric Corp レーダ画像処理装置
WO2015008554A1 (ja) * 2013-07-19 2015-01-22 国立大学法人東北大学 合成開口処理を伴うセンサ、そのセンサの処理方法、および、プログラム
WO2019176016A1 (ja) * 2018-03-14 2019-09-19 三菱電機株式会社 レーダ画像処理装置およびレーダ画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANG HUIZHANG; LI KUN; LI JIE; DU YANLEI; YANG JIAN: "BSF: Block Subspace Filter for Removing Narrowband and Wideband Radio Interference Artifacts in Single-Look Complex SAR Images", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, IEEE, USA, vol. 60, 29 July 2021 (2021-07-29), USA, pages 1 - 16, XP011897826, ISSN: 0196-2892, DOI: 10.1109/TGRS.2021.3096538 *

Similar Documents

Publication Publication Date Title
US8582820B2 (en) Coded aperture camera with adaptive image processing
JP2013531268A (ja) 符号化開口を使用した距離の測定
WO2021082819A1 (zh) 一种图像生成方法、装置及电子设备
US9667882B2 (en) Image processing apparatus, image-pickup apparatus, image processing method, non-transitory computer-readable storage medium for generating synthesized image data
Soumekh Signal subspace fusion of uncalibrated sensors with application in SAR and diagnostic medicine
JP5592413B2 (ja) 疑似投影用パターン・ノイズ補正
US20210185215A1 (en) Multi-sensor high dynamic range imaging
WO2024111103A1 (ja) レーダ画像処理装置、レーダ画像処理方法、およびレーダ画像処理プログラム
JP2013228798A (ja) 画像処理装置、撮像装置、内視鏡、プログラム及び画像処理方法
KR102466061B1 (ko) 계층적 생성 적대 네트워크를 이용한 노이즈 제거 장치 및 그 방법
JP3699921B2 (ja) 画像再構成法及び画像再構成装置
CN114419490A (zh) 一种基于注意力金字塔的sar船只目标检测方法
Ostrowski et al. BP-EVD: Forward block-output propagation for efficient video denoising
US6788807B1 (en) Three dimensional information measurement method and apparatus
CN117173324A (zh) 点云着色方法、系统、终端及存储介质
CN115363528A (zh) 一种用于环阵光声计算层析系统的仰角分辨率的重建方法
KR102677172B1 (ko) 영상 해상도 개선 방법 및 장치
Narasimha et al. A comparative study: Spatial domain filter for medical image enhancement
CN115185078A (zh) 非相干孔径合成像差校正方法及装置
JP2011133593A (ja) 撮像装置
JP6702775B2 (ja) 画像処理装置、その制御方法、および制御プログラム
CN115880188B (zh) 一种偏振方向统计图像生成方法、设备以及介质
CN116709020A (zh) 一种基于索贝尔算子的调焦方法及设备
EP4386675A1 (en) External parameter determination method and image processing device
KR102367090B1 (ko) 초해상도 합성곱 신경망 기반의 광음향 현미경 영상 수치 재초점 방법 및 장치