KR102327060B1 - Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target - Google Patents

Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target Download PDF

Info

Publication number
KR102327060B1
KR102327060B1 KR1020210086443A KR20210086443A KR102327060B1 KR 102327060 B1 KR102327060 B1 KR 102327060B1 KR 1020210086443 A KR1020210086443 A KR 1020210086443A KR 20210086443 A KR20210086443 A KR 20210086443A KR 102327060 B1 KR102327060 B1 KR 102327060B1
Authority
KR
South Korea
Prior art keywords
interest
region
aperture radar
feature map
radar image
Prior art date
Application number
KR1020210086443A
Other languages
Korean (ko)
Inventor
신수진
황인수
김준희
김영중
김성호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020210086443A priority Critical patent/KR102327060B1/en
Application granted granted Critical
Publication of KR102327060B1 publication Critical patent/KR102327060B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • G06K9/3233
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration

Abstract

A method for extracting a region of interest performed by an apparatus for extracting a region of interest according to an embodiment comprises the steps of: inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise; inputting a second synthesized aperture radar image from which noise has been removed and the first synthesized aperture radar image to a second deep learning model trained in advance so that a region of interest is extracted in the first synthetic aperture radar image by the first deep learning model; merging a first feature map for the first synthesized aperture radar image and a second feature map for the second synthesized aperture radar image, which have been output from the second deep learning model; and extracting a region of interest for the first synthesized aperture radar image on the basis of the merged feature map. Images of interest with high accuracy are extracted.

Description

표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램{METHOD, APPARATUS, COMPUTER-READABLE STORAGE MEDIUM AND COMPUTER PROGRAM FOR EXTRACTING REGION OF INTEREST FOR IDENTIFYING TARGET}Method, apparatus, computer-readable recording medium and computer program for extracting a region of interest for target identification

본 발명은 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method and apparatus for extracting a region of interest for target identification, a computer-readable recording medium, and a computer program.

위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 비, 구름, 안개 등 기상 조건이나 주야간, 역광 등 일조현상에 영향을 받지 않으며, 광범위한 지역에 대하여 영상 획득이 가능하기 때문에 군사적 활용도가 매우 높다.Satellite Synthetic Aperture Radar (SAR) image is not affected by weather conditions such as rain, cloud, fog, or sunlight such as day or night, backlight, etc., and has very high military utility because it can acquire images over a wide area.

특히, 대한민국은 입지적으로 삼면이 바다로 둘러싸인 반도로서, 기상 변화가 많고 구름이 많을 확률이 높으므로, 영상 정보 획득 측면에서 인공 위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 기상 조건 또는 일조현상에 영향을 받는 인공 위성 전자광학영상에 비하여 중요한 영상으로 부각되고 있다.In particular, as a peninsula surrounded by the sea on three sides in terms of location, Korea is a peninsula surrounded by the sea on three sides and there is a high probability that there are many weather changes and there are many clouds. Compared to the satellite electro-optical image that is affected by the phenomenon, it is emerging as an important image.

이러한, 인공 위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 원 거리(예를 들어, 600km)에서 촬영되는데, 이로 인해 획득되는 인공 위성 합성 개구 레이다 영상에서 물체(또는 표적)의 크기가 매우 작다. 또한, 인공위성 합성 개구 레이다 영상은 지표면의 현상으로 인하여 스파클 잡음을 포함하고 있기 때문에 일반적인 광학 영상에 비하여 물체 분별력이 제한된다.Such a synthetic aperture radar (SAR) image is taken at a far distance (eg, 600 km), and the size of the object (or target) in the obtained satellite synthetic aperture radar image is very small. . In addition, since the satellite synthetic aperture radar image contains sparkle noise due to the phenomenon of the earth's surface, the object discrimination ability is limited compared to the general optical image.

이에 대하여, 인공 위성 합성 개구 레이다 영상에서 물체(표적)를 분별하기 위해서는 스펙클 잡음을 제거하는 데이터 전처리 작업을 수행한 후, 물체(표적)을 식별해야 되나, 데이터 전처리 작업을 별도로 수행하는 것에 대한 시간이 많이 소모되는 문제점과 스펙클 잡음을 제거할 경우, 스펙클 잡음에 물체 식별을 위한 정보가 포함될 경우에는 물체 식별 성능이 저하되는 문제점이 존재하고 있는 상황이다.In contrast, in order to discriminate an object (target) in the artificial satellite synthetic aperture radar image, it is necessary to identify the object (target) after performing data preprocessing to remove speckle noise. In the case of removing the time-consuming problem and the speckle noise, when the speckle noise includes information for object identification, there is a problem that the object identification performance is deteriorated.

한국등록특허공보, 10-2237994호 (2021.04.02. 등록)Korean Patent Publication No. 10-2237994 (Registered on Feb. 2, 2021)

본 발명의 해결하고자 하는 과제는, 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method, an apparatus, a computer-readable recording medium, and a computer program for extracting a region of interest for target identification.

또한, 이러한 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램을 통해 높은 정확도를 가지는 관심 영상을 추출한 후, 관심 영상에 포함된 물체(표적)를 식별하는 것 등이 본 발명의 해결하고자 하는 과제에 포함될 수 있다.In addition, after extracting an image of interest with high accuracy through an ROI extraction method, apparatus, computer readable recording medium and computer program for target identification, identifying an object (target) included in the ROI is this It can be included in the problem to be solved of the invention.

다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명의 일 실시예에 따른 관심 영역 추출 방법은, 관심 영역 추출 장치에 의해 수행되는 관심 영역 추출 방법에 있어서, 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와, 상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와, 상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하는 단계와, 상기 병합된 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출하는 단계를 포함할 수 있다.In the method for extracting a region of interest according to an embodiment of the present invention, in the method for extracting a region of interest performed by an apparatus for extracting a region of interest, a first synthetic aperture radar (SAR) is applied to a first deep learning model previously trained to remove noise. inputting an image, and generating a second synthesized aperture radar image from which noise has been removed from the first synthesized aperture radar image by the first deep learning model and the first synthesized aperture radar image to extract a region of interest A first feature map for the first synthesized aperture radar image and a second feature map for the second synthesized aperture radar image output from the second deep learning model and extracting a region of interest for the first synthesized aperture radar image based on the merged feature map.

또한, 상기 관심 영역을 추출하는 단계는, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 상기 병합된 특징맵에 적용하여 상기 관심 영역을 추출할 수 있다.Also, the extracting of the region of interest may include extracting the region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map.

또한, 상기 제 1 딥러닝 모델은, 학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.In addition, the first deep learning model may be trained to output an image from which noise is removed from the training image when an image for training is input.

또한, 상기 제 1 딥러닝 모델은, 상기 제 2 특징맵과 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.In addition, the first deep learning model may be further trained by receiving the second feature map and the region of interest for the first synthesized aperture radar image as a feedback value.

또한, 상기 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는 단계를 더 포함할 수 있다.The method may further include identifying a target included in the first synthetic aperture radar image based on the region of interest.

본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 제 1 합성 개구 레이다(SAR) 영상을 입력 받는 입출력부; 메모리; 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 상기 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와, 상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와, 상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하는 단계와, 상기 병합된 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다.An apparatus for extracting a region of interest according to an embodiment of the present invention includes: an input/output unit for receiving a first synthetic aperture radar (SAR) image; Memory; and a processor electrically connected to the memory, wherein the processor inputs the first synthesized aperture radar (SAR) image to a first deep learning model trained to remove noise; inputting a second synthesized aperture radar image and the first synthesized aperture radar image from which noise has been removed from the first synthesized aperture radar image by a model into a second deep learning model trained in advance so that a region of interest is extracted; , merging a first feature map for the first synthesized aperture radar image output from the second deep learning model and a second feature map for the second synthesized aperture radar image; A region of interest for the first synthesized aperture radar image may be extracted based on the ROI.

또한, 상기 프로세서는, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 상기 병합된 특징맵에 적용하여 상기 관심 영역을 추출할 수 있다.Also, the processor may extract the region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map.

또한, 상기 제 1 딥러닝 모델은, 학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.In addition, the first deep learning model may be trained to output an image from which noise is removed from the training image when an image for training is input.

또한, 상기 제 1 딥러닝 모델은, 상기 제 2 특징맵과 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다. 또한, 상기 프로세서는, 상기 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별할 수 있다.In addition, the first deep learning model may be further trained by receiving the second feature map and the region of interest for the first synthesized aperture radar image as a feedback value. Also, the processor may identify a target included in the first synthetic aperture radar image based on the region of interest.

본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 합성 개구 레이더 영상에서 잡음 제거를 수행하는 데이터 전처리 과정을 수행하지 않고, 합성 개구 레이더 영상을 입력하는 것만으로 입력된 합성 개구 레이더 영상의 관심 영역을 추출할 수 있다.The apparatus for extracting a region of interest according to an embodiment of the present invention does not perform a data preprocessing process of removing noise from a synthesized aperture radar image, but only inputs the synthesized aperture radar image, and the ROI of the inputted synthesized aperture radar image is not performed. can be extracted.

또한, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 원본 합성 개구 레이더 영상과 원본 합성 개구 레이더 영상에서 잡음이 제거된 잡음 제거 합성 개구 레이더 영상 각각에서 산출된 관심 영역에 관한 특징맵을 이용하여 관심 영역을 추출하므로, 잡음이 제거된 합성 개구 레이더 영상만 이용하여 관심 영역을 추출하는 것보다 더 높은 정확도의 관심 영역을 추출할 수 있다.In addition, the apparatus for extracting a region of interest according to an embodiment of the present invention uses a feature map for a region of interest calculated from each of the original synthesized aperture radar image and the noise-removed synthesized aperture radar image in which noise is removed from the original synthesized aperture radar image. Since the region of interest is extracted by doing so, it is possible to extract the region of interest with higher accuracy than extracting the region of interest using only the noise-removed synthetic aperture radar image.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be able

도 1은 본 발명의 일 실시예에 따른 관심 영역 추출 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 대한 관심 영역 추출 장치를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 관심 영역 추출 방법의 절차에 대한 예시적인 순서도이다.
1 is a block diagram of an apparatus for extracting a region of interest according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining extracting a region of interest from a synthesized aperture radar image through an apparatus for extracting a region of interest according to an embodiment of the present invention.
3 is an exemplary flowchart of a procedure of a method for extracting a region of interest according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 관심 영역 추출 장치의 블록도이다.1 is a block diagram of an apparatus for extracting a region of interest according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상에서 관심 영역(ROI: Region of Interest)을 추출하고, 추출된 관심 영역을 기초로 합성 개구 레이다(SAR) 영상에서의 표적(또는 물체)을 식별할 수 있다.The apparatus 100 for extracting a region of interest according to an embodiment of the present invention extracts a region of interest (ROI) from a synthetic aperture radar (SAR) image, and a synthetic aperture based on the extracted region of interest. It is possible to identify a target (or object) in a radar (SAR) image.

도 1을 참조하면, 본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 입출력부(101), 통신부(102), 메모리(110) 및/또는 프로세서(120)를 포함할 수 있다. Referring to FIG. 1 , an apparatus for extracting a region of interest 100 according to an embodiment of the present invention may include an input/output unit 101 , a communication unit 102 , a memory 110 , and/or a processor 120 .

입출력부(101)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 일 실시예에 따른 관심 영역 추출 장치(100)의 다른 구성요소(들)에 전달하거나, 또는 일 측면에 따른 관심 영역 추출 장치(100)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 외부 기기로 출력할 수 있다.The input/output unit 101 transmits, for example, a command or data input from a user or other external device to other component(s) of the ROI extracting apparatus 100 according to an embodiment, or A command or data received from other component(s) of the ROI extracting apparatus 100 according to the ROI may be output to a user or an external device.

일 실시예로서, 입출력부(101)는 합성 개구 레이다(SAR) 영상을 입력 받을 수 있으며, 이러한 입출력부(101)는 키보드, 마우스, 터치 패드 등을 포함할 수 있다.As an embodiment, the input/output unit 101 may receive a synthetic aperture radar (SAR) image, and the input/output unit 101 may include a keyboard, a mouse, a touch pad, and the like.

여기서, 합성 개구 레이다(SAR) 영상은 인공 위성에서 촬영한 합성 개구 레이다(SAR) 영상일 수 있으나, 이에 한정되는 것은 아니다.Here, the synthetic aperture radar (SAR) image may be a synthetic aperture radar (SAR) image captured by an artificial satellite, but is not limited thereto.

통신부(102)는 관심 영역 추출 장치(100)와 외부 장치와의 유선 또는 무선 통신 채널의 수립 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.The communication unit 102 may support establishment of a wired or wireless communication channel between the ROI extracting apparatus 100 and an external device and performing communication through the established communication channel.

메모리(110)는 관심 영역 추출 장치(100)의 적어도 하나의 구성요소(프로세서(120), 입출력부(101) 및/또는 통신부(102))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(110)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 110 includes various data used by at least one component (the processor 120, the input/output unit 101, and/or the communication unit 102) of the ROI extraction apparatus 100, for example, software ( Example: program) and input data or output data for commands related thereto can be stored. The memory 110 may include a volatile memory or a non-volatile memory.

예를 들어, 메모리(110)는 물체 식별 모델(115)을 포함할 수 있다.For example, the memory 110 may include an object identification model 115 .

여기서, 물체 식별 모델(115)은 기 학습된 제 1 딥러닝 모델 및 기 학습된 제 2 딥러닝 모델을 포함할 수 있다.Here, the object identification model 115 may include a pre-trained first deep learning model and a pre-trained second deep learning model.

프로세서(120)(제어부, 제어 장치 또는 제어 회로라고도 함)는 연결된 관심 영역 추출 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 구성 요소(예: 입출력 부(101), 통신부(102) 및/또는 메모리(110)) 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다.The processor 120 (also referred to as a control unit, a control device, or a control circuit) includes at least one other component (eg, a hardware component (eg, an input/output unit 101 , a communication unit 102 ) of the connected region of interest extraction apparatus 100 . and/or the memory 110) or a software component), and may perform various data processing and operations.

또한, 프로세서(120)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다.In addition, the processor 120 may load and process commands or data received from at least one of the other components into the volatile memory, and store various data in the non-volatile memory.

이를 위해, 프로세서(120)는 해당 동작을 수행하기 위한 전용 프로세서(예를 들어, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예를 들어, CPU 또는 application processor 또는 MCU(Micro controller unit) 등)로 구현될 수 있다.To this end, the processor 120 executes a dedicated processor (eg, an embedded processor) or one or more software programs stored in a memory device for performing the corresponding operation, thereby performing the corresponding operation (generic-purpose processor). processor) (eg, a CPU or an application processor or a micro controller unit (MCU), etc.).

보다 상세히, 프로세서(120)는 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 입출력부(101)에서 입력 받은 제 1 합성 개구 레이다(SAR) 영상을 입력하고, 제 1 딥러닝 모델에 의해 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하고, 제 2 딥러닝 모델에서 출력된 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하고, 병합된 특징맵을 기초로 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다.In more detail, the processor 120 inputs the first synthesized aperture radar (SAR) image received from the input/output unit 101 to the pre-trained first deep learning model to remove noise, and uses the first deep learning model to From the first synthesized aperture radar image, the second synthesized aperture radar image and the first synthesized aperture radar image from which noise has been removed are input to a second deep learning model trained to extract a region of interest, and output from the second deep learning model The first feature map for the synthesized first synthesized aperture radar image and the second feature map for the second synthesized aperture radar image are merged, and the region of interest for the first synthesized aperture radar image is extracted based on the merged feature map. can

일 실시예로서, 프로세서(120)는 메모리(110)로부터 물체 식별 모델(115)을 로드한 후, 물체 식별 모델(115)을 이용하여 입출력부(101)에서 입력받은 합성 개구 레이다(SAR)영상에 대한 관심 영역을 추출할 수 있다. As an embodiment, the processor 120 loads the object identification model 115 from the memory 110 and then uses the object identification model 115 to receive a synthetic aperture radar (SAR) image input from the input/output unit 101 . area of interest can be extracted.

여기서, 물체 식별 모델(115)은 기 학습된 제 1 딥러닝 모델 및 기 학습된 제 2 딥러닝 모델을 포함할 수 있다.Here, the object identification model 115 may include a pre-trained first deep learning model and a pre-trained second deep learning model.

보다 상세히, 도 2를 참조하여 본 발명의 일 실시예에 대한 관심 영역 추출 장치(100)를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것에 대하여 상세히 설명하도록 한다.In more detail, extraction of a region of interest from a synthetic aperture radar image through the region of interest extraction apparatus 100 according to an embodiment of the present invention will be described in detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 대한 관심 영역 추출 장치를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining extracting a region of interest from a synthesized aperture radar image through an apparatus for extracting a region of interest according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 물체 식별 모델(115)을 이용하여 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다. Referring to FIG. 2 , the apparatus 100 for extracting a region of interest according to an embodiment of the present invention may extract a region of interest from a synthetic aperture radar image by using the object identification model 115 .

보다 상세히, 제 1 딥러닝 모델(210)은 제 1 합성 개구 레이다(SAR) 영상(200)을 입력받을 수 있다.In more detail, the first deep learning model 210 may receive the first synthetic aperture radar (SAR) image 200 as an input.

여기서, 제 1 딥러닝 모델(210)은 입력되는 데이터의 잡음이 제거되도록 비 지도학습(unsupervised learning)으로 학습되어 있을 수 있다. 예를 들어, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.Here, the first deep learning model 210 may be trained by unsupervised learning so that noise of input data is removed. For example, the first deep learning model 210 may be trained to output an image from which noise is removed from the training image when receiving the training image.

제 1 딥러닝 모델(210)에 의해, 제 1 합성 개구 레이다 영상(200)에서, 잡음이 제거된 제 2 합성 개구 레이다 영상(220)이 출력되면, 제 2 딥러닝 모델(230)은 제 1 합성 개구 레이다 영상(200)과 제 2 합성 개구 레이다 영상(220)을 입력받을 수 있다.When the second synthetic aperture radar image 220 from which noise is removed from the first synthetic aperture radar image 200 is output by the first deep learning model 210, the second deep learning model 230 is the first The composite aperture radar image 200 and the second composite aperture radar image 220 may be input.

여기서, 제 2 딥러닝 모델(230)은 표적(또는 물체)이 포함된 관심 영상(ROI: Region of Interest)이 추출되도록 비 지도학습(unsupervised learning) 또는 지도학습(supervised learning)기 학습되어 있을 수 있다.Here, the second deep learning model 230 may be trained in unsupervised learning or supervised learning so that a region of interest (ROI) including a target (or object) is extracted. have.

이후, 제 2 딥러닝 모델(230)에 의해, 제 1 합성 개구 레이다 영상(200)에 대한 제 1 특징맵(205)과 제 2 합성 개구 레이다 영상(220)에 대한 제 2 특징맵(225)이 출력되면, 관심 영역 추출 장치(100)는 제 1 특징맵(205)과 제 2 특징맵(225)을 병합할 수 있다.Then, by the second deep learning model 230 , the first feature map 205 for the first synthetic aperture radar image 200 and the second feature map 225 for the second synthetic aperture radar image 220 . When this is output, the ROI extraction apparatus 100 may merge the first feature map 205 and the second feature map 225 .

관심 영역 추출 장치(100)는 병합된 특징맵(240)을 기초로 제 1 합성 개구 레이다 영상(200)에서의 관심 영역을 추출할 수 있다.The ROI extracting apparatus 100 may extract the ROI from the first synthesized aperture radar image 200 based on the merged feature map 240 .

예를 들어, 관심 영역 추출 장치(100)는 하기 수학식 1과 같이, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 병합된 특징맵(feature map)(240)에 적용하여 관심 영역을 추출할 수 있다.For example, the region of interest extraction apparatus 100 extracts the region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map 240 as shown in Equation 1 below. can do.

Figure 112021076126829-pat00001
Figure 112021076126829-pat00001

여기서,

Figure 112021076126829-pat00002
는 관심 영역이고, NMS는 비-최대 억제(Non maximum Suppression) 알고리즘이고,
Figure 112021076126829-pat00003
는 제 1 합성 개구 레이더 영상(200)이고,
Figure 112021076126829-pat00004
는 제 2 합성 개구 레이더 영상(220)이고,
Figure 112021076126829-pat00005
는 기 설정된 임계값이다.here,
Figure 112021076126829-pat00002
is the region of interest, NMS is a non-maximum suppression algorithm,
Figure 112021076126829-pat00003
is the first synthetic aperture radar image 200,
Figure 112021076126829-pat00004
is the second synthetic aperture radar image 220,
Figure 112021076126829-pat00005
is a preset threshold value.

여기서, 비-최대 억제(NMS) 알고리즘은 중복되는 클래스(또는 박스)를 필터링하는 알고리즘이다.Here, the non-maximum suppression (NMS) algorithm is an algorithm that filters out overlapping classes (or boxes).

한편, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.On the other hand, when the first deep learning model 210 receives an image for training, it is trained to output an image in which noise has been removed from the training image, and then, on the second feature map 225 and the first synthetic aperture radar image 200 . It may be further learned by receiving an ROI as a feedback value.

보다 상세히, 제 1 딥러닝 모델(210)은 제 2 특징맵(225)에서의 관심 영역과 병합된 특징맵(240)의 관심영역에 관한 정보를 피드백 값으로 입력 받아 더 학습되어 있을 수 있다. 여기서, 병합된 특징맵(240)의 관심영역에 관한 정보는 병합된 특징맵(240)의 관심 영역을 기 설정된 조건으로 각 클래스(또는 박스) 별로 분류한 정보와 병합된 특징맵(240)의 관심 영역에 포함된 표적의 위치 정보를 포함할 수 있다.In more detail, the first deep learning model 210 may be further learned by receiving information about the region of interest of the feature map 240 merged with the region of interest in the second feature map 225 as a feedback value. Here, the information on the region of interest of the merged feature map 240 includes information that classifies the region of interest of the merged feature map 240 for each class (or box) under a preset condition and the merged feature map 240 . It may include location information of the target included in the ROI.

이때, 본 발명의 실시예에 따른 관심 영역 추출 장치(100)는 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는 제 1 딥러닝 모델(210)을 이용하여, 제 1 합성 개구 레이다 영상(200)에서 잡음이 제거된 제 2 합성 개구 레이다 영상(220)을 획득할 수 있다. At this time, when the region of interest extraction apparatus 100 according to an embodiment of the present invention receives a training image, it is trained to output an image in which noise is removed from the training image, and then, the second feature map 225 and the first synthesis aperture The second synthetic aperture radar from which noise is removed from the first synthetic aperture radar image 200 by using the first deep learning model 210 that has been further trained by receiving the region of interest for the radar image 200 as a feedback value. An image 220 may be acquired.

한편, 본 발명의 실시예에 따른 관심 영역 추출 장치(100) 에서 사용되는 손실함수는 하기 수학식 2와 같이 계산할 수 있다.Meanwhile, the loss function used in the ROI extraction apparatus 100 according to the embodiment of the present invention may be calculated as in Equation 2 below.

Figure 112021076126829-pat00006
Figure 112021076126829-pat00006

여기서,

Figure 112021076126829-pat00007
은 본 발명의 실시예에 따른 관심 영역 추출 장치(100)에서 사용되는 손실함수이고,
Figure 112021076126829-pat00008
은 제 1 딥러닝 모델(210)로부터 잡음이 제거된 영상을 학습시키기 위한 손실함수이고,
Figure 112021076126829-pat00009
은 제 1 합성 개구 레이다 영상(200)에 대해 제 2 딥러닝 모델(230)로부터 관심영역을 추출하기 위한 손실 함수이고,
Figure 112021076126829-pat00010
은 제 2 합성 개구 레이다 영상(220)에 대해 제 2 딥러닝 모델(230)로부터 관심영역을 추출하기 위한 손실 함수이고,
Figure 112021076126829-pat00011
는 병합된 관심 영역(ROI: Region of Interest)에 대해 분류 및 표적 위치를 학습하기 위해 기 정의되는 손실 함수이고,
Figure 112021076126829-pat00012
는 본 발명의 실시예에 따른 관심 영역 추출 장치(100)에서의 손실함수에 각각 대응되는 가중치 파라미터이다.here,
Figure 112021076126829-pat00007
is a loss function used in the ROI extraction apparatus 100 according to an embodiment of the present invention,
Figure 112021076126829-pat00008
is a loss function for learning an image from which noise has been removed from the first deep learning model 210,
Figure 112021076126829-pat00009
is a loss function for extracting a region of interest from the second deep learning model 230 for the first synthesized aperture radar image 200,
Figure 112021076126829-pat00010
is a loss function for extracting a region of interest from the second deep learning model 230 for the second synthesized aperture radar image 220,
Figure 112021076126829-pat00011
is a pre-defined loss function to learn classification and target position for the merged region of interest (ROI),
Figure 112021076126829-pat00012
is a weight parameter respectively corresponding to the loss function in the ROI extracting apparatus 100 according to an embodiment of the present invention.

관심 영역 추출 장치(100)는 관심 영역을 기초로 제 1 합성 개구 레이다 영상(200)에 포함된 표적을 식별할 수 있다.The ROI extracting apparatus 100 may identify a target included in the first synthetic aperture radar image 200 based on the ROI.

예를 들어, 관심 영역 추출 장치(100)는 추출한 관심 영역을 기 설정된 조건으로 각 클래스(또는 박스) 별로 분류한 후, 보정을 수행하여 관심 영역에 포함된 표적을 식별할 수 있다.For example, the ROI extracting apparatus 100 may classify the extracted ROI for each class (or box) under a preset condition, and then perform correction to identify a target included in the ROI.

다른 예로, 관심 영역 추출 장치(100)는 기 학습된 분류 모델을 이용하여, 병합된 특징맵(240)에서, 각 클래스(또는 박스) 별로 관심 영역을 분류 한 후, 관심 영역에 포함된 표적을 식별하거나 표적의 위치를 확인할 수 있다.As another example, the region of interest extraction apparatus 100 classifies the region of interest for each class (or box) in the merged feature map 240 using the pre-trained classification model, and then selects the target included in the region of interest. Identify or locate a target.

도 3은 본 발명의 일 실시예에 따른 관심 영역 추출 방법의 절차에 대한 예시적인 순서도이다. 도 3의 관심 영역 추출 방법은 도 1에 도시된 관심 영역 추출 장치(100)에 의해 수행 가능하다. 아울러, 도 3에 도시된 관심 영역 추출 방법은 예시적인 것에 불과하다.3 is an exemplary flowchart of a procedure of a method for extracting a region of interest according to an embodiment of the present invention. The method for extracting the region of interest of FIG. 3 may be performed by the apparatus 100 for extracting the region of interest shown in FIG. 1 . In addition, the method of extracting the region of interest shown in FIG. 3 is merely exemplary.

도 3을 참조하면, 입출력부(101)에서 제 1 합성 개구 레이다(SAR) 영상(200)을 입력 받으면, 프로세서(120)는 제 1 딥러닝 모델(210)에 제 1 합성 개구 레이다 영상(200)을 입력할 수 있다(단계 S10).Referring to FIG. 3 , when the input/output unit 101 receives a first synthesized aperture radar (SAR) image 200 , the processor 120 transmits the first synthesized aperture radar image 200 to the first deep learning model 210 . ) can be input (step S10).

여기서, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 비 지도학습(unsupervised learning)으로 학습되어 있을 수 있다.Here, the first deep learning model 210 may be trained by unsupervised learning to output an image from which noise is removed from the training image when receiving the training image.

이후, 프로세서(120)는 제 1 딥러닝 모델(210)에 의해 제 1 합성 개구 레이다 영상(200)에서 잡음이 제거된 제 2 합성 개구 레이다 영상(220) 및 제 1 합성 개구 레이다 영상(200)을 제 2 딥러닝 모델(230)에 입력할 수 있다(단계 S20).Thereafter, the processor 120 performs a second synthetic aperture radar image 220 and a first synthetic aperture radar image 200 from which noise is removed from the first synthetic aperture radar image 200 by the first deep learning model 210 . may be input to the second deep learning model 230 (step S20).

여기서, 제 2 딥러닝 모델(230)은 표적(또는 물체)이 포함된 관심 영상이 추출되도록 비 지도학습(unsupervised learning) 또는 지도학습(supervised learning)기 학습되어 있을 수 있다.Here, the second deep learning model 230 may be trained in unsupervised learning or supervised learning so that an image of interest including a target (or object) is extracted.

이후, 프로세서(120)는 제 2 딥러닝 모델(230)에서 출력된, 제 1 합성 개구 레이다 영상(200)에 대한 제 1 특징맵(205)과 제 2 합성 개구 레이다 영상(220)에 대한 제 2 특징맵(225)을 병합할 수 있다(단계 S30). Then, the processor 120 outputs the first feature map 205 for the first synthetic aperture radar image 200 and the second for the second synthetic aperture radar image 220, output from the second deep learning model 230 . The two feature maps 225 may be merged (step S30).

이후, 프로세서(120)는 병합된 특징맵을 기초로 제 1 합성 개구 레이다(200) 영상에 대한 관심 영역을 추출할 수 있다(단계 S40).Thereafter, the processor 120 may extract a region of interest for the first composite aperture radar 200 image based on the merged feature map (step S40 ).

한편, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.On the other hand, when the first deep learning model 210 receives an image for training, it is trained to output an image in which noise has been removed from the training image, and then, on the second feature map 225 and the first synthetic aperture radar image 200 . It may be further learned by receiving an ROI as a feedback value.

예를 들어, 프로세서(120)는 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 병합된 특징맵(240)에 적용하여 관심 영역을 추출할 수 있다.For example, the processor 120 may extract a region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map 240 .

또한, 프로세서(120)는 관심 영역을 추출한 후, 기 설정된 조건에 따라 추출한 관심 영역에 포함되어 있는 표적을 식별할 수 있다.Also, after extracting the ROI, the processor 120 may identify a target included in the extracted ROI according to a preset condition.

이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 합성 개구 레이더 영상에서 잡음 제거를 수행하는 데이터 전처리 과정을 수행하지 않고, 합성 개구 레이더 영상을 입력하는 것만으로 입력된 합성 개구 레이더 영상의 관심 영역을 추출할 수 있다.As described above, the apparatus for extracting a region of interest according to an embodiment of the present invention does not perform a data preprocessing process of removing noise from a synthesized aperture radar image, but only inputs a synthesized aperture radar image. A region of interest from the aperture radar image may be extracted.

또한, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 원본 합성 개구 레이더 영상과 원본 합성 개구 레이더 영상에서 잡음이 제거된 잡음 제거 합성 개구 레이더 영상 각각에서 산출된 관심 영역에 관한 특징맵을 이용하여 관심 영역을 추출하므로, 잡음이 제거된 합성 개구 레이더 영상만 이용하여 관심 영역을 추출하는 것보다 더 높은 정확도의 관심 영역을 추출할 수 있다.In addition, the apparatus for extracting a region of interest according to an embodiment of the present invention uses a feature map for a region of interest calculated from each of the original synthesized aperture radar image and the noise-removed synthesized aperture radar image in which noise is removed from the original synthesized aperture radar image. Since the region of interest is extracted by doing so, it is possible to extract the region of interest with higher accuracy than extracting the region of interest using only the noise-removed synthetic aperture radar image.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment may correspond to each block of the block diagram or Each step of the flowchart creates a means for performing the functions described. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100: 관심 영역 추출 장치
101: 입출력부
102: 통신부
110: 메모리
120: 프로세서
100: region of interest extraction device
101: input/output unit
102: communication unit
110: memory
120: processor

Claims (12)

관심 영역 추출 장치에 의해 수행되는 관심 영역 추출 방법에 있어서,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는
관심 영역 추출 방법.
A method for extracting a region of interest performed by an apparatus for extracting a region of interest, the method comprising:
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
and extracting a final region of interest for the first synthetic aperture radar image based on the final feature map.
A method of extracting a region of interest.
제1항에 있어서,
상기 최종 관심 영역을 추출하는 단계는,
비-최대 억제(NMS: Non maximum Suppression) 알고리즘을 상기 최종 특징맵에 적용하여 상기 관심 영역을 추출하는
관심 영역 추출 방법.
According to claim 1,
Extracting the final region of interest comprises:
Extracting the region of interest by applying a Non-Maximum Suppression (NMS) algorithm to the final feature map
A method of extracting a region of interest.
제1항에 있어서,
상기 제 1 딥러닝 모델은,
학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있는
관심 영역 추출 방법.
According to claim 1,
The first deep learning model is,
When an image for learning is input, it is learned to output an image from which noise has been removed from the image for learning.
A method of extracting a region of interest.
제3항에 있어서,
상기 제 1 딥러닝 모델은,
상기 제 2 특징맵과 상기 제 1 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는
관심 영역 추출 방법.
4. The method of claim 3,
The first deep learning model is,
The second feature map and the first region of interest are input as feedback values and are further learned.
A method of extracting a region of interest.
제1항에 있어서,
상기 최종 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는 단계를 더 포함하는
관심 영역 추출 방법.
According to claim 1,
Further comprising the step of identifying a target included in the first synthetic aperture radar image based on the final region of interest
A method of extracting a region of interest.
제 1 합성 개구 레이다(SAR) 영상을 입력 받는 입출력부;
메모리; 및
상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
상기 프로세서는,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 상기 제 1 합성 개구 레이다(SAR) 영상을 입력하고,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하고,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하고,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는
관심 영역 추출 장치.
an input/output unit receiving a first synthetic aperture radar (SAR) image;
Memory; and
a processor electrically connected to the memory;
The processor is
Input the first synthesized aperture radar (SAR) image to a first deep learning model trained so that noise is removed,
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image The extracted first feature map and the second region of interest for the second synthesized aperture radar image are input to a pre-trained second deep learning model to output the extracted second feature map,
Merge the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model to generate a final feature map,
extracting a final ROI for the first synthetic aperture radar image based on the final feature map
region of interest extraction device.
제 6 항에 있어서,
상기 프로세서는,
비-최대 억제(NMS: Non maximum Suppression) 알고리즘을 상기 최종 특징맵에 적용하여 상기 관심 영역을 추출하는
관심 영역 추출 장치.
7. The method of claim 6,
The processor is
Extracting the region of interest by applying a Non-Maximum Suppression (NMS) algorithm to the final feature map
region of interest extraction device.
제 7 항에 있어서,
상기 제 1 딥러닝 모델은,
학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있는
관심 영역 추출 장치.
8. The method of claim 7,
The first deep learning model is,
When an image for learning is input, it is learned to output an image from which noise has been removed from the image for learning.
region of interest extraction device.
제8항에 있어서,
상기 제 1 딥러닝 모델은,
상기 제 2 특징맵과 상기 제 1 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는
관심 영역 추출 장치.
9. The method of claim 8,
The first deep learning model is,
The second feature map and the first region of interest are input as feedback values and are further learned.
region of interest extraction device.
제6항에 있어서,
상기 프로세서는,
상기 최종 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는
관심 영역 추출 장치.
7. The method of claim 6,
The processor is
identifying a target included in the first synthetic aperture radar image based on the final region of interest
region of interest extraction device.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
Including instructions for causing the processor to perform a method including extracting a final ROI for the first synthesized aperture radar image based on the final feature map
computer readable recording medium.
컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
Including instructions for causing the processor to perform a method including extracting a final ROI for the first synthesized aperture radar image based on the final feature map
computer program.
KR1020210086443A 2021-07-01 2021-07-01 Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target KR102327060B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210086443A KR102327060B1 (en) 2021-07-01 2021-07-01 Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210086443A KR102327060B1 (en) 2021-07-01 2021-07-01 Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target

Publications (1)

Publication Number Publication Date
KR102327060B1 true KR102327060B1 (en) 2021-11-16

Family

ID=78716887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210086443A KR102327060B1 (en) 2021-07-01 2021-07-01 Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target

Country Status (1)

Country Link
KR (1) KR102327060B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657033A (en) * 2022-12-29 2023-01-31 北京九天微星科技发展有限公司 High-resolution low-orbit satellite synthetic aperture radar imaging method
CN117292283A (en) * 2023-11-24 2023-12-26 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180053091A (en) * 2016-11-11 2018-05-21 인천대학교 산학협력단 Method of identification for underwater object using sonar images and apparatus thereof
KR20200026409A (en) * 2018-08-31 2020-03-11 한국항공대학교산학협력단 Method and apparatus for classifying image
KR20200063682A (en) * 2018-11-28 2020-06-05 홍익대학교 산학협력단 Method and appartus for estimating stream flow discharge using satellite images at streams
KR20200083401A (en) * 2020-06-23 2020-07-08 주식회사 휴런 Estimation of aspect score with preprocessing to normalize and standardize the characteristics of image data set
KR102237994B1 (en) 2019-11-20 2021-04-07 한양대학교 산학협력단 Apparatus and method for removing noise in sar image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180053091A (en) * 2016-11-11 2018-05-21 인천대학교 산학협력단 Method of identification for underwater object using sonar images and apparatus thereof
KR20200026409A (en) * 2018-08-31 2020-03-11 한국항공대학교산학협력단 Method and apparatus for classifying image
KR20200063682A (en) * 2018-11-28 2020-06-05 홍익대학교 산학협력단 Method and appartus for estimating stream flow discharge using satellite images at streams
KR102237994B1 (en) 2019-11-20 2021-04-07 한양대학교 산학협력단 Apparatus and method for removing noise in sar image
KR20200083401A (en) * 2020-06-23 2020-07-08 주식회사 휴런 Estimation of aspect score with preprocessing to normalize and standardize the characteristics of image data set

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115657033A (en) * 2022-12-29 2023-01-31 北京九天微星科技发展有限公司 High-resolution low-orbit satellite synthetic aperture radar imaging method
CN117292283A (en) * 2023-11-24 2023-12-26 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle
CN117292283B (en) * 2023-11-24 2024-02-13 成都庆龙航空科技有限公司 Target identification method based on unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
US20220270397A1 (en) Image processing method and device, equipment, and computer-readable storage medium
US10332266B2 (en) Method and device for traffic sign recognition
KR102327060B1 (en) Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target
US10740593B1 (en) Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
US8379994B2 (en) Digital image analysis utilizing multiple human labels
CN110659582A (en) Image conversion model training method, heterogeneous face recognition method, device and equipment
CN112270745B (en) Image generation method, device, equipment and storage medium
DE102022105471A1 (en) Generating modified digital images using deep visual guided patch matching models for image restoration
CN113537070B (en) Detection method, detection device, electronic equipment and storage medium
CN112651358A (en) Target detection method and device, network camera and storage medium
CN104036296A (en) Method and device for representing and processing image
Blomley et al. 3D semantic labeling of ALS point clouds by exploiting multi-scale, multi-type neighborhoods for feature extraction
KR101877683B1 (en) Face Recognition Apparatus and Method Using Learning
CN110263872B (en) Training data processing method and device
CN114842035A (en) License plate desensitization method, device and equipment based on deep learning and storage medium
CN110876011A (en) Driving shooting method based on image recognition technology and vehicle
CN111126456B (en) Neural network model processing method, device, equipment and storage medium
CN109033797B (en) Permission setting method and device
CN110728229A (en) Image processing method, device, equipment and storage medium
Tilon et al. Infrastructure degradation and post-disaster damage detection using anomaly detecting generative adversarial networks
CN105512664A (en) Image recognition method and device
KR102256409B1 (en) Method of generating a learning data set and computer apparatus for generating a learning data set
CN113989814A (en) Image generation method and device, computer equipment and storage medium
CN114708185A (en) Target detection method, system and equipment based on big data enabling and model flow
KR102653971B1 (en) Method for detection spatial change based on artificial intelligence and apparatus for performing the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant