KR102327060B1 - Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target - Google Patents
Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target Download PDFInfo
- Publication number
- KR102327060B1 KR102327060B1 KR1020210086443A KR20210086443A KR102327060B1 KR 102327060 B1 KR102327060 B1 KR 102327060B1 KR 1020210086443 A KR1020210086443 A KR 1020210086443A KR 20210086443 A KR20210086443 A KR 20210086443A KR 102327060 B1 KR102327060 B1 KR 102327060B1
- Authority
- KR
- South Korea
- Prior art keywords
- interest
- region
- aperture radar
- feature map
- radar image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9027—Pattern recognition for feature extraction
-
- G06K9/3233—
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
Abstract
Description
본 발명은 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method and apparatus for extracting a region of interest for target identification, a computer-readable recording medium, and a computer program.
위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 비, 구름, 안개 등 기상 조건이나 주야간, 역광 등 일조현상에 영향을 받지 않으며, 광범위한 지역에 대하여 영상 획득이 가능하기 때문에 군사적 활용도가 매우 높다.Satellite Synthetic Aperture Radar (SAR) image is not affected by weather conditions such as rain, cloud, fog, or sunlight such as day or night, backlight, etc., and has very high military utility because it can acquire images over a wide area.
특히, 대한민국은 입지적으로 삼면이 바다로 둘러싸인 반도로서, 기상 변화가 많고 구름이 많을 확률이 높으므로, 영상 정보 획득 측면에서 인공 위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 기상 조건 또는 일조현상에 영향을 받는 인공 위성 전자광학영상에 비하여 중요한 영상으로 부각되고 있다.In particular, as a peninsula surrounded by the sea on three sides in terms of location, Korea is a peninsula surrounded by the sea on three sides and there is a high probability that there are many weather changes and there are many clouds. Compared to the satellite electro-optical image that is affected by the phenomenon, it is emerging as an important image.
이러한, 인공 위성 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상은 원 거리(예를 들어, 600km)에서 촬영되는데, 이로 인해 획득되는 인공 위성 합성 개구 레이다 영상에서 물체(또는 표적)의 크기가 매우 작다. 또한, 인공위성 합성 개구 레이다 영상은 지표면의 현상으로 인하여 스파클 잡음을 포함하고 있기 때문에 일반적인 광학 영상에 비하여 물체 분별력이 제한된다.Such a synthetic aperture radar (SAR) image is taken at a far distance (eg, 600 km), and the size of the object (or target) in the obtained satellite synthetic aperture radar image is very small. . In addition, since the satellite synthetic aperture radar image contains sparkle noise due to the phenomenon of the earth's surface, the object discrimination ability is limited compared to the general optical image.
이에 대하여, 인공 위성 합성 개구 레이다 영상에서 물체(표적)를 분별하기 위해서는 스펙클 잡음을 제거하는 데이터 전처리 작업을 수행한 후, 물체(표적)을 식별해야 되나, 데이터 전처리 작업을 별도로 수행하는 것에 대한 시간이 많이 소모되는 문제점과 스펙클 잡음을 제거할 경우, 스펙클 잡음에 물체 식별을 위한 정보가 포함될 경우에는 물체 식별 성능이 저하되는 문제점이 존재하고 있는 상황이다.In contrast, in order to discriminate an object (target) in the artificial satellite synthetic aperture radar image, it is necessary to identify the object (target) after performing data preprocessing to remove speckle noise. In the case of removing the time-consuming problem and the speckle noise, when the speckle noise includes information for object identification, there is a problem that the object identification performance is deteriorated.
본 발명의 해결하고자 하는 과제는, 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method, an apparatus, a computer-readable recording medium, and a computer program for extracting a region of interest for target identification.
또한, 이러한 표적 식별을 위한 관심 영역 추출 방법, 장치, 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램을 통해 높은 정확도를 가지는 관심 영상을 추출한 후, 관심 영상에 포함된 물체(표적)를 식별하는 것 등이 본 발명의 해결하고자 하는 과제에 포함될 수 있다.In addition, after extracting an image of interest with high accuracy through an ROI extraction method, apparatus, computer readable recording medium and computer program for target identification, identifying an object (target) included in the ROI is this It can be included in the problem to be solved of the invention.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
본 발명의 일 실시예에 따른 관심 영역 추출 방법은, 관심 영역 추출 장치에 의해 수행되는 관심 영역 추출 방법에 있어서, 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와, 상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와, 상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하는 단계와, 상기 병합된 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출하는 단계를 포함할 수 있다.In the method for extracting a region of interest according to an embodiment of the present invention, in the method for extracting a region of interest performed by an apparatus for extracting a region of interest, a first synthetic aperture radar (SAR) is applied to a first deep learning model previously trained to remove noise. inputting an image, and generating a second synthesized aperture radar image from which noise has been removed from the first synthesized aperture radar image by the first deep learning model and the first synthesized aperture radar image to extract a region of interest A first feature map for the first synthesized aperture radar image and a second feature map for the second synthesized aperture radar image output from the second deep learning model and extracting a region of interest for the first synthesized aperture radar image based on the merged feature map.
또한, 상기 관심 영역을 추출하는 단계는, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 상기 병합된 특징맵에 적용하여 상기 관심 영역을 추출할 수 있다.Also, the extracting of the region of interest may include extracting the region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map.
또한, 상기 제 1 딥러닝 모델은, 학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.In addition, the first deep learning model may be trained to output an image from which noise is removed from the training image when an image for training is input.
또한, 상기 제 1 딥러닝 모델은, 상기 제 2 특징맵과 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.In addition, the first deep learning model may be further trained by receiving the second feature map and the region of interest for the first synthesized aperture radar image as a feedback value.
또한, 상기 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는 단계를 더 포함할 수 있다.The method may further include identifying a target included in the first synthetic aperture radar image based on the region of interest.
본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 제 1 합성 개구 레이다(SAR) 영상을 입력 받는 입출력부; 메모리; 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 상기 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와, 상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와, 상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하는 단계와, 상기 병합된 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다.An apparatus for extracting a region of interest according to an embodiment of the present invention includes: an input/output unit for receiving a first synthetic aperture radar (SAR) image; Memory; and a processor electrically connected to the memory, wherein the processor inputs the first synthesized aperture radar (SAR) image to a first deep learning model trained to remove noise; inputting a second synthesized aperture radar image and the first synthesized aperture radar image from which noise has been removed from the first synthesized aperture radar image by a model into a second deep learning model trained in advance so that a region of interest is extracted; , merging a first feature map for the first synthesized aperture radar image output from the second deep learning model and a second feature map for the second synthesized aperture radar image; A region of interest for the first synthesized aperture radar image may be extracted based on the ROI.
또한, 상기 프로세서는, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 상기 병합된 특징맵에 적용하여 상기 관심 영역을 추출할 수 있다.Also, the processor may extract the region of interest by applying a non-maximum suppression (NMS) algorithm to the merged feature map.
또한, 상기 제 1 딥러닝 모델은, 학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.In addition, the first deep learning model may be trained to output an image from which noise is removed from the training image when an image for training is input.
또한, 상기 제 1 딥러닝 모델은, 상기 제 2 특징맵과 상기 제 1 합성 개구 레이다 영상에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다. 또한, 상기 프로세서는, 상기 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별할 수 있다.In addition, the first deep learning model may be further trained by receiving the second feature map and the region of interest for the first synthesized aperture radar image as a feedback value. Also, the processor may identify a target included in the first synthetic aperture radar image based on the region of interest.
본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 합성 개구 레이더 영상에서 잡음 제거를 수행하는 데이터 전처리 과정을 수행하지 않고, 합성 개구 레이더 영상을 입력하는 것만으로 입력된 합성 개구 레이더 영상의 관심 영역을 추출할 수 있다.The apparatus for extracting a region of interest according to an embodiment of the present invention does not perform a data preprocessing process of removing noise from a synthesized aperture radar image, but only inputs the synthesized aperture radar image, and the ROI of the inputted synthesized aperture radar image is not performed. can be extracted.
또한, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 원본 합성 개구 레이더 영상과 원본 합성 개구 레이더 영상에서 잡음이 제거된 잡음 제거 합성 개구 레이더 영상 각각에서 산출된 관심 영역에 관한 특징맵을 이용하여 관심 영역을 추출하므로, 잡음이 제거된 합성 개구 레이더 영상만 이용하여 관심 영역을 추출하는 것보다 더 높은 정확도의 관심 영역을 추출할 수 있다.In addition, the apparatus for extracting a region of interest according to an embodiment of the present invention uses a feature map for a region of interest calculated from each of the original synthesized aperture radar image and the noise-removed synthesized aperture radar image in which noise is removed from the original synthesized aperture radar image. Since the region of interest is extracted by doing so, it is possible to extract the region of interest with higher accuracy than extracting the region of interest using only the noise-removed synthetic aperture radar image.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be able
도 1은 본 발명의 일 실시예에 따른 관심 영역 추출 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 대한 관심 영역 추출 장치를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 관심 영역 추출 방법의 절차에 대한 예시적인 순서도이다.1 is a block diagram of an apparatus for extracting a region of interest according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining extracting a region of interest from a synthesized aperture radar image through an apparatus for extracting a region of interest according to an embodiment of the present invention.
3 is an exemplary flowchart of a procedure of a method for extracting a region of interest according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.
도 1은 본 발명의 일 실시예에 따른 관심 영역 추출 장치의 블록도이다.1 is a block diagram of an apparatus for extracting a region of interest according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 합성 개구 레이다(SAR: Synthetic Aperture Radar) 영상에서 관심 영역(ROI: Region of Interest)을 추출하고, 추출된 관심 영역을 기초로 합성 개구 레이다(SAR) 영상에서의 표적(또는 물체)을 식별할 수 있다.The
도 1을 참조하면, 본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 입출력부(101), 통신부(102), 메모리(110) 및/또는 프로세서(120)를 포함할 수 있다. Referring to FIG. 1 , an apparatus for extracting a region of
입출력부(101)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 일 실시예에 따른 관심 영역 추출 장치(100)의 다른 구성요소(들)에 전달하거나, 또는 일 측면에 따른 관심 영역 추출 장치(100)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 외부 기기로 출력할 수 있다.The input/
일 실시예로서, 입출력부(101)는 합성 개구 레이다(SAR) 영상을 입력 받을 수 있으며, 이러한 입출력부(101)는 키보드, 마우스, 터치 패드 등을 포함할 수 있다.As an embodiment, the input/
여기서, 합성 개구 레이다(SAR) 영상은 인공 위성에서 촬영한 합성 개구 레이다(SAR) 영상일 수 있으나, 이에 한정되는 것은 아니다.Here, the synthetic aperture radar (SAR) image may be a synthetic aperture radar (SAR) image captured by an artificial satellite, but is not limited thereto.
통신부(102)는 관심 영역 추출 장치(100)와 외부 장치와의 유선 또는 무선 통신 채널의 수립 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.The
메모리(110)는 관심 영역 추출 장치(100)의 적어도 하나의 구성요소(프로세서(120), 입출력부(101) 및/또는 통신부(102))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(110)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The
예를 들어, 메모리(110)는 물체 식별 모델(115)을 포함할 수 있다.For example, the
여기서, 물체 식별 모델(115)은 기 학습된 제 1 딥러닝 모델 및 기 학습된 제 2 딥러닝 모델을 포함할 수 있다.Here, the
프로세서(120)(제어부, 제어 장치 또는 제어 회로라고도 함)는 연결된 관심 영역 추출 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 구성 요소(예: 입출력 부(101), 통신부(102) 및/또는 메모리(110)) 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다.The processor 120 (also referred to as a control unit, a control device, or a control circuit) includes at least one other component (eg, a hardware component (eg, an input/
또한, 프로세서(120)는 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장할 수 있다.In addition, the
이를 위해, 프로세서(120)는 해당 동작을 수행하기 위한 전용 프로세서(예를 들어, 임베디드 프로세서) 또는 메모리 디바이스에 저장된 하나 이상의 소프트웨어 프로그램을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예를 들어, CPU 또는 application processor 또는 MCU(Micro controller unit) 등)로 구현될 수 있다.To this end, the
보다 상세히, 프로세서(120)는 잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 입출력부(101)에서 입력 받은 제 1 합성 개구 레이다(SAR) 영상을 입력하고, 제 1 딥러닝 모델에 의해 제 1 합성 개구 레이다 영상에서, 잡음이 제거된 제 2 합성 개구 레이다 영상 및 제 1 합성 개구 레이다 영상을, 관심 영역이 추출되도록 기 학습된 제 2 딥러닝 모델에 입력하고, 제 2 딥러닝 모델에서 출력된 제 1 합성 개구 레이다 영상에 대한 제 1 특징맵과 제 2 합성 개구 레이다 영상에 대한 제 2 특징맵을 병합하고, 병합된 특징맵을 기초로 제 1 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다.In more detail, the
일 실시예로서, 프로세서(120)는 메모리(110)로부터 물체 식별 모델(115)을 로드한 후, 물체 식별 모델(115)을 이용하여 입출력부(101)에서 입력받은 합성 개구 레이다(SAR)영상에 대한 관심 영역을 추출할 수 있다. As an embodiment, the
여기서, 물체 식별 모델(115)은 기 학습된 제 1 딥러닝 모델 및 기 학습된 제 2 딥러닝 모델을 포함할 수 있다.Here, the
보다 상세히, 도 2를 참조하여 본 발명의 일 실시예에 대한 관심 영역 추출 장치(100)를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것에 대하여 상세히 설명하도록 한다.In more detail, extraction of a region of interest from a synthetic aperture radar image through the region of
도 2는 본 발명의 일 실시예에 대한 관심 영역 추출 장치를 통해 합성 개구 레이다 영상에서 관심 영역을 추출하는 것을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining extracting a region of interest from a synthesized aperture radar image through an apparatus for extracting a region of interest according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 관심 영역 추출 장치(100)는 물체 식별 모델(115)을 이용하여 합성 개구 레이다 영상에 대한 관심 영역을 추출할 수 있다. Referring to FIG. 2 , the
보다 상세히, 제 1 딥러닝 모델(210)은 제 1 합성 개구 레이다(SAR) 영상(200)을 입력받을 수 있다.In more detail, the first
여기서, 제 1 딥러닝 모델(210)은 입력되는 데이터의 잡음이 제거되도록 비 지도학습(unsupervised learning)으로 학습되어 있을 수 있다. 예를 들어, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있을 수 있다.Here, the first
제 1 딥러닝 모델(210)에 의해, 제 1 합성 개구 레이다 영상(200)에서, 잡음이 제거된 제 2 합성 개구 레이다 영상(220)이 출력되면, 제 2 딥러닝 모델(230)은 제 1 합성 개구 레이다 영상(200)과 제 2 합성 개구 레이다 영상(220)을 입력받을 수 있다.When the second synthetic
여기서, 제 2 딥러닝 모델(230)은 표적(또는 물체)이 포함된 관심 영상(ROI: Region of Interest)이 추출되도록 비 지도학습(unsupervised learning) 또는 지도학습(supervised learning)기 학습되어 있을 수 있다.Here, the second
이후, 제 2 딥러닝 모델(230)에 의해, 제 1 합성 개구 레이다 영상(200)에 대한 제 1 특징맵(205)과 제 2 합성 개구 레이다 영상(220)에 대한 제 2 특징맵(225)이 출력되면, 관심 영역 추출 장치(100)는 제 1 특징맵(205)과 제 2 특징맵(225)을 병합할 수 있다.Then, by the second
관심 영역 추출 장치(100)는 병합된 특징맵(240)을 기초로 제 1 합성 개구 레이다 영상(200)에서의 관심 영역을 추출할 수 있다.The
예를 들어, 관심 영역 추출 장치(100)는 하기 수학식 1과 같이, 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 병합된 특징맵(feature map)(240)에 적용하여 관심 영역을 추출할 수 있다.For example, the region of
여기서, 는 관심 영역이고, NMS는 비-최대 억제(Non maximum Suppression) 알고리즘이고, 는 제 1 합성 개구 레이더 영상(200)이고, 는 제 2 합성 개구 레이더 영상(220)이고, 는 기 설정된 임계값이다.here, is the region of interest, NMS is a non-maximum suppression algorithm, is the first synthetic
여기서, 비-최대 억제(NMS) 알고리즘은 중복되는 클래스(또는 박스)를 필터링하는 알고리즘이다.Here, the non-maximum suppression (NMS) algorithm is an algorithm that filters out overlapping classes (or boxes).
한편, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.On the other hand, when the first
보다 상세히, 제 1 딥러닝 모델(210)은 제 2 특징맵(225)에서의 관심 영역과 병합된 특징맵(240)의 관심영역에 관한 정보를 피드백 값으로 입력 받아 더 학습되어 있을 수 있다. 여기서, 병합된 특징맵(240)의 관심영역에 관한 정보는 병합된 특징맵(240)의 관심 영역을 기 설정된 조건으로 각 클래스(또는 박스) 별로 분류한 정보와 병합된 특징맵(240)의 관심 영역에 포함된 표적의 위치 정보를 포함할 수 있다.In more detail, the first
이때, 본 발명의 실시예에 따른 관심 영역 추출 장치(100)는 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는 제 1 딥러닝 모델(210)을 이용하여, 제 1 합성 개구 레이다 영상(200)에서 잡음이 제거된 제 2 합성 개구 레이다 영상(220)을 획득할 수 있다. At this time, when the region of
한편, 본 발명의 실시예에 따른 관심 영역 추출 장치(100) 에서 사용되는 손실함수는 하기 수학식 2와 같이 계산할 수 있다.Meanwhile, the loss function used in the
여기서, 은 본 발명의 실시예에 따른 관심 영역 추출 장치(100)에서 사용되는 손실함수이고, 은 제 1 딥러닝 모델(210)로부터 잡음이 제거된 영상을 학습시키기 위한 손실함수이고, 은 제 1 합성 개구 레이다 영상(200)에 대해 제 2 딥러닝 모델(230)로부터 관심영역을 추출하기 위한 손실 함수이고, 은 제 2 합성 개구 레이다 영상(220)에 대해 제 2 딥러닝 모델(230)로부터 관심영역을 추출하기 위한 손실 함수이고, 는 병합된 관심 영역(ROI: Region of Interest)에 대해 분류 및 표적 위치를 학습하기 위해 기 정의되는 손실 함수이고, 는 본 발명의 실시예에 따른 관심 영역 추출 장치(100)에서의 손실함수에 각각 대응되는 가중치 파라미터이다.here, is a loss function used in the
관심 영역 추출 장치(100)는 관심 영역을 기초로 제 1 합성 개구 레이다 영상(200)에 포함된 표적을 식별할 수 있다.The
예를 들어, 관심 영역 추출 장치(100)는 추출한 관심 영역을 기 설정된 조건으로 각 클래스(또는 박스) 별로 분류한 후, 보정을 수행하여 관심 영역에 포함된 표적을 식별할 수 있다.For example, the
다른 예로, 관심 영역 추출 장치(100)는 기 학습된 분류 모델을 이용하여, 병합된 특징맵(240)에서, 각 클래스(또는 박스) 별로 관심 영역을 분류 한 후, 관심 영역에 포함된 표적을 식별하거나 표적의 위치를 확인할 수 있다.As another example, the region of
도 3은 본 발명의 일 실시예에 따른 관심 영역 추출 방법의 절차에 대한 예시적인 순서도이다. 도 3의 관심 영역 추출 방법은 도 1에 도시된 관심 영역 추출 장치(100)에 의해 수행 가능하다. 아울러, 도 3에 도시된 관심 영역 추출 방법은 예시적인 것에 불과하다.3 is an exemplary flowchart of a procedure of a method for extracting a region of interest according to an embodiment of the present invention. The method for extracting the region of interest of FIG. 3 may be performed by the
도 3을 참조하면, 입출력부(101)에서 제 1 합성 개구 레이다(SAR) 영상(200)을 입력 받으면, 프로세서(120)는 제 1 딥러닝 모델(210)에 제 1 합성 개구 레이다 영상(200)을 입력할 수 있다(단계 S10).Referring to FIG. 3 , when the input/
여기서, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 비 지도학습(unsupervised learning)으로 학습되어 있을 수 있다.Here, the first
이후, 프로세서(120)는 제 1 딥러닝 모델(210)에 의해 제 1 합성 개구 레이다 영상(200)에서 잡음이 제거된 제 2 합성 개구 레이다 영상(220) 및 제 1 합성 개구 레이다 영상(200)을 제 2 딥러닝 모델(230)에 입력할 수 있다(단계 S20).Thereafter, the
여기서, 제 2 딥러닝 모델(230)은 표적(또는 물체)이 포함된 관심 영상이 추출되도록 비 지도학습(unsupervised learning) 또는 지도학습(supervised learning)기 학습되어 있을 수 있다.Here, the second
이후, 프로세서(120)는 제 2 딥러닝 모델(230)에서 출력된, 제 1 합성 개구 레이다 영상(200)에 대한 제 1 특징맵(205)과 제 2 합성 개구 레이다 영상(220)에 대한 제 2 특징맵(225)을 병합할 수 있다(단계 S30). Then, the
이후, 프로세서(120)는 병합된 특징맵을 기초로 제 1 합성 개구 레이다(200) 영상에 대한 관심 영역을 추출할 수 있다(단계 S40).Thereafter, the
한편, 제 1 딥러닝 모델(210)은 학습용 영상을 입력 받으면, 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습된 후, 제 2 특징맵(225)과 제 1 합성 개구 레이다 영상(200)에 대한 관심 영역을 피드백값으로 입력 받아 더 학습되어 있을 수 있다.On the other hand, when the first
예를 들어, 프로세서(120)는 비-최대 억제(NMS: Non maximum Suppression)알고리즘을 병합된 특징맵(240)에 적용하여 관심 영역을 추출할 수 있다.For example, the
또한, 프로세서(120)는 관심 영역을 추출한 후, 기 설정된 조건에 따라 추출한 관심 영역에 포함되어 있는 표적을 식별할 수 있다.Also, after extracting the ROI, the
이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 합성 개구 레이더 영상에서 잡음 제거를 수행하는 데이터 전처리 과정을 수행하지 않고, 합성 개구 레이더 영상을 입력하는 것만으로 입력된 합성 개구 레이더 영상의 관심 영역을 추출할 수 있다.As described above, the apparatus for extracting a region of interest according to an embodiment of the present invention does not perform a data preprocessing process of removing noise from a synthesized aperture radar image, but only inputs a synthesized aperture radar image. A region of interest from the aperture radar image may be extracted.
또한, 본 발명의 일 실시예에 따른 관심 영역 추출 장치는, 원본 합성 개구 레이더 영상과 원본 합성 개구 레이더 영상에서 잡음이 제거된 잡음 제거 합성 개구 레이더 영상 각각에서 산출된 관심 영역에 관한 특징맵을 이용하여 관심 영역을 추출하므로, 잡음이 제거된 합성 개구 레이더 영상만 이용하여 관심 영역을 추출하는 것보다 더 높은 정확도의 관심 영역을 추출할 수 있다.In addition, the apparatus for extracting a region of interest according to an embodiment of the present invention uses a feature map for a region of interest calculated from each of the original synthesized aperture radar image and the noise-removed synthesized aperture radar image in which noise is removed from the original synthesized aperture radar image. Since the region of interest is extracted by doing so, it is possible to extract the region of interest with higher accuracy than extracting the region of interest using only the noise-removed synthetic aperture radar image.
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment may correspond to each block of the block diagram or Each step of the flowchart creates a means for performing the functions described. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
100: 관심 영역 추출 장치
101: 입출력부
102: 통신부
110: 메모리
120: 프로세서100: region of interest extraction device
101: input/output unit
102: communication unit
110: memory
120: processor
Claims (12)
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는
관심 영역 추출 방법.A method for extracting a region of interest performed by an apparatus for extracting a region of interest, the method comprising:
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
and extracting a final region of interest for the first synthetic aperture radar image based on the final feature map.
A method of extracting a region of interest.
상기 최종 관심 영역을 추출하는 단계는,
비-최대 억제(NMS: Non maximum Suppression) 알고리즘을 상기 최종 특징맵에 적용하여 상기 관심 영역을 추출하는
관심 영역 추출 방법.According to claim 1,
Extracting the final region of interest comprises:
Extracting the region of interest by applying a Non-Maximum Suppression (NMS) algorithm to the final feature map
A method of extracting a region of interest.
상기 제 1 딥러닝 모델은,
학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있는
관심 영역 추출 방법.According to claim 1,
The first deep learning model is,
When an image for learning is input, it is learned to output an image from which noise has been removed from the image for learning.
A method of extracting a region of interest.
상기 제 1 딥러닝 모델은,
상기 제 2 특징맵과 상기 제 1 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는
관심 영역 추출 방법.4. The method of claim 3,
The first deep learning model is,
The second feature map and the first region of interest are input as feedback values and are further learned.
A method of extracting a region of interest.
상기 최종 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는 단계를 더 포함하는
관심 영역 추출 방법.According to claim 1,
Further comprising the step of identifying a target included in the first synthetic aperture radar image based on the final region of interest
A method of extracting a region of interest.
메모리; 및
상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
상기 프로세서는,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 상기 제 1 합성 개구 레이다(SAR) 영상을 입력하고,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하고,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하고,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는
관심 영역 추출 장치.an input/output unit receiving a first synthetic aperture radar (SAR) image;
Memory; and
a processor electrically connected to the memory;
The processor is
Input the first synthesized aperture radar (SAR) image to a first deep learning model trained so that noise is removed,
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image The extracted first feature map and the second region of interest for the second synthesized aperture radar image are input to a pre-trained second deep learning model to output the extracted second feature map,
Merge the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model to generate a final feature map,
extracting a final ROI for the first synthetic aperture radar image based on the final feature map
region of interest extraction device.
상기 프로세서는,
비-최대 억제(NMS: Non maximum Suppression) 알고리즘을 상기 최종 특징맵에 적용하여 상기 관심 영역을 추출하는
관심 영역 추출 장치.7. The method of claim 6,
The processor is
Extracting the region of interest by applying a Non-Maximum Suppression (NMS) algorithm to the final feature map
region of interest extraction device.
상기 제 1 딥러닝 모델은,
학습용 영상을 입력 받으면, 상기 학습용 영상에서 잡음이 제거된 영상을 출력하도록 학습되어 있는
관심 영역 추출 장치.8. The method of claim 7,
The first deep learning model is,
When an image for learning is input, it is learned to output an image from which noise has been removed from the image for learning.
region of interest extraction device.
상기 제 1 딥러닝 모델은,
상기 제 2 특징맵과 상기 제 1 관심 영역을 피드백값으로 입력 받아 더 학습되어 있는
관심 영역 추출 장치.9. The method of claim 8,
The first deep learning model is,
The second feature map and the first region of interest are input as feedback values and are further learned.
region of interest extraction device.
상기 프로세서는,
상기 최종 관심 영역을 기초로 상기 제 1 합성 개구 레이다 영상에 포함된 표적을 식별하는
관심 영역 추출 장치.7. The method of claim 6,
The processor is
identifying a target included in the first synthetic aperture radar image based on the final region of interest
region of interest extraction device.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 판독 가능한 기록매체.As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
Including instructions for causing the processor to perform a method including extracting a final ROI for the first synthesized aperture radar image based on the final feature map
computer readable recording medium.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
잡음이 제거되도록 기 학습된 제 1 딥러닝 모델에 제 1 합성 개구 레이다(SAR) 영상을 입력하는 단계와,
상기 제 1 딥러닝 모델에 의해 상기 제 1 합성 개구 레이다 영상에서 잡음이 제거된 제 2 합성 개구 레이다 영상 및 상기 제 1 합성 개구 레이다 영상을, 상기 제 1 합성 개구 레이다 영상에 대한 제 1 관심 영역이 추출된 제 1 특징맵과 상기 제 2 합성 개구 레이다 영상에 대한 제 2 관심 영역이 추출된 제 2 특징맵을 출력하도록 기 학습된 제 2 딥러닝 모델에 입력하는 단계와,
상기 제 2 딥러닝 모델에서 출력된, 상기 제 1 관심 영역을 포함하는 상기 제 1 특징맵과 상기 제 2 관심 영역을 포함하는 상기 제 2 특징맵을 병합하여 최종 특징맵을 생성하는 단계와,
상기 최종 특징맵을 기초로, 상기 제 1 합성 개구 레이다 영상에 대한 최종 관심 영역을 추출하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
inputting a first synthesized aperture radar (SAR) image to a first deep learning model trained in advance to remove noise;
A second synthetic aperture radar image and the first composite aperture radar image in which noise is removed from the first composite aperture radar image by the first deep learning model, a first region of interest for the first composite aperture radar image inputting the extracted first feature map and the second region of interest for the second synthesized aperture radar image to a pre-trained second deep learning model to output the extracted second feature map;
generating a final feature map by merging the first feature map including the first region of interest and the second feature map including the second region of interest output from the second deep learning model;
Including instructions for causing the processor to perform a method including extracting a final ROI for the first synthesized aperture radar image based on the final feature map
computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210086443A KR102327060B1 (en) | 2021-07-01 | 2021-07-01 | Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210086443A KR102327060B1 (en) | 2021-07-01 | 2021-07-01 | Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102327060B1 true KR102327060B1 (en) | 2021-11-16 |
Family
ID=78716887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210086443A KR102327060B1 (en) | 2021-07-01 | 2021-07-01 | Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102327060B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115657033A (en) * | 2022-12-29 | 2023-01-31 | 北京九天微星科技发展有限公司 | High-resolution low-orbit satellite synthetic aperture radar imaging method |
CN117292283A (en) * | 2023-11-24 | 2023-12-26 | 成都庆龙航空科技有限公司 | Target identification method based on unmanned aerial vehicle |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180053091A (en) * | 2016-11-11 | 2018-05-21 | 인천대학교 산학협력단 | Method of identification for underwater object using sonar images and apparatus thereof |
KR20200026409A (en) * | 2018-08-31 | 2020-03-11 | 한국항공대학교산학협력단 | Method and apparatus for classifying image |
KR20200063682A (en) * | 2018-11-28 | 2020-06-05 | 홍익대학교 산학협력단 | Method and appartus for estimating stream flow discharge using satellite images at streams |
KR20200083401A (en) * | 2020-06-23 | 2020-07-08 | 주식회사 휴런 | Estimation of aspect score with preprocessing to normalize and standardize the characteristics of image data set |
KR102237994B1 (en) | 2019-11-20 | 2021-04-07 | 한양대학교 산학협력단 | Apparatus and method for removing noise in sar image |
-
2021
- 2021-07-01 KR KR1020210086443A patent/KR102327060B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180053091A (en) * | 2016-11-11 | 2018-05-21 | 인천대학교 산학협력단 | Method of identification for underwater object using sonar images and apparatus thereof |
KR20200026409A (en) * | 2018-08-31 | 2020-03-11 | 한국항공대학교산학협력단 | Method and apparatus for classifying image |
KR20200063682A (en) * | 2018-11-28 | 2020-06-05 | 홍익대학교 산학협력단 | Method and appartus for estimating stream flow discharge using satellite images at streams |
KR102237994B1 (en) | 2019-11-20 | 2021-04-07 | 한양대학교 산학협력단 | Apparatus and method for removing noise in sar image |
KR20200083401A (en) * | 2020-06-23 | 2020-07-08 | 주식회사 휴런 | Estimation of aspect score with preprocessing to normalize and standardize the characteristics of image data set |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115657033A (en) * | 2022-12-29 | 2023-01-31 | 北京九天微星科技发展有限公司 | High-resolution low-orbit satellite synthetic aperture radar imaging method |
CN117292283A (en) * | 2023-11-24 | 2023-12-26 | 成都庆龙航空科技有限公司 | Target identification method based on unmanned aerial vehicle |
CN117292283B (en) * | 2023-11-24 | 2024-02-13 | 成都庆龙航空科技有限公司 | Target identification method based on unmanned aerial vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220270397A1 (en) | Image processing method and device, equipment, and computer-readable storage medium | |
US10332266B2 (en) | Method and device for traffic sign recognition | |
KR102327060B1 (en) | Method, apparatus, computer-readable storage medium and computer program for extracting region of interest for identifying target | |
US10740593B1 (en) | Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation | |
US8379994B2 (en) | Digital image analysis utilizing multiple human labels | |
CN110659582A (en) | Image conversion model training method, heterogeneous face recognition method, device and equipment | |
CN112270745B (en) | Image generation method, device, equipment and storage medium | |
DE102022105471A1 (en) | Generating modified digital images using deep visual guided patch matching models for image restoration | |
CN113537070B (en) | Detection method, detection device, electronic equipment and storage medium | |
CN112651358A (en) | Target detection method and device, network camera and storage medium | |
CN104036296A (en) | Method and device for representing and processing image | |
Blomley et al. | 3D semantic labeling of ALS point clouds by exploiting multi-scale, multi-type neighborhoods for feature extraction | |
KR101877683B1 (en) | Face Recognition Apparatus and Method Using Learning | |
CN110263872B (en) | Training data processing method and device | |
CN114842035A (en) | License plate desensitization method, device and equipment based on deep learning and storage medium | |
CN110876011A (en) | Driving shooting method based on image recognition technology and vehicle | |
CN111126456B (en) | Neural network model processing method, device, equipment and storage medium | |
CN109033797B (en) | Permission setting method and device | |
CN110728229A (en) | Image processing method, device, equipment and storage medium | |
Tilon et al. | Infrastructure degradation and post-disaster damage detection using anomaly detecting generative adversarial networks | |
CN105512664A (en) | Image recognition method and device | |
KR102256409B1 (en) | Method of generating a learning data set and computer apparatus for generating a learning data set | |
CN113989814A (en) | Image generation method and device, computer equipment and storage medium | |
CN114708185A (en) | Target detection method, system and equipment based on big data enabling and model flow | |
KR102653971B1 (en) | Method for detection spatial change based on artificial intelligence and apparatus for performing the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |