KR20230164517A - Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning - Google Patents

Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning Download PDF

Info

Publication number
KR20230164517A
KR20230164517A KR1020220064361A KR20220064361A KR20230164517A KR 20230164517 A KR20230164517 A KR 20230164517A KR 1020220064361 A KR1020220064361 A KR 1020220064361A KR 20220064361 A KR20220064361 A KR 20220064361A KR 20230164517 A KR20230164517 A KR 20230164517A
Authority
KR
South Korea
Prior art keywords
target
image
training
sar
resolution
Prior art date
Application number
KR1020220064361A
Other languages
Korean (ko)
Inventor
고성윤
Original Assignee
고성윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고성윤 filed Critical 고성윤
Priority to KR1020220064361A priority Critical patent/KR20230164517A/en
Publication of KR20230164517A publication Critical patent/KR20230164517A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

합성개구레이더(SAR, Synthetic Aperture Radar)를 통해 획득한 관심 표적 영상에 대해 딥러닝을 이용하여 초고해상도 영상을 생성하는 방법 및 장치가 개시된다. 관심 표적에 대한 고해상도(HR, High Resolution) 영상과 저해상도(LR, Low Resolution) 영상으로 구성된 훈련데이터 생성하고, 상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하며, 상기 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성 후, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 과정을 수행하고, 상기 훈련된 딥러닝 모델을 사용하여 실제의 SAR 관심 표적 영상에 대한 초고해상도 영상을 생성함으로써 합성개구레이더가 제공 가능한 표적 영상 대비 더 향상된 해상도의 고화질 영상을 제공하는 효과가 있다.A method and device for generating a super-resolution image using deep learning for a target image of interest acquired through synthetic aperture radar (SAR) are disclosed. Generate training data consisting of high-resolution (HR, High Resolution) images and low-resolution (LR) images for the target of interest, create a database with the generated training data as a component, and create super-resolution images for the target of interest. (SR, Super-Resolution) After creating a deep learning model for image generation, a process of training the deep learning model is performed using training data in the database, and the trained deep learning model is used to determine actual SAR interest. By generating ultra-high resolution images of target images, it has the effect of providing high-quality images with improved resolution compared to target images that synthetic aperture radar can provide.

Description

합성개구레이더를 통해 획득한 관심 표적 영상에 대해 딥러닝을 이용하여 초고해상도 영상을 생성하는 방법 및 장치 {Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning}{Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning}

본 발명은 합성개구레이더(SAR, Synthetic Aperture Radar)를 통해 획득한 관심 표적 영상에 대해 딥러닝을 이용하여 초고해상도 영상을 생성하는 방법 및 장치에 관한 것으로서, 보다 상세하게는, 자가 훈련데이터를 생성하여 관심 표적에 대한 초고해상도 영상 생성을 위한 딥러닝 모델을 훈련하고, 이를 이용하여 실전의 합성개구레이더 영상에서 관심 표적에 대한 초고해상도 영상을 생성하는 방법 및 장치에 관한 것이다.The present invention relates to a method and device for generating super-resolution images using deep learning for target images of interest acquired through synthetic aperture radar (SAR), and more specifically, to generate self-training data. This relates to a method and device for training a deep learning model for generating super-resolution images of a target of interest and using it to generate a super-resolution image of the target of interest from an actual synthetic aperture radar image.

초고해상도(SR, Super-Resolution) 영상은 저해상도(LR, Low Resolution) 영상으로부터 변환된 고해상도(HR, High Resolution) 영상을 의미하며, 초고해상도 영상 생성 기술이라 함은 저해상도 영상을 고해상도 영상으로 변환, 또는 복원하는 기술 또는 방법을 의미한다. 센서에서 획득한 감시영상이나 의료영상에서 더 많은 정보를 획득하기 위하여 입력된 저해상도 영상을 고해상도 영상으로 변환하거나, 현재 보유하고 있는 저해상도의 방송용 컨텐츠를 고해상도의 컨텐츠로 변환하여 방송으로 송출하는 등 응용분야 및 해당 산업내 중요도가 점차 확대되고 있다. 초고해상도 영상 생성 방법은 크게 보간 기반(interpolation-based) 방법, 복원 기반(reconstruction-based) 방법, 학습 기반(learning-based) 방법 등 3가지로 분류된다.Super-resolution (SR) image refers to a high-resolution (HR) image converted from a low-resolution (LR) image. Super-resolution image creation technology refers to converting a low-resolution image into a high-resolution image. Or it means a restoration technique or method. Application fields such as converting input low-resolution images into high-resolution images to obtain more information from surveillance images or medical images obtained from sensors, or converting currently owned low-resolution broadcast content into high-resolution content and transmitting it through broadcasting. And its importance within the industry is gradually expanding. Super-resolution image generation methods are broadly classified into three types: interpolation-based methods, reconstruction-based methods, and learning-based methods.

보간 기반(interpolation-based) 방법은 보간법을 사용하여 인접한 화소값을 이용하여 새로운 화소값을 추가함으로써, 저해상도 영상을 고해상도 영상으로 변환하는 방법으로, 보간법 적용을 위한 처리시간이 타 방법 대비 상대적으로 짧으나, 화소값 추가가 많을 경우, 화질 저하가 많이 발생하는 단점이 있다.The interpolation-based method is a method of converting a low-resolution image into a high-resolution image by adding new pixel values using adjacent pixel values using interpolation. The processing time for applying the interpolation method is relatively short compared to other methods, but , there is a disadvantage in that the image quality deteriorates significantly when adding a large number of pixel values.

복원 기반(reconstruction-based) 방법을 이용한 초고해상도 영상 생성은 고해상도의 원영상으로부터 저해상도 영상이 생성된 프로세스(Process)를 분석하고, 해당 프로세스를 되돌릴 수 있는 방법을 고안하여 원영상이 되는 고해상도 영상을 생성하는 방법이다.Ultra-high-resolution image generation using a reconstruction-based method analyzes the process by which a low-resolution image is created from a high-resolution original image, and devises a method to reverse the process to create a high-resolution image that becomes the original image. How to create it.

학습 기반(learning-based) 방법은 인공지능의 한 부류인 딥러닝 기술을 활용하는 것으로, 다층의 인공신경망을 일컫는 DNN(Deep Neural Net)으로 초고해상도 영상 생성용 딥러닝 모델을 구성한다. 다수의 저해상도 영상과 고해상도 영상으로 훈련 데이터를 구성하고, 딥러닝 모델을 훈련시켜 실제 운용모드에서 저해상도 영상을 딥러닝 모델에 입력시키면, 훈련된 딥러닝 모델이 입력된 저해상도 영상에 대한 상세 영상 정보를 추론하여 초고해상도 영상을 생성하게 된다. 가장 최신의 기술로서 그 성능이 우수한 반면, 딥러닝 모델을 훈련시키기 위한 대량의 훈련데이터 확보가 반드시 필요하다는 단점이 있다. The learning-based method utilizes deep learning technology, a type of artificial intelligence, and constructs a deep learning model for generating ultra-high resolution images with DNN (Deep Neural Net), which refers to a multi-layer artificial neural network. When training data is composed of multiple low-resolution images and high-resolution images, and a deep learning model is trained and the low-resolution images are input to the deep learning model in actual operation mode, the trained deep learning model provides detailed image information about the input low-resolution images. Through inference, a super-resolution image is generated. Although it is the latest technology and has excellent performance, it has the disadvantage of requiring a large amount of training data to train a deep learning model.

딥러닝 모델의 훈련데이터로 사용된 고해상도 영상과 실제 운용모드에서 생성된 초고해상도 영상의 해상도는 동일하다. 다만, 훈련용 데이터일 경우는 고해상도 영상으로 명명하고, 실제 입력된 저해상도 영상에 대해 딥러닝 모델로 생성된 고해상도 영상을 초고해상도 영상으로 명명하는 것이 일반적이다.The resolution of the high-resolution image used as training data for the deep learning model and the ultra-high-resolution image generated in actual operation mode are the same. However, in the case of training data, it is generally named a high-resolution image, and the high-resolution image generated by a deep learning model for the actual input low-resolution image is named a super-resolution image.

한편, 합성개구레이더(SAR, Synthetic Aperture Radar)는 전기적 신호를 공기중으로 송출 후 원격에 위치한 물체 및 지형에 닿은 후 반사된 신호를 수집하여 해당 물체 및 지형에 대한 영상신호를 획득하는 장치로서, 인공위성 또는 항공기에 탑재하여 운용한다.Meanwhile, Synthetic Aperture Radar (SAR) is a device that transmits electrical signals into the air, touches distant objects and terrain, and then collects the reflected signals to obtain image signals for the objects and terrain. Or, it is mounted and operated on an aircraft.

합성개구레이더에 의해 수집된 영상신호는 SAR Processing이라는 일련의 디지털 신호처리에 의해 사람이 인식가능한 2차원 영상(이하, 'SAR 영상'이라 한다)으로 변환된다. 항공기에 탑재된 합성개구레이더는 자체적으로 SAR Processing을 수행할 수 있으며, 인공위성에 탑재된 합성개구레이더는 보통 자체적인 SAR Processing 기능을 갖는 대신, 영상신호를 지상으로 송출하는 기능을 갖게 된다. 지상으로 송출된 영상신호는 지상에 구비된 SAR Processing 장치에 의해 처리된다.Image signals collected by synthetic aperture radar are converted into two-dimensional images that can be recognized by humans (hereinafter referred to as 'SAR images') through a series of digital signal processing called SAR Processing. The synthetic aperture radar mounted on an aircraft can perform SAR processing on its own, and the synthetic aperture radar mounted on a satellite usually has its own SAR processing function, but has the function of transmitting video signals to the ground. Video signals transmitted to the ground are processed by a SAR processing device installed on the ground.

합성개구레이더는 지상의 물체, 지형지물 또는 지형정보(이하, '관심 표적'이라 한다)를 영상으로 표시할 수 있으므로, 이 기능을 활용하여 특정지역의 관심 표적을 탐지하고 식별하거나, 지형의 이동과 같은 지형 변화를 관측하는 용도로 많이 사용되고 있다. Synthetic aperture radar can display objects, features, or terrain information on the ground (hereinafter referred to as 'targets of interest') as images, so this function can be used to detect and identify targets of interest in a specific area or to move terrain. It is widely used to observe topographical changes such as.

합성개구레이더로 수 km2에서 수백 km2에 이르는 지역을 한번에 촬영할 수 있는 이점이 있으나, 대신 SAR 영상의 해상도는 일반적으로 0.5m ~ 1m급에 불과할 정도로 일상적으로 확보하는 영상의 해상도 대비 현저히 낮은 값을 갖는다. 따라서, 낮은 해상도의 SAR 영상을 고해상도의 실제 영상에 가깝게 만들기 위한 시도가 많다. 특히, 학습 기반 초고해상도 영상 생성 방법을 SAR 영상에 적용하고자 하는 연구가 많이 수행되고 있으나, SAR 영상 자체의 획득 수량이 적고, SAR 영상 대비 고해상도를 갖는 훈련용 영상 데이터 확보가 어려워 SAR 영상에 대한 초고해상도 영상 생성용 딥러닝 모델을 훈련하기 어려운 문제점이 존재한다. 따라서, SAR 영상에 대한 학습 기반 초고해상도 영상 생성 기술 적용시, 기존의 기술은 0.5m ~ 1m급 해상도의 SAR 영상에 대해 실제적인 해상도 증가가 미미한 수준에 머물고 있다.Synthetic aperture radar has the advantage of being able to image an area ranging from several km 2 to hundreds of km 2 at once, but the resolution of SAR images is generally only 0.5 m to 1 m, which is significantly lower than the resolution of images obtained on a daily basis. has Therefore, there are many attempts to make low-resolution SAR images closer to high-resolution actual images. In particular, many studies are being conducted to apply learning-based super-resolution image generation methods to SAR images, but the acquisition of SAR images themselves is small and it is difficult to secure training image data with higher resolution compared to SAR images. There is a problem that makes it difficult to train deep learning models for high-resolution image generation. Therefore, when applying learning-based super-resolution image generation technology to SAR images, the existing technology has a minimal increase in actual resolution for SAR images with a resolution of 0.5m to 1m.

국내 등록특허 제 10-2119132호(2020년 05월 29일 등록)Domestic Registered Patent No. 10-2119132 (registered on May 29, 2020)

전술한 문제점과 기술적 제한사항을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, SAR 영상 내 관심 표적에 대한 초고해상도 영상 생성을 위하여 딥러닝 모델을 생성하고, 생성된 딥러닝 모델의 훈련을 위해 관심 표적에 대한 대량의 훈련데이터, 즉 대량의 훈련용 저해상도 영상 및 그에 대응하는 훈련용 고해상도 영상을 생성하고, 생성된 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련하고, 훈련된 딥러닝 모델을 이용하여 SAR 영상내 관심 표적에 대한 초고해상도 영상을 생성할 수 있는, SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법 및 장치를 제시하는 데 있다.In order to solve the above-mentioned problems and technical limitations, the technical task to be achieved by the present invention is to generate a deep learning model to generate a super-resolution image for the target of interest in the SAR image, and to train the generated deep learning model by Generate a large amount of training data for the target, that is, a large amount of low-resolution images for training and high-resolution images for training corresponding to them, train the deep learning model using the generated training data, and use the trained deep learning model to The purpose of the present invention is to present a method and device for generating a super-resolution image of a target of interest in a SAR image, which can generate a super-resolution image of a target of interest in a SAR image.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법은, 관심 표적에 대한 고해상도(HR, High Resolution) 영상과 저해상도(LR, Low Resolution) 영상으로 구성된 훈련데이터 생성 단계; 상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하는 단계; SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 단계;를 포함한다.As a means to solve the above-described technical problem, the method for generating a super-resolution image for a target of interest in a SAR image according to an embodiment of the present invention includes a high-resolution (HR, High Resolution) image and a low-resolution (LR, Low) image for the target of interest. Resolution) training data generation step consisting of images; Creating a database containing the generated training data as a component; It includes generating a deep learning model for generating a super-resolution (SR, Super-Resolution) image for a target of interest in a SAR image, and training the deep learning model using training data in the database.

상기 관심 표적에 대한 고해상도 영상과 저해상도 영상으로 구성된 훈련데이터 생성 단계는, (생성A) 관심 표적에 대한 3D 표적 모델을 생성하는 단계; (생성B) SAR가 관심 표적을 바라보는 방향을 기준으로 3D 표적 모델의 자세를 설정하는 단계; (생성C) 상기 (생성B) 단계에서 자세가 설정된 3D 표적 모델을 고해상도의 2D 영상으로 변환하여 상기 표적 모델에 대한 훈련용 고해상도 영상을 생성하는 단계; (생성D) 상기 3D 표적 모델로부터 일련의 신호처리 과정을 통해 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 단계; (생성E) 상기 (생성C) 단계에서 생성한 훈련용 고해상도 영상과 상기 (생성D) 단계에서 생성한 훈련용 저해상도 영상으로 구성된 훈련데이터쌍을 생성하는 단계;를 포함한다.The step of generating training data consisting of a high-resolution image and a low-resolution image for the target of interest includes (Generation A) generating a 3D target model for the target of interest; (Generation B) setting the posture of the 3D target model based on the direction in which the SAR is looking at the target of interest; (Generation C) converting the 3D target model whose posture is set in the (Generation B) step into a high-resolution 2D image to generate a high-resolution image for training for the target model; (Generation D) generating a low-resolution image for training on a target of interest from the 3D target model through a series of signal processing processes; (Generation E) generating a training data pair consisting of the high-resolution image for training generated in the (Generate C) step and the low-resolution image for training generated in the (Generate D) step.

상기 (생성D) 단계는, (생성D1) 상기 SAR의 송신신호가 3D 표적 모델에서 반사되어 상기 SAR로 입력되는 수신신호를 모의하여 상기 3D 표적 모델에 대한 SAR 모의 수신신호를 생성하는 단계;와 (생성D2) 상기 SAR 모의 수신신호로부터, SAR Processing을 수행하여 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 단계;를 포함한다.The (Generation D) step is, (Generation D1) a step of generating a SAR simulated received signal for the 3D target model by simulating a received signal input to the SAR by reflecting the transmitted signal of the SAR from the 3D target model; (Generation D2) performing SAR Processing from the SAR simulated reception signal to generate a low-resolution image for training on the target of interest.

또한, 상기 (생성D1) 단계는,(생성D1-1) 상기 SAR의 송신신호의 송출 파형을 생성하는 단계; (생성D1-2) 상기 (생성A) 단계에서 생성된 3D 표적 모델을 상기 SAR의 위치에서 투영하여 다수의 셀로 분할하는 단계; (생성D1-3) 상기 분할된 다수의 셀 별 전자파 반사도와, 상기 SAR 와 셀 간의 거리인 셀 거리를 송출 시점마다 산출하는 단계; (생성D1-4) 상기 다수의 셀 별로 산출된 전자파 반사도와 셀 거리와 송출 파형을 이용하여 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 단계;를 포함하고, 상기 (생성D1-4) 단계는, 상기 SAR의 전체 모의 이동 경로에 대한 모의 수신신호를 생성한다.In addition, the (Generate D1) step includes: (Generate D1-1) generating a transmission waveform of the SAR transmission signal; (Generation D1-2) Projecting the 3D target model generated in the (Generation A) step at the location of the SAR and dividing it into a plurality of cells; (Generation D1-3) calculating the electromagnetic wave reflectivity for each of the divided cells and the cell distance, which is the distance between the SAR and the cell, at each transmission time; (Generation D1-4) generating a simulated received signal for the 3D target model using the electromagnetic wave reflectivity, cell distance, and transmission waveform calculated for each of the plurality of cells, and the (Generation D1-4) step. Generates a simulated reception signal for the entire simulated movement path of the SAR.

상기 (생성D1-3) 단계는, 셀에 위치하는 다수의 특정 포인트와 상기 SAR의 안테나 중심까지의 거리에 대한 변화량을 이용하여 셀의 반사도를 산출한다.In the step (Generation D1-3), the reflectivity of the cell is calculated using the change in distance between a number of specific points located in the cell and the center of the SAR antenna.

또한, 상기 (생성D1-3) 단계는, 다음의 식을 이용하여 셀의 반사도를 산출한다.Additionally, the (Generate D1-3) step calculates the reflectivity of the cell using the following equation.

여기서, Reflectivity는 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들 중 하나(point_K)에서의 반사도, 는 양수인 임의의 상수, point_K0는 상기 다수의 특정 포인트들 중에서 선택된 point_K와 동일한 포인트를 의미하고, point_K1 및 point_K2는 특정 포인트(point_K)의 주변 포인트들, d_cell은 SAR와 특정 포인트 또는 주변 포인트들 간의 거리이다.Here, Reflectivity is the reflectivity at one of a number of specific points (point_K) located in the cell corresponding to (i, j) at a random transmission point, is a positive arbitrary constant, point_K0 means the same point as point_K selected from among the plurality of specific points, point_K1 and point_K2 are the surrounding points of the specific point (point_K), d_cell is the distance between SAR and the specific point or surrounding points am.

상기 (생성D1-4) 단계는, (생성D1-4-1) 셀에 위치하는 다수의 특정 포인트들 각각에 대해 임의의 송출 시점에서 모의 수신신호(이하, '특정 포인트 모의 수신신호'라 한다)를 생성하는 단계; (생성D1-4-2) 상기 (생성D1-4-1) 단계에서 생성된 특정 포인트 모의 수신신호들을 합하여 셀의 모의 수신신호(이하, '셀 모의 수신신호'라 한다)를 생성하는 단계; (생성D1-4-3) 상기 (생성D1-4-2) 단계에서 다수의 셀마다 생성되는 셀 모의 수신신호들을 합하여 임의의 송출 시점에서 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 단계;를 포함한다.In the (Generate D1-4) step, a simulated reception signal (hereinafter referred to as 'specific point simulated reception signal') is generated at a random transmission time for each of a plurality of specific points located in the (Generate D1-4-1) cell. ) generating; (Generation D1-4-2) A step of generating a simulated received signal of a cell (hereinafter referred to as 'cell simulated received signal') by adding the specific point simulated received signals generated in the (Generated D1-4-1) step; (Generation D1-4-3) Generating a simulated received signal for the 3D target model at a random transmission point by summing the cell simulated received signals generated for each plurality of cells in the (Generate D1-4-2) step; Includes.

상기 (생성D1-4-1) 단계는, 다음의 식을 이용하여 셀에 위치하는 다수의 특정 포인트들 중 하나에서의 모의 수신신호를 생성한다.The (Generation D1-4-1) step generates a simulated reception signal at one of a number of specific points located in the cell using the following equation.

여기서, rx_timed_cell은 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 모의 수신신호, Reflectivity는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 전자파 반사도, d_cell은 SAR의 안테나 중심에서 i, j번째 셀의 특정 포인트(point_K) 또는 주변 포인트들 간의 거리를 의미하고, t는 시간, pi는 원주율, f0는 SAR 송신신호의 중심주파수, c는 빛의 속도, Kr은 chirp 파형내 단위시간당 주파수의 변화량을 나타내는 chirp rate로서 단위는 Hz/sec, exp는 exp(jХArg) = cos(Arg) + jХsin(Arg)로 표현되는 오일러의 공식(Euler's formula)을 의미한다.Here, rx_timed_cell is a simulated reception signal at one of a number of specific points (A0 ~ D0) (point_K, K = A0, B0, C0, D0) located in the cell corresponding to (i, j) at a random transmission point. , Reflectivity is the electromagnetic wave reflectivity at one (point_K, K=A0, B0, C0, D0) of multiple specific points (A0~D0), d_cell is a specific point of the i and jth cells at the antenna center of the SAR (point_K ) or means the distance between surrounding points, t is time, pi is the pi, f0 is the center frequency of the SAR transmission signal, c is the speed of light, and Kr is the chirp rate, which represents the change in frequency per unit time within the chirp waveform. means Hz/sec, exp means Euler's formula expressed as exp(jХArg) = cos(Arg) + jХsin(Arg) .

또한, 송신신호의 송출 파형은 pulse_shape(t)×exp(j * ×pi * ×Kr * ×t^2)로 가정하고, pulse_shape(t)는 송출파형의 포락선(envelope) 함수로서 다음과 같은 값을 가진다.In addition, the transmission waveform of the transmission signal is assumed to be pulse_shape(t) × exp(j * × pi * × Kr * × t^2), and pulse_shape(t) is the envelope function of the transmission waveform and has the following value. has

본 발명의 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법은 상기 (생성E) 단계 이후, (생성F) 상기 (생성B) 단계에서 3D 표적 모델의 자세를 변경하면서, 상기 (생성B) 단계에서 (생성E) 단계를 반복하여 실행하면서 특정 관심 표적에 대한 다수의 훈련용 저해상도 영상과 훈련용 고해상도 영상을 생성하는 단계; (생성G) 다수의 신규 관심 표적에 대해 상기 (생성A) 단계부터 상기 (생성F) 단계를 반복적으로 수행하여 다수의 신규 관심 표적에 대한 다수의 훈련용 저해상도 영상과 훈련용 고해상도 영상을 생성하는 단계;를 포함한다.The method for generating a super-resolution image for a target of interest in a SAR image according to an embodiment of the present invention is to change the posture of the 3D target model in the (Generate F) step and the (Generate B) step after the (Generate E) step. Generating a plurality of low-resolution images for training and high-resolution images for training for a specific target of interest by repeatedly executing the (Generate E) step in the Generation B) step; (Generation G) Repeating the steps from the (Generation A) step to the (Generation F) step for a number of new targets of interest to generate a number of low-resolution images for training and high-resolution images for training for a number of new targets of interest. Step; includes.

상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하는 단계는, 특정 관심 표적에 대해 생성된 훈련용 저해상도 영상과 훈련용 고해상도 영상에 대해, 훈련용 저해상도 영상을 Key로 설정하고, 그에 대응하는 훈련용 고해상도 영상을 Value로 설정하는 딕셔너리를 생성하는 단계;와 다수의 관심 표적별로 상기 딕셔너리를 생성하고, 생성된 딕셔너리마다 표적 식별자를 할당하여 다음과 같은 구조의 데이터베이스를 구성하는 단계;를 포함한다.The step of creating a database with the generated training data as a component involves setting the low-resolution image for training as a key for the low-resolution image for training and the high-resolution image for training generated for a specific target of interest, and training corresponding thereto. It includes generating a dictionary that sets the high-resolution image for value as a value; and generating the dictionary for each target of interest and assigning a target identifier to each generated dictionary to construct a database with the following structure.

데이터베이스 시작 [Start database [

표적_A: 딕셔너리Target_A: Dictionary

표적_B: 딕셔너리Target_B: Dictionary

표적_C: 딕셔너리Target_C: Dictionary

] 데이터베이스 종료] Database shutdown

여기서, 딕셔너리의 구조는 다음과 같다:Here, the structure of the dictionary is as follows:

{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, {key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, key: low-resolution image for training, value: high-resolution image for training,

SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 단계는, (훈련A) 입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer가 포함된 다계층의 인공신경망 구조를 갖는 Generator를 생성하는 단계; (훈련B) 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는, 다계층의 인공신경망 구조를 갖는 Reference Model을 생성하는 단계; (훈련C) 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 상기 Reference Model을 구성하는 feature extractor와 동일한 구조의 feature extractor를 포함하는, 다계층의 인공신경망 구조를 갖는 Discriminator를 생성하는 단계; (훈련D) Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위한 최적화 목적함수를 설정하는 단계; (훈련E) 상기 (훈련B) 단계에서 생성한 Reference Model의 인공신경망 파라메타를 최적화하기 위한 Reference Model 최적화 목적함수를 설정하는 단계; (훈련F) 데이터베이스부에서 출력된 훈련용 고해상도 영상과 노이즈 영상을 Reference Model의 입력데이터로 하여 Reference Model의 인공신경망 파라메타를 최적화하는 단계; (훈련G) 데이터베이스부에서 훈련용 고해상도 영상을 출력하여 Discriminator의 인공신경망 파라메타를 갱신하는 단계; (훈련H) 데이터베이스부에서 훈련용 저해상도 영상을 출력하여 Generator와 Discriminator의 인공신경망 파라메타를 갱신하는 단계; (훈련I) Generator 및 Discriminator의 훈련완료 여부를 판단하고, 훈련완료 상태에 도달시까지 상기 (훈련G) 단계 내지 (훈련H) 단계를 반복 수행하는 단계;를 포함한다.The step of creating a deep learning model for generating a super-resolution (SR, Super-Resolution) image for a target of interest in a SAR image, and training the deep learning model using training data in the database, (training A) input Creating a generator with a multi-layer artificial neural network structure including an upsampling layer and a convolutional layer capable of increasing the resolution of the image and expressing image information; (Training B) generating a reference model with a multi-layer artificial neural network structure including at least one feature extractor including a convolutional layer to extract image features for the input image data; (Training C) generating a discriminator with a multi-layer artificial neural network structure, including a feature extractor with the same structure as the feature extractor constituting the Reference Model, in order to extract image features for the input image data; (Training D) Setting an optimization objective function to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator; (Training E) Setting a Reference Model optimization objective function to optimize the artificial neural network parameters of the Reference Model created in the (Training B) step; (Training F) A step of optimizing the artificial neural network parameters of the Reference Model using the high-resolution image and noise image for training output from the database unit as input data of the Reference Model; (Training G) outputting high-resolution images for training from the database unit to update the artificial neural network parameters of the discriminator; (Training H) outputting low-resolution images for training from the database unit to update the artificial neural network parameters of the generator and discriminator; (Training I) determining whether the training of the generator and discriminator has been completed, and repeating the above (training G) to (training H) steps until the training completion state is reached.

상기 (훈련D) 단계는, 다음의 식을 이용하여 Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위한 최적화 목적함수를 설정한다.The (training D) step sets an optimization objective function to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator using the following equation.

Discriminator를 위한 최적화 목적함수Optimization objective function for discriminator

여기서, IHR_tr은 훈련용 고해상도 영상, ILR_tr은 훈련용 저해상도 영상, paramsD는 Discriminator를 구성하는 인공신경망 파라메타, paramsG는 Generator를 구성하는 인공신경망 파라메타, DparamsD(I)는 paramsD로 명명되는 파라메타값을 갖는 Discriminator의 입력 I에 대한 출력값, GparamsG(I)는 paramsG로 명명되는 파라메타값을 갖는 Generator의 입력 I에 대한 출력값, E[ ]는 기대값, N_featuremap은 Discriminator내 모든 Convolutional Layer에 포함된 featuremap의 총 개수, featuremap_Discriminator(n)은 Discriminator에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이고, featuremap_ReferenceModel(n)은 Reference Model에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이다.Here, I HR_tr is a high-resolution image for training, I LR_tr is a low-resolution image for training, paramsD is an artificial neural network parameter constituting the discriminator, paramsG is an artificial neural network parameter constituting the generator, and D paramsD (I) is a parameter value named paramsD. is the output value for the input I of the Discriminator, G paramsG (I) is the output value for the input I of the Generator with the parameter value named paramsG, E[ ] is the expected value, and N_featuremap is the feature map included in all convolutional layers in the Discriminator. The total number of, featuremap_Discriminator(n) is the nth featuremap among each featuremap existing in the Discriminator, and featuremap_ReferenceModel(n) is the nth featuremap among each featuremap existing in the Reference Model.

Generator를 위한 최적화 목적함수Optimization objective function for generator

상기 (훈련E) 단계는, 다음의 최적화 목적함수를 사용하여 상기 Reference Model을 훈련한다.In the (training E) step, the Reference Model is trained using the following optimization objective function.

Reference Model을 위한 최적화 목적함수Optimization objective function for reference model

여기서, 은 훈련용 초고해상도 영상, 는 노이즈 영상, paramsR은 Reference Model을 구성하는 인공신경망 파라메타, RparamsR(I)은 paramsR로 명명되는 파라메타값을 갖는 Reference Model의 입력 I에 대한 출력값이다.here, is a super-resolution video for training; is the noise image, paramsR is the artificial neural network parameter constituting the Reference Model, and R paramsR (I) is the output value for the input I of the Reference Model with the parameter value named paramsR.

한편, 본 발명의 다른 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법은, (훈련J) 상기 (훈련I) 단계 이후, 훈련이 완료된 Generator의 입력으로 실제 SAR 영상내 관심 표적 영상을 입력하고, 그에 대한 Generator 출력을 입력된 표적 영상에 대한 초고해상도 영상으로 출력하는 단계;를 더 포함한다.Meanwhile, in the method of generating a super-resolution image for a target of interest in a SAR image according to another embodiment of the present invention, after the (training I) step (training J), the target of interest in the actual SAR image is imaged as an input from the trained generator. It further includes the step of inputting and outputting the generator output as a super-resolution image for the input target image.

또한, 본 발명의 다른 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법은, (훈련J) 상기 (훈련I) 단계 이후, 실제 SAR 영상내 관심 표적 영상과 표적 식별 정보를 수신하는 단계; (훈련K) 상기 표적 식별 정보를 이용하여 데이터베이스에서 상기 표적 식별 정보에 해당하는 딕셔너리를 선택하는 단계; (훈련L) 상기 선택된 딕셔너리의 Key 값에 저장된 훈련용 저해상도 영상과 상기 (훈련J) 단계에서 수신한 관심 표적 영상과의 유사성을 확인하여, 유사성이 가장 높게 산출되는 Key 값에 대응하는 Value 데이터를 (훈련J) 단계에서 수신한 관심 표적 영상에 대한 초고해상도 영상으로 출력하는 단계;를 더 포함한다.In addition, the method of generating a super-resolution image for a target of interest in a SAR image according to another embodiment of the present invention includes receiving an image of a target of interest and target identification information in an actual SAR image after the (training I) step (training J). step; (Training K) selecting a dictionary corresponding to the target identification information from a database using the target identification information; (Training L) Check the similarity between the low-resolution image for training stored in the Key value of the selected dictionary and the target image of interest received in the (Training J) step, and generate Value data corresponding to the Key value with the highest similarity. It further includes outputting a super-resolution image for the target image of interest received in the (training J) step.

한편, 본 발명의 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치는, 관심 표적에 대한 고해상도(HR, High Resolution) 영상과 저해상도(LR, Low Resolution) 영상으로 구성된 훈련데이터를 생성하는 자가 훈련데이터 생성부; 상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하고 관리하는 데이터베이스부; SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 초고해상도 영상 생성 딥러닝 모델 훈련부;를 포함한다.Meanwhile, the apparatus for generating a super-resolution image for a target of interest in a SAR image according to an embodiment of the present invention generates training data consisting of a high-resolution (HR, High Resolution) image and a low-resolution (LR, Low Resolution) image for the target of interest. a self-training data generation unit; a database unit that creates and manages a database containing the generated training data as a component; A super-resolution image generation deep learning model training unit that generates a deep learning model for generating super-resolution (Super-Resolution) images for targets of interest in the SAR image, and trains the deep learning model using training data in the database; Includes.

상기 자가 훈련데이터 생성부는, 관심 표적에 대한 3D 표적 모델을 생성하는 3D 모델링부; SAR가 관심 표적을 바라보는 방향을 기준으로 다양한 방향으로 3D 표적 모델의 자세를 설정하는 모델 자세 설정부; 상기 자세가 설정된 3D 표적 모델을 고해상도의 2D 영상으로 변환하여 상기 표적 모델에 대한 훈련용 고해상도 영상을 생성하는 훈련용 고해상도 영상 생성부; 상기 SAR의 송신신호가 3D 표적 모델에서 반사되어 상기 SAR로 입력되는 수신신호를 모의하여 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 SAR 모의 수신신호 생성부; 상기 생성된 SAR 모의 수신신호로부터, SAR Processing을 수행하여 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 훈련용 저해상도 영상 생성부;를 포함한다.The self-training data generation unit includes a 3D modeling unit that generates a 3D target model for a target of interest; a model pose setting unit that sets the pose of the 3D target model in various directions based on the direction in which the SAR looks at the target of interest; a high-resolution image generator for training that converts the 3D target model with the set posture into a high-resolution 2D image and generates a high-resolution image for training for the target model; A SAR simulated received signal generator that generates a simulated received signal for the 3D target model by simulating a received signal input to the SAR by reflecting the transmitted signal of the SAR from the 3D target model; It includes a low-resolution image generator for training that performs SAR processing from the generated SAR simulated reception signal to generate a low-resolution image for training on the target of interest.

상기 SAR 모의 수신신호 생성부는, 상기 SAR의 송신신호의 송출 파형을 생성하는 파형 생성부; 상기 3D 모델링부에서 생성된 3D 표적 모델을 상기 SAR의 위치에서 투영하여 다수의 셀로 분할하는 셀 분할부; 상기 분할된 다수의 셀 별 전자파 반사도와, 상기 SAR와 셀 간의 거리인 셀 거리를 송출 시점마다 산출하는 산출부; 상기 다수의 셀 별로 산출된 전자파 반사도와 셀 거리와 송출 파형을 이용하여 상기 3D 표적 모델에 대한 SAR 모의 수신신호를 생성하는 모의 신호부; 를 포함하고, 상기 모의 신호부는, 상기 SAR의 전체 모의 이동 경로에 대한 SAR 모의 수신신호를 생성한다.The SAR simulated received signal generator includes a waveform generator that generates a transmission waveform of the SAR transmission signal; a cell division unit that projects the 3D target model generated by the 3D modeling unit at the location of the SAR and divides it into a plurality of cells; a calculation unit that calculates electromagnetic wave reflectivity for each of the plurality of divided cells and a cell distance, which is the distance between the SAR and the cell, at each transmission time; a simulation signal unit that generates a SAR simulated reception signal for the 3D target model using the electromagnetic wave reflectivity, cell distance, and transmission waveform calculated for each of the plurality of cells; It includes, and the simulated signal unit generates a SAR simulated reception signal for the entire simulated movement path of the SAR.

상기 산출부는, 셀에 위치하는 다수의 특정 포인트와 상기 SAR의 안테나 중심까지의 거리에 대한 변화량을 이용하여 셀의 반사도를 산출한다.The calculation unit calculates the reflectivity of the cell using the change in distance between a plurality of specific points located in the cell and the center of the SAR antenna.

또한, 상기 산출부는, 다음의 식을 이용하여 셀의 반사도를 산출한다.Additionally, the calculation unit calculates the reflectivity of the cell using the following equation.

여기서, Reflectivity는 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들 중 하나(point_K)에서의 반사도, 는 양수인 임의의 상수, point_K0는 상기 다수의 특정 포인트들 중에서 선택된 point_K와 동일한 포인트를 의미하고, point_K1 및 point_K2는 특정 포인트(point_K)의 주변 포인트들, d_cell은 SAR와 특정 포인트 또는 주변 포인트들 간의 거리이다.Here, Reflectivity is the reflectivity at one of a number of specific points (point_K) located in the cell corresponding to (i, j) at a random transmission point, is a positive arbitrary constant, point_K0 means the same point as point_K selected from among the plurality of specific points, point_K1 and point_K2 are the surrounding points of the specific point (point_K), d_cell is the distance between SAR and the specific point or surrounding points am.

상기 모의 신호부는, 셀에 위치하는 다수의 특정 포인트들 각각에 대해 임의의 송출 시점에서 모의 수신신호(이하, '특정 포인트 모의 수신신호'라 한다)를 생성하는 특정 포인트 모의신호 생성부; 상기 생성된 특정 포인트 모의 수신신호들을 합하여 셀의 모의 수신신호(이하, '셀 모의 수신신호'라 한다)를 생성하는 셀 모의신호 생성부; 상기 다수의 셀마다 생성되는 셀 모의 수신신호들을 합하여 임의의 송출 시점에서 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 3D 표적 모델 모의신호 생성부;를 포함한다.The simulated signal unit includes a specific point simulated signal generator that generates a simulated received signal (hereinafter referred to as a 'specific point simulated received signal') at a random transmission point for each of a plurality of specific points located in the cell; a cell simulated signal generator that generates a cell simulated received signal (hereinafter referred to as a 'cell simulated received signal') by combining the generated specific point simulated received signals; It includes a 3D target model simulated signal generator that generates a simulated received signal for the 3D target model at a random transmission point by combining the cell simulated received signals generated for each of the plurality of cells.

상기 특정 포인트 모의신호 생성부는, 다음의 식을 이용하여 셀에 위치하는 다수의 특정 포인트들 중 하나에서의 모의 수신신호를 생성한다.The specific point simulated signal generator generates a simulated received signal at one of a plurality of specific points located in the cell using the following equation.

여기서, rx_timed_cell은 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 모의 수신신호, Reflectivity는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 전자파 반사도, d_cell은 SAR의 안테나 중심에서 i, j번째 셀의 특정 포인트(point_K) 또는 주변 포인트들 간의 거리를 의미하고, t는 시간, pi는 원주율, f0는 SAR 송신신호의 중심주파수, c는 빛의 속도, Kr은 chirp 파형내 단위시간당 주파수의 변화량을 나타내는 chirp rate로서 단위는 Hz/sec, exp는 exp(jХArg) = cos(Arg) + jХsin(Arg)로 표현되는 오일러의 공식(Euler's formula)을 의미한다.Here, rx_timed_cell is a simulated reception signal at one of a number of specific points (A0 ~ D0) (point_K, K = A0, B0, C0, D0) located in the cell corresponding to (i, j) at a random transmission point. , Reflectivity is the electromagnetic wave reflectivity at one (point_K, K=A0, B0, C0, D0) of multiple specific points (A0~D0), d_cell is a specific point of the i and jth cells at the antenna center of the SAR (point_K ) or means the distance between surrounding points, t is time, pi is the pi, f0 is the center frequency of the SAR transmission signal, c is the speed of light, and Kr is the chirp rate, which represents the change in frequency per unit time within the chirp waveform. means Hz/sec, exp means Euler's formula expressed as exp(jХArg) = cos(Arg) + jХsin(Arg) .

또한, 송신신호의 송출 파형은 pulse_shape(t) * ×exp(j * ×pi * ×Kr * ×t^2)로 가정하고, pulse_shape(t)는 송출파형의 포락선(envelope) 함수로서 다음과 같은 값을 가진다.In addition, the transmission waveform of the transmission signal is assumed to be pulse_shape(t) * × exp(j * × pi * × Kr * × t^2), and pulse_shape(t) is the envelope function of the transmission waveform as follows. It has value.

상기 모델 자세 설정부에 의해 자세가 조정될 때마다 하나의 훈련데이터가 생성되고, 자세를 조정하면서 상기 관심 표적에 대해 다수의 훈련데이터를 생성한다.One training data is generated each time the posture is adjusted by the model posture setting unit, and a plurality of training data for the target of interest is generated while the posture is adjusted.

상기 3D 모델링부는 다수의 관심 표적들에 대한 모델을 생성하고, 각 관심 표적에 대해 다수의 훈련데이터를 생성한다.The 3D modeling unit generates models for multiple targets of interest and generates multiple training data for each target of interest.

상기 데이터베이스부는, 특정 관심 표적에 대해 생성된 훈련용 저해상도 영상과 훈련용 고해상도 영상에 대해, 훈련용 저해상도 영상을 Key로 설정하고, 그에 대응하는 훈련용 고해상도 영상을 Value로 설정하는 딕셔너리를 생성하고, 다수의 관심 표적별로 상기 딕셔너리를 생성한 후, 생성된 딕셔너리마다 표적 식별자를 할당하여 다음과 같은 구조의 데이터베이스를 구성한다.The database unit creates a dictionary that sets the low-resolution image for training as a key and sets the corresponding high-resolution image for training as a value for the low-resolution image for training and the high-resolution image for training generated for a specific target of interest, After creating the dictionary for each target of interest, a target identifier is assigned to each generated dictionary to form a database with the following structure.

데이터베이스 시작 [Start database [

표적_A: 딕셔너리Target_A: Dictionary

표적_B: 딕셔너리Target_B: Dictionary

표적_C: 딕셔너리Target_C: Dictionary

] 데이터베이스 종료] Database shutdown

여기서, 딕셔너리의 구조는 다음과 같다.Here, the structure of the dictionary is as follows.

{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, {key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상}key: low-resolution image for training, value: high-resolution image for training}

상기 초고해상도 영상 생성 딥러닝 모델 훈련부는, 입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer가 포함된 다계층의 인공신경망 구조를 갖는 Generator; 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여, Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는 다계층의 인공신경망 구조를 갖는 Discriminator; 훈련을 통하여 Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하는 최적화부;를 포함하되, 상기 최적화부는 최적화 계산부와 Reference Model 및 Reference Model 최적화부를 포함하고, 상기 Reference Model은 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는, 다계층의 인공신경망 구조로 생성되고, 상기 Discriminator에 포함된 각각의 feature extractor는 상기 Reference Model에 포함된 각각의 feature extractor와 동일한 구조이고, 상기 Reference Model은 훈련용 고해상도 영상과 노이즈 영상을 훈련데이터로 사용하여 최적화되고, 상기 최적화부는 최적화 목적함수를 이용하여 Generator와 Discriminator를 훈련한다.The ultra-high-resolution image generation deep learning model training unit includes a generator having a multi-layer artificial neural network structure including an upsampling layer and a convolutional layer capable of increasing the resolution of the input image and expressing image information; In order to extract image features for input image data, a discriminator with a multi-layer artificial neural network structure including at least one feature extractor including a convolutional layer; An optimization unit that optimizes the artificial neural network parameters (weight, bias) of the generator and discriminator through training, wherein the optimization unit includes an optimization calculation unit, a Reference Model, and a Reference Model optimization unit, and the Reference Model is input image data. It is created with a multi-layer artificial neural network structure that includes at least one feature extractor including a convolutional layer to extract image features, and each feature extractor included in the discriminator is included in each reference model. It has the same structure as the feature extractor, and the Reference Model is optimized using high-resolution images for training and noise images as training data, and the optimization unit trains the Generator and Discriminator using the optimization objective function.

상기 최적화부는, Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위하여 다음의 최적화 목적함수를 사용한다.The optimization unit uses the following optimization objective function to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator.

Discriminator를 위한 최적화 목적함수Optimization objective function for discriminator

여기서, IHR_tr은 훈련용 고해상도 영상, ILR_tr은 훈련용 저해상도 영상, paramsD는 Discriminator를 구성하는 인공신경망 파라메타, paramsG는 Generator를 구성하는 인공신경망 파라메타, DparamsD(I)는 paramsD로 명명되는 파라메타값을 갖는 Discriminator의 입력 I에 대한 출력값, GparamsG(I)는 paramsG로 명명되는 파라메타값을 갖는 Generator의 입력 I에 대한 출력값, E[ ]는 기대값, N_featuremap은 Discriminator내 모든 Convolutional Layer에 포함된 featuremap의 총 개수, featuremap_Discriminator(n)은 Discriminator에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이고, featuremap_ReferenceModel(n)은 Reference Model에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이다.Here, I HR_tr is a high-resolution image for training, I LR_tr is a low-resolution image for training, paramsD is an artificial neural network parameter constituting the discriminator, paramsG is an artificial neural network parameter constituting the generator, and D paramsD (I) is a parameter value named paramsD. is the output value for the input I of the Discriminator, G paramsG (I) is the output value for the input I of the Generator with the parameter value named paramsG, E[ ] is the expected value, and N_featuremap is the feature map included in all convolutional layers in the Discriminator. The total number of, featuremap_Discriminator(n) is the nth featuremap among each featuremap existing in the Discriminator, and featuremap_ReferenceModel(n) is the nth featuremap among each featuremap existing in the Reference Model.

Generator를 위한 최적화 목적함수Optimization objective function for generator

또한, 상기 최적화부는, 다음의 최적화 목적함수를 사용하여 상기 Reference Model을 훈련한다.Additionally, the optimization unit trains the Reference Model using the following optimization objective function.

Reference Model을 위한 최적화 목적함수Optimization objective function for reference model

여기서, 은 훈련용 초고해상도 영상, 는 노이즈 영상, paramsR은 Reference Model을 구성하는 인공신경망 파라메타, RparamsR(I)은 paramsR로 명명되는 파라메타값을 갖는 Reference Model의 입력 I에 대한 출력값이다.here, is a super-resolution video for training; is the noise image, paramsR is the artificial neural network parameter constituting the Reference Model, and R paramsR (I) is the output value for the input I of the Reference Model with the parameter value named paramsR.

상기 최적화부는, 상기 데이터베이스에서 출력한 훈련용 고해상도 영상을 Discriminator에 입력하고, 그에 대한 Discriminator의 출력값을 관측하여 가 최대가 하도록 Discriminator의 인공신경망 파라메타를 갱신하고; 상기 출력한 훈련용 고해상도 영상을 Reference Model에 입력 후 Reference Model이 산출한 각각의 featuremap 값을 확인하고; 상기 출력한 훈련용 고해상도 영상을 Discriminator에 입력 후 Discriminator에 존재하는 각각의 featuremap 값이 그에 대응하는 상기 Reference Model의 featuremap 값을 추종하는 방향으로 Discriminator의 인공신경망 파라메타를 갱신하고; 상기 데이터베이스에서 출력한 훈련용 저해상도 영상을 Generator에 입력하고, 그에 대한 Generator의 출력을 Discriminator에 입력하여 Discriminator의 출력을 관측한 후, 가 최소가 되도록 Generator의 인공신경망 파라메타를 갱신하고, 가 최대가 되도록 Discriminator의 인공신경망 파라메타를 갱신하고; 상기 훈련용 고해상도 영상의 출력과 훈련용 저해상도 영상의 출력을 반복함에 따라 Generator 및 Discriminator의 인공신경망 파라메타를 최적화한다.The optimizer inputs the high-resolution training image output from the database into the discriminator, observes the output value of the discriminator, and Update the artificial neural network parameters of the discriminator so that is the maximum; After inputting the output high-resolution training image into the Reference Model, check each feature map value calculated by the Reference Model; After inputting the output high-resolution image for training into the discriminator, updating the artificial neural network parameters of the discriminator in such a way that each feature map value existing in the discriminator follows the feature map value of the corresponding reference model; Input the low-resolution image for training output from the database into the generator, input the output of the generator into the discriminator, and observe the output of the discriminator, Update the artificial neural network parameters of the generator to minimize Update the artificial neural network parameters of the discriminator so that is maximized; By repeating the output of the high-resolution image for training and the output of the low-resolution image for training, the artificial neural network parameters of the generator and discriminator are optimized.

한편, 본 발명의 다른 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치는, 훈련이 완료된 Generator를 적용하여, 실제 SAR 영상내 관심 표적 영상을 수신하고, 수신한 관심 표적 영상에 대한 초고해상도 영상을 출력하는 초고해상도 영상 생성부;를 더 포함한다.Meanwhile, a super-resolution image generating device for a target of interest in a SAR image according to another embodiment of the present invention applies a trained generator to receive a target of interest image in an actual SAR image, and provides information about the received target of interest image. It further includes a super-resolution image generator that outputs a super-resolution image.

한편, 본 발명의 다른 실시 예에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치는, 실제 SAR 영상내 관심 표적 영상과 표적 식별 정보를 수신하고, 상기 수신한 표적 식별 정보를 이용하여 데이터베이스에서 상기 표적 식별 정보에 해당하는 딕셔너리를 선택한 후, 상기 선택된 딕셔너리의 Key 값에 저장된 훈련용 저해상도 영상과 상기 수신한 관심 표적 영상과의 유사성을 확인하여, 유사성이 가장 높게 산출되는 Key 값에 대응하는 Value 데이터를 상기 수신한 관심 표적 영상에 대한 초고해상도 영상으로 출력하는 초고해상도 영상 생성부;를 더 포함한다.Meanwhile, a super-resolution image generating device for a target of interest in a SAR image according to another embodiment of the present invention receives an image of a target of interest and target identification information in an actual SAR image, and uses the received target identification information to store it in a database. After selecting the dictionary corresponding to the target identification information, check the similarity between the low-resolution image for training stored in the key value of the selected dictionary and the received target image of interest, and select the value corresponding to the key value with the highest similarity. It further includes a super-resolution image generator that outputs data as a super-resolution image for the received target image of interest.

본 발명의 일 실시예에 따르면, SAR를 통해 획득한 관심 표적 영상에 대한 초고해상도 영상을 생성하는데 있어서, 딥러닝 기술을 적용함으로써 SAR를 ?v해 획득한 관심 표적 영상 대비 더 높은 해상도의 표적 영상을 획득하는 방법 및 장치를 제공하는 효과가 있다.According to one embodiment of the present invention, in generating a super-resolution image for a target image of interest acquired through SAR, a target image with higher resolution than the target image of interest acquired by applying deep learning technology is obtained through SAR. It has the effect of providing a method and device for obtaining.

본 발명의 일 실시예에 따르면, 초고해상도 영상 생성을 위한 딥러닝 모델을 훈련하기 위한 훈련용 저해상도 영상과 훈련용 고해상도 영상을 다수 제공함으로써 SAR 영상에 대한 훈련데이터 부족 문제를 해결할 수 있다.According to one embodiment of the present invention, the problem of lack of training data for SAR images can be solved by providing a large number of low-resolution images for training and high-resolution images for training to train a deep learning model for generating super-resolution images.

본 발명의 일 실시예에 따르면, 초고해상도 영상 생성을 위한 딥러닝 모델을 훈련하기 위한 훈련용 고해상도 영상을 생성함에 있어서, 3D 표적 모델 생성, 모델 자세 설정, 3D 표적 모델에 대한 2D 영상 변환 과정을 사용하여 훈련용 고해상도 영상을 생성함으로써, SAR가 통상적으로 제공하는 0.5m급의 해상도를 갖는 표적 영상 대비 10배 이상의 초고해상도 표적 영상을 획득하는 초고해상도 영상 생성 방법 및 장치를 제공하는 효과를 발휘할 수 있다.According to an embodiment of the present invention, in generating a high-resolution image for training to train a deep learning model for generating a super-high-resolution image, the process of creating a 3D target model, setting the model pose, and converting the 2D image to the 3D target model is performed. By generating high-resolution images for training, it can be effective in providing a method and device for generating ultra-high resolution images that acquire ultra-high resolution target images that are 10 times higher than the 0.5m resolution target images typically provided by SAR. there is.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(10)를 도시한 블록도,
도 2는 도 1에 도시된 자가 훈련데이터 생성부(100)를 도시한 블록도,
도 3은 3D 표적 모델링 예시도,
도 4는 SAR와 관심 표적(3D 표적 모델) 간의 기하학적 구조를 정의한 예시도,
도 5는 SAR의 모의 수신신호 생성을 위해 도 4의 기하구조를 모델링한 도식도,
도 6은 3D 표적 모델의 자세를 설정하는 Depression Angle과 Aspect Angle을 설명하기 위한 예시도,
도 7은 도 2에 도시된 SAR 모의 수신신호 생성부(140)를 도시한 블록도,
도 8은 3D 표적 모델을 SAR가 바라보는 방향을 기준으로 2차원적으로 투영하여 훈련용 고해상도 영상을 생성한 예시 및 셀 분할에 대한 예시도
도 9는 셀 분할부(145)에서 분할된 다수의 셀 중 (i, j) 위치의 셀에 할당된 다수의 포인트들을 설명하기 위한 예시도,
도 10은 도 7에 도시된 모의 신호부(149)를 도시한 블록도,
도 11은 SAR 모의 수신신호의 차원을 도식화한 도면,
도 12는 도 1에 도시된 초고해상도 영상 생성 딥러닝 모델 훈련부(300)를 도시한 블록도,
도 13은 도 12에 도시된 Reference Model(331)의 인공신경망 구조를 도식화한 예시도,
도 14는 도 12에 도시된 Discriminator(320)의 인공신경망 구조를 도식화한 예시도,
도 15는 도 13 내지 도 14에 도시된 Convolutional Layer의 내부 filter의 구조를 설명하기 위한 예시도,
도 16은 도 13 내지 도 14에 도시된 Convolutional Layer의 Convolution 동작을 설명하기 위한 예시도,
도 17은 도 12에 도시된 Reference Model(331)과 Reference Model 최적화부(331-1)가 Reference Model(331)의 인공신경망 파라메타를 최적화하는 동작을 도시한 도면,
도 18은 본 발명의 다른 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(20)를 도시한 블록도,
도 19는 도 18에 도시된 초고해상도 영상 생성부(400)를 도시한, 일 실시예에 따른 블록도,
도 20은 도 18에 도시된 초고해상도 영상 생성부(400)를 도시한, 다른 실시예에 따른 블록도,
도 21은 본 발명의 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도,
도 22는 도 21에 도시된 자가 훈련데이터 생성(S2100) 단계 및 생성된 훈련데이터를 포함하는 데이터베이스 생성(S2102) 단계를 자세히 도시한 흐름도,
도 23은 도 22에 도시된 SAR의 송신신호가 3D 표적 모델에서 반사되어 SAR로 입력되는 수신신호를 모의하여 3D 표적 모델에 대한 SAR 모의 수신신호 생성(S2206) 단계를 자세히 도시한 흐름도,
도 24는 도 21에 도시된 자가 훈련데이터 생성(S2100) 단계에 따라 훈련데이터를 생성하는 일련의 동작을 보여주는 예시도,
도 25는 도 21에 도시된 초고해상도 영상 생성용 딥러닝 모델 생성 및 딥러닝 모델 훈련(S2104) 단계를 자세히 도시한 흐름도,
도 26은 본 발명의 실시 예에 따른 훈련 완료된 Generator를 이용한, SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도,
도 27은 본 발명의 실시 예에 따른 실제 관심 표적 영상과 표적 식별 정보를 사용한, SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도이다.
1 is a block diagram showing a super-resolution image generating device 10 for a target of interest in a SAR image according to an embodiment of the present invention;
Figure 2 is a block diagram showing the self-training data generator 100 shown in Figure 1;
Figure 3 is an example of 3D target modeling,
Figure 4 is an example diagram defining the geometric structure between the SAR and the target of interest (3D target model);
Figure 5 is a schematic diagram modeling the geometry of Figure 4 for generating a simulated received signal of SAR;
Figure 6 is an example diagram to explain the Depression Angle and Aspect Angle that set the posture of the 3D target model;
Figure 7 is a block diagram showing the SAR simulated received signal generator 140 shown in Figure 2;
Figure 8 shows an example of generating a high-resolution image for training by two-dimensionally projecting a 3D target model based on the direction in which the SAR is facing, and an example of cell division.
FIG. 9 is an example diagram illustrating a number of points assigned to cells at (i, j) positions among a number of cells divided by the cell division unit 145;
Figure 10 is a block diagram showing the simulated signal unit 149 shown in Figure 7;
Figure 11 is a diagram schematically illustrating the dimensions of the SAR simulated received signal;
Figure 12 is a block diagram showing the ultra-high resolution image generation deep learning model training unit 300 shown in Figure 1;
Figure 13 is an example diagram illustrating the artificial neural network structure of the Reference Model (331) shown in Figure 12;
Figure 14 is an example diagram illustrating the artificial neural network structure of the discriminator 320 shown in Figure 12;
Figure 15 is an example diagram for explaining the structure of the internal filter of the convolutional layer shown in Figures 13 and 14;
Figure 16 is an example diagram for explaining the convolution operation of the convolutional layer shown in Figures 13 and 14;
FIG. 17 is a diagram showing the operation of the Reference Model 331 and the Reference Model optimization unit 331-1 shown in FIG. 12 to optimize the artificial neural network parameters of the Reference Model 331;
Figure 18 is a block diagram showing a super-resolution image generating device 20 for a target of interest in a SAR image according to another embodiment of the present invention.
Figure 19 is a block diagram showing the ultra-high resolution image generator 400 shown in Figure 18, according to one embodiment.
FIG. 20 is a block diagram showing the ultra-high resolution image generator 400 shown in FIG. 18 according to another embodiment;
21 is a flowchart showing a method for generating a super-resolution image of a target of interest in a SAR image according to an embodiment of the present invention;
FIG. 22 is a flowchart illustrating in detail the self-training data generation (S2100) step and the database creation (S2102) step including the generated training data shown in FIG. 21;
FIG. 23 is a flowchart detailing the step of generating a SAR simulated received signal for a 3D target model (S2206) by simulating a received signal that is input to the SAR by reflecting the transmitted signal of the SAR shown in FIG. 22 from the 3D target model;
Figure 24 is an example diagram showing a series of operations for generating training data according to the self-training data generation (S2100) step shown in Figure 21;
Figure 25 is a flowchart detailing the deep learning model creation and deep learning model training (S2104) steps for ultra-high resolution image generation shown in Figure 21;
Figure 26 is a flowchart showing a method for generating a super-resolution image for a target of interest in a SAR image using a trained generator according to an embodiment of the present invention;
Figure 27 is a flowchart showing a method for generating a super-resolution image of a target of interest in a SAR image using an actual target of interest image and target identification information according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하에서는 첨부된 도면을 참조하여 본 발명에 따른 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법 및 장치에 대하여 설명한다.Hereinafter, a method and device for generating a super-resolution image of a target of interest in a SAR image according to the present invention will be described with reference to the attached drawings.

도 1은 본 발명의 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(10)를 도시한 블록도이다.Figure 1 is a block diagram showing an apparatus 10 for generating a super-resolution image of a target of interest in a SAR image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(10)는 자가 훈련데이터 생성부(100), 데이터베이스부(200) 및 초고해상도 영상 생성 딥러닝 모델 훈련부(300)를 포함할 수 있다.Referring to FIG. 1, the apparatus 10 for generating a super-resolution image for a target of interest in a SAR image according to an embodiment of the present invention includes a self-training data generation unit 100, a database unit 200, and deep learning for generating super-resolution images. It may include a model training unit 300.

자가 훈련데이터 생성부(100)는 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성을 위한 딥러닝 모델을 훈련하는데 필요한 다수의 훈련데이터를 생성할 수 있다.The self-training data generator 100 can generate a plurality of training data required to train a deep learning model for generating a super-resolution image of a target of interest in a SAR image.

데이터베이스부(200)는 자가 훈련데이터 생성부(100)가 생성한 다수의 훈련데이터를 추후의 초고해상도 영상 생성용 딥러닝 모델의 훈련을 위해 사용할 수 있도록 데이터베이스로 생성, 저장 및 관리할 수 있다.The database unit 200 can create, store, and manage a large number of training data generated by the self-training data generation unit 100 as a database so that it can be used for training a deep learning model for generating ultra-high resolution images in the future.

초고해상도 영상 생성 딥러닝 모델 훈련부(300)는 초고해상도 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스부(200)에 저장된 다수의 훈련데이터를 사용하여 상기 딥러닝 모델을 훈련할 수 있다.The ultra-high-resolution image generation deep learning model training unit 300 may generate a deep learning model for ultra-high-resolution image generation, and train the deep learning model using a plurality of training data stored in the database unit 200.

상기 실시예에서 자가 훈련데이터는 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(10)에서 온전히 내부적으로 생성한 훈련데이터로서, 초고해상도 영상 생성용 딥러닝 모델의 훈련에 필요한 훈련데이터를 원하는 만큼 생성할 수 있다. In the above embodiment, the self-training data is training data generated entirely internally by the super-resolution image generating device 10 for the target of interest in the SAR image, and the training data required for training the deep learning model for generating super-resolution images is as desired. can be created.

이는 기존 기술에서 통상의 초고해상도 영상 생성 장치가 외부에서 수신한 훈련데이터를 사용하여 딥러닝 모델을 훈련시키거나, 또는 외부에서 수신한 훈련데이터의 양이 딥러닝 모델의 훈련을 수행하기에 부족한 상황에서 사용하는 Data Augmentation 방법과 대비된다. 상기 Data Augmentation 방법은 외부의 훈련데이터에 인위적인 가공을 수행함으로써, 원 훈련데이터의 복사본을 생성하여 훈련데이터의 양을 인위적으로 증가시키는 방법이다. This is a situation in which, in existing technology, a typical ultra-high-resolution image generation device trains a deep learning model using training data received from an external source, or the amount of training data received from an external source is insufficient to train the deep learning model. This is in contrast to the data augmentation method used in . The data augmentation method is a method of artificially increasing the amount of training data by creating a copy of the original training data by performing artificial processing on external training data.

도 2는 도 1에 도시된 자가 훈련데이터 생성부(100)를 도시한 블록도이다.FIG. 2 is a block diagram showing the self-training data generator 100 shown in FIG. 1.

도 2를 참조하면, 자가 훈련데이터 생성부(100)는 3D 모델링부(110), 모델 자세 설정부(120), 훈련용 고해상도 영상 생성부(130), SAR 모의 수신신호 생성부(140), 훈련용 저해상도 영상 생성부(150)를 포함할 수 있다.Referring to FIG. 2, the self-training data generator 100 includes a 3D modeling unit 110, a model posture setting unit 120, a high-resolution image generator for training 130, a SAR simulated received signal generator 140, It may include a low-resolution image generator 150 for training.

3D 모델링부(110)는 관심 표적에 대한 물리적 형상을 3차원으로 모델링하여 3D 표적 모델을 생성한다. 도 3은 3D 표적 모델링 예시도로서, 3D 모델링부(110)는 서로 다른 관심 표적들에 대한 3D 표적 모델을 생성할 수 있다. The 3D modeling unit 110 creates a 3D target model by modeling the physical shape of the target of interest in three dimensions. Figure 3 is an example diagram of 3D target modeling, and the 3D modeling unit 110 can generate 3D target models for different targets of interest.

모델 자세 설정부(120)는 SAR와 3D 표적 모델 간의 기하학적 구조를 정의하고, SAR가 관심 표적을 바라보는 방향을 기준으로 3D 표적 모델의 자세를 조정할 수 있다. The model pose setting unit 120 may define the geometric structure between the SAR and the 3D target model and adjust the pose of the 3D target model based on the direction in which the SAR faces the target of interest.

도 4는 SAR와 관심 표적(3D 표적 모델) 간의 기하학적 구조를 정의한 예시도이고, 도 5는 SAR의 모의 수신신호 생성을 위해 도 4의 기하구조를 모델링한 도식도이다.FIG. 4 is an example diagram defining the geometric structure between the SAR and the target of interest (3D target model), and FIG. 5 is a schematic diagram modeling the geometry of FIG. 4 for generating a simulated received signal of the SAR.

도 4를 참조하면, 모델 자세 설정부(120)는 훈련데이터를 구성하는 관심표적에 대한 SAR 모의 영상을 생성하기 위해서, SAR와 3D 표적 모델 간의 기하학적 구조를 정의한다. SAR는 최초 송출 파형을 송출하는 시점인 t(0)부터, 송출 파형을 최종적으로 송출하는 시점인 t(N-1)(여기서, N은 송출 파형의 송출 개수)까지 관심 표적을 향하여 송출 파형을 송출하고, 관심 표적으로부터 반사된 신호를 수신하게 된다. 이 때, 송출 주기는 PRI(Pulse Repetition Interval)가 된다. Referring to FIG. 4, the model pose setting unit 120 defines the geometric structure between the SAR and the 3D target model in order to generate a SAR simulation image for the target of interest constituting the training data. SAR transmits the transmitted waveform toward the target of interest from t(0), the time when the first transmitted waveform is transmitted, to t(N-1), the time when the transmitted waveform is finally transmitted (where N is the number of transmitted waveforms). It transmits and receives the signal reflected from the target of interest. At this time, the transmission cycle is PRI (Pulse Repetition Interval).

도 5를 참조하면, SAR는 이동속도(v)로 궤도를 방위각(azimuth) 방향으로 이동하면서, PRI의 주기로 송신 파형을 송출하게 된다. 따라서, 도 5에 도시된 t(azi_idx=0)은 최초 송신 파형을 송출하는 시점이고, SAR는 t(azi_idx=0) 시점부터 t(azi_idx=N-1) 시점 동안 서로 다른 궤도상에 위치하여 해당 지점에서 송신 파형을 송출한다. 이 때, SAR 모의 수신신호는 SAR의 위치와 대상 표적 간의 거리인 셀 거리(d_cell)에 의존하게 된다. d_cell(i, j, point_K)는 3D 표적 모델을 2차원으로 잘게 분할하여 생성된 각 셀 및 해당 셀(i, j) 내에서의 특정 포인트(point_K)와 SAR의 안테나 중심부까지의 거리이다.Referring to FIG. 5, the SAR moves the orbit in the azimuth direction at a moving speed (v) and transmits a transmission waveform at a period of PRI. Therefore, t(azi_idx=0) shown in FIG. 5 is the time when the first transmission waveform is transmitted, and the SAR is located in different orbits from time t(azi_idx=0) to time t(azi_idx=N-1). A transmission waveform is transmitted from that point. At this time, the SAR simulated reception signal depends on the cell distance (d_cell), which is the distance between the SAR location and the target. d_cell(i, j, point_K) is the distance between each cell created by dividing the 3D target model into two dimensions, a specific point (point_K) within the corresponding cell (i, j), and the center of the SAR antenna.

또한, 모델 자세 설정부(120)는 SAR와 3D 표적 모델 간의 기하학적 위치로서 Depression Angle과 Aspect Angle을 설정하고, 설정된 각 및 기하학적 구조에 따라 3D 표적 모델의 자세를 조정할 수 있다.In addition, the model posture setting unit 120 can set the Depression Angle and Aspect Angle as geometric positions between the SAR and the 3D target model, and adjust the posture of the 3D target model according to the set angle and geometric structure.

도 6은 3D 표적 모델의 자세를 설정하는 Depression Angle과 Aspect Angle을 설명하기 위한 예시도이다.Figure 6 is an example diagram to explain the Depression Angle and Aspect Angle that set the posture of the 3D target model.

도 6을 참조하면, 지표면 대비 SAR와 3D 표적 모델의 중심점이 이루는 각을 Depression Angle이라 하고, 3D 표적 모델의 정면이 바라보는 방향과 SAR가 3D 표적 모델을 바라보는 방향과의 차이를 Aspect Angle이라 한다. 모델 자세 설정부(120)는 SAR 훈련데이터 생성시 1개의 훈련데이터를 생성할 때마다 Depression Angle과 Aspect Angle을 랜덤하게 설정하고, 설정된 Depression Angle과 Aspect Angle에 따라 SAR에서 바라보는 3D 표적 모델의 형상(즉, 자세)을 조정할 수 있다. 이는 하나의 관심 표적, 즉, 하나의 3D 모델로부터 다양한 형상을 가지는 훈련데이터를 확보하기 위함이다. Referring to Figure 6, the angle formed between the SAR compared to the ground surface and the center point of the 3D target model is called the Depression Angle, and the difference between the direction in which the front of the 3D target model faces and the direction in which the SAR faces the 3D target model is called the Aspect Angle. do. When generating SAR training data, the model attitude setting unit 120 randomly sets the Depression Angle and the Aspect Angle each time one piece of training data is generated, and the shape of the 3D target model as seen from the SAR according to the set Depression Angle and Aspect Angle. (i.e. posture) can be adjusted. This is to secure training data with various shapes from one target of interest, that is, one 3D model.

다시 도 2를 참조하면, 훈련용 고해상도 영상 생성부(130)는 초고해상도 영상 생성을 위한 딥러닝 모델을 훈련하는데 필요한 훈련데이터 중 훈련용 고해상도 영상(IHR_tr)을 생성할 수 있다.Referring again to FIG. 2, the high-resolution image generator 130 for training may generate a high-resolution image for training (I HR_tr ) among the training data required to train a deep learning model for generating a super-high-resolution image.

훈련용 고해상도 영상 생성부(130)은 모델 자세 설정부(120)에서 정의된 SAR와 3D 표적 모델 간의 기하학적 구조에서 SAR가 3D 표적 모델을 바라보는 방향을 기준으로 3D 표적 모델을 2차원적으로 투영하여 2D 영상을 생성하고 저장할 수 있다. 상기 생성된 2D 영상이 훈련용 고해상도 영상이다.The high-resolution image generator for training 130 projects the 3D target model two-dimensionally based on the direction in which the SAR faces the 3D target model in the geometric structure between the SAR and the 3D target model defined in the model attitude setting unit 120. You can create and save 2D images. The generated 2D image is a high-resolution image for training.

훈련용 고해상도 영상 생성시의 해상도는, 초고해상도 영상 생성시 목표로 하는 해상도 값을 갖도록 설정할 수 있다. 예를 들어, 실제의 SAR를 통해 획득하게 될 관심 표적 영상의 해상도가 0.5m, 즉, 영상의 한 픽셀이 표현하는 실제 물체의 가로 또는 세로 방향의 크기는 0.5m라고 할 때, 초고해상도 영상 생성을 위해 입력되는 저해상도 영상(ILR)의 해상도는 0.5m가 되고, 입력된 저해상도 영상에 대해 0.05m의 향상된 해상도를 갖는 초고해상도 영상(ISR)을 출력할 수 있다. 이 때, 훈련용 고해상도 영상의 해상도는 목표로 하는 초고해상도 영상과 동일한 해상도인 0.05m로 설정한다. 이는 3D 표적 모델에 대해 훈련용 고해상도 영상 생성시 5m 길이의 물리적 형상을 100개의 픽셀로 표현하는 것을 의미한다.The resolution when generating high-resolution images for training can be set to have the target resolution value when generating ultra-high-resolution images. For example, if the resolution of the image of the target of interest to be acquired through actual SAR is 0.5m, that is, the horizontal or vertical size of the actual object represented by one pixel in the image is 0.5m, ultra-high resolution image is generated. The resolution of the input low-resolution image (I LR ) is 0.5m, and a super-resolution image (I SR ) with an improved resolution of 0.05m can be output for the input low-resolution image. At this time, the resolution of the high-resolution image for training is set to 0.05m, which is the same resolution as the target ultra-high-resolution image. This means that when generating a high-resolution image for training for a 3D target model, a 5m long physical shape is expressed with 100 pixels.

도 8은 3D 표적 모델을 SAR가 바라보는 방향을 기준으로 2차원적으로 투영하여 훈련용 고해상도 영상을 생성한 예시 및 셀 분할에 대한 예시도이다.Figure 8 is an example of generating a high-resolution image for training by two-dimensionally projecting a 3D target model based on the direction in which the SAR is facing, and an example diagram of cell division.

도 8을 참조하면, 3D 표적 모델은 SAR에서 바라보는 방향을 기준으로 2차원적으로 투영될 수 있다. 3D 표적 모델은 목표로 하는 해상도를 갖는 2D 영상으로 투영되고, 하나의 훈련용 고해상도 영상이 생성된다. 셀 분할에 대한 설명은 추후 기술하기로 한다.Referring to FIG. 8, the 3D target model can be projected two-dimensionally based on the viewing direction in SAR. The 3D target model is projected as a 2D image with the target resolution, and one high-resolution image for training is created. Description of cell division will be described later.

다시 도 2을 참조하면, SAR 모의 수신신호 생성부(140)는 SAR의 송신신호가 3D 표적 모델에서 반사되어 SAR로 입력되는 수신신호를 모의하여 3D 표적 모델에 대한 시간 영역의 모의 수신신호(즉, SAR 모의 수신신호)를 생성할 수 있다. Referring again to FIG. 2, the SAR simulated received signal generator 140 simulates a received signal input to the SAR when the SAR transmitted signal is reflected from the 3D target model to generate a simulated received signal in the time domain for the 3D target model (i.e. , SAR simulated reception signal) can be generated.

도 7은 도 2에 도시된 SAR 모의 수신신호 생성부(140)를 도시한 블록도이다.FIG. 7 is a block diagram showing the SAR simulated received signal generator 140 shown in FIG. 2.

도 7을 참조하면, SAR 모의 수신신호 생성부(140)는 파라메타 설정부(141), 파형 생성부(143), 셀 분할부(145), 산출부(147) 및 모의 신호부(149)를 포함할 수 있다.Referring to FIG. 7, the SAR simulated received signal generation unit 140 includes a parameter setting unit 141, a waveform generating unit 143, a cell dividing unit 145, a calculating unit 147, and a simulated signal unit 149. It can be included.

파라메타 설정부(141)는 SAR 모의 수신신호를 생성하기 위해 모의 대상이 되는 SAR가 사용하는 물리적 파라메타를 설정하며, 이하에서는 이를 'SAR 시스템 파라메타'라 한다. SAR 시스템 파라메타는 SAR 송신신호의 중심주파수(f0), 송출 파형의 포락선(envelope)의 크기, 송출 파형의 길이(T_p) 및 송출 파형 내 단위시간당 주파수의 변화량을 나타내는 chirp rate(Kr), SAR와 3D 표적 모델 간의 거리, SAR의 이동속도, SAR 안테나의 Aperture를 포함할 수 있다. The parameter setting unit 141 sets physical parameters used by the SAR that is the subject of simulation to generate a SAR simulated reception signal, and hereinafter, these are referred to as 'SAR system parameters'. The SAR system parameters include the center frequency of the SAR transmission signal (f0), the size of the envelope of the transmission waveform, the length of the transmission waveform (T_p), the chirp rate (Kr) indicating the amount of change in frequency per unit time within the transmission waveform, SAR and It can include the distance between 3D target models, the moving speed of the SAR, and the aperture of the SAR antenna.

SAR 시스템 파라메타는 SAR 영상의 해상도를 결정한다. 파라메타 설정부(141)에 적용하는 SAR 시스템 파라메타는 실제의 SAR에 적용된 SAR 시스템 파라메타와 동일한 값을 적용하여, 훈련용 저해상도 영상과 실제의 SAR 영상에서 획득된 관심 표적 영상이 동일한 해상도를 갖도록 한다.SAR system parameters determine the resolution of the SAR image. The SAR system parameters applied to the parameter setting unit 141 apply the same values as the SAR system parameters applied to the actual SAR, so that the target image of interest obtained from the low-resolution image for training and the actual SAR image has the same resolution.

파형 생성부(143)는 SAR가 송신신호의 송출 파형을 송출하는 시점(최초 t=t(0))을 결정하고, PRI 주기마다 송출 시점을 갱신할 수 있다. 또한, 파형 생성부(143)는 특정 송출 시점에서의 SAR의 송출 파형을 생성하여 SAR가 송출 파형을 송출하는 행위를 모의할 수 있도록 한다.The waveform generator 143 may determine the point in time at which the SAR transmits the transmission waveform of the transmission signal (initial t=t(0)), and update the transmission point in each PRI cycle. In addition, the waveform generator 143 generates a transmission waveform of the SAR at a specific transmission point to simulate the behavior of the SAR transmitting the transmission waveform.

셀 분할부(145)는 3D 모델링부(110)에서 생성된 3D 모델을 SAR의 위치에서 2차원으로 투영하여 다수의 셀로 분할할 수 있다. The cell division unit 145 may divide the 3D model generated by the 3D modeling unit 110 into a plurality of cells by projecting it in two dimensions at the location of the SAR.

다시 도 8을 참조하면, 3D 표적 모델의 자세가 모델 자세 설정부(120)에서 설정되면, 임의의 방향에서 3D 표적 모델을 바라볼 경우 2차원적인 표면, 즉, 2D 형상을 확인할 수 있다. 따라서, 셀 분할부(145)는 모델 자세가 설정된 후 3D 표적 모델을 투영하여 2D 영상을 생성하고, 생성된 2D 영상을 도 8에 도시된 것처럼 다수의 셀로 분할할 수 있다. Referring again to FIG. 8, when the posture of the 3D target model is set in the model posture setting unit 120, the two-dimensional surface, that is, the 2D shape, can be confirmed when the 3D target model is viewed from any direction. Accordingly, the cell division unit 145 may generate a 2D image by projecting the 3D target model after the model posture is set, and divide the generated 2D image into a plurality of cells as shown in FIG. 8.

셀 분할부(145)가 수행하는 2D 영상 생성은 2D 영상 생성 자체를 목표로 하지 않으며, 3D 표적 모델을 셀 단위로 작게 쪼개어 추후 기술되는 수학적인 모델을 각 셀에 적용하기 위함이고, 훈련용 고해상도 영상 생성부(130)는 특정 해상도를 갖는 2D 영상을 생성하고, 훈련데이터로 사용하는데 차이가 있다.The 2D image generation performed by the cell division unit 145 does not aim at generating the 2D image itself, but rather splits the 3D target model into small cells and applies a mathematical model to be described later to each cell, and provides high-resolution training for training. The difference is that the image generator 130 generates a 2D image with a specific resolution and uses it as training data.

산출부(147)는 셀 분할부(145)에서 분할된 다수의 셀 별 전자파 반사도와, SAR와 셀 간의 거리인 셀 거리를 SAR의 전체 모의 이동 경로에 대하여 송출 시점마다(즉, 송출 주기마다) 산출할 수 있다. The calculation unit 147 calculates the electromagnetic wave reflectivity for each of the plurality of cells divided by the cell division unit 145 and the cell distance, which is the distance between the SAR and the cell, at each transmission time (i.e., at each transmission cycle) for the entire simulated movement path of the SAR. It can be calculated.

도 9는 셀 분할부(145)에서 분할된 다수의 셀 중 (i, j) 위치의 셀에 할당된 다수의 포인트들을 설명하기 위한 예시도이다.FIG. 9 is an example diagram illustrating a plurality of points assigned to a cell at the (i, j) position among the plurality of cells divided by the cell division unit 145.

도 9를 참조하면, 산출부(147)는 각 셀마다 2개 이상의 특정 포인트를 지정하고, 각 특정 포인트마다 1개 이상의 주변 포인트를 지정할 수 있다. 도 9에서는 4개의 특정 포인트(A0, B0, C0, D0)와 각각 2개의 주변 포인트(A1, A2, B1, B2, C1, C2, D1, D2)가 지정되었다.Referring to FIG. 9, the calculation unit 147 may designate two or more specific points for each cell and one or more surrounding points for each specific point. In Figure 9, four specific points (A0, B0, C0, D0) and two surrounding points (A1, A2, B1, B2, C1, C2, D1, D2) are designated.

산출부(147)는 셀 별로 셀에 위치하는 다수의 포인트(A0, B0, C0, D0, A1, A2, B1, B2, C1, C2, D1, D2) 각각과 SAR 안테나 중신부까지의 거리인 셀 거리(또는 포인트 거리)를 산출한다. 3D 표적 모델을 생성하고, 관심 표적의 셀 거리를 산출하는 동작은, 모델 자세 설정부(120) 또는 파라메타 설정부(141)에서 설정한 SAR의 위치와 표적 모델 간의 상대적 위치(또는 거리)를 기준으로 3D 표적 모델링 소프트웨어를 통해 수행될 수 있다. The calculation unit 147 calculates the distance between each of a plurality of points (A0, B0, C0, D0, A1, A2, B1, B2, C1, C2, D1, D2) located in the cell for each cell and the SAR antenna central body. Calculate cell distance (or point distance). The operation of generating a 3D target model and calculating the cell distance of the target of interest is based on the relative position (or distance) between the position of the SAR set in the model posture setting unit 120 or the parameter setting unit 141 and the target model. This can be performed through 3D target modeling software.

또한, 산출부(147)는 다수의 특정 포인트(A0, B0, C0, D0)와 SAR의 안테나 중심까지의 거리에 대한 변화량을 이용하여 셀의 전자파 반사도를 셀 별로 산출할 수 있다.In addition, the calculation unit 147 can calculate the electromagnetic wave reflectivity of each cell by using the change in distance between a plurality of specific points (A0, B0, C0, D0) and the center of the SAR antenna.

산출부(147)는 [수학식 1]을 이용하여 셀의 전자파 반사도를 산출할 수 있다.The calculation unit 147 can calculate the electromagnetic wave reflectivity of the cell using [Equation 1].

[수학식 1][Equation 1]

[수학식 1]에서 Reflectivity는 임의 송출 시점(t)에서 (i, j)번째 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 반사도, 는 양수인 임의의 상수, point_K0는 상기 다수의 특정 포인트들 중에서 선택된 point_K와 동일한 포인트를 의미하고, point_K1 및 point_K2는 특정 포인트(point_K)의 주변 포인트들, d_cell은 SAR와 특정 포인트 또는 주변 포인트들과 SAR 간의 거리이다. In [Equation 1], Reflectivity is one of a number of specific points (A0 to D0) located in the (i, j)th cell at a random transmission point (t) (point_K, K=A0, B0, C0, D0) Reflectivity at, is a positive arbitrary constant, point_K0 means the same point as point_K selected from among the plurality of specific points, point_K1 and point_K2 are the surrounding points of the specific point (point_K), d_cell is the SAR and the specific point or the surrounding points and the SAR is the distance between

[수학식 1]을 참조하면, i, j는 3D 표적 모델을 다수의 셀로 분할한 후 각 셀에 대해 위치를 부여한 식별자이고, 셀 내에서 A0, B0, C0, D0로 명명된 4개의 특정 포인트에서의 전자파 반사도는 각 포인트의 셀 거리에 대한 gradient로 계산될 수 있다. Referring to [Equation 1], i, j are identifiers that assign a position to each cell after dividing the 3D target model into multiple cells, and within the cell, four specific points named A0, B0, C0, and D0 The electromagnetic wave reflectivity can be calculated as the gradient with respect to the cell distance of each point.

다시 도 7을 참조하면, 모의 신호부(149)는 송출 파형과 다수의 셀 별로 산출된 전자파 반사도와 셀 거리를 이용하여 셀 별 모의 수신신호를 생성하고, 셀 별 모의 수신신호를 취합하여 3D 표적 모델에 대한 모의 수신신호(이하, 'SAR 모의 수신신호'라 한다)를 생성할 수 있다. Referring again to FIG. 7, the simulated signal unit 149 generates a simulated received signal for each cell using the transmission waveform and the electromagnetic wave reflectivity and cell distance calculated for each cell, and collects the simulated received signals for each cell to create a 3D target. A simulated received signal (hereinafter referred to as 'SAR simulated received signal') for the model can be generated.

모의 신호부(149)는 SAR가 3D 표적 모델로 송출 파형을 송출 주기에 따라 송출 및 반사되는 동작을 모의하여 SAR 모의 수신신호를 생성할 수 있다. The simulation signal unit 149 can generate a SAR simulated reception signal by simulating the operation of transmitting and reflecting the SAR transmission waveform with a 3D target model according to the transmission cycle.

또한, 모의 신호부(149)는 기설정된 SAR의 전체 모의 이동 경로에 대한 SAR 모의 수신신호를 생성할 수 있다.Additionally, the simulated signal unit 149 may generate a SAR simulated reception signal for the entire simulated movement path of the preset SAR.

도 10은 도 7에 도시된 모의 신호부(149)를 도시한 블록도이다.FIG. 10 is a block diagram showing the simulated signal unit 149 shown in FIG. 7.

도 10을 참조하면, 모의 신호부(149)는 특정 포인트 모의신호 생성부(149a), 셀 모의신호 생성부(149b), 3D 모델 모의신호 생성부(149c) 및 취합부(149d)를 포함할 수 있다.Referring to FIG. 10, the simulation signal unit 149 may include a specific point simulation signal generation unit 149a, a cell simulation signal generation unit 149b, a 3D model simulation signal generation unit 149c, and a collection unit 149d. You can.

특정 포인트 모의신호 생성부(149a)는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 각각에 대해 임의의 송출 시점에서 모의 수신신호(이하, '특정 포인트 모의 수신신호'라 한다)(a)를 생성할 수 있다. The specific point simulated signal generator 149a generates a simulated reception signal (hereinafter referred to as 'specific point simulated reception signal') (a ) can be created.

특정 포인트 모의신호 생성부(149a)는 [수학식 2]를 이용하여 임의의 송출 시점(t)에서, (i, j) 번째 셀에 위치하는 다수의 특정 포인트들(point_K)(point_K=A0, B0, C0, D0) 중 어느 하나에서의 모의 수신신호를 생성할 수 있다.The specific point simulation signal generator 149a uses [Equation 2] to generate a plurality of specific points (point_K) located in the (i, j)-th cell (point_K=A0, A simulated reception signal can be generated from any one of B0, C0, and D0).

[수학식 2][Equation 2]

[수학식 2]에서, rx_timed_cell은 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 모의 수신신호, Reflectivity는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 전자파 반사도, d_cell은 SAR의 안테나 중심에서 i, j번째 셀의 특정 포인트(point_K) 또는 주변 포인트들 간의 거리이다.In [Equation 2], rx_timed_cell is one of a number of specific points (A0 ~ D0) located in the cell corresponding to (i, j) at a random transmission point (point_K, K = A0, B0, C0, D0) The simulated received signal, Reflectivity is the electromagnetic wave reflectivity at one of multiple specific points (A0~D0) (point_K, K=A0, B0, C0, D0), and d_cell is the i, j cell from the center of the SAR antenna. It is the distance between a specific point (point_K) or surrounding points.

또한, t는 시간, pi는 원주율, f0는 SAR 송신신호의 중심주파수, c는 빛의 속도, Kr은 chirp 파형내 단위시간당 주파수의 변화량을 나타내는 chirp rate로서 단위는 Hz/sec, exp는 exp(jХArg) = cos(Arg) + jХsin(Arg)로 표현되는 오일러의 공식(Euler's formula)을 의미한다. In addition, t is time, pi is the circumference, f0 is the center frequency of the SAR transmission signal, c is the speed of light, and Kr is the chirp rate representing the amount of change in frequency per unit time within the chirp waveform. The units are Hz/sec and exp is exp( It means Euler's formula expressed as jХArg) = cos(Arg) + jХsin(Arg) .

또한, 송신신호의 송출 파형은 pulse_shape(t) * ×exp(j * ×pi * ×Kr * ×t^2)로 가정하고, pulse_shape(t)는 송출파형의 포락선(envelope) 함수로서 다음과 같은 값을 갖는다.In addition, the transmission waveform of the transmission signal is assumed to be pulse_shape(t) * × exp(j * × pi * × Kr * × t^2), and pulse_shape(t) is the envelope function of the transmission waveform as follows. It has value.

셀 모의신호 생성부(149b)는 특정 포인트 모의신호 생성부(149a)에서 [수학식 2]에 의해 임의 송출 시점에서 생성된 특정 포인트 모의 수신신호(a)들을 합하여 셀의 모의 수신신호(이하, '셀 모의 수신신호'라 한다)(b)를 생성할 수 있다. The cell simulated signal generator 149b generates a cell simulated received signal (hereinafter, (referred to as ‘cell simulated reception signal’) (b) can be generated.

도 9와 같이 하나의 셀에 4개의 특정 포인트가 지정된 경우, 셀 모의 수신신호는 임의 송출 시점에서 [수학식 2]에 의해 산출된 4개의 특정 포인트 모의 수신신호(a)들을 가산한 결과이다. 따라서, 셀 모의신호 생성부(149b)는 임의 송출 시점에서, 셀 분할부(145)에서 분할된 셀의 개수만큼 셀 모의 수신신호(b)를 생성할 수 있다.When four specific points are designated in one cell as shown in FIG. 9, the cell simulated received signal is the result of adding the four specific point simulated received signals (a) calculated by [Equation 2] at a random transmission time. Accordingly, the cell simulation signal generation unit 149b can generate a cell simulation reception signal (b) equal to the number of cells divided by the cell division unit 145 at any transmission time.

3D 모델 모의신호 생성부(149c)는 임의 송출 시점에서, 셀 모의신호 생성부(139b)에서 다수의 셀마다 생성되는 셀 모의 수신신호(b)들을 합하여 3D 표적 모델에 대한 모의 수신신호(c)를 생성할 수 있다. 이로써 임의 송출 시점(예를 들어, t(azi_idx=0))에서 3D 표적 모델에 대한 모의 수신신호(c)가 생성된다.The 3D model simulated signal generator 149c generates a simulated received signal (c) for the 3D target model by summing the cell simulated received signals (b) generated for each multiple cell in the cell simulated signal generator (139b) at a random transmission point. can be created. As a result, a simulated reception signal (c) for the 3D target model is generated at a random transmission point (for example, t(azi_idx=0)).

취합부(149d)는 모든 송출 시점(t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1))마다 생성된 3D 표적 모델에 대한 모의 수신신호를 취합하여 SAR 모의 수신신호를 생성할 수 있다. 즉, 취합부(149d)는 SAR가 모의 이동 경로를 따라 이동하면서 3D 표적 모델에게 송출 주기마다 송출 파형을 송출한 상황을 모의하여 생성된 모의 신호들을 취합하여 SAR 모의 신호를 생성한다. The collection unit 149d collects the simulated reception signals for the 3D target model generated at all transmission times (t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1)) A SAR simulated reception signal can be generated. That is, the collection unit 149d generates a SAR simulation signal by collecting simulated signals generated by simulating a situation in which the SAR moves along a simulated movement path and transmits a transmission waveform to the 3D target model at each transmission cycle.

상술한 바와 같이, 모델 자세 설정부(120)에서 자세가 조정되어 새로운 3D 표적 모델이 설정될 때마다 하나의 SAR 모의 수신신호가 생성되며, 이는 하나의 자세에서는 하나의 SAR 모의 수신신호가 생성되는 것을 의미한다. 따라서, 동일한 3D 표적 모델의 자세가 다시 조정되면 새로운 SAR 모의 수신신호가 생성된다. As described above, each time the posture is adjusted in the model posture setting unit 120 and a new 3D target model is set, one SAR simulated reception signal is generated, which means that one SAR simulated reception signal is generated in one posture. means that Therefore, when the attitude of the same 3D target model is readjusted, a new SAR simulated received signal is generated.

도 11은 SAR 모의 수신신호의 차원을 도식화한 도면이다.Figure 11 is a diagram schematically illustrating the dimensions of the SAR simulated received signal.

도 11을 참조하면, 각각의 i, j 및 point_K에 대해 N_azi 만큼의 시계열 신호세기가 모의된다. N_azi는 SAR가 이동 경로에 따라 송출한 송출 파형의 개수이고, N_range는 각각의 송출 파형에 대해 수신한 신호를 시간 영역에서 샘플링하였을 때 생성된 샘플의 개수, Ts는 샘플링 주기를 의미한다. azi_idx=0은 최초의 송출 파형 송출 시점(t(0))이고, azi_idx=N_azi-1은 마지막 송출 시점(t(N-1))이다. Referring to FIG. 11, the time series signal strength as much as N_azi is simulated for each i, j, and point_K. N_azi is the number of transmitted waveforms transmitted by the SAR along the movement path, N_range is the number of samples generated when the signal received for each transmitted waveform is sampled in the time domain, and Ts refers to the sampling period. azi_idx=0 is the first transmission time of the waveform (t(0)), and azi_idx=N_azi-1 is the last transmission time (t(N-1)).

특정 송출 시점, 예를 들면, azi_idx=0일 때 생성된 특정 포인트 모의 신호들(빨강 점선 내 시간영역 신호)을 합하면 셀 모의 신호가 되고, N_azi 만큼의 송출 시점이 존재하므로, N_azi Х Ni Х Nj 만큼의 셀 모의 수신신호(b)가 SAR 모의 수신신호를 생성하게 된다.At a specific transmission point, for example, when azi_idx=0, the sum of the specific point simulation signals (time domain signals within the red dotted line) generated creates a cell simulation signal, and since there are as many transmission points as N_azi, N_azi Х Ni Х Nj The number of cell simulated received signals (b) generates a SAR simulated received signal.

다시 도 2를 참조하면, 훈련용 저해상도 영상 생성부(150)는 모의 신호부(149)에서 생성된 SAR 모의 수신신호로부터 관심 표적에 대한 훈련용 저해상도 영상를 생성할 수 있다. Referring again to FIG. 2, the low-resolution image generator for training 150 may generate a low-resolution image for training of a target of interest from the SAR simulated reception signal generated by the simulation signal unit 149.

훈련용 저해상도 영상 생성부(150)는 모의된 SAR 모의 수신신호를 SAR Processing 알고리즘으로 신호처리절차를 수행하여 3D 표적 모델에 대한 훈련용 저해상도 영상를 생성한다. SAR Processing 알고리즘은 Backprojection 알고리즘, RDA(Range Doppler Algorithm) 등을 예로 들 수 있으며 이에 한정되지 않는다. The low-resolution image generator for training 150 performs a signal processing procedure on the simulated SAR simulated received signal using the SAR Processing algorithm to generate a low-resolution image for training for the 3D target model. Examples of SAR Processing algorithms include Backprojection algorithm and RDA (Range Doppler Algorithm), but are not limited thereto.

생성된 훈련용 저해상도 영상의 해상도는 실제 적용을 목표로 하는 SAR 영상과 동일한 해상도를 가진다. 통상의 SAR 영상은 0.5m ~ 1m의 해상도를 가지고 있지만, 본 발명이 상기 명시된 통상의 해상도에 제한되지 않는다.The resolution of the generated low-resolution image for training is the same as the SAR image targeted for actual application. A typical SAR image has a resolution of 0.5 m to 1 m, but the present invention is not limited to the typical resolution specified above.

특정의 3D 표적 모델에 대해 모델 자세가 결정되면, 훈련용 고해상도 영상 생성부(130)를 통해 생성된 훈련용 고해상도 영상과 훈련용 저해상도 영상 생성부(150)를 통해 생성된 훈련용 저해상도 영상이 상호 대응되어, 하나의 훈련데이터쌍을 구성한다. 훈련데이터쌍은 향후 초고해상도 영상 생성을 위한 딥러닝 훈련을 위해 데이터베이스부(200)로 입력된다.Once the model pose is determined for a specific 3D target model, the high-resolution image for training generated through the high-resolution image generator 130 for training and the low-resolution image for training generated through the low-resolution image generator 150 for training are mutually They correspond to form one training data pair. The training data pair is input to the database unit 200 for deep learning training to generate ultra-high resolution images in the future.

다시 도 1을 참조하면, 데이터베이스부(200)는 자가 훈련데이터 생성부(100)에서 상술한 동작에 의해 생성되는 훈련용 초고해상도 영상과 훈련용 저해상도 영상으로 구성된 훈련데이터쌍을 데이터베이스로 저장/관리한다. 이 때, 특정의 관심 표적에 대해 모델 자세가 조정될 때마다 서로 다른 훈련데이터쌍이 생성되고, 서로 다른 관심 표적에 대해서도 다수의 훈련데이터쌍이 생성될 수 있다. Referring again to FIG. 1, the database unit 200 stores/manages training data pairs consisting of ultra-high resolution images for training and low-resolution images for training generated by the above-described operation in the self-training data generation unit 100 as a database. do. At this time, a different training data pair is generated each time the model posture is adjusted for a specific target of interest, and multiple training data pairs may be generated for different targets of interest.

데이터베이스의 구성은, 하나의 훈련데이터쌍에 대해, 훈련용 저해상도 영상을 Key로 설정하고, 동일한 훈련데이터쌍 내에 존재하는 훈련용 고해상도 영상을 Value로 설정하는 딕셔너리 방식을 적용한다. 하나의 딕셔너리는 다수의 Key와 Value를 저장할 수 있도록 하되, 동일한 딕셔너리에 포함된 Key와 Value는 동일한 관심 표적에 대한 훈련데이터로 구성한다.The configuration of the database applies a dictionary method that sets low-resolution images for training as Key for one training data pair, and sets high-resolution images for training that exist within the same training data pair as Value. One dictionary can store multiple keys and values, but the keys and values contained in the same dictionary are composed of training data for the same target of interest.

다수의 관심 표적에 대해 표적별로 딕셔너리를 생성하며, 데이터베이스부(200)가 생성하는 데이터베이스는 다음과 같은 구조를 갖는다.A dictionary is created for each target for a plurality of targets of interest, and the database created by the database unit 200 has the following structure.

데이터베이스 시작 [Start database [

표적_A: 딕셔너리Target_A: Dictionary

표적_B: 딕셔너리Target_B: Dictionary

표적_C: 딕셔너리Target_C: Dictionary

] 데이터베이스 종료] Database shutdown

여기서, 딕셔너리의 구조는 다음과 같음.Here, the structure of the dictionary is as follows.

{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, {key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상}key: low-resolution image for training, value: high-resolution image for training}

초고해상도 영상 생성 딥러닝 모델 훈련부(300)는 다계층의 인공신경망 구조를 갖는 초고해상도 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스부(200)를 구성하는 다수의 훈련데이터를 기반으로 실제의 SAR 관심 표적 영상에 대해 초고해상도 영상이 생성되도록 상기 딥러닝 모델을 훈련할 수 있다.The ultra-high-resolution image generation deep learning model training unit 300 generates a deep learning model for ultra-high-resolution image generation with a multi-layer artificial neural network structure, and creates an actual deep learning model based on a plurality of training data constituting the database unit 200. The deep learning model can be trained to generate a super-resolution image for the SAR target image of interest.

도 12는 도 1에 도시된 초고해상도 영상 생성 딥러닝 모델 훈련부(300)를 도시한 블록도이다.FIG. 12 is a block diagram showing the ultra-high resolution image generation deep learning model training unit 300 shown in FIG. 1.

도 12를 참조하면, 초고해상도 영상 생성 딥러닝 모델 훈련부(300)는 Generator(310), Discriminator(320) 및 최적화부(330)를 포함할 수 있다.Referring to FIG. 12, the ultra-high resolution image generation deep learning model training unit 300 may include a generator 310, a discriminator 320, and an optimization unit 330.

Generator(310)와 Discriminator(320)는 저해상도 영상을 초고해상도 영상으로 변환하기 위한 목적을 갖는 적대적 생성 신경망(GAN, Generative Adversarial Network)을 구성하고, 최적화부(330)는 최적화 목적함수와 다수의 훈련데이터를 활용하여 Generator(310)와 Discriminator(320)의 인공신경망 파라메타를 최적화할 수 있다.The Generator (310) and Discriminator (320) configure a Generative Adversarial Network (GAN) with the purpose of converting a low-resolution image into a super-resolution image, and the Optimizer (330) uses an optimization objective function and multiple training methods. Using data, the artificial neural network parameters of the Generator (310) and Discriminator (320) can be optimized.

Generator(310)는 다계층의 인공신경망인 DNN(Deep Neural Network)으로 구성할 수 있으며, 좀더 상세하게는 입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer가 포함된 다계층 인공신경망을 포함할 수 있다.Generator (310) can be composed of DNN (Deep Neural Network), a multi-layer artificial neural network. More specifically, it includes an Upsampling Layer and a Convolutional Layer that can increase the resolution of the input image and express image information. May include hierarchical artificial neural networks.

Generator(310)는 데이터베이스부에서 출력된 훈련용 저해상도 영상(ILR_tr) 입력시 초고해상도 영상의 해상도와 동일한 해상도를 갖는 Generator 출력영상(GparamsG(ILR_tr))을 생성한다. 훈련되지 않은 Generator(310)는 입력된 훈련용 저해상도 영상에 대해 Generator(310)를 구성하는 인공신경망 파라메타(weight, bias)의 초기값에 의해 결정되는 무작위적인 영상을 생성하지만, 추후 기술하는 훈련을 통해 훈련이 완료된 Generator(310)는 입력된 저해상도 영상에 대해 더 상세한 영상 정보를 갖고 있는 초고해상도 영상을 생성할 수 있다.The generator 310 generates a generator output image (G paramsG (I LR_tr )) having the same resolution as the resolution of the super-resolution image when inputting the low-resolution image for training (I LR_tr ) output from the database unit. The untrained generator 310 generates a random image determined by the initial values of the artificial neural network parameters (weight, bias) that make up the generator 310 for the input low-resolution image for training, but the training described later is performed. The generator 310 that has completed training can generate a super-resolution image with more detailed image information for the input low-resolution image.

Discriminator(320)는 다계층의 인공신경망으로 구성할 수 있으며, 좀 더 상세하게는 입력된 영상에 대한 국부적 영상 특징 추출이 가능하도록 Convolutional Layer를 포함할 수 있다. Discriminator(320)의 다계층 인공신경망의 입력층(Input Layer)는 고해상도 영상의 각 픽셀 데이터를 수신할 수 있는 개수 이상의 입력 노드를 갖는다. Discriminator(320)는 입력되는 영상 Ix에 대해 Ix가 초고해상도 영상일 확률을 출력하며, 출력값은 0에서 1사이의 값을 갖는다. The discriminator 320 can be composed of a multi-layer artificial neural network, and more specifically, it can include a convolutional layer to enable extraction of local image features for the input image. The input layer of the multi-layer artificial neural network of the discriminator 320 has more than the number of input nodes capable of receiving each pixel data of a high-resolution image. Discriminator 320 outputs the probability that I x is a super-resolution image for the input image I x , and the output value has a value between 0 and 1.

Discriminator(320)는 입력부의 경로설정에 따라 데이터베이스부에서 출력된 훈련용 고해상도 영상을 수신하여 DparamsD(IHR_tr)을 출력하거나, Generator(310)로부터의 Generator 출력영상(GparamsG(ILR_tr))을 수신하여 DparamsD(GparamsG(ILR_tr))을 출력할 수 있다.The discriminator (320) receives the high-resolution image for training output from the database unit according to the path setting of the input unit and outputs D paramsD (I HR_tr ) or the generator output image (G paramsG (I LR_tr )) from the generator (310). You can receive and output D paramsD (G paramsG (I LR_tr )).

상기 Discriminator(320)의 출력에 대한 설명에 따르면, DparamsD(IHR_tr)는 입력된 훈련용 고해상도 영상이 초고해상도 영상일 확률을 의미하며, DparamsD(GparamsG(ILR_tr))는 입력된 Generator 출력영상(GparamsG(ILR_tr))이 초고해상도 영상일 확률을 의미한다. Discriminator(320)의 훈련과정은 DparamsD(IHR_tr)는 1에 가깝도록, DparamsD(GparamsG(ILR_tr))는 0에 가깝도록 Discriminator(320)의 인공신경망 파라메타의 값을 최적화시키는 과정을 포함한다.According to the description of the output of the Discriminator (320), D paramsD (I HR_tr ) means the probability that the input high-resolution image for training is a super-resolution image, and D paramsD (G paramsG (I LR_tr )) is the probability that the input high-resolution image for training is a super-resolution image. This means the probability that the output image (G paramsG (I LR_tr )) is a super-resolution image. The training process of the discriminator (320) involves optimizing the values of the artificial neural network parameters of the discriminator (320) so that D paramsD (I HR_tr ) is close to 1 and D paramsD (G paramsG (I LR_tr )) is close to 0. Includes.

최적화부(330)는 최적화 계산(332)부와 Reference Model(331) 및 Reference Model 최적화부(331-1)로 구성할 수 있다.The optimization unit 330 may be composed of an optimization calculation unit 332, a Reference Model 331, and a Reference Model optimization unit 331-1.

최적화부(330)는 Generator(310)와 Discriminator(320)를 구성하는 각각의 인공신경망 파라메타인 weight와 bias 값 등을 최적화한다. The optimization unit 330 optimizes the weight and bias values, which are each artificial neural network parameters constituting the generator 310 and the discriminator 320.

최적화부(330)는 훈련데이터 입력에 따른 Generator(310) 및 Discriminator(320)의 출력값과 훈련용 고해상도 영상을 수신한 Reference Model의 인공신경망 각 노드의 상태 정보를 기반으로, 최적화 목적함수를 이용하여 Generator(310)와 Discriminator(320)를 최적화한다. 상세한 최적화부의 동작은 추후 설명하기로 한다.The optimizer 330 uses an optimization objective function based on the output values of the generator 310 and discriminator 320 according to the training data input and the state information of each node of the artificial neural network of the reference model that received the high-resolution image for training. Optimize Generator (310) and Discriminator (320). The detailed operation of the optimization unit will be described later.

도 13은 도 12에 도시된 Reference Model(331)의 인공신경망 구조를 도시한 예시도이다.FIG. 13 is an example diagram showing the artificial neural network structure of the Reference Model 331 shown in FIG. 12.

Reference Model(331)은 다계층의 인공신경망으로 구성할 수 있으며, 좀 더 상세하게는 입력된 입력된 영상에 대한 국부적 영상 특징 추출이 가능하도록 Convolutional Layer를 포함할 수 있다. Reference Model(331)은 훈련용 고해상도 영상(IHR_tr) 또는 각 픽셀이 무작위 노이즈값으로 설정된 노이즈 영상(INoise)을 수신하고, 입력된 영상이 초고해상도 영상일 확률을 출력한다. The Reference Model 331 may be composed of a multi-layer artificial neural network, and more specifically, may include a convolutional layer to enable extraction of local image features for the input image. The Reference Model 331 receives a high-resolution image for training (I HR_tr ) or a noise image (I Noise ) in which each pixel is set to a random noise value, and outputs the probability that the input image is a super-resolution image.

Reference Model(331)은 다수의 훈련용 고해상도 영상과 다수의 노이즈 영상으로 학습함으로써, 초고해상도 영상이 갖는 영상 특징을 학습하는 하나 이상의 Feature extractor(특징 추출기)를 포함할 수 있다. 학습된 영상 특징은 Feature extractor의 한 구성요소인 filter값으로 저장된다. The Reference Model 331 may include one or more feature extractors that learn image features of ultra-high-resolution images by learning from multiple high-resolution images for training and multiple noise images. The learned image features are saved as a filter value, which is a component of the feature extractor.

도 14는 도 12에 도시된 Discriminator(320)의 인공신경망 구조를 도시한 예시도이다.FIG. 14 is an exemplary diagram showing the artificial neural network structure of the discriminator 320 shown in FIG. 12.

Discriminator(320)는 입력된 영상에 대해 영상 특징을 추출할 수 있는 하나 이상의 Feature extractor를 포함하며, 각각의 Feature extractor는 상기 기술된 Reference Model(331)이 보유하는 각각의 Feature extractor와 동일한 구조를 갖도록 설정할 수 있다. 예를 들어, Discriminator(320)와 Reference Model(331)이 보유하는 Feature extractor(1)은 동일한 입력 노드 개수, 동일한 filter dimension을 갖도록 설정한다. 이는 Discriminator(320)의 훈련과정 중 Discriminator(320)의 featuremap 정보가 Reference Model(331)의 대응하는 featuremap 정보를 추종하도록 하기 위함이다. The discriminator 320 includes one or more feature extractors capable of extracting image features for the input image, and each feature extractor has the same structure as each feature extractor possessed by the reference model 331 described above. You can set it. For example, the Feature extractor (1) owned by the Discriminator (320) and the Reference Model (331) are set to have the same number of input nodes and the same filter dimension. This is to ensure that the featuremap information of the Discriminator (320) follows the corresponding featuremap information of the Reference Model (331) during the training process of the Discriminator (320).

도 15는 도 13 내지 도 14에 도시된 Convolutional Layer의 내부 filter의 구조를 설명하기 위한 예시도이다.Figure 15 is an example diagram for explaining the structure of the internal filter of the convolutional layer shown in Figures 13 and 14.

Convolutional Layer의 한 구성요소인 filter는 2차원 구조를 갖는다. 이는 2차원으로 표현된 입력 영상과 filter간의 Convolution 동작을 수행하기 위함이다. filter를 구성하는 2차원의 행렬은 행렬을 구성하는 각각의 요소값에 따라 일종의 영상 패턴을 구성한다. 예를 들어, 도 15에 도시된 filter(1)과 유사한 영상 패턴이 입력 영상 내에 존재할 경우, Convolutional Layer의 출력값은 높게 나타나며, 해당 영상 패턴이 입력 영상 내에서 위치하는 정보를 획득할 수 있다. 이러한 Convolutional Layer의 동작 특성은 Feature extractor를 구성하는데 유용하게 사용된다.The filter, a component of the convolutional layer, has a two-dimensional structure. This is to perform a convolution operation between the input image expressed in two dimensions and the filter. The two-dimensional matrix that makes up the filter forms a kind of image pattern according to the value of each element that makes up the matrix. For example, if an image pattern similar to filter (1) shown in FIG. 15 exists in the input image, the output value of the convolutional layer appears high, and information about the location of the image pattern in the input image can be obtained. These operating characteristics of the convolutional layer are useful in constructing a feature extractor.

도 16는 도 13 내지 도 14에 도시된 Convolutional Layer의 Convolution 동작을 설명하기 위한 예시도이다.Figure 16 is an example diagram for explaining the convolution operation of the convolutional layer shown in Figures 13 and 14.

Convolution 동작은 통상의 2차원 Convolution 동작과 동일하다. 입력된 2차원 데이터와 2차원 filter간의 연산과 상기 연산 이후 bias를 더하는 과정이다. 입력데이터에 대해 filter를 입력데이터의 최좌측상단에 위치시키고 대응하는 요소값마다 입력데이터와 filter의 요소값을 곱하고 더하는 과정을 반복하여 수행하는데, filter가 입력데이터의 최우측하단에 도달하여 상기 동작을 완료하면 Convolution 동작은 종료된다.The convolution operation is the same as a normal 2D convolution operation. This is the process of calculating between input 2D data and 2D filter and adding bias after the calculation. For the input data, the filter is placed at the upper leftmost corner of the input data, and the process of multiplying and adding the element values of the input data and the filter is repeated for each corresponding element value. When the filter reaches the lower rightmost corner of the input data, the above operation is performed. Once completed, the convolution operation ends.

Convolution 동작 완료 후 획득되는 2차원의 출력은 featuremap으로 명명된다. featuremap은 filter에 의해 표현되는 영상 패턴이 입력데이터 내에서 어느 위치에 존재하는지와 그 유사성이 얼마나 높은지에 대한 정보를 표현한다.The two-dimensional output obtained after completing the convolution operation is named featuremap. The featuremap expresses information about where the image pattern expressed by the filter exists within the input data and how high its similarity is.

도 17은 도 12에 도시된 Reference Model(331)과 Reference Model 최적화부(331-1)가 Reference Model(331)의 인공신경망 파라메타를 최적화하는 동작을 도시한 도면이다.FIG. 17 is a diagram showing the operation of the Reference Model 331 and the Reference Model optimization unit 331-1 shown in FIG. 12 to optimize artificial neural network parameters of the Reference Model 331.

Reference Model(331)의 최적화를 위한 훈련데이터는 훈련용 고해상도 영상(IHR_tr)과 노이즈 영상(INoise)을 사용한다. Training data for optimization of the Reference Model (331) uses high-resolution images for training (I HR_tr ) and noise images (I Noise ).

Reference Model(331)은 입력된 훈련데이터에 대해 RparamsR(IHR_tr) 또는 RparamsR(INoise)를 출력한다. 이 때, RparamsR(IHR_tr)은 입력된 훈련용 고해상도 영상이 초고해상도 영상일 확률을 의미하고, RparamsR(INoise)은 입력된 노이즈 영상이 초고해상도 영상일 확률을 의미한다.Reference Model 331 outputs RparamsR(IHR_tr) or RparamsR(INoise) for the input training data. At this time, RparamsR(IHR_tr) means the probability that the input high-resolution image for training is a super-resolution image, and RparamsR(INoise) means the probability that the input noise image is a super-resolution image.

Reference Model 최적화부(331-1)는 Reference Model(331)의 입력에 대한 출력을 관측하고, 다음의 [수학식 3]으로 표현되는 최적화 목적함수를 사용하여 Reference Model(331)을 구성하는 인공신경망 파라메타를 최적화할 수 있다.The Reference Model optimization unit (331-1) is an artificial neural network that observes the output of the input of the Reference Model (331) and constructs the Reference Model (331) using the optimization objective function expressed in the following [Equation 3] Parameters can be optimized.

[수학식 3][Equation 3]

Reference Model을 위한 최적화 목적함수Optimization objective function for reference model

여기서, 은 훈련용 초고해상도 영상, 는 노이즈 영상, paramsR은 Reference Model을 구성하는 인공신경망 파라메타, RparamsR(I)은 paramsR로 명명되는 파라메타값을 갖는 Reference Model의 입력 I에 대한 출력값임. here, is a super-resolution video for training; is the noise image, paramsR is the artificial neural network parameter constituting the Reference Model, and RparamsR(I) is the output value for the input I of the Reference Model with the parameter value named paramsR.

상기 최적화 목적함수를 통해 훈련함으로써, Reference Model(331)의 Feature extractor는 초고해상도 영상이 갖는 영상 정보를 학습할 수 있다.By training through the optimization objective function, the feature extractor of the reference model 331 can learn the image information contained in the super-resolution image.

도 12를 다시 참조하면, 초고해상도 영상 생성 딥러닝 모델의 훈련은 [수학식 3]에 의한 Reference Model의 최적화가 완료된 후, Generator(310)와 Discriminator(320)에 대한 최적화를 실시한다. Referring again to FIG. 12, training of the deep learning model for generating ultra-high resolution images is performed after optimization of the Reference Model according to [Equation 3] is completed, and then optimization of the Generator (310) and Discriminator (320) is performed.

초고해상도 영상 생성 딥러닝 모델 훈련부(300)는 데이터베이스부(200)에 저장된 훈련용 저해상도 영상 또는 훈련용 고해상도 영상을 훈련데이터로 활용하고, 다음의 [수학식 4]로 표현되는 최적화 목적함수를 사용하여 Generator(310)와 Discriminator(320)의 인공신경망 파라메타를 최적화할 수 있다.The ultra-high-resolution image generation deep learning model training unit 300 uses low-resolution images for training or high-resolution images for training stored in the database unit 200 as training data, and uses the optimization objective function expressed in the following [Equation 4]. Thus, the artificial neural network parameters of the Generator (310) and Discriminator (320) can be optimized.

[수학식 4][Equation 4]

Discriminator를 위한 최적화 목적함수Optimization objective function for discriminator

여기서, IHR_tr은 훈련용 고해상도 영상, ILR_tr은 훈련용 저해상도 영상, paramsD는 Discriminator를 구성하는 인공신경망 파라메타, paramsG는 Generator를 구성하는 인공신경망 파라메타, DparamsD(I)는 paramsD로 명명되는 파라메타값을 갖는 Discriminator의 입력 I에 대한 출력값, GparamsG(I)는 paramsG로 명명되는 파라메타값을 갖는 Generator의 입력 I에 대한 출력값, E[ ]는 기대값, N_featuremap은 Discriminator내 모든 Convolutional Layer에 포함된 featuremap의 총 개수, featuremap_Discriminator(n)은 Discriminator에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이고, featuremap_ReferenceModel(n)은 Reference Model에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap임.Here, I HR_tr is a high-resolution image for training, I LR_tr is a low-resolution image for training, paramsD is an artificial neural network parameter constituting the discriminator, paramsG is an artificial neural network parameter constituting the generator, and D paramsD (I) is a parameter value named paramsD. is the output value for the input I of the Discriminator, G paramsG (I) is the output value for the input I of the Generator with the parameter value named paramsG, E[ ] is the expected value, and N_featuremap is the feature map included in all convolutional layers in the Discriminator. The total number of, featuremap_Discriminator(n) is the nth featuremap among each featuremap existing in the Discriminator, and featuremap_ReferenceModel(n) is the nth featuremap among each featuremap existing in the Reference Model.

Generator를 위한 최적화 목적함수Optimization objective function for generator

상기 최적화를 통하여 Discriminator(320)는 데이터베이스부가 출력한 훈련용 초고해상도 영상을 수신하여 초고해상도 영상의 특징을 학습함으로써, Generator(310)가 생성한 초고해상도 영상이 초고해상도 영상의 특징을 보유하는지 그렇지 않은지를 판단한다. Through the above optimization, the discriminator (320) receives the super-resolution image for training output from the database unit and learns the characteristics of the super-resolution image, thereby determining whether the super-resolution image generated by the generator (310) possesses the characteristics of the super-resolution image. Determine whether or not

Generator(310)는 입력된 훈련용 저해상도 영상으로부터 초고해상도 영상을 생성하되, 최초 미학습된 상태에서는 초고해상도 영상의 특징을 거의 보유하지 못한 무작위적 영상을 생성한다. 학습이 진행되는 동안 Generator(310)는 초고해상도 영상의 특징을 학습하게 되고, 최적화 완료시 Generator(310)가 생성한 초고해상도 영상은 훈련용 고해상도 영상과 유사할 정도의 초고해상도 영상의 특징을 보유하게 되어 상기 Discriminator(320)가 두 영상에 대해 그 출처를 구분하지 못할 정도가 된다.The generator 310 generates a super-resolution image from the input low-resolution image for training, but generates a random image that has almost no features of the super-resolution image in its initial untrained state. While learning is in progress, the Generator (310) learns the characteristics of the ultra-high resolution image, and upon completion of optimization, the ultra-high resolution image generated by the Generator (310) retains the characteristics of the ultra-high resolution image similar to the high-resolution image for training. As a result, the discriminator 320 cannot distinguish between the sources of the two images.

도 18은 본 발명의 다른 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치(20)를 도시한 블록도이다.Figure 18 is a block diagram showing a super-resolution image generating device 20 for a target of interest in a SAR image according to another embodiment of the present invention.

도 18를 참조하면, 본 발명의 다른 실시 예에 따른 SAR 영상에서 자동 관심 표적 식별을 위한 장치(20)는 자가 훈련데이터 생성부(100), 데이터베이스부(200), 초고해상도 영상 생성 딥러닝 모델 훈련부(300) 및 초고해상도 영상 생성부(400)를 포함할 수 있다. Referring to FIG. 18, the device 20 for automatically identifying a target of interest in a SAR image according to another embodiment of the present invention includes a self-training data generation unit 100, a database unit 200, and a deep learning model for generating super-resolution images. It may include a training unit 300 and a super-resolution image generation unit 400.

자가 훈련데이터 생성부(100), 데이터베이스부(200), 초고해상도 영상 생성 딥러닝 모델 훈련부(300)는 도 1 내지 도 17을 참조하여 설명하였으므로 자세한 설명은 생략한다.The self-training data generation unit 100, the database unit 200, and the ultra-high-resolution image generation deep learning model training unit 300 have been described with reference to FIGS. 1 to 17, so detailed descriptions will be omitted.

초고해상도 영상 생성부(400)는 실제 SAR로부터 획득된 관심 표적을 입력받고, 입력된 저해상도의 영상에 대한 초고해상도 영상을 생성할 수 있다.The super-resolution image generator 400 may receive a target of interest obtained from an actual SAR and generate a super-resolution image for the input low-resolution image.

도 18에 도시된 장치(20)는 실제 SAR를 통해 획득한 관심 표적 영상을 입력해 관심 표적에 대한 초고해상도 영상을 실시간으로 생성하면서, 그와 동시에 관심 표적에 대한 훈련데이터를 생성하여 딥러닝 모델을 업데이트할 수 있다.The device 20 shown in FIG. 18 generates a super-resolution image of the target of interest in real time by inputting the image of the target of interest obtained through actual SAR, and at the same time generates training data for the target of interest to create a deep learning model. can be updated.

도 19는 도 18에 도시된 초고해상도 영상 생성부(400)를 도시한, 일 실시예에 따른 블록도이다.FIG. 19 is a block diagram illustrating the ultra-high resolution image generator 400 shown in FIG. 18 according to an embodiment.

도 19를 참조하면, 초고해상도 영상 생성부는 Generator(410)를 포함할 수 있다. Generator(410)는 실제의 SAR를 통해 획득한 SAR 관심 표적 영상을 입력받아 입력된 영상에 대한 초고해상도 영상(ISR)을 생성할 수 있다. 입력된 SAR 관심 표적 영상(ILR)은 초고해상도 영상 생성의 대상이 되는 저해상도 영상이다. Referring to FIG. 19, the ultra-high resolution image generator may include a generator 410. The generator 410 can receive a SAR target of interest image obtained through actual SAR and generate an ultra-high resolution image (I SR ) for the input image. The input SAR target of interest image (I LR ) is a low-resolution image that is the target of super-resolution image generation.

Generator(410)는 초고해상도 영상 생성 딥러닝 모델 훈련부에서 생성한 Generator(310)의 훈련 완료된 딥러닝 모델이다. Generator(310)의 딥러닝 모델 생성 및 딥러닝 모델 훈련은 도 12 내지 도 17과 [수학식 4] 및 도 25를 참조하여 자세히 설명하였다. Generator (410) is a deep learning model that has completed training of Generator (310) created by the ultra-high-resolution image generation deep learning model training department. The deep learning model creation and deep learning model training of the generator 310 were explained in detail with reference to FIGS. 12 to 17, [Equation 4], and FIG. 25.

도 20은 도 18에 도시된 초고해상도 영상 생성부(400)를 도시한, 다른 실시예에 따른 블록도이다.FIG. 20 is a block diagram illustrating the ultra-high resolution image generator 400 shown in FIG. 18 according to another embodiment.

도 20을 참조하면, 초고해상도 영상 생성부는 데이터베이스 기반 초고해상도 영상 생성부(420)를 포함할 수 있다. Referring to FIG. 20, the ultra-high resolution image generator may include a database-based ultra-high resolution image generator 420.

데이터베이스 기반 초고해상도 영상 생성부(420)는 실제의 SAR를 통해 획득한 SAR 관심 표적 영상과 표적 식별 정보를 입력받아 입력된 영상에 대한 초고해상도 영상(ISR)을 생성할 수 있다. 상기 표적 식별 정보는 SAR 영상에 대한 통상의 표적 식별 장치에 의해 생성될 수 있다.The database-based super-resolution image generator 420 may receive the SAR target-of-interest image and target identification information obtained through actual SAR and generate a super-resolution image (I SR ) for the input image. The target identification information may be generated by a typical target identification device for SAR images.

데이터베이스 기반 초고해상도 영상 생성부(420)는 데이터베이스부(200)에서 관리하는 데이터베이스에서, 상기 입력된 표적 식별 정보와 일치하는 표적 식별자에 해당하는 딕셔너리를 선택한다. 선택된 딕셔너리의 Key 값에 저장된 훈련용 저해상도 영상과 상기 입력된 SAR 관심 표적 영상과의 유사성을 확인하여, 유사성이 가장 높은 Key 값을 선정하고, 선정된 Key 값에 대응하는 Value 데이터를 상기 입력된 SAR 관심 표적 영상에 대한 초고해상도 영상으로 출력할 수 있다.The database-based super-resolution image generation unit 420 selects a dictionary corresponding to a target identifier matching the input target identification information from the database managed by the database unit 200. The similarity between the low-resolution training image stored in the key value of the selected dictionary and the input SAR target image of interest is checked, the key value with the highest similarity is selected, and the value data corresponding to the selected key value is stored in the input SAR. The image of the target of interest can be output as a super-resolution image.

도 21은 본 발명의 실시 예에 따른 SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도이다.Figure 21 is a flowchart showing a method for generating a super-resolution image of a target of interest in a SAR image according to an embodiment of the present invention.

도 21을 참조하면, 단계 S2100에서, 자가 훈련데이터를 생성한다. Referring to FIG. 21, in step S2100, self-training data is generated.

단계 S2102에서, 생성된 훈련데이터를 포함하는 데이터베이스를 생성한다.In step S2102, a database containing the generated training data is created.

단계 S2104에서, 초고해상도 영상 생성용 딥러닝 모델을 생성하고, 딥러닝 모델을 훈련을 수행한다.In step S2104, a deep learning model for generating ultra-high resolution images is created and the deep learning model is trained.

도 22는 도 21에 도시된 자가 훈련데이터 생성(S2100) 단계 및 생성된 훈련데이터를 포함하는 데이터베이스 생성(S2102) 단계를 자세히 도시한 흐름도,FIG. 22 is a flowchart illustrating in detail the self-training data generation (S2100) step and the database creation (S2102) step including the generated training data shown in FIG. 21;

도 22를 참조하면, 단계 S2200에서, 관심 표적에 대한 3D 표적 모델을 생성한다.Referring to FIG. 22, in step S2200, a 3D target model for the target of interest is created.

단계 S2202에서, SAR가 관심 표적을 바라보는 방향을 기준으로 3D 표적 모델의 자세를 설정한다.In step S2202, the pose of the 3D target model is set based on the direction in which the SAR is looking at the target of interest.

단계 S2204에서, SAR가 바라보는 방향에서 3D 표적 모델을 2차원으로 투영하여 훈련용 고해상도 영상을 생성한다.In step S2204, a high-resolution image for training is generated by projecting the 3D target model in two dimensions in the direction the SAR is looking.

단계 S2206에서, SAR의 송신신호가 3D 표적 모델에서 반사되어 SAR로 입력되는 수신신호를 모의하여 3D 표적 모델에 대한 SAR 모의 수신신호를 생성한다. SAR 모의 수신신호는 SAR와 상기 3D 표적 모델간의 기하학적 구조를 설정한 모의 환경에서, SAR 시스템 파라메타를 적용하여 생성된다. SAR 모의 수신신호는 SAR가 PRI 주기로 송출한 송출 파형이 3D 표적 모델에 대해 반사되어 되돌아온 신호를 SAR가 수신한 신호이다.In step S2206, the SAR transmitted signal is reflected from the 3D target model and simulates the received signal input to the SAR to generate a SAR simulated received signal for the 3D target model. The SAR simulated received signal is generated by applying SAR system parameters in a simulated environment that sets the geometric structure between the SAR and the 3D target model. The SAR simulated received signal is a signal received by the SAR when the transmitted waveform transmitted by the SAR in the PRI cycle is reflected and returned to the 3D target model.

단계 S2208에서, SAR 모의 수신신호로부터 관심 표적에 대한 훈련용 저해상도 영상을 생성한다. SAR 모의 수신신호를 SAR Processing 알고리즘으로 처리하여 SAR 영상을 생성하며, 생성된 SAR 영상이 훈련용 저해상도 영상이다.In step S2208, a low-resolution image for training of the target of interest is generated from the SAR simulated received signal. SAR simulated reception signals are processed with the SAR Processing algorithm to generate SAR images, and the generated SAR images are low-resolution images for training.

단계 S2210에서, 생성된 훈련용 저해상도 영상과 훈련용 고해상도 영상으로 구성된 훈련데이터쌍을 생성한다.In step S2210, a training data pair consisting of the generated low-resolution image for training and the high-resolution image for training is generated.

단계 S2212에서 상기 관심 표적에 대한 훈련데이터 생성을 완료할 것인지 판단한다. S2202 내지 S2210단계를 수행하면 상기 관심 표적에 대한 한개의 훈련데이터쌍이 생성된다. 상기 관심 표적에 대한 다수의 훈련데이터쌍을 생성하여 초고해상도 영상 생성용 딥러닝 모델을 훈련시키는 것이 바람직하며, 상기 관심 표적에 대한 충분한 양의 훈련데이터쌍을 생성할 때까지 S2202 내지 S2210단계를 반복하여 수행할 수 있다.In step S2212, it is determined whether to complete the generation of training data for the target of interest. When steps S2202 to S2210 are performed, one training data pair for the target of interest is generated. It is desirable to train a deep learning model for ultra-high resolution image generation by generating a plurality of training data pairs for the target of interest, and repeat steps S2202 to S2210 until a sufficient amount of training data pairs for the target of interest are generated. It can be done by doing this.

단계 S2214에서, 관심 표적별 딕셔너리로 구성된 데이터베이스를 구성한다. 상기 특정의 관심 표적에 대한 다수의 훈련데이터 생성은 S2200 내지 S2212단계를 수행함으로써 완료될 수 있다. 상기 특정의 관심 표적에 대해 생성된 다수의 훈련데이터는 딕셔너리로 구성하되, 다음과 같이 관심 표적별로 서로 다른 딕셔너리를 생성하여 데이터베이스화할 수 있다.In step S2214, a database consisting of a dictionary for each target of interest is constructed. Generating multiple training data for the specific target of interest can be completed by performing steps S2200 to S2212. The plurality of training data generated for the specific target of interest is configured as a dictionary, and different dictionaries can be created for each target of interest and converted into a database as follows.

데이터베이스 시작 [Start database [

표적_A: 딕셔너리Target_A: Dictionary

표적_B: 딕셔너리Target_B: Dictionary

표적_C: 딕셔너리Target_C: Dictionary

] 데이터베이스 종료] Database shutdown

여기서, 딕셔너리의 구조는 다음과 같음.Here, the structure of the dictionary is as follows.

{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, {key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상, key: low-resolution image for training, value: high-resolution image for training,

key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상}key: low-resolution image for training, value: high-resolution image for training}

단계 S2216에서, 다른 관심 표적에 대한 훈련데이터 생성이 필요한지 판단한다. 본 발명의 바람직한 실시예에 따르면, 다수의 관심 표적에 대해 다수의 훈련데이터를 생성하여 초고해상도 영상 생성용 딥러닝 모델을 훈련시키는 것이 바람직하다. 훈련데이터 생성이 필요한 신규 관심 표적에 대해 S2200 내지 S2214단계를 수행한다.In step S2216, it is determined whether it is necessary to generate training data for other targets of interest. According to a preferred embodiment of the present invention, it is desirable to train a deep learning model for generating super-resolution images by generating a plurality of training data for a plurality of targets of interest. Steps S2200 to S2214 are performed for new targets of interest that require training data generation.

도 23은 도 22에 도시된 SAR의 송신신호가 3D 표적 모델에서 반사되어 SAR로 입력되는 수신신호를 모의하여 3D 표적 모델에 대한 SAR 모의 수신신호 생성(S2206) 단계를 자세히 도시한 흐름도이다.FIG. 23 is a flowchart illustrating in detail the step of generating a SAR simulated received signal for a 3D target model (S2206) by simulating a received signal that is input to the SAR by reflecting the transmitted signal of the SAR shown in FIG. 22 from the 3D target model.

도 23을 참조하면, 단계 S2300에서, SAR 모의 수신신호를 생성하기 위해 SAR가 사용하는 물리적 파라메타, 즉, SAR 시스템 파라메타를 설정한다.Referring to FIG. 23, in step S2300, physical parameters used by SAR to generate a SAR simulated received signal, that is, SAR system parameters, are set.

단계 S2302에서, SAR가 송출 파형을 송출하는 시점(최초 t=t(0))을 결정하고, PRI 주기로 송출 시점을 갱신할 수 있다.In step S2302, the time point at which the SAR transmits the transmission waveform (initial t=t(0)) is determined, and the transmission time point can be updated with the PRI cycle.

단계 S2304에서, 임의 송출 시점에서의 SAR의 송출 파형을 생성하여 SAR가 송출 파형을 송출하는 행위를 모의할 수 있다.In step S2304, the transmission waveform of the SAR at a random transmission point can be generated to simulate the behavior of the SAR transmitting the transmission waveform.

단계 S2306에서, 3D 모델을 SAR의 위치에서 2차원으로 투영하여 다수의 셀로 분할할 수 있다.In step S2306, the 3D model can be divided into a number of cells by projecting it in two dimensions at the location of the SAR.

단계 S2308에서, 상기 S2306 단계에서 분할된 다수의 셀 별 전자파 반사도와, SAR와 셀 간의 거리인 셀 거리를 SAR의 전체 모의 이동 경로에 대하여 송출 시점마다(즉, 송출 주기마다) 산출할 수 있다. S2308단계에서 반사도는 [수학식 1]을 이용하고, 셀 거리는 3D 표적 모델링 소프트웨어를 통해 산출될 수 있다.In step S2308, the electromagnetic wave reflectivity for each of the plurality of cells divided in step S2306 and the cell distance, which is the distance between the SAR and the cell, can be calculated at each transmission time (i.e., at each transmission cycle) for the entire simulated movement path of the SAR. In step S2308, the reflectance can be calculated using [Equation 1], and the cell distance can be calculated through 3D target modeling software.

단계 S2310에서, 셀에 위치하는 다수의 특정 포인트들(A0~D0) 각각에 대해 임의의 송출 시점에서 특정 포인트 모의 수신신호(a)를 생성할 수 있다. S2310단계는 [수학식 2]를 이용하여 임의의 송출 시점에서, (i, j) 번째 셀에 위치하는 다수의 특정 포인트들(point_K)(point_K=A0, B0, C0, D0) 각각에 대한 모의 수신신호(a)를 생성할 수 있다.In step S2310, a specific point simulated reception signal (a) may be generated at a random transmission time for each of a plurality of specific points (A0 to D0) located in the cell. Step S2310 uses [Equation 2] to simulate each of a number of specific points (point_K) (point_K=A0, B0, C0, D0) located in the (i, j)-th cell at a random transmission time. A received signal (a) can be generated.

단계 S2312에서, 상기 S2310단계에서 생성된 임의 송출 시점에 대한 특정 포인트 모의 수신신호(a)들을 합하여 셀의 모의 수신신호(즉, 셀 모의 수신신호) (b)를 생성할 수 있다. 도 9와 같이 하나의 셀에 4개의 특정 포인트가 지정된 경우, 셀 모의 수신신호는 임의 송출 시점에서 [수학식 2]에 의해 산출된 4개의 특정 포인트 모의 수신신호(a)들을 가산한 결과이다. In step S2312, a simulated received signal of a cell (i.e., a simulated cell received signal) (b) can be generated by summing the simulated received signals (a) of a specific point for a random transmission time point generated in step S2310. When four specific points are designated in one cell as shown in FIG. 9, the cell simulated received signal is the result of adding the four specific point simulated received signals (a) calculated by [Equation 2] at a random transmission time.

단계 S2314에서, 전체 셀에 대한 셀 모의 수신신호 생성 완료시까지 S2308단계 내지 S2312단계를 반복 수행한다.In step S2314, steps S2308 to S2312 are repeated until generation of cell simulated received signals for all cells is completed.

분할된 전체 셀에 대한 셀 모의 수신신호(b)가 모두 생성되면(S2314-네), 단계 S2316에서, 다수의 셀마다 생성되는 셀 모의 수신신호(b)들을 합하여 3D 표적 모델에 대한 모의 수신신호(c)를 생성할 수 있다. 이로써 임의 송출 시점(예를 들어, t(azi_idx=0))에서 3D 표적 모델에 대한 모의 수신신호(c)가 생성된다.When all cell simulated received signals (b) for all divided cells are generated (S2314-yes), in step S2316, the cell simulated received signals (b) generated for each multiple cell are added to create a simulated received signal for the 3D target model. (c) can be generated. As a result, a simulated reception signal (c) for the 3D target model is generated at a random transmission point (for example, t(azi_idx=0)).

단계 S2318에서, SAR 전체 경로에 대한 모의 수신신호 생성이 완료되었는지 판단한다. In step S2318, it is determined whether the generation of a simulated received signal for the entire SAR path has been completed.

SAR 전체 경로에 대한 모의 수신신호 생성이 완료될 때까지 SAR의 송출 파형 송신 시점(t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1))을 갱신하면서 3D 표적 모델에 대한 모의 수신신호(c)를 생성한다.While updating the SAR transmission waveform transmission point (t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1)) until the generation of simulated received signals for the entire SAR path is completed. Generate a simulated received signal (c) for the 3D target model.

SAR 전체 경로에 대한 모의 수신신호 생성 완료시(S2318-네), 모든 송출 시점(t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1))마다 생성된 3D 표적 모델에 대한 모의 수신신호(c)를 취합하여 SAR 모의 수신신호를 생성할 수 있다. Upon completion of generating a simulated reception signal for the entire SAR path (S2318-yes), the generated signal is generated at every transmission point (t(azi_idx=0), t(azi_idx=1), ??, t(azi_idx=N-1)). A SAR simulated received signal can be generated by collecting the simulated received signal (c) for the 3D target model.

상기 S2300단계 내지 S2320단계에서, SAR가 모의 이동 경로를 따라 이동하면서 3D 표적 모델에게 송출 주기마다 송출 파형을 송출한 상황을 모의하고, 생성된 모의 신호들을 취합하여 SAR 모의 수신신호를 생성할 수 있다.In steps S2300 to S2320, a situation in which the SAR transmits a transmission waveform to the 3D target model at each transmission cycle while moving along the simulated movement path is simulated, and the generated simulated signals are collected to generate a SAR simulated reception signal. .

도 24는 도 21에 도시된 자가 훈련데이터 생성(S2100) 단계에 따라 훈련데이터를 생성하는 일련의 동작을 보여주는 예시도이다.FIG. 24 is an example diagram showing a series of operations for generating training data according to the self-training data generation (S2100) step shown in FIG. 21.

도 24를 참조하면, 훈련데이터 생성(2100) 단계는, 관심 표적에 대한 3D 표적 모델(1)을 생성한다.Referring to FIG. 24, the training data generation step (2100) generates a 3D target model (1) for the target of interest.

SAR가 관심 표적을 바라보는 방향을 기준으로 상기 생성된 3D 표적 모델의 자세를 다양하게 설정하고(2), SAR가 바라보는 방향에서 3D 표적 모델을 2차원으로 투영하여 훈련용 고해상도 영상을 생성한다(3).Based on the direction in which the SAR is looking at the target of interest, the posture of the generated 3D target model is set in various ways (2), and the 3D target model is projected in two dimensions in the direction in which the SAR is looking to generate a high-resolution image for training. (3).

SAR의 송신신호가 3D 표적 모델에서 반사되어 SAR로 입력되는 수신신호를 모의하여 3D 표적 모델에 대한 SAR 모의 수신신호를 생성한다(4).The SAR's transmitted signal is reflected from the 3D target model and simulates the received signal input to the SAR to generate a SAR simulated received signal for the 3D target model (4).

SAR 모의 수신신호로부터 관심 표적에 대한 훈련용 저해상도 영상을 생성한다(5).Low-resolution images for training on targets of interest are generated from SAR simulated received signals (5).

상기의 과정에 따라 한 개의 훈련데이터쌍이 생성되며, 상기 과정을 거치면서 생성된 훈령용 고해상도 영상과 훈련용 저해상도 영상이 동일한 훈련데이터쌍을 구성한다(파란색 점선 참조).One training data pair is created according to the above process, and the high-resolution image for instruction and the low-resolution image for training generated through the above process constitute the same training data pair (see blue dotted line).

(2), (3), 및 (5)에서 다수의 예제 이미지를 보여주는 것은, 상기의 과정이 반복되면서 3D 표적 모델에 대한 다양한 자세의 훈련용 고해상도 영상과 훈련용 저해상도 영상이 생성되는 것을 설명하기 위함이고, 상기의 과정이 한번 실행될 때 다수의 훈련데이터쌍이 생성되는 것을 의미하지 않는다.Showing multiple example images in (2), (3), and (5) is to explain that the above process is repeated to generate high-resolution images for training and low-resolution images for training in various postures for the 3D target model. This does not mean that multiple training data pairs are created when the above process is executed once.

도 25는 도 21에 도시된 초고해상도 영상 생성용 딥러닝 모델 생성 및 딥러닝 모델 훈련(S2104) 단계를 자세히 도시한 흐름도이다.FIG. 25 is a flowchart detailing the deep learning model creation and deep learning model training (S2104) steps for ultra-high resolution image generation shown in FIG. 21.

도 25를 참조하면, 단계 S2500에서 Generator, Discriminator 및 Reference Model을 생성한다. Generator, Discriminator 및 Reference Model은 다계층 인공신경망 구조를 갖는 딥러닝 모델일 수 있다. Referring to FIG. 25, in step S2500, a generator, discriminator, and reference model are created. Generator, Discriminator, and Reference Model may be deep learning models with a multi-layer artificial neural network structure.

Generator는 입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer을 포함할 수 있다. The generator may include an upsampling layer and a convolutional layer that can increase the resolution of the input image and express image information.

Discriminator와 Reference Model은 입력된 영상에 대한 영상특징 추출이 능하도록 Convolutional Layer가 포함된 feature extractor를 포함할 수 있다. Discriminator와 Reference Model이 보유하는 각각의 feature extractor는 동일한 구조를 갖도록 설정하여, Discriminator의 훈련과정 중 Discriminator의 featuremap 정보가 Reference Model의 대응하는 featuremap 정보를 추종하도록 할 수 있다.The discriminator and reference model may include a feature extractor with a convolutional layer to enable extraction of image features for the input image. Each feature extractor owned by the discriminator and the reference model can be set to have the same structure so that the discriminator's featuremap information follows the corresponding featuremap information of the reference model during the discriminator's training process.

단계 S2502에서, Generator와 Discriminator의 인공신경망 파라메타를 훈련하기 위한 최적화 목적함수를 설정한다. 이 때, 상기 최적화 목적함수는 [수학식 4]를 사용할 수 있다.In step S2502, an optimization objective function for training the artificial neural network parameters of the generator and discriminator is set. At this time, [Equation 4] can be used as the optimization objective function.

단계 S2504에서, Reference Model의 인공신경망 파라메타를 훈련하기 위한 최적화 목적함수를 설정한다. 이 때, 상기 최적화 목적함수는 [수학식 3]을 사용할 수 있다.In step S2504, an optimization objective function for training the artificial neural network parameters of the reference model is set. At this time, [Equation 3] can be used as the optimization objective function.

단계 S2506에서, 데이터베이스부의 훈련용 고해상도 영상(IHR_tr)과 노이즈 영상(INoise)을 입력으로 하여 Reference Model을 훈련한다.In step S2506, the reference model is trained using the high-resolution training image (I HR_tr ) and the noise image (I Noise ) of the database unit as input.

훈련용 고해상도 영상(IHR_tr)은 데이터베이스부에서 관리하고 있는 데이터베이스에서 출력된 훈련데이터이다. 노이즈 영상은 훈련용 고해상도 영상과 동일한 해상도를 가지며, 각각의 픽셀값은 픽셀값이 가질 수 있는 범위 내에서 무작위적으로 설정하는 방식으로 쉽게 생성 가능하다.The high-resolution image for training (I HR_tr ) is training data output from the database managed by the database department. The noise image has the same resolution as the high-resolution image for training, and can be easily generated by randomly setting each pixel value within the range that the pixel value can have.

Reference Model의 훈련시 다수의 훈련용 고해상도 영상과 노이즈 영상을 번갈아가며 Reference Model로 입력시키고, 상기 S2504단계에서 설정한 Reference Model 훈련용 최적화 목적함수를 이용하여 Reference Model의 인공신경망 파라메타를 최적화한다. 최적화를 수행하면서, Reference Model은 고해상도 영상이 갖는 영상 특징을 학습하고, 해당 정보를 Convolutional Layer의 filter값으로 저장한다.When training the Reference Model, multiple high-resolution images for training and noise images are alternately input to the Reference Model, and the artificial neural network parameters of the Reference Model are optimized using the optimization objective function for training the Reference Model set in step S2504 above. While performing optimization, the Reference Model learns the image characteristics of high-resolution images and stores the information as the filter value of the convolutional layer.

단계 S2508에서, 데이터베이스부에서 훈련용 고해상도 영상을 출력한다.In step S2508, the database unit outputs a high-resolution image for training.

단계 S2510에서, Discriminator를 훈련한다. [수학식 4]를 참조하면, S2510단계에서 수행되는 Discriminator의 훈련은 를 최대화하는 Discriminator의 인공신경망 파라메타를 찾는 과정과, 를 최소화하는 과정을 포함할 수 있다.In step S2510, train the discriminator. Referring to [Equation 4], the training of the discriminator performed in step S2510 is The process of finding the artificial neural network parameters of the discriminator that maximizes , It may include a process of minimizing .

상기 를 최소화하는 과정은 입력된 훈련용 초고해상도 영상에 대해 Reference Model이 산출한 각각의 featuremap 값을 Discriminator에 존재하는 각각의 featuremap 값이 추종하는 방향으로 Discriminator의 인공신경망 파라메타가 갱신되는 과정을 포함할 수 있다.remind The process of minimizing may include updating the artificial neural network parameters of the discriminator in a direction in which each feature map value existing in the discriminator follows each feature map value calculated by the reference model for the input super-resolution image for training. there is.

단계 S2512에서, 데이터베이스부에서 훈련용 저해상도 영상을 출력한다.In step S2512, the database unit outputs a low-resolution image for training.

단계 S2514에서, Generator 및 Discriminator를 훈련한다. In step S2514, the generator and discriminator are trained.

[수학식 4]를 다시 참조하면, S2514단계에서 수행되는 Discriminator의 훈련은 를 최대화하는 Discriminator의 인공신경망 파라메타를 찾는 과정이다. Referring again to [Equation 4], the training of the discriminator performed in step S2514 is This is the process of finding the artificial neural network parameters of the discriminator that maximizes .

S1514단계에서 수행되는 Generator의 훈련은 를 최소화하는 Generator의 인공신경망 파라메타를 찾는 과정이다.Generator training performed in step S1514 is This is the process of finding the artificial neural network parameters of the generator that minimize .

단계 S2516에서, Generator 및 Discriminator의 훈련을 완료할 것인지 판단한다. 훈련의 종료는 통상의 딥러닝 모델에 대한 훈련 종료여부 판단 방법을 적용할 수 있다. 예를 들어, 미리 정해진 훈련 횟수에 도달하거나, Generator의 출력을 관찰하면서 상기 훈련의 종료여부를 결정할 수 있다.In step S2516, it is determined whether training of the generator and discriminator will be completed. To end training, a method for determining whether training has ended for a typical deep learning model can be applied. For example, it is possible to decide whether to end the training when a predetermined number of training times is reached or by observing the output of the generator.

도 26은 본 발명의 실시 예에 따른 훈련 완료된 Generator를 이용한, SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도이다.Figure 26 is a flowchart showing a method for generating a super-resolution image of a target of interest in a SAR image using a trained generator according to an embodiment of the present invention.

도 26을 참조하면, S2600단계 내지 S2604단계는 도 21 내지 도 25를 참조하여 설명하였으므로 자세한 설명은 생략한다.Referring to FIG. 26, steps S2600 to S2604 have been described with reference to FIGS. 21 to 25, so detailed description will be omitted.

단계 S2606에서, 훈련 완료된 Generator를 이용하여 실제 관심 표적 영상에 대해 초고해상도 영상을 생성한다.In step S2606, a super-resolution image is generated for the actual target image of interest using the trained generator.

S2604단계에서, Generator는 입력된 훈련용 저해상도 영상에 대해 초고해상도 영상을 생성하도록 훈련되었다. S2606단계에서 입력되는 관심 표적 영상은 실제 SAR에서 획득된 관심 표적 영상으로, 상기 S2604단계에서 훈련데이터로 사용된 저해상도 영상과 유사한 영상 특징을 보유하고 있다. 따라서, Generator는 상기의 실제 관심 표적 영상에 대해, 훈련을 통하여 최적화된 인공신경망 파라메타를 적용하여 초고해상도 영상을 생성할 수 있다.In step S2604, the generator was trained to generate super-resolution images for the input low-resolution images for training. The target-of-interest image input in step S2606 is a target-of-interest image obtained from an actual SAR, and has image features similar to the low-resolution image used as training data in step S2604. Therefore, the generator can generate a super-resolution image by applying artificial neural network parameters optimized through training to the actual target image of interest.

도 27은 본 발명의 실시 예에 따른 실제 관심 표적 영상과 표적 식별 정보를 사용한, SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 방법을 도시한 흐름도이다.Figure 27 is a flowchart showing a method for generating a super-resolution image of a target of interest in a SAR image using an actual target of interest image and target identification information according to an embodiment of the present invention.

도 27을 참조하면, S2700단계 내지 S2704단계는 도 21 내지 도 25를 참조하여 설명하였으므로 자세한 설명은 생략한다.Referring to FIG. 27, steps S2700 to S2704 have been described with reference to FIGS. 21 to 25, so detailed description will be omitted.

단계 S2706에서, 실제 관심 표적 영상과 표적 식별 정보를 수신한다.In step S2706, an actual target image of interest and target identification information are received.

단계 S2708에서, 수신된 표적 식별 정보와 일치하는 표적 정보를 갖는 딕셔너리를 데이터베이스에서 선택한다.In step S2708, a dictionary with target information matching the received target identification information is selected from the database.

단계 S2710에서, 상기 선택된 딕셔너리의 Key 값과 실제 관심 표적 영상과의 유사성을 확인 후, 초고해상도 영상을 출력한다.In step S2710, after confirming the similarity between the Key value of the selected dictionary and the actual image of the target of interest, a super-resolution image is output.

딕셔너리의 Key 값은 훈련용 저해상도 영상이므로, 해당 딕셔너리를 구성하는 모든 훈련용 저해상도 영상과 실제 관심 표적 영상과의 유사성을 확인 후, 유사성이 가장 높은 Key 값에 대응하는 Value 값을 출력한다. Key 값에 대응하는 Value 값은 훈련용 저해상도 영상에 대응하는 훈련용 고해상도 영상이므로, 상기 출력된 훈련용 고해상도 영상은 실제 관심 표적 영상에 대한 초고해상도 영상으로 선택할 수 있다.Since the key value of the dictionary is a low-resolution training image, the similarity between all low-resolution training images constituting the dictionary and the actual target image of interest is checked, and the value corresponding to the key value with the highest similarity is output. Since the Value value corresponding to the Key value is a high-resolution image for training that corresponds to a low-resolution image for training, the output high-resolution image for training can be selected as a super-resolution image for the actual target image of interest.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Meanwhile, although the preferred embodiments have been described and illustrated to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not deviate from the scope of the technical idea. Without limitation, those skilled in the art will understand that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications and equivalents should be considered to fall within the scope of the present invention. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.

10: SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치 100: 자가 훈련데이터 생성부
110: 3D 모델링부 120: 모델 자세 설정부
130: 훈련용 고해상도 영상 생성부 140: SAR 모의 수신신호 생성부
150: 훈련용 저해상도 영상 생성부
141: 파라메타 설정부 143: 파형 생성부
145: 셀 분할부 147: 산출부
149: 모의 신호부
149a: 특정 포인트 모의신호 생성부 149b: 셀 모의신호 생성부
149c: 3D 모델 모의신호 생성부 149d: 취합부
200: 데이터베이스부
300: 초고해상도 영상 생성 딥러닝 모델 훈련부
310: Generator 320: Discriminator
330: 최적화부 331: Reference Model
332: 최적화 계산 331-1: Reference Model 최적화부
20: SAR 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치
400: 초고해상도 영상 생성부 410: Generator
420: 데이터베이스 기반 초고해상도 영상 생성부
10: Device for generating ultra-high resolution images for targets of interest in SAR images 100: Self-training data generation unit
110: 3D modeling unit 120: Model posture setting unit
130: High-resolution image generator for training 140: SAR simulated reception signal generator
150: Low-resolution image generation unit for training
141: Parameter setting unit 143: Waveform generation unit
145: cell division unit 147: calculation unit
149: Simulated signal unit
149a: Specific point simulation signal generation unit 149b: Cell simulation signal generation unit
149c: 3D model simulated signal generation unit 149d: Gathering unit
200: Database unit
300: Ultra-high-resolution image generation deep learning model training department
310: Generator 320: Discriminator
330: Optimization unit 331: Reference Model
332: Optimization calculation 331-1: Reference Model optimization unit
20: Device for generating super-resolution images of targets of interest in SAR images
400: Ultra-high resolution image generator 410: Generator
420: Database-based ultra-high-resolution image generation unit

Claims (31)

합성개구레이더(SAR, Synthetic Aperture Radar) 영상에서 관심 표적에 대한 초고해상도 영상 생성에 있어서,
관심 표적에 대한 고해상도(HR, High Resolution) 영상과 저해상도(LR, Low Resolution) 영상으로 구성된 훈련데이터 생성 단계;
상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하는 단계;
SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 단계;
를 포함하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.
In generating super-resolution images of targets of interest from Synthetic Aperture Radar (SAR) images,
A training data generation step consisting of high-resolution (HR, High Resolution) images and low-resolution (LR, Low Resolution) images of the target of interest;
Creating a database containing the generated training data as a component;
Creating a deep learning model for generating a super-resolution (SR, Super-Resolution) image for a target of interest in a SAR image, and training the deep learning model using training data in the database;
A method of generating a super-resolution image of a target of interest in a SAR image including.
제1항에 있어서,
상기 관심 표적에 대한 고해상도 영상과 저해상도 영상으로 구성된 훈련데이터 생성 단계는,
(A) 관심 표적에 대한 3D 표적 모델을 생성하는 단계;
(B) SAR가 관심 표적을 바라보는 방향을 기준으로 3D 표적 모델의 자세를 설정하는 단계;
(C) 상기 (B) 단계에서 자세가 설정된 3D 표적 모델을 고해상도의 2D 영상으로 변환하여 상기 표적 모델에 대한 훈련용 고해상도 영상을 생성하는 단계;
(D) 상기 3D 표적 모델로부터 일련의 신호처리 과정을 통해 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 단계;
(E) 상기 (C) 단계에서 생성한 훈련용 고해상도 영상과 상기 (D) 단계에서 생성한 훈련용 저해상도 영상으로 구성된 훈련데이터쌍을 생성하는 단계;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.
According to paragraph 1,
The training data generation step consisting of high-resolution and low-resolution images for the target of interest is,
(A) generating a 3D target model for the target of interest;
(B) setting the posture of the 3D target model based on the direction in which the SAR faces the target of interest;
(C) generating a high-resolution image for training for the target model by converting the 3D target model whose posture is set in step (B) into a high-resolution 2D image;
(D) generating a low-resolution image for training on a target of interest from the 3D target model through a series of signal processing processes;
(E) generating a training data pair consisting of the high-resolution image for training generated in step (C) and the low-resolution image for training generated in step (D);
A method of generating a super-resolution image for a target of interest in a SAR image, comprising:
제2항에 있어서,
상기 (D) 단계는,
(D1) 상기 SAR의 송신신호가 3D 표적 모델에서 반사되어 상기 SAR로 입력되는 수신신호를 모의하여 상기 3D 표적 모델에 대한 SAR 모의 수신신호를 생성하는 단계;와
(D2) 상기 SAR 모의 수신신호로부터, SAR Processing을 수행하여 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 단계;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.

According to paragraph 2,
In step (D),
(D1) generating a SAR simulated received signal for the 3D target model by simulating a received signal input to the SAR by reflecting the transmitted signal of the SAR from the 3D target model;
(D2) performing SAR processing from the SAR simulated reception signal to generate a low-resolution image for training on the target of interest;
A method of generating a super-resolution image for a target of interest in a SAR image, comprising:

제3항에 있어서,
상기 (D1) 단계는,
(D1-1) 상기 SAR의 송신신호의 송출 파형을 생성하는 단계;
(D1-2) 상기 (A) 단계에서 생성된 3D 표적 모델을 상기 SAR의 위치에서 투영하여 다수의 셀로 분할하는 단계;
(D1-3) 상기 분할된 다수의 셀 별 전자파 반사도와, 상기 SAR 와 셀 간의 거리인 셀 거리를 송출 시점마다 산출하는 단계;
(D1-4) 상기 다수의 셀 별로 산출된 전자파 반사도와 셀 거리와 송출 파형을 이용하여 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 단계;
를 포함하고,
상기 (D1-4) 단계는,
상기 SAR의 전체 모의 이동 경로에 대한 모의 수신신호를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.

According to paragraph 3,
The step (D1) is,
(D1-1) generating a transmission waveform of the SAR transmission signal;
(D1-2) projecting the 3D target model generated in step (A) at the location of the SAR and dividing it into a plurality of cells;
(D1-3) calculating the electromagnetic wave reflectivity for each of the divided cells and the cell distance, which is the distance between the SAR and the cell, at each transmission time;
(D1-4) generating a simulated received signal for the 3D target model using the electromagnetic wave reflectivity, cell distance, and transmission waveform calculated for each of the plurality of cells;
Including,
The step (D1-4) is,
A method of generating a super-resolution image for a target of interest in a SAR image, characterized in that generating a simulated received signal for the entire simulated movement path of the SAR.

제4항에 있어서,
상기 (D1-3) 단계는,
셀에 위치하는 다수의 특정 포인트와 상기 SAR의 안테나 중심까지의 거리에 대한 변화량을 이용하여 셀의 반사도를 산출하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.
According to paragraph 4,
The step (D1-3) is,
A method of generating a super-resolution image for a target of interest in a SAR image, characterized in that the reflectivity of the cell is calculated using the amount of change in the distance between a plurality of specific points located in the cell and the center of the SAR antenna.
제5항에 있어서,
상기 (D1-3) 단계는, 다음의 식을 이용하여 셀의 반사도를 산출하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법:

여기서, Reflectivity는 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들 중 하나(point_K)에서의 반사도, 는 양수인 임의의 상수, point_K0는 상기 다수의 특정 포인트들 중에서 선택된 point_K와 동일한 포인트를 의미하고, point_K1 및 point_K2는 특정 포인트(point_K)의 주변 포인트들, d_cell은 SAR와 특정 포인트 또는 주변 포인트들 간의 거리임.
According to clause 5,
In the step (D1-3), a super-resolution image generation method for a target of interest in a SAR image is characterized in that the reflectivity of the cell is calculated using the following equation:

Here, Reflectivity is the reflectivity at one of a number of specific points (point_K) located in the cell corresponding to (i, j) at a random transmission point, is a positive arbitrary constant, point_K0 means the same point as point_K selected from among the plurality of specific points, point_K1 and point_K2 are the surrounding points of the specific point (point_K), d_cell is the distance between SAR and the specific point or surrounding points lim.
제4항에 있어서,
상기 (D1-4) 단계는,
(D1-4-1) 셀에 위치하는 다수의 특정 포인트들 각각에 대해 임의의 송출 시점에서 모의 수신신호(이하, '특정 포인트 모의 수신신호'라 한다)를 생성하는 단계;
(D1-4-2) 상기 (D1-4-1) 단계에서 생성된 특정 포인트 모의 수신신호들을 합하여 셀의 모의 수신신호(이하, '셀 모의 수신신호'라 한다)를 생성하는 단계;
(D1-4-3) 상기 (D1-4-2) 단계에서 다수의 셀마다 생성되는 셀 모의 수신신호들을 합하여 임의의 송출 시점에서 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 단계;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.
According to paragraph 4,
The step (D1-4) is,
(D1-4-1) generating a simulated reception signal (hereinafter referred to as 'specific point simulated reception signal') at a random transmission point for each of a plurality of specific points located in the cell;
(D1-4-2) generating a simulated received signal of a cell (hereinafter referred to as 'cell simulated received signal') by adding the specific point simulated received signals generated in step (D1-4-1);
(D1-4-3) generating a simulated received signal for the 3D target model at a random transmission point by adding the cell simulated received signals generated for each plurality of cells in step (D1-4-2);
A method of generating a super-resolution image for a target of interest in a SAR image, comprising:
제7항에 있어서,
상기 (D1-4-1) 단계는, 다음의 식을 이용하여 셀에 위치하는 다수의 특정 포인트들 중 하나에서의 모의 수신신호를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법:

여기서, rx_timed_cell은 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 모의 수신신호, Reflectivity는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 전자파 반사도, d_cell은 SAR의 안테나 중심에서 i, j번째 셀의 특정 포인트(point_K) 또는 주변 포인트들 간의 거리를 의미하고, t는 시간, pi는 원주율, f0는 SAR 송신신호의 중심주파수, c는 빛의 속도, Kr은 chirp 파형내 단위시간당 주파수의 변화량을 나타내는 chirp rate로서 단위는 Hz/sec, exp는 exp(jХArg) = cos(Arg) + jХsin(Arg)로 표현되는 오일러의 공식(Euler's formula)을 의미함. 
또한, 송신신호의 송출 파형은 pulse_shape(t) * ×exp(j * ×pi * ×Kr * ×t^2)로 가정하고, pulse_shape(t)는 송출파형의 포락선(envelope) 함수로서 다음과 같은 값을 가짐.



In clause 7,
The step (D1-4-1) is a super-resolution image of a target of interest in a SAR image, characterized in that it generates a simulated received signal at one of a plurality of specific points located in the cell using the following equation: How to create:

Here, rx_timed_cell is a simulated reception signal at one of a number of specific points (A0 ~ D0) (point_K, K = A0, B0, C0, D0) located in the cell corresponding to (i, j) at a random transmission point. , Reflectivity is the electromagnetic wave reflectivity at one (point_K, K=A0, B0, C0, D0) of multiple specific points (A0~D0), d_cell is a specific point of the i and jth cells at the antenna center of the SAR (point_K ) or means the distance between surrounding points, t is time, pi is the pi, f0 is the center frequency of the SAR transmission signal, c is the speed of light, and Kr is the chirp rate, which represents the change in frequency per unit time within the chirp waveform. means Hz/sec, exp means Euler's formula expressed as exp(jХArg) = cos(Arg) + jХsin(Arg) .
In addition, the transmission waveform of the transmission signal is assumed to be pulse_shape(t) * × exp(j * × pi * × Kr * × t^2), and pulse_shape(t) is the envelope function of the transmission waveform as follows. Has value.



제2항에 있어서,
상기 (E) 단계 이후,
(F) 상기 (B) 단계에서 3D 표적 모델의 자세를 변경하면서, 상기 (B) 단계에서 (E) 단계를 반복하여 실행하면서 특정 관심 표적에 대한 다수의 훈련용 저해상도 영상과 훈련용 고해상도 영상을 생성하는 단계;
(G) 다수의 신규 관심 표적에 대해 상기 (A) 단계부터 상기 (F) 단계를 반복적으로 수행하여 다수의 신규 관심 표적에 대한 다수의 훈련용 저해상도 영상과 훈련용 고해상도 영상을 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.

According to paragraph 2,
After step (E) above,
(F) While changing the posture of the 3D target model in step (B), steps (B) to (E) are repeatedly executed to generate a number of low-resolution images for training and high-resolution images for training for a specific target of interest. generating step;
(G) generating a plurality of low-resolution images for training and high-resolution images for training for a plurality of new targets of interest by repeatedly performing steps (A) to (F) for a plurality of new targets of interest;
A method of generating a super-resolution image for a target of interest in a SAR image, further comprising:

제1항에 있어서,
상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하는 단계는,
특정 관심 표적에 대해 생성된 훈련용 저해상도 영상과 훈련용 고해상도 영상에 대해, 훈련용 저해상도 영상을 Key로 설정하고, 그에 대응하는 훈련용 고해상도 영상을 Value로 설정하는 딕셔너리를 생성하는 단계;
다수의 관심 표적별로 상기 딕셔너리를 생성하고, 생성된 딕셔너리마다 표적 식별자를 할당하여 다음과 같은 구조의 데이터베이스를 구성하는 단계;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법:
데이터베이스 시작 [
표적_A: 딕셔너리
표적_B: 딕셔너리
표적_C: 딕셔너리
] 데이터베이스 종료
여기서, 딕셔너리의 구조는 다음과 같음.
{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상,
key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상,
key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상}

According to paragraph 1,
The step of creating a database containing the generated training data as a component is,
For low-resolution images for training and high-resolution images for training generated for a specific target of interest, creating a dictionary that sets the low-resolution image for training as a Key and sets the corresponding high-resolution image for training as a Value;
Constructing a database with the following structure by generating the dictionary for each target of interest and assigning a target identifier to each generated dictionary;
A method for generating a super-resolution image for a target of interest in a SAR image, comprising:
Start database [
Target_A: Dictionary
Target_B: Dictionary
Target_C: Dictionary
] Database shutdown
Here, the structure of the dictionary is as follows.
{key: low-resolution image for training, value: high-resolution image for training,
key: low-resolution image for training, value: high-resolution image for training,
key: low-resolution image for training, value: high-resolution image for training}

제1항에 있어서,
SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 단계는,
(A) 입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer가 포함된 다계층의 인공신경망 구조를 갖는 Generator를 생성하는 단계;
(B) 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는, 다계층의 인공신경망 구조를 갖는 Reference Model을 생성하는 단계;
(C) 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 상기 Reference Model을 구성하는 feature extractor와 동일한 구조의 feature extractor를 포함하는, 다계층의 인공신경망 구조를 갖는 Discriminator를 생성하는 단계;
(D) Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위한 최적화 목적함수를 설정하는 단계;
(E) 상기 (B) 단계에서 생성한 Reference Model의 인공신경망 파라메타를 최적화하기 위한 Reference Model 최적화 목적함수를 설정하는 단계;
(F) 데이터베이스부에서 출력된 훈련용 고해상도 영상과 노이즈 영상을 Reference Model의 입력데이터로 하여 Reference Model의 인공신경망 파라메타를 최적화하는 단계;
(G) 데이터베이스부에서 훈련용 고해상도 영상을 출력하여 Discriminator의 인공신경망 파라메타를 갱신하는 단계;
(H) 데이터베이스부에서 훈련용 저해상도 영상을 출력하여 Generator와 Discriminator의 인공신경망 파라메타를 갱신하는 단계;
(I) Generator 및 Discriminator의 훈련완료 여부를 판단하고, 훈련완료 상태에 도달시까지 상기 (G) 단계 내지 (H) 단계를 반복 수행하는 단계;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.

According to paragraph 1,
The step of creating a deep learning model for generating a super-resolution (SR) image for a target of interest in a SAR image and training the deep learning model using training data in the database,
(A) Creating a generator with a multi-layer artificial neural network structure including an upsampling layer and a convolutional layer capable of increasing the resolution of the input image and expressing image information;
(B) generating a reference model with a multi-layer artificial neural network structure including at least one feature extractor including a convolutional layer to extract image features for the input image data;
(C) generating a discriminator with a multi-layer artificial neural network structure, including a feature extractor with the same structure as the feature extractor constituting the Reference Model, in order to extract image features for the input image data;
(D) setting an optimization objective function to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator;
(E) setting a reference model optimization objective function to optimize the artificial neural network parameters of the reference model generated in step (B);
(F) optimizing the artificial neural network parameters of the Reference Model using the high-resolution training image and noise image output from the database unit as input data of the Reference Model;
(G) outputting high-resolution images for training from the database unit to update the artificial neural network parameters of the discriminator;
(H) outputting low-resolution images for training from the database unit to update the artificial neural network parameters of the generator and discriminator;
(I) determining whether the training of the generator and discriminator has been completed and repeating steps (G) to (H) until the training is completed;
A method of generating a super-resolution image for a target of interest in a SAR image, comprising:

제11항에 있어서,
상기 (D) 단계는,
다음의 식을 이용하여 Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위한 최적화 목적함수를 설정하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법:
Discriminator를 위한 최적화 목적함수

여기서, IHR_tr은 훈련용 고해상도 영상, ILR_tr은 훈련용 저해상도 영상, paramsD는 Discriminator를 구성하는 인공신경망 파라메타, paramsG는 Generator를 구성하는 인공신경망 파라메타, DparamsD(I)는 paramsD로 명명되는 파라메타값을 갖는 Discriminator의 입력 I에 대한 출력값, GparamsG(I)는 paramsG로 명명되는 파라메타값을 갖는 Generator의 입력 I에 대한 출력값, E[ ]는 기대값, N_featuremap은 Discriminator내 모든 Convolutional Layer에 포함된 featuremap의 총 개수, featuremap_Discriminator(n)은 Discriminator에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이고, featuremap_ReferenceModel(n)은 Reference Model에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap임.

Generator를 위한 최적화 목적함수


According to clause 11,
In step (D),
A method of generating a super-resolution image for a target of interest in a SAR image, characterized by setting an optimization objective function to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator using the following equation:
Optimization objective function for discriminator

Here, I HR_tr is a high-resolution image for training, I LR_tr is a low-resolution image for training, paramsD is an artificial neural network parameter constituting the discriminator, paramsG is an artificial neural network parameter constituting the generator, and D paramsD (I) is a parameter value named paramsD. is the output value for the input I of the Discriminator, G paramsG (I) is the output value for the input I of the Generator with the parameter value named paramsG, E[ ] is the expected value, and N_featuremap is the feature map included in all convolutional layers in the Discriminator. The total number of, featuremap_Discriminator(n) is the nth featuremap among each featuremap existing in the Discriminator, and featuremap_ReferenceModel(n) is the nth featuremap among each featuremap existing in the Reference Model.

Optimization objective function for generator


제11항에 있어서,
상기 (E) 단계는,
다음의 최적화 목적함수를 사용하여 상기 Reference Model을 훈련시키는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법:
Reference Model을 위한 최적화 목적함수

여기서, 은 훈련용 초고해상도 영상, 는 노이즈 영상, paramsR은 Reference Model을 구성하는 인공신경망 파라메타, RparamsR(I)은 paramsR로 명명되는 파라메타값을 갖는 Reference Model의 입력 I에 대한 출력값임.

According to clause 11,
In step (E),
A method of generating a super-resolution image for a target of interest in a SAR image, characterized by training the Reference Model using the following optimization objective function:
Optimization objective function for reference model

here, is a super-resolution video for training; is the noise image, paramsR is the artificial neural network parameter constituting the Reference Model, and R paramsR (I) is the output value for the input I of the Reference Model with the parameter value named paramsR.

제11항에 있어서,
(J) 상기 (I) 단계 이후, 훈련이 완료된 Generator의 입력으로 실제 SAR 영상내 관심 표적 영상을 입력하고, 그에 대한 Generator 출력을 입력된 표적 영상에 대한 초고해상도 영상으로 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.
According to clause 11,
(J) after the step (I), inputting a target image of interest in the actual SAR image as an input to the trained generator, and outputting the generator output thereto as a super-resolution image for the input target image;
A method of generating a super-resolution image for a target of interest in a SAR image, further comprising:
제11항에 있어서,
(J) 상기 (I) 단계 이후, 실제 SAR 영상내 관심 표적 영상과 표적 식별 정보를 수신하는 단계;
(K) 상기 표적 식별 정보를 이용하여 데이터베이스에서 상기 표적 식별 정보에 해당하는 딕셔너리를 선택하는 단계;
(L) 상기 선택된 딕셔너리의 Key 값에 저장된 훈련용 저해상도 영상과 상기 (J) 단계에서 수신한 관심 표적 영상과의 유사성을 확인하여, 유사성이 가장 높게 산출되는 Key 값에 대응하는 Value 데이터를 (J) 단계에서 수신한 관심 표적 영상에 대한 초고해상도 영상으로 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 방법.

According to clause 11,
(J) after step (I), receiving a target image of interest and target identification information in the actual SAR image;
(K) selecting a dictionary corresponding to the target identification information from a database using the target identification information;
(L) Check the similarity between the low-resolution image for training stored in the Key value of the selected dictionary and the target image of interest received in step (J), and save Value data corresponding to the Key value with the highest similarity (J). ) step of outputting the image of the target of interest received in step as a super-resolution image;
A method of generating a super-resolution image for a target of interest in a SAR image, further comprising:

합성개구레이더(SAR, Synthetic Aperture Radar) 영상에서 관심 표적에 대한 초고해상도 영상 생성 장치에 있어서,
관심 표적에 대한 고해상도(HR, High Resolution) 영상과 저해상도(LR, Low Resolution) 영상으로 구성된 훈련데이터를 생성하는 자가 훈련데이터 생성부;
상기 생성된 훈련데이터를 구성요소로 하는 데이터베이스를 생성하고 관리하는 데이터베이스부;
SAR 영상내 관심 표적에 대한 초고해상도(SR, Super-Resolution) 영상 생성용 딥러닝 모델을 생성하고, 상기 데이터베이스내 훈련데이터를 이용하여 상기 딥러닝 모델을 훈련시키는 초고해상도 영상 생성 딥러닝 모델 훈련부;
를 포함하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.
In a device for generating a super-resolution image of a target of interest in a Synthetic Aperture Radar (SAR) image,
A self-training data generator that generates training data consisting of a high-resolution (HR) image and a low-resolution (LR) image for the target of interest;
a database unit that creates and manages a database containing the generated training data as a component;
A super-resolution image generation deep learning model training unit that generates a deep learning model for generating super-resolution (Super-Resolution) images for targets of interest in the SAR image, and trains the deep learning model using training data in the database;
A device for generating ultra-high resolution images of targets of interest in SAR images, including a device.
제16항에 있어서,
상기 자가 훈련데이터 생성부는,
관심 표적에 대한 3D 표적 모델을 생성하는 3D 모델링부;
SAR가 관심 표적을 바라보는 방향을 기준으로 다양한 방향으로 3D 표적 모델의 자세를 설정하는 모델 자세 설정부;
상기 자세가 설정된 3D 표적 모델을 고해상도의 2D 영상으로 변환하여 상기 표적 모델에 대한 훈련용 고해상도 영상을 생성하는 훈련용 고해상도 영상 생성부;
상기 SAR의 송신신호가 3D 표적 모델에서 반사되어 상기 SAR로 입력되는 수신신호를 모의하여 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 SAR 모의 수신신호 생성부;
상기 생성된 SAR 모의 수신신호로부터, SAR Processing을 수행하여 관심 표적에 대한 훈련용 저해상도 영상을 생성하는 훈련용 저해상도 영상 생성부;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 16,
The self-training data generator,
A 3D modeling unit that generates a 3D target model for the target of interest;
a model pose setting unit that sets the pose of the 3D target model in various directions based on the direction in which the SAR looks at the target of interest;
a high-resolution image generator for training that converts the 3D target model with the set posture into a high-resolution 2D image and generates a high-resolution image for training for the target model;
A SAR simulated received signal generator that generates a simulated received signal for the 3D target model by simulating a received signal input to the SAR by reflecting the transmitted signal of the SAR from the 3D target model;
a low-resolution image generator for training that performs SAR processing from the generated SAR simulated reception signal to generate a low-resolution image for training on a target of interest;
A super-resolution image generating device for a target of interest in a SAR image, comprising:

제17항에 있어서,
상기 SAR 모의 수신신호 생성부는,
상기 SAR의 송신신호의 송출 파형을 생성하는 파형 생성부;
상기 3D 모델링부에서 생성된 3D 표적 모델을 상기 SAR의 위치에서 투영하여 다수의 셀로 분할하는 셀 분할부;
상기 분할된 다수의 셀 별 전자파 반사도와, 상기 SAR와 셀 간의 거리인 셀 거리를 송출 시점마다 산출하는 산출부;
상기 다수의 셀 별로 산출된 전자파 반사도와 셀 거리와 송출 파형을 이용하여 상기 3D 표적 모델에 대한 SAR 모의 수신신호를 생성하는 모의 신호부;
를 포함하고,
상기 모의 신호부는,
상기 SAR의 전체 모의 이동 경로에 대한 SAR 모의 수신신호를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 17,
The SAR simulated received signal generator,
a waveform generator that generates a transmission waveform of the SAR transmission signal;
a cell division unit that projects the 3D target model generated by the 3D modeling unit at the location of the SAR and divides it into a plurality of cells;
a calculation unit that calculates electromagnetic wave reflectivity for each of the plurality of divided cells and a cell distance, which is the distance between the SAR and the cell, at each transmission time;
a simulation signal unit that generates a SAR simulated reception signal for the 3D target model using the electromagnetic wave reflectivity, cell distance, and transmission waveform calculated for each of the plurality of cells;
Including,
The simulated signal unit,
A super-resolution image generating device for a target of interest in a SAR image, characterized in that it generates a SAR simulated reception signal for the entire simulated movement path of the SAR.

제18항에 있어서,
상기 산출부는,
셀에 위치하는 다수의 특정 포인트와 상기 SAR의 안테나 중심까지의 거리에 대한 변화량을 이용하여 셀의 반사도를 산출하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 18,
The calculation unit,
A super-resolution image generating device for a target of interest in a SAR image, characterized in that the reflectivity of the cell is calculated using a change in the distance between a plurality of specific points located in the cell and the center of the SAR antenna.

제19항에 있어서,
상기 산출부는,
다음의 식을 이용하여 셀의 반사도를 산출하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치:

여기서, Reflectivity는 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들 중 하나(point_K)에서의 반사도, 는 양수인 임의의 상수, point_K0는 상기 다수의 특정 포인트들 중에서 선택된 point_K와 동일한 포인트를 의미하고, point_K1 및 point_K2는 특정 포인트(point_K)의 주변 포인트들, d_cell은 SAR와 특정 포인트 또는 주변 포인트들 간의 거리임.

According to clause 19,
The calculation unit,
A super-resolution image generating device for a target of interest in a SAR image, characterized in that the reflectivity of the cell is calculated using the following equation:

Here, Reflectivity is the reflectivity at one of a number of specific points (point_K) located in the cell corresponding to (i, j) at a random transmission point, is a positive arbitrary constant, point_K0 means the same point as point_K selected from among the plurality of specific points, point_K1 and point_K2 are the surrounding points of the specific point (point_K), d_cell is the distance between SAR and the specific point or surrounding points lim.

제18항에 있어서,
상기 모의 신호부는,
셀에 위치하는 다수의 특정 포인트들 각각에 대해 임의의 송출 시점에서 모의 수신신호(이하, '특정 포인트 모의 수신신호'라 한다)를 생성하는 특정 포인트 모의신호 생성부;
상기 생성된 특정 포인트 모의 수신신호들을 합하여 셀의 모의 수신신호(이하, '셀 모의 수신신호'라 한다)를 생성하는 셀 모의신호 생성부;
상기 다수의 셀마다 생성되는 셀 모의 수신신호들을 합하여 임의의 송출 시점에서 상기 3D 표적 모델에 대한 모의 수신신호를 생성하는 3D 표적 모델 모의신호 생성부;
를 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 18,
The simulated signal unit,
a specific point simulated signal generator that generates a simulated received signal (hereinafter referred to as a 'specific point simulated received signal') at a random transmission point for each of a plurality of specific points located in the cell;
a cell simulated signal generator that generates a cell simulated received signal (hereinafter referred to as a 'cell simulated received signal') by combining the generated specific point simulated received signals;
a 3D target model simulated signal generator that generates a simulated received signal for the 3D target model at a random transmission point by combining cell simulated received signals generated for each of the plurality of cells;
A super-resolution image generating device for a target of interest in a SAR image, comprising:

제21항에 있어서,
상기 특정 포인트 모의신호 생성부는,
다음의 식을 이용하여 셀에 위치하는 다수의 특정 포인트들 중 하나에서의 모의 수신신호를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치:


여기서, rx_timed_cell은 임의 송출 시점에서 (i, j)에 해당하는 셀에 위치하는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 모의 수신신호, Reflectivity는 다수의 특정 포인트들(A0~D0) 중 하나(point_K, K=A0, B0, C0, D0)에서의 전자파 반사도, d_cell은 SAR의 안테나 중심에서 i, j번째 셀의 특정 포인트(point_K) 또는 주변 포인트들 간의 거리를 의미하고, t는 시간, pi는 원주율, f0는 SAR 송신신호의 중심주파수, c는 빛의 속도, Kr은 chirp 파형내 단위시간당 주파수의 변화량을 나타내는 chirp rate로서 단위는 Hz/sec, exp는 exp(jХArg) = cos(Arg) + jХsin(Arg)로 표현되는 오일러의 공식(Euler's formula)을 의미함. 
또한, 송신신호의 송출 파형은 pulse_shape(t) * ×exp(j * ×pi * ×Kr * ×t^2)로 가정하고, pulse_shape(t)는 송출파형의 포락선(envelope) 함수로서 다음과 같은 값을 가짐.



According to clause 21,
The specific point simulation signal generator,
A super-resolution image generating device for a target of interest in a SAR image, characterized in that it generates a simulated received signal at one of a plurality of specific points located in the cell using the following equation:


Here, rx_timed_cell is a simulated reception signal at one of a number of specific points (A0 ~ D0) (point_K, K = A0, B0, C0, D0) located in the cell corresponding to (i, j) at a random transmission point. , Reflectivity is the electromagnetic wave reflectivity at one (point_K, K=A0, B0, C0, D0) of multiple specific points (A0~D0), d_cell is a specific point of the i and jth cells at the antenna center of the SAR (point_K ) or means the distance between surrounding points, t is time, pi is the pi, f0 is the center frequency of the SAR transmission signal, c is the speed of light, and Kr is the chirp rate, which represents the change in frequency per unit time within the chirp waveform. means Hz/sec, exp means Euler's formula expressed as exp(jХArg) = cos(Arg) + jХsin(Arg) .
In addition, the transmission waveform of the transmission signal is assumed to be pulse_shape(t) * × exp(j * × pi * × Kr * × t^2), and pulse_shape(t) is the envelope function of the transmission waveform as follows. Has value.



제18항에 있어서,
상기 모델 자세 설정부에 의해 자세가 조정될 때마다 하나의 훈련데이터가 생성되고, 자세를 조정하면서 상기 관심 표적에 대해 다수의 훈련데이터를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 18,
A super-resolution image of a target of interest in a SAR image, characterized in that one training data is generated each time the posture is adjusted by the model posture setting unit, and a plurality of training data are generated for the target of interest while adjusting the posture. Generating device.

제23항에 있어서,
상기 3D 모델링부는 다수의 관심 표적들에 대한 모델을 생성하고, 각 관심 표적에 대해 다수의 훈련데이터를 생성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 23,
The 3D modeling unit generates models for multiple targets of interest and generates multiple training data for each target of interest.

제16항에 있어서,
상기 데이터베이스부는,
특정 관심 표적에 대해 생성된 훈련용 저해상도 영상과 훈련용 고해상도 영상에 대해, 훈련용 저해상도 영상을 Key로 설정하고, 그에 대응하는 훈련용 고해상도 영상을 Value로 설정하는 딕셔너리를 생성하고;
다수의 관심 표적별로 상기 딕셔너리를 생성하고, 생성된 딕셔너리마다 표적 식별자를 할당하여 다음과 같은 구조의 데이터베이스를 구성하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치:
데이터베이스 시작 [
표적_A: 딕셔너리
표적_B: 딕셔너리
표적_C: 딕셔너리
] 데이터베이스 종료
여기서, 딕셔너리의 구조는 다음과 같음.
{key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상,
key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상,
key: 훈련용 저해상도 영상, value: 훈련용 고해상도 영상}

According to clause 16,
The database part,
For low-resolution images for training and high-resolution images for training generated for a specific target of interest, a dictionary is created that sets the low-resolution image for training as Key and sets the corresponding high-resolution image for training as Value;
A super-resolution image generating device for a target of interest in a SAR image, characterized in that the dictionary is generated for each target of interest, and a target identifier is assigned to each generated dictionary to form a database with the following structure:
Start database [
Target_A: Dictionary
Target_B: Dictionary
Target_C: Dictionary
] Database shutdown
Here, the structure of the dictionary is as follows.
{key: low-resolution image for training, value: high-resolution image for training,
key: low-resolution image for training, value: high-resolution image for training,
key: low-resolution image for training, value: high-resolution image for training}

제16항에 있어서,
상기 초고해상도 영상 생성 딥러닝 모델 훈련부는,
입력된 영상에 대한 해상도 증가와 영상정보의 표현이 가능한 Upsampling Layer와 Convolutional Layer가 포함된 다계층의 인공신경망 구조를 갖는 Generator;
입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여, Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는 다계층의 인공신경망 구조를 갖는 Discriminator;
훈련을 통하여 Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하는 최적화부;를 포함하되,
상기 최적화부는 최적화 계산부와 Reference Model 및 Reference Model 최적화부를 포함하고,
상기 Reference Model은 입력된 영상 데이터에 대한 영상 특징을 추출하기 위하여 Convolutional Layer가 포함된 feature extractor를 적어도 하나 이상 포함하는, 다계층의 인공신경망 구조로 생성되고,
상기 Discriminator에 포함된 각각의 feature extractor는 상기 Reference Model에 포함된 각각의 feature extractor와 동일한 구조이고,
상기 Reference Model은 훈련용 고해상도 영상과 노이즈 영상을 훈련데이터로 사용하여 최적화되고,
상기 최적화부는 최적화 목적함수를 이용하여 Generator와 Discriminator를 훈련하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 16,
The super-resolution image generation deep learning model training unit,
Generator with a multi-layer artificial neural network structure including an upsampling layer and a convolutional layer that can increase the resolution of the input image and express image information;
In order to extract image features for input image data, a discriminator with a multi-layer artificial neural network structure including at least one feature extractor including a convolutional layer;
Includes an optimization unit that optimizes the artificial neural network parameters (weight, bias) of the generator and discriminator through training,
The optimization unit includes an optimization calculation unit, a Reference Model, and a Reference Model optimization unit,
The Reference Model is created with a multi-layer artificial neural network structure that includes at least one feature extractor including a convolutional layer to extract image features for the input image data,
Each feature extractor included in the Discriminator has the same structure as each feature extractor included in the Reference Model,
The Reference Model is optimized using high-resolution images and noise images for training as training data,
A super-resolution image generation device for a target of interest in a SAR image, wherein the optimization unit trains a generator and a discriminator using an optimization objective function.

제26항에 있어서,
상기 최적화부는,
Generator와 Discriminator의 인공신경망 파라메타(weight, bias)를 최적화하기 위하여, 다음의 식을 최적화 목적함수로 사용하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치:
Discriminator를 위한 최적화 목적함수

여기서, IHR_tr은 훈련용 고해상도 영상, ILR_tr은 훈련용 저해상도 영상, paramsD는 Discriminator를 구성하는 인공신경망 파라메타, paramsG는 Generator를 구성하는 인공신경망 파라메타, DparamsD(I)는 paramsD로 명명되는 파라메타값을 갖는 Discriminator의 입력 I에 대한 출력값, GparamsG(I)는 paramsG로 명명되는 파라메타값을 갖는 Generator의 입력 I에 대한 출력값, E[ ]는 기대값, N_featuremap은 Discriminator내 모든 Convolutional Layer에 포함된 featuremap의 총 개수, featuremap_Discriminator(n)은 Discriminator에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap이고, featuremap_ReferenceModel(n)은 Reference Model에 존재하는 각 featuremap 중 n번째에 해당하는 featuremap임.

Generator를 위한 최적화 목적함수


According to clause 26,
The optimization unit,
In order to optimize the artificial neural network parameters (weight, bias) of the generator and discriminator, a super-resolution image generation device for the target of interest in the SAR image is characterized by using the following equation as the optimization objective function:
Optimization objective function for discriminator

Here, I HR_tr is a high-resolution image for training, I LR_tr is a low-resolution image for training, paramsD is an artificial neural network parameter constituting the discriminator, paramsG is an artificial neural network parameter constituting the generator, and D paramsD (I) is a parameter value named paramsD. is the output value for the input I of the Discriminator, G paramsG (I) is the output value for the input I of the Generator with the parameter value named paramsG, E[ ] is the expected value, and N_featuremap is the feature map included in all convolutional layers in the Discriminator. The total number of, featuremap_Discriminator(n) is the nth featuremap among each featuremap existing in the Discriminator, and featuremap_ReferenceModel(n) is the nth featuremap among each featuremap existing in the Reference Model.

Optimization objective function for generator


제26항에 있어서,
상기 최적화부는,
다음의 최적화 목적함수를 사용하여 상기 Reference Model을 훈련시키는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치:
Reference Model을 위한 최적화 목적함수

여기서, 은 훈련용 초고해상도 영상, 는 노이즈 영상, paramsR은 Reference Model을 구성하는 인공신경망 파라메타, RparamsR(I)은 paramsR로 명명되는 파라메타값을 갖는 Reference Model의 입력 I에 대한 출력값임.
According to clause 26,
The optimization unit,
A super-resolution image generating device for a target of interest in a SAR image, characterized by training the Reference Model using the following optimization objective function:
Optimization objective function for reference model

here, is a super-resolution video for training; is the noise image, paramsR is the artificial neural network parameter constituting the Reference Model, and R paramsR (I) is the output value for the input I of the Reference Model with the parameter value named paramsR.
제27항에 있어서,
상기 최적화부는,
상기 데이터베이스에서 출력한 훈련용 고해상도 영상을 Discriminator에 입력하고, 그에 대한 Discriminator의 출력값을 관측하여 가 최대가 하도록 Discriminator의 인공신경망 파라메타를 갱신하고;
상기 출력한 훈련용 고해상도 영상을 Reference Model에 입력 후 Reference Model이 산출한 각각의 featuremap 값을 확인하고;
상기 출력한 훈련용 고해상도 영상을 Discriminator에 입력 후 Discriminator에 존재하는 각각의 featuremap 값이 그에 대응하는 상기 Reference Model의 featuremap 값을 추종하는 방향으로 Discriminator의 인공신경망 파라메타를 갱신하고;
상기 데이터베이스에서 출력한 훈련용 저해상도 영상을 Generator에 입력하고, 그에 대한 Generator의 출력을 Discriminator에 입력하여 Discriminator의 출력을 관측한 후, 가 최소가 되도록 Generator의 인공신경망 파라메타를 갱신하고, 가 최대가 되도록 Discriminator의 인공신경망 파라메타를 갱신하고;
상기 훈련용 고해상도 영상의 출력과 훈련용 저해상도 영상의 출력을 반복함에 따라 Generator 및 Discriminator의 인공신경망 파라메타를 최적화하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.
According to clause 27,
The optimization unit,
Input the high-resolution training image output from the database into the discriminator, observe the discriminator's output value, and Update the artificial neural network parameters of the discriminator so that is the maximum;
After inputting the output high-resolution training image into the Reference Model, check each feature map value calculated by the Reference Model;
After inputting the output high-resolution image for training into the discriminator, updating the artificial neural network parameters of the discriminator in such a way that each feature map value existing in the discriminator follows the feature map value of the corresponding reference model;
Input the low-resolution image for training output from the database into the generator, input the output of the generator into the discriminator, and observe the output of the discriminator, Update the artificial neural network parameters of the generator to minimize Update the artificial neural network parameters of the discriminator so that is maximized;
A super-resolution image generation device for a target of interest in a SAR image, characterized in that it optimizes artificial neural network parameters of the generator and discriminator by repeating the output of the high-resolution image for training and the output of the low-resolution image for training.
제26항에 있어서,
훈련이 완료된 Generator를 적용하여, 실제 SAR 영상내 관심 표적 영상을 수신하고, 수신한 관심 표적 영상에 대한 초고해상도 영상을 출력하는 초고해상도 영상 생성부;
를 더 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.

According to clause 26,
A super-resolution image generator that applies the trained generator to receive target-of-interest images in the actual SAR image and outputs a super-resolution image for the received target-of-interest image;
A super-resolution image generating device for a target of interest in a SAR image, further comprising:

제26항에 있어서,
실제 SAR 영상내 관심 표적 영상과 표적 식별 정보를 수신하고, 상기 수신한 표적 식별 정보를 이용하여 데이터베이스에서 상기 표적 식별 정보에 해당하는 딕셔너리를 선택한 후, 상기 선택된 딕셔너리의 Key 값에 저장된 훈련용 저해상도 영상과 상기 수신한 관심 표적 영상과의 유사성을 확인하여, 유사성이 가장 높게 산출되는 Key 값에 대응하는 Value 데이터를 상기 수신한 관심 표적 영상에 대한 초고해상도 영상으로 출력하는 초고해상도 영상 생성부;
를 더 포함하는 것을 특징으로 하는 SAR 영상내 관심 표적에 대한 초고해상도 영상 생성 장치.
According to clause 26,
Receive a target image of interest and target identification information in the actual SAR image, select a dictionary corresponding to the target identification information from the database using the received target identification information, and then store a low-resolution image for training in the key value of the selected dictionary. and a super-resolution image generator that checks the similarity with the received target image of interest and outputs value data corresponding to the key value with the highest similarity calculated as a super-resolution image for the received target image of interest.
A super-resolution image generating device for a target of interest in a SAR image, further comprising:
KR1020220064361A 2022-05-25 2022-05-25 Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning KR20230164517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220064361A KR20230164517A (en) 2022-05-25 2022-05-25 Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220064361A KR20230164517A (en) 2022-05-25 2022-05-25 Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning

Publications (1)

Publication Number Publication Date
KR20230164517A true KR20230164517A (en) 2023-12-04

Family

ID=89165217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220064361A KR20230164517A (en) 2022-05-25 2022-05-25 Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning

Country Status (1)

Country Link
KR (1) KR20230164517A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119132B1 (en) 2018-09-03 2020-06-05 인천대학교 산학협력단 Apparatus and Method for Restoring Super Resolution Image for Edge Computing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119132B1 (en) 2018-09-03 2020-06-05 인천대학교 산학협력단 Apparatus and Method for Restoring Super Resolution Image for Edge Computing

Similar Documents

Publication Publication Date Title
Alrabeiah et al. ViWi: A deep learning dataset framework for vision-aided wireless communications
EP3435029B1 (en) Resolution adaptive mesh for performing 3-d metrology of an object
CN108038445B (en) SAR automatic target identification method based on multi-view deep learning framework
US20180341836A1 (en) Neural network point cloud generation system
CN112418245B (en) Electromagnetic emission point positioning method based on urban environment physical model
CN110969637B (en) Multi-threat target reconstruction and situation awareness method based on generation countermeasure network
CN107392875A (en) A kind of cloud data denoising method based on the division of k neighbours domain
Benedetti et al. Sentinel-1 and Sentinel-2 data fusion for urban change detection
Djurić et al. Particle filtering for high-dimensional systems
Tongtong et al. 3D LIDAR-based ground segmentation
JP6207144B2 (en) Method for 3D reconstruction of objects in a scene
US20160132768A1 (en) Systems and methods for training multipath filtering systems
Bao et al. SAR image simulation by generative adversarial networks
CN104066178A (en) Indoor wireless positioning fingerprint generating method based on artificial neural networks
CN115561834A (en) Meteorological short-term and temporary forecasting all-in-one machine based on artificial intelligence
CN105182359A (en) Satellite-borne Lidar hyperchaotic compressed sensing high-spatial-resolution imaging method
Laviada et al. Artifact mitigation for high-resolution near-field sar images by means of conditional generative adversarial networks
CN112669201B (en) Visible light cloud image conversion method and system based on infrared light and terminal thereof
KR20230164517A (en) Method and apparatus of generating Super-Resolution image for the target object in Synthetic Aperture Radar image using deep learning
KR102482150B1 (en) Deep learning training apparatus and method for automatically recognizing target in SAR image, and apparatus for automatically recognizing target in SAR image
Guo 3D underwater topography rebuilding based on single beam sonar
CN110363863B (en) Input data generation method and system of neural network
Owaki et al. Hybrid physics-based and data-driven approach to estimate the radar cross-section of vehicles
CN115565082A (en) Method, system and device for removing cloud noise of satellite remote sensing image
Liu et al. Visualization of Mobility Digital Twin: Framework Design, Case Study, and Future Challenges

Legal Events

Date Code Title Description
E902 Notification of reason for refusal