KR20210045839A - Scene-based nonuniformity correction method and apparatus using deep neural network - Google Patents

Scene-based nonuniformity correction method and apparatus using deep neural network Download PDF

Info

Publication number
KR20210045839A
KR20210045839A KR1020190129334A KR20190129334A KR20210045839A KR 20210045839 A KR20210045839 A KR 20210045839A KR 1020190129334 A KR1020190129334 A KR 1020190129334A KR 20190129334 A KR20190129334 A KR 20190129334A KR 20210045839 A KR20210045839 A KR 20210045839A
Authority
KR
South Korea
Prior art keywords
image
neural network
cost function
deep learning
offset
Prior art date
Application number
KR1020190129334A
Other languages
Korean (ko)
Other versions
KR102340318B1 (en
Inventor
홍용희
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020190129334A priority Critical patent/KR102340318B1/en
Publication of KR20210045839A publication Critical patent/KR20210045839A/en
Application granted granted Critical
Publication of KR102340318B1 publication Critical patent/KR102340318B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

According to an embodiment of the present invention, through a method and a device for training a deep learning neural network that outputs an offset for scene-based non-uniformity correction, a final offset with high quality and accuracy can be obtained, and a scene-based non-uniformity corrected image can be obtained through the offset. The method for training a deep learning neural network comprises the following steps of: outputting a first offset; calculating a similar image roughness cost function and a spatial noise cost function; obtaining a final cost function; and training the deep neural network.

Description

딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 방법 및 장치{Scene-based nonuniformity correction method and apparatus using deep neural network}Scene-based nonuniformity correction method and apparatus using deep neural network

본 발명은 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 방법 및 장치에 관한 것이다. The present invention relates to a scene-based non-uniformity correction method and apparatus using a deep learning neural network.

현재 의료, 군사, 과학 등 여러 분야에 적용되고 있는 적외선 센서는 종래의 1D 센서에서 발전을 거쳐 초점평면배열(Focal Plane Array, FPA) 2D 센서를 이용하여 물체의 적외선 방사에너지를 감지한다. 적외선 센서 FPA는 제조 과정에서 발생되는 불균일성으로 인해 각 소자마다 다른 gain 및 오프셋을 보유하게 되며, 이로 인해 고정패턴잡음(Fixed Pattern Noise, FPN)이 나타나게 된다. 이를 보정하기 위한 방법으로는 흑체를 이용한 교정 기반 불균일보정(Calibration-based Nonuniformity Correction, CBNUC)과 FPA에 맺히는 영상을 이용한 영상 기반 불균일보정(Scene-based Nonuniformity Correction, SBNUC)이 있다.Infrared sensors, which are currently applied in various fields such as medical, military, and science, are developed from conventional 1D sensors and then use a focal plane array (FPA) 2D sensor to detect infrared radiation energy of an object. Infrared sensor FPA has a different gain and offset for each device due to the non-uniformity generated in the manufacturing process, which results in fixed pattern noise (FPN). Methods for correcting this include Calibration-based Nonuniformity Correction (CBNUC) using a blackbody and Scene-based Nonuniformity Correction (SBNUC) using an image generated by FPA.

CBNUC는 흑체와 같은 보정장비를 이용하여 gain과 오프셋을 획득 및 적용하는 방법으로 서로 다른 두 온도의 흑체를 이용하여 FPA의 gain 및 오프셋을 보정하는 two point NUC가 대표적으로 사용되고 있다. CBNUC는 SBNUC에 비해 구현하기 용이하며 정확한 보정테이블 획득이 가능하다는 장점이 있지만 가정에 벗어난 주변 환경 변화에 대응하지 못하며, 초기 불균일보정 후 장시간 경과 시 발생되는 FPA 특성변화를 보상하기 위하여 주기적인 보정이 수반되어야 한다. 특히, 센서 전원인가 후 FPA에서 발생되는 온도 드리프트 현상에 대응하기 어려운 단점이 있다. 이를 극복하기 위한 방법으로 센서 전면에 셔터를 장착하여 셔터보정을 수행함으로써 온도에 따른 드리프트 현상을 보상할 수 있으나, 셔터가 주기적으로 작동할 경우 센서면을 가리게 되어 연속 영상획득이 불가능하다.CBNUC is a method of obtaining and applying gain and offset by using correction equipment such as blackbody. Two point NUC that corrects the gain and offset of FPA using blackbody of two different temperatures is typically used. CBNUC is easier to implement than SBNUC and has the advantage of obtaining accurate correction tables, but it cannot cope with changes in the surrounding environment outside of the home, and periodic correction is required to compensate for changes in FPA characteristics that occur after a long period of time after initial non-uniformity correction. It must be accompanied. In particular, there is a disadvantage in that it is difficult to cope with the temperature drift phenomenon occurring in the FPA after the sensor is powered on. As a method to overcome this, a shutter is mounted on the front of the sensor to perform shutter compensation to compensate for the drift phenomenon according to temperature, but if the shutter is operated periodically, the sensor surface is covered and continuous image acquisition is impossible.

SBNUC는 FPA에 맺히는 영상을 기반으로 FPA의 gain 및 오프셋을 획득 및 적용하는 방법으로 불균일보정을 위한 흑체나 챔버와 같은 보정장비가 필요 없다. 영상을 기반으로 하기 때문에 FPA 및 주변 변화에 대응하기 위한 셔터보정이 필요없어 끊김없이 연속적인 영상 획득이 가능한 장점이 있다. 하지만, CBNUC 방식에 비해 높은 연산량이 요구되어 한정된 시스템 자원 내에서 실시간 구현이 제한적이라는 단점이 있다.SBNUC is a method of acquiring and applying the gain and offset of the FPA based on the image formed on the FPA, and does not require correction equipment such as black bodies or chambers for non-uniformity correction. Since it is based on an image, there is an advantage in that it is possible to acquire images continuously without interruption because there is no need for shutter compensation to cope with FPA and surrounding changes. However, compared to the CBNUC method, there is a disadvantage that real-time implementation is limited within limited system resources because a higher amount of computation is required.

SBNUC는 크게 통계 기반(Statistics based) SBNUC와 정합 기반(Registration based) SBNUC로 나눌 수 있다. 통계 기반 SBNUC는 scene의 방사에 의해 검출기 소자 단위의 출력평균이 일시적으로 동일하며, 출력 변화의 분산이 동일하다는 가정하에 확률적으로 gain과 오프셋을 추정하여 적용한다. 통계기반 SBNUC는 정합 기반 SBNUC에 비해 상대적으로 낮은 연산량과 메모리가 요구되어 실시간 적용에 유리하다. 하지만, 가정과 달리 다양한 scene이 입력되지 않을 경우 고스트 현상이 발생하기 쉽다. 이 외에도 정합 기반 SBNUC에 비해 느린 수렴 속도를 가지고 있으며, 느린 수렴 속도를 극복하기 위해 학습률을 높일 경우 고스트 현상이 발생하기 쉬운 단점이 있다.SBNUC can be largely divided into statistics based SBNUC and registration based SBNUC. Statistics-based SBNUC is applied by probabilistically estimating the gain and offset under the assumption that the output average of each detector element is temporarily the same due to the radiation of the scene and the variance of the output change is the same. Statistics-based SBNUC is advantageous for real-time application because it requires relatively low computational amount and memory compared to matching-based SBNUC. However, unlike in the home, if various scenes are not input, ghosting is likely to occur. In addition, it has a slower convergence speed compared to the matching-based SBNUC, and has a disadvantage that ghosting is likely to occur if the learning rate is increased to overcome the slower convergence speed.

정합 기반 SBNUC는 연속적인 프레임 간의 scene이 동일하다고 가정하여 카메라 모션으로 인한 scene 이동이 발생하였을 때 동일scene의 신호를 서로 다른 소자를 통하여 감지하고 두 소자 간의 신호 차이를 이용하여 gain 및 오프셋을 추정한다. 이 방식은 확률기반 SBNUC에 비해 빠른 수렴속도와 고스트 현상이 거의 발생하지 않는 장점이 있다. 하지만, 정합 기반 SBNUC는 통계 기반 SBNUC에 비해 상대적으로 많은 연산량과 메모리가 요구되어 실시간 구현이 확률 기반 SBNUC에 비해 어려운 단점이 있다. 특히, 영상정합을 기반으로 하기 때문에 이전 프레임과 겹치지 않는 부분은 보정 계수가 업데이트되지 않거나 영상의 회전, 축소 및 확대 등과 같은 영상 이동이 발생하여 영상 정합에 불리한 경우 추가 보정이 수행되지 않거나 보정 수행 오류율이 높아지는 단점이 있다. 확률 및 정합 기반 SBNUC 알고리즘 이외에도 뉴럴 네트워크를 이용한 방법과, 두 개 프레임을 이용한 Two Frame NUC (TFNUC)도 있으며, column 단위로 midway equalization을 적용하여 단일 영상 프레임으로 보정이 가능한 알고리즘도 있다.Matching-based SBNUC assumes that the scenes between successive frames are the same, detects signals of the same scene through different devices when scene movement occurs due to camera motion, and estimates the gain and offset by using the signal difference between the two devices. . Compared to probability-based SBNUC, this method has the advantage of fast convergence speed and little ghost phenomenon. However, matching-based SBNUC requires a relatively large amount of computation and memory compared to statistics-based SBNUC, so real-time implementation is difficult compared to probability-based SBNUC. Particularly, since it is based on image registration, if the correction factor is not updated for the part that does not overlap with the previous frame, or if image registration is unfavorable due to image movement such as rotation, reduction, and enlargement of the image, additional correction is not performed or correction error rate There is a downside to this increase. In addition to the probability and matching-based SBNUC algorithm, there is a method using a neural network, Two Frame NUC (TFNUC) using two frames, and an algorithm that can correct into a single image frame by applying midway equalization in column units.

[선행특허 문헌번호][Prior patent document number]

선행 1: 한국등록특허 10-1854355호Priority 1: Korean Patent Registration No. 10-1854355

선행 2: 한국등록특허 10-1910083호Prior 2: Korean Patent Registration No. 10-1910083

[비특허문헌][Non-patent literature]

1. D A Scribner, M Kruer, and J Killiany, “Infrared focal plane array technology,” Proc IEEE, vol 79, no 1, pp 66-85, Jan 19911. D A Scribner, M Kruer, and J Killiany, “Infrared focal plane array technology,” Proc IEEE, vol 79, no 1, pp 66-85, Jan 1991

2. A Friedenberg and I Goldbatt, “Nonuniformity two-point linear correction errors in infrared focal plane arrays,” Opt Eng 37(4), pp 1251-1253, April, 19982. A Friedenberg and I Goldbatt, “Nonuniformity two-point linear correction errors in infrared focal plane arrays,” Opt Eng 37(4), pp 1251-1253, April, 1998

3. O Riou, S Berrebi, and P Bremond, “Nonuniformity correction and thermal drift compensation of thermal infrared camera,” Proc SPIE 5405, pp 294-302, April, 20043. O Riou, S Berrebi, and P Bremond, “Nonuniformity correction and thermal drift compensation of thermal infrared camera,” Proc SPIE 5405, pp 294-302, April, 2004

4. R Hardie, F Baxley, B Brys, and P Hytla, “Scene-based nonuniformity correction with reduced ghosting using a gated LMS algorithm,” Opt Express 17, pp 14918-14933, 20094. R Hardie, F Baxley, B Brys, and P Hytla, “Scene-based nonuniformity correction with reduced ghosting using a gated LMS algorithm,” Opt Express 17, pp 14918-14933, 2009

5. J Harris and Y Chiang, “Minimizing the ‘ghosting’ artifact in scene-based nonuniformity correction,” Proc SPIE 3377, pp 106-113, 19985. J Harris and Y Chiang, “Minimizing the ‘ghosting’ artifact in scene-based nonuniformity correction,” Proc SPIE 3377, pp 106-113, 1998

6. Russell C Hardie, Majeed M Hayat, Earnest Armstrong, and Brian Yasuda, “Scene-based nonuniformity correction with video sequences and registration,”Applied Optics Vol 39, Issue 8, pp 1241-1250, 20006. Russell C Hardie, Majeed M Hayat, Earnest Armstrong, and Brian Yasuda, “Scene-based nonuniformity correction with video sequences and registration,” Applied Optics Vol 39, Issue 8, pp 1241-1250, 2000

7. Chao Zuo, Qian Chen, Guohua Gu and Xiubao Sui, Scene-Based Nonuniformity Correction Algorithm Based on Interframe Registration,” J Opt Soc Am A Opt Image Sci Vis 28 (6), pp 1164-1176, Jun, 20117. Chao Zuo, Qian Chen, Guohua Gu and Xiubao Sui, Scene-Based Nonuniformity Correction Algorithm Based on Interframe Registration,” J Opt Soc Am A Opt Image Sci Vis 28 (6), pp 1164-1176, Jun, 2011

8. Chao Zuo, Qian Chen, Guohua Gu, Xiubao Sui, and Jianle Ren, “Improved interframe registration based nonuniformity correction for focal plane arrays,”ELSEVIER Infrared Physics & Technology Vol 55, Issue 4, pp 263-269, July 20128. Chao Zuo, Qian Chen, Guohua Gu, Xiubao Sui, and Jianle Ren, “Improved interframe registration based nonuniformity correction for focal plane arrays,” ELSEVIER Infrared Physics & Technology Vol 55, Issue 4, pp 263-269, July 2012

실시 예는 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 방법 및 장치를 제공하는 것이다.An embodiment provides a scene-based non-uniformity correction method and apparatus using a deep learning neural network.

다른 실시 예는 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 방법 및 장치를 제공하는 것이다. Another embodiment provides a method and apparatus for training a deep learning neural network that outputs an offset for scene-based non-uniformity correction.

일 실시 예에 따른 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 방법으로서, 불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하는 단계; 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하는 단계; 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수의 합으로부터 최종 비용함수를 획득하는 단계; 및 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 상기 딥 뉴럴 네트워크를 학습시키는 단계를 포함한다.A method for training a deep learning neural network that outputs an offset for scene-based non-uniformity correction, according to an embodiment, comprising the steps of: outputting a first offset through a deep learning neural network to which an image to which non-uniformity correction is not applied; Calculating a similar image roughness cost function and a spatial noise cost function from the image to which the non-uniformity correction was not applied and the first non-uniformity-corrected image obtained by summing the outputted first offset; Obtaining a final cost function from the sum of the calculated similar image roughness cost function and spatial noise cost function; And providing the obtained final cost function to the deep learning neural network as feedback information to train the deep neural network.

상기 유사 영상 거칠기 비용함수는, 영상의 거칠기에 비례하여 상기 딥 뉴럴 네트워크의 학습속도를 조절하는 것을 특징으로 한다.The pseudo image roughness cost function is characterized in that the learning speed of the deep neural network is adjusted in proportion to the roughness of the image.

상기 유사 영상 거칠기 비용함수는, 상기 제1 불균일보정 적용 영상에 수평차이필터 및 수직차이필터를 각각 컨볼루션 연산한 결과를 평균한 유사 영상 거칠기 함수에서, 상기 수평차이필터 및 상기 수직차이필터 각각의 컨볼루션 연산한 결과를 제곱한 것을 특징으로 한다.The similar image roughness cost function is a similar image roughness function obtained by averaging a result of a convolution operation of a horizontal difference filter and a vertical difference filter on the first non-uniformity correction applied image, and each of the horizontal difference filter and the vertical difference filter It is characterized in that the result of the convolution operation is squared.

상기 유사 영상 거칠기 비용함수는, 다음 수학식에 의해 계산되는 것을 특징으로 한다.The pseudo image roughness cost function is characterized in that it is calculated by the following equation.

[수학식][Equation]

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 유사영상거칠기, h1은 수평차이필터, h2는 수직차이필터, I는 영상, M은 영상 가로 픽셀수, N은 영상 세로 픽셀수,
Figure pat00003
는 L1 norm, *는 discrete convolution 이다.here,
Figure pat00002
Is the pseudo-image roughness, h1 is the horizontal difference filter, h2 is the vertical difference filter, I is the image, M is the number of horizontal pixels in the image, N is the number of vertical pixels in the image,
Figure pat00003
Is L1 norm, * is discrete convolution.

상기 공간 잡음 비용함수는, 다음 수학식에 의해 계산되는 것을 특징으로 한다. The spatial noise cost function is characterized by being calculated by the following equation.

[수학식][Equation]

Figure pat00004
Figure pat00004

여기서,

Figure pat00005
는 영상 평균,
Figure pat00006
는 영상 공간잡음,
Figure pat00007
는 영상 공간 잡음 비용함수이고, I는 영상, M은 영상 가로 픽셀수, N은 영상 세로 픽셀 수이다.here,
Figure pat00005
Is the image mean,
Figure pat00006
Is the image spatial noise,
Figure pat00007
Is the image spatial noise cost function, I is the image, M is the number of horizontal pixels in the image, and N is the number of vertical pixels in the image.

다른 실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 방법은 불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하는 단계; 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하는 단계; 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수로부터 최종 비용함수를 획득하는 단계; 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 학습시키는 단계; 및 상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 입력 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력하는 단계를 포함한다.A scene-based non-uniformity correction method using a deep learning neural network according to another embodiment includes: outputting a first offset through a deep learning neural network to which an image to which the non-uniformity correction is not applied is input; Calculating a similar image roughness cost function and a spatial noise cost function from the image to which the non-uniformity correction was not applied and the first non-uniformity-corrected image obtained by summing the outputted first offset; Obtaining a final cost function from the calculated similar image roughness cost function and spatial noise cost function; Providing the obtained final cost function to the deep learning neural network as feedback information for training; And summing the final offset output from the learned deep learning neural network and the input original image to output a non-uniformly corrected corrected image.

또 다른 실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 방법은 상기 딥러닝 뉴럴 네트워크를 학습 방법에 의해 학습된 딥러닝 뉴럴 네트워크에 원본 영상을 입력하는 단계; 및 상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 상기 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력하는 단계를 포함한다. A scene-based non-uniformity correction method using a deep learning neural network according to another embodiment includes the steps of inputting an original image to a deep learning neural network learned by a learning method of the deep learning neural network; And summing the final offset output from the learned deep learning neural network and the original image to output a non-uniformly corrected corrected image.

또 다른 실시 예에 따른 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 장치로서, 메모리; 및 프로세서를 포함하고,According to another embodiment, an apparatus for training a deep learning neural network that outputs an offset for scene-based non-uniformity correction, comprising: a memory; And a processor,

상기 프로세서는, 불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하고, 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하고, 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수의 합으로부터 최종 비용함수를 획득하고, 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 상기 딥 뉴럴 네트워크를 학습시킨다.The processor outputs a first offset through a deep learning neural network into which a non-uniformity-corrected image is input, and a similar image roughness cost from a first non-uniformity-corrected-applied image obtained by summing the non-uniformity-corrected image and the output first offset. Calculate a function and spatial noise cost function, obtain a final cost function from the sum of the calculated similar image roughness cost function and spatial noise cost function, and provide the obtained final cost function to the deep learning neural network as feedback information Thus, the deep neural network is trained.

상기 유사 영상 거칠기 비용함수는, 영상의 거칠기에 비례하여 상기 딥 뉴럴 네트워크의 학습속도를 조절하는 것을 특징으로 한다.The pseudo image roughness cost function is characterized in that the learning speed of the deep neural network is adjusted in proportion to the roughness of the image.

상기 유사 영상 거칠기 비용함수는, 상기 제1 불균일보정 적용 영상에 수평차이필터 및 수직차이필터를 각각 컨볼루션 연산한 결과를 평균한 유사 영상 거칠기 함수에서, 상기 수평차이필터 및 상기 수직차이필터 각각의 컨볼루션 연산한 결과를 제곱한 것을 특징으로 한다.The similar image roughness cost function is a similar image roughness function obtained by averaging a result of a convolution operation of a horizontal difference filter and a vertical difference filter on the first non-uniformity correction applied image, and each of the horizontal difference filter and the vertical difference filter It is characterized in that the result of the convolution operation is squared.

또 다른 실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 장치로서, 메모리; 및 프로세서를 포함하고,A scene-based non-uniformity correction apparatus using a deep learning neural network according to another embodiment, comprising: a memory; And a processor,

상기 프로세서는, 불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하고, 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하고, 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수로부터 최종 비용함수를 획득하고, 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 학습시키고, 상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 입력 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력한다.The processor outputs a first offset through a deep learning neural network into which a non-uniformity-corrected image is input, and a similar image roughness cost from a first non-uniformity-corrected-applied image obtained by summing the non-uniformity-corrected image and the output first offset. Learning by calculating a function and spatial noise cost function, obtaining a final cost function from the calculated similar image roughness cost function and spatial noise cost function, and providing the obtained final cost function to the deep learning neural network as feedback information Then, the final offset output from the learned deep learning neural network and the input original image are summed to output a corrected image corrected for non-uniformity.

또 다른 실시 예에 따른 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.It includes a recording medium recording a program for executing the method according to another embodiment on a computer.

실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 방법 및 장치를 통해 기존 통계 기반(Statistics based), 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)은 최소 50~300프레임 정도의 불균일보정 미보정 영상이 필요했던 것에 비하여, 2 내지 10의 적은 프레임 수로도 품질이 높은 불균일보정 오프셋을 획득할 수 있다. Scene-based non-uniformity correction (SBNUC) based on statistics based on existing statistics and registration based on scene-based non-uniformity correction (SBNUC) using a deep learning neural network according to an embodiment is a non-uniformity of at least 50 to 300 frames. Compared to the need for an uncorrected image, it is possible to obtain a high-quality non-uniform correction offset with a small number of frames of 2 to 10.

또한, 실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 방법 및 장치는 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)에서 취약한 영상의 회전, 확대 및 축소의 영향을 받지 않으며, 기존 통계 기반(Statistics based), 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)에 비해 고스트 영상 현상이 거의 없다.In addition, the scene-based non-uniformity correction method and apparatus using the deep learning neural network according to the embodiment is not affected by rotation, enlargement, and reduction of the vulnerable image in the registration-based scene-based non-uniformity correction (SBNUC). There is almost no ghost image phenomenon compared to the scene-based non-uniformity correction (SBNUC) of statistics based and registration based.

도 1은 일 실시 예에 따른 장면기반 불균일 보정 장치(100)의 개략도이다.
도 2는 다른 실시 예에 따른 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 개략 도이다.
도 3 및 4는 유사영상거칠기 비용 함수를 설명하기 위한 예시 도들이다.
도 5는 공간잡음 비용 함수를 설명하기 위한 예시 도들이다.
도 6 및 7은 실시 예에 따른 딥 러닝 뉴럴 네트워크를 설명하기 위한 예시 도들이다.
도 8은 또 다른 실시 예에 따른 딥 러닝 뉴럴 네트워크를 이용한 장면기반 불균일 보정 방법을 설명하기 위한 흐름 도이다.
도 9 내지 11은 실시 예에 따른 딥 러닝 뉴럴 네트워크를 이용한 장면기반 불균일 보정 방법을 설명하기 위한 예시 도들이다.
1 is a schematic diagram of a scene-based non-uniformity correction apparatus 100 according to an exemplary embodiment.
2 is a schematic diagram of training a deep learning neural network that outputs an offset for scene-based non-uniformity correction according to another embodiment.
3 and 4 are exemplary diagrams for explaining a similar image roughness cost function.
5 are exemplary diagrams for explaining a spatial noise cost function.
6 and 7 are exemplary diagrams for describing a deep learning neural network according to an embodiment.
8 is a flowchart illustrating a scene-based non-uniformity correction method using a deep learning neural network according to another embodiment.
9 to 11 are exemplary diagrams for explaining a scene-based non-uniformity correction method using a deep learning neural network according to an embodiment.

본 실시 예들에서 사용되는 용어는 본 실시 예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 기술분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 임의로 선정된 용어도 있으며, 이 경우 해당 실시 예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present embodiments have selected general terms that are currently widely used as possible while considering the functions in the present embodiments, but this may vary depending on the intention or precedent of a technician working in the art, the emergence of new technologies, etc. . In addition, in certain cases, there are terms that are arbitrarily selected, and in this case, the meaning will be described in detail in the description of the corresponding embodiment. Therefore, the terms used in the present embodiments should be defined based on the meaning of the term and the contents of the present embodiments, not a simple name of the term.

실시 예들에 대한 설명에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 실시 예들에 기재된 “...부”의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the description of the embodiments, when a certain part is connected to another part, this includes not only a case in which it is directly connected, but also a case in which it is electrically connected with another component interposed therebetween. In addition, when a certain part includes a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, the term “... unit” described in the embodiments refers to a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

본 실시 예들에서 사용되는 “구성된다” 또는 “포함한다” 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Terms such as “consisting of” or “comprising” used in the present embodiments should not be construed as necessarily including all of the various constituent elements or various steps described in the specification, and some constituent elements or some of them It should be construed that the steps may not be included, or may further include additional elements or steps.

하기 실시 예들에 대한 설명은 권리범위를 제한하는 것으로 해석되지 말아야 하며, 해당 기술분야의 당업자가 용이하게 유추할 수 있는 것은 실시 예들의 권리범위에 속하는 것으로 해석되어야 할 것이다. 이하 첨부된 도면들을 참조하면서 오로지 예시를 위한 실시 예들을 상세히 설명하기로 한다.The description of the following embodiments should not be construed as limiting the scope of the rights, and what those skilled in the art can easily infer should be construed as belonging to the scope of the rights of the embodiments. Hereinafter, embodiments for illustration only will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 장면기반 불균일 보정 장치(100)의 개략도이다.1 is a schematic diagram of a scene-based non-uniformity correction apparatus 100 according to an exemplary embodiment.

실시 예에서, 장면기반 불균일 보정은 다음 수학식 1과 같이 적외선 방사와 검출기 출력 관계 기본 모델에서 gain을 삭제 간소화 적용하며 오프셋을 추정한다.In an embodiment, in the scene-based non-uniformity correction, the offset is estimated by removing and simplifying the gain from the basic model of the relationship between infrared radiation and the detector output as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00008
Figure pat00008

여기서,

Figure pat00009
는 n번째 프레임의 오프셋,
Figure pat00010
는 n번째 프레임의 실제 방사 받은 적외선량,
Figure pat00011
는 n번째 프레임에서 적외선 센서에서 출력된 전압 값이다.here,
Figure pat00009
Is the offset of the nth frame,
Figure pat00010
Is the actual amount of infrared radiation received in the nth frame,
Figure pat00011
Is the voltage value output from the infrared sensor in the nth frame.

불균일 보정은

Figure pat00012
을 추정하기 위해 적외선 센서 출력
Figure pat00013
을 이용하므로 다음 수학식 2와 같이 변환하여 사용한다.The non-uniformity correction
Figure pat00012
Infrared sensor output to estimate
Figure pat00013
Is used, so it is converted as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00014
Figure pat00014

수학식 2는

Figure pat00015
Figure pat00016
의 관계를 나타내고 있다.Equation 2 is
Figure pat00015
and
Figure pat00016
Shows the relationship of.

실시 예에 따른 장면기반 불균일 보정장치(100)는 기존 장면 기반 불균일보정(SBNUC) 기법 두 가지 통계 기반(Statistics based) SBNUC와 정합 기반(Registration based) SBNUC와 다른 새로운 방식으로 불균일보정을 수행한다. 딥러닝 뉴럴 네트워크의 학습 기능을 이용하며, 학습을 하게 되며 유사 영상 거칠기 비용함수와 공간잡음 비용함수를 이용하여 학습 피드백으로 사용한다. 학습과정과 피드백 과정을 반복하다보면 최종 수렴된 오프셋을 얻을 수 있다. 이때 얻어진 오프셋을 사용하여 불균일보정을 수행할 수 있다.The scene-based non-uniformity correction apparatus 100 according to the embodiment performs non-uniformity correction in a new method different from the existing scene-based non-uniformity correction (SBNUC) technique, two statistics-based SBNUC and registration-based SBNUC. The deep learning neural network's learning function is used to learn, and the similar image roughness cost function and spatial noise cost function are used as learning feedback. By repeating the learning process and the feedback process, the final converged offset can be obtained. At this time, non-uniformity correction can be performed using the obtained offset.

장면기반 불균일 보정장치(100)는 원 영상을 입력받아 불균일 보정된 보정 영상을 출력한다. 장면기반 불균일 보정장치(100)는 뉴럴 네트워크를 이용하여 오프셋을 학습한다. 불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하고, 불균일보정 미적용 영상과 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산한다. 유사 영상 거칠기 비용함수와 공간잡음 비용함수를 합한 최종 비용함수를 획득하고, 획득된 최종 비용함수를 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 학습시킨다. 장면기반 불균일 보정장치(100)는 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 입력된 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력한다.The scene-based non-uniformity correction apparatus 100 receives an original image and outputs a corrected non-uniformity image. The scene-based non-uniformity correction apparatus 100 learns an offset using a neural network. Similar image roughness cost function and spatial noise cost function from the first non-uniformity-corrected image obtained by summing the non-uniformity-corrected image and the output first offset by outputting the first offset through the deep learning neural network into which the non-uniformity-corrected image is input Calculate A final cost function obtained by combining the similar image roughness cost function and spatial noise cost function is obtained, and the obtained final cost function is provided to the deep learning neural network as feedback information to learn. The scene-based non-uniformity correction apparatus 100 outputs a non-uniformly corrected corrected image by summing the final offset output from the learned deep learning neural network and the input original image.

이러한 뉴럴 네트워크에서 오프셋을 학습하기 위한 구조를 도 2를 참조하여 설명한다. 실시 예에서, 딥러닝 뉴럴 네트워크 장면 기반 불균일보정 알고리즘은 기존 확률 및 정합 기반 불균일보정 알고리즘과는 기반을 달리한다. 보통 뉴럴 네트워크 학습은 뉴럴 네트워크 학습 목표에 해당하는 목표로 하는 뉴럴 네트워크 출력 결과를 레이블 형태로 사용자가 정의한다. 하지만, 장면 기반 불균일보정의 경우 목표로 정의할 수 있는 보정된 영상이나 오프셋이 없다. 이러한 이유로 입력으로 이용된 무보정 영상만을 이용하여 비용함수를 통한 규칙으로 보정 계수 오프셋을 추정해야 한다.A structure for learning an offset in such a neural network will be described with reference to FIG. 2. In an embodiment, the deep learning neural network scene-based non-uniformity correction algorithm is different from the existing probability and matching-based non-uniformity correction algorithm. In general, in neural network learning, a user defines the output result of a neural network targeting the neural network learning goal in the form of a label. However, in the case of scene-based non-uniformity correction, there is no corrected image or offset that can be defined as a target. For this reason, it is necessary to estimate the correction coefficient offset by a rule through the cost function using only the uncorrected image used as an input.

도 2는 다른 실시 예에 따른 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 개략 도이다.2 is a schematic diagram of training a deep learning neural network that outputs an offset for scene-based non-uniformity correction according to another embodiment.

실시 예에서, 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 구조는 도 2에 도시된 바와 같다. 불균일보정 오프셋 추정할 때 이용될 딥러닝 뉴럴 네트워크(102)이 있으며, 이 딥러닝 뉴럴 네트워크는 불균일보정이 미적용된 영상(101)을 입력으로 받으며 가정된 오프셋(103)을 출력한다. 뉴럴 네트워크에서 출력된 가정된 오프셋(103)은 불균일보정 미적용 영상과 합해져 가정된 불균일보정 적용 영상(105)을 출력하게 된다. 이 가정된 불균일보정 적용 영상(105)을 기반으로 유사 영상 거칠기 비용함수(106)와 공간잡음 비용함수(107)를 계산하게 되며, 이 둘의 결과를 합하여 최종 비용함수(108)로 활용한다. 이 비용함수는 뉴럴 네트워크 학습 시 피드백으로 활용된다. In an embodiment, a scene-based non-uniformity correction structure using a deep learning neural network is as shown in FIG. 2. There is a deep learning neural network 102 to be used when estimating the non-uniformity correction offset, and the deep learning neural network receives an image 101 to which non-uniformity correction is not applied as an input and outputs an assumed offset 103. The assumed offset 103 output from the neural network is combined with the non-uniformity correction unapplied image to output the hypothesized non-uniformity correction applied image 105. The similar image roughness cost function 106 and the spatial noise cost function 107 are calculated based on the assumed non-uniformity correction applied image 105, and the results of the two are summed and used as the final cost function 108. This cost function is used as feedback when learning a neural network.

실시 예에서, 입력으로 영상 센서에서 출력되는 무보정 영상 스트림 데이터가 사용되었으며 뉴럴 네트워크 추론 결과를 오프셋으로 가정하였다. 뉴럴 네트워크추론 결과가 오프셋으로 가정하였으므로 뉴럴 네트워크의 입력으로 이용된 무보정 영상과 오프셋 연산 결과가 불균일보정이 수행된 보정 영상임을 가정할 수 있다. 가정된 불균일보정 보정 영상에서 유사 영상 거칠기 비용함수와 공간잡음 비용함수를 이용하여 전체 비용함수를 계산하게 되며 이를 뉴럴 네트워크 학습 시 피드백으로 이용하게 된다.In an embodiment, uncorrected image stream data output from an image sensor is used as input, and the neural network inference result is assumed to be an offset. Since the neural network inference result is assumed to be an offset, it can be assumed that the uncorrected image used as an input of the neural network and the offset operation result are a corrected image to which non-uniformity correction has been performed. In the hypothesized non-uniformity correction corrected image, the total cost function is calculated using the similar image roughness cost function and the spatial noise cost function, and this is used as feedback when learning a neural network.

도 3 및 4를 참조하여, 유사영상거칠기 비용 함수에 대해 설명한다. 유사 영상 거칠기 함수(201)는 영상에 도 3a에 도시된 수평차이필터(203)와 도 3b에 도시된 수직차이필터(204)를 각각 영상에 컨볼루션 연산을 통해 얻은 결과를 평균낸 것으로 인접 픽셀 간의 값 차이가 클수록 값이 커지는 특성이 있다.With reference to FIGS. 3 and 4, a similar image roughness cost function will be described. The similar image roughness function 201 is obtained by averaging the results obtained through the convolution operation on the image by using the horizontal difference filter 203 shown in FIG. 3A and the vertical difference filter 204 shown in FIG. 3B on an image. There is a characteristic that the value increases as the difference between the values increases.

유사 영상 거칠기 비용함수는 유사 영상 거칠기 함수를 기반으로 만들어졌으며 유사 영상 거칠기 함수의 수평차이필터(203)와 수직차이필터(204) 각각의 컨볼루션 결과를 제곱한 것을 이용한 유사 영상 거칠기 비용함수이다. 유사 영상 거칠기 비용함수에 적용된 제곱 연산은 딥러닝 뉴럴 네트워크 학습 시 비용함수 최저값에서 멀어질 시 뉴럴 네트워크에 강한 피드백을 주게 되며 더욱 빠른 뉴럴 네트워크 학습 속도가 가능하게 한다. 도 4a 및 도 4b에 도시된 것처럼, 영상 거칠기가 높은 경우(205)에 영상은 사포와 비슷한 질감을 보이며 이는 보통 인접 픽셀과의 값의 차이가 큰 경우가 대부분이다. 영상 거칠기가 낮은 경우(206)에 영상은 비교적 매끈한 질감을 가지며 이는 보통 인접 픽셀과의 값의 차이가 작은 경우가 대부분이다.The pseudo image roughness cost function is created based on the similar image roughness function, and is a similar image roughness cost function using the square of the convolution result of each of the horizontal difference filter 203 and the vertical difference filter 204 of the similar image roughness function. The square operation applied to the pseudo image roughness cost function gives strong feedback to the neural network when it moves away from the lowest cost function when training a deep learning neural network and enables a faster neural network learning speed. As shown in FIGS. 4A and 4B, when the image roughness is high (205 ), the image exhibits a texture similar to that of sandpaper, and this is usually the case in which the difference between the values of the adjacent pixels is large. When the image roughness is low (206), the image has a relatively smooth texture, which is usually the case where the difference between the values of the adjacent pixels is small.

유사 영상 거칠기 비용함수는 다음 수학식 3 내지 5에 따라 정의할 수 있다.The similar image roughness cost function can be defined according to Equations 3 to 5 below.

먼저, 기존 영상 거칠기 함수

Figure pat00017
는 다음 수학식 3과 같이 정의되어 있다. First, the existing image roughness function
Figure pat00017
Is defined as in Equation 3 below.

[수학식 3][Equation 3]

Figure pat00018
Figure pat00018

여기서, 영상 거칠기 함수는 픽셀들과의 차이의 절대 값에 자신 픽셀 값으로 정규화한다. 기존 영상 거칠기 함수는 영상 값으로 정규화하는 부분이 포함되어 있다. 유사 영상 거칠기 함수는 영상 값으로 정규화 부분이 제거되어 다음 수학식 4와 같이 정의된다.Here, the image roughness function normalizes the absolute value of the difference from the pixels to its own pixel value. The existing image roughness function includes a part that is normalized to an image value. The similar image roughness function is defined as in Equation 4 below by removing the normalized part from the image value.

[수학식 4][Equation 4]

Figure pat00019
Figure pat00019

이를 통해 뉴럴 네트워크 학습 시 연산량을 줄일 수 있으며, 공간잡음 비용함수와 균형을 이룰 수 있다. 유사 거칠기 함수를 그대로 이용할 경우 영상 거칠기가 커질Through this, it is possible to reduce the amount of computation when learning a neural network, and to achieve a balance with the spatial noise cost function. If the pseudo-roughness function is used as it is, the image roughness will increase.

경우 값도 같이 커지는 특성이 있어 학습에 수정 없이 이용이 가능하나 글로벌 최저 값에서 멀어질 경우에 학습 시 이용되는 비용함수의 기울기가 일정하여 학습 속도가 느려지는 원인이 된다. 이러한 단점을 해결하기 위해 다음 수학식 5와 같이 인접 픽셀과의 차이 값에 제곱을 추가하여 MSE(Mean Squared Error)를 적용한다. 이는 영상 거칠기가 커질수록 함수의 기울기 값을 더욱 높게 만들어 뉴럴 네트워크 학습 시 빠르게 수렴이 가능하도록 만들어 준다. 이러한 구성을 통해 영상의 거칠기에 비례하도록 학습속도를 조절한다.In case the value is also increased, it can be used without modification for learning, but if it is far from the global lowest value, the slope of the cost function used for learning is constant, which causes the learning speed to slow down. In order to solve this disadvantage, MSE (Mean Squared Error) is applied by adding a square to the difference value from the adjacent pixel as shown in Equation 5 below. This makes it possible to quickly converge when learning a neural network by increasing the slope value of the function as the image roughness increases. Through this configuration, the learning speed is adjusted in proportion to the roughness of the image.

[수학식 5][Equation 5]

Figure pat00020
Figure pat00020

여기서,

Figure pat00021
는 유사영상거칠기, h1은 수평차이필터, h2는 수직차이필터, I는 영상, M은 영상 가로 픽셀수, N은 영상 세로 픽셀수,
Figure pat00022
는 L1 norm, *는 discrete convolution 이다.here,
Figure pat00021
Is the pseudo-image roughness, h1 is the horizontal difference filter, h2 is the vertical difference filter, I is the image, M is the number of horizontal pixels in the image, N is the number of vertical pixels in the image,
Figure pat00022
Is L1 norm, * is discrete convolution.

실시 예에서, 공간잡음 비용함수는 영상의 평균 대비 각 픽셀들이 얼마나 분산되어 있는지를 나타내는 값이다. 영상 평균 대비 각 픽셀의 차이값 제곱의 평균으로 각 픽셀들이 평균에서 멀어질수록 제곱에 해당하는 값의 크기 증가가 이루어진다. 이 특징은 비용함수 최저값에서 멀어질 시 뉴럴 네트워크에 강한 피드백을 주게 되며 보다 빠른 뉴럴 네트워크 학습 속도가 가능하게 한다. 도 5a에 도시된 것처럼, 공간잡음이 높은 경우 각각의 픽셀들은 평균 대비 값의 차이가 커 불균일한 영상을 나타낸다. 도 5b에 도시된 것처럼, 공간잡음이 낮은 경우(303) 모든 픽셀의 평균값이 거의 동일한 값을 나타내게 된다. 보통 균일한 회색의 영상으로 나타난다.In an embodiment, the spatial noise cost function is a value indicating how distributed each pixel is compared to an average of an image. It is an average of the square of the difference value of each pixel compared to the average of the image. As each pixel is further away from the average, the size of the squared value increases. This feature gives strong feedback to the neural network when it moves away from the lowest cost function and enables a faster neural network learning speed. As shown in FIG. 5A, when the spatial noise is high, each of the pixels exhibits a non-uniform image due to a large difference in value compared to the average. As shown in FIG. 5B, when the spatial noise is low (303), the average values of all pixels represent almost the same value. It usually appears as a uniform gray image.

공간잡음 비용함수는 다음 수학식 6 및 7에 의해 정의된다.The spatial noise cost function is defined by the following equations 6 and 7.

[수학식 6][Equation 6]

Figure pat00023
Figure pat00023

[수학식 7][Equation 7]

Figure pat00024
Figure pat00024

여기서,

Figure pat00025
는 영상 평균,
Figure pat00026
는 영상 공간잡음,
Figure pat00027
는 영상 공간잡음 비용함수,
Figure pat00028
은 L1 norm, M은 영상 가로 픽셀수, N은 영상 세로 픽셀 수를 나타낸다.here,
Figure pat00025
Is the image mean,
Figure pat00026
Is the image spatial noise,
Figure pat00027
Is the image spatial noise cost function,
Figure pat00028
Is L1 norm, M is the number of horizontal pixels in the image, and N is the number of vertical pixels in the image.

공간잡음 함수는 상기 수학식 6과 같이 영상 평균 대비 각 픽셀의 차이 값의 절대 값의 평균으로 정의되어 있다. 공간잡음 함수도 영상 평균 대비 각 픽셀들 값이 많이 달라질수록 값이 커지는 성질이 있어 이를 그대로 학습에 이용해도 무방하지만 비용함수가 글로벌 최저값에서 멀어져도 같은 함수 기울기가 일정하기 때문에 뉴럴 네트워크 학습 속도를 더디게 만드는 경향이 있다. 이를 극복하기 위해 상기 수학식 7과 같이 기존 공간잡음에 제곱을 취해 MSE를 적용하여 뉴럴 네트워크 학습 시 빠르게 수렴이 가능하도록 한다. The spatial noise function is defined as the average of the absolute value of the difference value of each pixel compared to the image average as shown in Equation 6 above. The spatial noise function also has a property that the larger the value of each pixel compared to the image average, the larger the value, so it can be used for learning as it is. There is a tendency to make. In order to overcome this, MSE is applied by taking the square of the existing spatial noise as shown in Equation 7 above to enable rapid convergence when learning a neural network.

도 6 및 7은 실시 예에 따른 딥 러닝 뉴럴 네트워크를 설명하기 위한 예시 도들이다. 6 and 7 are exemplary diagrams for describing a deep learning neural network according to an embodiment.

실시 예에 따른 뉴럴 네트워크는 도 6에 도시된 바와 같이, 입력층 1개, 은닉층 1개, 출력층 1개로 총 3층으로 구성할 수 있다. 이는 은닉층 최소 2~3층 이상 사용하는 일반 딥러닝 뉴럴 네트워크에 비해 얕은 것으로 튜닝에 의한 결과이다. 이는 부수적으로 적은 메모리 사용과 빠른 학습 속도에 도움이 된다. 뉴럴 네트워크는 보정되지 않은 가로 80 픽셀, 세로60 픽셀 영상의 입출력을 수행하기 위해 입출력 및 은닉층 모두 4800개 노드로 구성되어 있다.As illustrated in FIG. 6, the neural network according to the embodiment may be composed of three layers including one input layer, one hidden layer, and one output layer. This is a result of tuning as it is shallower than a general deep learning neural network that uses at least two or three layers of hidden layers. This, in turn, helps with less memory usage and faster learning speed. The neural network consists of 4800 nodes in both the input/output and hidden layers to perform input/output of an uncorrected image of 80 pixels horizontally and 60 pixels vertically.

실시 예에서는 뉴럴 네트워크의 은닉층을 1개로 구성하였지만, 이에 한정되지 않고 더 많은 개수의 은닉층으로 구성할 수 있음은 물론이다.In the embodiment, although one hidden layer of the neural network is configured, the present invention is not limited thereto, and a larger number of hidden layers may be used as a matter of course.

활성 함수는 도 7과 같이, ReLU(Rectified Linear Unit)를 적용하였다. ReLU 활성 함수는 Vanish Gradient 문제를 해결하는데 효과적이다. 그리고 뉴럴 네트워크 초기화 시 Xavier 초기화를 적용하였다. 최종 비용함수로 유사 영상 거칠기 비용함수와 공간잡음 비용함수의 합을 사용하였다.As for the activity function, as shown in FIG. 7, ReLU (Rectified Linear Unit) was applied. The ReLU activation function is effective in solving the Vanish Gradient problem. And when the neural network was initialized, Xavier initialization was applied. The sum of the similar image roughness cost function and the spatial noise cost function was used as the final cost function.

도 8은 또 다른 실시 예에 따른 딥 러닝 뉴럴 네트워크를 이용한 장면기반 불균일 보정 방법을 설명하기 위한 흐름 도이다.8 is a flowchart illustrating a scene-based non-uniformity correction method using a deep learning neural network according to another embodiment.

도 8을 참조하면, 단계 800에서, 뉴럴 네트워크 출력을 오프셋으로 가정한 딥러닝 뉴럴 네트워크 구조를 구성한다.Referring to FIG. 8, in step 800, a deep learning neural network structure is constructed assuming an offset of the neural network output.

단계 802에서, 불균일 보정 미적용 영상 데이터를 입력받는다.In step 802, image data to which non-uniformity correction is not applied is input.

단계 804에서, 딥러닝 뉴럴 네트워크 학습을 수행한다.In step 804, deep learning neural network training is performed.

단계 806에서, 가정된 딥러닝 뉴럴 네트워크 출력 오프셋을 획득한다.In step 806, an assumed deep learning neural network output offset is obtained.

단계 808에서, 불균일보정 미적용 영상 데이터와 단계 806에서 획득된 가정 오프셋을 합산하여, 가정된 불균일 보정 영상을 획득한다. In step 808, the image data to which non-uniformity correction is not applied and the assumed offset obtained in step 806 are summed to obtain an assumed non-uniformity correction image.

단계 810 및 812에서, 각각 가정된 불균일 보정 영상으로부터 유사 영상 거칠기 비용함수와, 공간 잡음 비용함수를 획득한다.In steps 810 and 812, a similar image roughness cost function and a spatial noise cost function are obtained from the assumed non-uniformity corrected image, respectively.

단계 814에서, 유사영상 거칠기 비용함수와 공간 잡음 비용함수를 합산하여 최종 비용함수를 획득한다. In step 814, a final cost function is obtained by summing the similar image roughness cost function and the spatial noise cost function.

단계 814에서 획득된 최종 비용함수는 단계 804의 딥러닝 뉴럴 네트워크 학습의 피드백 정보로서 제공된다.The final cost function obtained in step 814 is provided as feedback information of deep learning neural network training in step 804.

단계 802 내지 814를 일정 횟수 반복수행한 후 단계 806에서 출력된 오프셋이 단계 816의 최종 오프셋으로 획득된다.After repeating steps 802 to 814 a predetermined number of times, the offset output in step 806 is obtained as the final offset in step 816.

단계 818에서, 최종 오프셋을 이용하여 불균일 보정을 수행한다.In step 818, non-uniformity correction is performed using the final offset.

실시 예에서, 뉴럴 네트워크 출력을 오프셋으로 가정한 딥러닝 뉴럴 네트워크 구조 구성 후 뉴럴 네트워크에 불균일보정이 미적용된 영상들을 입력한다. 뉴럴 네트워크 출력은 가정된 오프셋 출력으로 이를 입력에 이용된 불균일보정 미적용된 영상들과 합하여 가정된 불균일보정 적용 영상을 출력한다. 이 불균일보정이 적용된 영상을 기준으로 유사 영상 거칠기 비용함수와 공간 잡음 비용함수를 계산하게 되며, 이를 딥러닝 뉴럴 네트워크의 피드백으로 이용하게 된다. 이러한 학습과정을 반복 수렴시키면 최종적으로 안정화된 오프셋을 획득하게 된다. 이 획득된 오프셋은 불균일보정시 오프셋으로 활용한다. In an embodiment, images to which non-uniformity correction is not applied are input to the neural network after constructing a deep learning neural network structure assuming the neural network output as an offset. The neural network output is an assumed offset output, which is summed with the non-uniformity correction unapplied images used for input, and outputs an assumed non-uniformity correction applied image. The similar image roughness cost function and spatial noise cost function are calculated based on the image to which the non-uniformity correction is applied, and these are used as feedback of the deep learning neural network. When this learning process is repeatedly converged, a stabilized offset is finally obtained. This obtained offset is used as an offset when correcting non-uniformity.

실시 예에 따른 장면기반 불균일보정 결과 예시는 도 9에 도시된 바와 같다. 도 9a에 도시된 불균일보정 미적용 영상(501) 데이터를 딥러닝 뉴럴 네트워크의 입력으로 이용하고 뉴럴 네트워크 출력을 오프셋으로 가정한 딥러닝 뉴럴 네트워크 학습 구조, 유사 영상 거칠기 비용함수, 공간 잡음 비용함수를 이용한 딥러닝 뉴럴 네트워크 학습 결과, 도 9c에 도시된 최종 생성된 오프셋(503)을 획득할 수 있다. 이렇게 획득된 오프셋을 불균일보정 미적용 영상에 적용하여 도 9b에 도시된 불균일보정 적용 영상(502)을 획득할 수 있다.An example of a scene-based non-uniformity correction result according to an embodiment is shown in FIG. 9. Using the non-uniformity correction unapplied image 501 data shown in FIG. 9A as an input of a deep learning neural network and using a deep learning neural network learning structure that assumes the neural network output as an offset, a similar image roughness cost function, and a spatial noise cost function. As a result of training the deep learning neural network, a finally generated offset 503 shown in FIG. 9C may be obtained. The obtained offset may be applied to an image to which the non-uniformity correction is not applied to obtain an image 502 to which the non-uniformity correction is applied as shown in FIG. 9B.

실시 예에서는 뉴럴 네트워크 라이브러리로 “Tensorflow 180 for CPU”, 코드 작성은 “Python 35”, CPU는 “Intel i5-3470”, 메모리는 16GB를 적용하였으며, 80×60 14bit 영상을 사용하였다. 모든 노드의 학습을 위해 드롭아웃은 적용하지 않았다. 최적화 알고리즘으로 Adam 옵티마이저를 적용하였으며, 학습률 0001로 총 200회 학습을 진행하였다. In the embodiment, “Tensorflow 180 for CPU” is used as a neural network library, “Python 35” is used for writing the code, “Intel i5-3470” is used for the CPU, 16GB of memory is applied, and an 80×60 14bit image is used. Dropout was not applied for learning of all nodes. Adam optimizer was applied as an optimization algorithm, and a total of 200 training was performed with a learning rate of 0001.

실시 예에 따른 딥러닝 뉴럴 네트워크를 이용한 장면기반 불균일보정 학습 과정은 아래와 같다. 도 10에 도시된 것처럼, 뉴럴 네트워크를 0.001 학습률로 200회 학습 시 약 50회 학습으로 비용함수(601)가 수렴하여 학습이 되는 것을 확인할 수 있다. 도 11을 참조하면, 매회 학습 시 마다 오프셋이 추정 수렴되는 과정(602)을 확인할 수 있다. 학습 단계에 따른 뉴럴 네트워크 출력 추정된 불균일보정 오프셋 영상을 보여주고 있다. 학습 1단계부터 점차적으로 추정된 오프셋이 완성되는 것을 확인할 수 있다. 그림 10에서 최종 비용함수가 약 50회 학습 단계에서 수렴된 것과 같이 예측된 오프셋 영상이 약 50회 단계부터 변화가 거의 일어나지 않는 것을 확인할 수 있다A scene-based non-uniformity correction learning process using a deep learning neural network according to an embodiment is as follows. As shown in FIG. 10, it can be confirmed that when the neural network is trained 200 times at a learning rate of 0.001, the cost function 601 converges to learn about 50 times. Referring to FIG. 11, a process 602 in which an offset is estimated and converged for each learning can be confirmed. The estimated non-uniformity correction offset image of the neural network output according to the learning stage is shown. From the first step of learning, it can be seen that the estimated offset is gradually completed. In Figure 10, it can be seen that the predicted offset image hardly changes from about 50 times as the final cost function converged at about 50 training steps.

실시 예에 따른 유사 영상 거칠기 비용함수와 공간잡음 비용함수를 이용한 딥러닝 장면 기반 불균일보정은 PSNR 기준 최대 703dB의 영상품질 보였으며, 기존 improved IRLMS 알고리즘에 비해 약 80dB 높은 영상 품질을 보였다. 이는 무보정 영상의 각 프레임 특성이나 연속적 특성에 의해 따라 달라질 수 있으나 기존 improved IRLMS 알고리즘에 비해 의미 있는 성능개선을 보인 것을 확인할 수 있다.Deep learning scene-based non-uniformity correction using the similar image roughness cost function and spatial noise cost function according to the embodiment showed a maximum image quality of 703 dB based on PSNR, and about 80 dB higher image quality than the existing improved IRLMS algorithm. This may vary depending on the characteristics of each frame or continuous characteristics of the uncorrected image, but it can be seen that the performance improved significantly compared to the existing improved IRLMS algorithm.

실시 예에서는 딥러닝 뉴럴 네트워크, 뉴럴 네트워크 출력을 오프셋으로 가정한 딥러닝 뉴럴 네트워크 학습 구조, 유사 영상 거칠기 비용함수, 공간 잡음 비용함수를 이용하여 불균일보정에 사용되는 오프셋을 최종적으로 획득한다.In an embodiment, an offset used for non-uniformity correction is finally obtained by using a deep learning neural network, a deep learning neural network learning structure that assumes the output of the neural network as an offset, a similar image roughness cost function, and a spatial noise cost function.

이러한 구성으로부터 뉴럴 네트워크 출력을 오프셋으로 가정한 딥러닝 뉴럴 네트워크 학습 구조를 이용하여 불균일보정 오프셋을 최종 획득할 수 있고, 유사 영상 거칠기 비용함수를 이용하여 뉴럴 네트워크 출력에서 오프셋을 유도할 수 있고, 공간 잡음 비용함수를 이용하여 뉴럴 네트워크 출력에서 오프셋을 유도할 수 있다.From this configuration, the nonuniformity correction offset can be finally obtained using a deep learning neural network learning structure that assumes the neural network output as an offset, and the offset can be derived from the neural network output using a similar image roughness cost function. The noise cost function can be used to derive the offset from the neural network output.

또한, 유사 영상 거칠기 비용함수와 공간 잡음 비용함수를 조합한 최종 비용함수를 이용하여 더욱 높은 품질 및 정확도의 최종 오프셋을 획득할 수 있다.In addition, a final offset of higher quality and accuracy may be obtained by using a final cost function obtained by combining a similar image roughness cost function and a spatial noise cost function.

기존 통계 기반(Statistics based), 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)은 최소 50~300프레임 정도의 불균일보정 미보정 영상이 필요했던 것에 비하여, 실시 예에서는 2 내지 10의 적은 프레임 수로도 품질이 높은 불균일보정 오프셋을 획득할 수 있다. Conventional statistics-based, registration-based scene-based non-uniformity correction (SBNUC) requires at least 50-300 frames of non-uniformity-corrected uncorrected images, whereas in the embodiment 2 to 10 fewer frames It is also possible to obtain a high-quality non-uniformity correction offset in the water channel.

실시 예에서는 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)에서 취약한 영상의 회전, 확대 및 축소의 영향을 받지 않으며, 기존 통계 기반(Statistics based), 정합 기반(Registration based)의 장면 기반 불균일보정(SBNUC)에 비해 고스트 영상 현상이 거의 없다.In the embodiment, the registration-based scene-based non-uniformity correction (SBNUC) is not affected by the rotation, enlargement, and reduction of the weak image, and the scene-based non-uniformity based on existing statistics (Statistics-based) and registration-based (Registration-based) There is almost no ghost image phenomenon compared to correction (SBNUC).

실시 예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형가능 하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily transformed into other specific forms without changing the technical spirit or essential features of the present invention. . Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (12)

장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 방법으로서,
불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하는 단계;
상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하는 단계;
상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수의 합으로부터 최종 비용함수를 획득하는 단계; 및
상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 상기 딥 뉴럴 네트워크를 학습시키는 단계를 포함하는 딥러닝 뉴럴 네트워크 학습 방법.
As a method of training a deep learning neural network that outputs an offset for scene-based non-uniformity correction,
Outputting a first offset through a deep learning neural network into which an image to which non-uniformity correction is not applied is input;
Calculating a similar image roughness cost function and a spatial noise cost function from the image to which the non-uniformity correction was not applied and the first non-uniformity-corrected image obtained by summing the outputted first offset;
Obtaining a final cost function from the sum of the calculated similar image roughness cost function and spatial noise cost function; And
And training the deep neural network by providing the obtained final cost function to the deep learning neural network as feedback information.
제 1 항에 있어서,
상기 유사 영상 거칠기 비용함수는,
영상의 거칠기에 비례하여 상기 딥 뉴럴 네트워크의 학습속도를 조절하는 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 방법.
The method of claim 1,
The pseudo image roughness cost function is,
A deep learning neural network learning method, characterized in that the learning speed of the deep neural network is adjusted in proportion to the roughness of the image.
제 2 항에 있어서,
상기 유사 영상 거칠기 비용함수는,
상기 제1 불균일보정 적용 영상에 수평차이필터 및 수직차이필터를 각각 컨볼루션 연산한 결과를 평균한 유사 영상 거칠기 함수에서, 상기 수평차이필터 및 상기 수직차이필터 각각의 컨볼루션 연산한 결과를 제곱한 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 방법.
The method of claim 2,
The pseudo image roughness cost function is,
In a similar image roughness function obtained by averaging the convolution operation results of the horizontal difference filter and the vertical difference filter on the first non-uniformity correction applied image, the result of the convolution operation of the horizontal difference filter and the vertical difference filter is squared. Deep learning neural network learning method, characterized in that.
제 3 항에 있어서,
상기 유사 영상 거칠기 비용함수는,
다음 수학식에 의해 계산되는 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 방법.
[수학식]
Figure pat00029

(여기서,
Figure pat00030
는 유사영상거칠기, h1은 수평차이필터, h2는 수직차이필터, I는 영상, M은 영상 가로 픽셀수, N은 영상 세로 픽셀수,
Figure pat00031
는 L1 norm, *는 discrete convolution 임)
The method of claim 3,
The pseudo image roughness cost function is,
Deep learning neural network learning method, characterized in that calculated by the following equation.
[Equation]
Figure pat00029

(here,
Figure pat00030
Is the pseudo-image roughness, h1 is the horizontal difference filter, h2 is the vertical difference filter, I is the image, M is the number of horizontal pixels in the image, N is the number of vertical pixels in the image,
Figure pat00031
Is L1 norm, * is discrete convolution)
제 1 항에 있어서,
상기 공간 잡음 비용함수는,
다음 수학식에 의해 계산되는 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 방법.
[수학식]
Figure pat00032

(여기서,
Figure pat00033
는 영상 평균,
Figure pat00034
는 영상 공간잡음,
Figure pat00035
는 영상 공간 잡음 비용함수이고, I는 영상, M은 영상 가로 픽셀수, N은 영상 세로 픽셀 수임)
The method of claim 1,
The spatial noise cost function is,
Deep learning neural network learning method, characterized in that calculated by the following equation.
[Equation]
Figure pat00032

(here,
Figure pat00033
Is the image mean,
Figure pat00034
Is the image spatial noise,
Figure pat00035
Is the image spatial noise cost function, I is the image, M is the number of horizontal pixels in the image, and N is the number of vertical pixels in the image)
딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 방법으로서,
불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하는 단계;
상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하는 단계;
상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수로부터 최종 비용함수를 획득하는 단계;
상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 학습시키는 단계; 및
상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 입력 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력하는 단계를 포함하는 장면 기반 불균일보정 방법.
As a scene-based non-uniformity correction method using a deep learning neural network,
Outputting a first offset through a deep learning neural network into which an image to which non-uniformity correction is not applied is input;
Calculating a similar image roughness cost function and a spatial noise cost function from the image to which the non-uniformity correction was not applied and the first non-uniformity-corrected image obtained by summing the outputted first offset;
Obtaining a final cost function from the calculated similar image roughness cost function and spatial noise cost function;
Providing the obtained final cost function to the deep learning neural network as feedback information for training; And
And outputting a non-uniformly corrected corrected image by summing a final offset output from the learned deep learning neural network and an input original image.
딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 방법으로서,
상기 제 1 항 내지 제 5 항 중 어느 한 항에 따른 학습 방법에 의해 학습된 딥러닝 뉴럴 네트워크에 원본 영상을 입력하는 단계; 및
상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 상기 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력하는 단계를 포함하는 장면 기반 불균일보정 방법.
As a scene-based non-uniformity correction method using a deep learning neural network,
Inputting an original image into a deep learning neural network learned by the learning method according to any one of claims 1 to 5; And
And outputting a non-uniformly corrected corrected image by summing a final offset output from the learned deep learning neural network and the original image.
제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium on which a program for executing the method according to any one of claims 1 to 6 on a computer is recorded. 장면 기반 불균일보정을 위한 오프셋을 출력하는 딥러닝 뉴럴 네트워크를 학습시키는 장치로서,
메모리; 및
프로세서를 포함하고,
상기 프로세서는,
불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하고, 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하고, 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수의 합으로부터 최종 비용함수를 획득하고, 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 상기 딥 뉴럴 네트워크를 학습시키는 딥러닝 뉴럴 네트워크 학습 장치.
As a device that learns a deep learning neural network that outputs an offset for scene-based non-uniformity correction,
Memory; And
Including a processor,
The processor,
Similar image roughness cost function and spatial noise from the first non-uniformity-corrected image obtained by summing the non-uniformity-corrected image and the output first offset through the deep learning neural network into which the non-uniformity-corrected image is input Calculate a cost function, obtain a final cost function from the sum of the calculated similar image roughness cost function and spatial noise cost function, and provide the obtained final cost function as feedback information to the deep learning neural network to provide the deep neural network. Deep learning neural network learning device that trains the network.
제 9 항에 있어서,
상기 유사 영상 거칠기 비용함수는,
영상의 거칠기에 비례하여 상기 딥 뉴럴 네트워크의 학습속도를 조절하는 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 장치.
The method of claim 9,
The pseudo image roughness cost function is,
Deep learning neural network learning apparatus, characterized in that adjusting the learning speed of the deep neural network in proportion to the roughness of the image.
제 10 항에 있어서,
상기 유사 영상 거칠기 비용함수는,
상기 제1 불균일보정 적용 영상에 수평차이필터 및 수직차이필터를 각각 컨볼루션 연산한 결과를 평균한 유사 영상 거칠기 함수에서, 상기 수평차이필터 및 상기 수직차이필터 각각의 컨볼루션 연산한 결과를 제곱한 것을 특징으로 하는 딥러닝 뉴럴 네트워크 학습 장치.
The method of claim 10,
The pseudo image roughness cost function is,
In a similar image roughness function obtained by averaging the convolution operation results of the horizontal difference filter and the vertical difference filter on the first non-uniformity correction applied image, the result of the convolution operation of the horizontal difference filter and the vertical difference filter is squared. Deep learning neural network learning device, characterized in that.
딥러닝 뉴럴 네트워크를 이용한 장면 기반 불균일보정 장치로서,
메모리; 및
프로세서를 포함하고,
상기 프로세서는,
불균일보정 미적용 영상이 입력된 딥러닝 뉴럴 네트워크를 통해 제1 오프셋을 출력하고, 상기 불균일보정 미적용 영상과 상기 출력된 제1 오프셋을 합산한 제1 불균일보정 적용 영상으로부터 유사 영상 거칠기 비용함수 및 공간잡음 비용함수를 계산하고, 상기 계산된 유사 영상 거칠기 비용함수 및 공간잡음 비용함수로부터 최종 비용함수를 획득하고, 상기 획득된 최종 비용함수를 상기 딥러닝 뉴럴 네트워크에 피드백 정보로서 제공하여 학습시키고, 상기 학습된 딥러닝 뉴럴 네트워크로부터 출력된 최종 오프셋과 입력 원본 영상을 합산하여 불균일 보정된 보정 영상을 출력하는 장면 기반 불균일보정 장치.
As a scene-based non-uniformity correction device using a deep learning neural network,
Memory; And
Including a processor,
The processor,
Similar image roughness cost function and spatial noise from the first non-uniformity-corrected image obtained by summing the non-uniformity-corrected image and the output first offset through the deep learning neural network into which the non-uniformity-corrected image is input Calculate a cost function, obtain a final cost function from the calculated similar image roughness cost function and spatial noise cost function, provide the obtained final cost function as feedback information to the deep learning neural network to learn, and the learning Scene-based non-uniformity correction device that outputs a non-uniformly corrected corrected image by summing the final offset output from the deep learning neural network and the input original image.
KR1020190129334A 2019-10-17 2019-10-17 Scene-based nonuniformity correction method and apparatus using deep neural network KR102340318B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190129334A KR102340318B1 (en) 2019-10-17 2019-10-17 Scene-based nonuniformity correction method and apparatus using deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190129334A KR102340318B1 (en) 2019-10-17 2019-10-17 Scene-based nonuniformity correction method and apparatus using deep neural network

Publications (2)

Publication Number Publication Date
KR20210045839A true KR20210045839A (en) 2021-04-27
KR102340318B1 KR102340318B1 (en) 2021-12-16

Family

ID=75725732

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190129334A KR102340318B1 (en) 2019-10-17 2019-10-17 Scene-based nonuniformity correction method and apparatus using deep neural network

Country Status (1)

Country Link
KR (1) KR102340318B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117156113A (en) * 2023-10-30 2023-12-01 南昌虚拟现实研究院股份有限公司 Deep learning speckle camera-based image correction method and device
CN117649370A (en) * 2024-01-29 2024-03-05 长春智灵光电科技有限公司 Residual BP neural network and method for image non-uniformity correction
CN117649370B (en) * 2024-01-29 2024-05-14 长春智灵光电科技有限公司 Residual BP neural network and method for image non-uniformity correction

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230141170A (en) 2022-03-31 2023-10-10 대한민국(육군참모총장) A method of detecting mines using generative adversial networks

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101955498B1 (en) * 2018-07-19 2019-03-08 엘아이지넥스원 주식회사 Infrared image correction apparatus using neural network structure and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101955498B1 (en) * 2018-07-19 2019-03-08 엘아이지넥스원 주식회사 Infrared image correction apparatus using neural network structure and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yi Chang et al., "Infrared Aerothermal Nonuniform Correction via Deep Multiscale Residual Network," IEEE GEOSCIENCE AND REMOTE SENSING LETTERS, VOL. 16, NO. 7, JULY 2019 (2019.07.31.)* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117156113A (en) * 2023-10-30 2023-12-01 南昌虚拟现实研究院股份有限公司 Deep learning speckle camera-based image correction method and device
CN117156113B (en) * 2023-10-30 2024-02-23 南昌虚拟现实研究院股份有限公司 Deep learning speckle camera-based image correction method and device
CN117649370A (en) * 2024-01-29 2024-03-05 长春智灵光电科技有限公司 Residual BP neural network and method for image non-uniformity correction
CN117649370B (en) * 2024-01-29 2024-05-14 长春智灵光电科技有限公司 Residual BP neural network and method for image non-uniformity correction

Also Published As

Publication number Publication date
KR102340318B1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
Hardie et al. Scene-based nonuniformity correction with video sequences and registration
Zuo et al. Scene-based nonuniformity correction algorithm based on interframe registration
US10217200B2 (en) Joint video stabilization and rolling shutter correction on a generic platform
CN102538973B (en) Rapidly converged scene-based non-uniformity correction method
KR102340318B1 (en) Scene-based nonuniformity correction method and apparatus using deep neural network
KR101955498B1 (en) Infrared image correction apparatus using neural network structure and method thereof
US10931901B2 (en) Method and apparatus for selectively correcting fixed pattern noise based on pixel difference values of infrared images
CN102778296B (en) Total variation-based self-adaptation non-uniformity correction method for infrared focal plane
CN109813442B (en) Multi-frame processing-based internal stray radiation non-uniformity correction method
KR20180012989A (en) Apparatus and method for generating nonuniformity correction data, and infrared camera
Orżanowski Nonuniformity correction algorithm with efficient pixel offset estimation for infrared focal plane arrays
CN106342194B (en) A kind of Infrared Image Non-uniformity Correction method of ground scene
Averbuch et al. Scene based non-uniformity correction in thermal images using Kalman filter
Lu Stripe non-uniformity correction of infrared images using parameter estimation
Jara et al. Joint de-blurring and nonuniformity correction method for infrared microscopy imaging
Ratliff et al. Algebraic scene-based nonuniformity correction in focal plane arrays
Jara Chavez et al. Acceleration algorithm for constant-statistics method applied to the nonuniformity correction of infrared sequences
Geng et al. An adjacent differential statistics method for IRFPA nonuniformity correction
Sakoglu et al. An algebraic restoration method for estimating fixed-pattern noise in infrared imagery from a video sequence
Vera et al. Total variation adaptive scene-based nonuniformity correction
CN109636740B (en) Infrared image multi-scale intelligent non-uniformity correction method
Song et al. Research on non-uniformity correction based on blackbody calibration
Zhou et al. Local spatial correlation-based stripe non-uniformity correction algorithm for single infrared images
Sui et al. A new nonuniformity correction algorithm for infrared line scanners
Kumar et al. Least Square Regression based Non-Uniformity Correction for Infra-red Focal Plane Arrays

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant