KR101829287B1 - Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution - Google Patents

Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution Download PDF

Info

Publication number
KR101829287B1
KR101829287B1 KR1020160160159A KR20160160159A KR101829287B1 KR 101829287 B1 KR101829287 B1 KR 101829287B1 KR 1020160160159 A KR1020160160159 A KR 1020160160159A KR 20160160159 A KR20160160159 A KR 20160160159A KR 101829287 B1 KR101829287 B1 KR 101829287B1
Authority
KR
South Korea
Prior art keywords
image
training
resolution
test
low
Prior art date
Application number
KR1020160160159A
Other languages
Korean (ko)
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020160160159A priority Critical patent/KR101829287B1/en
Application granted granted Critical
Publication of KR101829287B1 publication Critical patent/KR101829287B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method and an apparatus for infrared image super-resolution transform based on nonsubsampled contourlet transform (NSCT), which transform a low resolution infrared (LR IR) image into high resolution infrared (HR IR) image through an NSCT method by using a sparse dictionary and a residual dictionary. According to the present invention, the method comprises: (A) a step of a raw sparse dictionary generation module receiving training LR and HR IR image sets to form a training high frequency map; (B) a step of the raw sparse dictionary generation module performing the NSCT of the training LR IR image to form a training LR coefficient block; (C) a step of the raw sparse dictionary generation module forming a training HR coefficient block from the training high frequency map; (D) a step of the raw sparse dictionary generation module using the training LR coefficient block to form a raw LR sparse dictionary and using the training HR coefficient block to form a raw HR sparse dictionary; (E) a step of a residual sparse dictionary generation module to form residual HR and LR sparse dictionaries; (F) a step of a test module receiving a test LR IR image to form a test LR coefficient block; and (G) a step of the test module calculating the formed HR coefficient block to form an estimated HR IR image.

Description

비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법 및 장치{Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution}[0001] Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution [0002]

본 발명은 희소(Sparse) 사전과 잔여(Residual) 사전을 이용하여 비부표본 윤곽선 변환 방법으로 저해상도 적외선 영상을 고해상도로 변환하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법 및 장치에 관한 것이다.The present invention relates to an infrared image super-resolution method and apparatus for converting a low-resolution infrared image to a high resolution by using a non-sample-to-image contour transformation method using a sparse dictionary and a residual dictionary.

적외선 (IR) 열 화상 카메라는 장면의 열복사에 의해 가시 광선의 영향을 받지 않는 적외선 이미지를 생성할 수 있다. 따라서 IR 이미지는 보안 감시, 생물 의학 용도, 군사적 용도 등에 적용할 수 있다. An infrared (IR) thermal imaging camera can generate an infrared image that is not affected by visible light by thermal radiation of the scene. Thus, IR images can be applied to security surveillance, biomedical applications, military applications, and so on.

그러나 하드웨어의 한계 때문에 적외선 이미지의 해상도는 매우 낮다. 이 저해상도(LR: Low-Resolution) IR 이미지는 추가 분석을 수행하는 경우에 실패를 초래할 수 있다.However, due to hardware limitations, the resolution of infrared images is very low. This low-resolution (LR) IR image can lead to failure when performing further analysis.

초고 해상도(SR:Super-Resolution) 방법은 단일 LR 이미지 또는 여러 LR 이미지를 통해 고 해상도(HR: High-Resolution) 이미지를 재구성하는 기술이다. The Super-Resolution (SR) method is a technique for reconstructing high-resolution (HR) images through a single LR image or multiple LR images.

이와 같은 초고 해상도 방법은 LR IR 이미지의 해상도를 향상시키는 최상의 솔루션 중 하나이다. 보간법 [1,2,3], 재구성 기반 SR [4,5,6,7,8], 학습 기반 SR 방법 [9,10,11,12,13,14,15] 등 많은 초고 해상도 방법이 있다. 일반적으로 보간법을 사용하는 SR 이미지는 고주파수의 세부 사항이 부족하고, 매우 부드러운 가장자리와 원치 않는 많은 아티팩트(artifact)를 가지고 있다. This ultra-high resolution method is one of the best solutions to improve the resolution of LR IR images. There are many super-resolution methods such as interpolation [1,2,3], reconstruction-based SR [4,5,6,7,8], and learning-based SR methods [9,10,11,12,13,14,15] . Generally, an SR image using interpolation lacks high-frequency details, has very smooth edges and a lot of unwanted artifacts.

재구성 기반 SR 방법에서 HR 이미지를 재구성하려면 동일한 장면의 LR 이미지 시퀀스가 필요하다. 재구성 기반 SR 방법은 낮은 배율로 인해 제한된다. 학습 기반 SR 방법에서 HR 이미지는 LR 및 HR 이미지 쌍을 포함하는 트레이닝 세트를 사용하여 해당 LR 이미지에서 생성된다.To reconstruct an HR image in a reconstruction-based SR method, an LR image sequence of the same scene is required. Reconstruction based SR methods are limited due to low magnification. In the learning-based SR method, an HR image is generated in the corresponding LR image using a training set that includes a pair of LR and HR images.

Freeman et al. 은 마르코프 네트워크를 학습하여 LR 이미지 패치와 해당 HR 이미지 패치 사이의 관계를 찾는 방법을 제안했다[16]. Zeyde et al.은 업스케일 이미지 희소 표현 모델링[17]을 제안했다. 이러한 방법은 성능이 좋긴 하지만 복잡성이 매우 높으며 많은 메모리가 필요하다.Freeman et al. Proposed a method of learning the relationship between the LR image patch and the corresponding HR image patch [16] by learning the Markov network. Zeyde et al. Proposed upscale image sparse representation modeling [17]. Although this approach has good performance, it is very complex and requires a lot of memory.

지금까지 IR 이미지의 SR에 대한 연구는 거의 이루어지지 않았다. Yu et al.은 비 국부적인 방법과 조종 커널 회귀에 기초한 알고리즘을 제안했다. So far, little research has been done on the SR of IR images. Yu et al. Proposed an algorithm based on a non-local method and a manipulated kernel regression.

Zhao et al.은 비부표본 윤곽선 변환(NSCT: nonsampled contourlet transform )과 파라볼릭 오차 에지 보존 보간법[19]을 결합한 SR 기법을 제안했다. Zhao et al. Proposed an SR technique that combines nonsampled contour transform (NSCT) and parabolic error edge preservation interpolation [19].

Wang et al.은 시뮬레이션 된 적외선 이미지에서 견고한 초고 해상도의 성능을 고려한다[20]. Wang et al. [10] consider robust ultra-high-resolution performance in simulated infrared images [20].

위에서 언급한 방법은 성능이 향상되지만 몇 가지 단점이 있다. 첫째, 훈련된 사전은 비구조화된 사전이다. 이로 인해 더 나쁜 결과가 발생할 수 있다. 게다가, 미분 필터는 이미지 특징을 추출하기 위해 채택된다. 그러나 이러한 기능은 이미지를 효과적으로 표현하기에는 너무 단순하다. 마지막으로 HR IR 이미지를 추론하기 위해 하나의 HR-LR 사전 쌍이 채택된다. 그러나 하나의 HR-LR 사전 쌍은 좋은 결과를 얻기에 충분하지 않다.The above method improves performance, but has several drawbacks. First, the trained dictionary is an unstructured dictionary. This can lead to worse results. In addition, differential filters are employed to extract image features. However, these features are too simple to express effectively. Finally, one HR-LR dictionary pair is adopted to infer the HR IR image. However, one HR-LR dictionary pair is not enough to get good results.

[1] Lei Zhang and Xiaolin Wu, "An Edge-Guided Image Interpolation Algorithm via Directional Filtering and Data Fusion", IEEE Transaction on Image Processing(2006),Vol.15,No.8, pp.2226-2238.[1] Lei Zhang and Xiaolin Wu, "An Edge-Guided Image Interpolation Algorithm via Directional Filtering and Data Fusion", IEEE Transaction on Image Processing (2006), Vol.15, No.8, pp.2226-2238. [2] Xiangjun Zhang and Xiaolin Wu, "Image Interpolation by Adaptive 2-D Autogressive Modeling and Soft Decision Estimation", IEEE Transaction on Image Processing(2008), Vol.17,No.6,pp.887-896.[2] Xiangjun Zhang and Xiaolin Wu, "Image Interpolation by Adaptive 2-D Autogressive Modeling and Soft Decision Estimation", IEEE Transaction on Image Processing (2008), Vol.17, No.6, pp.887-896. [3] Kai Guo, Xiaokang Yang, Hongyuan Zha, Weiyao Lin and Songyu Yu, "Multiscale Semilocal Interpolation with Antialiasing", IEEE Transaction on Image Processing(2012), Vol.21, No.2, pp.615-625.[3] Kai Guo, Xiaokang Yang, Hongyuan Zha, Weiyao Lin and Songyu Yu, "Multiscale Semilocal Interpolation with Antialiasing", IEEE Transaction on Image Processing (2012), Vol.21, No.2, pp. 615-625. [4] J. D. van Ouwerkerk, "Image super-resolution survey", Image and Vision Computing(2006), Vol.24, No.10, pp.1039-1052.[4] J. D. van Ouwerkerk, "Image super-resolution survey ", Image and Vision Computing (2006), Vol.24, No.10, pp.1039-1052. [5] S. P. Kim, N. K. Bose and H.M.Valenzuela, "Recursive Reconstruction of High-Resolution Image from Noisy Under sampled Multiframes", IEEE Transactions on Acoustics, Speech and Signal Processing(1990), Vol.38, No.6, pp.1013-1027. [5] SP Kim, NK Bose and HMValenzuela, "Recursive Reconstruction of High-Resolution Image from Noisy Under Sampled Multiframes", IEEE Transactions on Acoustics, Speech and Signal Processing (1990), Vol. 38, No. 6, pp. 1013-1027. [6] P. Vandewalle, S. Susstrunk and M. Vetterli, "A Frequency Domain Approach to Registration of Aliased Images with Application to Super-resolution", EURASIP Journal on Applied Signal Processing(2006), pp. 1-14.[6] P. Vandewalle, S. Susstrunk and M. Vetterli, "A Frequency Domain Approach to Registration of Aliased Images with Application to Super-Resolution", EURASIP Journal on Applied Signal Processing (2006), pp. 1-14. [7] H. Stark, E. Oskoui, "High-resolution image recovery from image-plane arrays using Convex Projections", Journal of the Optical Society of America A(1989),Vol.6,No.11, pp.1715-1726.[7] H. Stark, E. Oskoui, "High-resolution image recovery from image-plane arrays using Convex Projections", Journal of the Optical Society of America (1989), Vol.6, No.11, -1726. [8] A. J. Patti, M. I. Sezan and A. M. Tekalp, "Superresolution Video Reconstruction with Arbitrary Sampling Lattices and Nonzero Aperture Time", IEEE Transactions on Image Processing(1997), Vol.6, No.8, pp.1064-1076. [8] A. J. Patti, M. I. Sezan and A. M. Tekalp, "Superresolution Video Reconstruction with Arbitrary Sampling Lattices and Nonzero Aperture Time", IEEE Transactions on Image Processing (1997), Vol.6, No.8, pp. [9] S. Baker and T. Kanade, "Limits on Super-Resolution and How to Break Them", IEEE Transaction on Pattern Analysis and Machine Intelligence(2002),Vol.24,No.9,pp.1167-1183.[9] S. Baker and T. Kanade, "Limits on Super-Resolution and How to Break Them", IEEE Transaction on Pattern Analysis and Machine Intelligence (2002), Vol.24, No.9, pp.1167-1183. [10]W. T. Freeman, T. R. Jones and E. C. Pasztor, "Example-Based Super-Resolution", IEEE Computer Graphics and Applications(2002),Vol.22, No.2, pp. 56-65.[10] W. T. Freeman, T. R. Jones and E. C. Pasztor, "Example-Based Super-Resolution", IEEE Computer Graphics and Applications (2002), Vol. 56-65. [11] Jianchao Yang, John Wright, Yi Ma and Thomas Huang, "Image Super-Resolution as Sparse Representation of Raw Image Patches", IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2008,June 23-28,Anchorage, AK, pp.1-8.[11] Jianchao Yang, John Wright, Yi Ma and Thomas Huang, "Image Super-Resolution as Sparse Representation of Raw Image Patches", IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2008, June 23-28, pp.1-8. [12] JianchaoYang, John Wright, Thomas Huang and Yi Ma, "Image Super-Resolution via Sparse Representation", IEEE Transaction on Image Processing(2010), Vol.19, No.11, pp.2861-2873.[12] Jianchao Yang, John Wright, Thomas Huang and Yi Ma, "Image Super-Resolution via Sparse Representation", IEEE Transaction on Image Processing (2010), Vol.19, No.11, pp.2861-2873. [13] Weisheng Dong, Lei Zhang, Rastislav Lukac, and Guangming Shi "Sparse Representation Based Image Interpolation With Nonlocal Autoregressive Modeling", IEEE Transaction on Image Processing(2013),Vol.22, No.4, pp.1382-1394[13] Weisheng Dong, Lei Zhang, Rastislav Lukac, and Guangming Shi "Sparse Representation Based Image Interpolation with Nonlocal Autoregressive Modeling", IEEE Transaction on Image Processing (2013), Vol.22, No.4, pp.1382-1394 [14] Weisheng Dong, Guangming Shi and Xin Li "Nonlocal Image Restoration with Bilateral Variance Estimation:A Low-Rank Approach", IEEE Transactions on Image Processing(2013), Vol.22, No.2, pp.700-711.[14] Weisheng Dong, Guangming Shi and Xin Li "Nonlocal Image Restoration with Bilateral Variance Estimation: A Low-Rank Approach", IEEE Transactions on Image Processing (2013), Vol.22, No.2, pp.700-711. [15] Gwanggil Jeon, "Directionally Categorized Training Process for Hybrid Super-Resolution Algorithm", International Journal of Multimedia and Ubiquitous Engineering(2014),Vol.9,No.3, pp.107-116.[15] Gwanggil Jeon, "Directionally Categorized Training Process for Hybrid Super-Resolution Algorithm", International Journal of Multimedia and Ubiquitous Engineering (2014), Vol.9, No.3, pp.107-116. [16] W. T. Freeman and Ce Liu, Markov random fields for super- resolution and texture Synthesis, Advances in Markov Random Fields for Vision and Image Processing,Chapter 10.MIT Press,2011.[16] W. T. Freeman and Ce Liu, Markov random fields for super-resolution and texture Synthesis, Advances in Markov Random Fields for Vision and Image Processing, Chapter 10. MIT Press, 2011. [17] R. Zeyde , M. Elad and M. Protter, On single image scale-up using sparse-representations, Curves and Surfaces, Lecture Notes in Computer Science Volume 6920, 2012,pp.711-730.[17] R. Zeyde, M. Elad and M. Protter, On single image scale-up using sparse-representations, Curves and Surfaces, Lecture Notes in Computer Science Volume 6920, 2012, pp. 711-730. [18] Hui Yu, Fusheng Chen, Zhijie Zhang and Chensheng Wang, "Single infrared image super-resolution combining non-local means with kernel regression", Infrared Physics&Technology, Vol.61, November 2013, pp.50-59.[18] Hui Yu, Fusheng Chen, Zhijie Zhang and Chensheng Wang, "Single infrared image super-resolution combining non-local means with kernel regression", Infrared Physics & Technology, Vol.61, November 2013, pp.50-59. [19] Zhao Gang, Zhang Kai, Shao Wei and Yan Jie, "A Study on NSCT based Super-Resolution Reconstruction for Infrared Image", TENCON 2013-2013 IEEE Region 10 Conference(2013),pp.1-5[19] Zhao Gang, Zhang Kai, Shao Wei and Yan Jie, "A Study on NSCT based Super Resolution Reconstruction for Infrared Image", TENCON 2013-2013 IEEE Region 10 Conference (2013), pp.1-5 [20] Jing Wang, Jason F. Ralph and John Goulermas, "An Analysis of a Robust Super Resolution Algorithm for Infrared Imaging", Proceedings of 6th International Symposium on Image and Signal Processing and Analrsis, (2009)September 16-18, Salzburg, pp.158-163.[20] Jing Wang, Jason F. Ralph and John Goulermas, "An Analysis of a Robust Super Resolution Algorithm for Infrared Imaging", Proceedings of 6th International Symposium on Image and Signal Processing and Anal ... , pp.158-163. [21] Haicang Liu, Shutao Li and Haitao Yin, "Infrared surveillance image super resolution via group sparse representation", Optics Communication(2013), Vol.289, pp.45-52.[21] Haicang Liu, Shutao Li and Haitao Yin, "Infrared surveillance image super resolution via group sparse representation", Optics Communication (2013), Vol.289, pp. 45-52. [22] M. Aharon, M. Eladan and A M. Bruckstein, "K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation", IEEE Transactions on Signal Processing(2006),Vol.54, No.11 , pp.4311-4233. [22] M. Aharon, M. Eladan and A. M. Bruckstein, "K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation", IEEE Transactions on Signal Processing (2006), Vol.54, No.11, pp .4311-4233. [23] M. N. Do and M. Vetterli, "The Contourlet Transform: An Efficient Directional Multiresolution Image Representation", IEEE Transactions on Image Processing(2005),Vol.14, No.12, pp. 2091-2106.[23] M. N. Do and M. Vetterli, "The Contourlet Transform: An Efficient Directional Multiresolution Image Representation", IEEE Transactions on Image Processing (2005), Vol.14, No.12, pp. 2091-2106. [24] Arthur L. da Cunha, Jianping Zhou and Minh N. Do, "The Nonsubsampled Contourlet Transform: Theory, Design and Applications", IEEE Transaction on Image Processing(2006), Vol.15, No.10, pp.3089-3101.[24] Arthur L. da Cunha, Jianping Zhou and Minh N. Do, "The Nonsubsampled Contourlet Transform: Theory, Design and Applications", IEEE Transaction on Image Processing (2006), Vol.15, No.10, pp.3089 -3101. [25] Qiang Zhang and Baolong Guo, "Multifocus image fusion using the nonsubsampled contourlet transform", Signal Processing(2009),Vol. 89,No. 7, pp.1334-1346.[25] Qiang Zhang and Baolong Guo, "Multifocus image fusion using the nonsubsampled contourlet transform", Signal Processing (2009), Vol. 89, No. 7, pp.1334-1346. [26] Huafeng Li, Yi Chai and Zhaofei Li, "Multi-focus image fusion based on nonsubsampled contourlet transform and focus regions detection", Optik-International Journal for Light and Electron Optics(2013), Vol.124.No.1, pp.40-51.[26] Huafeng Li, Yi Chai and Zhaofei Li, "Multi-focus image fusion based on nonsubsampled contourlet transform and focus regions detection", Optik-International Journal of Light and Electron Optics (2013), Vol.124.No.1, pp.40-51. [27] Ying Li, Jie Hu and Yu Jia, "Automatic SAR image enhancement based on nonsubsampled contourlet transform and memetic algorithm", Neurocomputing(2014),Vol.134,25,pp.70-78.[27] Ying Li, Jie Hu and Yu Jia, "Automatic SAR image enhancement based on nonsubsampled contourlet transform and memetic algorithm", Neurocomputing (2014), Vol.134, 25, pp.70-78. [28] Shuyuan Yang, Min Wang, YanXiong Lu, Weidong Qi and Licheng Jiao, "Fusion of multiparametric SAR images based on SW-nonsubsampled contourlet and PCNN", Signal Processing(2009),Vol.89,No.12, pp.2596-2608.[28] Shuyuan Yang, Min Wang, Yan Xiong Lu, Weidong Qi and Licheng Jiao, "Fusion of multiparametric SAR images based on SW-nonsubsampled contourlet and PCNN", Signal Processing (2009), Vol.89, No.12, pp. 2596-2608. [29] Rosa Rodriguez-Sanchez, J.A. Garcia and J. Fdez-Valdivia, "Image inpainting with nonsubsampled contourlet transform", Pattern Recognition Letters(2013), Vol.34, No.13, pp.1508-1518.[29] Rosa Rodriguez-Sanchez, J.A. Garcia and J. Fdez-Valdivia, "Image inpainting with nonsubsampled contourlet transform ", Pattern Recognition Letters (2013), Vol.34, No.13, pp.1508-1518. [30] R. Rubinstein, M. Zibulevsky and M. Elad, "Double Sparsity: Learning Sparse Dictionaries for Sparse Signal Approximation", IEEE Transactions on Signal Processing(2010), Vol.58, No.3, pp.1553-1564.[30] R. Rubinstein, M. Zibulevsky and M. Elad, "Double Sparsity: Learning Sparse Dictionaries for Sparse Signal Approximation", IEEE Transactions on Signal Processing (2010), Vol.58, No.3, pp.1553-1564 . [31] K. Engan, S. Aase, and J. Husoy,"Method of optimal directions for frame design", Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, (1990) March 19-19, Phoenix, AZ, Vol.5,pp.2443-2446 .Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing, (1990) March 19-19, Phoenix, AZ, Vol. 5, pp. 2443-2446. [32] Wei Wu and Chenglin Zheng, "Single image super-resolution using self-similarity and generalized nonlocal mean", TENCON 2013-2013 IEEE Region 10 Conference,(2013) October 22-25, Xi'n, China,pp.1-4.[32] Wei Wu and Chenglin Zheng, "Single image super-resolution using self-similarity and generalized nonlocal mean ", TENCON 2013-2013 IEEE Region 10 Conference, (October 2013) October 22-25, Xi'n, China, pp. 1-4. [33] Yingying Zhang, Wei Wu,Yong Dai , Xiaomin Yang, Binyu Yan and Wei Lu, "Remote Sensing Image Super- resolution Based on Sparse Dictionaries and Residual Dictionaries", 2013 IEEE 11th International Conference on Dependable, Autonomic and Secure Computing , (2013)December 21-22 :Chengdu, China,pp.318-323[33] Yingying Zhang, Wei Wu, Yong Dai, Xiaomin Yang, Binyu Yan and Wei Lu, "Remote Sensing Image Super Resolution Based on Sparse Dictionaries and Residual Dictionaries", 2013 IEEE International Conference on Dependable, Autonomic and Secure Computing, (2013) December 21-22: Chengdu, China, pp.318-323 [34] Shangfei Wang, Zhilei Liu, Siliang Lv, Yanpeng Lv, Guobing Wu, Peng Peng, Fei Chen and Xufa Wang, "A Natural Visible and Infrared Facial Expression Database for Expression Recognition and Emotion Inference", IEEE Transactions on Multimedia(2010), Vol.12, No.7, pp.682-691.IEEE Transactions on Multimedia (2010), "A Natural Visible and Infrared Facial Expression Database for Expression Recognition and Emotion Inference," by Yong-Sik Lee, Sang-ki Lv, Yanpeng Lv, Guobing Wu, Peng Peng, Fei Chen and Xufa Wang ), Vol. 12, No. 7, pp. 682-691. [35]"flir.com(1999-2013)FLIR Systems,Inc", [Online]Available: http://www.cvs.flir.com/l/6132/2011-08-02/1ARLRpi_ad_id=35322332185&gclid=COa2uNTZxccCFUEljgodZpQGTA.[35] "flir.com (1999-2013) FLIR Systems, Inc", [Online] Available: http://www.cvs.flir.com/l/6132/2011-08-02/1ARLRpi_ad_id=35322332185&gclid=COa2uNTZxccCFUEljgodZpQGTA . [36] Adrian Burlacu and Corneliu Lazar, "Image Feature Detection using Phase Congruency and Its Application in Visual Servoing", 2008 IEEE 4th International Conference on Intelligent Computer Comunication and Processing, (2010) August 29-30:Cluj-Napoca,pp.47-52.[36] Adrian Burlacu and Corneliu Lazar, "Image Feature Detection using Phase Congruency and Its Application in Visual Servoing", 2008 IEEE 4th International Conference on Intelligent Computer Comunication and Processing, (2010) August 29-30: Cluj-Napoca, pp. 47-52. [37] Simona E. Grigoresu, Nocolai Petkov and Peter Kruizinga, "Comparison of Texture Features Based on Gabor Filters", IEEE Transaction on Image Processing (2002), Vol.11, No.10, pp.1160-1167.[37] Simona E. Grigoresu, Nocolai Petkov and Peter Kruizinga, "Comparison of Texture Features Based on Gabor Filters", IEEE Transaction on Image Processing (2002), Vol.11, No.10, pp. 1160-1167.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 희소 사전을 IR 이미지 SR에 도입하여 훈련된 사전이 비구조화된 사전이라는 문제를 해결하고자 한다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above problems, and it is an object of the present invention to solve the problem that a dictionary prepared by introducing a rare dictionary into an IR image SR is an unstructured dictionary.

또한, 본 발명은 비부표본 윤곽선 변환을 사용하여 미분 필터가 너무 단순하여 효과적으로 이미지를 나타낼 수 없다는 문제를 해결하고자 한다.Further, the present invention aims to solve the problem that the differential filter is too simple to effectively display an image by using non-part sample contour transformation.

또한, 본 발명은 원시 희소 사전 쌍과 잔여 희소 사전 쌍으로 구성된 두 개의 HR-LR 희소 사전 쌍을 채택하여 하나의 HR-LR 사전 쌍이 좋은 결과를 얻기에 충분하지 않다는 문제를 해결하고자 한다.The present invention also solves the problem that one HR-LR dictionary pair is not sufficient to obtain good results by employing two pairs of HR-LR sparse dictionaries composed of a pair of primitive sparse dictionaries and a pair of remaining sparse dictionaries.

본 발명의 일 측면은 (A)원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하는 단계; (B)상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하는 단계; (C)상기 원시 희소 사전 생성 모듈은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하는 단계; (D)상기 원시 희소 사전 생성 모듈은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 단계; (E) 잔여 희소 사전 생성 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 단계; (F) 테스트 모듈이 테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록을 형성하는 단계; 및 (G) 상기 테스트 모듈은 형성된 테스트 고해상도 계수 블록을 산출하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for generating training high frequency images, comprising the steps of: (A) receiving a training LR IR image set from a primitive rare dictionary generation module; (B) the primitive sparse pregeneration module transforms a training LR IR image into a training low resolution coefficient block to form a training low resolution coefficient block; (C) the primitive sparse pregeneration module forms training high resolution coefficient blocks in a training high frequency map; (D) the primitive spurious dictionary generation module forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks, and generates a primitive high resolution sparse dictionary using the training high resolution coefficient blocks; (E) the remaining sparse dictionary creation module comprises: forming a remaining high resolution sparse dictionary and a remaining low resolution sparse dictionary; (F) receiving a test LR IR image from a test module to form a test low resolution coefficient block; And (G) the test module comprises generating a test high resolution coefficient block formed to form an estimated test HR IR image.

또한, 본 발명의 일 측면의 상기 (A) 단계는 (A-1) 상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받는 단계; (A-2) 상기 원시 희소 사전 생성 모듈은 훈련 LR IR 이미지를 확대하여 확대된 훈련 LR IR 이미지를 형성하는 단계; 및 (A-3) 상기 원시 희소 사전 생성 모듈이 확대된 훈련 LR IR 이미지와 훈련 HR IR 이미지의 차이인 훈련 고주파 맵을 형성하는 단계를 포함한다.The step (A) of one aspect of the present invention comprises the steps of: (A-1) receiving the training LR IR image set and receiving training HR IR image set; (A-2) the primitive sparse pregeneration module expands the training LR IR image to form an expanded training LR IR image; And (A-3) forming the training high-frequency map, wherein the primitive spurious dictionary generation module is a difference between an expanded training LR IR image and a training HR IR image.

또한, 본 발명의 일 측면의 상기 (A-2) 단계에서 상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 바이규빅 보간법을 사용하여 확대하여 확대된 훈련 LR IR 이미지를 형성하는 것을 특징으로 한다.Further, in the step (A-2) of the aspect of the present invention, the primitive sparse pregeneration module enlarges the training LR IR image using bikigabic interpolation to form an enlarged training LR IR image.

또한, 본 발명의 일 측면의 상기 (B) 단계는 (B-1) 상기 원시 희소 사전 생성 모듈이 확대된 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 생성하는 단계; (B-2) 상기 원시 희소 사전 생성 모듈이 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 블록 분할을 수행하여 각각에 대하여 훈련 저해상도 겹침 벡터들을 형성하는 단계; 및 (B-3) 상기 원시 희소 사전 생성 모듈이 훈련 저해상도 겹침 벡터들을 조합하여 훈련 저해상도 특징 벡터를 생성하여 훈련 저해상도 계수 블록을 형성하는 단계를 포함한다.The step (B) of one aspect of the present invention is characterized in that (B-1) the primitive sparse pregeneration module transforms the enlarged training LR IR image into a training feature vector low frequency map and a plurality of training features Generating a vector high frequency map; (B-2) the primitive spurious dictionary generation module performs block division of training feature vector low-frequency maps and a plurality of training feature vector high-frequency maps to form training low-resolution overlapping vectors for each; And (B-3) the primitive sparse pregeneration module combining training low resolution overlap vectors to generate training low resolution feature vectors to form training low resolution coefficient blocks.

또한, 본 발명의 일 측면의 상기 (B-2) 단계에서 상기 원소 희소 사전 생성 모듈이 블록 분할을 수행하기 이전에 가우시안 차 필터를 사용하여 훈련 특징 벡터 저주파 맵의 세부 정보를 추출한다.Further, in the step (B-2) of one aspect of the present invention, the detail information of the training feature vector low-frequency map is extracted using the Gaussian difference filter before the elementary sparse dictionary generation module performs block division.

또한, 본 발명의 일 측면의 상기 (E) 단계는 (E-1) 상기 잔여 희소 사전 생성 모듈은 원시 저해상도 희소 사전을 참조하여 확대된 추정 훈련 LR IR 이미지를 형성하고, 원시 고해상도 희소 사전을 참조하여 추정 훈련 HR IR 이미지를 형성하는 단계; (E-2) 상기 잔여 희소 사전 생성 모듈은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하는 단계; (E-3) 상기 잔여 희소 사전 생성 모듈은 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 훈련 잔여 IR 이미지를 형성하는 단계; 및 (E-4) 상기 잔여 희소 사전 생성 모듈은 형성된 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성하는 단계를 포함한다.In addition, in the step (E) of the present invention, the residual sparse dictionary generation module forms a magnified estimated training LR IR image with reference to a raw low-scarcity dictionary, and refers to a raw high- Forming an estimated training HR IR image; (E-2) said residual sparse pre-production module using said estimated training HR IR image to form a residual high-resolution sparse dictionary; (E-3) the residual sparse pre-production module is configured to form a training residual IR image using a training HR IR image and an estimated training HR IR image; And (E-4) the residual sparse pre-production module comprises forming a residual low-sparse sparse dictionary using the formed training residual IR image.

또한, 본 발명의 일 측면의 상기 (F) 단계는 (F-1) 상기 테스트 모듈이 테스트 LR IR 이미지를 입력받아, 확대된 테스트 LR IR 이미지를 형성하는 단계; (F-2) 상기 테스트 모듈이 확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵을 생성하는 단계; (F-3) 상기 테스트 모듈이 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵에 대해 블록 분할을 수행하여 각각에 대하여 테스트 저해상도 겹침 벡터드를 형성하는 단계; 및 (F-4) 상기 테스트 모듈이 테?아? 저해상도 겹침 벡터들을 조합하여 테스트 저해상도 특징 벡터를 생성하여 테스트 저해상도 계수 블록을 형성하는 단계를 포함한다.The step (F) of one aspect of the present invention includes the steps of: (F-1) receiving the test LR IR image by the test module to form an enlarged test LR IR image; (F-2) generating a test feature vector low-frequency map and a plurality of test feature vector high-frequency maps by performing a non-part sample contour transformation on the enlarged test LR IR image by the test module; (F-3) the test module performs block division on one test feature vector low-frequency map and a plurality of test feature vector high-frequency maps to form a test low-resolution overlapping vector field for each test feature vector low-frequency map; And (F-4) Combining the low resolution overlapping vectors to form a test low resolution feature vector to form a test low resolution coefficient block.

또한, 본 발명의 일 측면의 상기 (G) 단계는 (G-1) 상기 테스트 모듈은 형성된 테스트 저해상도 계수 블록으로부터 원시 저해상도 희소 사전을 참조하여 희소 표현을 산출하는 단계; (G-2) 상기 테스트 모듈은 원시 고해상도 희소 사전을 참조하여 테스트 고해상도 계수 블록을 산출하여 추정 테스트 원시 HR IR 이미지를 형성하는 단계; (G-3) 상기 테스트 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 참조하여 추정 테스트 원시 HR IR 이미지에서 추정 테스트 잔여 IR 이미지를 형성하는 단계; 및 (G-4) 상기 테스트 모듈은 추정 테스트 원시 HR IR 이미지와 추정 테스트 잔여 IR 이미지를 이용하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함한다.The step (G) of one aspect of the present invention comprises the steps of: (G-1) calculating a rare expression by referring to a raw low-scarce dictionary from a formed test low-resolution coefficient block; (G-2) the test module calculates a test high-resolution coefficient block by referring to a raw high-resolution scarce dictionary to form an estimated test raw HR IR image; (G-3) The test module forms an estimated test residual IR image in the estimated test raw HR IR image with reference to the remaining high-resolution sparse dictionary and the remaining low-resolution sparse dictionary; And (G-4) the test module comprises forming an estimated test HR IR image using the estimated test raw HR IR image and the estimated test residual IR image.

한편, 본 발명의 다른 측면은 (A)원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하는 단계; (B)상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하는 단계; (C)상기 원시 희소 사전 생성 모듈은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하는 단계; (D)상기 원시 희소 사전 생성 모듈은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 단계; (E) 잔여 희소 사전 생성 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 단계; (F) 테스트 모듈이 테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록을 형성하는 단계; 및 (G) 상기 테스트 모듈은 형성된 테스트 고해상도 계수 블록을 산출하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.In another aspect of the present invention, there is provided a method of generating training high frequency images, comprising the steps of: (A) receiving a training LR IR image set from a primitive rare dictionary generation module; (B) the primitive sparse pregeneration module transforms a training LR IR image into a training low resolution coefficient block to form a training low resolution coefficient block; (C) the primitive sparse pregeneration module forms training high resolution coefficient blocks in a training high frequency map; (D) the primitive spurious dictionary generation module forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks, and generates a primitive high resolution sparse dictionary using the training high resolution coefficient blocks; (E) the remaining sparse dictionary creation module comprises: forming a remaining high resolution sparse dictionary and a remaining low resolution sparse dictionary; (F) receiving a test LR IR image from a test module to form a test low resolution coefficient block; And (G) the test module generates a test high resolution coefficient block that is formed to form an estimated test HR IR image, and provides a computer readable recording medium on which an infrared image ultra high resolution method of non-part sample contour transformation is recorded .

한편, 본 발명의 또 다른 측면은 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하고, 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하며, 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하고, 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 원시 희소 사전 생성 모듈; 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 잔여 희소 사전 생성 모듈; 및 테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록과 테스트 고해상도 계수 블록을 산출하여 상기 원시 고해상도 희소 사전, 원시 저해상도 희소 사전, 잔여 고해상도 희소 사전 및 잔여 저해상도 희소 사전을 참조하여 추정 테스트 HR IR 이미지를 형성하는 테스트 모듈을 포함한다.In another aspect of the present invention, a training LR IR image set is input, a training HR IR image set is received, a training high-frequency map is formed, and a training LR IR image is transformed into a non-specimen contour line to form training low resolution coefficient blocks A primitive sparse pregeneration module that forms a training high resolution coefficient block in a training high frequency map, forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks, and generates a primitive high resolution sparse dictionary using training high resolution coefficient blocks; A residual sparse dictionary generation module that forms a residual high-resolution sparse dictionary and a residual low-resolution sparse dictionary; And a test LR IR image to generate a test low resolution coefficient block and a test high resolution coefficient block to form a test HR IR image by referring to the raw high resolution sparse dictionary, the raw low resolution sparse dictionary, the remaining high resolution sparse dictionary, and the remaining low resolution sparse dictionary Test modules.

또한, 본 발명의 또 다른 측면의 상기 원시 희소 사전 생성 모듈은 훈련 LR IR 이미지들을 입력받아 확대하여 확대된 훈련 LR IR 이미지들을 생성하는 보간부; 훈련 HR IR 이미지와 확대된 훈련 LR IR 이미지의 차이인 훈련 IR 이미지 고주파 맵을 형성하는 훈련 고주파 맵 형성부; 확대된 훈련 LR IR 이미지에 비부표본 윤곽선 변환을 수행하여 하나의 훈련 특징 벡터 저주파수 맵과 다수개의 훈련 특징벡터 고주파 맵을 형성하는 비부표본 윤곽선 변환부; 다수개의 맵을 블록으로 분할하는 블록 분할부; 분할된 블록을 훈련 저해상도 겹칩 벡터들로 변환하여 저해상도 겹칩 벡터들을 수집하여 훈련 저해상도 계수 블록을 형성하는 저해상도 계수 블록 산출부; 훈련 IR 이미지 고주파 맵으로부터 훈련 고해상도 계수 블록을 구성하는 고해상도 계수 블록 산출부; 상기 훈련 저해상도 계수 블록에서 원시 저해상도 희소 사전을 형성하는 저해상도 희소 사전부; 및 원시 저해상도 희소 사전과 훈련 고해상도 계수 블록으로부터 원시 고해상도 희소 사전을 형성하는 고해상도 희소 사전부를 포함한다.According to another aspect of the present invention, there is provided a primitive sparse dictionary generation module comprising: an interpolation part for receiving training LR IR images and enlarging the training LR IR images to generate enlarged training LR IR images; A training IR image, which is the difference between the training HR IR image and the expanded training LR IR image; a training high frequency map forming unit, which forms a high frequency map; A non-specimen contour transformation unit for performing non-specimen contour transformation on an enlarged training LR IR image to form a training feature vector low-frequency map and a plurality of training feature vector high-frequency maps; A block dividing unit dividing the plurality of maps into blocks; A low resolution coefficient block calculator for transforming the divided blocks into training low resolution overlap vectors to collect low resolution overlap vectors to form training low resolution coefficient blocks; A high resolution coefficient block calculator for training high resolution coefficient blocks from training IR image high frequency maps; A low-resolution sparse dictionary portion forming a raw low-resolution sparse dictionary in the training low-resolution coefficient block; And a high-resolution sparse dictionary that forms a raw high-resolution sparse dictionary from a raw low-resolution sparse dictionary and a training high-resolution coefficient block.

또한, 본 발명의 또 다른 측면의 상기 보간부는 훈련 LR IR 이미지들을 입력받아 바이큐빅 보간법을 사용하여 확대하여 확대된 훈련 LR IR 이미지들을 생성한다.In another aspect of the present invention, the interpolator receives training LR IR images and generates enlarged training LR IR images by using a bicubic interpolation method.

또한, 본 발명의 또 다른 측면은 상기 블록 분할부가 블록 분할을 수행하기 이전에 훈련 특징 벡터 저주파 맵의 세부 정보를 추출하는 가우시안 차 필터를 더 포함한다.Yet another aspect of the present invention further includes a Gaussian difference filter for extracting details of the training feature vector low-frequency map before the block segmentation section performs block segmentation.

또한, 본 발명의 또 다른 측면의 상기 잔여 희소 사전 생성 모듈은 원시 고해상도 희소 사전과 원시 저해상도 희소 사전을 사용하여 확대된 추정 훈련 LR 이미지을 형성하는 저해상도 추정부; 추정 훈련 원시 HR IR 이미지를 형성하는 고해상도 추정부; 추정 훈련 원시 HR IR 이미지와 원시 HR IR 이미지의 차이인 잔여 IR 이미지를 구하는 잔여 이미지 형성부; 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 산출한 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성하는 상기 잔여 저해상도 희소 사전부; 및 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하는 잔여 고해상도 사전부를 포함한다.In yet another aspect of the present invention, the remaining sparse dictionary generation module comprises a low resolution estimator for forming an estimated training LR image magnified using a raw high resolution sparse dictionary and a raw low resolution sparse dictionary; A high resolution estimator for forming an estimated training raw HR IR image; A residual image forming unit for obtaining a residual IR image that is a difference between the estimated training raw HR IR image and the raw HR IR image; The remaining low-resolution sparse dictionary portion forming the remaining low-resolution sparse dictionary using the training HR IR image and the training residual IR image calculated using the estimated training HR IR image; And a residual high-resolution dictionary portion that forms a residual high-resolution sparse dictionary using the estimated training HR IR image.

또한, 본 발명의 또 다른 측면의 상기 테스트 모듈은 테스트 LR IR 이미지를 입력받아 바이큐빅 보간법을 사용하여 확대된 테스트 LR IR 이미지을 형성하는 보간부; 확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록을 형성하는 비부표본 윤곽선 변환부; 원시 저해상도 희소 사전을 참조하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록으로부터 희소 표현을 얻는 희소 표현 산출부; 원시 고해상도 희소 사전을 참조하여 추정 테스트 고해상도 계수 블록을 형성하는 고해상도 계수 블록 산출부; 추정 테스트 고해상도 계수 블록을 사용하여, 추정 테스트 IR 이미지의 고주파 맵을 형성하는 를 사용하여 테스트 고주파 맵 형성부; 확대된 테스트 IR 이미지를 추정 테스트 IR 이미지의 고주파 맵과 통합하여 추정 테스트 원시 HR IR 이미지를 얻는 원시 고해상도 이미지 형성부; 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 이용하여 추정 잔여 IR 이미지를 추정하는 잔여 이미지 추정부; 및 추정 테스트 원시 HR IR 이미지와 추정 잔여 IR 이미지를 통합하여 추정 테스트 HR IR 이미지를 얻는 고해상도 이미지 형성부를 포함한다.According to another aspect of the present invention, the test module includes an interpolator receiving a test LR IR image and forming an enlarged test LR IR image using a bicubic interpolation method; A non-specimen contour transformer for forming a test low resolution coefficient block of non-specimen contour transformation by performing non-specimen contour transformation on an enlarged test LR IR image; Testing a non-specimen contour transformation with reference to a primitive low-resolution sparse dictionary; obtaining a rare representation from the low-resolution coefficient block; A high resolution coefficient block calculator for forming an estimation test high resolution coefficient block by referring to a raw high resolution scarce dictionary; A test high frequency map forming unit using the estimated test high resolution coefficient block to form a high frequency map of the estimated test IR image; Integrating the expanded test IR image with a high frequency map of the test IR image to obtain a raw HR IR image; A residual image estimator for estimating a residual IR image using a residual high-resolution sparse dictionary and a residual low-resolution sparse dictionary; And a high resolution image forming unit for obtaining an estimated test HR IR image by integrating the estimated test raw HR IR image and the estimated residual IR image.

본 발명은 희소 사전을 IR 이미지 SR에 도입하여 훈련된 사전이 비구조화된 사전이라는 문제를 해결하였다.The present invention solves the problem of introducing a sparse dictionary into an IR image SR, which is a trained dictionary unstructured dictionary.

또한, 본 발명은 비부표본 윤곽선 변환을 사용하여 미분 필터가 너무 단순하여 효과적으로 이미지를 나타낼 수 없다는 문제를 해결하였다.In addition, the present invention solves the problem that the differential filter is too simple to effectively display an image using non-part sample contour transformation.

또한, 본 발명은 원시 희소 사전 쌍과 잔여 희소 사전 쌍으로 구성된 두 개의 HR-LR 희소 사전 쌍을 채택하여 하나의 HR-LR 사전 쌍이 좋은 결과를 얻기에 충분하지 않다는 종래 기술의 문제를 해결하였다.The present invention also solves the problems of the prior art that one HR-LR dictionary pair is not sufficient to obtain good results by employing two pairs of HR-LR sparse dictionaries composed of a pair of primitive sparse dictionaries and a pair of remaining sparse dictionaries.

도 1은 본 발명에 적용되는 비부표본 윤곽선 변환을 설명하기 위한 개념도이다.
도 2는 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법의 구성도이다.
도 3은 도 2의 훈련 과정을 나타내는 도면이다.
도 4a는 도 3의 특징 벡터를 형성하는 과정을 보여주는 도면이고, 도 4b는 조합 과정을 나타내는 도면이다.
도 5는 도 2의 테스트 과정을 나타내는 도면이다.
도 6은 자연 장면을 가지고 있는 훈련 IR 이미지의 예시도이다.
도 7은 얼굴을 가지고 있는 훈련 IR 이미지의 예시도이다.
도 8은 테스트용 IR 이미지의 일부이며, (a) 건물 A IR 이미지, (b) 빌딩 B IR 이미지, (c) 건물 C IR 이미지, (d) 얼굴 A IR 이미지, (e) 얼굴 B IR 이미지,(f) 얼굴 C IR 이미지이다.
도 9는 이미지를 사용한 실험 결과이며, (a) 기준 HR 이미지, (b) 최근접 보간에서 얻은 결과, (c) 바이 큐빅 보간법으로 얻은 결과, (d) Yang의 방법으로 얻은 결과, (e) K-SVD 방법으로 얻은 결과, (f) Zhang의 방법으로 얻은 결과, (g) 제안 된 방법으로 얻은 결과이다.
도 10은 이미지를 사용한 실험 결과이며, (a) 기준 HR 이미지, (b) 최근접 보간에서 얻은 결과, (c) 바이 큐빅 보간법으로 얻은 결과, (d) Yang의 방법으로 얻은 결과, (e) K-SVD 방법으로 얻은 결과, (f) Zhang의 방법으로 얻은 결과, (g) 제안 된 방법으로 얻은 결과이다.
도 11은 NSCT 수준의 SR 품질에 미치는 영향을 나타내며, (a) NSCT 수준이 다른 PSNR, (b) NSCT 수준이 다른 SSIM을 나타낸다.
도 12는 NSCT의 방향 수의 SR 품질에 대한 영향을 나타내며, (a) NSCT의 방향이 다른 PSNR, (b) NSCT의 방향이 다른 SSIM을 나타낸다.
도 13은 희소 사전 크기의 SR 품질에 미치는 영향을 나타내며, (a) 다른 희소 사전 크기의 PSNR, (b) 다른 희소 사전 크기의 SSIM을 나타낸다.
도 14는 저주파수 특징 추출 방법의 SR 품질에 대한 영향을 나타내며, (a) 추출된 특징에 관한 다른 방법에 의한 PSNR, (b) 추출된 특징에 관한 다른 방법들 하에서의 SSIM을 보여준다.
도 15는 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치의 구성도이다.
도 16은 도 15의 원시 희소 사전 생성 모듈과 잔여 희소 사전 생성 모듈의 상세 구성도이다.
도 17은 도 15의 테스트 모듈의 상세 구성도이다.
1 is a conceptual diagram for explaining a non-part sample contour transformation applied to the present invention.
FIG. 2 is a block diagram of an infrared image super-resolution method for non-part sample contour transformation according to a preferred embodiment of the present invention.
FIG. 3 is a view showing the training process of FIG. 2. FIG.
FIG. 4A is a diagram illustrating a process of forming the feature vector of FIG. 3, and FIG. 4B is a diagram illustrating a combination process.
FIG. 5 is a diagram showing the test procedure of FIG. 2. FIG.
6 is an exemplary view of a training IR image having a natural scene.
7 is an illustration of a training IR image having a face.
Fig. 8 is a part of a test IR image, which shows a building IR image, a building B IR image, a building C IR image, (d) a face IR image, (e) a face B IR image , (f) a face C IR image.
Fig. 9 shows the experimental results using images. Fig. 9 (a) shows the results obtained by Yang's method, and (e) The result obtained by the K-SVD method, (f) the results obtained by Zhang's method, and (g) the results obtained by the proposed method.
Fig. 10 shows the results of experiments using images. Fig. 10 (a) shows the results obtained by Yang's method, and (e) The result obtained by the K-SVD method, (f) the results obtained by Zhang's method, and (g) the results obtained by the proposed method.
Figure 11 shows the effect on SR quality at the NSCT level, (a) PSNR at different NSCT levels, and (b) SSIM at different NSCT levels.
12 shows the influence of the number of directions of the NSCT on the SR quality, (a) PSNR of different directions of NSCT, and (b) SSIM of different directions of NSCT.
Fig. 13 shows the effect on the SR quality of the rare dictionary size and shows (a) a PSNR of another sparse dictionary size and (b) another sparse dictionary size SSIM.
Fig. 14 shows the effect of the low-frequency feature extraction method on the SR quality and shows the SSIM under (a) PSNR by another method on the extracted feature, and (b) by other methods on the extracted feature.
FIG. 15 is a configuration diagram of an infrared image super-resolution device for non-part sample contour transformation according to a preferred embodiment of the present invention.
FIG. 16 is a detailed configuration diagram of the primitive spurious dictionary generation module and the residual spurious dictionary generation module of FIG. 15; FIG.
17 is a detailed configuration diagram of the test module of Fig.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings.

먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terminology used in the present application is used only to describe a specific embodiment, and is not intended to limit the present invention, and the singular expressions may include plural expressions unless the context clearly indicates otherwise. Also, in this application, the terms "comprise", "having", and the like are intended to specify that there are stated features, integers, steps, operations, elements, parts or combinations thereof, But do not preclude the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명은 희소 사전을 IR 이미지 SR에 도입하여 훈련된 사전이 비구조화된 사전이라는 문제를 해결한다. 희소 사전은 기본 사전에 대한 사전 원자의 희소성 모델을 기반으로 한다. The present invention solves the problem of introducing a sparse dictionary into an IR image SR, which is a trained dictionary unstructured dictionary. Sparse dictionaries are based on the sparse model of dictionary atoms for the basic dictionaries.

비부표본 윤곽선 변환(NSCT)은 IR 이미지 기능을 풍부하게 하고, 주파수 앨리어싱을 피하고, 엣지 정보를 완벽하게 보존할 수 있도록 완전 변위 불변성과, 다중 스케일 및 다중 방향을 가진다. 따라서 비부표본 윤곽선 변환은 미분 필터가 너무 단순하여 효과적으로 이미지를 나타낼 수 없다는 문제를 해결하기 위해 사용된다.The non-specimen contour transformation (NSCT) has full displacement constant, multi-scale, and multiple directions to enrich the IR image function, avoid frequency aliasing, and preserve edge information completely. Thus, the non-sample-to-image contour transformation is used to solve the problem that the derivative filter is too simple to effectively represent the image.

마지막으로, 원시 희소 사전 쌍과 잔여 희소 사전 쌍으로 구성된 두 개의 HR-LR 희소 사전 쌍이 채택된다. 이에 따라 하나의 HR-LR 사전 쌍이 좋은 결과를 얻기에 충분하지 않은 문제를 해결한다.Finally, two HR-LR sparse dictionary pairs consisting of a primitive sparse dictionary pair and a remaining sparse dictionary pair are employed. This solves the problem that one HR-LR dictionary pair is not enough to get good results.

원시 추정 HR IR 이미지는 원시적 희소 사전 쌍으로 먼저 추정된다. 후속적으로 유사한 프로세스가 잔여 희소 사전 쌍을 갖는 원시 추정 결과에 적용된다. 두 개의 희소 사전 쌍으로 더 나은 결과를 얻을 수 있다.The raw estimated HR IR image is first estimated as a primitive sparse dictionary pair. Subsequently, a similar process is applied to the raw estimation result with the remaining sparse dictionary pairs. Better results can be obtained with two pairs of scarce dictionaries.

아래에서는 비부표본 윤곽선 변환의 분해를 살펴보고, 제안된 방법의 세부 사항을 제시하며, 실험 결과와 다른 SR 재구성 방법과의 비교를 제시한다.In the following, we examine the decomposition of the non-specimen contour transformation, give details of the proposed method, and compare the experimental results with other SR reconstruction methods.

윤곽선 변환(CT : Contourlet transform)은 최근 도입되어 이미지 인식, 이미지 노이즈 제거 및 이미지 향상에 널리 사용되어 왔다.Contour transform (CT) has recently been introduced and widely used for image recognition, image noise reduction, and image enhancement.

상기 윤곽선 변환(CT)는 라플라시안 피라미드(LP : Laplacian pyramid)와 방향성 필터 뱅크 (DFB: directional filter bank )를 사용하여 각각 다중 스케일 분해 및 방향 분해를 얻는다.The contour transformation (CT) obtains multi-scale decomposition and direction decomposition using a Laplacian pyramid (LP) and a directional filter bank (DFB), respectively.

윤곽선 변환은 자연스러운 이미지를 희소성 있게 표현할 수 있으며, 모든 방향 및 모든 스케일에서 윤곽 정보를 캡처할 수 있다.Contour transformations can spontaneously represent natural images and capture outline information in all directions and at all scales.

웨이브렛 변환(wavelet transform)과 비교할 때, 윤곽선 변환은 실제 2D 이산 변환이다. LP 및 DFB의 다운 샘플링 및 업 샘플링 때문에 윤곽선 변환은 시프트 불변성(shift-invariance)이 부족하다.Compared to a wavelet transform, the contour transform is an actual 2D discrete transform. Because of the downsampling and upsampling of LP and DFB, contour transformation lacks shift-invariance.

이 문제를 극복하기 위해, Cunha et al.이 제안한 비부표본 윤곽선 변환(NSCT)은 윤곽선 변환(CT)의 시프트 변형 버전이다 [24]. To overcome this problem, the nonparametric sample contour transformation (NSCT) proposed by Cunha et al. Is a shift variant version of contour transformation (CT) [24].

비부표본 윤곽선 변환(NSCT) [25, 26, 27, 28, 29]은 윤곽선 변환(CT)의 주파수 앨리어싱을 피하고 시프트 불변성을 달성하기 위해 이미지의 분해 및 재구성 과정에서 다운 샘플러와 업 샘플러를 제거한다.The non-specimen contour transformation (NSCT) [25, 26, 27, 28, 29] avoids frequency aliasing of the contour transformation (CT) and removes the down-sampler and up-sampler in the decomposition and reconstruction of the image to achieve shift invariance .

도 1은 본 발명에 적용되는 비부표본 윤곽선 변환을 설명하기 위한 개념도이다.1 is a conceptual diagram for explaining a non-part sample contour transformation applied to the present invention.

도 1을 참조하면, 본 발명에 적용되는 비부표본 윤곽선 변환은 비부샘플링 피라미드(NSP : nonsubsampled pyramid )와 비부샘플링 지향성 필터 뱅크(NSDFB:nonsubsampl-e-d directional filter bank )의 두개의 필터 뱅크로 구성된다.Referring to FIG. 1, the non-part sample contour transform applied to the present invention is composed of two filter banks of a nonsubsampled pyramid (NSP) and a nonsubsampl-e-directional filter bank (NSDFB).

상기 비부샘플링 피라미드는 입력 이미지를 각 비부샘플링 피라미드 분해 레벨에서 고주파수 부대역 및 저주파 부대역으로 분해한다.The non-subsampling pyramid decomposes the input image into high-frequency and low-frequency subbands at each non-subsampling pyramid resolution level.

상기 비부샘플링 지향성 필터 뱅크는 고주파수 부대역을 몇몇 방향 부대역으로 분해한다.The non-portion sampling directional filter bank decomposes the high frequency subbands into several direction subbands.

n 레벨 분해 후, 상기 비부샘플링 피라미드는 입력 영상과 동일한 크기를 갖는 하나의 저주파수 영상 및 n개의 고주파수 영상을 형성한다.After the n-level decomposition, the non-sampling pyramid forms one low-frequency image and n high-frequency images having the same size as the input image.

각 스케일에서 비부샘플링 피라미드의 고주파 이미지에서 단계별 방향 분해를 허용하는 것은 비부샘플링 지향성 필터 뱅크(NSDFB)이다.It is the non-part sampling directional filter bank (NSDFB) that allows stepwise directional decomposition in the high-frequency images of the non-sampling pyramids at each scale.

이 과정에서 입력 이미지와 동일한 크기를 갖는 2k 방향 서브 이미지를 얻을 수 있습니다. 이러한 결과를 통해, 하나의 저주파 이미지와

Figure 112016116841844-pat00001
의 고주파 이미지를 가지게 되며, 여기에서 ki는 i 스케일의 방향 개수를 나타낸다.In this process, you can obtain a 2k direction subimage with the same size as the input image. From these results, we can see that one low-
Figure 112016116841844-pat00001
, Where k i represents the number of directions of the i-scale.

이와 같은 비부표본 윤곽선 변환은 시프트 불변, 멀티 스케일, 멀티 방향의 특성이 우수하기 때문에 채택되었다.Such non-specimen contour transformation was adopted because of its excellent properties of shift invariant, multiscale, and multi-directional.

도 2는 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법의 구성도이다.FIG. 2 is a block diagram of an infrared image super-resolution method for non-part sample contour transformation according to a preferred embodiment of the present invention.

도 2를 참조하면, 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법은 훈련 단계(S100)와 테스트 단계(S200) 그리고 의 두 단계로 구성된다. Referring to FIG. 2, an infrared image super-resolution method of non-part sample contour transformation according to a preferred embodiment of the present invention includes two steps of training step (S100) and test step (S200).

상기 훈련 단계(100)는 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고(S110), 훈련 HR IR 이미지 집합을 입력받는다(S120).The training step 100 receives the training LR IR image set from the primitive sparse dictionary generation module (S110), and receives the training HR IR image set (S120).

그리고, 원시 희소 사전 생성 모듈은 훈련 LR IR 이미지를 확대하여 확대된 훈련 LR IR 이미지와 훈련 HR IR 이미지의 차이인 훈련 고주파 맵을 형성한다(S130).Then, the primitive sparse dictionary creation module expands the training LR IR image to form a training high frequency map, which is the difference between the expanded training LR IR image and the training HR IR image (S130).

또한, 원시 희소 사전 생성 모듈은 확대된 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 생성한 후에 블록 분할을 수행하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵의 각각에 대하여 훈련 저해상도 겹침 벡터를 형성하고 이를 조합하여 훈련 저해상도 특징 벡터를 생성하여 훈련 저해상도 특징 벡터를 집합으로 하는 훈련 저해상도 계수 블록을 형성한다.In addition, the primitive sparse dictionary generation module generates a training feature vector low-frequency map and a plurality of training feature vector high-frequency maps by transforming the expanded training LR IR image to a non-sample pattern, A training low resolution lapped vector is formed for each of a map and a plurality of training feature vector high frequency maps, and a training low resolution feature vector is formed by combining these training low resolution feature vectors to form a training low resolution feature block having training low resolution feature vectors as a set.

또한, 원시 희소 사전 생성 모듈은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 산출한다(S140).In addition, the primitive spurious dictionary generation module calculates the training high-resolution coefficient block in the training high-frequency map (S140).

상기 원시 희소 사전 생성 모듈은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성한다(S150).The primitive spurious dictionary generation module forms a primitive low resolution sparse dictionary using the training low resolution coefficient block and generates a primitive high resolution sparse dictionary using the training high resolution coefficient block (S150).

한편, 잔여 희소 사전 생성 모듈은 원시 저해상도 희소 사전을 참조하여 확대된 추정 훈련 LR IR 이미지를 형성하고, 원시 고해상도 희소 사전을 참조하여 추정 훈련 HR IR 이미지를 형성한다.On the other hand, the residual sparse dictionary generation module forms an estimated training LR IR image with reference to the raw low-scarce sparse dictionary, and forms an estimated training HR IR image with reference to the raw high-resolution sparse dictionary.

그리고, 잔여 희소 사전 생성 모듈은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하고, 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 훈련 잔여 IR 이미지를 형성한 후에 형성된 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성한다(S160).The remaining sparse dictionary generation module then forms a residual high-resolution sparse dictionary using the estimated training HR IR image and generates a residual IR image of the training formed after the training residual IR image is formed using the training HR IR image and the estimated training HR IR image To form a remaining low-resolution sparse dictionary (S160).

한편, 테스트 단계는 테스트 모듈이 테스트 LR IR 이미지를 입력받아(S210), 확대된 테스트 LR IR 이미지를 형성한 후에 비부표본 윤곽선 변환을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵을 생성한 후에 블록 분할을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵의 각각에 대하여 테스트 저해상도 겹침 벡터를 형성하고 이를 조합하여 테스트 저해상도 특징 벡터를 생성하여 테스트 저해상도 특징 벡터를 집합으로 하는 테스트 저해상도 계수 블록을 형성한다(S220).Meanwhile, in the test step, the test module receives the test LR IR image (S210), forms a magnified test LR IR image, and then performs non-part sample contour transformation to obtain a test feature low frequency map and a plurality of test feature vector high frequency After the map is generated, block division is performed to form a test low resolution overlapping vector for each of a single test feature vector low frequency map and a plurality of test feature vector high frequency maps, and a test low resolution feature vector is generated by combining the test low resolution feature vectors. (S220). ≪ / RTI >

상기 테스트 모듈은 형성된 테스트 저해상도 계수 블록으로부터 원시 저해상도 희소 사전을 참조하여 희소 표현을 산출한 후에 원시 고해상도 희소 사전을 참조하여 테스트 고해상도 계수 블록을 산출하여 추정 테스트 원시 HR IR 이미지를 형성한다.The test module calculates a rare expression from the formed test low resolution coefficient block by referring to the raw low-scarcity dictionary, and then generates a test high-resolution coefficient block by referring to the raw high-resolution scarce dictionary to form an estimated test raw HR IR image.

그리고, 테스트 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 참조하여 추정 테스트 원시 HR IR 이미지에서 추정 테스트 잔여 IR 이미지를 형성한다.The test module then forms an estimated test residual IR image from the estimated test raw HR IR image with reference to the remaining high resolution scarce dictionary and the remaining low resolution scarce dictionaries.

상기 테스트 모듈은 추정 테스트 원시 HR IR 이미지와 추정 테스트 잔여 IR 이미지를 이용하여 추정 테스트 HR IR 이미지를 형성한다(S230).The test module forms an estimated test HR IR image using the estimated test raw HR IR image and the estimated test residual IR image (S230).

이처럼 훈련 단계에서 두 개의 HR - LR 희소 사전 쌍이 훈련 이미지 집합으로부터 얻어진다. 테스트 단계에서, 테스트 LR IR 이미지는 훈련 단계에서 얻어진 두 HR - LR 희소 사전 쌍의 도움으로 HR IR 이미지를 생성한다.  In this training phase, two pairs of HR - LR sparse dictionaries are obtained from the training image set. In the test phase, the test LR IR image generates HR IR images with the help of two HR-LR sparse dictionary pairs obtained in the training phase.

완성된 사전이 이미지 처리에 사용되었다. 그러나 사전에 사용된 원자들은 보다 근본적인 사전에 기초를 둔 일부 희소한 구조를 가지고 있다. 기존의 완성된 사전은 다음 (수학식 1)의 최적화 문제로 공식화 될 수 있다.The completed dictionary was used for image processing. However, the atoms used in advance have some rare structures based on more fundamental dictionaries. The existing completed dictionary can be formulated as an optimization problem of (Equation 1).

(수학식 1)        (1)

Figure 112016116841844-pat00002
Figure 112016116841844-pat00002

여기서, B는 이미지 계수 블록이고, 계수 벡터 φ는 B의 희소 표현이다. t는 φi의 희소 허용 오차이다. Where B is an image coefficient block, and the coefficient vector phi is a scarce representation of B. t is the sparse tolerance of φ i .

그러나 이런 식으로 생성된 사전 D는 구조화되어 있지 않다 [30]. 이로 인해 더 나쁜 결과가 발생할 수 있다. 이 문제를 극복하기 위해 본 발명에서는 희소 사전 D를 사용한다. However, the dictionary D generated in this way is not structured [30]. This can lead to worse results. In order to overcome this problem, a rare dictionary D is used in the present invention.

희소 사전 D에는 기본 사전에 대한 희소 표현이 있다. 특히 이 사전은 기본 사전η과 희소 행렬 표현C의 두 부분으로 구성된다.Sparse dictionary D has a rare representation of the basic dictionary. In particular, the dictionary consists of two parts: a basic dictionary η and a sparse matrix representation C.

희소 사전 D는 아래 수학식 2로 표현된다.The sparse dictionary D is expressed by the following equation (2).

(수학식 2)(2)

D=η×CD = eta x C

여기서 η는 규칙성이 좋은 기본 사전이다. C는 좋은 유연성을 가진 원자 표현 행렬이다. 완전 이산 코사인 변환(DCT: Discreat Cosine Transform) 사전, 웨이블릿 사전 등을 기본 사전으로 사용할 수 있다. Here, η is a basic dictionary with good regularity. C is an atomic representation matrix with good flexibility. A complete discrete cosine transform (DCT) dictionary, and a wavelet dictionary can be used as basic dictionaries.

본 발명에서는 기본 사전으로 완전 DCT 사전을 선택했다. 따라서 희소 사전은 수학식 3과 같이 계산 될 수 있다.In the present invention, a complete DCT dictionary is selected as a basic dictionary. Therefore, the sparse dictionary can be calculated as shown in Equation (3).

(수학식 3)(3)

Figure 112016116841844-pat00003
Figure 112016116841844-pat00003

여기서, B는 이미지 계수 블록이고, 계수 벡터 φ는 B의 희소 표현이다. t는 φi의 희소 허용 오차이고, s는 C의 희소 허용 오차이다.Where B is an image coefficient block, and the coefficient vector phi is a scarce representation of B. t is the sparse tolerance of φ i , and s is the sparse tolerance of C.

희소 사전을 구하는 작업은 두 가지 절차로 나눌 수 있다. The process of obtaining a sparse dictionary can be divided into two procedures.

1) 이미지 계수 블록 B를 희소 코딩 (sparse-coding)하는 절차와, 2) 사전 원자를 업데이트하는 절차로 구성된다. 희소 표현을 해결하는 단계에서, 임의의 신호 희소 분해법을 사용할 수 있다. 본 발명에서는 직교 매칭 추적(OMP: Orthogonal Matching Pursuit)[31] 방법을 희소 코딩을 위해 사용하고, 희소 K-SVD 알고리즘을 사전 훈련에 사용한다.1) a procedure for sparse-coding the image coefficient block B, and 2) a procedure for updating the dictionary atom. In the step of solving the rare expression, any signal sparsely decomposing method can be used. In the present invention, an Orthogonal Matching Pursuit (OMP) method is used for sparse coding and a sparse K-SVD algorithm is used for pre-training.

사전 원자를 업데이트하는 단계에서, 단지 하나의 원자만을 갱신할 때마다, 즉 다른 원자가 고정되어 목표 방정식에 대한 최적해를 해결한다. 본 발명에서는 수학식 3을 풀기 위해 희소 K-SVD 알고리즘을 이용한다.In the step of updating the dictionary atom, every time only one atom is updated, that is, another atom is fixed to solve the optimal solution for the target equation. In the present invention, a rare K-SVD algorithm is used to solve Equation (3).

원시 HR-LR 희소 사전 쌍은 단일 LR IR 이미지 입력에서 원시 HR IR 이미지를 추정하는 방법을 학습한다. The primitive HR-LR sparse dictionary pair learns how to estimate the raw HR IR image from a single LR IR image input.

추정된 원시 HR IR 이미지와 그에 대응하는 참조 HR IR 이미지 사이에는 약간의 틈이 있다.There is some gap between the estimated raw HR IR image and its corresponding reference HR IR image.

편의상, 추정된 HR IR 이미지와 참조 HR IR 이미지의 차이는 잔여 IR 이미지라고 부를 수 있다. 더 나은 결과를 얻으려면 잔여 희소 사전을 사용하여 잔여 IR 이미지를 추정해야 한다.For convenience, the difference between the estimated HR IR image and the reference HR IR image may be referred to as a residual IR image. For better results, residual IR images should be estimated using residual sparse dictionaries.

더 나은 결과를 얻으려면 잔여 희소 사전을 사용하여 잔여 IR 이미지를 추정해야한다. 따라서 잔여 IR 이미지를 추정하기 위해 잔여 HR-LR 희소 사전 쌍이 본 발명에서는 소개된다. 희소 사전 학습 과정은 도 3에 설명되어 있다.For better results, residual IR images should be estimated using residual sparse dictionaries. Thus, the residual HR-LR sparse dictionary pair is introduced in the present invention to estimate the residual IR image. The sparse dictionary learning process is illustrated in FIG.

희소 사전 학습 프로세스의 프레임 워크는 도 3에 나와 있다. 사전 학습 프로세스의 단계는 다음과 같다.The framework of the sparse dictionary learning process is shown in FIG. The steps of the pre-learning process are as follows.

1) 원시 희소 사전 생성 모듈은 훈련 LR IR 이미지들 Il m 을 입력받아(S110) 바이규빅(Bicubic) 보간법으로 확대하여 확대된 훈련 LR IR 이미지들 Il' m을 생성한다(여기에서 m은 1,2,3,...,M)(S141). 그런 다음 훈련 HR IR 이미지와 해당 확대된 훈련 LR IR 이미지의 차이인 훈련 IR 이미지 고주파 맵 Ihf m을 얻는다[32](S130).1) The primitive sparse dictionary generation module receives training LR IR images I l m (S110) and expands it to Bicubic interpolation to generate expanded training LR IR images I l ' m (where m is 1, 2, 3, ..., M) (S141). The training IR image high frequency map I hf m is then obtained, which is the difference between the training HR IR image and the corresponding expanded training LR IR image [32] (S130).

2) 확대된 훈련 LR IR 이미지에 비부표본 윤곽선 변환을 수행하여 각 이미지 Il' m를 하나의 레벨(one level) 피라미드로 분해한다.2) Extrapolate each image I l ' m into one level pyramid by performing a non-specimen contour transformation on the expanded training LR IR image.

그 결과, 하나의 훈련 특징 벡터 저주파수 맵 Cllf' m과 4 개의 훈련 특징벡터 고주파 맵 Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m 을 얻는다(S142). As a result, one training feature vector low frequency map C llf ' m and four training feature vector high frequency maps C lhf1' m , C lhf2 ' m , C lhf3' m and C lhf4 ' m are obtained (S142).

도 4a는 저해상도 특징 벡터를 형성하는 과정을 보여주는 프레임 워크이다. 4A is a framework showing a process of forming a low-resolution feature vector.

도 4a를 참조하면 가우시안 차(DOG : Difference of Gaussian) 필터를 사용하여 훈련 특징 벡터 저주파 맵 Cllf' m의 세부 정보를 훈련 특징 벡터 저주파 맵 Cllf' m로 추출한다(S143).Referring to Figure 4a Gaussian difference: and using (DOG Difference of Gaussian) filter to extract, the details of the training feature vector m low frequency map C llf 'training feature vectors map the low frequency C llf to m (S143).

5 개의 맵 Cllf' m, Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m은 블록으로 분할되어(S144) 비부표본 윤곽선 변환(NSCT) 훈련 저해상도 계수 블록 B={bl mk}를 구성한다(S145).5 map C llf 'm, C lhf1' m, C lhf2 'm, C lhf3' m, C lhf4 'm is divided into blocks (S144) bibu sample outline conversion (NSCT) training low resolution coefficient blocks B = {b l mk } (S145).

이를 위해 5 개의 맵 Cllf' m, Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m에서 n * n의 크기로 겹치는 블록을 얻게 된다.To do this, we obtain a block that overlaps the size of n * n in the five maps C llf ' m , C lhf1' m , C lhf2 ' m , C lhf3' m and C lhf4 ' m .

이처럼 모든 블록은 훈련 저해상도 겹칩 벡터 Bllf' mk, Blhf1' mk, Blhf2' mk, Blhf3' mk, Blhf4' mk로(k=1,2,3,...,K) 변환되며, 다른 맵으로부터 저해상도 겹칩 벡터들을 수집하여 훈련 저해상도 특징 벡터 bl mk를 형성한다(여기에서 K는 맵의 총 블록수이다). 훈련 저해상도 특징 벡터 bl mk 의 k=1,2,3,...,K의 집합을 훈련 저해상도 계수 블록 B={bl mk}라고 한다. 그리고, 훈련 IR 이미지 고주파 맵 Ihf m은 n*n 픽셀이 겹쳐지는 훈련 고해상도 계수 블록 B={bh mk}을 구성한다.Thus, all the blocks are low-resolution training gyeopchip vector B llf 'mk, B lhf1' mk, B lhf2 'mk, B lhf3' mk, B lhf4 ' by mk (k = 1,2,3, ..., K) are converted , Collecting low resolution overlap vectors from other maps to form a training low resolution feature vector b l mk (where K is the total number of blocks in the map). The set of k = 1,2,3, ..., K of training low resolution feature vectors b l mk is called the training low resolution coefficient block B = {b l mk }. Then, the training IR image high frequency map I hf m constitutes a training high resolution coefficient block B = {b h mk } where n * n pixels overlap.

이를 도 4b를 참조하여 설명하면 블록 분할을 한 후에, 하나의 맵에 대하여 abcd가 형성되고 다른 하나의 맵에 대하여 efgh가 형성되어 있을 때 이를 조합하면 abcdefgh가 형성된다. This will be described with reference to FIG. 4B. After block division, when abcd is formed for one map and efgh is formed for another map, the combination abcdefgh is formed.

3) 수학식 4를 통하여, 원시 저해상도 희소 사전 Cl과 희소 표현 φ를 구할 수 있다.3) Through Equation (4), we can obtain the primitive low-resolution sparse dictionary C l and the rare expression φ.

(수학식 4)(4)

Figure 112016116841844-pat00004
Figure 112016116841844-pat00004

여기에서, η는 DCT 기본 사전이며, φ는 bl k의 희소 표현이다. t는 신호 희소 문턱값이며, s는 원소 희소 문턱값이다. ηCh=bh kφT(φφT)-1 을 사용하여 원시 저해상도 희소 사전 Cl 과 훈련 고해상도 계수 블록으로부터 원시 고해상도 희소 사전 Ch을 얻을 수 있다(S150). Here, η is the DCT basic dictionary, and φ is a rare expression of b l k . t is the signal sparse threshold, and s is the element sparse threshold. A raw high-resolution sparse dictionary C h can be obtained from the raw low-resolution sparse dictionary C l and the training high-resolution coefficient block (step S 150) using ηC h = b h k φ T (φφ T ) -1 .

4) 마지막으로, 잔여 희소 사전 생성 모듈은 원시 희소 사전 Cl 과 Ch을 사용하여 확대된 추정 훈련 LR 이미지 Il' m을 추정할 수 있으며, 추정 훈련 원시 HR IR 이미지 Iho를 얻을 수 있다(S161).4) Finally, the residual sparse dictionary generation module can estimate the magnified estimated training LR image I l ' m using the primitive sparse dictionaries C l and C h and obtain the estimated training primitive HR IR image I ho (S161).

이하에서는 추정 방법에 대하여 상세하게 설명한다.Hereinafter, the estimation method will be described in detail.

잔여 희소 사전 생성 모듈는 추정 훈련 원시 HR IR 이미지와 원시 HR IR 이미지의 차이인 잔여 IR 이미지를 구한다(S162). The remaining sparse dictionary generation module obtains the residual IR image which is the difference between the estimated training raw HR IR image and the raw HR IR image (S162).

그리고, 잔여 희소 사전 생성 모듈은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성한다.The remaining sparse dictionary generation module then uses the estimated training HR IR image to form the remaining high resolution sparse dictionaries.

또한, 잔여 희소 사전 생성 모듈은 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 산출한 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성한다(S163).In addition, the remaining sparse dictionary generation module forms the remaining low-resolution sparse dictionary using the training residual IR image calculated using the training HR IR image and the estimated training HR IR image (S163).

이처럼 잔여 HR 희소 사전 Crh 과 잔여 LR 희소 사전 Crl은 추정 원시 HR IR 이미지와 잔여 IR 이미지를 통하여 훈련받을 수 있다. 위에서 설명한 원시 희소 사전 Cl 과 Ch을 구하기 위해 사용된 방법은 동일하게 잔여 HR 희소 사전 Crh 과 잔여 LR 희소 사전 Crl을 구하는데 사용된다.The remaining HR sparse dictionary C rh And the residual LR sparse dictionary C rl can be trained through the estimated raw HR IR image and the residual IR image. The method used to obtain the primitive sparse dictionaries C l and C h described above is the same for the remaining HR sparse dictionaries C rh And the residual LR sparse dictionary C rl .

한편, 고해상도 특징 벡터 bh k=ηChαi로 표현된다. 고해상도 특징 벡터나 저해상도 트징 벡터나 동일한 희소 표현을 가지고 있기 때문에, 희소 표현 αi를 발견하는 것은 아래 수학식 5로 표현된다.On the other hand, the high-resolution feature vector b h k = η C h α i . Resolution feature vector, low-resolution tracing vector, or the same rare expression, finding the rare expression? I is expressed by Equation (5) below.

(수학식 5)(5)

Figure 112016116841844-pat00005
Figure 112016116841844-pat00005

F는 특징 추출 연산자이고, λ는 오류 허용 오차 정도를 나타낸다. 수학식 5의 최적화 문제는 NP-Hard하다. F is a feature extraction operator, and? Represents an error tolerance degree. The optimization problem in equation (5) is NP-hard.

l l놈(norm)을 최소화하여 이러한 문제를 해결할 수 있으며, 수학식 6과 같이 직교 매칭 추적(OMP)을 사용하여 희소 표현 αi를 얻을 수 있다.We can solve this problem by minimizing the l l norm and obtain the rare expression α i using orthogonal matching tracing (OMP) as shown in Equation (6).

(수학식 6)(6)

Figure 112016116841844-pat00006
Figure 112016116841844-pat00006

도 5는 본 발명의 바람직한 일 실시예에 따른 테스트 LR IR 이미지로부터 HR IR 이미지를 형성하는 과정을 보여주는 도면이다.FIG. 5 illustrates a process of forming a HR IR image from a test LR IR image according to an exemplary embodiment of the present invention. Referring to FIG.

도 5를 참조하면, 본 발명의 바람직한 일 실시예에 따른 테스트 IR 이미지로부터 고해상도 이미지를 형성하는 과정은 1) 먼저, 테스트 모듈이 테스트 LR IR 이미지 ITi를 입력받아(S210) 바이큐빅 보간법을 사용하여 확대된 테스트 LR IR 이미지 ITi'을 형성한다(S221).Referring to FIG. 5, a process of forming a high resolution image from a test IR image according to a preferred embodiment of the present invention comprises the following steps: 1) a test module receives a test LR IR image I Ti (S210) To form an enlarged test LR IR image I Ti ' (S221).

그리고, 확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 하여 4개의 테스트 특징 벡터 고주파 맵과 1개의 테스트 특징 벡터 저주파 맵을 형성한 후에(S122) 테스트 LR IR 이미지의 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록 B={bl k}(여기에서 k=1,2,...,K)을 얻는다(S222). Then, after enlarging the test LR IR image by non-part sample contour transformation to form four test feature vector high-frequency maps and one test feature vector low-frequency map (S122), the test low resolution coefficient The block B = {b l k } (where k = 1, 2, ..., K) is obtained (S222).

2) 계속해서, 테스트 모듈은 원시 저해상도 희소 사전을 참조하여 수학식 6의 OMP를 사용하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록 B={bl k}(k=1,2,...,K}으로부터 희소 표현 {αi}을 얻는다.2) Subsequently, the test module refers to the raw low-resolution sparse dictionary and uses the OMP of Equation 6 to test the low resolution coefficient block B = {b l k } (k = 1,2, ..., K} to obtain the rare expression {alpha i }.

이어서 bh k *=ηChαi를 사용하여 원시 고해상도 희소 사전을 참조하여 추정 테스트 고해상도 계수 블록 bh k *을 형성하며, 추정 테스트 고해상도 계수 블록을 사용하여, 추정 테스트 IR 이미지의 고주파 맵 Ihf *을 얻는다(S231).Then, the estimated high-resolution coefficient block b h k * is formed by referring to the raw high-resolution scarce dictionary using b h k * = η C h α i, and using the estimated test high-resolution coefficient block, the high-frequency map I hf * is obtained (S231).

3) 그런 다음 확대된 테스트 IR 이미지 ITi'를 추정 테스트 IR 이미지의 고주파 맵 Ihf *과 통합하여 추정 테스트 원시 HR IR 이미지를 얻는다(S232).3) Then, the magnified test IR image I Ti ' is integrated with the high frequency map I hf * of the estimated test IR image to obtain an estimated test raw HR IR image (S232).

4) 유사하게, 잔여 희소 HR-LR 사전 쌍 Crh, Crl을 이용하여 추정 잔여 IR 이미지Ir를 추정할 수 있다(S233).4) Similarly, the residual residual IR image I r can be estimated using the residual rare HR-LR dictionary pair C rh , C rl (S233).

5) 마지막으로, 추정 테스트 원시 HR IR 이미지 Iho와 추정 잔여 IR 이미지Ir를 통합하여 추정 테스트 HR IR 이미지 Ih를 얻는다(S234).5) Finally, the estimated test raw HR IR image I ho and the estimated residual IR image I r are integrated to obtain the estimated test HR IR image I h (S234).

이제, 본 발명과 바이 큐빅 보간, 최근접 보간, 양(Yang)의 방법, KSVD 방법 및 장(Zhang)의 방법[33] 등의 다른 방법과 비교한다.Now, the present invention is compared with other methods such as bicubic interpolation, nearest neighbor interpolation, Yang's method, KSVD method, and Zhang's method [33].

실험에서 사용되는 IR 이미지는 두 카테고리, 즉 얼굴 이미지와 자연 풍경 사진으로 구성된다.The IR images used in the experiment consist of two categories: face images and natural landscape photographs.

자연 풍경 사진을 직접 촬영하는 동안 얼굴 이미지는 USTC-NVIE 데이터베이스[34]에서 촬영된 것이다. FLIR Tau 320[35]은 자연 풍경 이미지를 캡처하는 데 사용되고 있다.While photographing natural landscape photographs, the facial images were taken from the USTC-NVIE database [34]. FLIR Tau 320 [35] is used to capture natural landscape images.

IR의 얼굴 이미지에 대해, 같은 크기 228* 300을 가진 50개의 HR IR 이미지를 선택한다. For the face image of the IR, select 50 HR IR images with the same size 228 * 300.

훈련 이미지는 무작위로 50 HR IR 이미지에서 34개가 선택되며 나머지 16개의 HR IR 이미지에서 테스트를 위한 입력으로 사용되도록 선택된다. 자연의 장면 IR 이미지를 위해, 75개의 HR IR 이미지를 포착한다.The training image is randomly selected from 34 HR in the 50 HR IR image and is selected to be used as the input for the test in the remaining 16 HR IR images. For natural scene IR images, 75 HR IR images are captured.

IR 이미지는 훈련 샘플과 테스트 샘플의 두 부분으로 구성된다. 훈련 샘플에는 62 개의 IR 이미지가 포함되어 있으며 테스트 샘플에는 13 개의 IR 이미지가 포함되어 있다. 자연 장면 IR 이미지는 같은 크기 240 * 348이다. HR IR 이미지는 LR IR 이미지를 구성하기 위해 3 배만큼 다운 샘플링된다. 일부 훈련 이미지는 그림 6과 그림 7에 나와 있다.The IR image consists of two parts: a training sample and a test sample. The training sample contains 62 IR images and the test sample contains 13 IR images. The natural scene IR image is the same size 240 * 348. The HR IR image is downsampled by three times to construct the LR IR image. Some training images are shown in Figure 6 and Figure 7.

실험에서 NSCT 계수 맵과 HR IR 이미지에 대해 크기 9 * 9의 패치를 사용한다. 그리고 이 패치는 인접한 블록 사이에 3 픽셀 겹친다. 각 실험에서, 희소 사전의 크기는 1024이다. 그리고 이미지를 네 방향으로 한 단계로 나눈다. DoG 필터를 사용하여 저주파 맵에서 세부 정보를 특징 벡터 맵으로 추출한다. 피크 신호 대 잡음비(PSNR)와 구조적 유사성 측정(SSIM)에서 다양한 방법의 결과를 시각적으로나 질적으로 평가한다.In the experiment, a patch of size 9 * 9 is used for the NSCT coefficient map and the HR IR image. And this patch overlaps 3 pixels between adjacent blocks. In each experiment, the size of the rare dictionary is 1024. Then divide the image into four directions. The DoG filter is used to extract the detail information from the low frequency map into a feature vector map. Evaluate the results of various methods visually and qualitatively in Peak Signal-to-Noise Ratio (PSNR) and Structural Similarity Measure (SSIM).

도 8은 테스트용 IR 이미지의 일부이며, (a) 건물 A IR 이미지, (b) 빌딩 B IR 이미지, (c) 건물 C IR 이미지, (d) 얼굴 A IR 이미지, (e) 얼굴 B IR 이미지,(f) 얼굴 C IR 이미지이다.Fig. 8 is a part of a test IR image, which shows a building IR image, a building B IR image, a building C IR image, (d) a face IR image, (e) a face B IR image , (f) a face C IR image.

도 9는 이미지를 사용한 실험 결과이며, (a) 기준 HR 이미지, (b) 최근접 보간에서 얻은 결과, (c) 바이 큐빅 보간법으로 얻은 결과, (d) Yang의 방법으로 얻은 결과, (e) K-SVD 방법으로 얻은 결과, (f) Zhang의 방법으로 얻은 결과, (g) 제안 된 방법으로 얻은 결과이다.Fig. 9 shows the experimental results using images. Fig. 9 (a) shows the results obtained by Yang's method, and (e) The result obtained by the K-SVD method, (f) the results obtained by Zhang's method, and (g) the results obtained by the proposed method.

도 10은 이미지를 사용한 실험 결과이며, (a) 기준 HR 이미지, (b) 최근접 보간에서 얻은 결과, (c) 바이 큐빅 보간법으로 얻은 결과, (d) Yang의 방법으로 얻은 결과, (e) K-SVD 방법으로 얻은 결과, (f) Zhang의 방법으로 얻은 결과, (g) 제안 된 방법으로 얻은 결과이다.Fig. 10 shows the results of experiments using images. Fig. 10 (a) shows the results obtained by Yang's method, and (e) The result obtained by the K-SVD method, (f) the results obtained by Zhang's method, and (g) the results obtained by the proposed method.

이처럼 도 9 (a)와 도 10 (a)는 자연 장면 이미지와 얼굴 이미지 각각의 원래 IR 이미지이다. 도 9 (b-g)와 도 10 (b-g)는 각각 최근접 보간법, Bicubic 보간법, Yang의 방법, KSVD 법, Zhang의 방법 및 제안된 방법에 의해 재구성된 IR 영상이다. 도 9 (a-g)와 도 10 (a-g)의 오른쪽에 있는 세 개의 열은 빛에 있는 세 개의 열에 있는 이미지의 표시된 영역의 확대 된 버전이다. 제안된 방법의 결과에 대한 자세한 내용은 다음과 같다. 9 (a) and 10 (a) are original IR images of the natural scene image and the face image, respectively. Figs. 9 (b-g) and 10 (b-g) are IR images reconstructed by the nearest interpolation method, Bicubic interpolation method, Yang method, KSVD method, Zhang method and proposed method respectively. The three columns to the right of Figures 9 (a-g) and 10 (a-g) are enlarged versions of the displayed areas of the image in the three columns of light. Details of the results of the proposed method are as follows.

도 9 (b)에서(c) 및 도 10 (b)에서 (c)까지 재구성 결과에는 고주파 성분이없고 이미지 세부 사항이 없고 흐려진 부분이 나타남을 알 수 있다. Yang, KSVD, Zhang과 제안된 방법의 재구성 결과는 비교적 명확하지만, Yang, KSVD, Zhang 및 제안 방법의 재구성 이미지는 이미지 세부 정보를 복원할 수 있다. 9 (b) to 10 (c) and 10 (b) to 10 (c) show that there is no high frequency component, no image detail, and a blurred portion appears. The reconstruction results of Yang, KSVD, Zhang and the proposed method are relatively clear, but reconstructed images of Yang, KSVD, Zhang and proposed method can reconstruct the image details.

또한, KSVD 방법에 의한 이미지 에지 텍스쳐의 재구성은 Yang의 방법과 비교하여 개선되었다. 도 9-10에서 제안된 알고리즘이 가장 효과적이며 복구된 세부 정보가 참조 HR IR 이미지와 가장 유사하다는 것을 알 수 있다.In addition, the reconstruction of the image edge texture by KSVD method is improved compared with Yang 's method. It can be seen that the algorithm proposed in Figures 9-10 is most effective and the recovered detail is most similar to the reference HR IR image.

표 1은 제안된 방법이 다른 방법보다 우위에 있음을 입증하는 가장 높은 PSNR과 SSIM을 달성함을 나타낸다.Table 1 shows that the proposed method achieves the highest PSNR and SSIM to prove superiority over the other methods.

(표 1)(Table 1)

Figure 112016116841844-pat00007
Figure 112016116841844-pat00007

다음으로, 매개 변수가 결과에 미치는 영향을 조사한다. 제안된 방법의 주요 파라미터는 4 개의 파라미터, 즉 NSCT의 수, NSCT의 방향 수, 희소 사전 크기 및 저주파 특징 추출 방법의 레벨로 구성된다.Next, examine the effect of the parameters on the results. The main parameters of the proposed method consist of four parameters: the number of NSCTs, the number of directions of NSCTs, the sparse dictionary size, and the level of the low frequency feature extraction method.

도 11은 NSCT 수준의 SR 품질에 미치는 영향을 나타내며, (a) NSCT 수준이 다른 PSNR, (b) NSCT 수준이 다른 SSIM을 나타낸다.Figure 11 shows the effect on SR quality at the NSCT level, (a) PSNR at different NSCT levels, and (b) SSIM at different NSCT levels.

이처럼 도 11은 NSCT의 레벨 번호가 결과에 미치는 영향을 보여준다. 도 11에서 하나의 레벨이 최상의 결과임을 알 수 있다. 레벨 번호가 증가함에 따라 그 결과는 더욱 악화되고 있다. 이러한 현상의 원인은 레벨 수가 증가할 때 노이즈가 유입될 수 있기 때문이다.Figure 11 thus shows the effect of the level number of the NSCT on the results. It can be seen in Fig. 11 that one level is the best result. As the level number increases, the result is getting worse. The reason for this phenomenon is that noise may be introduced when the number of levels increases.

도 12는 NSCT의 방향 수의 SR 품질에 대한 영향을 나타내며, (a) NSCT의 방향이 다른 PSNR, (b) NSCT의 방향이 다른 SSIM을 나타낸다.12 shows the influence of the number of directions of the NSCT on the SR quality, (a) PSNR of different directions of NSCT, and (b) SSIM of different directions of NSCT.

도 12는 방향 번호가 결과에 미치는 영향을 보여준다. 첫 번째 레벨에 한 방향만 있는 경우 PSNR 및 SSIM이 가장 낮다. 방향 번호의 증가로 PSNR과 SSIM은 점진적으로 증가한다. 방향의 수가 어느 정도 증가하면 PSNR과 SSIM은 안정적인 경향이 있다. 방향의 수가 증가함에 따라 제안된 방법의 성능이 향상될 것이다.Figure 12 shows the effect of direction numbers on the results. If there is only one direction in the first level, the PSNR and SSIM are the lowest. As the direction number increases, PSNR and SSIM gradually increase. PSNR and SSIM tend to be stable when the number of directions increases. As the number of directions increases, the performance of the proposed method will be improved.

도 13은 희소 사전 크기의 SR 품질에 미치는 영향을 나타내며, (a) 다른 희소 사전 크기의 PSNR, (b) 다른 희소 사전 크기의 SSIM을 나타낸다.Fig. 13 shows the effect on the SR quality of the rare dictionary size and shows (a) a PSNR of another sparse dictionary size and (b) another sparse dictionary size SSIM.

도 13은 희소 사전 크기가 결과에 미치는 영향을 보여준다. 크기 256, 512, 1024 및 1200의 사전을 교육하고 이를 동일한 입력 이미지에 적용한다. Figure 13 shows the effect of sparse dictionary size on the results. Educate the dictionaries of size 256, 512, 1024 and 1200 and apply them to the same input image.

도 13에서 희소 사전 크기가 커지면 PSNR과 SSIM이 느리게 상승하는 경향이 있음을 알 수 있다. 따라서 사전형 사전 크기가 클수록 SR 결과가 향상된다는 결론을 얻는다.In FIG. 13, it can be seen that PSNR and SSIM tend to increase slowly when the size of the rare dictionary increases. Therefore, we conclude that the larger the dictionary dictionary size, the better the SR results.

도 14는 저주파수 특징 추출 방법의 SR 품질에 대한 영향을 나타내며, (a) 추출된 특징에 관한 다른 방법에 의한 PSNR, (b) 추출된 특징에 관한 다른 방법들 하에서의 SSIM을 보여준다.Fig. 14 shows the effect of the low-frequency feature extraction method on the SR quality and shows the SSIM under (a) PSNR by another method on the extracted feature, and (b) by other methods on the extracted feature.

도 14는 저주파수 맵에 대한 특징 추출 방법의 결과에 대한 영향을 보여준다. 위상 적분 필터 [36], Gabor 필터 [37], Gradient 필터 [12], DoG 필터 [32]는 각각 저주파 맵의 특징을 추출하는데 사용된다. 도 14에서 DoG 필터가 최선이라는 것을 알 수 있다.Fig. 14 shows the effect on the result of the feature extraction method for the low-frequency map. The phase integration filter [36], the Gabor filter [37], the gradient filter [12], and the DoG filter [32] are used to extract features of the low frequency map, respectively. It can be seen from Fig. 14 that the DoG filter is the best.

도 15는 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치의 구성도이다.FIG. 15 is a configuration diagram of an infrared image super-resolution device for non-part sample contour transformation according to a preferred embodiment of the present invention.

도 15를 참조하면, 본 발명의 바람직한 일 실시예에 따른 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치는 원시 희소 사전 생성 모듈(100), 잔여 희소 사전 생성 모듈(200) 및 테스트 모듈(300)로 구성되어 있다.Referring to FIG. 15, an infrared image super-resolution apparatus for non-part sample contour transformation according to an exemplary embodiment of the present invention includes a primitive sparse dictionary generation module 100, a residual sparse dictionary generation module 200, and a test module 300 Consists of.

상기 원시 희소 사전 생성 모듈(100)은 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받는다.The primitive sparse dictionary generation module 100 receives a training LR IR image set and receives a training HR IR image set.

그리고, 원시 희소 사전 생성 모듈(100)은 훈련 LR IR 이미지를 확대하여 확대된 훈련 LR IR 이미지와 훈련 HR IR 이미지의 차이인 훈련 고주파 맵을 형성한다.The primitive sparse dictionary generation module 100 then expands the training LR IR image to form a training high frequency map that is the difference between the expanded training LR IR image and the training HR IR image.

또한, 원시 희소 사전 생성 모듈(100)은 확대된 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 생성한 후에 블록 분할을 수행하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵의 각각에 대하여 훈련 저해상도 겹침 벡터를 형성하고 이를 조합하여 훈련 저해상도 특징 벡터를 생성하여 훈련 저해상도 특징 벡터를 집합으로 하는 훈련 저해상도 계수 블록을 형성한다.In addition, the primitive sparse dictionary generation module 100 generates a training feature vector low-frequency map and a plurality of training feature vector high-frequency maps by transforming the enlarged training LR IR image to non- A training low resolution feature vector is generated for each feature low frequency map and a plurality of training feature vector high frequency maps, and a training low resolution feature vector is formed by combining the training low resolution overlap vector to form a training low resolution feature block having training low resolution feature vectors as a set.

또한, 원시 희소 사전 생성 모듈(100)은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 산출한다.In addition, the primitive sparse dictionary generation module 100 produces training high resolution coefficient blocks in the training high frequency map.

상기 원시 희소 사전 생성 모듈(100)은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성한다.The primitive sparse dictionary generation module 100 forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks and generates a primitive high resolution sparse dictionary using training high resolution coefficient blocks.

한편, 잔여 희소 사전 생성 모듈(200)은 원시 저해상도 희소 사전을 참조하여 확대된 추정 훈련 LR IR 이미지를 형성하고, 원시 고해상도 희소 사전을 참조하여 추정 훈련 HR IR 이미지를 형성한다.Meanwhile, the residual sparse dictionary generation module 200 forms an estimated training LR IR image with reference to the raw low-scarcity dictionary, and forms an estimated training HR IR image with reference to the raw high-resolution sparse dictionary.

그리고, 잔여 희소 사전 생성 모듈(200)은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하고, 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 훈련 잔여 IR 이미지를 형성한 후에 형성된 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성한다.Then, the residual sparse dictionary generation module 200 forms a residual high-resolution sparse dictionary using the estimated training HR IR image, and generates a training residual IR image using the training HR IR image and the estimated training HR IR image, The remaining IR images are used to form the remaining low-resolution sparse dictionaries.

한편, 테스트 모듈(300)은 테스트 LR IR 이미지를 입력받아, 확대된 테스트 LR IR 이미지를 형성한 후에 비부표본 윤곽선 변환을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵을 생성한 후에 블록 분할을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵의 각각에 대하여 테스트 저해상도 겹침 벡터를 형성하고 이를 조합하여 테스트 저해상도 특징 벡터를 생성하여 테스트 저해상도 특징 벡터를 집합으로 하는 테스트 저해상도 계수 블록을 형성한다.Meanwhile, the test module 300 receives the test LR IR image, forms an enlarged test LR IR image, and then performs non-part sample contour transformation to generate a test feature low frequency map and a plurality of test feature vector high frequency maps Resolution block is divided into blocks to form a test low resolution overlapping vector for each of a test feature vector low-frequency map and a plurality of test feature vector high-frequency maps, and a test low-resolution feature vector is generated by combining the test low- To form a test low resolution coefficient block.

상기 테스트 모듈(300)은 형성된 테스트 저해상도 계수 블록으로부터 원시 저해상도 희소 사전을 참조하여 희소 표현을 산출한 후에 원시 고해상도 희소 사전을 참조하여 테스트 고해상도 계수 블록을 산출하여 추정 테스트 원시 HR IR 이미지를 형성한다.The test module 300 calculates a rare expression by referring to a raw low-scarc dictionary from a formed test low-resolution coefficient block, and then calculates a test high-resolution coefficient block by referring to the raw high-resolution scarce dictionary to form an estimated test raw HR IR image.

그리고, 테스트 모듈(300)은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 참조하여 추정 테스트 원시 HR IR 이미지에서 추정 테스트 잔여 IR 이미지를 형성한다.The test module 300 then forms an estimated test residual IR image from the estimated test raw HR IR image with reference to the remaining high resolution sparse dictionary and the remaining low resolution sparse dictionaries.

상기 테스트 모듈(300)은 추정 테스트 원시 HR IR 이미지와 추정 테스트 잔여 IR 이미지를 이용하여 추정 테스트 HR IR 이미지를 형성한다).The test module 300 forms an estimated test HR IR image using the estimated test raw HR IR image and the estimated test residual IR image).

이처럼 두 개의 HR - LR 희소 사전 쌍이 훈련 이미지 집합으로부터 얻어진다. 테스트 LR IR 이미지는 훈련 단계에서 얻어진 두 HR - LR 희소 사전 쌍의 도움으로 HR IR 이미지를 생성한다.  Thus, two HR - LR sparse dictionary pairs are obtained from the training image set. Test LR IR images generate HR IR images with the help of two HR-LR sparse dictionary pairs obtained during the training phase.

도 16은 도 15의 원시 희소 사전 생성 모듈과 잔여 희소 사전 생성 모듈의 상세 구성도이다.FIG. 16 is a detailed configuration diagram of the primitive spurious dictionary generation module and the residual spurious dictionary generation module of FIG. 15; FIG.

도 16을 참조하면, 도 15의 원시 희소 사전 생성 모듈은 보간부(101), 훈련 고주파 맵 형성부(102), 비부표본 윤곽선 변환부(103), 가우시안 차 필터(104), 블록 분할부(105), 저해상도 계수 블록 산출부(106), 고해상도 계수 블록 산출부(107), 저해상도 희소 사전부(108) 및 고해상도 희소 사전부(109)를 포함한다.15, the primitive spurious dictionary generation module of FIG. 15 includes an interpolation section 101, a training high-frequency map forming section 102, a non-sample contour transformation section 103, a Gaussian difference filter 104, Resolution coefficient block calculating unit 106, a high-resolution coefficient block calculating unit 107, a low-resolution sparse dictionary unit 108, and a high-resolution sparse dictionary unit 109. The low-

그리고, 도 15의 잔여 희소 사전 생성 모듈은 저해상도 추정부(201), 고해상도 추정부(202), 잔여 이미지 형성부(203), 잔여 저해상도 사전부(204) 및 잔여 고해상도 사전부(205)를 구비하고 있다.The remaining sparse dictionary generation module of Fig. 15 includes a low resolution estimation section 201, a high resolution estimation section 202, a residual image formation section 203, a residual low resolution dictionary section 204 and a remaining high resolution dictionary section 205 .

이와 같은 구성에서 상기 보간부(101)는 훈련 LR IR 이미지들 Il m 을 입력받아(S110) 바이규빅(Bicubic) 보간법으로 확대하여 확대된 훈련 LR IR 이미지들 Il' m을 생성한다(여기에서 m은 1,2,3,...,M). In this configuration, the interpolator 101 receives the training LR IR images I l m (S110) and enlarges it with a bicubic interpolation method to generate expanded training LR IR images I l ' m (here, , M is 1, 2, 3, ..., M).

상기 훈련 고주파 맵 형성부(102)는 훈련 HR IR 이미지와 해당 확대된 훈련 LR IR 이미지의 차이인 훈련 IR 이미지 고주파 맵 Ihf m을 얻는다[32].The training high frequency map forming unit 102 obtains a training IR image high frequency map I hf m, which is the difference between the training HR IR image and the corresponding expanded training LR IR image [32].

다음으로, 비부표본 윤곽선 변환부(103)는 확대된 훈련 LR IR 이미지에 비부표본 윤곽선 변환을 수행하여 각 이미지 Il' m를 하나의 레벨(one level) 피라미드로 분해한다.Next, the non-part sample contour transformation unit 103 performs non-part sample contour transformation on the enlarged training LR IR image to decompose each image I l ' m into one level pyramid.

그 결과, 하나의 훈련 특징 벡터 저주파수 맵 Cllf' m과 4 개의 훈련 특징벡터 고주파 맵 Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m 을 얻는다.As a result, one training feature vector low frequency map C llf ' m and four training feature vector high frequency maps C lhf1' m , C lhf2 ' m , C lhf3' m and C lhf4 ' m are obtained.

그리고, 가우시안 차 필터(104)는 훈련 특징 벡터 저주파 맵 Cllf' m의 세부 정보를 훈련 특징 벡터 저주파 맵 Cllf' m로 추출한다.Then, the difference Gaussian filter 104 extracts 'the details of the training feature vector m low frequency map C llf' training feature vector in the low-frequency map C llf m.

상기 블록 분할부(105)는 5 개의 맵 Cllf' m, Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m을 블록으로 분할하고, 저해상도 계수 블록 산출부(106)는 비부표본 윤곽선 변환(NSCT) 훈련 저해상도 계수 블록 B={bl mk}을 구성한다.The block dividing unit 105 divides the five maps C llf ' m , C lhf1' m , C lhf2 ' m , C lhf3' m and C lhf4 ' m into blocks, and the low resolution coefficient block calculating unit 106 (NSCT) training low-resolution coefficient block B = {b l mk }.

이를 위해 5 개의 맵 Cllf' m, Clhf1' m, Clhf2' m, Clhf3' m, Clhf4' m에서 n * n의 크기로 겹치는 블록을 얻게 된다.To do this, we obtain a block that overlaps the size of n * n in the five maps C llf ' m , C lhf1' m , C lhf2 ' m , C lhf3' m and C lhf4 ' m .

이처럼 모든 블록은 훈련 저해상도 겹칩 벡터 Bllf' mk, Blhf1' mk, Blhf2' mk, Blhf3' mk, Blhf4' mk로(k=1,2,3,...,K) 변환되며, 다른 맵으로부터 저해상도 겹칩 벡터들을 수집하여 훈련 저해상도 특징 벡터 bl mk를 형성한다(여기에서 K는 맵의 총 블록수이다). 훈련 저해상도 특징 벡터 bl mk 의 k=1,2,3,...,K의 집합을 훈련 저해상도 계수 블록 B={bl mk}라고 한다. 그리고, 훈련 IR 이미지 고주파 맵 Ihf m은 n*n 픽셀이 겹쳐지는 훈련 고해상도 계수 블록 B={bh mk}을 구성한다.Thus, all the blocks are low-resolution training gyeopchip vector B llf 'mk, B lhf1' mk, B lhf2 'mk, B lhf3' mk, B lhf4 ' by mk (k = 1,2,3, ..., K) are converted , Collecting low resolution overlap vectors from other maps to form a training low resolution feature vector b l mk (where K is the total number of blocks in the map). The set of k = 1,2,3, ..., K of training low resolution feature vectors b l mk is called the training low resolution coefficient block B = {b l mk }. Then, the training IR image high frequency map I hf m constitutes a training high resolution coefficient block B = {b h mk } where n * n pixels overlap.

한편, 저해상도 희소 사전부(108)는 수학식 4를 통하여, 원시 저해상도 희소 사전 Cl과 희소 표현 φ를 구할 수 있다.On the other hand, the low-resolution sparse dictionary part 108 can obtain the primitive low-scarce sparse dictionary C l and the sparse expression φ through equation (4).

그리고, 고해상도 희소 사전부(109)는 원시 저해상도 희소 사전 Cl 과 훈련 고해상도 계수 블록으로부터 원시 고해상도 희소 사전 Ch을 얻는다.Then, the high-resolution sparse dictionary portion 109 obtains a raw high-resolution sparse dictionary C h from the raw low-resolution sparse dictionary C l and the training high-resolution coefficient block.

한편, 잔여 희소 사전 생성 모듈의 저해상도 추정부(201)은 원시 희소 사전 Cl 과 Ch을 사용하여 확대된 추정 훈련 LR 이미지 Il' m을 추정할 수 있으며, 고해상도 추정부(202)는 추정 훈련 원시 HR IR 이미지 Iho를 얻는다.On the other hand, the low-resolution estimation unit 201 of the residual sparse dictionary generation module can estimate the estimated training LR image I 1 ' m magnified using the primitive sparse dictionaries C l and C h , and the high- Training Get the raw HR IR image I ho .

그리고, 잔여 이미지 형성부(203)는 추정 훈련 원시 HR IR 이미지와 원시 HR IR 이미지의 차이인 잔여 IR 이미지를 구한다. Then, the residual image forming unit 203 obtains the residual IR image, which is the difference between the estimated training original HR image and the original HR image.

상기 잔여 저해상도 희소 사전부(204)는 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 산출한 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성한다.The residual low-resolution sparse dictionary part 204 forms a residual low-resolution sparse dictionary using a training HR IR image and a training residual IR image computed using an estimated training HR IR image.

다음으로, 잔여 고해상도 사전부(205)는 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성한다.Next, the remaining high-resolution dictionary part 205 forms a residual high-resolution sparse dictionary using the estimated training HR IR image.

도 17은 도 15의 테스트 모듈의 상세 구성도이다.17 is a detailed configuration diagram of the test module of Fig.

도 17을 참조하면, 도 15의 테스트 모듈은 보간부(301), 비부표본 윤곽선 변환부(302), 가우시안 차 필터(303), 블록 분할부(304), 저해상도 계수 블록 산출부(305), 희소 표현 산출부(306), 고해상도 계수 블록(307), 테스트 고주파 맵 형성부(308), 원시 고해상도 이미지 형성부(309), 잔여 이미지 추정부(310) 및 고해상도 이미지 형성부(311)을 포함한다.15, the test module of FIG. 15 includes an interpolator 301, a non-sample contour transformer 302, a Gaussian difference filter 303, a block divider 304, a low-resolution coefficient block calculator 305, A high-resolution coefficient block 307, a test high-frequency map forming unit 308, a raw high-resolution image forming unit 309, a residual image estimating unit 310 and a high-resolution image forming unit 311 do.

상기 보간부(301)는 테스트 LR IR 이미지 ITi를 입력받아 바이큐빅 보간법을 사용하여 확대된 테스트 LR IR 이미지 ITi'을 형성한다.The interpolator 301 receives the test LR IR image I Ti and forms an enlarged test LR IR image I Ti ' using bi-cubic interpolation.

그리고, 비부표본 윤곽선 변환부(302)는 확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 하여 4개의 테스트 특징 벡터 고주파 맵과 1개의 테스트 특징 벡터 저주파 맵을 형성한다.The non-part sample contour transformation unit 302 transforms the enlarged test LR IR image into non-part sample contour lines to form four test feature vector high-frequency maps and one test feature vector low-frequency map.

그리고, 가우시안 차 필터(303)는 테스트 특징 벡터 저주파 맵의 세부 정보를 테스트 특징 벡터 저주파 맵으로 추출한다.Then, the Gaussian difference filter 303 extracts the detailed information of the test feature vector low-frequency map as a test feature vector low-frequency map.

상기 블록 분할부(304)는 5 개의 맵을 블록으로 분할하고, 저해상도 계수 블록 산출부(305)는 테스트 LR IR 이미지의 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록 B={bl k}(여기에서 k=1,2,...,K)을 얻는다.The block dividing unit 304 divides the five maps into blocks and the low resolution coefficient block calculating unit 305 calculates the test low resolution coefficient block B = {b l k } of the non-part sample contour transformation of the test LR IR image k = 1, 2, ..., K).

희소 표현 산출부(306)는 원시 저해상도 희소 사전(108)을 참조하여 수학식 6의 OMP를 사용하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록 B={bl k}(k=1,2,...,K}으로부터 희소 표현 {αi}을 얻는다.The sparse expression calculator 306 refers to the raw low-resolution sparse dictionary 108 and uses the OMP of Equation 6 to determine the test low resolution coefficient block B = {b l k } (k = 1, 2,. ..., K} to obtain a sparse representation {α i }.

그리고, 고해상도 계수 블록 산출부(307)는 bh k *=ηChαi를 사용하여 원시 고해상도 희소 사전을 참조하여 추정 테스트 고해상도 계수 블록 bh k *을 형성하며, 테스트 고주파 맵 형성부(308)는 추정 테스트 고해상도 계수 블록을 사용하여, 추정 테스트 IR 이미지의 고주파 맵 Ihf *을 얻는다.The high resolution coefficient block calculating unit 307 forms an estimated test high resolution coefficient block b h k * by referring to the raw high resolution scarce dictionary using b h k * = η C h α i , and the test high frequency map forming unit 308 ) Obtains the high frequency map I hf * of the estimated test IR image, using the estimated test high resolution coefficient block.

상기 원시 고해상도 이미지 형성부(309)는 확대된 테스트 IR 이미지 ITi'를 추정 테스트 IR 이미지의 고주파 맵 Ihf *과 통합하여 추정 테스트 원시 HR IR 이미지Iho를 얻는다.The raw high-resolution image forming unit 309 integrates the enlarged test IR image I Ti ' with the high-frequency map I hf * of the estimated test IR image to obtain an estimated test raw HR IR image I ho .

상기 잔여 이미지 추정부(310)는 잔여 희소 HR-LR 사전 쌍 Crh, Crl을 이용하여 추정 잔여 IR 이미지Ir를 추정할 수 있다.The residual image estimating unit 310 may estimate the estimated residual IR image I r using the residual rare HR-LR dictionary pair C rh , C rl .

그리고, 고해상도 이미지 형성부(311)는 추정 테스트 원시 HR IR 이미지 Iho와 추정 잔여 IR 이미지Ir를 통합하여 추정 테스트 HR IR 이미지 Ih를 얻는다.Then, the high-resolution image forming unit 311 combines the estimated test raw HR IR image I ho and the estimated residual IR image I r to obtain an estimated test HR IR image I h .

상기와 같은 본 발명에서는 NSCT와 희소 사전에 기반한 IR 영상의 SR 문제를 해결하기 위해 희소 표현을 적용한다. 일반 사전과 비교할 때, 희소 사전은 규칙성을 가지고 있으며 적응적으로 사용된다. 또한 기존 SR 방법과 비교하여 두 개의 희소 사전 쌍이 제안되었다.In the present invention, a rare expression is applied to solve the SR problem of the IR image based on the NSCT and the rare dictionary. Compared to the regular dictionary, the sparse dictionary has regularity and is used adaptively. In addition, two pairs of sparse dictionaries have been proposed in comparison with existing SR methods.

원시 희소 사전 쌍은 원시 HR IR 이미지를 재구성하도록 학습되지만 해당 참조 HR 이미지와 일부 세부 사항은 완전히 손실된다. 따라서 잔여 희소 사전 쌍을 학습하여 잔여 정보를 재구성한다. 그라디언트 맵을 추출하는 기존 추출된 특징 방식은 이미지 특징을 완전히 적용할 수 없다. 본 발명에서는 NSCT를 이용하여 그 특징을 추출한다. NSCT는 다중 스케일, 다 방향, 변환 불변이므로, 이미지 특징을 풍부하게 하고 앨리어싱을 방지한다. 실험 결과는 제안된 방법이 다른 방법보다 우수함을 보여 주었다.The primitive sparse dictionary pair is learned to reconstruct the raw HR IR image, but the reference HR image and some details are completely lost. Therefore, the residual information is reconstructed by learning the remaining pairs of rare dictionaries. Existing extracted features that extract gradient maps can not fully apply image features. In the present invention, the feature is extracted using NSCT. NSCT is multiscale, multi-directional, and invariant, so it enriches image features and prevents aliasing. Experimental results show that the proposed method is superior to the other methods.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 기재된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상이 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의해서 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments of the present invention are not intended to limit the scope of the present invention but to limit the scope of the present invention. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as being included in the scope of the present invention.

100 : 원시 희소 사전 생성 모듈 101 : 보간부
102 : 훈련 고주파 맵 형성부, 103 : 비부표본 윤곽선 변환부
104 : 가우시안 차 필터 105 : 블록 분할부
106 : 저해상도 계수 블록 산출부 107 : 고해상도 계수 블록 산출부
108 : 저해상도 희소 사전부 109 : 고해상도 희소 사전부
200 : 잔여 희소 사전 생성 모듈 201 : 저해상도 추정부
202 : 고해상도 추정부 203 : 잔여 이미지 형성부
204 : 잔여 저해상도 사전부 205 : 잔여 고해상도 사전부
300 : 테스트 모듈 301 : 보간부
302 : 비부표본 윤곽선 변환부 303 : 가우시안 차 필터
304 : 블록 분할부 305 : 저해상도 계수 블록 산출부
306 : 희소 표현 산출부 307 : 고해상도 계수 블록
308 : 테스트 고주파 맵 형성부 309 : 원시 고해상도 이미지 형성부
310 : 잔여 이미지 추정부 311 : 고해상도 이미지 형성부
100: primitive rare dictionary generation module 101: interpreter
102: training high frequency map forming unit, 103: non-specimen contour conversion unit
104: Gaussian filter 105: block divider
106: low resolution coefficient block calculating unit 107: high resolution coefficient block calculating unit
108: Low-resolution sparse dictionary part 109: High-resolution sparse dictionary part
200: Residual sparse dictionary generation module 201: Low resolution estimation part
202: high resolution estimation unit 203: residual image forming unit
204: Residual low-resolution dictionary part 205: Residual high-resolution dictionary part
300: Test module 301:
302: non-specimen contour conversion unit 303: Gaussian filter
304: block division unit 305: low resolution coefficient block calculation unit
306: Sparse Expression Calculator 307: High Resolution Coefficient Block
308: test high frequency map forming unit 309: raw high resolution image forming unit
310: residual image estimating unit 311: high resolution image forming unit

Claims (15)

(A)원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하는 단계;
(B)상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하는 단계;
(C)상기 원시 희소 사전 생성 모듈은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하는 단계;
(D)상기 원시 희소 사전 생성 모듈은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 단계;
(E) 잔여 희소 사전 생성 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 단계;
(F) 테스트 모듈이 테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록을 형성하는 단계; 및
(G) 상기 테스트 모듈은 형성된 테스트 고해상도 계수 블록을 산출하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함하며,
상기 (E) 단계는
(E-1) 상기 잔여 희소 사전 생성 모듈은 원시 저해상도 희소 사전을 참조하여 확대된 추정 훈련 LR IR 이미지를 형성하고, 원시 고해상도 희소 사전을 참조하여 추정 훈련 HR IR 이미지를 형성하는 단계;
(E-2) 상기 잔여 희소 사전 생성 모듈은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하는 단계;
(E-3) 상기 잔여 희소 사전 생성 모듈은 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 훈련 잔여 IR 이미지를 형성하는 단계; 및
(E-4) 상기 잔여 희소 사전 생성 모듈은 형성된 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성하는 단계를 포함하고,
상기 (G) 단계는
(G-1) 상기 테스트 모듈은 형성된 테스트 저해상도 계수 블록으로부터 원시 저해상도 희소 사전을 참조하여 희소 표현을 산출하는 단계;
(G-2) 상기 테스트 모듈은 원시 고해상도 희소 사전을 참조하여 테스트 고해상도 계수 블록을 산출하여 추정 테스트 원시 HR IR 이미지를 형성하는 단계;
(G-3) 상기 테스트 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 참조하여 추정 테스트 원시 HR IR 이미지에서 추정 테스트 잔여 IR 이미지를 형성하는 단계; 및
(G-4) 상기 테스트 모듈은 추정 테스트 원시 HR IR 이미지와 추정 테스트 잔여 IR 이미지를 이용하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
(A) receiving a training LR IR image set from a primitive sparse dictionary generation module, receiving training HR IR image sets, and forming training high-frequency maps;
(B) the primitive sparse pregeneration module transforms a training LR IR image into a training low resolution coefficient block to form a training low resolution coefficient block;
(C) the primitive sparse pregeneration module forms training high resolution coefficient blocks in a training high frequency map;
(D) the primitive spurious dictionary generation module forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks, and generates a primitive high resolution sparse dictionary using the training high resolution coefficient blocks;
(E) the remaining sparse dictionary creation module comprises: forming a remaining high resolution sparse dictionary and a remaining low resolution sparse dictionary;
(F) receiving a test LR IR image from a test module to form a test low resolution coefficient block; And
(G) the test module comprises generating a test high resolution coefficient block formed to form an estimated test HR IR image,
The step (E)
(E-1) the residual sparse dictionary generation module forms an estimated training LR IR image with reference to the raw low-scarce sparse dictionary, and forms an estimated training HR IR image with reference to the raw high-resolution sparse dictionary;
(E-2) said residual sparse pre-production module using said estimated training HR IR image to form a residual high-resolution sparse dictionary;
(E-3) the residual sparse pre-production module is configured to form a training residual IR image using a training HR IR image and an estimated training HR IR image; And
(E-4) said residual sparse pregeneration module comprises forming a residual low-scarcity sparse dictionary using formed training residual IR images,
The step (G)
(G-1) The test module calculates a rare expression by referring to a raw low-scarcity dictionary from a formed test low-resolution coefficient block;
(G-2) the test module calculates a test high-resolution coefficient block by referring to a raw high-resolution scarce dictionary to form an estimated test raw HR IR image;
(G-3) The test module forms an estimated test residual IR image in the estimated test raw HR IR image with reference to the remaining high-resolution sparse dictionary and the remaining low-resolution sparse dictionary; And
(G-4) The test module comprises forming an estimated test HR IR image using an estimated test raw HR IR image and an estimated test residual IR image.
청구항 1항에 있어서,
상기 (A) 단계는
(A-1) 상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받는 단계;
(A-2) 상기 원시 희소 사전 생성 모듈은 훈련 LR IR 이미지를 확대하여 확대된 훈련 LR IR 이미지를 형성하는 단계; 및
(A-3) 상기 원시 희소 사전 생성 모듈이 확대된 훈련 LR IR 이미지와 훈련 HR IR 이미지의 차이인 훈련 고주파 맵을 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
The method according to claim 1,
The step (A)
(A-1) receiving the training LR IR image set and receiving a training HR IR image set;
(A-2) the primitive sparse pregeneration module expands the training LR IR image to form an expanded training LR IR image; And
(A-3) an infrared image super-resolution method of non-specimen contour transformation comprising the step of forming a training high-frequency map wherein the primitive sparse pregeneration module is a difference between an expanded training LR IR image and a training HR IR image.
청구항 2항에 있어서,
상기 (A-2) 단계에서 상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 바이규빅 보간법을 사용하여 확대하여 확대된 훈련 LR IR 이미지를 형성하는 것을 특징으로 하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
The method according to claim 2,
Characterized in that in step (A-2), the primitive sparse pregeneration module forms an expanded training LR IR image by magnifying the training LR IR image using bikigabic interpolation to produce an infrared image of ultra-high resolution Way.
청구항 1항에 있어서,
상기 (B) 단계는
(B-1) 상기 원시 희소 사전 생성 모듈이 확대된 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 하나의 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 생성하는 단계;
(B-2) 상기 원시 희소 사전 생성 모듈이 훈련 특징 벡터 저주파 맵과 다수개의 훈련 특징 벡터 고주파 맵을 블록 분할을 수행하여 각각에 대하여 훈련 저해상도 겹침 벡터들을 형성하는 단계; 및
(B-3) 상기 원시 희소 사전 생성 모듈이 훈련 저해상도 겹침 벡터들을 조합하여 훈련 저해상도 특징 벡터를 생성하여 훈련 저해상도 계수 블록을 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
The method according to claim 1,
The step (B)
(B-1) generating a training feature vector low-frequency map and a plurality of training feature vector high-frequency maps by transforming the training LR IR image of the original sparse dictionary creation module into a non-part sample contour transformation;
(B-2) the primitive spurious dictionary generation module performs block division of training feature vector low-frequency maps and a plurality of training feature vector high-frequency maps to form training low-resolution overlapping vectors for each; And
And (B-3) combining the training low resolution overlap vectors to generate a training low resolution feature vector to form a training low resolution coefficient block, wherein the primitive sparse pregeneration module combines the training low resolution overlap vectors to form a training low resolution coefficient block.
청구항 4항에 있어서,
상기 (B-2) 단계에서 상기 원소 희소 사전 생성 모듈이 블록 분할을 수행하기 이전에 가우시안 차 필터를 사용하여 훈련 특징 벡터 저주파 맵의 세부 정보를 추출하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
The method of claim 4,
A method of ultra-high resolution imaging of a non-specimen contour by transforming a training feature vector low-frequency map detail information using a Gaussian difference filter before the elementary sparse dictionary generation module performs block segmentation in step (B-2).
삭제delete 청구항 1항에 있어서,
상기 (F) 단계는
(F-1) 상기 테스트 모듈이 테스트 LR IR 이미지를 입력받아, 확대된 테스트 LR IR 이미지를 형성하는 단계;
(F-2) 상기 테스트 모듈이 확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 수행하여 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵을 생성하는 단계;
(F-3) 상기 테스트 모듈이 하나의 테스트 특징 벡터 저주파 맵과 다수개의 테스트 특징 벡터 고주파 맵에 대해 블록 분할을 수행하여 각각에 대하여 테스트 저해상도 겹침 벡터드를 형성하는 단계; 및
(F-4) 상기 테스트 모듈이 테?아? 저해상도 겹침 벡터들을 조합하여 테스트 저해상도 특징 벡터를 생성하여 테스트 저해상도 계수 블록을 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법.
The method according to claim 1,
The step (F)
(F-1) receiving the test LR IR image from the test module and forming an enlarged test LR IR image;
(F-2) generating a test feature vector low-frequency map and a plurality of test feature vector high-frequency maps by performing a non-part sample contour transformation on the expanded test LR IR image by the test module;
(F-3) the test module performs block division on one test feature vector low-frequency map and a plurality of test feature vector high-frequency maps to form a test low-resolution overlapping vector field for each test feature vector low-frequency map; And
(F-4) Combining the low resolution overlapping vectors to form a test low resolution feature block to form a test low resolution feature block.
삭제delete (A)원시 희소 사전 생성 모듈이 훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하는 단계;
(B)상기 원시 희소 사전 생성 모듈이 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하는 단계;
(C)상기 원시 희소 사전 생성 모듈은 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하는 단계;
(D)상기 원시 희소 사전 생성 모듈은 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 단계;
(E) 잔여 희소 사전 생성 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 단계;
(F) 테스트 모듈이 테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록을 형성하는 단계; 및
(G) 상기 테스트 모듈은 형성된 테스트 고해상도 계수 블록을 산출하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함하고,
상기 (E) 단계는
(E-1) 상기 잔여 희소 사전 생성 모듈은 원시 저해상도 희소 사전을 참조하여 확대된 추정 훈련 LR IR 이미지를 형성하고, 원시 고해상도 희소 사전을 참조하여 추정 훈련 HR IR 이미지를 형성하는 단계;
(E-2) 상기 잔여 희소 사전 생성 모듈은 추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하는 단계;
(E-3) 상기 잔여 희소 사전 생성 모듈은 훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 훈련 잔여 IR 이미지를 형성하는 단계; 및
(E-4) 상기 잔여 희소 사전 생성 모듈은 형성된 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성하는 단계를 포함하고,
상기 (G) 단계는
(G-1) 상기 테스트 모듈은 형성된 테스트 저해상도 계수 블록으로부터 원시 저해상도 희소 사전을 참조하여 희소 표현을 산출하는 단계;
(G-2) 상기 테스트 모듈은 원시 고해상도 희소 사전을 참조하여 테스트 고해상도 계수 블록을 산출하여 추정 테스트 원시 HR IR 이미지를 형성하는 단계;
(G-3) 상기 테스트 모듈은 잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 참조하여 추정 테스트 원시 HR IR 이미지에서 추정 테스트 잔여 IR 이미지를 형성하는 단계; 및
(G-4) 상기 테스트 모듈은 추정 테스트 원시 HR IR 이미지와 추정 테스트 잔여 IR 이미지를 이용하여 추정 테스트 HR IR 이미지를 형성하는 단계를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체.
(A) receiving a training LR IR image set from a primitive sparse dictionary generation module, receiving training HR IR image sets, and forming training high-frequency maps;
(B) the primitive sparse pregeneration module transforms a training LR IR image into a training low resolution coefficient block to form a training low resolution coefficient block;
(C) the primitive sparse pregeneration module forms training high resolution coefficient blocks in a training high frequency map;
(D) the primitive spurious dictionary generation module forms a primitive low resolution sparse dictionary using training low resolution coefficient blocks, and generates a primitive high resolution sparse dictionary using the training high resolution coefficient blocks;
(E) the remaining sparse dictionary creation module comprises: forming a remaining high resolution sparse dictionary and a remaining low resolution sparse dictionary;
(F) receiving a test LR IR image from a test module to form a test low resolution coefficient block; And
(G) the test module comprises generating a test high resolution coefficient block formed to form an estimated test HR IR image,
The step (E)
(E-1) the residual sparse dictionary generation module forms an estimated training LR IR image with reference to the raw low-scarce sparse dictionary, and forms an estimated training HR IR image with reference to the raw high-resolution sparse dictionary;
(E-2) said residual sparse pre-production module using said estimated training HR IR image to form a residual high-resolution sparse dictionary;
(E-3) the residual sparse pre-production module is configured to form a training residual IR image using a training HR IR image and an estimated training HR IR image; And
(E-4) said residual sparse pregeneration module comprises forming a residual low-scarcity sparse dictionary using formed training residual IR images,
The step (G)
(G-1) The test module calculates a rare expression by referring to a raw low-scarcity dictionary from a formed test low-resolution coefficient block;
(G-2) the test module calculates a test high-resolution coefficient block by referring to a raw high-resolution scarce dictionary to form an estimated test raw HR IR image;
(G-3) The test module forms an estimated test residual IR image in the estimated test raw HR IR image with reference to the remaining high-resolution sparse dictionary and the remaining low-resolution sparse dictionary; And
(G-4) The test module is configured to generate an estimated test HR IR image using an estimated test raw HR IR image and an estimated test residual IR image. A computer recording the infrared image ultra high resolution method of non- Readable recording medium.
훈련 LR IR 이미지 집합을 입력받고, 훈련 HR IR 이미지 집합을 입력받아 훈련 고주파 맵을 형성하고, 훈련 LR IR 이미지를 비부표본 윤곽선 변환하여 훈련 저해상도 계수 블록을 형성하며, 훈련 고주파 맵에서 훈련 고해상도 계수 블록을 형성하고, 훈련 저해상도 계수 블록을 이용하여 원시 저해상도 희소 사전을 형성하고, 훈련 고해상도 계수 블록을 이용하여 원시 고해상도 희소 사전을 생성하는 원시 희소 사전 생성 모듈;
잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 형성하는 잔여 희소 사전 생성 모듈; 및
테스트 LR IR 이미지를 입력받아 테스트 저해상도 계수 블록과 테스트 고해상도 계수 블록을 산출하여 상기 원시 고해상도 희소 사전, 원시 저해상도 희소 사전, 잔여 고해상도 희소 사전 및 잔여 저해상도 희소 사전을 참조하여 추정 테스트 HR IR 이미지를 형성하는 테스트 모듈을 포함하고,
상기 잔여 희소 사전 생성 모듈은
원시 고해상도 희소 사전과 원시 저해상도 희소 사전을 사용하여 확대된 추정 훈련 LR 이미지를 형성하는 저해상도 추정부;
추정 훈련 원시 HR IR 이미지를 형성하는 고해상도 추정부;
추정 훈련 원시 HR IR 이미지와 원시 HR IR 이미지의 차이인 잔여 IR 이미지를 구하는 잔여 이미지 형성부;
훈련 HR IR 이미지와 추정 훈련 HR IR 이미지를 이용하여 산출한 훈련 잔여 IR 이미지를 이용하여 잔여 저해상도 희소 사전을 형성하는 상기 잔여 저해상도 희소 사전부; 및
추정 훈련 HR IR 이미지를 이용하여 잔여 고해상도 희소 사전을 형성하는 잔여 고해상도 사전부를 포함하고,
상기 테스트 모듈은
테스트 LR IR 이미지를 입력받아 바이큐빅 보간법을 사용하여 확대된 테스트 LR IR 이미지을 형성하는 보간부;
확대된 테스트 LR IR 이미지를 비부표본 윤곽선 변환을 하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록을 형성하는 비부표본 윤곽선 변환부;
원시 저해상도 희소 사전을 참조하여 비부표본 윤곽선 변환의 테스트 저해상도 계수 블록으로부터 희소 표현을 얻는 희소 표현 산출부;
원시 고해상도 희소 사전을 참조하여 추정 테스트 고해상도 계수 블록을 형성하는 고해상도 계수 블록 산출부;
추정 테스트 고해상도 계수 블록을 사용하여, 추정 테스트 IR 이미지의 고주파 맵을 형성하는 를 사용하여 테스트 고주파 맵 형성부;
확대된 테스트 IR 이미지를 추정 테스트 IR 이미지의 고주파 맵과 통합하여 추정 테스트 원시 HR IR 이미지를 얻는 원시 고해상도 이미지 형성부;
잔여 고해상도 희소 사전과 잔여 저해상도 희소 사전을 이용하여 추정 잔여 IR 이미지를 추정하는 잔여 이미지 추정부; 및
추정 테스트 원시 HR IR 이미지와 추정 잔여 IR 이미지를 통합하여 추정 테스트 HR IR 이미지를 얻는 고해상도 이미지 형성부를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치.
Training receives a set of LR IR images, receives a set of training HR IR images, forms training high-frequency maps, forms training low-resolution coefficient blocks by transforming training LR IR images into non-parametric contour maps, and training high- A primitive sparse pregeneration module to form a primitive low resolution sparse dictionary using training low resolution coefficient blocks and a raw high resolution sparse dictionary using training high resolution coefficient blocks;
A residual sparse dictionary generation module that forms a residual high-resolution sparse dictionary and a residual low-resolution sparse dictionary; And
A test LR IR image is received and a test low resolution coefficient block and a test high resolution coefficient block are calculated to form an estimated test HR IR image by referring to the raw high resolution sparse dictionary, the raw low resolution sparse dictionary, the remaining high resolution sparse dictionary and the remaining low resolution sparse dictionary A test module,
The remaining sparse dictionary generation module
A low resolution estimator for forming an estimated training LR image magnified using a raw high resolution sparse dictionary and a raw low resolution sparse dictionary;
A high resolution estimator for forming an estimated training raw HR IR image;
A residual image forming unit for obtaining a residual IR image that is a difference between the estimated training raw HR IR image and the raw HR IR image;
The remaining low-resolution sparse dictionary portion forming the remaining low-resolution sparse dictionary using the training HR IR image and the training residual IR image calculated using the estimated training HR IR image; And
Resolution residual dictionary forming a residual high-resolution sparse dictionary using an estimated training HR IR image,
The test module
An interpolator receiving the test LR IR image and forming an enlarged test LR IR image using bi-cubic interpolation;
A non-specimen contour transformer for forming a test low resolution coefficient block of non-specimen contour transformation by performing non-specimen contour transformation on an enlarged test LR IR image;
Testing a non-specimen contour transformation with reference to a primitive low-resolution sparse dictionary; obtaining a rare representation from the low-resolution coefficient block;
A high resolution coefficient block calculator for forming an estimation test high resolution coefficient block by referring to a raw high resolution scarce dictionary;
A test high frequency map forming unit using the estimated test high resolution coefficient block to form a high frequency map of the estimated test IR image;
Integrating the expanded test IR image with a high frequency map of the test IR image to obtain a raw HR IR image;
A residual image estimator for estimating a residual IR image using a residual high-resolution sparse dictionary and a residual low-resolution sparse dictionary; And
An infrared imaging ultra-high resolution device of non-specimen contour transformation comprising a high resolution image forming section for obtaining an estimated test HR IR image by integrating a presumptive test raw HR IR image and an estimated residual IR image.
청구항 10항에 있어서,
상기 원시 희소 사전 생성 모듈은
훈련 LR IR 이미지들을 입력받아 확대하여 확대된 훈련 LR IR 이미지들을 생성하는 보간부;
훈련 HR IR 이미지와 확대된 훈련 LR IR 이미지의 차이인 훈련 IR 이미지 고주파 맵을 형성하는 훈련 고주파 맵 형성부;
확대된 훈련 LR IR 이미지에 비부표본 윤곽선 변환을 수행하여 하나의 훈련 특징 벡터 저주파수 맵과 다수개의 훈련 특징벡터 고주파 맵을 형성하는 비부표본 윤곽선 변환부;
다수개의 맵을 블록으로 분할하는 블록 분할부;
분할된 블록을 훈련 저해상도 겹칩 벡터들로 변환하여 저해상도 겹칩 벡터들을 수집하여 훈련 저해상도 계수 블록을 형성하는 저해상도 계수 블록 산출부;
훈련 IR 이미지 고주파 맵으로부터 훈련 고해상도 계수 블록을 구성하는 고해상도 계수 블록 산출부;
상기 훈련 저해상도 계수 블록에서 원시 저해상도 희소 사전을 형성하는 저해상도 희소 사전부; 및
원시 저해상도 희소 사전과 훈련 고해상도 계수 블록으로부터 원시 고해상도 희소 사전을 형성하는 고해상도 희소 사전부를 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치.
12. The method of claim 10,
The primitive rare dictionary generation module
Training LR IR images are enlarged and expanded to generate training LR IR images;
A training IR image, which is the difference between the training HR IR image and the expanded training LR IR image; a training high frequency map forming unit, which forms a high frequency map;
A non-specimen contour transformation unit for performing non-specimen contour transformation on an enlarged training LR IR image to form a training feature vector low-frequency map and a plurality of training feature vector high-frequency maps;
A block dividing unit dividing the plurality of maps into blocks;
A low resolution coefficient block calculator for transforming the divided blocks into training low resolution overlap vectors to collect low resolution overlap vectors to form training low resolution coefficient blocks;
A high resolution coefficient block calculator for training high resolution coefficient blocks from training IR image high frequency maps;
A low-resolution sparse dictionary portion forming a raw low-resolution sparse dictionary in the training low-resolution coefficient block; And
Raw low resolution sparse dictionaries and training Infrared imaging ultra resolution devices for non-specimen contour transforms containing high resolution sparse dictionary parts forming a raw high resolution sparse dictionary from high resolution coefficient blocks.
청구항 11항에 있어서,
상기 보간부는 훈련 LR IR 이미지들을 입력받아 바이큐빅 보간법을 사용하여 확대하여 확대된 훈련 LR IR 이미지들을 생성하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치.
12. The method of claim 11,
The interpolator receives the training LR IR images and generates enlarged training LR IR images using the bicubic interpolation method.
청구항 11항에 있어서,
상기 블록 분할부가 블록 분할을 수행하기 이전에 훈련 특징 벡터 저주파 맵의 세부 정보를 추출하는 가우시안 차 필터를 더 포함하는 비부표본 윤곽선 변환의 적외선 영상 초고해상도 장치.
12. The method of claim 11,
Further comprising a Gaussian difference filter for extracting details of the training feature vector low frequency map before the block segmentation unit performs block segmentation.
삭제delete 삭제delete
KR1020160160159A 2016-11-29 2016-11-29 Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution KR101829287B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160160159A KR101829287B1 (en) 2016-11-29 2016-11-29 Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160160159A KR101829287B1 (en) 2016-11-29 2016-11-29 Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution

Publications (1)

Publication Number Publication Date
KR101829287B1 true KR101829287B1 (en) 2018-02-14

Family

ID=61229541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160160159A KR101829287B1 (en) 2016-11-29 2016-11-29 Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution

Country Status (1)

Country Link
KR (1) KR101829287B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815889A (en) * 2019-01-21 2019-05-28 南京邮电大学 A kind of across resolution ratio face identification method based on character representation collection
CN109903301A (en) * 2019-01-28 2019-06-18 杭州电子科技大学 A kind of image outline detection method based on multi-stage characteristics channel Optimized Coding Based
KR20190110320A (en) * 2018-03-20 2019-09-30 영남대학교 산학협력단 Method for restoration of image, apparatus and system for executing the method
CN110874581A (en) * 2019-11-18 2020-03-10 长春理工大学 Image fusion method for bioreactor of cell factory
KR20200026549A (en) * 2018-09-03 2020-03-11 인천대학교 산학협력단 Apparatus and Method for Restoring Super Resolution Image for Edge Computing

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jian Zhang ET AL., Circuits and Systems (ISCAS), 2012 IEEE International Symposium on, 20-23 May 2012*
Kangli Li et al., Advanced Information Technology and Sensor Application (AITS), 2015 4th International Conference on, 21-23 Aug. 2015*

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190110320A (en) * 2018-03-20 2019-09-30 영남대학교 산학협력단 Method for restoration of image, apparatus and system for executing the method
KR102064486B1 (en) 2018-03-20 2020-03-02 영남대학교 산학협력단 Method for restoration of image, apparatus and system for executing the method
KR20200026549A (en) * 2018-09-03 2020-03-11 인천대학교 산학협력단 Apparatus and Method for Restoring Super Resolution Image for Edge Computing
KR102119132B1 (en) 2018-09-03 2020-06-05 인천대학교 산학협력단 Apparatus and Method for Restoring Super Resolution Image for Edge Computing
CN109815889A (en) * 2019-01-21 2019-05-28 南京邮电大学 A kind of across resolution ratio face identification method based on character representation collection
CN109815889B (en) * 2019-01-21 2022-08-30 南京邮电大学 Cross-resolution face recognition method based on feature representation set
CN109903301A (en) * 2019-01-28 2019-06-18 杭州电子科技大学 A kind of image outline detection method based on multi-stage characteristics channel Optimized Coding Based
CN109903301B (en) * 2019-01-28 2021-04-13 杭州电子科技大学 Image contour detection method based on multistage characteristic channel optimization coding
CN110874581A (en) * 2019-11-18 2020-03-10 长春理工大学 Image fusion method for bioreactor of cell factory
CN110874581B (en) * 2019-11-18 2023-08-01 长春理工大学 Image fusion method for bioreactor of cell factory

Similar Documents

Publication Publication Date Title
Zhang et al. Image super-resolution based on structure-modulated sparse representation
KR101829287B1 (en) Nonsubsampled Contourlet Transform Based Infrared Image Super-Resolution
Yang et al. Remote sensing image super-resolution: Challenges and approaches
CN107067380B (en) High-resolution image reconstruction method based on low-rank tensor and hierarchical dictionary learning
Makwana et al. Single image super-resolution via iterative back projection based Canny edge detection and a Gabor filter prior
Deshpande et al. SURVEY OF SUPER RESOLUTION TECHNIQUES.
Pandey et al. Classification of priors and regularization techniques appurtenant to single image super-resolution
Zhang et al. Remote sensing images super-resolution based on sparse dictionaries and residual dictionaries
Karimi et al. A survey on super-resolution methods for image reconstruction
Huangpeng et al. Super-resolving blurry multiframe images through multiframe blind deblurring using ADMM
Zhang et al. Video superresolution reconstruction using iterative back projection with critical‐point filters based image matching
Lakshman et al. Image interpolation using shearlet based sparsity priors
Wu et al. Wavelet domain multidictionary learning for single image super-resolution
Singh et al. An efficient and robust multi-frame image super-resolution reconstruction using orthogonal Fourier-Mellin moments
Rostami et al. Image Super-Resolution Based on Sparsity Prior via Smoothed $ l_0 $ Norm
Huang et al. A non-local enhanced network for image restoration
Yousef et al. Mathematical model development of super-resolution image Wiener restoration
Jeevan et al. An algorithm for wavelet thresholding based image denoising by representing images in hexagonal lattice
Yoo et al. Bayesian approach for automatic joint parameter estimation in 3D image reconstruction from multi-focus microscope
Deepak et al. Analysis of Single Image Super-Resolution Techniques: An Evolutionary Study
Güngör et al. A transform learning based deconvolution technique with super-resolution and microscanning applications
Nath et al. Single image super resolution from compressive samples using two level sparsity based reconstruction
Ponomaryov et al. Image resolution enhancement using edge extraction and sparse representation in wavelet domain for real-time application
Shah et al. A technique to preserve edge information in single image super resolution
Riedinger et al. A study of some super resolution techniques in video sequence

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant