KR20230077854A - Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image - Google Patents

Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image Download PDF

Info

Publication number
KR20230077854A
KR20230077854A KR1020210165021A KR20210165021A KR20230077854A KR 20230077854 A KR20230077854 A KR 20230077854A KR 1020210165021 A KR1020210165021 A KR 1020210165021A KR 20210165021 A KR20210165021 A KR 20210165021A KR 20230077854 A KR20230077854 A KR 20230077854A
Authority
KR
South Korea
Prior art keywords
gamma correction
correction coefficient
image
gamma
optimal
Prior art date
Application number
KR1020210165021A
Other languages
Korean (ko)
Inventor
조유빈
김유진
최대순
조영중
Original Assignee
주식회사 시티랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 시티랩스 filed Critical 주식회사 시티랩스
Priority to KR1020210165021A priority Critical patent/KR20230077854A/en
Publication of KR20230077854A publication Critical patent/KR20230077854A/en

Links

Images

Classifications

    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/007Dynamic range modification
    • G06T5/009Global, i.e. based on properties of the image as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 단일영상을 이용한 특징 강화 가중치 기반의 다중노출융합기법에 관한 것으로, 하나의 이미지를 다중영역으로 분할하고, 각 분할된 영역에서 정보량이 최대가 되는 이미지의 각 감마보정계수를 적용하여 제공된 단일 이미지 전체 영역에 적용하여 감마보정을 실시함으로써 복수 개의 다중 노출 영상으로 생성하고, 다중노출 융합을 위한 딥러닝의 가중치를 정보량에 따라 가변적으로 적용하여 향상된 이미지를 얻는 특징강화 가중치를 적용하는 방법, 장치, 및 프로그램에 관한 것이다. 본 발명을 통해 기존의 방법보다 학습효율이 우수하고, 더욱 향상된 영상화질 개선 효과를 얻을 수 있다.The present invention relates to a multi-exposure convergence technique based on feature enhancement weights using a single image, which divides one image into multiple regions and applies each gamma correction coefficient of the image in which the amount of information is maximized in each divided region. A method of applying feature enhancement weights that generate multiple multiple exposure images by applying gamma correction to the entire area of a single image and variably applying deep learning weights for multiple exposure convergence according to the amount of information to obtain an improved image; It relates to devices and programs. Through the present invention, the learning efficiency is superior to that of the existing methods, and a more improved image quality improvement effect can be obtained.

Description

단일 이미지를 이용한 특징 강화 가중치 기반의 딥러닝 다중 노출 융합 방법, 장치, 및 프로그램{Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image}Deep learning multiple exposure fusion method, device, and program based on feature boosting weights using single image

본 발명은 다중-노출 영상 융합 방법 및 장치에 관한 것으로, 보다 상세하게는 하나의 이미지를 이용하여 다중-노출 융합 이미지를 생성하기 위하여 입력되는 다중-노출 이미지를 생성하고, 생성된 다중-노출 이미지의 정보량에 따라 특징 강화 가중치를 생성 및 적용하는 딥러닝 다중노출융합기법에 관한 것이다.The present invention relates to a multi-exposure image fusion method and apparatus, and more particularly, to generate a multi-exposure image input to generate a multi-exposure fusion image using one image, and to generate the multi-exposure image. It is about a deep learning multiple exposure convergence technique that generates and applies feature enhancement weights according to the amount of information in .

최근 디지털 영상 장비의 발전으로 인하여 과거보다 더 높은 해상도의 영상과 이미지를 획득할 수 있게 되었다. 그러나 이러한 장비들 역시 여전히 센서 감도와 픽셀의 동작범위는 인간의 시각 범위보다 좁기 때문에 실제 이미지를 그대로 표현하지 못한다는 문제점이 있었다. Recently, due to the development of digital imaging equipment, it is possible to acquire images and images of higher resolution than in the past. However, these devices still had a problem in that they could not express actual images as they were because the sensor sensitivity and pixel operating range were narrower than the human visual range.

이러한 문제점을 해결하기 위하여 종래에는, 다중노출 융합 기술이 제안되었다. 다중노출 융합(Multi-Exposure Fusion) 기술은 노출값이 다른 여러 이미지들로부터 필요한 정보를 추출하고 이를 융합함으로써 보다 양질의 이미지를 생성하는 기술로, 각 이미지에서 화소별 대응되는 대조(contrast), 색조(saturation), 노출정도(well-exposedness)를 연산하여 각 픽셀 값에 가중치 맵(weight map)을 적용함으로서 융합 이미지를 생성하게 된다. 하지만 다중노출 융합기술을 적용하기 위해서는 물리적으로 동일한 위치에서 획득한 여러 장의 이미지가 확보되어야 하고, 이를 위하여 동일시점에서 다중노출 이미지를 확보하기 위한 고비용의 물리적인 장치를 필요로 한다는 문제점이 있다. In order to solve this problem, a multi-exposure fusion technique has been conventionally proposed. Multi-Exposure Fusion technology is a technology that extracts necessary information from multiple images with different exposure values and fuses them to create a higher quality image. Saturation and well-exposedness are calculated and a weight map is applied to each pixel value to create a fusion image. However, in order to apply the multi-exposure convergence technology, several images obtained from physically the same location must be secured, and for this purpose, there is a problem in that an expensive physical device for securing multiple-exposure images at the same time point is required.

또한 다중노출 융합 기술은 대조와 색조 및 노출정보 각각에 대해서 가중치를 임의로 설정하여야 하고, 이와 같이 임의로 설정된 가중치가 최종 융합 이미지의 품질에 직접적으로 영향을 미치게 되어 양질의 이미지를 얻지 못하게 되거나 일관된 정도의 향상도를 얻지 못하게 되는 원인으로 작용한다. 뿐만 아니라 여러 장의 이미지를 융합처리하는 과정에서 평균 필터 효과로 인한 블러링이 발생하게 되므로 이를 보정하기 위한 라플라시안(Laplacian) 필터를 부가적으로 요구하는 경우가 발생하는 문제점이 있다. In addition, the multi-exposure convergence technology requires arbitrarily setting weights for each of contrast, color tone, and exposure information, and such arbitrarily set weights directly affect the quality of the final convergence image, making it impossible to obtain a high-quality image or inconsistent quality. It acts as a cause of not getting improvement. In addition, since blurring due to the average filter effect occurs in the process of fusion processing of multiple images, there is a problem in that a Laplacian filter for correcting this is additionally required.

한편, 임의로 가중치를 설정하는 문제를 해결하기 위하여 딥러닝을 기반의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)이 제안되었다. FFAM 기법은 이미지 영상 질을 향상시키기 위해 encoder 영역에서 입력 이미지의 특징을 오토인코더(auto-encoder)에서 추출하고, 이 추출결과를 융합레이어(fusion layer, 또는 bottleneck layer)에서 융합(fuse)한 후 이를 디코더(decoder) 영역에서 복원(restore)시키는 방식을 사용한다. 그러나 이 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)은 융합 레이어에서 입력된 이미지의 수만큼 구성되는 encoder에 대해서 이미지마다 균일한 가중치를 적용한 후 그 결과를 단순 합성하여 decoder로 전달하기 때문에, 수렴속도가 떨어지고, 입력된 다중노출 이미지별 특성을 융합 레이어에서 효과적으로 반영하지 못하는 문제점이 있다.Meanwhile, in order to solve the problem of arbitrarily setting weights, a feature fusion auto-encoder model (FFAM) based on deep learning has been proposed. The FFAM technique extracts the features of an input image from an auto-encoder in the encoder region to improve image quality, and fuses the extraction result in a fusion layer (or bottleneck layer). A method of restoring this in the decoder area is used. However, this feature fusion auto-encoder model (FFAM) applies uniform weights to each image for encoders composed of as many images as input in the fusion layer, and then simply synthesizes the result and passes it to the decoder. Therefore, there is a problem in that the convergence speed is low and the characteristics of each input multi-exposure image cannot be effectively reflected in the fusion layer.

또한, 다수의 이미지 확보 문제를 해결하기 위하여 단일 이미지로부터 다중노출융합 이미지 효과를 얻을 수 있는 기술로서 노출시간의 차이를 갖는 두 HDR 영상을 융합하는 기술이 제안되었다. 이 기술은 휘도변환함수로 단광용 노광변환함수와 장노광용 변환함수를 설정하고, 설정된 휘도변환함수를 이용하여 융합에 이용되는 이미지의 화소별 가중치를 0과 1사이의 값으로 변환한 후, 그 결과를 가중치 정규화 과정과 가우스 함수기반 가중치 혼합 과정 및 가중평균 휘도융합과정을 통해 최종 다중노출융합 이미지를 생성한다. 그러나 이 연구는 다중노출에 이용되는 이미지를 생성함에 있어서 단광용 노광변환함수와 장노광용 변환함수를 각각 선형함수로 확정하여 설정 및 적용함으로서 일률적인 다중 노출 이미지를 생성하게 된다는 문제점이 있다.In addition, a technique of fusing two HDR images having a difference in exposure time has been proposed as a technique for obtaining a multi-exposure fusion image effect from a single image in order to solve the problem of securing multiple images. This technology sets the short exposure conversion function and the long exposure conversion function as the luminance conversion function, uses the set luminance conversion function to convert the weight of each pixel of the image used for convergence to a value between 0 and 1, and then The final multi-exposure fusion image is generated through a weight normalization process, a weight mixing process based on a Gaussian function, and a weighted average luminance fusion process. However, this study has a problem in that uniform multi-exposure images are generated by determining, setting, and applying each of the short-exposure conversion function and the long-exposure conversion function as linear functions in generating images used for multiple exposures.

T. Mertens, J. Kautz, and F. V. Reeth, “Exposure Fusion,” Proceedings of 15th Pacific Conference on Computer Graphics and Applications, IEEE Computer Graphics and Applications, pp. 382-390, 2007T. Mertens, J. Kautz, and F. V. Reeth, “Exposure Fusion,” Proceedings of 15th Pacific Conference on Computer Graphics and Applications, IEEE Computer Graphics and Applications, pp. 382-390, 2007 J.-H. Ryu, J.-W. Kim, J.-O. Kim, "Texture-enhanced multi-exposure fusion using texture decomposition and cascaded convolutional autoencoder," Proc. of ITC-CSCC 2019, Jeju, Korea, June. 2019.J. -H. Ryu, J.-W. Kim, J.-O. Kim, "Texture-enhanced multi-exposure fusion using texture decomposition and cascaded convolutional autoencoder," Proc. of ITC-CSCC 2019, Jeju, Korea, June. 2019. in Heon Kim, “An Image Merging Method for Two High Dynamic Range Images of Different Exposure,” Journal of Korea Multimedia Society Vol. 13, No. 4, pp. 526-534, 2010in Heon Kim, “An Image Merging Method for Two High Dynamic Range Images of Different Exposure,” Journal of Korea Multimedia Society Vol. 13, no. 4, p. 526-534, 2010

본 발명은 상기와 같은 기존 기술의 문제점을 해결하기 위한 것으로, 단일 이미지로부터 각 영역별 정보량이 최대인 양질의 이미지를 생성 및 적용할 수 있도록 이미지 정보량 기반 다중노출 이미지를 생성하고, 각 이미지가 포함하는 정보량에 따라 특징강화 가중치를 생성 및 적용하여 이미지를 보다 효과적으로 융합하는 방법을 제공하는 것을 목적으로 한다.The present invention is to solve the problems of the existing technology as described above, and to generate and apply a high-quality image with the maximum amount of information for each area from a single image, to create a multiple exposure image based on the amount of image information, and each image includes The purpose of this study is to provide a method for converging images more effectively by generating and applying feature enhancement weights according to the amount of information.

또한 본 발명은 상기와 같은 문제점을 해결하기 위하여, 단일 이미지로부터 각 영역별 정보량이 최대인 양질의 이미지를 생성 및 적용할 수 있도록 이미지 정보량 기반 다중노출 이미지를 생성하고, 각 이미지가 포함하는 정보량에 따라 특징강화 가중치를 생성 및 적용하여 이미지를 보다 효과적으로 융합하는 장치를 제공하는 것을 목적으로 한다.In addition, in order to solve the above problems, the present invention generates multiple exposure images based on the amount of image information so that a high-quality image with the maximum amount of information for each area can be generated and applied from a single image, and It is an object of the present invention to provide an apparatus for more effectively converging images by generating and applying feature enhancement weights according to the present invention.

위와 같은 과제를 달성하기 위하여 본 발명에서는, 제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역 형성단계, 상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득단계, 상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출단계, 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성 단계, 및 상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합 단계를 포함하는 단일 이미지로부터의 다중 노출 이미지 융합 방법을 제공한다. In order to achieve the above object, the present invention divides a single image into a plurality of regions to form a plurality of divided regions, and obtains an optimal gamma correction coefficient for each of the plurality of divided regions. An acquisition step, a gamma-corrected image derivation step of deriving a plurality of gamma-corrected images by applying the optimal gamma-correction coefficient to the entire area of the provided single image, and a feature enhancement generating a feature-enhancement weight ratio corresponding to the plurality of gamma-corrected images. A multi-exposure image fusing method from a single image is provided, comprising: generating a weight ratio; and fusing the plurality of gamma-corrected images by applying the feature enhancement weights to the plurality of gamma-corrected images.

본 발명의 일 실시예에 따르면, 상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 단계는 각 영역별로 도출된 감마보정계수 중 차이 값이 0.1 이상 1.0 미만의 범위에서 설정된 임계값 이하인 경우 두 감마보정계수 중 어느 하나를 제거하는 분할 영역 필터링 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the obtaining of the optimal gamma correction coefficient for each of the plurality of divided regions may include two gamma correction coefficients when a difference value among the gamma correction coefficients derived for each region is less than or equal to a set threshold in the range of 0.1 or more and less than 1.0. A segmentation region filtering step of removing any one of the correction coefficients may be further included.

본 발명의 일 실시예에 따르면, 상기 복수개의 분할 영역은 각 영역이 중첩하여 형성될 수 있다.According to one embodiment of the present invention, the plurality of divided regions may be formed by overlapping each region.

본 발명의 일 실시예에 따르면, 상기 복수개의 분할 영역은 상기 제공된 단일 이미지 전체 크기의 30% ~ 75% 범위 내의 크기로 형성될 수 있다. According to one embodiment of the present invention, the plurality of divided areas may be formed in a size within a range of 30% to 75% of the total size of the provided single image.

본 발명의 일 실시예에 따르면, 상기 최적감마보정계수 획득 단계는 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출할 수 있다.According to an embodiment of the present invention, in the obtaining of the optimal gamma correction coefficient, a gamma correction coefficient obtained when the amount of information of the corrected image derived for each of the divided regions is maximum may be derived as the optimal gamma correction coefficient.

본 발명의 일 실시예에 따르면, 상기 최적감마보정계수 획득 단계는, 감마보정계수의 탐색 범위를 설정하는 단계, 임의의 감마보정계수를 설정하는 단계, 상기 임의의 감마보정계수에 대한 증분을 설정하는 증분 설정 단계, 상기 임의의 감마보정계수를 적용하여 상기 각각의 분할된 영역에 대한 감마보정을 실시하여 보정이미지를 도출하는 분할영역 감마보정 단계, 및 상기 임의의 감마보정계수에 상기 증분을 적용하여 감마보정계수를 변경시키는 감마보정계수 변경 단계를 포함하고, 상기 감마보정계수의 탐색 범위 내에서 상기 분할영역 감마보정 단계 및 상기 감마보정계수 변경 단계를 반복하여 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출할 수 있다.According to an embodiment of the present invention, the obtaining of the optimal gamma correction coefficient may include setting a search range of the gamma correction coefficient, setting an arbitrary gamma correction coefficient, and setting an increment for the arbitrary gamma correction coefficient. a divisional area gamma correction step of deriving a corrected image by performing gamma correction on each of the divided areas by applying the arbitrary gamma correction coefficient, and applying the increment to the arbitrary gamma correction coefficient. and a gamma correction coefficient changing step of changing the gamma correction coefficient by performing a gamma correction coefficient change, wherein the divided region gamma correction step and the gamma correction coefficient changing step are repeated within a search range of the gamma correction coefficient to obtain corrections for each divided region. A gamma correction coefficient when the amount of information of an image is maximum can be derived as the optimal gamma correction coefficient.

본 발명의 일 실시예에 따르면, 상기 특징강화 가중치 비율 생성 단계는 상기 복수의 감마보정 이미지에 대응하는 유채도 가중치를 산출하는 단계, 상기 복수의 감마보정 이미지에 대응하는 질감 가중치를 산출하는 단계, 상기 복수의 감마보정 이미지에 대응하는 상기 유채도 가중치 및 상기 질감 가중치를 합산하여 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치를 산출하는 단계, 및 상기 복수의 감마보정 이미지에 대응하는 상기 특징강화 가중치의 비율을 생성하여 상기 특징강화 가중치 비율을 생성하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the feature enhancement weight ratio generating step may include: calculating chromaticity weights corresponding to the plurality of gamma-corrected images; calculating texture weights corresponding to the plurality of gamma-corrected images; Calculating feature enhancement weights corresponding to the plurality of gamma-corrected images by summing the chromaticity weights and the texture weights corresponding to the plurality of gamma-corrected images, and the feature enhancement corresponding to the plurality of gamma-corrected images. The method may further include generating a feature enhancement weight ratio by generating a weight ratio.

본 발명의 일 실시예에 따른 단일 이미지로부터의 다중 노출 이미지 융합 장치는, 제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역형성부, 상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득부, 상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출부, 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성부, 및 상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합부를 포함한다.An apparatus for fusing multiple exposure images from a single image according to an embodiment of the present invention includes: a division region forming unit for forming a plurality of division regions by dividing a provided single image into a plurality of regions; and performing optimal gamma correction for each of the plurality of division regions. An optimal gamma correction coefficient acquisition unit for acquiring a coefficient, a gamma correction image derivation unit for deriving a plurality of gamma correction images by applying the optimal gamma correction coefficient to the entire area of the provided single image, and features corresponding to the plurality of gamma correction images. A feature enhancement weight ratio generating unit generating an enhancement weight ratio, and an image fusion unit fusing the plurality of gamma-corrected images by applying the feature enhancement weights to the plurality of gamma-corrected images.

본 발명의 일 실시예에 따르면, 단일 이미지로부터의 다중 노출 이미지 융합 장치의 According to an embodiment of the present invention, a multi-exposure image fusing device from a single image

최적감마보정계수 획득부는 각 영역별로 도출된 감마보정계수 중 차이 값이 0.1 이상 1.0 미만의 범위에서 설정된 임계값 이하인 경우 두 감마보정계수 중 어느 하나를 제거하는 분할 영역 필터링부를 더 포함할 수 있다.The optimal gamma correction coefficient obtaining unit may further include a segmented region filtering unit that removes one of the two gamma correction coefficients when a difference value among the gamma correction coefficients derived for each region is less than or equal to a set threshold value within a range of 0.1 or more and less than 1.0.

본 발명의 일 실시예에 따르면, 단일 이미지로부터의 다중 노출 이미지 융합 장치의 최적감마보정계수 획득부는 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출할 수 있다.According to an embodiment of the present invention, the optimal gamma correction coefficient acquisition unit of the multi-exposure image fusing device from a single image calculates the optimal gamma correction coefficient when the amount of information of the corrected image derived for each divided area is maximum. can be derived as a coefficient.

본 발명의 일 실시예에 따르면, 단일 이미지로부터의 다중 노출 이미지 융합 장치의 최적감마보정계수 획득부는, 감마보정계수의 탐색 범위를 설정하는 탐색범위 설정부, 임의의 감마보정계수를 설정하는 감마보정계수 설정부, 상기 임의의 감마보정계수에 대한 증분을 설정하는 증분 설정부, 상기 임의의 감마보정계수를 적용하여 상기 각각의 분할된 영역에 대한 감마보정을 실시하여 보정이미지를 도출하는 분할영역 감마보정부, 및 상기 임의의 감마보정계수에 상기 증분을 적용하여 감마보정계수를 변경시키는 감마보정계수 변경부를 포함하고, 상기 감마보정계수의 탐색 범위 내에서 상기 분할영역 감마보정 단계 및 상기 감마보정계수 변경을 반복하여 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출할 수 있다.According to an embodiment of the present invention, an optimal gamma correction coefficient acquisition unit of a multiple exposure image fusion device from a single image, a search range setting unit for setting a search range of a gamma correction coefficient, and a gamma correction coefficient for setting an arbitrary gamma correction coefficient A coefficient setting unit, an increment setting unit for setting an increment for the arbitrary gamma correction coefficient, and gamma correction for each of the divided regions by applying the arbitrary gamma correction coefficient to derive a corrected image. a correction unit and a gamma correction coefficient changing unit for changing the gamma correction coefficient by applying the increment to the arbitrary gamma correction coefficient, wherein the partition gamma correction step and the gamma correction coefficient within a search range of the gamma correction coefficient By repeating the change, a gamma correction coefficient when the amount of information of the corrected image derived for each divided area is maximum can be derived as the optimal gamma correction coefficient.

본 발명의 일 실시예에 따르면, 단일 이미지로부터의 다중 노출 이미지 융합 장치의 특징강화 가중치 비율 생성부는 상기 복수의 감마보정 이미지에 대응하는 유채도 가중치를 산출하는 유채도 가중치 산출부, 상기 복수의 감마보정 이미지에 대응하는 질감 가중치를 산출하는 질감 가중치 산출부, 및 상기 복수의 감마보정 이미지에 대응하는 상기 유채도 가중치 및 상기 질감 가중치를 합산하여 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치를 산출하는 특징강화 가중치 산출부를 더 포함하고, 상기 복수의 감마보정 이미지에 대응하는 상기 특징강화 가중치의 비율을 생성하는 것을 특징으로 한다. According to an embodiment of the present invention, a feature enhancement weight ratio generator of a multi-exposure image fusion device from a single image includes a chromaticity weight calculator that calculates chromaticity weights corresponding to the plurality of gamma-corrected images, and the plurality of gamma-corrected images. A texture weight calculation unit that calculates texture weights corresponding to corrected images, and feature enhancement weights corresponding to the plurality of gamma-corrected images are calculated by summing the chromaticity weights and the texture weights corresponding to the plurality of gamma-corrected images. and a feature enhancement weight calculator that generates a ratio of the feature enhancement weights corresponding to the plurality of gamma-corrected images.

본 발명의 일 실시예에 따르면, 제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역 형성단계. 상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득단계, 상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출단계, 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성 단계, 및 상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합 단계를 실행시기 위하여 기록 매체에 저장된 단일 이미지로부터의 다중 노출 이미지 융합 프로그램을 제공한다.According to one embodiment of the present invention, a division region forming step of forming a plurality of division regions by dividing a provided single image into a plurality of regions. An optimal gamma correction coefficient obtaining step of obtaining an optimal gamma correction coefficient for each of the plurality of divided regions; a gamma correction image derivation step of deriving a plurality of gamma corrected images by applying the optimal gamma correction coefficient to the entire region of the single image provided; a feature enhancement weight ratio generating step of generating a feature enhancement weight ratio corresponding to a plurality of gamma-corrected images; and an image fusion step of fusing the plurality of gamma-corrected images by applying the feature enhancement weights to the plurality of gamma-corrected images. A multiple exposure image fusion program from a single image stored on a recording medium is provided for execution.

본 발명에 의하면, 단일한 이미지로부터 다중노출 이미지를 생성할 수 있어 동일시점에서 다중노출 이미지를 확보하기 위한 고비용의 물리적인 장치가 필요 없게 된다. 또한 다중노출 이미지를 단순 합성하는 것이 아니라 각 이미지마다 특징강화 가중치(Feature boosting Weight)를 적용하여 합성함으로써 보다 정밀한 양질의 이미지를 획득할 수 있다. According to the present invention, a multi-exposure image can be generated from a single image, and thus an expensive physical device for securing multiple-exposure images at the same time point is not required. In addition, a more precise high-quality image can be obtained by synthesizing multiple exposure images by applying a feature boosting weight to each image rather than simply synthesizing them.

도 1은 본 발명의 일 실시예에 따른 단일 이미지로부터 다중노출 이미지를 획득하는 방법에 대한 흐름도이다.
도 2는 제공된 이미지 전체의 25% 크기로 각 분할 영역을 설정한 경우의 예시도이다.
도 3은 제공된 이미지 전체의 40%의 크기로 각 분할 영역을 설정한 경우의 예시도이다.
도 4는 단위 감마보정계수 변화에 따른 정보량의 변화와 최적 감마보정계수 적용결과에 따른 보정이미지를 보여주는 예시도이다.
도 5는 2개의 이미지가 입력된 종래의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)의 기본 구조의 예시도이다.
도 6은 본 발명에 따른 다중 노출융합 이미지를 생성을 위한 딥러닝 모델의 일실시예를 도시한다.
도 7은 본 발명의 일실시예에 따른, 질감과 유채도 정보에 기초하여 특징강화 가중치를 산출하는 다이어그램을 도시한다.
도 8은 질감가중치 산출을 위한 과정을 도시한다.
도 9는 본 발명의 일실시예에 따른 유채도 가중치 산출 과정의 예시이다.
1 is a flowchart of a method of obtaining a multiple exposure image from a single image according to an embodiment of the present invention.
2 is an exemplary view of a case where each divided area is set to a size of 25% of the entire provided image.
3 is an exemplary view of a case in which each divided area is set to a size of 40% of the entire provided image.
4 is an exemplary view showing a correction image according to a change in information amount according to a change in a unit gamma correction coefficient and a result of applying an optimal gamma correction coefficient.
5 is an exemplary diagram of the basic structure of a conventional feature fusion auto-encoder model (FFAM) in which two images are input.
6 shows an embodiment of a deep learning model for generating a multi-exposure fusion image according to the present invention.
7 illustrates a diagram for calculating feature enhancement weights based on texture and chromaticity information according to an embodiment of the present invention.
8 shows a process for calculating texture weights.
9 is an example of a process of calculating chromaticity weights according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the examples.

본 발명의 일 실시예에서는, 단일 이미지를 다수의 영역으로 나누고, 각 나누어진 영역 별로 정보량이 최대일 때의 감마보정계수를 결정하고 이를 이용하여 다중노출 이미지를 생성하고, 각 영역별 이미지가 포함하고 있는 정보량을 기초로 하여 딥러닝을 통하여 특징강화 가중치를 생성, 적용하여 양질의 노출융합이미지를 생성하는 방법 및 장치를 제공한다. In one embodiment of the present invention, a single image is divided into a plurality of regions, a gamma correction coefficient is determined for each divided region when the amount of information is maximum, and a multi-exposure image is generated using the gamma correction coefficient, and the image for each region is included. Provides a method and apparatus for generating a high-quality exposure fusion image by generating and applying feature enhancement weights through deep learning based on the amount of information being processed.

도 1에는 본 발명에 따라 단일 이미지로부터 다수의 다중노출 이미지를 생성하는 흐름도가 개시되어 있다. Figure 1 discloses a flow chart for generating multiple multiple exposure images from a single image in accordance with the present invention.

도 1을 참조하면, 본 발명에 따른 단일 이미지로부터의 다중노출 이미지 생성방법은, 단일 이미지를 다수의 영역을 분할하고, 각 분할된 영역별로 감마보정계수 초기값을 설정하여 감마 보정을 실시하고, 그레디언트의 산출을 통하여 각 영역의 정보량을 산출하는 것을 반복하여 각 영역에서 정보량이 최대가 되는 때의 감마보정계수를 획득하게 된다. 여기서 각 영역별로 최대 정보량이 얻어지는 시점의 감마보정계수를 ‘최적감마보정계수’라고 정의한다. 여기서 최적감마보정계수는 각 영역별로 최대 정보량을 얻게 되는 시점을 기준으로 정해지므로, 감마보정계수는 단일 이미지를 분할한 영역의 수와 동일한 수로 얻어지게 된다. Referring to FIG. 1, a method for generating a multiple exposure image from a single image according to the present invention divides a single image into multiple regions, sets an initial value of a gamma correction coefficient for each divided region, and performs gamma correction, By repeating the calculation of the amount of information in each area through the calculation of the gradient, a gamma correction coefficient is obtained when the amount of information in each area is maximized. Here, the gamma correction coefficient at the time when the maximum amount of information is obtained for each area is defined as an 'optimal gamma correction coefficient'. Here, since the optimal gamma correction coefficient is determined based on the point in time when the maximum amount of information is obtained for each region, the same number of gamma correction coefficients as the number of regions obtained by dividing a single image is obtained.

영역별 정보량을 산출하기 위하여 이용되는 지표가 비단 그레디언트만 적용되는 것은 아니며, 이미지의 특징 및 품질을 결정하는 코너 포인트, 유채도, 엣지포인트 등 다양한 지표가 적용될 수 있다. Indices used to calculate the amount of information for each area are not only gradients applied, but various indices such as corner points, chromaticity, and edge points that determine the characteristics and quality of an image can be applied.

각 분할된 영역에 대응되는 감마보정계수의 최적값이 얻어지면, 각 최적감마보정계수 중 같거나 근접범위 내에 있는 보정이미지를 제거하는 분할영역 필터링 과정을 거친 후, 단일 이미지의 전체 영역에 각각의 감마보정계수를 적용하여 감마보정된 복수의 다중노출 이미지를 생성하게 된다. When the optimal value of the gamma correction coefficient corresponding to each segmented area is obtained, after the segmentation filtering process of removing the corrected image having the same or within the closest range among each optimal gamma correction factor, each area of a single image is A plurality of multi-exposure images gamma-corrected are generated by applying a gamma correction coefficient.

여기서 단일 이미지의 영역 분할은 주어진 하나의 이미지를 기준으로 임의의 영역으로 1개 이상으로 분할하는 방법을 활용할 수 있다. 만약 단일 이미지를 복수개의 영역으로 분할하는 경우, 각 영역의 크기(가로 x 세로)의 크기는 동일하게 설정할 수 있다. 분할된 영역의 크기가 전체 이미지의 크기에 비하여 작은 경우 분할영역이 주변 영역 전반에 심각한 왜곡을 유발할 수 있으므로 분할 영역의 크기는 최소한 전체 이미지 크기의 30% ~ 75%의 범위 내에서 분할 영역이 인접 영역간 중첩될 수 있도록 설정하는 것이 바람직하다. Here, a method of dividing an area of a single image into one or more arbitrary areas based on a given image may be used. If a single image is divided into a plurality of areas, the size (width x height) of each area may be set to be the same. If the size of the segmented area is small compared to the size of the entire image, the size of the segmented area should be at least within the range of 30% to 75% of the entire image size, as the segmented area may cause serious distortion in the entire surrounding area. It is desirable to set them so that they overlap between regions.

한편, 도 2는 제공된 이미지 전체의 25% 크기로 각 분할 영역을 설정한 경우의 예시도이고, 도 3은 제공된 이미지 전체의 40%크기로 각 분할 영역을 설정한 경우의 예시도이다. Meanwhile, FIG. 2 is an example of a case where each divided area is set to a size of 25% of the entire provided image, and FIG. 3 is an example of a case where each divided area is set to a size of 40% of the entire provided image.

일반적으로 이미지의 중앙에 관심객체가 존재하며, 이는 중앙에 정보량이 많음을 의미한다. 이때 분할영역의 크기를 25%로 설정할 경우, 각 영역에 중앙의 정보량이 각 분할영역으로 분산되며, 각 분할영역으로 분산된 정보량은 영역별 최적감마보정계수의 급격한 차이를 만드는 경향이 있다. 이러한 영역간 급격한 감마보정계수의 차이는 융합 이미지를 생성함에 있어서 이질적인 결과를 도출할 수 있다. In general, an object of interest exists in the center of an image, which means that there is a lot of information in the center. At this time, when the size of the partitioned area is set to 25%, the amount of information in the center of each area is distributed to each divided area, and the amount of information distributed to each divided area tends to make a sharp difference in the optimal gamma correction coefficient for each area. Such rapid differences in gamma correction coefficients between regions may lead to heterogeneous results in generating a fusion image.

이러한 영향을 최소화하기 위하여 이미지의 중앙부에 별도의 영역설정이 필요하다. 이와 같이 영역간의 급격한 감마보정계수의 차이 발생을 최소화하기 위하여 분할 영역은 서로 중첩되는 영역이 존재하도록 설정되는 것이 바람직하며, 분할영역의 크기 또한 각 영역간 중첩영역이 존재할 수 있도록 설정할 수 있다. 분할영역간 최적감마보정계수의 차는 중첩영역이 작아짐에 따라 크게 나타나므로 분할영역의 크기는 40-50%의 크기로 설정하는 것이 바람직하다.In order to minimize this effect, it is necessary to set a separate area in the center of the image. In this way, in order to minimize the occurrence of rapid gamma correction coefficient differences between regions, it is preferable that the divided regions are set to have overlapping regions, and the size of the divided regions may also be set such that overlapping regions exist between the regions. Since the difference in the optimal gamma correction coefficient between divided regions increases as the overlapping region decreases, it is preferable to set the size of the divided region to 40-50%.

영역분할 이후, 임의의 감마보정계수를 설정하고 설정된 감마보정계수를 이용하여 아래 수학식 (1)에 의하여 제공된 이미지의 감마보정을 수행할 수 있다.After region division, an arbitrary gamma correction coefficient may be set and gamma correction of the provided image may be performed using the set gamma correction coefficient according to Equation (1) below.

Figure pat00001
Figure pat00001

상기 수학식(1)에서 1을 기준으로 g값이 감소될수록 보정이미지의 밝기는 증가하며, g값이 1보다 증가할수록 보정 이미지는 어두워진다.In Equation (1), as the value of g decreases relative to 1, the brightness of the corrected image increases, and as the value of g increases from 1, the corrected image becomes darker.

본 발명에서는 각 영역별 최대 정보량이 추출될 때의 최적감마보정계수를 결정하기 위하여 최적감마보정계수를 탐색하게 되는데, 이때 최적감마보정계수 탐색 범위는 0 이상의 임의의 범위로 설정 가능하며, 탐색을 위한 증분 또한 임의 설정 가능하다. In the present invention, the optimal gamma correction coefficient is searched to determine the optimal gamma correction coefficient when the maximum amount of information is extracted for each region. Increments can also be arbitrarily set.

다만 감마보정계수의 증분의 크기를 너무 크게 설정하면, 각 분할된 영역에서의 감마보정에 따른 차이가 크게 되어 각 보정 이미지의 정보량 차이가 커져 적절한 감마보정계수를 찾기 어려워지고, 너무 적게 설정하면 정보량의 편차가 적어져 보다 최적의 감마보정계수를 찾을 수는 있으나 감마변환의 반복횟수가 늘어남에 따른 감마보정계수 도출 시간이 증가하는 문제점이 있다. 따라서 최적의 감마보정계수의 도출 및 수행 시간의 감소를 위하여는 감마보정계수의 증분의 크기를 0 초과 1.0 이하의 범위 내에서 설정할 수 있으며, 보다 바람직하게는 0.05-0.3의 범위 내에서 설정할 수 있다. However, if the size of the increment of the gamma correction coefficient is set too large, the difference due to gamma correction in each divided area becomes large, and the difference in the information amount of each corrected image increases, making it difficult to find an appropriate gamma correction coefficient. It is possible to find a more optimal gamma correction coefficient because the deviation of is reduced, but there is a problem in that the time for deriving the gamma correction coefficient increases as the number of iterations of gamma conversion increases. Therefore, in order to derive the optimal gamma correction coefficient and reduce the execution time, the size of the increment of the gamma correction coefficient can be set within the range of more than 0 and less than 1.0, more preferably within the range of 0.05-0.3. .

또한 감마보정계수의 탐색범위가 너무 넓어지게 되면 수행시간이 증가하게 되므로, 감마보정계수의 탐색범위는 바람직하게는 0.2 ~ 5.0로 설정할 수 있다. In addition, if the search range of the gamma correction coefficient is too wide, the execution time increases. Therefore, the search range of the gamma correction coefficient can be preferably set to 0.2 to 5.0.

탐색을 위한 감마변화보정계수가 설정되면 상기 수학식(1)을 통해 보정 이미지가 생성되며, 보정 이미지로부터 그레디언트를 산출할 수 있다. When a gamma change correction coefficient for search is set, a corrected image is generated through Equation (1), and a gradient can be calculated from the corrected image.

이미지 I(x,y)를 (x,y)에서의 화소의 밝기를 나타내는 함수로 보고 각 화소의 위치에서 하기 수학식(2)을 이용하여 그레디언트의 크기와 방향을 구하면 해당 픽셀이 얼마나 이미지에 포함된 객체의 경계(edge)에 근접한지, 그리고 경계(edge)의 방향이 어디인지를 쉽게 알 수 있다. If the image I(x,y) is viewed as a function representing the brightness of a pixel at (x,y), and the size and direction of the gradient are obtained using the following equation (2) at each pixel position, how much the pixel corresponds to the image It's easy to see if it's close to the edge of the contained object, and what the direction of the edge is.

Figure pat00002
Figure pat00002

상기 수학식(2)는 이미지 화소 (x,y) 위치를 기준으로 인접 화소간의 밝기 변화에 관한 것으로 음의 값이 존재하므로 절대값으로 변환하며, 절대값으로 변환된 모든 화소의 그레디언트를 누적하면 해당영역의 정보량을 산출할 수 있다. 즉, 일반적으로 그레디언트는 영상 내에 포함된 객체, 색채 등의 경계(edge) 및 경계(edge) 방향을 찾는 용도로 활용될 수 있는데, 각 이미지의 정보량은 단일의 이미지에 얼마나 많은 객체가 포함되어 있는지 및/또는 색채, 조도 등의 변화가 있는지 여부로 측정할 수 있는바, 결과적으로 이들의 변화량인 위 그레디언트의 절대값을 더한 값을 하나의 이미지가 포함하고 있는 정보량으로 해석할 수 있다. Equation (2) relates to the change in brightness between adjacent pixels based on the position of the image pixel (x, y), and since there is a negative value, it is converted to an absolute value, and when the gradients of all pixels converted to absolute values are accumulated, The amount of information in the corresponding area can be calculated. That is, in general, gradients can be used to find the edges and directions of objects, colors, etc. included in an image. The amount of information in each image is how many objects are included in a single image. And/or it can be measured by whether there is a change in color, illuminance, etc. As a result, the value obtained by adding the absolute value of the above gradient, which is the amount of change thereof, can be interpreted as the amount of information included in one image.

정보량을 산출하기 위한 방법은 비단 상기 수학식(2)만이 적용되는 것은 아니며, 라프라시안(Laplacian)이나 자코비안(Jacobian), 헤시안(Hessian) 등이 사용될 수 있다. 본 발명의 일실시예에서는 그라디언트를 활용하여 정보량을 산정하였고, 상기 수학식(2)를 이용한 영역별 정보량 산출방법은 하기 수학식(3)과 같다.Equation (2) is not the only method for calculating the amount of information, and Laplacian, Jacobian, Hessian, and the like may be used. In one embodiment of the present invention, the amount of information was calculated using a gradient, and the method for calculating the amount of information for each area using Equation (2) is as shown in Equation (3) below.

Figure pat00003
Figure pat00003

상기 수학식(3)을 이용하여 각 영역별 감마보정계수에 따른 정보량을 산출할 수 있으며, 이를 통하여 산출된 정보량 값을 비교하여 정보량이 최대일 때의 감마 보정계수를 각 최적감마보정계수로서 획득할 수 있다. 정보량이 최대일 때의 감마보정계수는 하기 수학식(4)를 이용하여 결정한다. The amount of information according to the gamma correction coefficient for each area can be calculated using Equation (3), and the calculated information amount value is compared to obtain the gamma correction coefficient when the amount of information is maximum as each optimal gamma correction coefficient. can do. The gamma correction coefficient when the amount of information is maximum is It is determined using Equation (4).

Figure pat00004
Figure pat00004

도 4는 상기 수학식(4)를 이용하여, 최적감마보정계수 탐색범위를 0.1~8.0로, 감마계수의 증분 수치를 0.1을 적용하여 최대 정보량일 때 최적감마보정계수를 결정함에 있어서, 단위 감마보정계수 변화에 따른 정보량의 변화와 정보량이 최대일 때의 최적감마보정계수가 2.0을 적용한 결과인 보정이미지를 보여주는 예시도이다.4 shows that the optimal gamma correction coefficient search range is 0.1 to 8.0 and the increment value of the gamma coefficient is 0.1, using Equation (4) to determine the optimal gamma correction coefficient when the maximum amount of information is reached. It is an exemplary view showing the change in the amount of information according to the change in the correction coefficient and the corrected image that is the result of applying the optimal gamma correction coefficient of 2.0 when the amount of information is maximum.

도 4에서와 같이 감마보정계수를 변화시키면서 그레디언트의 절대값을 합한 값을 비교하여 정보량이 최대일 때를 확인하고, 그때의 감마보정계수를 분할된 해당 영역에 대한 최적감마보정계수로 도출할 수 있다. As shown in FIG. 4, while changing the gamma correction coefficient, the sum of the absolute values of the gradients is compared to determine when the amount of information is maximum, and the gamma correction coefficient at that time can be derived as the optimal gamma correction coefficient for the divided area. there is.

한편, 상기 수학식(3)을 이용하여 분할영역 n개에 대해서 각각 대응되는 최적감마보정계수가 결정되면, 불필요한 이미지를 제거하기 위한 분할영역 필터링 과정을 수행할 수 있다. On the other hand, if the optimal gamma correction coefficients corresponding to each of the n divided regions are determined using Equation (3), a filtering process for the divided regions may be performed to remove unnecessary images.

분할영역 필터링은 각 영역별 결정된 최적감마보정계수가 같거나 근접범위 내에 위치할 경우 보정 이미지가 서로 차이가 없기 때문에 수학식 (5)를 이용하여 유사 감마보정계수를 갖는 분할영역을 제거함으로서 영역별 최대 정보량을 포함하는 양질의 다중노출 이미지만을 선별할 수 있다.Segmentation filtering removes divisions with similar gamma correction coefficients using Equation (5) because there is no difference between corrected images when the optimal gamma correction coefficients determined for each region are the same or are located within the proximity range. Only high-quality multi-exposure images containing the maximum amount of information can be selected.

Figure pat00005
Figure pat00005

상기 수학식(5)에서

Figure pat00006
는 분할영역 필터를 위한 기준 임계값으로서 0.1 ~ 1.0의 범위 내에 설정되며 기본값으로는 감마보정계수 증분값으로 설정하는 것이 바람직하다. 또한 이러한 분할영역 필터를 위한 비교는 분할영역 수가 n일 때,
Figure pat00007
의 조합 수만큼 수행되어야 한다.In Equation (5) above
Figure pat00006
is set within the range of 0.1 to 1.0 as a reference threshold for the segmentation filter, and is preferably set to a gamma correction coefficient increment value as a default value. Also, the comparison for this partition filter is when the number of partitions is n,
Figure pat00007
should be performed as many as the number of combinations of

최초 제공된 단일 이미지의 전체 영역에 대하여 분할영역의 필터링을 거쳐 유사 감마보정계수를 제거하고 남은 각각의 최적감마보정계수를 활용한 감마보정을 실시하여 다중노출 이미지를 얻을 수 있다. A multi-exposure image can be obtained by removing similar gamma correction coefficients from the entire region of the initially provided single image through segmentation filtering and performing gamma correction using each remaining optimum gamma correction coefficient.

이와 같이 단일한 이미지의 분할된 영역에서 도출된 감마보정계수를 적용하여 얻어진 다중노출 이미지로부터 본 발명에 따른 특징강화 가중치를 적용한 다중노출융합 이미지를 얻을 수 있다. Thus, a multiple-exposure fusion image to which feature enhancement weights according to the present invention are applied can be obtained from the multiple-exposure image obtained by applying the gamma correction coefficient derived from the divided regions of the single image.

본 발명에 따른 특징강화 가중치 생성 및 적용 방법은 상기와 같이 단일한 이미지의 분할된 영역에서 도출된 감마보정계수를 적용하여 얻어진 다중노출 이미지를 단순 합성하는 것이 아니라 각 이미지마다 특징강화 가중치(Feature boosting Weight)를 적용하여 합성함으로써 보다 정밀한 양질의 이미지를 획득할 수 있다.The method for generating and applying feature enhancement weights according to the present invention does not simply synthesize multi-exposure images obtained by applying gamma correction coefficients derived from divided regions of a single image as described above, but feature enhancement weights (Feature boosting weights) for each image. Weight) can be applied and synthesized to obtain a more precise, high-quality image.

기존의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)에서 입력 이미지들의 특성을 정보량으로 추출하고, 추출된 정보량을 융합 레이어(fusion layer, bottleneck layer이라고도 함)에서 각 이미지별로 대응되는 인코더(encoder)의 결과에 특징 강화 가중치를 적용시켜 각 이미지별 특징 추출된 정보량에 비례하여 학습과정에서 특징증폭효과를 얻을 수 있다. 이와 같은 특징 강화 가중치의 적용에 따른 특징증폭효과로 인하여 기존 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)을 적용한 것 보다 우수한 다중노출융합 이미지를 얻을 수 있다.In the existing feature fusion auto-encoder model (FFAM, Feature Fusion Auto-encoder Model), the characteristics of input images are extracted as information amounts, and the extracted information amounts are corresponding to each image in a fusion layer (also called a fusion layer or bottleneck layer). By applying a feature enhancement weight to the result of the encoder, a feature amplification effect can be obtained in the learning process in proportion to the amount of feature extracted information for each image. Due to the feature amplification effect according to the application of such feature enhancement weights, a superior multi-exposure fusion image can be obtained compared to the application of the existing feature fusion auto-encoder model (FFAM).

도 5는 종래의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)의 기본 구조로서 2개의 이미지가 입력된 이미지 융합 구조의 예시도이다. 5 is an exemplary view of an image fusion structure in which two images are input as a basic structure of a conventional feature fusion auto-encoder model (FFAM).

도 5에서 도시된 종래의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)의 구조를 살펴보면, 입력되는 2개의 각 이미지에 대응하는 인코더(encoder)의 결과를 단순하게 합성하여 디코더(decoder)로 전이 시키는 구조임을 확인할 수 있다. 이는 결과적으로 각 이미지에 대응하는 인코더(encoder)에 가중치가 적용되지 않는다거나, 동일하게 가중치 1을 적용하고 있다고 해석할 수 있다. 그러나 이러한 종래의 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)는 이미지의 특징을 제대로 반영하지 못하여 최적의 융합이미지를 얻을 수 없다는 단점이 있다. Looking at the structure of the conventional feature fusion auto-encoder model (FFAM) shown in FIG. 5, the decoder ( decoder). As a result, it can be interpreted that no weight is applied to an encoder corresponding to each image or that a weight of 1 is equally applied. However, such a conventional feature fusion auto-encoder model (FFAM) has a disadvantage in that an optimal fusion image cannot be obtained because it does not properly reflect the characteristics of an image.

그러나 도 6에서와 같은 본 발명의 일실시예에 따르면, 각 이미지가 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)의 인코더(encoder)를 통해 생성된 결과에 각 입력 이미지의 특징강화 가중치를 산출하여 적용하고, 그 결과를 디코더(decoder)로 전이시킴으로써 각 이미지별 특징을 가중치로 적용하여 학습과정에서 빠른 수렴이 이루어지고, 정밀한 양질의 다중노출융합 이미지를 생성할 수 있다.However, according to an embodiment of the present invention as shown in FIG. 6 , each image is a feature fusion auto-encoding model (FFAM, Feature Fusion Auto-encoder Model) generated through the encoder (encoder) of the result of each input image. By calculating and applying reinforcement weights, and transferring the results to a decoder, fast convergence is achieved in the learning process by applying the characteristics of each image as weights, and a precise high-quality multi-exposure fusion image can be generated.

본 발명의 일실시예에 따르면, 각 이미지에 대응하는 특징강화 가중치는 각 이미지가 가지고 있는 품질 혹은 특징 추출된 정보량을 이용하여 생성할 수 있다. 본 발명에 따른 특징강화 가중치 적용 다중노출융합 이미지 도출을 위하여 입력되는 이미지는 컬러 이미지일 수 있으나, 흑백 이미지의 경우에도 유채도(saturation)과 관련된 특징이 고려되지 않을 뿐 컬러 이미지와 동일하게 적용될 수 있다.According to one embodiment of the present invention, feature enhancement weights corresponding to each image can be generated using the quality of each image or the amount of feature-extracted information. An input image may be a color image to derive a feature-enhancing weighted multi-exposure fusion image according to the present invention, but even in the case of a black-and-white image, it may be applied in the same way as a color image, except that the characteristics related to saturation are not considered. there is.

본 발명의 일실시예 중, 입력되는 이미지가 컬러 이미지인 경우의 특징강화 가중치 도출 방법을 설명한다. 컬러 이미지에서 이미지의 품질 및/또는 특징을 정의할 수 있는 요소는 질감(texture), 유채도(colorfulness), 그 이외의 다양한 유형으로 설정 가능하며, 특징 혹은 품질을 정량적으로 정의할 수 있는 다양한 정보 및 그 방법 또한 본 발명의 특징강화 가중치 방법으로 적용이 가능하다.In one embodiment of the present invention, a method for deriving feature enhancement weights when an input image is a color image will be described. In color images, elements that can define the quality and/or characteristics of an image can be set to texture, colorfulness, and other various types, and various information that can quantitatively define the characteristics or quality. And the method can also be applied to the feature enhancement weight method of the present invention.

본 발명에서는 질감과 유채도에 한정하여 특징강화 가중치를 산출하는 방법을 설명하지만 질감과 유채도의 정보 유형에 따른 방법만으로 한정하지 않는다.In the present invention, the method for calculating the feature enhancement weight is limited to texture and chromaticity, but is not limited to the method according to the information type of texture and chromaticity.

질감은 이미지 내 객체의 경계 및 이미지의 대조(contrast) 정보를 포함하고, 유채도는 이미지의 채도(saturation) 정보를 포함한다. The texture includes the boundary of an object in the image and contrast information of the image, and the chromaticity includes saturation information of the image.

도 7은 본 발명의 일실시예에 따른, 질감과 유채도 정보에 기초하여 특징강화 가중치를 산출하는 다이어그램을 도시한다. 7 illustrates a diagram for calculating feature enhancement weights based on texture and chromaticity information according to an embodiment of the present invention.

도 7의 특징 강화 가중치 산출과정은 질감에 관한 가중치 산출과정과 유채도에 관한 가중치 산출과정 그리고 이들 가중치를 종합하여 특징강화 가중치를 산출하는 과정을 포함한다. 이러한 가중치 산출과정은 이미지의 특징 및 품질을 결정하는 정량화된 정보의 유형에 따라 산출과정이 증가할 수 있다. The feature enhancement weight calculation process of FIG. 7 includes a weight calculation process for texture, a weight calculation process for chromaticity, and a process for calculating feature enhancement weights by integrating these weights. The weight calculation process may increase depending on the type of quantified information that determines the characteristics and quality of an image.

본 발명의 일실시예에서는 하나의 이미지에 대하여 질감은 그레디언트로, 유채도는 각 화소를 구성하는 R(RED)/G(GREEN)/B(BLUE) 채널의 표준편차를 산출하여 각각의 가중치 맵(weight map)을 생성하고, 생성된 복수개의 가중치 맵을 합성하여 해당 이미지의 가중치 값을 산출한다. In one embodiment of the present invention, for one image, the texture is a gradient, and the chromaticity is calculated by calculating the standard deviation of the R (RED) / G (GREEN) / B (BLUE) channels constituting each pixel, and each weight map (weight map) is created, and a plurality of generated weight maps are synthesized to calculate the weight value of the corresponding image.

질감에 해당하는 가중치를 산출하는 과정은 이미지를 흑백 이미지(gray scale image)로 변환하여 질감가중치 맵을 산출하는 단계, 질감 가중치 맵으로부터 질감 가중치를 산출하는 단계를 포함할 수 있다. The process of calculating the weight corresponding to the texture may include calculating a texture weight map by converting the image into a gray scale image, and calculating texture weights from the texture weight map.

질감 가중치 맵 산출단계는 컬러 이미지를 흑백 이미지로 변환을 하고, 변환된 흑백 이미지로부터 각 화소별 그레디언트를 산출하여 생성한다. 이 때 적용되는 그레디언트는 상기 다중 노출 이미지 보정계수 탐색방법에서 상술된 바와 같이 다양한 방법이 이에 적용될 수 있으며, 본 발명의 일실시예에서는 라플라시안을 이용하여 질감 가중치 맵을 산출하였다. In the texture weight map calculation step, a color image is converted into a black-and-white image, and a gradient for each pixel is calculated and generated from the converted black-and-white image. Various methods may be applied to the gradient applied at this time, as described above in the multi-exposure image correction coefficient search method, and in one embodiment of the present invention, a texture weight map is calculated using Laplacian.

도 8은 질감가중치 산출을 위한 과정을 도시한다. 질감 가중치 산출단계는 산출된 질감 가중치 맵에 L1-norm(

Figure pat00008
)를 적용하여 질감 가중치 값을 스칼라 값으로 산출한다. 8 shows a process for calculating texture weights. The texture weight calculation step is L1-norm (
Figure pat00008
) is applied to calculate the texture weight value as a scalar value.

도 9는 본 발명의 일실시예에 따른 유채도 가중치 산출 과정을 도시한다. 본 발명의 일실시예에 따른 유채도에 해당하는 가중치를 산출하는 과정은 입력된 컬러 이미지에 대해서 유채도 가중치 맵을 구하는 단계와 유채도 가중치 맵을 이용하여 유채도 가중치 산출단계를 포함할 수 있다. 9 illustrates a process of calculating chromaticity weights according to an embodiment of the present invention. The process of calculating a weight corresponding to chromaticity according to an embodiment of the present invention may include obtaining a chromaticity weight map for an input color image and calculating chromaticity weights using the chromaticity weight map. .

유채도가중치 산출단계는 입력된 컬러이미지에 대해서 각 화소별 위치한 R(RED)/G(GREEN)/B(BLUE) 채널의 화소값의 표준편차를 유채도 가중치 맵으로 산출하고, 산출된 유채도 가중치 맵에 L1_norm을 적용하여 스칼라 값으로 산출할 수 있다. In the chromaticity weight calculation step, the standard deviation of the pixel values of the R (RED) / G (GREEN) / B (BLUE) channels located in each pixel of the input color image is calculated as a chromaticity weight map, and the calculated chromaticity It can be calculated as a scalar value by applying L1_norm to the weight map.

유채도 가중치를 산출하기 위한 방법은 위 방법 이외에도 동일한 요소 및/또는 다른 요소를 활용한 다양한 방법이 적용될 수 있으며, 일예로 본 발명에서 상술한 방법 이외에 Hasler and Susstrunk 모델을 이용하여 산출하는 방법도 적용될 수 있다. Hasler and Susstrunk 모델을 이용하는 경우, 유채도는 수학식(6)을 이용하여 산출할 수 있다.In addition to the above method, various methods using the same and/or other factors may be applied to the method for calculating the chromaticity weight. can When using the Hasler and Susstrunk model, chromaticity can be calculated using Equation (6).

Figure pat00009
Figure pat00009

특징강화 가중치는 도 7의 Fused Norm에 해당한다. 도 7에서와 같이 입력되는 다중 노출 이미지마다 하나씩 산출된 질감 가중치와 유채도가중치의 합을 수학식(7)을 이용하여 산출할 수 있다.The feature enhancement weight corresponds to the Fused Norm of FIG. 7 . As shown in FIG. 7 , the sum of texture weights and chromaticity weights calculated one by one for each input multi-exposure image can be calculated using Equation (7).

Figure pat00010
Figure pat00010

상기 수학식(7)에 의해 산출되는 가중치는 각 입력 이미지에 대응하여 하나씩 산출되며, 산출된 가중치는 실질적으로 하나의 이미지가 가지고 있는 정보량의 총합이며, 스칼라 값이 된다. 이렇게 산출된 각 이미지별 특징강화 가중치

Figure pat00011
는 입력되는 이미지에 대하여 0~1사이의 값이 될 수 있도록 수학식(8)을 이용하여 가중치 비율로 계산할 수 있다.The weight calculated by Equation (7) is calculated one by one corresponding to each input image, and the calculated weight is substantially the total amount of information of one image and becomes a scalar value. Feature enhancement weight for each image calculated in this way
Figure pat00011
can be calculated as a weight ratio using Equation (8) so that it can be a value between 0 and 1 for an input image.

Figure pat00012
Figure pat00012

상기 수학식(8)은 각 이미지에 대한 가중치 비율로서, 가중치 비율이 높은 이미지가 더 많은 특징추출 정보량을 포함하고 있음을 의미한다. 그러나 이렇게 산출된 가중치 비율을 특징 융합 오토-인코딩 모델(FFAM, Feature Fusion Auto-encoder Model)의 융합 레이어에 적용함에 있어서, 인코더(encoder)의 노드 값이 0~1의 범위의 값을 가지고 있고, 가중치 비율 또한 0~1 사이 값이 되므로 가중치 비율을 적용하게 되면 인코더(encoder) 노드의 값이 0의 값에 수렴하는 문제로 인하여 증폭효과가 떨어질 수 있으므로 수학식(9)를 이용하여 가중치 비율(

Figure pat00013
)을 가중평균값으로 전환하여 특징강화 가중치를 산출 및 적용할 수 있다.Equation (8) is a weight ratio for each image, and means that an image having a high weight ratio includes a larger amount of feature extraction information. However, in applying the calculated weight ratio to the fusion layer of the Feature Fusion Auto-encoder Model (FFAM), the node value of the encoder has a value in the range of 0 to 1, Since the weight ratio also has a value between 0 and 1, when the weight ratio is applied, the amplification effect may be reduced due to the problem that the value of the encoder node converges to a value of 0. Therefore, using Equation (9), the weight ratio (
Figure pat00013
) into a weighted average value, the feature enhancement weight can be calculated and applied.

Figure pat00014
Figure pat00014

상기의 수학식(9)을 이용하여 산출된 특징 강화 가중치 값은 기대치(expectation value)이므로 가중치(

Figure pat00015
)가 높은 이미지에 대해서 높은 기댓값을 적용하며, 인코더(encoder)의 노드와의 곱으로 0으로 급격히 수렴하는 것을 방지함으로서 학습과정에서 특징 추출된 정보량의 가중치에 따른 증폭효과를 기대할 수 있다.Since the feature enhancement weight value calculated using Equation (9) above is an expectation value, the weight (
Figure pat00015
) is applied to a high expected value, and by preventing rapid convergence to 0 by multiplication with the node of the encoder, an amplification effect according to the weight of the amount of information extracted during the learning process can be expected.

본 발명의 특징강화 가중치의 적용은 비단 딥러닝 모델에서만 적용되는 것은 아니다. 특징강화 가중치는 전통적인 다중노출융합 기법에 있어서도 이미지별 특징에 따른 가중치 적용됨으로서 양질의 노출융합이미지를 생성하는 효과가 있다.The application of the feature enhancement weights of the present invention is not applied only to the deep learning model. Even in the traditional multi-exposure fusion technique, feature enhancement weights are applied according to the characteristics of each image, and thus have the effect of generating a high-quality exposure fusion image.

이상과 같이 본 발명이 한정된 실시예와 도면에 의하여 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by the limited embodiments and drawings, but those skilled in the art can make various modifications and variations from the above description.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것 역시 본 발명의 특허청구범위의 권리범위에 속한다.Therefore, other implementations, other embodiments and equivalents of the claims are also within the scope of the claims of the present invention.

Claims (15)

제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역 형성단계;
상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득단계;
상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출단계;
상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성 단계; 및
상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합 단계;
를 포함하는
단일 이미지로부터의 다중 노출 이미지 융합 방법.
a division region forming step of forming a plurality of division regions by dividing the provided single image into a plurality of regions;
an optimal gamma correction coefficient obtaining step of obtaining an optimal gamma correction coefficient for each of the plurality of divided regions;
a gamma correction image derivation step of deriving a plurality of gamma correction images by applying the optimal gamma correction coefficient to the entire area of the provided single image;
a feature enhancement weight ratio generating step of generating feature enhancement weight ratios corresponding to the plurality of gamma-corrected images; and
an image fusion step of fusing the plurality of gamma-corrected images by applying the feature enhancement weight to the plurality of gamma-corrected images;
containing
Multiple exposure image fusion method from a single image.
청구항 1항에 있어서, 상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 단계는
각 영역별로 도출된 감마보정계수 중 차이 값이 0.1 이상 1.0 미만의 범위에서 설정된 임계값 이하인 경우 두 감마보정계수 중 어느 하나를 제거하는 분할 영역 필터링 단계;
를 더 포함하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 방법.
The method of claim 1 , wherein the obtaining of an optimal gamma correction coefficient for each of the plurality of divided regions comprises:
segmentation filtering step of removing one of the two gamma correction coefficients when the difference value among the gamma correction coefficients derived for each region is less than or equal to a set threshold in the range of 0.1 or more and less than 1.0;
Multiple exposure image fusion method from a single image, characterized in that it further comprises.
청구항 1항에 있어서, 상기 복수개의 분할 영역은 각 영역이 중첩하여 형성되는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 방법.The method of claim 1 , wherein the plurality of divided regions are formed by overlapping each region. 청구항 1 또는 3항에 있어서, 상기 복수개의 분할 영역은 상기 제공된 단일 이미지 전체 크기의 30% ~ 75% 범위 내의 크기로 형성되는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 방법. [Claim 4] The method of claim 1 or 3, wherein the plurality of divided regions are formed in a size within a range of 30% to 75% of the total size of the provided single image. 청구항 1에 있어서, 상기 최적감마보정계수 획득 단계는 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 방법.The method according to claim 1, wherein the obtaining of the optimal gamma correction coefficient derives a gamma correction coefficient when the amount of information of the corrected image derived for each of the divided regions is maximum as the optimal gamma correction coefficient. Multiple exposure image fusion method. 청구항 1 또는 5항에 있어서, 상기 최적감마보정계수 획득 단계는
감마보정계수의 탐색 범위를 설정하는 단계;
임의의 감마보정계수를 설정하는 단계;
상기 임의의 감마보정계수에 대한 증분을 설정하는 증분 설정 단계;
상기 임의의 감마보정계수를 적용하여 상기 각각의 분할된 영역에 대한 감마보정을 실시하여 보정이미지를 도출하는 분할영역 감마보정 단계; 및
상기 임의의 감마보정계수에 상기 증분을 적용하여 감마보정계수를 변경시키는 감마보정계수 변경 단계;
를 포함하고,
상기 감마보정계수의 탐색 범위 내에서 상기 분할영역 감마보정 단계 및 상기 감마보정계수 변경 단계를 반복하여 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출하는 것을 특징으로 하는
단일 이미지로부터의 다중 노출 이미지 융합 방법.
The method of claim 1 or 5, wherein the obtaining of the optimal gamma correction coefficient comprises:
setting a search range for gamma correction coefficients;
Setting a random gamma correction coefficient;
an increment setting step of setting an increment for the arbitrary gamma correction coefficient;
a gamma correction step of deriving a corrected image by performing gamma correction on each of the divided areas by applying the arbitrary gamma correction coefficient; and
a gamma correction coefficient changing step of changing the gamma correction coefficient by applying the increment to the arbitrary gamma correction coefficient;
including,
The optimal gamma correction coefficient is obtained by repeating the division gamma correction step and the gamma correction coefficient change step within the search range of the gamma correction coefficient when the amount of information of the corrected image derived for each division is maximum. characterized by deriving as a coefficient
Multiple exposure image fusion method from a single image.
청구항 1에 있어서, 상기 특징강화 가중치 비율 생성 단계는
상기 복수의 감마보정 이미지에 대응하는 유채도 가중치를 산출하는 단계;
상기 복수의 감마보정 이미지에 대응하는 질감 가중치를 산출하는 단계;
상기 복수의 감마보정 이미지에 대응하는 상기 유채도 가중치 및 상기 질감 가중치를 합산하여 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치를 산출하는 단계; 및
상기 복수의 감마보정 이미지에 대응하는 상기 특징강화 가중치의 비율을 생성하여 상기 특징강화 가중치 비율을 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 방법.
The method according to claim 1, wherein the feature enhancement weight ratio generating step
calculating chromaticity weights corresponding to the plurality of gamma-corrected images;
calculating texture weights corresponding to the plurality of gamma-corrected images;
calculating feature enhancement weights corresponding to the plurality of gamma-corrected images by summing the chromaticity weights and the texture weights corresponding to the plurality of gamma-corrected images; and
generating a feature enhancement weight ratio by generating a feature enhancement weight ratio corresponding to the plurality of gamma-corrected images;
Multiple exposure image fusion method from a single image, characterized in that it further comprises.
제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역형성부;
상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득부;
상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출부;
상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성부; 및
상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합부;
를 포함하는
단일 이미지로부터의 다중 노출 이미지 융합 장치.
a division region forming unit dividing a single image into a plurality of regions to form a plurality of division regions;
an optimal gamma correction coefficient obtaining unit acquiring an optimal gamma correction coefficient for each of the plurality of divided regions;
a gamma correction image derivation unit for deriving a plurality of gamma correction images by applying the optimal gamma correction coefficient to the entire area of the provided single image;
a feature enhancement weight ratio generating unit generating feature enhancement weight ratios corresponding to the plurality of gamma-corrected images; and
an image fusion unit fusing the plurality of gamma-corrected images by applying the feature enhancement weight to the plurality of gamma-corrected images;
containing
Multi-exposure image fusing device from a single image.
청구항 8항에 있어서, 최적감마보정계수 획득부는
각 영역별로 도출된 감마보정계수 중 차이 값이 0.1 이상 1.0 미만의 범위에서 설정된 임계값 이하인 경우 두 감마보정계수 중 어느 하나를 제거하는 분할 영역 필터링부;
를 더 포함하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 장치.
The method of claim 8, wherein the optimum gamma correction coefficient obtaining unit
a segmented region filtering unit for removing one of the two gamma correction coefficients when a difference value among the gamma correction coefficients derived for each region is less than or equal to a set threshold value in the range of 0.1 or more and less than 1.0;
Multiple exposure image fusion device from a single image, characterized in that it further comprises.
청구항 8항에 있어서, 상기 복수개의 분할 영역은 각 영역이 중첩하여 형성되는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 장치.9. The apparatus of claim 8, wherein the plurality of divided regions are formed by overlapping each region. 청구항 8 또는 10항에 있어서, 상기 복수개의 분할 영역은 상기 제공된 단일 이미지 전체 크기의 30%~75% 범위 내의 크기로 형성되는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 장치. [Claim 11] The apparatus of claim 8 or 10, wherein the plurality of divided regions are formed in a size within a range of 30% to 75% of the total size of the provided single image. 청구항 8에 있어서, 상기 최적감마보정계수 획득부는 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 장치.9. The method according to claim 8 , wherein the optimal gamma correction coefficient acquisition unit derives a gamma correction coefficient when the amount of information of the corrected image derived for each divided area is maximum as the optimal gamma correction coefficient. Exposure image fusion device. 청구항 8 또는 12항에 있어서, 상기 최적감마보정계수 획득부는
감마보정계수의 탐색 범위를 설정하는 탐색범위 설정부;
임의의 감마보정계수를 설정하는 감마보정계수 설정부;
상기 임의의 감마보정계수에 대한 증분을 설정하는 증분 설정부;
상기 임의의 감마보정계수를 적용하여 상기 각각의 분할된 영역에 대한 감마보정을 실시하여 보정이미지를 도출하는 분할영역 감마보정부; 및
상기 임의의 감마보정계수에 상기 증분을 적용하여 감마보정계수를 변경시키는 감마보정계수 변경부;
를 포함하고,
상기 감마보정계수의 탐색 범위 내에서 상기 분할영역 감마보정 단계 및 상기 감마보정계수 변경을 반복하여 상기 각각의 분할 영역별로 도출된 보정이미지의 정보량이 최대일 때의 감마보정계수를 상기 최적감마보정계수로 도출하는 것을 특징으로 하는
단일 이미지로부터의 다중 노출 이미지 융합 장치.
The method according to claim 8 or 12, wherein the optimal gamma correction coefficient obtaining unit
a search range setting unit for setting a search range of gamma correction coefficients;
a gamma correction coefficient setting unit for setting an arbitrary gamma correction coefficient;
an increment setting unit configured to set an increment for the arbitrary gamma correction coefficient;
a segmented area gamma correction unit for deriving a corrected image by performing gamma correction on each of the divided areas by applying the arbitrary gamma correction coefficient; and
a gamma correction coefficient changing unit for changing the gamma correction coefficient by applying the increment to the arbitrary gamma correction coefficient;
including,
The gamma correction step and the change of the gamma correction coefficient are repeated within the search range of the gamma correction coefficient, and the gamma correction coefficient when the information amount of the corrected image derived for each divided region is maximum is determined as the optimal gamma correction coefficient. characterized in that derived by
Multi-exposure image fusing device from a single image.
청구항 8에 있어서, 상기 특징강화 가중치 비율 생성부는
상기 복수의 감마보정 이미지에 대응하는 유채도 가중치를 산출하는 유채도 가중치 산출부;
상기 복수의 감마보정 이미지에 대응하는 질감 가중치를 산출하는 질감 가중치 산출부; 및
상기 복수의 감마보정 이미지에 대응하는 상기 유채도 가중치 및 상기 질감 가중치를 합산하여 상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치를 산출하는 특징강화 가중치 산출부;
를 더 포함하고, 상기 복수의 감마보정 이미지에 대응하는 상기 특징강화 가중치의 비율을 생성하는 것을 특징으로 하는 단일 이미지로부터의 다중 노출 이미지 융합 장치.
The method according to claim 8, wherein the feature enhancement weight ratio generator
a chromaticity weight calculator to calculate chromaticity weights corresponding to the plurality of gamma-corrected images;
a texture weight calculator to calculate texture weights corresponding to the plurality of gamma-corrected images; and
a feature enhancement weight calculation unit calculating a feature enhancement weight corresponding to the plurality of gamma-corrected images by summing the chromaticity weights and the texture weights corresponding to the plurality of gamma-corrected images;
The multi-exposure image fusing device from a single image, further comprising generating ratios of the feature enhancement weights corresponding to the plurality of gamma-corrected images.
제공된 단일 이미지를 복수의 영역으로 분할하여 복수개의 분할 영역을 형성하는 분할영역 형성단계;
상기 복수개의 분할 영역별로 최적감마보정계수를 획득하는 최적감마보정계수 획득단계;
상기 최적감마보정계수를 상기 제공된 단일 이미지 전체 영역에 적용하여 복수의 감마보정 이미지를 도출하는 감마보정 이미지 도출단계;
상기 복수의 감마보정 이미지에 대응하는 특징강화 가중치 비율을 생성하는 특징강화 가중치 비율 생성 단계; 및
상기 복수의 감마보정 이미지에 상기 특징강화 가중치를 적용하여 상기 복수의 감마보정 이미지를 융합하는 이미지 융합 단계;를 실행시키기 위하여 기록 매체에 저장된 단일 이미지로부터의 다중 노출 이미지 융합 프로그램.
a division region forming step of forming a plurality of division regions by dividing the provided single image into a plurality of regions;
an optimal gamma correction coefficient obtaining step of obtaining an optimal gamma correction coefficient for each of the plurality of divided regions;
a gamma correction image derivation step of deriving a plurality of gamma correction images by applying the optimal gamma correction coefficient to the entire area of the provided single image;
a feature enhancement weight ratio generating step of generating feature enhancement weight ratios corresponding to the plurality of gamma-corrected images; and
An image fusion step of fusing the plurality of gamma-corrected images by applying the feature enhancement weight to the plurality of gamma-corrected images; a multi-exposure image fusion program from single images stored in a recording medium.
KR1020210165021A 2021-11-26 2021-11-26 Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image KR20230077854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210165021A KR20230077854A (en) 2021-11-26 2021-11-26 Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210165021A KR20230077854A (en) 2021-11-26 2021-11-26 Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image

Publications (1)

Publication Number Publication Date
KR20230077854A true KR20230077854A (en) 2023-06-02

Family

ID=86755771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165021A KR20230077854A (en) 2021-11-26 2021-11-26 Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image

Country Status (1)

Country Link
KR (1) KR20230077854A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116843584A (en) * 2023-09-01 2023-10-03 浙江鼎立实业有限公司 Image data optimization enhancement method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
in Heon Kim, "An Image Merging Method for Two High Dynamic Range Images of Different Exposure," Journal of Korea Multimedia Society Vol. 13, No. 4, pp. 526-534, 2010
J.-H. Ryu, J.-W. Kim, J.-O. Kim, "Texture-enhanced multi-exposure fusion using texture decomposition and cascaded convolutional autoencoder," Proc. of ITC-CSCC 2019, Jeju, Korea, June. 2019.
T. Mertens, J. Kautz, and F. V. Reeth, "Exposure Fusion," Proceedings of 15th Pacific Conference on Computer Graphics and Applications, IEEE Computer Graphics and Applications, pp. 382-390, 2007

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116843584A (en) * 2023-09-01 2023-10-03 浙江鼎立实业有限公司 Image data optimization enhancement method

Similar Documents

Publication Publication Date Title
US11244432B2 (en) Image filtering based on image gradients
EP2131569B1 (en) Apparatus, method and program for image processing
US8189959B2 (en) Image blending using multi-splines
US5390264A (en) Image processing method for correcting a target pixel using emphasizing and smoothing components
RU2400815C2 (en) Method of enhancing digital image quality
CN112734650B (en) Virtual multi-exposure fusion based uneven illumination image enhancement method
WO2009141340A2 (en) Image processing to enhance image sharpness
GB2520406A (en) Tone mapping
JP3733165B2 (en) Image data conversion method for digital printer
CN113781320A (en) Image processing method and device, terminal equipment and storage medium
Iwanami et al. An adaptive contrast enhancement using regional dynamic histogram equalization
CN111489322A (en) Method and device for adding sky filter to static picture
WO2020210472A1 (en) High-dynamic-range image generation with pre-combination denoising
CN113706393A (en) Video enhancement method, device, equipment and storage medium
KR20230077854A (en) Deep Learning Multiple Exposure Fusion Method, device, and program Based on Feature Boosting Weights Using Single Image
CN113793272B (en) Image noise reduction method and device, storage medium and terminal
CN113781321B (en) Information compensation method, device and equipment for image highlight region and storage medium
WO2009141339A2 (en) Image processing to enhance image sharpness
CN114140348A (en) Contrast enhancement method, device and equipment
JP4125191B2 (en) Image processing apparatus and method
Moriyama et al. Saturation-based multi-exposure image fusion employing local color correction
Seo et al. Hue-correction scheme considering non-linear camera response for multi-exposure image fusion
WO2022018857A1 (en) Depth map accuracy improving device, method, and program
Go et al. Single-Shot High Dynamic Range Imaging with Spatially Varying Exposures Considering Hue Distortion
WO2023102189A2 (en) Iterative graph-based image enhancement using object separation

Legal Events

Date Code Title Description
A201 Request for examination