KR102261532B1 - Method and system for image dehazing using single scale image fusion - Google Patents

Method and system for image dehazing using single scale image fusion Download PDF

Info

Publication number
KR102261532B1
KR102261532B1 KR1020200065052A KR20200065052A KR102261532B1 KR 102261532 B1 KR102261532 B1 KR 102261532B1 KR 1020200065052 A KR1020200065052 A KR 1020200065052A KR 20200065052 A KR20200065052 A KR 20200065052A KR 102261532 B1 KR102261532 B1 KR 102261532B1
Authority
KR
South Korea
Prior art keywords
image
fog
channel
gamma correction
exposure
Prior art date
Application number
KR1020200065052A
Other languages
Korean (ko)
Inventor
강봉순
응오닷
이승민
꾸옥 히우 응웬
강의진
Original Assignee
동아대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동아대학교 산학협력단 filed Critical 동아대학교 산학협력단
Priority to KR1020200065052A priority Critical patent/KR102261532B1/en
Application granted granted Critical
Publication of KR102261532B1 publication Critical patent/KR102261532B1/en

Links

Images

Classifications

    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/007Dynamic range modification
    • G06T5/009Global, i.e. based on properties of the image as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

The present invention relates to a system for removing fog based on mono-scale image fusion and a method thereof. According to the present invention, the method includes: a preprocessing step of performing preprocessing with a detailed emphasis algorithm to restore edge information for gamma correction; an under-exposure image acquisition gamma correction step of acquiring an under-exposure image by performing gamma correction with the image emphasized in detail; a normalization step of calculating and normalizing a weighted value to prevent an out-of-range issue which can occur during image fusion; a mono-scale image fusion step of performing a weighted sum of a virtual under-exposure image and a corresponding weighted value; and a post-processing step of improving a brightness channel in an adaptive tone remapping manner with respect to the fused image and emphasizing a color difference channel in accordance with the degree of the improvement. Accordingly, the present invention can achieve better performance with a considerably small amount of operations than a comparison algorithm but also embody small and fast hardware for real-time processing, thereby providing an effect of enabling a graft with an autonomous driving vehicle or a vision system such as an intelligent monitoring camera.

Description

단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법{Method and system for image dehazing using single scale image fusion} {Method and system for image dehazing using single scale image fusion}

본 발명은 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법에 관한 것으로, 보다 구체적으로는, 세부 강조, 감마 보정, 단일 스케일 영상 융합, 적응형 색조 리맵핑(Adaptive Tone Remapping)과 간단한 영상 화질 개선 방식을 이용함으로써, 안개 제거 성능을 달성하기 위해 효과적인 연산량을 유지할 수 있도록 하기 위한 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법에 관한 것이다. The present invention relates to a fog removal system and method based on single-scale image fusion, and more specifically, detail enhancement, gamma correction, single-scale image fusion, adaptive tone remapping, and a simple image quality improvement method A fog removal system and method based on single-scale image fusion for maintaining an effective amount of computation to achieve fog removal performance by using .

종래의 영상 처리 알고리즘들은 쾌적한 기상상태를 가정하고 설계되었지만, 실제로는 야외에서 사진 또는 동영상을 찍을 때 안개와 같은 기상상태가 악조건일 경우가 발생한다. 선명한 영상 화질을 위해 안개 제거 알고리즘들이 개발되었고, 크게 단일 영상 및 다중 영상으로 나눌 수 있으며 후자가 우수한 성능을 갖지만 매우 복잡한 입력 영상 획득으로 인해 널리 활용되지 않는다. 단일 입력 영상 방법은 과학적인 관심을 많이 받았으며 영상 복원 관점과 영상 화질 개선 관점 등이 이에 속한다.Conventional image processing algorithms are designed on the assumption of pleasant weather conditions, but in reality, when taking pictures or moving pictures outdoors, weather conditions such as fog may be adverse. Fog removal algorithms have been developed for clear image quality, and can be largely divided into single image and multiple images. Although the latter has excellent performance, it is not widely used due to very complex input image acquisition. The single input image method has received a lot of scientific attention, and it includes the image restoration viewpoint and the image quality improvement viewpoint.

첫 번째로 영상 복원 관점을 고려하여 대기 산란 현상에 기반을 둬서 안개 영상의 생성을 물리적인 모델로 표시하며 이러한 모델을 반전함으로써 선명한 영상을 얻을 수 있다. 하기의 수학식 1은 Koschmieder라는 물리적인 모델을 나타낸다.First, considering the image restoration perspective, based on atmospheric scattering, the generation of fog images is represented by a physical model, and a clear image can be obtained by inverting this model. Equation 1 below represents a physical model called Koschmieder.

Figure 112020054872226-pat00001
Figure 112020054872226-pat00001

여기서 x는 픽셀 위치이고 I, J, A, t는 순으로 입력 안개 영상, 결과 영상(안개가 제거된), 대기 강도(atmospheric light), 전달 맵(transmission map)이다. 알려진 변수가 I 밖에 없어서 J를 복원하려고 A와 t의 추정치가 필요하다. 이 때문에 안개 제거에 대한 조건 제한이 문제가 있다. 미국특허등록된 방법에서는 He et al.가 안개 전달 맵을 추정하기 위해 유명한 DCP(Dark Channel Prior)를 제안하였다. DCP가 실내 안개 제거에 대해 우수한 성능을 나타내지만, 앞서 언급한 대로 하늘 지역이 안개 제거 시 어두워지는 단점이 있다. where x is the pixel position and I, J, A, and t are the input fog image, the resulting image (fog removed), atmospheric light, and the transmission map, in that order. Since the only known variable is I, we need estimates of A and t to restore J. For this reason, there is a problem with the conditional restrictions on fog removal. In the US patented method, He et al. proposed the famous Dark Channel Prior (DCP) for estimating the fog transfer map. Although DCP shows good performance for indoor fog removal, as mentioned earlier, the sky area is darkened during fog removal.

참고문헌에서는 Zhu et al.가 교사학습(supervised learning)이라는 기계 학습 기술을 응용하여 영상의 깊이(depth)를 추정하였다. 전달 맵은 깊이에 지수로 비례하기 때문에 깊이가 주어지면 전달 맵을 추정할 수 있다. 대기 강도 추정에 대해서는 두 가지 알고리즘의 큰 연산량을 갖는 방법을 사용한다. 전달 맵 또는 깊이의 미리 결정된 비율에서 대기 강도 픽셀이 존재하다고 가정해서 그런 픽셀들 중 제일 큰 강도를 갖는 픽셀을 대기 강도로 설정한다. 이렇게 하면 전체의 픽셀들을 정렬해야 하고 미리 결정된 비율에서도 다시 정렬해야 하는 번거로움이 발생한다.In the reference literature, Zhu et al. estimated the depth of an image by applying a machine learning technique called supervised learning. Since the transfer map is exponentially proportional to the depth, the transfer map can be estimated given the depth. For atmospheric intensity estimation, the method with a large computational amount of the two algorithms is used. Assuming that there are atmospheric intensity pixels in the transfer map or a predetermined ratio of depth, the pixel with the highest intensity among those pixels is set as the atmospheric intensity. This causes the hassle of having to align all the pixels and rearranging them even at a predetermined ratio.

두 번째로 영상 화질 개선 관점에 관해서는 입력 영상이 왜곡된 부분에 대해 물리적인 원인을 고려하지 않고 복원할 영상(입력 영상)이 원래의 선명한 영상과 유사하게끔 단순한 화질 개선 기술을 이용한다. 저조도 화질 개선, 세부 강조, 호모몰픽 필터링(homomorphic filtering), 히스토그램균등화 등이 예이다. 이러한 방법들을 안개가 옅은 경우에만 효과적인 한계점이 있다. 그래서 영상 융합에 기반을 둔 안개 제거 방법이 사용되기 시작한다. 참고문헌에서는 Galdran이 다중 스케일 융합에 따른 방법을 제안하였는데 가중치는 대비(contrast) 및 포화로(saturation) 구성되었다. 안개와 관련된 영상 특징을 고려하기 때문에 좋은 성능을 얻었지만 연산량이나 메모리 수요가 크다는 단점이 있다. 왜냐하면 영상 융합 과정은 많은 영상을 가중치에 따라 한 영상으로 합쳐지는 것이라서 연산량이 상당히 크다. 뿐만 아니라 다중 스케일 방식으로 하면 합쳐야 하는 영상 수가 많아 져서 연산량도 많이 상승하고 메모리 수요도 훨씬 더 증가한다.Second, in terms of image quality improvement, a simple image quality improvement technique is used so that the image to be restored (input image) is similar to the original clear image without considering the physical cause of the distorted portion of the input image. Examples are low-light image quality improvement, detail emphasis, homomorphic filtering, and histogram equalization. There is a limitation in that these methods are effective only when the fog is light. So the fog removal method based on image fusion begins to be used. In the reference, Galdran proposed a method according to multi-scale fusion, and the weights consisted of contrast and saturation. Good performance was obtained because the image characteristics related to fog are taken into account, but there is a disadvantage in that the amount of computation or memory demand is large. Because the image fusion process combines many images into one image according to weight, the amount of computation is quite large. In addition, if the multi-scale method is used, the number of images to be combined increases, which increases the amount of computation and the memory demand.

결론적으로 다중 입력 영상을 이용한 안개 제거 방법은 우수한 성능을 발휘하지만 매우 복잡한 입력 획득으로 인해서 실제로는 활용되지 않는다. 또한 단일 입력 영상을 이용한 방법은 대기 강도와 전달 맵을 추정하기 때문에 연산량이 크다는 단점이 있다. 그리고 영상 융합을 사용한 단일 영상 안개 제거 방법은 라플라시안 피라미드(Laplacian pyramid)와 같은 다중 스케일 방식에 따른 탓에 연산량과 메모리 수요가 많이 크다는 단점을 가진다.In conclusion, the fog removal method using a multi-input image shows excellent performance, but is not practically utilized due to very complex input acquisition. In addition, the method using a single input image has a disadvantage in that the amount of computation is large because the atmospheric intensity and the transfer map are estimated. In addition, the single image fog removal method using image fusion has a disadvantage in that the amount of computation and memory demand are large due to the multi-scale method such as the Laplacian pyramid.

다시 요약하자면 도 1은 현재까지 특허 및 논문에서 안개제거 방법을 정리한 분류 도면이다. 제안하는 방법은 단일 영상을 이용하여 영상 화질 개선 방법으로 안개 제거를 진행한다. 그리고 일반적으로 자주 사용되는 영상 복원 관점의 물리적인 수식을 사용하지 않기 때문에 감마보정을 통한 노출부족(under-exposure) 이미지를 생성하여 안개제거를 진행한다. 그러므로 영상 화질 개선 관점에 속한다.To summarize again, FIG. 1 is a classification diagram that summarizes the fog removal methods in patents and papers to date. In the proposed method, fog removal is performed as an image quality improvement method using a single image. And since it does not use a physical formula in terms of image restoration, which is generally used frequently, fog removal is performed by generating an under-exposure image through gamma correction. Therefore, it belongs to the viewpoint of image quality improvement.

안개 제거 알고리즘은 입력 영상이 단일 영상 및 다중 영상에 따라 구분되며 다중 영상은 획득하기가 매우 어렵기 때문에 연구자들이 후자 대신에 전자에 큰 관심을 가지고 있다. 단일 영상 안개 제거와 관련하여 영상 복원 및 영상 화질 개선 접근법이 있다. 첫 번째 접근법의 경우는 Koschmieder라는 물리적인 모델에 기반함으로써 좋은 성능을 발휘하지만 모델의 불량조건문제(ill-posed problem)로 인해서 높은 연산량을 갖는다. 두 번째 영상 화질 개선 접근법의 경우는 계산 과정이 간단해서 처리속도가 빠르다. 하지만 안개와 관련된 왜곡을 고려하지 않거나, 몇몇의 방법에서는 높은 연산량 또는 큰 메모리가 사용되는 단점이 존재하므로, 본 발명에 제안한 알고리즘에 의해 영상 화질 개선 접근법에 따르며 높은 연산량 및 큰 메모리 사용의 단점을 보완함으로써 우수한 안개 제거 성능 및 실시간 처리가 가능하도록 한다. As the fog removal algorithm divides the input image according to single image and multiple images, and multiple images are very difficult to acquire, researchers are very interested in the former instead of the latter. Regarding single image fogging, there are image restoration and image quality improvement approaches. The first approach shows good performance because it is based on a physical model called Koschmieder, but has a high amount of computation due to the ill-posed problem of the model. In the case of the second image quality improvement approach, the calculation process is simple and the processing speed is fast. However, since fog-related distortion is not considered or some methods have disadvantages of using a high amount of computation or a large memory, the algorithm proposed in the present invention follows the image quality improvement approach and compensates for the disadvantages of using a high amount of computation and a large memory. This enables excellent fog removal performance and real-time processing.

미국 등록특허공보 제8340461호(2012.12.25.) "Single Image Haze Removal Using Dark Channel Priors"US Patent Publication No. 8340461 (2012.12.25.) "Single Image Haze Removal Using Dark Channel Priors" 대한민국 등록특허공보 제10-1997866호(2019.10.08.) "단일 영상 내 안개성분 제거 방법"Republic of Korea Patent Publication No. 10-1997866 (2019.10.08.) "Method of removing fog components in a single image"

Qingsong Zhu, Jiaming Mai, Ling Shao, "A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior", IEEE Transactions on Image Processing (2015), Vol. 24, pp. 3522-3533 Qingsong Zhu, Jiaming Mai, Ling Shao, “A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior”, IEEE Transactions on Image Processing (2015), Vol. 24, pp. 3522-3533 Adrian Galdran, "Image dehazing by artificial multiple-exposure image fusion", Signal Processing (2018), Vol. 149, pp. 135-147 Adrian Galdran, “Image dehazing by artificial multiple-exposure image fusion”, Signal Processing (2018), Vol. 149, pp. 135-147

본 발명은 상기의 문제점을 해결하기 위한 것으로, 종래 안개 제거 알고리즘의 두 개의 단점(영상 복원 관점, 영상 화질 개선 관점)을 보완하기 위해서 좋은 성능을 달성할뿐 만 아니라 상당히 적은 연산량을 유지하도록 하기 위한 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, and to achieve good performance and maintain a fairly small amount of computation in order to compensate for two disadvantages (image restoration point of view, image quality improvement point of view) of the conventional fog removal algorithm. An object of the present invention is to provide a fog removal system and method based on single-scale image fusion.

또한, 본 발명은 대기 강도와 전달 맵 추정으로 인한 큰 연산량에 대한 문제를 예방하기 위해 가상 노출부족(under-exposure)된 영상을 융합하는 방식을 이용하도록 하기 위한 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법을 제공하기 위한 것이다.In addition, the present invention provides a fog removal system based on single-scale image fusion to use a method of merging virtual under-exposure images in order to prevent the problem of large computational amount due to atmospheric intensity and transfer map estimation. and methods.

또한, 본 발명은 안개 제거시 어두워진 영상은 적응형 색조 리맵핑(Adaptive Tone Remapping)이라는 후처리를 통해 연산량을 줄일 뿐만 아니라, 실시간 처리 기능을 제공하기 위한 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법을 제공하기 위한 것이다.In addition, the present invention provides a fog removal system based on single-scale image fusion to provide a real-time processing function as well as reducing the amount of computation through post-processing called adaptive tone remapping for an image darkened during fog removal. to provide a way.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법은, 감마 보정를 위한 엣지 정보를 살리기 위해서 세부 강조 알고리즘으로 전처리 단계, 세부 강조가 된 영상을 이용하여 감마 보정(gamma correction)하여 노출부족(under-exposure) 영상을 얻기 위한 감마 보정 단계, 영상 융합 시 발생할 수 있는 아웃 오브 레인지(out of range) 문제를 예방하기 위해 가중치를 계산하고 정규화하는 정규화 단계, 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하는 단일 스케일 영상 융합 단계, 융합된 영상에 대해서 적응형 색조 리맵핑(Adaptive Tone Remapping) 방식으로 밝기 채널을 개선하고 나서 개선된 정도에 따라 색차 채널을 강조하는 후처리 단계를 포함하는 것을 특징으로 하는 할 수 있다.In order to achieve the above object, the fog removal method based on single-scale image fusion according to an embodiment of the present invention is a pre-processing step with a detailed enhancement algorithm in order to save edge information for gamma correction, and gamma correction using the detailed enhancement image Gamma correction step to obtain an under-exposure image by gamma correction, a normalization step to calculate and normalize weights to prevent out-of-range problems that may occur during image fusion, and virtual exposure A single-scale image fusion step that performs a weighted sum of the under-exposure image and the corresponding weight, and improves the brightness channel with the adaptive tone remapping method for the fused image. It may then be characterized by including a post-processing step of emphasizing the chrominance channel according to the degree of improvement.

이때, 전처리 단계는, 안개로 인한 왜곡된 에지를 복원하는 단계로, 밝기 채널에만 세부 강조를 실시하기 위해 RGB → YCbCr 색 공간을 변환하는 단계, 라플라시안(Laplacian) 연산자로 세부를 추출하는 단계, 영상의 지역 변동량에 따른 가중치를 생성하는 단계, 가중치에 따라 세부를 강조하는 단계, YCbCr → RGB 색 공간을 변환하는 단계를 포함하는 것을 특징으로 할 수 있다.In this case, the pre-processing step is a step of restoring the distorted edges due to fog, converting the RGB → YCbCr color space to emphasize the details only on the brightness channel, extracting details using the Laplacian operator, the image It may be characterized in that it comprises the steps of generating a weight according to the amount of regional variation of , emphasizing details according to the weight, and converting YCbCr → RGB color space.

또한, 감마 보정 단계는, 가상 노출부족(under-exposure)된 영상을 생성하되, 가상 노출부족(under-exposure)된 영상의 몇 개를 생성하는지 결정해야 하고 영상들의 각각에 대해 감마 보정을 실시하는 것을 특징으로 할 수 있다.In addition, in the gamma correction step, a virtual under-exposure image is generated, but it is necessary to determine how many virtual under-exposure images are to be generated, and gamma correction is performed for each of the images. can be characterized as

또한, 정규화 단계는, 안개를 나타낸 DCP(Dark Channel Prior)라는 지표를 사용하여 가중치를 생성하며, DCP(Dark Channel Prior) 지표가 안개 분포와 반비례 관계이기 때문에, 가중치를 생성하기 위해서는 반전해야 할 뿐만 아니라 영상 융합을 실행할 때 아웃 오브 레인지(out of range) 문제를 방지하기 위해 가중치를 정규화하는 것을 특징으로 할 수 있다.In addition, in the normalization step, a weight is generated using an index called DCP (Dark Channel Prior) indicating fog, and since the DCP (Dark Channel Prior) index is inversely proportional to the fog distribution, it must be inverted to generate weights. Instead, it may be characterized in that the weights are normalized to prevent an out of range problem when performing image fusion.

또한, 단일 스케일 영상 융합 단계는, 가상 노출부족(under-exposure)된 영상들의 선명한 지역을 합쳐져서 안개 제거된 영상의 하나를 생성하며, 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합을 수행하는 단일 스케일 방식으로 수행되는 것을 특징으로 할 수 있다.In addition, the single-scale image fusion step combines the clear regions of the virtual under-exposure images to create one of the de-fog images, and weights the virtual under-exposure images and corresponding weights. It may be characterized in that it is performed in a single scale method of performing the sum.

또한, 후처리 단계는, 가상 노출부족(under-exposure)된 영상을 사용하는 것과 DCP(Dark Channel Prior)의 단점으로 인해서 융합한 영상이 어두워지므로, 안개 제거된 영상의 화질을 개선하기 위해, RGB → YCbCr 색 공간을 변환하고 밝기 채널과 색차 채널을 획득하며, 밝기 채널에 화질 개선을 실시한 후 개선된 비율에 따라 색차를 강조하고, 마지막으로 디스플레이 장치에 출력하기 위해 YCbCr → RGB 색 공간을 변환하는 것을 특징으로 할 수 있다. In addition, in the post-processing step, since the fused image becomes dark due to the use of virtual under-exposure images and the disadvantages of DCP (Dark Channel Prior), in order to improve the image quality of the de-fog image, RGB → convert YCbCr color space, obtain brightness channel and color difference channel, improve picture quality on brightness channel, emphasize color difference according to the improved ratio, and finally convert YCbCr → RGB color space for output to display device can be characterized as

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템은, 감마 보정를 위한 엣지 정보를 살리기 위해서 세부 강조 알고리즘으로 전처리를 수행하는 전처리 모듈(110); 세부 강조가 된 영상을 이용하여 노출부족(under-exposure) 영상을 얻기 위한 감마 보정을 수행하는 감마 보정 모듈(120); 영상 융합 시 발생할 수 있는 아웃 오브 레인지(out of range) 문제를 예방하기 위해 가중치를 계산하고 정규화하는 정규화 모듈(130); 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하는 단일 스케일 영상 융합을 수행하는 융합 모듈(140); 및 융합된 영상에 대해서 적응형 색조 리맵핑(Adaptive Tone Remapping) 방식으로 밝기 채널을 개선하고 나서 개선된 정도에 따라 색차 채널을 강조하는 후처리 과정을 수행하는 후처리 모듈(150); 을 포함하는 것을 특징으로 할 수 있다. In order to achieve the above object, a fog removal system based on single-scale image fusion according to an embodiment of the present invention includes a pre-processing module 110 for performing pre-processing with a detailed enhancement algorithm in order to save edge information for gamma correction; a gamma correction module 120 that performs gamma correction to obtain an under-exposure image by using the detailed-enhanced image; a normalization module 130 for calculating and normalizing weights in order to prevent an out of range problem that may occur during image fusion; a fusion module 140 that performs single-scale image fusion that performs a weighted sum of a virtual under-exposure image and a corresponding weight; and a post-processing module 150 for improving a brightness channel in an adaptive tone remapping method on the fused image, and then performing a post-processing process of emphasizing a color difference channel according to the degree of improvement; It may be characterized in that it comprises a.

본 발명의 실시예에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템 및 방법은, 상당히 적은 연산량으로 비교 알고리즘보다 우수한 성능을 달성할 뿐만 아니라, 실시간 처리를 위해서 작고 빠른 하드웨어로 구현이 가능하므로, 자율주행자동차나 지능형 감시 카메라와 같은 비전 시스템에 접목시킬 수 있는 효과를 제공할 수 있다. The fog removal system and method based on single-scale image fusion according to an embodiment of the present invention not only achieves better performance than the comparison algorithm with a significantly smaller amount of computation, but also can be implemented with small and fast hardware for real-time processing, so autonomous driving It can provide an effect that can be applied to a vision system such as a car or an intelligent surveillance camera.

도 1은 현재까지 특허 및 논문에서 안개제거 방법을 정리한 분류 도면이다.
도 2는 본 발명의 실시예에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100)을 나타내는 도면이다.
도 3은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법을 나타내는 흐름도이다.
도 4는 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법의 전체적인 알고리즘을 나타내는 도면이다.
도 5는 본 발명에 제안한 알고리즘의 토대를 설명하기 위해 빛의 산란 현상에 대해 나타낸 것이다.
도 6은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 세부 강조 과정을 구체적으로 나타내는 도면이다.
도 7은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 전처리 모듈(110)에 의한 세부 강조 과정 중 지역 변동량에 따른 가중치를 나타내는 그래프이다.
도 8은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 감마 보정 과정을 구체적으로 나타내는 도면이다.
도 9a는 도 8의 감마 보정 과정에 대한 효과를 설명하기 위한 세부 강조된 영상과 감마 보정 그래프 및 감마 보정을 적용한 노출부족(under-exposure) 이미지를 나타내는 도면이다.
도 9b는 도 11의 단일 스케일 영상 융합 과정의 결과를 나타내는 도면이다.
도 10은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 영상 융합을 위한 가중치 계산 및 정규화 과정을 구체적으로 나타내는 도면이다.
도 11은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 단일 스케일 영상 융합 과정을 구체적으로 나타내는 도면이다.
도 12는 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법 중 적응형 색조 리맵핑(Adaptive Tone Remapping)이라는 후처리 과정을 구체적으로 나타내는 도면이다.
도 13은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법에 의한 시각적인 평가를 실시한 결과를 나타내는 도면이다.
1 is a classification diagram that summarizes the fog removal methods in patents and papers to date.
2 is a diagram illustrating a fog removal system 100 based on single-scale image fusion according to an embodiment of the present invention.
3 is a flowchart illustrating a fog removal method based on single-scale image fusion according to the present invention.
4 is a diagram illustrating an overall algorithm of a fog removal method based on single-scale image fusion according to the present invention.
5 shows the light scattering phenomenon to explain the basis of the algorithm proposed in the present invention.
6 is a diagram specifically illustrating a detailed highlighting process among the fog removal methods based on single-scale image fusion according to the present invention.
7 is a graph illustrating weights according to regional variations during a detailed emphasis process by the preprocessing module 110 in the fog removal method based on single-scale image fusion according to the present invention.
8 is a diagram specifically illustrating a gamma correction process in the fog removal method based on single-scale image fusion according to the present invention.
FIG. 9A is a diagram illustrating a detailed highlighted image, a gamma correction graph, and an under-exposure image to which gamma correction is applied for explaining the effect of the gamma correction process of FIG. 8 .
9B is a diagram illustrating a result of the single-scale image fusion process of FIG. 11 .
10 is a diagram specifically illustrating a weight calculation and normalization process for image fusion among the fog removal methods based on single-scale image fusion according to the present invention.
11 is a diagram specifically illustrating a single-scale image fusion process among the fog removal methods based on single-scale image fusion according to the present invention.
12 is a diagram specifically illustrating a post-processing process called adaptive tone remapping among the fog removal methods based on single-scale image fusion according to the present invention.
13 is a view showing the results of visual evaluation by the fog removal method based on single-scale image fusion according to the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, detailed description of preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component 'transmits' data or signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component This means that data or signals can be transmitted to other components.

도 2는 본 발명의 실시예에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100)을 나타내는 도면이다. 도 2를 참조하면, 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100)은 입력 장치부(100a), 제어 장치부(100b), 디스플레이 장치부(100c)를 포함하며, 제어 장치부(100b)는 세부 강조 방법으로 전처리하는 전처리 모듈(110), 노출부족(under-exposure) 영상을 얻기 위한 감마 보정을 수행하는 감마 보정 모듈(120), DCP(Dark Channel Prior)에 기반하여 가중치를 계산해서 정규화하는 정규화 모듈(130),가상 노출부족(under-exposure)된 영상과 해당하는 가중치를 단일 스케일 융합 방식에 따라 합치는 융합 모듈(140), 적응형 색조 리맵핑(Adaptive Tone Remapping)으로 후처리를 수행하는 후처리 모듈(150)을 포함할 수 있다. 2 is a diagram illustrating a fog removal system 100 based on single-scale image fusion according to an embodiment of the present invention. Referring to FIG. 2 , the fog removal system 100 based on single-scale image fusion includes an input device unit 100a, a control unit unit 100b, and a display unit unit 100c, and the control unit unit 100b includes: A preprocessing module 110 that pre-processes with a detailed emphasis method, a gamma correction module 120 that performs gamma correction to obtain an under-exposure image, and a method that calculates and normalizes weights based on DCP (Dark Channel Prior) Post-processing is performed with the normalization module 130, the fusion module 140 that merges the virtual under-exposure image and the corresponding weight according to a single scale fusion method, and adaptive tone remapping. It may include a post-processing module 150 to

이러한 구성에 의해 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100)은 간단한 영상처리 기술(세부 강조, 감마 보정, 단일 스케일 융합, Adaptive Tone Remapping 등)을 사용해서 상당히 적은 연산량을 유지하고, 효율적인 영상 융합과 참신한 전·후처리 단계로 인해서 좋은 안개 제거 성능을 달성함으로써, 데이터에 대한 실시간 처리 가능하며 크기가 작은 하드웨어 장치를 구현할 수 있다. With this configuration, the fog removal system 100 based on single-scale image fusion maintains a fairly small amount of computation by using simple image processing techniques (detail enhancement, gamma correction, single-scale fusion, Adaptive Tone Remapping, etc.) and efficient image fusion And by achieving good fog removal performance due to the novel pre- and post-processing steps, it is possible to implement real-time processing of data and a small hardware device.

따라서 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100)에 사용되는 알고리즘과 하드웨어 장치는 자율주행자동차, 지능형 감시 카메라 등과 같은 시스템에 활용할 수 있다.Therefore, the algorithm and hardware device used in the fog removal system 100 based on single-scale image fusion according to the present invention can be utilized in systems such as autonomous vehicles and intelligent surveillance cameras.

이하 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 시스템(100) 기반의 안개 제거 방법에 대한 구체적인 실시예에 대해서 살펴보도록 한다. 한편, 도 3은 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법을 나타내는 흐름도이다. 도 4는 본 발명에 따른 단일 스케일 영상 융합에 기반한 안개 제거 방법의 전체적인 알고리즘을 나타내는 도면이다. 도 5는 본 발명에 제안한 알고리즘의 토대를 설명하기 위해 빛의 산란 현상에 대해 나타낸 것이다.Hereinafter, a detailed embodiment of the fog removal method based on the fog removal system 100 based on single-scale image fusion according to the present invention will be described. Meanwhile, FIG. 3 is a flowchart illustrating a fog removal method based on single-scale image fusion according to the present invention. 4 is a diagram illustrating an overall algorithm of a fog removal method based on single-scale image fusion according to the present invention. 5 shows the light scattering phenomenon to explain the basis of the algorithm proposed in the present invention.

먼저 도 5를 참조하여, 안개 낀 날씨에 카메라로 획득한 영상의 가시성이 저하되는 현상에 대해서 살펴본다. 물체에 반사된 광파가 대기 입자와 산란한 후 카메라의 렌즈 구경에 들어간다. 이러한 산란이 빛의 파장에 기반을 두기 때문에 예전의 물리적인 방법의 안개 제거 기술은 렌즈 구경과 셔터 속도를 조절하였다. 왜냐하면 안개의 영향으로 밝은 물체의 강도를 증가시키기 때문에 카메라의 물리적인 개입을 통해 영상 감지기에 접촉한 광량을 제한한다. 렌즈 구경과 셔터 속도를 조절하는 조치가 전체 영상에 동일한 영향을 미치며, 렌즈 구경을 통해 빛을 제한함으로써 어두운 부분의 정보는 잃게되며 밝은 부분은 더욱 선명해진다. 따라서 이러한 조치(일명, 노출부족(under-exposure))를 여러 번으로 하고 나서 획득된 영상들을 융합(fusion)함으로써 안개 제거 효과를 달성할 수 있다. First, referring to FIG. 5 , a phenomenon in which visibility of an image acquired by a camera is reduced in foggy weather will be described. The light wave reflected by the object scatters with atmospheric particles and enters the aperture of the camera's lens. Because this scattering is based on the wavelength of light, older physical de-fog techniques have controlled the lens aperture and shutter speed. Because the effect of fog increases the intensity of bright objects, the physical intervention of the camera limits the amount of light reaching the image sensor. Adjusting the lens aperture and shutter speed has the same effect on the overall image, and by limiting the light through the lens aperture, information in dark areas is lost and bright areas become sharper. Therefore, the fog removal effect can be achieved by fusion of the obtained images after performing this measure (aka, under-exposure) several times.

본 발명에 제안한 알고리즘에서는 물리적인 조치를 취하면 안돼서, 세부 강조 및 감마 보정을 통해 노출부족(under-exposure) 방식을 이용한다. 이러한 과정은 가상 노출부족(under-exposure)이라고 한다.In the algorithm proposed in the present invention, no physical action should be taken, so an under-exposure method is used through detailed emphasis and gamma correction. This process is called virtual under-exposure.

입력 장치부(100a)에 해당하는 디지털 감지기로 획득된 RGB 영상이 제어 장치부(100b)로 주어지면 제안한 알고리즘은 단계별로 다음과 같다.When the RGB image obtained by the digital sensor corresponding to the input device 100a is given to the control device 100b, the proposed algorithm is as follows step by step.

먼저, 전처리 모듈(110)에 의한 [세부 강조] 과정이 수행되며(S100), 세부 강조 과정은 도 6과 같은 복수의 과정으로 이루어진다.First, the [detailed emphasis] process by the preprocessing module 110 is performed (S100), and the detailed emphasizing process consists of a plurality of processes as shown in FIG. 6 .

먼저, 안개를 제거하기 위해 전처리 모듈(110)은 세부 강조 알고리즘으로 전처리 과정을 진행하는데, 세부강조로 전처리 과정을 진행하는 이유는 감마 보정을 할 때 보다 더 많은 엣지 정보를 살리기 위해서 진행하는 것이다. First, in order to remove the fog, the pre-processing module 110 performs a pre-processing with a detailed emphasis algorithm. The reason for performing the pre-processing with a detailed emphasis is to preserve more edge information than when performing gamma correction.

일반적으로 렌즈 구경과 셔터 속도를 조절하는 것과 같은 물리적인 조치를 취하면 안개로 사라진 밝은 엣지(edge)를 복원할 수 있다. 하지만 참고문헌에 나와 있는 Galdran의 방법과 같이 노출부족(under-exposure)를 나타내기 위해 감마 보정을 실시한다. 감마 보정을 하게되면, 안개에 의해 살짝 왜곡됐지만 에지가 사라지지 않은 부분에 대해서는 복원이 가능하다. 따라서 본 발명에서 많이 왜곡돼도 사라지지 않은 엣지를 복원하기위해 감마 보정을 적용하기 전에 세부 강조를 전처리 단계로 실시한다. In general, taking physical measures, such as adjusting the lens aperture and shutter speed, can restore the bright edges that are lost in the fog. However, gamma correction is performed to indicate under-exposure, as in Galdran's method in the reference. If gamma correction is performed, it is possible to restore the part that is slightly distorted by the fog, but the edge does not disappear. Therefore, in the present invention, detailed emphasis is performed as a pre-processing step before applying gamma correction in order to restore an edge that does not disappear even if it is heavily distorted.

인간의 눈이 색차의 변화대신에 밝기의 변화에 더 민감하기 때문에 세부 강조를 밝기 채널에만 적용한다. 따라서 양 끝에 색 공간 변환 단계(RGB→YCbCr, YCbCr→RGB)가 필요하다. 엣지 정보를 추출하기 위해 라플라시안(Laplacian) 연산자를 사용한다. 그 다음으로 추출한 세부를 강조하기 위해 영상의 지역 변동량(local variance of image)에 따른 가중치를 생성하고, 생성한 가중치에 따라 세부 강조를 진행하며, 이하 구체적인 실시예에 대해서 살펴보도록 한다. Because the human eye is more sensitive to changes in brightness instead of changes in chrominance, we apply detail highlighting only to the brightness channel. Therefore, color space conversion steps (RGB→YCbCr, YCbCr→RGB) are required at both ends. To extract edge information, Laplacian operator is used. Next, in order to emphasize the extracted details, weights are generated according to the local variance of image, the details are emphasized according to the generated weights, and a detailed example will be described below.

세부 강조의 제 1 단계(S101)로, 전처리 모듈(110)은 하기의 수학식 2에 의해 RGB 영상에 대한 색 공간 변환(RGB → YCbCr)을 수행한다. In the first step (S101) of detail enhancement, the preprocessing module 110 performs color space conversion (RGB → YCbCr) on the RGB image according to Equation 2 below.

Figure 112020054872226-pat00002
Figure 112020054872226-pat00002

여기에서 R, G, B는 각각 Red, Green, Blue이고, Cb, Cr은 색차를 의미한다.Here, R, G, and B are Red, Green, and Blue, respectively, and Cb and Cr are color differences.

세부 강조의 제 2 단계(S102)로, 전처리 모듈(110)은 색 공간 변환의 결과물(Y)에 대해서 하기의 수학식 3과 라플라시안(Laplacian) 연산자로 세부를 추출할 수 있다. In the second step S102 of emphasizing details, the preprocessing module 110 may extract details from the result Y of the color space conversion using Equation 3 below and a Laplacian operator.

Figure 112020054872226-pat00003
Figure 112020054872226-pat00003

여기서 E는 세부추출 값을 나타낸 것이고, *는 콘볼루션 연산에 대해 나타낸 것이고 , hv=[-1, 2, -1]T, hv=[-1, 2, -1]는 각각 세로축과 수평축 라플라시안(Laplacian) 연산자이다. T는 Tranpose로 전치를 의미한다.where E represents the detailed extraction value, * represents the convolution operation, and h v =[-1, 2, -1] T , h v =[-1, 2, -1] is the vertical axis and the This is the horizontal Laplacian operator. T stands for Transpose.

세부 강조의 제 3 단계(S103)로, 전처리 모듈(110)은 하기의 수학식 4에 의해 영상의 지역 변동량에 따른 가중치를 생성할 수 있다.In the third step S103 of emphasizing details, the pre-processing module 110 may generate a weight according to the amount of regional variation of the image according to Equation 4 below.

Figure 112020054872226-pat00004
Figure 112020054872226-pat00004

여기서 v는 영상의 지역 변동량이고 y는 x위치에 중심으로 한 사각형 윈도우 속에 픽셀 위치이고

Figure 112020054872226-pat00005
는 지역의 평균 값을 구하는 연산이다. 그리고
Figure 112020054872226-pat00006
는 x를 중심으로 하는 일정 범위 안의 pixel들의 집합(local pathc)을
Figure 112020054872226-pat00007
는 밝기를 의미한다. 또한
Figure 112020054872226-pat00008
는 영상의 지역 변동량에 따른 가중치이고,
Figure 112020054872226-pat00009
는 사용자 정의 변수이다. 제안한 가중치는 piecewise linear 형태를 갖으며
Figure 112020054872226-pat00010
범위에 선형적으로 변화하는데 그 범위 밖에는 상수
Figure 112020054872226-pat00011
로 제한된다. where v is the local variation of the image and y is the pixel position in a rectangular window centered at the x position.
Figure 112020054872226-pat00005
is an operation to find the average value of a region. And
Figure 112020054872226-pat00006
is a set of pixels within a certain range centered on x (local pathc).
Figure 112020054872226-pat00007
means brightness. Also
Figure 112020054872226-pat00008
is the weight according to the local variation of the image,
Figure 112020054872226-pat00009
is a user-defined variable. The proposed weights have a piecewise linear form.
Figure 112020054872226-pat00010
It varies linearly with the range, but outside that range is a constant
Figure 112020054872226-pat00011
is limited to

도 7와 같이 세부 정보가 많이 사라진 지역에 대해 나타낸 작은 변동량에 큰 가중치를 할당해주고 세부 정보가 거의 사라지지 않은 지역에 대해 나타낸 큰 변동량에 작은 가중치를 할당해준다. 게다가 급격한 변환으로 인한 시각적인 문제를 예방하기 위해

Figure 112020054872226-pat00012
범위에 가중치를 선형적으로 감소를 시킨다.As shown in FIG. 7 , a large weight is assigned to a small amount of variation indicated for an area in which a lot of detailed information has disappeared, and a small weight is allocated to a large amount of variance indicated for an area in which detailed information has hardly disappeared. In addition, in order to prevent visual problems caused by rapid conversion,
Figure 112020054872226-pat00012
Decrease the weights linearly over the range.

세부 강조의 제 4 단계(S104)로, 전처리 모듈(110)은 하기의 수학식 5에 의해 가중치에 따른 세부 강조를 수행한다.In the fourth step ( S104 ) of detail emphasis, the preprocessing module 110 performs detailed emphasis according to the weight according to Equation 5 below.

Figure 112020054872226-pat00013
Figure 112020054872226-pat00013

여기서,

Figure 112020054872226-pat00014
는 가중치에 따른 세부강조 값,
Figure 112020054872226-pat00015
는 밝기,
Figure 112020054872226-pat00016
는 영상의 지역 변동량에 따른 가중치,
Figure 112020054872226-pat00017
는 세부추출 값을 의미한다.here,
Figure 112020054872226-pat00014
is the detailed emphasis value according to the weight,
Figure 112020054872226-pat00015
is the brightness,
Figure 112020054872226-pat00016
is the weight according to the regional variation of the image,
Figure 112020054872226-pat00017
is the detailed extraction value.

세부 강조의 제 5 단계(S105)로, 전처리 모듈(110)은 하기의 수학식 6에 의해 색 공간 변환(YCbCr → RGB)을 수행할 수 있다. In the fifth step (S105) of detail enhancement, the preprocessing module 110 may perform color space conversion (YCbCr→RGB) according to Equation 6 below.

Figure 112020054872226-pat00018
Figure 112020054872226-pat00018

여기서,

Figure 112020054872226-pat00019
는 세부강조된 R값,
Figure 112020054872226-pat00020
는 세부강조된 G값,
Figure 112020054872226-pat00021
는 세부강조된 B값,
Figure 112020054872226-pat00022
Figure 112020054872226-pat00023
는 색차를 의미한다.here,
Figure 112020054872226-pat00019
is the detailed highlighted R value,
Figure 112020054872226-pat00020
is the G-value with detailed emphasis,
Figure 112020054872226-pat00021
is the value of detailed emphasis B,
Figure 112020054872226-pat00022
Wow
Figure 112020054872226-pat00023
stands for color difference.

다음으로, 감마 보정 모듈(120)에 의한 [감마 보정] 과정(S200)에 대해서 살펴본다.Next, the [gamma correction] process ( S200 ) by the gamma correction module 120 will be described.

도 8은 가상 노출부족(under-exposure)를 위한 감마 보정 과정을 구체적으로 나타내는 도면으로, 감마 보정 모듈(120)은 단계(S100)에서 세부 강조가 된 영상을 이용하여 감마 보정(gamma correction)하여 노출부족(under-exposure) 이미지를 획득하는데, 도 9a는 세부 강조된 영상과 감마 보정 그래프 및 감마 보정을 적용한 노출부족(under-exposure) 이미지를 나타내는 도면이다. 8 is a diagram specifically illustrating a gamma correction process for virtual under-exposure. The gamma correction module 120 performs gamma correction using the image highlighted in detail in step S100. An under-exposure image is acquired, and FIG. 9A is a diagram illustrating a detailed highlighted image, a gamma correction graph, and an under-exposure image to which gamma correction is applied.

여기서, 가상 노출부족(under-exposure)된 영상의 수는 알고리즘 결과 수치에 따라 실험적으로 결정하고 나서 영상의 각각에 대해 거듭제곱 함수로 표시된 감마 보정을 실시한다. 그리고 본 발명에 제안한 알고리즘의 효율적인 하드웨어 장치를 위해서 거듭제곱 함수를 look-up table로 구현하며, 이하 구체적인 실시예에 대해서 살펴보도록 한다. Here, the number of virtual under-exposure images is experimentally determined according to an algorithm result value, and then gamma correction expressed as a power function is performed on each image. In addition, for the efficient hardware device of the algorithm proposed in the present invention, the power function is implemented as a look-up table, and a detailed embodiment will be described below.

감마 보정의 제 1 단계(S201)로, 감마 보정 모듈(120)은 가상 노출부족(under-exposure)된 영상의 수를 결정한다.In the first step of gamma correction ( S201 ), the gamma correction module 120 determines the number of virtual under-exposure images.

이 단계에서 감마 보정 모듈(120)은 감마 보정을 통해 가상 노출부족(under-exposure)된 영상을 몇 개 생성할 지 결정해야 한다. 본 발명의 경우는 결과 수치 분석을 통해 실험적으로 4개를 설정하였다. 따라서 세부 강조된 영상

Figure 112020054872226-pat00024
을 받고 네 개의 영상
Figure 112020054872226-pat00025
을 생성한다.In this step, the gamma correction module 120 must determine how many virtual under-exposure images to generate through gamma correction. In the case of the present invention, four were experimentally set through numerical analysis of the results. Therefore, the detailed highlighted image
Figure 112020054872226-pat00024
getting four images
Figure 112020054872226-pat00025
create

감마 보정의 제 2 단계(S202)로, 감마 보정 모듈(120)은 하기의 수학식 7을 활용해서 대조 테이블(look-up table)로 감마 보정을 수행한다. In the second step of gamma correction ( S202 ), the gamma correction module 120 performs gamma correction using a look-up table using Equation 7 below.

Figure 112020054872226-pat00026
Figure 112020054872226-pat00026

여기에서

Figure 112020054872226-pat00027
는 감마,
Figure 112020054872226-pat00028
는 개수를 의미한다.From here
Figure 112020054872226-pat00027
is gamma,
Figure 112020054872226-pat00028
means the number.

지수의 하드웨어 구현과 관해서 여러 방법이 있는데 테일러 급수(Taylor series)나 대조 테이블(look-up table) 등이 이에 속한다. 전자의 경우는 지연속도(latency)가 좀 크지만 감마 변수를 조정할 수 있다. 후자의 경우는 지연속도(latency)가 하나의 클록 사이클(clock cycle)만 소요하지만 감마 변수를 조절할 수 있게끔 구현하게 되면 하드웨어 수요가 높아지다. 본 발명에서 여러 영상 데이터 세트와 실험을 많이 함으로써 감마 변수를 미리 설정해서 대조 테이블(look-up table)로 구현 방법을 선택한다. 위 감마 보정 수식을 미리 계산하고 나서 표로 저장한다. 그 다음으로 입력 데이터

Figure 112020054872226-pat00029
를 주소로 사용하여 원하는 출력 데이터(
Figure 112020054872226-pat00030
)를 얻는다.There are several methods for hardware implementation of exponents, such as the Taylor series or look-up table. In the former case, the latency is rather large, but the gamma variable can be adjusted. In the latter case, the latency takes only one clock cycle, but if it is implemented so that the gamma variable can be adjusted, the demand for hardware increases. In the present invention, a gamma variable is set in advance by conducting a lot of experiments with several image data sets and an implementation method is selected using a look-up table. Calculate the above gamma correction formula in advance and save it as a table. then input data
Figure 112020054872226-pat00029
to the desired output data (
Figure 112020054872226-pat00030
) to get

다음으로, 정규화 모듈(130)에 의한 [가중치 생성 및 정규화]에 대해서 살펴본다. 도 10은 영상 융합을 위한 가중치 계산 및 정규화 과정을 나타내는 도면이다.Next, [weight generation and normalization] by the normalization module 130 will be described. 10 is a diagram illustrating a weight calculation and normalization process for image fusion.

도 10을 참조하면, 영상 융합을 통한 안개 제거 방법은 가상 노출부족(under-exposure)된 영상들의 선명한 지역(안개가 없는 부분)을 융합함으로써 선명한 영상의 하나를 만든 것이다. Referring to FIG. 10 , the fog removal method through image fusion creates one clear image by fusing clear areas (parts without fog) of virtual under-exposure images.

이 때문에 선명한 지역을 나타내기 위해 안개를 정확하게 보여주는 DCP(Dark Channel Prior)라는 지표를 사용한다. 안개가 적을수록 DCP 값이 작으며 융합을 위한 가중치로 활용하기 위해서 계산된 DCP를 반전 변환(negative transform)시킨다. 따라서 안개가 적을수록 가중치가 크다. 마지막으로 영상 융합 시 발생할 수 있는 아웃 오브 레인지(out of range) 문제를 예방하기 위해 가중치를 정규화해야 하며, 이하에서는 구체적인 실시예에 대해서 살펴보도록 한다. For this reason, an indicator called Dark Channel Prior (DCP) that accurately shows fog is used to indicate a clear area. The smaller the fog, the smaller the DCP value, and the calculated DCP is negatively transformed to be used as a weight for fusion. Therefore, the smaller the fog, the greater the weight. Finally, in order to prevent an out-of-range problem that may occur during image fusion, the weights should be normalized, and a detailed embodiment will be described below.

가중치 생성 및 정규화의 제 1 단계로, 정규화 모듈(130)은 하기의 수학식 8을 활용하여 DCP(Dark Channel Prior) 계산 및 반전을 수행한다.As a first step of weight generation and normalization, the normalization module 130 performs Dark Channel Prior (DCP) calculation and inversion by using Equation 8 below.

Figure 112020054872226-pat00031
Figure 112020054872226-pat00031

여기서

Figure 112020054872226-pat00032
는 영상
Figure 112020054872226-pat00033
의 dark channel이다. 중괄호 안의 min 연산은 색 채널(R,G,B)의 세 개의 최솟값을 구하는 연산이고 중괄호 밖의 min 연산은 필터링 윈도우의 최솟값을 구하는 연산이고,
Figure 112020054872226-pat00034
는 x를 중심으로 하는 일정 범위 안의 pixel들의 집합(local pathc)를 의미한다. here
Figure 112020054872226-pat00032
the video
Figure 112020054872226-pat00033
is the dark channel of The min operation inside the braces is an operation to find the minimum of three color channels (R, G, B), and the min operation outside the braces is an operation to find the minimum value of the filtering window,
Figure 112020054872226-pat00034
denotes a set of pixels within a certain range centered on x (local pathc).

그 다음으로

Figure 112020054872226-pat00035
를 반전시킨다. 예를 들어, 정규화된 데이터를 사용하는 경우는 1에서
Figure 112020054872226-pat00036
를 빼면 되고 일반적으로 [0, 255] 8bit 데이터 범위를 사용하는 경우는 255에서
Figure 112020054872226-pat00037
를 빼면 된다.
Figure 112020054872226-pat00038
는 DCP에 기반을 둔 가중치를 의미한다.next
Figure 112020054872226-pat00035
invert the For example, when using normalized data, from 1 to
Figure 112020054872226-pat00036
In general, [0, 255] is 255 when using an 8-bit data range.
Figure 112020054872226-pat00037
can be subtracted from
Figure 112020054872226-pat00038
is a weight based on DCP.

가중치 생성 및 정규화의 제 2 단계로, 정규화 모듈(130)은 하기의 수학식 9에 따라 가중치 정규화를 수행한다.As a second step of weight generation and normalization, the normalization module 130 performs weight normalization according to Equation 9 below.

Figure 112020054872226-pat00039
Figure 112020054872226-pat00039

여기서

Figure 112020054872226-pat00040
는 가중치 정규화를 의미한다.here
Figure 112020054872226-pat00040
stands for weight normalization.

네 개의 가상 노출부족(under-exposure)된 영상을 융합하다 보면 아웃 오브 레인지(out of range)가 발생할 수 있다. 그러므로 위 수식에 따라 가중치를 정규화하면 그런 문제를 예방할 수 있다.An out of range can occur when merging four virtual under-exposure images. Therefore, such a problem can be prevented by normalizing the weights according to the above formula.

융합 모듈(140)은 [단일 스케일 영상 융합]을 수행한다. 도 11은 안개 제거 효과를 달성하기 위한 단일 스케일 영상 융합 과정을 나타내는 도면이다.The fusion module 140 performs [single-scale image fusion]. 11 is a diagram illustrating a single-scale image fusion process for achieving a fog removal effect.

도 11을 참조하면, 다른 영상 융합에 기반을 둔 안개 제거 알고리즘의 대다수는 라플라시안 피라미드(Laplacian pyramid)라는 다중 스케일 방식으로 한 것이다. 이러한 융합 방법은 영상 화질에 좋은 영향을 미칠 수 있지만 메모리 수요가 높다. 왜냐하면 영상을 down-scale이나 up-scale를 할 때마다 프레임 버퍼 메모리가 필요하기 때문이다. 그러므로 본 발명에 제안한 알고리즘은 단일 스케일 융합 제도만 사용하며 화질 향상을 위해서 적응형 색조 리맵핑(Adaptive Tone Remapping)이라는 후처리를 적용한다. 단일 스케일 영상 융합은 단지 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)이다. 가상 노출부족(under-exposure)된 영상이 4개면 해당하는 가중치도 4개이며, 이하 구체적인 실시예에 대해서 살펴보도록 한다. Referring to FIG. 11 , most of the fog removal algorithms based on other image fusion are multi-scale methods called Laplacian pyramids. This fusion method can have a good effect on the image quality, but the memory demand is high. This is because frame buffer memory is required whenever an image is down-scaled or up-scaled. Therefore, the algorithm proposed in the present invention uses only a single-scale fusion scheme and applies post-processing called adaptive tone remapping to improve image quality. A single scale image fusion is just a weighted sum of the virtual under-exposure image and its weights. If there are four virtual under-exposure images, the corresponding weights are also four, and a detailed embodiment will be described below.

융합 모듈(140)은 하기의 수학식 10에 따라 [단일 스케일 영상 융합]을 수행한다. The fusion module 140 performs [single-scale image fusion] according to Equation 10 below.

Figure 112020054872226-pat00041
Figure 112020054872226-pat00041

여기에서

Figure 112020054872226-pat00042
는 단일 스케일 영상 융합을 통한 안개 제거된 영상,
Figure 112020054872226-pat00043
는 가중치 정규화,
Figure 112020054872226-pat00044
는 세부 강조된 under-exposure 영상을 의미한다. From here
Figure 112020054872226-pat00042
is the de-fog image through single-scale image fusion,
Figure 112020054872226-pat00043
is weight normalized,
Figure 112020054872226-pat00044
is a detailed under-exposure image.

단일 스케일 영상 융합은 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합이다. 여기서 J는 안개 제거된 영상이다.Single-scale image fusion is a weighted sum of a virtual under-exposure image and its weights. Here, J is the de-fog image.

한편, 도 9b는 단일 스케일 영상 융합 과정을 거친 영상이다. 안개는 제거됐지만 전체적으로 어두운 것을 확인할 수 있다. 이에 따라, 마지막으로 후처리 모듈(150)에 의해 기존에 개발된 적응형 색조 리맵핑(Adaptive Tone Remapping) 알고리즘을 이용하여 어두운 영상의 가시성을 향상 시켜주는 것이다. Meanwhile, FIG. 9B is an image that has undergone a single-scale image fusion process. The fog has been removed, but the overall darkness can be seen. Accordingly, finally, the visibility of the dark image is improved by using the adaptive tone remapping algorithm previously developed by the post-processing module 150 .

후처리 모듈(150)은 적응형 색조 리맵핑(Adaptive Tone Remapping)으로 [후처리]를 수행한다(S500).The post-processing module 150 performs [post-processing] by adaptive tone remapping (S500).

도 12는 적응형 색조 리맵핑(Adaptive Tone Remapping)이라는 후처리 과정을 나타내는 도면이다. 도 12를 참조하면, 가상 노출부족(under-exposure)된 영상들을 융합하여 안개를 제거하기 때문에 출력 영상은 어두워진다. 또한 영상 융합을 위한 가중치는 DCP 방법에 기반을 두기 때문에 DCP 단점인 안개 제거 시 하늘 지역이 어두워지는 단점이 있다. 이러한 문제점을 보완하기 위해 후처리를 적용한다. 적응형 색조 리맵핑(Adaptive Tone Remapping) 방법이 밝기 채널을 개선하고 나서 개선된 정도에 따라 색차 채널을 강조하며, 구체적인 실시예에 대해서 살펴보도록 한다. 12 is a diagram illustrating a post-processing process called adaptive tone remapping. Referring to FIG. 12 , the output image is darkened because fog is removed by fusing virtual under-exposure images. In addition, since the weights for image fusion are based on the DCP method, there is a disadvantage in that the sky area becomes dark when fog is removed, which is a disadvantage of DCP. To compensate for these problems, post-processing is applied. After the adaptive tone remapping method improves the brightness channel, the chrominance channel is emphasized according to the degree of improvement, and a specific embodiment will be described.

후처리의 제 1 단계(S501)로, 후처리 모듈(150)은 색 공간 변환(RGB → YCbCr)을 수행한다.As a first step (S501) of the post-processing, the post-processing module 150 performs color space conversion (RGB → YCbCr).

보다 구체적으로, 후처리 모듈(150)은 색 공간을 변환하기 위해서 세부 강조 부분에서 소개했던 수식을 사용하면 된다. 그런데 여기서 후처리 모듈(150)은 표준 YCbCr 4:4:4대신에 YCbCr 4:2:2를 사용한다. 그래서 후처리 모듈(150)은 색 공간을 변환한 후 밝기 채널(L)과 색차 채널(Chrominance channel)(C)을 얻는다.More specifically, the post-processing module 150 may use the formula introduced in the detailed emphasis part to convert the color space. However, here the post-processing module 150 uses YCbCr 4:2:2 instead of the standard YCbCr 4:4:4. Therefore, the post-processing module 150 obtains a brightness channel (L) and a chrominance channel (C) after converting the color space.

후처리의 제 2 단계(S502)로, 후처리 모듈(150)은 하기의 수학식 11에 따라 밝기 채널에 화질 개선을 수행한다.In the second step (S502) of the post-processing, the post-processing module 150 performs image quality improvement on the brightness channel according to Equation 11 below.

Figure 112020054872226-pat00045
Figure 112020054872226-pat00045

여기서 EL는 개선된 밝기이고,

Figure 112020054872226-pat00046
은 밝기 채널이고,
Figure 112020054872226-pat00047
는 밝기 계수이고
Figure 112020054872226-pat00048
는 적응적인 밝기 가중치이다. 입력 밝기의 히스크램을 사용하여 CDF(cumulative distribution function)를 계산한 후 ALP(adaptive limit point)를 구한다.
Figure 112020054872226-pat00049
는 ALP에 따른 비선형 거듭제곱 함수이고
Figure 112020054872226-pat00050
는 간단한 선형 함수이다.where EL is the improved brightness,
Figure 112020054872226-pat00046
is the brightness channel,
Figure 112020054872226-pat00047
is the brightness coefficient
Figure 112020054872226-pat00048
is the adaptive brightness weight. After calculating the cumulative distribution function (CDF) using the histogram of the input brightness, the adaptive limit point (ALP) is obtained.
Figure 112020054872226-pat00049
is a nonlinear power function according to ALP and
Figure 112020054872226-pat00050
is a simple linear function.

후처리의 제 3 단계(S503)로, 후처리 모듈(150)은 하기의 수학식 12에 따라 밝기 채널의 향상에 따른 색차 강조를 수행한다.In the third step ( S503 ) of the post-processing, the post-processing module 150 performs color difference enhancement according to the improvement of the brightness channel according to Equation 12 below.

Figure 112020054872226-pat00051
Figure 112020054872226-pat00051

여기서 EC는 강조된 색차이고,

Figure 112020054872226-pat00052
는 색차 채널이고,
Figure 112020054872226-pat00053
는 색차 계수이고
Figure 112020054872226-pat00054
는 적응적인 색차 가중치이다.
Figure 112020054872226-pat00055
를 입력 색차(C)와 밝기 향상 정도
Figure 112020054872226-pat00056
의 곱으로 정의하였다.
Figure 112020054872226-pat00057
는 세부 강조 부분에서 소개한 가중치와 비슷하게 piecewise linear 함수로 설계하였다.where EC is the accentuated color difference,
Figure 112020054872226-pat00052
is the color difference channel,
Figure 112020054872226-pat00053
is the chrominance coefficient
Figure 112020054872226-pat00054
is the adaptive color difference weight.
Figure 112020054872226-pat00055
Enter the color difference (C) and the degree of brightness enhancement
Figure 112020054872226-pat00056
It is defined as the product of
Figure 112020054872226-pat00057
is designed as a piecewise linear function similar to the weights introduced in the detailed emphasis section.

후처리의 제 4 단계(S504)로, 후처리 모듈(150)은 색 공간 변환(YCbCr → RGB)을 수행한다. 즉, 후처리 모듈(150)은 디스플레이 장치에 출력하기 위해서 RGB 색 공간으로 바꾸는 것이다.As a fourth step (S504) of the post-processing, the post-processing module 150 performs color space conversion (YCbCr → RGB). That is, the post-processing module 150 converts the RGB color space to output to the display device.

상술한 제안한 알고리즘의 우수한 성능을 검증하기 위해 다른 알고리즘과 비교한다. 비교 목적으로 사용한 안개 제거 방법은 미국특허등록된 He et al.의 방법, 참고문헌에서 나와 있는 Zhu et al., Galdran가 제안한 방법이다. 여기서 시각적인 평가를 실시한 결과는 도 13과 같다.In order to verify the superior performance of the proposed algorithm, it is compared with other algorithms. The fog removal method used for comparative purposes is the method of He et al. registered in the US patent, and the method proposed by Zhu et al. and Galdran mentioned in References. Here, the result of the visual evaluation is shown in FIG. 13 .

제안하는 알고리즘을 평가하기 위해 안개제거의 대표적인 논문은 He의 DCP 방법과 Zhu의 CAP 방법으로 비교하였다. DCP 결과에서는 대기강도를 잘못 추정하여 안개 제거 시 하늘 부분의 색 왜곡이 일어나거나 영상이 어두워 지는 것을 확인할 수 있다(빨간색 네모박스). 그리고 Zhu 방법에서는 영상 복원 관점의 안개제거로서 물리적인 안개제거 수식에서 전달량을 과도하게 추정하여 안개 제거 시 산의 암벽 부분에서 색 왜곡이 일어나는 것을 확인할 수 있다(파란색 네모박스). 반면에 제안하는 방법에서는 하늘 부분과 암벽 부분에서 색 왜곡없이 효과적으로 안개가 제거된 영상을 확인할 수 있다.In order to evaluate the proposed algorithm, representative papers on fog removal were compared with He's DCP method and Zhu's CAP method. In the DCP result, it can be confirmed that the color of the sky part is distorted or the image becomes dark when the fog is removed because the atmospheric intensity is incorrectly estimated (red square box). In addition, in the Zhu method, it can be confirmed that color distortion occurs in the rocky part of the mountain when the fog is removed by overestimating the amount of transmission in the physical fog removal formula as the fog removal from the viewpoint of image restoration (blue square box). On the other hand, in the proposed method, it is possible to check the image in which the fog is effectively removed without color distortion in the sky part and the rock part part.

한편, 제안한 알고리즘의 하드웨어 장치를 구현하기 위해 Verilog 언어(IEEE Standard 1364-2005)를 사용한다. 하드웨어 합성 결과는 하기의 표 1과 같다.Meanwhile, Verilog language (IEEE Standard 1364-2005) is used to implement the hardware device of the proposed algorithm. The hardware synthesis results are shown in Table 1 below.

Xilinx Design AnalyzerXilinx Design Analyzer DeviceDevice xc7z045 - 2ffg900xc7z045 - 2ffg900 DesignDesign -- Proposed AlgorithmProposed Algorithm Slice Logic UtilizationSlice Logic Utilization AvailableAvailable UsedUsed UtilizationUtilization Slice Registers (#)Slice Registers (#) 437,200437,200 30,70530,705 7%7% Slice LUTs (#)Slice LUTs (#) 218,600218,600 35,95035,950 16%16% RAM36E1s / FIFO36E1sRAM36E1s / FIFO36E1s 545545 4848 8%8% Minimum Period (ns)Minimum Period (ns) -- 3,9923,992 Maximum Frequency (MHz)Maximum Frequency (MHz) -- 250,501250,501

하드웨어 설계 검증은 Xilinx 사의 xc7z045 - 2ffg900보드를 이용했으며, slice resister와 sline LUT는 각각 7%, 16% 사용하였다. 그리고 최대 동작 주파수는 250.501MHz를 달성하였다.For hardware design verification, Xilinx's xc7z045 - 2ffg900 board was used, and 7% and 16% of slice resistor and sline LUT were used, respectively. And the maximum operating frequency achieved 250.501MHz.

설계한 하드웨어의 장점을 보여주기 위해서 다른 안개 제거 하드웨어와 비교한다. Park et al.가 He et al.의 안개 제거 방법을 구현하였고 대기 강도 추정의 연산량을 줄이기 위해 이러한 과정을 개선하였다. 그리고 국내특허등록된 안개 제거 알고리즘의 하드웨어 구현도 고려한다. 밑표를 참조하여 본 발명에 도입한 하드웨어 장치가 더 작은 하드웨어 자원 수요를 보일 수 있을 뿐만 아니라 더 빠른 처리 속도도 보일 수 있다.Compare with other fog removal hardware to show the advantages of the designed hardware. Park et al. implemented the fog removal method of He et al. and improved this process to reduce the computational amount of atmospheric intensity estimation. In addition, the hardware implementation of the domestic patented fog removal algorithm is also considered. Referring to the table below, the hardware device introduced in the present invention may exhibit a smaller hardware resource demand as well as a faster processing speed.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and is also implemented in the form of a carrier wave (eg, transmission through the Internet). also includes

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and help the understanding of the present invention. , it is not intended to limit the scope of the present invention. It is apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

100 : 단일 스케일 영상 융합에 기반한 안개 제거 시스템
100a : 입력 장치부
100b : 제어 장치부
100c : 디스플레이 장치부
110 : 전처리 모듈
120 : 감마 보정 모듈
130 : 정규화 모듈
140 : 융합 모듈
150 : 후처리 모듈
100: Fog removal system based on single-scale image fusion
100a: input device unit
100b: control unit
100c: display device unit
110: preprocessing module
120: gamma correction module
130: regularization module
140: fusion module
150: post-processing module

Claims (7)

감마 보정의 수행시 엣지 정보를 살리기 위해 세부 강조 알고리즘으로 영상을 전처리하되, 안개로 인한 왜곡된 에지를 복원하기 위해 밝기 채널에만 세부 강조를 실시하기 위해 RGB → YCbCr 색 공간을 변환하는 단계, 라플라시안(Laplacian) 연산자로 세부를 추출하는 단계, 영상의 지역 변동량에 따른 가중치를 생성하는 단계, 가중치에 따라 세부를 강조하는 단계, YCbCr → RGB 색 공간을 변환하는 단계를 포함하는 전처리 단계;
가상 노출부족(under-exposure)된 영상을 생성하되, 가상 노출부족(under-exposure)된 영상의 몇 개를 생성할 지 결정하고 생성한 영상들의 각각에 대하여, 세부 강조가 된 영상을 이용하여 감마 보정(gamma correction)을 수행하여 노출부족(under-exposure) 영상을 얻기 위한 감마 보정 단계;
안개를 나타내는 DCP(Dark Channel Prior) 지표는 안개 분포와 반비례 관계이므로 계산된 DCP를 반전 변환(negative transform)하여 가중치를 생성하고, 영상 융합 시 발생할 수 있는 아웃 오브 레인지(out of range) 문제를 예방하기 위해 가중치를 계산하여 정규화를 수행하는 정규화 단계;
가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하되, 가상 노출부족(under-exposure)된 영상들의 선명한 지역을 합쳐져서 안개 제거된 영상의 하나를 생성하며, 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하는 단일 스케일 영상 융합 단계; 및,
융합된 영상에 대해서 적응형 색조 리맵핑(Adaptive Tone Remapping) 방식으로 밝기 채널을 개선한 다음 개선된 정도에 따라 색차 채널을 강조하되, 가상 노출부족(under-exposure)된 영상과 DCP(Dark Channel Prior)를 기반으로 융합한 영상은 어두워지므로, 안개 제거된 영상의 화질을 개선하기 위해, RGB → YCbCr 색 공간을 변환하고 밝기 채널과 색차 채널을 획득하며, 밝기 채널에 화질 개선을 실시한 후 개선된 비율에 따라 색차를 강조하고, 마지막으로 디스플레이 장치에 출력하기 위해 YCbCr → RGB 색 공간을 변환하는 후처리 단계;
를 포함하는 것을 특징으로 하는 단일 스케일 영상 융합에 기반한 안개 제거 방법.
When performing gamma correction, the image is pre-processed with a detailed enhancement algorithm to preserve edge information, but converting RGB → YCbCr color space to perform detailed enhancement only on the brightness channel to restore the distorted edges due to fog, Laplacian ( Laplacian) operator, generating a weight according to the local variation of the image, emphasizing the detail according to the weight, and a preprocessing step including converting YCbCr → RGB color space;
Create a virtual under-exposure image, determine how many virtual under-exposure images to generate, and, for each of the created images, use a detailed-emphasized image a gamma correction step for obtaining an under-exposure image by performing gamma correction;
Since the DCP (Dark Channel Prior) indicator representing fog is inversely proportional to the fog distribution, the calculated DCP is negatively transformed to generate weights, and out-of-range problems that may occur during image fusion are prevented. a normalization step of performing normalization by calculating the weights;
A weighted sum of the virtual under-exposure image and the corresponding weight is performed, but the clear area of the virtual under-exposure image is combined to generate one of the de-fog images, a single-scale image fusion step of performing a weighted sum of a virtual under-exposure image and a corresponding weight; and;
For the fused image, the brightness channel is improved by the adaptive tone remapping method, and the color difference channel is emphasized according to the degree of improvement, but the virtual under-exposure image and the DCP (Dark Channel Priority) ) the so the image is dark, the fusion based, an improved rate to improve the picture quality of the removed fog image, converts the RGB → YCbCr color space to obtain the brightness of a channel and a chrominance channel, and then subjected to image quality improvement in the brightness of a channel a post-processing step of emphasizing the color difference according to YCbCr → RGB color space for output to a display device;
A method of removing fog based on single-scale image fusion, comprising:
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 감마 보정를 위한 엣지 정보를 살리기 위해 세부 강조 알고리즘으로 영상을 전처리하되, RGB → YCbCr 색 공간을 변환하고, 라플라시안(Laplacian) 연산자로 세부를 추출하며, 영상의 지역 변동량에 따른 가중치를 생성하여 가중치에 따라 세부를 강조하고, YCbCr → RGB 색 공간을 변환하여 전처리를 수행하는 전처리 모듈(110);
가상 노출부족(under-exposure)된 영상을 생성하되, 가상 노출부족(under-exposure)된 영상의 몇 개를 생성할 지 결정하고 생성한 영상들의 각각에 대하여, 세부 강조가 된 영상을 이용하여 노출부족(under-exposure) 영상을 얻기 위한 감마 보정을 수행하는 감마 보정 모듈(120);
안개를 나타내는 DCP(Dark Channel Prior) 지표는 안개 분포와 반비례 관계이므로 계산된 DCP를 반전 변환(negative transform)하여 가중치를 생성하고, 영상 융합 시 발생할 수 있는 아웃 오브 레인지(out of range) 문제를 예방하기 위해 가중치를 계산하여 정규화를 수행하는 정규화 모듈(130);
가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하되, 가상 노출부족(under-exposure)된 영상들의 선명한 지역을 합쳐져서 안개 제거된 영상의 하나를 생성하며, 가상 노출부족(under-exposure)된 영상과 해당하는 가중치의 가중합(weighted sum)을 수행하는 단일 스케일 영상 융합 모듈(140); 및
융합된 영상에 대해서 적응형 색조 리맵핑(Adaptive Tone Remapping) 방식으로 밝기 채널을 개선한 다음 개선된 정도에 따라 색차 채널을 강조하되, 안개 제거된 영상의 화질을 개선하기 위해, RGB → YCbCr 색 공간을 변환하고 밝기 채널과 색차 채널을 획득하며, 밝기 채널에 화질 개선을 실시한 후 개선된 비율에 따라 색차를 강조하고, 마지막으로 디스플레이 장치에 출력하기 위해 YCbCr → RGB 색 공간을 변환하는 후처리 과정을 수행하는 후처리 모듈(150);
을 포함하는 것을 특징으로 하는 단일 스케일 영상 융합에 기반한 안개 제거 시스템.
Preprocess the image with a detailed enhancement algorithm to save edge information for gamma correction, convert the RGB → YCbCr color space, extract details with the Laplacian operator, and create a weight according to the local variation of the image according to the weight a pre-processing module 110 that emphasizes details and performs pre-processing by converting YCbCr → RGB color space;
Create a virtual under-exposure image, determine how many virtual under-exposure images to generate, and expose each of the created images using an image with detailed emphasis a gamma correction module 120 that performs gamma correction to obtain an under-exposure image;
Since the DCP (Dark Channel Prior) indicator representing fog is inversely proportional to the fog distribution, the calculated DCP is negatively transformed to generate weights, and out-of-range problems that may occur during image fusion are prevented. a normalization module 130 for performing normalization by calculating the weights;
A weighted sum of the virtual under-exposure image and the corresponding weight is performed, but the clear area of the virtual under-exposure image is combined to generate one of the de-fog images, a single-scale image fusion module 140 for performing a weighted sum of a virtual under-exposure image and a corresponding weight; and
For the fused image, the brightness channel is improved by the adaptive tone remapping method, and the color difference channel is emphasized according to the degree of improvement, but in order to improve the image quality of the de-fogged image, RGB → YCbCr color space , obtain a brightness channel and a chrominance channel, improve the image quality on the brightness channel, emphasize the color difference according to the improved ratio, and finally perform a post-processing process of converting YCbCr → RGB color space for output to a display device. Post-processing module 150 to perform;
A fog removal system based on single-scale image fusion, comprising a.
KR1020200065052A 2020-05-29 2020-05-29 Method and system for image dehazing using single scale image fusion KR102261532B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200065052A KR102261532B1 (en) 2020-05-29 2020-05-29 Method and system for image dehazing using single scale image fusion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200065052A KR102261532B1 (en) 2020-05-29 2020-05-29 Method and system for image dehazing using single scale image fusion

Publications (1)

Publication Number Publication Date
KR102261532B1 true KR102261532B1 (en) 2021-06-04

Family

ID=76391972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200065052A KR102261532B1 (en) 2020-05-29 2020-05-29 Method and system for image dehazing using single scale image fusion

Country Status (1)

Country Link
KR (1) KR102261532B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439145B1 (en) * 2021-06-03 2022-09-01 동아대학교 산학협력단 Method and system for Auto image dehazing using single scale image fusion
KR102483159B1 (en) * 2021-09-09 2022-12-29 동아대학교 산학협력단 Method and system for auto image dehazing using machine learning
WO2023284528A1 (en) * 2021-07-13 2023-01-19 深圳市洲明科技股份有限公司 Image enhancement method and apparatus, computer device, and storage medium
CN116542969A (en) * 2023-06-30 2023-08-04 青岛西海岸城市建设集团有限公司 Road asphalt adhesion detection method based on vision technology
KR20230123735A (en) 2022-02-17 2023-08-24 동아대학교 산학협력단 Machine learning-based single image haze removal system using detail enhancement, and method thereof
KR20230144838A (en) 2022-04-08 2023-10-17 한화오션 주식회사 A method of removing haze from a single image using a white channel prior
KR102603322B1 (en) * 2022-07-14 2023-11-15 동아대학교 산학협력단 Local dehazing system and local dehazing method using Haze Density Estimation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101997866B1 (en) 2017-12-18 2019-07-08 동아대학교 산학협력단 Method for Removing a Haze in a Single Image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101997866B1 (en) 2017-12-18 2019-07-08 동아대학교 산학협력단 Method for Removing a Haze in a Single Image

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
A.Galdran, "Image dehazing by artificial multiple-exposure image fusion", Signal Processing, Volume 149, Pages 135-147, 31 August 2018(2018.08.31.) 1부.* *
Adrian Galdran, "Image dehazing by artificial multiple-exposure image fusion", Signal Processing (2018), Vol. 149, pp. 135-147
Dat Ngo, Bongsoon Kang, "Image Detail Enhancement via Constant-Time Unsharp Masking", 2019 IEEE 21st Electronics Packaging Technology Conference (EPTC), 4 Dec. 2019(2019.12.04.) 1부.* *
Hosang Cho, et al, "Color Image Enhancement Based on Adaptive Nonlinear Curves of Luminance Features", JOURNAL OF SEMICONDUCTOR TECHNOLOGY AND SCIENCE 15(1), 60-67(8 pages) Feb. 2015(2015.02.28.) 1부.* *
Qingsong Zhu, Jiaming Mai, Ling Shao, "A Fast Single Image Haze Removal Algorithm Using Color Attenuation Prior", IEEE Transactions on Image Processing (2015), Vol. 24, pp. 3522-3533
Quoc Hieu Nguyen, Bongsoon Kang, "Single-image Dehazing using Exposure Fusion", 대한전자공학회 학술대회, 420-421(2 pages), 30 Nov. 2019(2019.11.30.) 1부.* *
미국 등록특허공보 제8340461호(2012.12.25.) "Single Image Haze Removal Using Dark Channel Priors"

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439145B1 (en) * 2021-06-03 2022-09-01 동아대학교 산학협력단 Method and system for Auto image dehazing using single scale image fusion
WO2023284528A1 (en) * 2021-07-13 2023-01-19 深圳市洲明科技股份有限公司 Image enhancement method and apparatus, computer device, and storage medium
KR102483159B1 (en) * 2021-09-09 2022-12-29 동아대학교 산학협력단 Method and system for auto image dehazing using machine learning
KR20230123735A (en) 2022-02-17 2023-08-24 동아대학교 산학협력단 Machine learning-based single image haze removal system using detail enhancement, and method thereof
KR20230144838A (en) 2022-04-08 2023-10-17 한화오션 주식회사 A method of removing haze from a single image using a white channel prior
KR102603322B1 (en) * 2022-07-14 2023-11-15 동아대학교 산학협력단 Local dehazing system and local dehazing method using Haze Density Estimation
CN116542969A (en) * 2023-06-30 2023-08-04 青岛西海岸城市建设集团有限公司 Road asphalt adhesion detection method based on vision technology
CN116542969B (en) * 2023-06-30 2023-09-08 青岛西海岸城市建设集团有限公司 Road asphalt adhesion detection method based on vision technology

Similar Documents

Publication Publication Date Title
KR102261532B1 (en) Method and system for image dehazing using single scale image fusion
US11127122B2 (en) Image enhancement method and system
Wang et al. Single image dehazing based on the physical model and MSRCR algorithm
KR101756173B1 (en) Image dehazing system by modifying the lower-bound of transmission rate and method therefor
Gao et al. Sand-dust image restoration based on reversing the blue channel prior
CN107424133B (en) Image defogging method and device, computer storage medium and mobile terminal
TWI808406B (en) Image dehazing method and image dehazing apparatus using the same
CN112419181B (en) Method for enhancing detail of wide dynamic infrared image
Park et al. Single image haze removal with WLS-based edge-preserving smoothing filter
CN109389569B (en) Monitoring video real-time defogging method based on improved DehazeNet
CN105447825A (en) Image defogging method and system
CN113222877A (en) Infrared and visible light image fusion method and application thereof in airborne photoelectric video
Kumari et al. Fast and efficient visibility restoration technique for single image dehazing and defogging
Liang et al. Learning to remove sandstorm for image enhancement
Tan et al. Image haze removal based on superpixels and Markov random field
CN112825189B (en) Image defogging method and related equipment
Wen et al. A survey of image dehazing algorithm based on retinex theory
CN110852971B (en) Video defogging method based on dark channel prior and Retinex and storage medium
Raigonda et al. Haze Removal Of Underwater Images Using Fusion Technique
Hong et al. Single image dehazing based on pixel-wise transmission estimation with estimated radiance patches
KR102439145B1 (en) Method and system for Auto image dehazing using single scale image fusion
Thanh et al. Single image dehazing with optimal color channels and nonlinear transformation
Alluhaidan et al. Retinex-based framework for visibility enhancement during inclement weather with tracking and estimating distance of vehicles
BV et al. Image De-hazing techniques for Vision based applications-A survey
Xu Novel Image Dehazing Algorithm Using Scene Segmentation and Open Channel Model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant