KR20100021952A - Image enhancement processing method and apparatus for distortion correction by air particle like fog - Google Patents
Image enhancement processing method and apparatus for distortion correction by air particle like fog Download PDFInfo
- Publication number
- KR20100021952A KR20100021952A KR1020080111875A KR20080111875A KR20100021952A KR 20100021952 A KR20100021952 A KR 20100021952A KR 1020080111875 A KR1020080111875 A KR 1020080111875A KR 20080111875 A KR20080111875 A KR 20080111875A KR 20100021952 A KR20100021952 A KR 20100021952A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- luminance image
- scattering light
- luminance
- brightness
- Prior art date
Links
- 239000002245 particle Substances 0.000 title abstract description 11
- 238000003672 processing method Methods 0.000 title abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 29
- 238000012805 post-processing Methods 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 75
- 239000003595 mist Substances 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000149 argon plasma sintering Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 description 19
- 230000003044 adaptive effect Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 4
- 101000860173 Myxococcus xanthus C-factor Proteins 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 125000001475 halogen functional group Chemical group 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상 처리에 관한 것으로, 더 상세하게는 안개 환경에서의 안개로 인한 왜곡을 보정하여 영상의 화질을 개선하는 영상 처리 방법 및 장치에 관한 것이다. BACKGROUND OF THE
안개란 대기 중의 수증기의 응결된 형태의 물방울이 떠있는 현상이다. 보통 안개가 끼었을 때 가시거리가 1km 미만의 시정 장애 현상이 나타난다. 안개가 끼었을 때 대기 중에 물방울 입자들이 생기게 되고 이 물방울 입자들로 인한 빛의 산란 현상이 발생한다. 빛의 산란이란 빛이 공기 중의 입자들과 충돌하여 진행방향이 바뀌는 것을 말한다. 이는 빛의 파장과 입자크기에 따라 다르다. Fog is a phenomenon in which condensed water droplets float in the atmosphere. When the mist is fogged, visibility disturbance of less than 1km appears. When fog occurs, droplet particles are generated in the atmosphere and scattering of light due to these droplet particles occurs. The scattering of light means that the light collides with particles in the air and changes its direction of travel. This depends on the wavelength of light and particle size.
일반적으로 빛의 산란은 크게 레일리 산란(Rayleigh scattering)과 미에 산란(Mie scattering)으로 나뉜다. 레일리 산란은 산란의 요인이 되는 입자의 크기가 빛의 파장보다 작을 때 적용되고 이때 산란 에너지는 파장의 네 제곱에 반비례한다. 맑은 날 빛이 공기분자들에 의해 산란될 때 파란색이 붉은색보다 더 많이 산란되어서 하늘이 파랗게 보이는 것이 그 예이다. 그러나 산란의 요인이 되는 입자의 크기가 빛의 파장보다 큰 경우의 빛의 산란은 미에 산란이론에 따른다. 안개의 경우 입자의 직경이 수μm 내지 수십 μm로 가시광선의 파장인 400nm~700nm의 파장보다 크기 때문에 미에 산란 이론에 따른다. 미에 산란 이론에 의하면 대기 중에 물방울과 같이 산란의 원인이 되는 입자의 크기가 클 때는 산란의 양이 파장의 영향을 적게 받아서 가시광선 영역의 모든 빛을 거의 동일하게 산란시킨다. 따라서 안개가 끼었을 때 피사체들이 뿌옇게 보이게 된다. 이 때 발생하는 새로운 광원을 대기 산란광(Airlight)이라고 한다.Generally, light scattering is largely divided into Rayleigh scattering and Mie scattering. Rayleigh scattering is applied when the size of the scattering particle is smaller than the wavelength of light, and the scattering energy is inversely proportional to the square of the wavelength. For example, when a sunny day is scattered by air molecules, blue is scattered more than red and the sky is blue. However, the scattering of light in the case where the size of the particle, which is a factor of scattering, is larger than the wavelength of light, is based on the micro scattering theory. In the case of fog, the particle diameter is from several μm to several tens μm, which is larger than the wavelength of 400 to 700 nm, which is the wavelength of visible light, so that it follows the myel scattering theory. According to the Mie scattering theory, when the size of scattering particles such as water drops in the atmosphere is large, the amount of scattering is less influenced by the wavelength, so that almost all the light in the visible light region is scattered almost equally. Therefore, when the fog is caught, the objects appear cloudy. The new light source that is generated at this time is called the air light.
안개 왜곡 보정을 통한 영상 화질 개선은 시정 장애를 해결하고 뿌연 영상을 선명하게 만들 수 있다. 또한, 안개로 인해 손상된 글씨, 물체 등에 대한 정보를 복원함으로써 인식을 위한 전처리 단계로서의 중요성을 가진다.Improvement of image quality through correction of fog distortion can solve visibility problems and make blurred images clear. Also, it has importance as a preprocessing step for recognition by restoring information about text, objects, etc. damaged due to fog.
종래의 안개 제거 기술은 크게 비 모델 방식과 모델 방식으로 나눌 수 있다. Conventional fog removal techniques can largely be divided into a non-model method and a model method.
전자의 예로는 히스토그램 평활화(Histogram equalization)를 들 수 있다. 히스토그램 평활화는 히스토그램 평활화는 영상의 히스토그램을 분석하여 분포를 재분배하는 방법이다. 이러한 히스토그램 평활화는 쉽고 개선의 효과가 좋지만, 깊이(Depth)가 균일하지 않은 안개 영상의 경우 적합하지 않다. 또한, 일반적인 화질 개선에 적합하나 안개가 영상에 미치는 영향의 특성을 잘 반영하지 못하여 짙은 안개 영상의 경우 개선이 미미하다는 단점이 있다.An example of the former is histogram equalization. Histogram Smoothing Histogram smoothing is a method of redistributing the distribution by analyzing the histogram of the image. This histogram smoothing is easy and effective, but it is not suitable for fog images where the depth is not uniform. Also, it is suitable for general image quality improvement, but it does not reflect characteristics of influence of fog on the image, so that there is a disadvantage that the improvement of dark fog image is insignificant.
후자는 안개로 인한 빛의 산란현상이 영상에 미치는 영향을 모델링한 방식이 다. 먼저, S. G. Narasimhan and S. K. Nayar의 "Contrast restoration of weather degraded images," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 25, pp. 713-724, 2003.에는 다른 날씨 환경에서 얻은 두 장 이상의 영상을 비교하여 장면 깊이(Scene depth)를 추정한 후 보정을 함으로써 안개에 의한 왜곡을 보정하는 기술이 개시되어 있다. 하지만, 이는 날씨가 서로 다른 2장의 영상 입력이 필요하므로 실시간 구현을 위해서는 날씨의 변화를 감지함과 동시에 그에 상응하는 영상 저장 공간을 필요로 하게 된다. 그리고, 날씨 변화에 대한 주기를 예측할 수 없기 때문에, 저장 주기에 관한 결정이 어렵게 된다. 또한, 오차가 없는 동일한 장면을 촬영해야만 하기 때문에 움직이는 물체가 있는 경우 안개 왜곡 정도를 추정 시 오류가 발생할 수 있다. The latter modeled the effect of light scattering due to fog on the image. First, S. G. Narasimhan and S. K. Nayar, "Contrast restoration of weather degraded images," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 25, pp. 713-724, 2003 discloses a technique of correcting distortion caused by fog by comparing two or more images obtained in different weather environments, estimating the scene depth, and correcting the scene depth. However, this requires two image inputs having different weather conditions, so that real-time implementation requires a video storage space corresponding to the change of weather while sensing the change of weather. Since it is impossible to predict the cycle of the weather change, it becomes difficult to determine the storage cycle. In addition, since the same scene without errors should be photographed, an error may occur when estimating the degree of fog distortion when there is a moving object.
다음으로, J. P. Oakley and H. Bu의 "Correction of Simple Contrast Loss in Color Images," Image Processing, IEEE Transactions on, vol. 16, pp. 511-522, 2007.에는 안개에 의해 영상의 픽셀 값이 변한 정도를 추정하여 빼 줌으로써 안개에 의한 왜곡을 보정하는 기술이 명시되어 있다. 하지만, 안개가 균일하다는 가정으로부터 출발하였기 때문에 균일하고 옅은 안개의 경우에는 적용 가능하나 실제 균일하지 않은 안개의 경우가 더 많고, 안개가 균일하다고 할지라도 카메라와 피사체와의 거리에 따라 안개에 의하여 영향을 받는 정도가 달라지므로 실제 적용에 있어서는 문제점이 있다.Next, see J. P. Oakley and H. Bu, "Correction of Simple Contrast Loss in Color Images," Image Processing, IEEE Transactions on, vol. 16, pp. 511-522, 2007. A technique for correcting distortion caused by fog by specifying and subtracting the degree of change of pixel values of an image by fog is specified. However, since it is based on the assumption that the fog is homogeneous, it is applicable to uniform and light fog, but there are more cases of nonuniform fog, and even if the fog is uniform, depending on the distance between the camera and the object, There is a problem in actual application.
본 발명은 전술한 종래기술의 문제점을 해결하기 위해 안출된 것으로, 안개를 포함한 영상으로부터 안개 성분을 효과적으로 추정하여 제거함으로써 영상 화질을 개선해 줄 수 있는 영상 처리 방법 및 장치를 제공하는 데 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing method and apparatus capable of improving image quality by effectively estimating and removing fog components from an image including a fog.
상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시 예에 따른 영상 처리 방법은 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 영상을 입력받아, 상기 제1 휘도 영상의 평균과 표준편차의 비율을 기초로 대기 산란광 맵을 생성하는 단계; 및 상기 제1 휘도 영상에서 상기 생성한 대기 산란광 맵을 감산함으로써 상기 대기 산란광이 제거된 제2 휘도 영상을 출력하는 단계를 포함한다.According to an aspect of the present invention, there is provided an image processing method, comprising: receiving a first luminance image of an image including atmospheric air scattering; calculating a ratio of an average and a standard deviation of the first luminance image; Generating an atmospheric scattered light map based on the atmospheric scattered light map; And outputting a second luminance image from which the atmospheric scattering light is removed by subtracting the generated atmospheric scattering light map from the first luminance image.
바람직하게, 상기 대기 산란광 맵은 상기 대기 산란광에 의한 영향의 정도를 표현하는 것을 특징으로 한다.Preferably, the atmospheric scattering light map expresses the degree of influence by the atmospheric scattering light.
바람직하게, 상기 생성 단계는 상기 제1 휘도 영상을 소정의 개수의 블록으로 영역 분할하는 단계; 상기 분할한 영역별로 상기 제1 휘도 영상의 평균과 표준편차의 비율을 이용하여 비용 함수(cost function)를 정의하고, 상기 비용 함수를 이용해서 영역별로 대기 산란광 성분을 계산하는 단계; 및 상기 계산한 영역별 대기 산란광 성분을 최소 자승법(Least Square method)을 이용하여 상기 제1 휘도 영상의 대기 산란광 맵을 생성하는 단계를 포함한다.Preferably, the generating step comprises: segmenting the first brightness image into a predetermined number of blocks; Defining a cost function using a ratio of an average and a standard deviation of the first luminance image for each of the divided regions and calculating a background scattering light component for each region using the cost function; And generating the atmospheric scattering light map of the first luminance image using the calculated atmospheric scattering light component by the Least Square method.
바람직하게, 상기 영역 분할 단계는 상기 제1 휘도 영상의 깊이, 즉 피사체 와의 거리 차이를 기초로 적응적으로 수행하는 것을 특징으로 한다.Preferably, the region segmentation step is performed adaptively based on a depth of the first luminance image, that is, a difference in distance from the subject.
바람직하게, 상기 영역 분할 단계는 상기 제1 휘도 영상의 열과 행 방향으로 그래디언트 합을 계산하고, 상기 계산한 그래디언트 합이 최대가 되는 좌표를 기준으로 분할하는 것을 특징으로 한다.Preferably, the region segmentation step calculates a gradient sum in the column direction and the row direction of the first luminance image, and divides the gradient sum based on a coordinate at which the calculated gradient sum becomes the maximum.
바람직하게, 상기 영역 분할 단계 이전에 상기 제1 휘도 영상의 에지 정보를 이용하여 하늘 영역을 검출하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method further comprises detecting a sky region using edge information of the first luminance image before the region segmentation step.
바람직하게, 상기 방법은 상기 검출한 하늘 영역을 제외한 영역을 포함하는 제1 휘도 영상에 대한 밝기의 표현 범위를 확장하고, 히스토그램을 이용하여 밝기를 조정하고, 상기 조정된 히스토그램의 값을 누적하여 밝기의 표현 범위를 나타내는 매핑함수를 생성하는 전 처리 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method further comprises: expanding a range of brightness of the first luminance image including the detected region excluding the detected sky region; adjusting the brightness using the histogram; accumulating the adjusted histogram to obtain brightness And a pre-processing step of generating a mapping function indicating a range of expression of the input data.
바람직하게, 상기 전 처리 단계는 다음 수학식 7을 이용하여 밝기를 조정하는 것을 특징으로 한다.Preferably, the preprocessing step adjusts the brightness using Equation (7).
[수학식 7]&Quot; (7) "
hnew(k)=(h(k)+1)1/n h new (k) = (h (k) +1) 1 / n
(여기서, h(k)는 히스토그램이고, k는 밝기 표현 범위, n은 지수승의 상수를 의미한다)(Where h (k) is a histogram, k is a brightness expression range, and n is a constant of exponentiation)
바람직하게, 상기 매핑 함수는 상기 검출한 하늘 영역에 대한 밝기 표현 범위를 유지하는 것을 특징으로 한다. Preferably, the mapping function maintains a brightness expression range for the detected sky area.
바람직하게, 상기 비용 함수는 다음 수학식 2와 같이 정의되는 것을 특징으 로 한다. Preferably, the cost function is defined as: " (2) "
[수학식 2]&Quot; (2) "
(여기서, Y'(i,j)는 대기 산란광을 포함한 영상의 휘도이고, I(i,j)는 대기 산란광을 포함하지 않은 영상의 휘도 신호이다. 예를 들면 맑은 날씨의 영상의 휘도 신호이거나, 이상적인 영상의 휘도 신호일 수 있다. 이상적인 영상(ideal image) I(i,j)는 영상의 재현범위를 모두 사용하고 평균을 (최대-최소)/2로 갖는 일정한 분포를 가지는 영상을 의미한다. i,j는 픽셀의 좌표이고, λ는 영상에서 감해주는 휘도의 정도, 즉 대기 산란광 성분이다.)(I, j) is the luminance signal of the image including the atmospheric scattering light, and I (i, j) is the luminance signal of the image not including the atmospheric scattering light. The ideal image I (i, j) means an image having a uniform distribution with all of the image reproducible range and a mean (maximum-minimum) / 2. i, j are the coordinates of the pixel, and lambda is the degree of luminance that is subtracted from the image, that is, the air scattering light component.)
바람직하게, 상기 대기 산란광 성분은, 다음 수학식 3을 이용하여 계산하는 것을 특징으로 한다. Preferably, the atmospheric scattering light component is calculated using the following equation (3).
[수학식 3]&Quot; (3) "
바람직하게, 상기 방법은 상기 출력된 제2 휘도 영상에 대한 에지 강조 처리를 수행하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method further comprises performing an edge enhancement process on the output second luminance image.
바람직하게, 상기 에지 강조 처리는 다음 수학식 5를 이용해서 수행하는 것 을 특징으로 한다. Preferably, the edge enhancement process is performed using the following equation (5).
[수학식 5]&Quot; (5) "
Yout(i,j)=Y"(i,j)±s×g(i,j)Y out (i, j) = Y "(i, j) ± s × g (i, j)
(여기서, Yout(i,j)는 안개 왜곡 정도를 보상하고, 에지 강조 처리를 수행한 결과 휘도 영상이고, Y"(i,j)는 안개 왜곡 정도를 보상한 휘도 영상이며, s는 에지 개선 정도를 조절하는 파라미터이고, g(i,j)는 고주파 필터를 통과한 에지 성분이다)(Wherein, Y out (i, j) is the result of compensating the degree of haze distortion, performs edge emphasis processing luminance image, Y "(i, j) is the luminance compensation the degree fog distorted image, s is an edge G (i, j) is an edge component passed through the high-frequency filter)
바람직하게, 상기 방법은 상기 대기 산란광(Airlight)을 포함한 영상의 색차 영상과 상기 에지 강조 처리된 제3 휘도 영상을 RGB 영상으로 변환하는 단계; 및 상기 변환한 RGB 영상에 대해 히스토그램 스트레칭을 수행하는 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method further comprises the steps of: converting a chrominance image of the image including the atmospheric air light and the third luminance image subjected to the edge enhancement processing into an RGB image; And performing histogram stretching on the transformed RGB image.
바람직하게, 상기 방법은 상기 출력된 제2 휘도 영상에 대해 밝기 감소를 보정하는 후 처리 단계를 더 포함하는 것을 특징으로 한다.Preferably, the method further comprises a post-processing step of correcting the brightness reduction for the output second brightness image.
바람직하게, 상기 방법은 상기 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 영상과 제1 색차 영상, 및 상기 후 처리한 제2 휘도 영상을 이용하여 영상의 밝기 변화에 따른 채도 감소를 보정하는 단계를 더 포함하는 것을 특징으로 한다. Preferably, the method further comprises the step of correcting saturation reduction according to the brightness change of the image using the first luminance image and the first chroma image of the image including the airlight and the post-processed second luminance image, And further comprising:
바람직하게, 상기 대기 산란광은 안개에 의해 발생한 것을 특징으로 한다.Preferably, the atmospheric scattering light is generated by mist.
상기 다른 기술적 과제를 달성하기 위한, 본 발명의 다른 실시 예에 따른 영상 처리 방법은 안개 영상을 포함한 영상의 제1 휘도 영상을 입력받아, 상기 제1 휘도 영상을 소정 개수의 블록으로 영역 분할하는 단계; 상기 분할한 영역별로 평균과 표준편차의 비율을 기초로 상기 안개 영상의 영향을 반영한 대기 산란광을 계산하는 단계; 상기 계산한 영역별 대기 산란광을 기초로 최소 자승법을 이용해서 상기 제1 휘도 영상의 대기 산란광 맵을 생성하는 단계; 및 상기 제1 휘도 영상에서 상기 생성한 대기 산란광 맵을 감산함으로써 상기 안개 영상의 영향이 제거된 제2 휘도 영상을 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided an image processing method for dividing a first luminance image into a predetermined number of blocks by receiving a first luminance image of an image including a mist image, ; Calculating atmospheric scattering light reflecting the influence of the foggy image based on a ratio of an average and a standard deviation for each of the divided regions; Generating a standby scattered light map of the first luminance image using a least squares method based on the calculated atmospheric scattering light of each region; And outputting a second luminance image from which the influence of the mist image is removed by subtracting the generated atmospheric scattering light map from the first luminance image.
바람직하게, 상기 영역 분할 단계는 상기 제1 휘도 영상의 깊이, 즉 피사체와의 거리 차이를 기초로 적응적으로 수행하는 것을 특징으로 한다.Preferably, the region segmentation step is performed adaptively based on a depth of the first luminance image, that is, a difference in distance from the subject.
바람직하게, 상기 방법은 상기 영역 분할 단계 이전에 상기 제1 휘도 영상의 에지 정보를 이용하여 하늘 영역을 검출하는 단계; 및 상기 검출한 하늘 영역을 제외한 영역을 포함하는 제1 휘도 영상의 밝기를 전 처리하는 단계를 더 포함하고, 상기 영역 분할 단계는, 상기 전 처리된 제1 휘도 영상의 깊이 정보를 기초로 적응적으로 분할하는 것을 특징으로 한다.Preferably, the method further comprises: detecting a sky area using edge information of the first luminance image before the segmentation step; And a step of preprocessing the brightness of the first luminance image including the detected area excluding the sky area, wherein the area dividing step comprises: an adaptive processing step of, based on the depth information of the preprocessed first luminance image, .
바람직하게, 상기 대기 산란광은 안개에 의해 발생한 것을 특징으로 한다.Preferably, the atmospheric scattering light is generated by mist.
상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 영상 처리 장치는 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 영상을 입력받아, 상기 제1 휘도 영상의 평균과 표준편차의 비율을 기초로 대기 산란광 맵을 생성하는 대기 산란광 맵 생성부; 및 상기 제1 휘도 영상에서 상기 생성한 대기 산란광 맵을 감산함으로써 상기 대기 산란광이 제거된 제2 휘도 영상을 출력하는 감산부를 포함한다.According to another aspect of the present invention, there is provided an image processing apparatus including a first brightness image of an image including atmospheric air light, An air-scattering light map generating unit for generating a standby-scattered light map based on the ratio of the air- And a subtractor for subtracting the generated atmospheric scattering light map from the first luminance image to output a second luminance image from which the atmospheric scattering light is removed.
바람직하게, 상기 대기 산란광 맵은 상기 대기 산란광에 의한 영향의 정도를 표현하는 것을 특징으로 한다.Preferably, the atmospheric scattering light map expresses the degree of influence by the atmospheric scattering light.
바람직하게, 상기 대기 산란광 맵 생성부는 상기 제1 휘도 영상을 소정의 개수의 블록으로 영역 분할하는 영역 분할부; 상기 분할한 영역별로 상기 제1 휘도 영상의 평균과 표준편차의 비율을 이용하여 비용 함수(cost function)를 정의하고, 상기 비용 함수를 이용해서 영역별로 대기 산란광 성분을 계산하는 대기 산란광 계산부; 및 상기 계산한 영역별 대기 산란광 성분을 최소 자승법(Least Square method)을 이용하여 상기 제1 휘도 영상의 대기 산란광 맵을 생성하는 맵 생성부를 포함한다.Preferably, the atmospheric scattering light map generation unit includes: a region dividing unit dividing the first luminance image into a predetermined number of blocks; A light scattering light calculation unit for defining a cost function using a ratio of an average and a standard deviation of the first luminance image for each of the divided regions and calculating a light scattering light component for each region using the cost function; And a map generator for generating the atmospheric scattering light map of the first luminance image using the calculated Least Square method.
바람직하게, 상기 장치는 상기 감산부로부터 출력된 제2 휘도 영상에 대해 에지 강조 처리를 수행하는 에지 강조부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus further comprises an edge emphasis unit for performing edge emphasis processing on the second luminance image output from the subtraction unit.
바람직하게, 상기 장치는 상기 대기 산란광을 포함한 영상의 색차 영상과 상기 에지 강조부로부터 출력된 제3 휘도 영상을 RGB 영상으로 변환하는 RGB변환부; 및 상기 변환한 RGB 영상에 대해 히스토그램 스트레칭을 수행하는 후 처리부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus includes an RGB converter for converting a chrominance image of the image including the atmospheric scattering light and a third luminance image output from the edge enhancement unit into an RGB image; And a post-processing unit for performing histogram stretching on the converted RGB image.
바람직하게, 상기 영역 분할부는, 상기 제1 휘도 영상의 깊이 차이를 기초로 적응적으로 수행하는 것을 특징으로 한다.Preferably, the region dividing unit adaptively performs the region dividing unit based on a depth difference of the first luminance image.
바람직하게, 상기 장치는 상기 제1 휘도 영상의 에지 정보를 이용하여 하늘 영역을 검출하는 하늘 영역 검출부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus further includes a sky area detection unit for detecting a sky area using edge information of the first luminance image.
바람직하게, 상기 장치는 상기 검출한 하늘 영역을 제외한 영역을 포함하는 제1 휘도 영상에 대한 밝기의 표현 범위를 확장하고, 히스토그램을 이용하여 밝기를 조정하고, 상기 조정된 히스토그램의 값을 누적하여 밝기의 표현 범위를 나타내는 매핑함수를 생성하는 전 처리부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus extends the range of brightness of the first luminance image including the detected region excluding the detected sky region, adjusts the brightness using the histogram, accumulates the adjusted histogram value, Processing unit for generating a mapping function indicating a range of expression of the input image data.
바람직하게, 상기 장치는 상기 출력된 제2 휘도 영상에 대해 밝기 감소를 보정하는 후 처리부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus further comprises a post-processing unit for correcting the brightness reduction for the output second brightness image.
바람직하게, 상기 장치는 상기 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 영상과 제1 색차 영상, 및 상기 후 처리한 제2 휘도 영상을 이용하여 영상의 밝기 변화에 따른 채도 감소를 보정하는 색차 보정부를 더 포함하는 것을 특징으로 한다.Preferably, the apparatus further includes a color difference correction unit for correcting chroma saturation according to the brightness change of the image using the first luminance image and the first chrominance image of the image including the airlight, And a correction unit.
바람직하게, 상기 대기 산란광은 안개에 의해 발생한 것을 특징으로 한다.Preferably, the atmospheric scattering light is generated by mist.
상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 상기 방법들을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다. According to another aspect of the present invention, there is provided a recording medium on which a program for executing the methods according to another embodiment of the present invention is recorded.
본 발명의 일 실시 예에 따른 영상 처리 방법은 안개에 의해 발생한 대기 산란광(Airlight)을 포함한 영상의 휘도의 평균과 표준편차의 비율을 기초로 대기 산란광 맵을 생성하고, 이를 감산해줌으로써 효과적으로 대기 산란광 성분을 없애줄 수 있다. An image processing method according to an embodiment of the present invention generates a standby scattered light map based on a ratio of an average and a standard deviation of brightness of an image including air light generated by mist, You can remove ingredients.
또한, 영상의 깊이 차이를 고려하여 적응적으로 영역 분할을 수행함으로써 후광 효과, 안개 왜곡 보정 후 동일한 물체의 밝기 차이 등의 영향을 줄일 수 있으 며, 전 처리 과정을 통하여 하늘 영역을 제외한 부분의 밝기 보정을 한 후 안개 보정 정도를 추정함으로써 새벽이나 저녁 안개에 대해서도 효과적으로 안개 성분을 제거한 영상을 얻을 수 있다. In addition, by performing adaptive region segmentation considering the depth difference of the image, it is possible to reduce the influence of the halo effect, the difference in brightness of the same object after the fog distortion correction, and the brightness of the portion excluding the sky region By estimating the degree of fog correction after correction, it is possible to obtain an image that effectively removes fog components even at dawn or evening fog.
이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts may be omitted so as not to disturb the gist of the present invention.
또한, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. In addition, terms and words used in the following description and claims should not be construed to be limited to ordinary or dictionary meanings, but are to be construed in a manner consistent with the technical idea of the present invention As well as the concept.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치(100)의 개략적인 블록도이다.1 is a schematic block diagram of an
도 1을 참조하면, 영상 처리 장치(100)는 Y/C변환부(110), 대기 산란광 맵 생성부(120), 감산부(130), 에지 강조부(140), RGB변환부(150) 및 후 처리부(160)를 포함한다. 또한, 영상 처리 장치(100)는 대기 산란광 맵 생성부(120)와 감산부(130)만을 포함하여 구현할 수도 있다.1, the
Y/C변환부(110)는 RGB 입력 영상을 휘도/색차 컬러 공간으로 변환하여 휘도(Y) 및 색차 신호(C)로 출력한다. 여기서, RGB 입력 영상은 대기 산란광 성분을 포함하고 있으며, 대기 산란광은 공기 중의 안개에 의해 만들어진 것이다. 또한, 입력 영상은 안개에 의해 뿌옇게 보이면서 색상이 선명하지 않은 영상이다. 즉, 안개 환경에서 빛이 공기 중의 안개 입자와 충돌하여 발생하는 대기 산란광의 영향으로 영상이 손상된다. 이때 안개로 생성된 대기 산란광은 새로운 광원으로서 작용한다.The Y /
여기서, RGB 색 공간에서 YCbCr 색 공간으로의 변환은 다음 수학식 1을 이용한다.Here, the conversion from the RGB color space to the YCbCr color space is expressed by the following equation (1).
Cb=-0.16874R-0.33126G+0.50000BCb = -0.16874R-0.33126G + 0.50000B
Cr=0.50000R-0.41869G-0.08131BCr = 0.50000R-0.41869G-0.08131B
여기서, 휘도(Y)는 밝고 어두운 정도를 표현하는 성분이고, 색차(C)는 색상 정보를 표현하는 성분이다. 2가지 색차 성분은 Cb,Cr값을 가지는데, Cb는 블루(B) 성분과 기준값과의 차이, Cr은 레드(R) 성분과 기준값과의 차이를 의미한다. 본 발명의 바람직한 실시 예에서, Y/C 신호를 이용함으로써 RGB 신호를 이용하는 것에 비해 복잡도가 감소하고, 인간의 눈은 색상의 변화보다 밝기의 변화에 더 민감함으로 휘도 신호만을 이용한다. 특히, YCbCr 색공간은 휘도에 민감한 인간의 시각 특성을 이용해 색상 정보로부터 휘도 성분을 분리해 낸 색공간이다. 또한, 본 발명의 바람직한 실시 예에서는 RGB 영상을 YCbCr 신호로 변환하는 것을 설명하고 있지만, YCbCr 변환 좌표뿐만 아니라, 다른 색 공간 좌표, 예를 들면 YUV, Lab, YCC 등 의 다른 색공간 좌표계에도 적용할 수 있음은 물론이다. Here, the luminance (Y) is a component expressing a bright and dark degree, and the color difference (C) is a component expressing color information. The two chrominance components have Cb and Cr values, Cb is the difference between the blue (B) component and the reference value, and Cr is the difference between the red (R) component and the reference value. In the preferred embodiment of the present invention, the complexity is reduced compared to using the RGB signal by using the Y / C signal, and the human eye uses only the luminance signal because it is more sensitive to the change in brightness than the color change. In particular, the YCbCr color space is a color space obtained by separating luminance components from color information using human visual characteristics sensitive to luminance. In the preferred embodiment of the present invention, the RGB image is converted into the YCbCr signal. However, the present invention can be applied not only to YCbCr conversion coordinates but also to other color space coordinates such as YUV, Lab, YCC Of course.
대기 산란광 맵 생성부(120)는 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 신호(Y')를 입력받아, 제1 휘도 신호의 평균과 표준편차의 비율을 기초로 대기 산란광 맵(λ)을 생성한다. 여기서, 평균과 표준편차의 비율을 이용하는 것은 대기 산란광, 특히 안개에 의해 발생한 대기 산란광이 영상에 미치는 영향을 고려한 것이다. 대기 산란광이 영상에 미치는 영향을 도 3a 내지 3d를 참조하여 설명한다. The atmospheric
도 3a는 맑은 날씨에 촬영한 영상이고, 도 3c는 안개가 낀 날씨에 촬영한 영상이다. 도 3b는 도 3a에 도시된 맑은 날씨의 영상의 휘도 신호를 분석한 히스토그램이다. 도 3d는 도 3b에 도시된 안개 영상의 휘도 신호를 분석한 히스토그램이다.FIG. 3A shows an image taken in a clear weather, and FIG. 3C shows an image taken in a misty weather. FIG. 3B is a histogram for analyzing the luminance signal of the image of the clear weather shown in FIG. 3A. FIG. 3D is a histogram obtained by analyzing the luminance signal of the mist image shown in FIG. 3B.
일반적으로, 안개 영상은 전체 밝기가 상승하여 뿌옇게 보이고, 안개에 의해 주변 픽셀과 밝기 차이가 구분되지 않는다. 이는 픽셀 간의 밝기의 분산이 감소했음을 의미한다. 이는 도 3b 및 3d로부터 확인할 수 있다. Generally, the fog image is blurred due to the increase in the overall brightness, and the difference in brightness between the neighboring pixels is not distinguished by the fog. This means that the variance of brightness between pixels is reduced. This can be seen from FIGS. 3b and 3d.
도 3b 및 3d에 도시된 선은 각각의 휘도에 대한 히스토그램의 평균을 나타낸다. 도 3b에 도시된 것보다 3d에 도시된 선이 더 우측으로 치우쳐 있다. 즉, 안개 영상의 휘도의 평균이 맑은 영상보다 크다는 것을 의미한다. 또한, 히스토그램이 좌우로 퍼져 있는 정도를 비교하면 도 3d가 더 작게 퍼져있음을 알 수 있다. 즉, 안개 영상의 분산이 더 작다는 것을 의미한다. The lines shown in Figs. 3B and 3D show the average of the histograms for each luminance. The line shown at 3d is more right-biased than that shown in Fig. 3B. That is, the mean of the brightness of the fog image is larger than that of the clear image. In addition, when the degree of spread of the histogram to the left and right is compared, it can be seen that Fig. That is, the variance of the fog image is smaller.
대기 산란광 맵 생성부(120)가 휘도 신호의 평균과 표준편차의 비율을 이용 하는 것은 영상의 변화를 좀 더 정확히 반영하기 위함이다. 웨버(Weber)의 법칙에 따르면 한 영상의 어두운 영역에서의 휘도의 작은 변화는 밝은 영역에서의 동일한 작은 변화보다 잘 인식된다. 즉, 안개가 끼었을 때는 영상 전체에서 휘도가 증가하게 되어 영상 내의 휘도 변화를 사람의 시각이 잘 느끼지 못한다. 따라서, 종래의 안개 영향을 모델링하는 경우에는 평균과 표준편차를 각각 고려했지만, 본 발명의 바람직한 실시 예에서는 평균과 표준편차의 비율을 고려함으로써 안개에 의한 휘도의 영향을 더 정확하게 반영해 줄 수 있다.The use of the ratio of the mean and standard deviation of the luminance signal by the atmospheric scattering light
대기 산란광 맵 생성부(120)의 구체적인 구성과 기능을 도 2를 참조하여 설명한다.The specific configuration and function of the air scattering light
도 1 및 2를 참조하면, 대기 산란광 맵 생성부(120)는 영역 분할부(210), 대기 산란광 계산부(220) 및 맵 생성부(230)를 포함한다.1 and 2, the atmospheric
영역 분할부(210)는 제1 휘도 신호(Y')를 입력받아, 소정의 개수의 블록으로 영역 분할한다. 휘도 신호를 균등한 크기의 블록으로 영역 분할하는데, 블록의 개수는 임의로 정할 수 있다. 도 4a에는 임의의 영상을 9개의 블록으로 분할한 것이 예시적으로 도시되어 있다. 영역 분할을 하는 것은 균등하지 않은 안개에 의한 영향을 고려하여 안개 성분을 보상해주기 위함이다. 영역 분할을 위한 블록의 개수는 하드웨어 복잡도를 고려하여 적절하게 선정할 수 있다.The
대기 산란광 계산부(220)는 영역 분할부(210)가 분할한 영역별로 제1 휘도 신호(Y')의 평균과 표준편차의 비율을 이용하여 비용 함수(cost function)를 정의하고, 정의한 비용 함수를 이용해서 영역별로 대기 산란광 성분을 계산한다. 여기 서, 평균과 표준편차는 전술한 바와 같이 안개 특성을 반영하기 위해서 평균과 표준편차의 비율을 이용하는 것이고, 비용 함수는 최적의 해를 찾기 위한 도구로서 다음 수학식 2와 같이 정의된다.The atmospheric scattering
본 발명의 바람직한 실시 예에서는 상기 수학식 2와 같이, 비용 함수 A(λ)와 B(λ)를 사용하지만, 이에 한정되지 않고 안개 특성을 반영하기 위해 휘도의 평균과 표준편차의 비율을 이용한 다른 비용함수를 사용할 수도 있음은 물론이다.In the preferred embodiment of the present invention, the cost function A () and B () are used as in Equation (2), but the present invention is not limited thereto. It goes without saying that a cost function may also be used.
여기서, Y'(i,j)는 대기 산란광을 포함한 영상의 휘도이고, Y(i,j)는 대기 산란광을 포함하지 않은 영상의 휘도 신호이다. 예를 들면 맑은 날씨의 영상의 휘도 신호이거나, 이상적인 영상의 휘도 신호일 수 있다. 이상적인 영상(ideal image) I(i,j)는 영상의 재현범위를 모두 사용하고 평균을 (최대-최소)/2로 갖는 일정한 분포를 가지는 영상을 의미한다. i,j는 픽셀의 좌표이고, λ는 영상에서 감해주는 휘도의 정도, 즉 대기 산란광 성분이다.Here, Y '(i, j) is the brightness of the image including the atmospheric scattering light, and Y (i, j) is the brightness signal of the image not including the atmospheric scattering light. For example, it may be a luminance signal of an image of a clear weather or an ideal luminance signal of an image. The ideal image I (i, j) means an image having a uniform distribution with all of the image reproducible range and a mean (maximum-minimum) / 2. i, j are the coordinates of the pixel, and [lambda] is the degree of luminance to be subtracted from the image, i.e., the atmospheric scattering light component.
상기와 같이 정의된 비용함수 A(λ) 및 B(λ)를 이용하여 안개가 영상에 영향을 미친 대기 산란광 성분을 계산하기 위해 다음 수학식 3을 이용한다.Using the cost functions A () and B () defined as above, the following equation (3) is used to calculate the atmospheric scattering light components influencing the fog image.
상기 수학식 3은 A(λ)와 B(λ) 차이를 최소로 하는 λ값을 계산한다는 의미이다. 여기서, 각각의 영역별 대기 산란광 성분을 계산한 것이 도 4b에 도시되어 있다. 도 4b는 도 4a에 도시된 영역 분할 결과에 대해 영역별 대기 산란광 성분을 계산하여 표시한 것이다. 다만, 도 4a에서는 9개의 영역으로 분할하였지만, 도 4b에는 25개의 블록으로 영역 분할한 영상에 대한 대기 산란광 성분이 점으로 도시되어 있다. Equation (3) means that the value of? Is minimized to make a difference between A (?) And B (?). Here, the calculation of the air-scattered light components for each area is shown in FIG. 4B. FIG. 4B is a graph illustrating the calculation of the light components of the scattered light of each region with respect to the region dividing result shown in FIG. 4A. In FIG. 4A, the image is divided into nine regions. In FIG. 4B, the scattered light components for the images obtained by dividing the image into 25 blocks are shown by dots.
맵 생성부(230)는 상기 계산한 영역별 대기 산란광 성분을 최소 자승법(Least Square method)을 이용하여 제1 휘도 신호, 즉 전체 휘도 신호에 대한 대기 산란광 맵(λ)을 생성한다. 여기서, 최소 자승법을 이용해서 영상의 좌표값과 대기 산란광 성분의 관계를 모델링할 수 있다. 그리고 각각의 점, 즉 대기 산란광에 의한 보상 정도(λ)를 영상의 좌표값으로 모델링하고, 보간(Interpolation) 방법을 이용하여 전체 영상에 대한 대기 산란광 맵을 생성한다. 최소 자승법(Least Square Method)은 선형 통계 모델에서 효율적인 추정방법으로 공지되어 있다. 이에 대한 설명은 생략한다. 본 발명의 바람직한 실시 예에서는 최소 자승법을 사용하지만, 이에 한정되지 않고 여러 개의 좌표 사이의 값을 유추하는 다른 보간(Interpolation) 방법을 사용할 수 있음은 물론이다. The
여기서, 전체 영상에 대한 대기 산란광 맵이 도 4c에 도시되어 있다. 도 4c 를 참조하면, 전체의 보상 정도가 일률적인 것이 아니라 영상의 부분마다 보상 정도가 차이가 있는 것을 알 수 있다. 다시 도 4a와 4c를 함께 참조하면, 도 4a에서 오른쪽 윗부분에 안개의 영향이 많은 것을 알 수 있으며, 도 4c에서 오른쪽 윗부분이 좀 더 밝은 것을 알 수 있다. 또한, 도 4a에서 왼쪽 아랫부분은 안개의 영향이 적은 것을 알 수 있으며, 도 4c에서 왼쪽 아랫부분이 좀 더 어두운 것을 알 수 있다. Here, a standby scattered light map for the entire image is shown in FIG. 4C. Referring to FIG. 4C, it can be seen that the degree of compensation is not uniform but the degree of compensation is different for each part of the image. Referring again to FIGS. 4A and 4C, it can be seen that the upper right portion in FIG. 4A has a large influence of mist, and the upper right portion in FIG. 4C is slightly brighter. In addition, it can be seen that the lower left portion in FIG. 4A is less influenced by the mist, and the lower left portion is darker in FIG. 4C.
감산부(130)는 Y/C변환부(110)로부터 출력된 휘도 신호(Y')에서 대기 산란광 맵 생성부(120)가 생성한 대기 산란광 맵(λ)을 감산함으로써 대기 산란광이 제거된 제2 휘도 신호(Y'')를 출력한다.The
이를 수식으로 표현하면 다음 수학식 4와 같다.This can be expressed by the following equation (4).
여기서, Y'(i,j)는 안개에 의해 왜곡된 원본 휘도 성분이고, λY(i,j) 는 안개에 의해 왜곡된 정도를 나타내는 대기 산란광 맵이고, Y"(i,j)는 안개 왜곡이 보정된 휘도 성분이다. Here, Y '(i, j) is an original luminance component distorted by the fog, and λ Y (i, j) is a background scattered light map indicating the degree of distortion by the fog, The distortion is the corrected luminance component.
에지 강조부(140)는 감산부(130)로부터 출력된 휘도 신호(Y")에 대한 에지 강조 처리를 수행한다. 안개 영상의 경우 대기 산란광으로 인해 경계가 불분명해져 영상이 블러링(Blurring)된다. 이러한 현상을 해결하기 위해 윤곽선 성분 개선을 수행한다. 에지 강조 처리는 다음 수학식 5를 이용하여 수행한다.The
여기서, YOUT(i,j) 는 안개 왜곡 정도를 보상하고, 에지 강조 처리를 수행한 결과 휘도 신호이고, Y"(i,j)는 안개 왜곡 정도를 보상한 휘도 영상이며, s는 에지 개선 정도를 조절하는 파라미터이고, g(i,j)는 고주파 필터를 통과한 에지 성분이다. 바람직하게, 에지 강조를 위한 고주파 필터는 가우시안 고주파 필터(Gaussian high pass filter)를 사용할 수 있다. 본 발명의 바람직한 실시 예에서는 가우시안 고주파 필터를 사용하지만, 이에 한정되지 않고 다양한 고주파 통과 필터를 사용할 수 있음은 물론이다. Here, Y OUT (i, j) is a luminance image obtained by compensating the degree of fog distortion and compensating for the degree of fog distortion by performing edge enhancement processing, Y "(i, j) (I, j) is an edge component passed through the high-frequency filter. Preferably, the high-frequency filter for edge emphasis may use a Gaussian high pass filter. Although a Gaussian high-frequency filter is used in the preferred embodiment, it is needless to say that various high-pass filters can be used.
RGB변환부(150)는 에지 강조부(140)로부터 출력된 휘도 신호(YOUT)와 Y/C변환부(110)로부터 출력된 색차 신호(C)를 이용하여 RGB신호로 변환한다. YCbCr 색 공간에서 RGB 색 공간으로의 변환식은 다음 수학식 6과 같다.The
G=1.164(Y-16)-0.813(Cr-128)-0.392(Cb-128)G = 1.164 (Y-16) -0.813 (Cr-128) -0.392 (Cb-128)
B=1.164(Y-16)+2.017(Cb-128)B = 1.164 (Y-16) + 2.017 (Cb-128)
후 처리부(160)는 RGB 변환부(150)로부터 RGB신호를 입력받아 히스토그램 스트레칭을 수행한다. 감산 연산을 통한 안개 제거 알고리즘을 적용한 후 영상이 전반적으로 어둡게 보이는 현상을 없애기 위해 후처리 단계이다. 히스토그램 스트레 칭은 RGB영상의 히스토그램의 최소값과 최대값 사이 범위를 영상 장치가 표현할 수 있는 최대 범위로 확장시키는 것이다. 일반적으로 사용되는 R, G, B 각각의 채널별 8 비트의 경우, 0~255의 범위까지를 가지도록 확장한다.The
도 5a에는 RGB신호의 히스토그램이 도시되어 있고, 도 5b에는 히스토그램 스트레칭의 결과가 도시되어 있다. 도 6a에 도시된 것처럼, 빼기 연산을 한 결과 전체 영상의 밝기가 낮아져 있다. 또한, 새벽 안개나 저녁 안개의 경우 원본 영상이 어두운데 안개 제거를 위해 빼기 연산을 하므로 더 어두워져 물체가 전혀 구분되지 않을 수도 있다. 따라서, 이러한 경우들에 있어서는 히스토그램 스트레칭을 함으로써 도 5b에 도시된 것처럼 휘도를 0~255 사이에 고르게 분포하도록 해 준다.5A shows the histogram of the RGB signal, and FIG. 5B shows the result of the histogram stretching. As shown in FIG. 6A, the result of the subtraction operation is that the brightness of the entire image is lowered. Also, in the case of dawn fog or evening fog, the original image is dark and the subtraction operation is performed to remove fog, so that it may become darker and the object may not be distinguished at all. Therefore, in such cases, histogram stretching allows the luminance to be evenly distributed between 0 and 255 as shown in FIG. 5B.
본 발명의 바람직한 실시 예에서는 전체 영상이 어두워지는 것을 보상해주기 위해 히스토그램 스트레칭 처리를 하였지만, 다른 후 처리 기법을 적용하여 어두워진 영상을 보상해줄 수도 있음은 물론이다. In the preferred embodiment of the present invention, the histogram stretching process is performed to compensate for the darkening of the entire image, but it is needless to say that the darkened image may be compensated by applying another post-processing technique.
도 6은 본 발명의 또 다른 실시 예에 따른 영상 처리 장치(100)의 개략적인 블록도이다.6 is a schematic block diagram of an
도 6을 참조하면, Y/C 변환부(110), 대기 산란광 맵 생성부(120), 감산부(130), RGB 변환부(150), 하늘 영역 검출부(170), 전 처리부(180), 후 처리부(190), 색차 보정부(200)를 포함한다. 도 1에 도시된 영상 처리 장치(100)의 구성과 동일한 구성에 대한 설명은 생략하고 차이가 있는 구성에 대해서만 설명한다. 6, the Y /
하늘 영역 검출부(170)는 Y/C 변환부(110)로부터 휘도 영상을 입력받아, 휘도 영상의 에지 성분을 이용하여 하늘 영역을 검출한다. 여기서, 휘도 영상의 그 래디언트 영상을 이용하여 윤곽선 검출, 즉 에지 검출을 수행한다.The sky
하늘 영역을 검출하는 것은 하늘 영역의 분포가 균일하므로 평균 밝기와 분산을 이용하는 안개 왜곡 보정 방법에서 짙은 안개가 낀 영역과 구분이 되지 않아 하늘 영역을 포함하여 화질 개선을 할 때 오버인핸스먼트(Overenhancement)를 유발시킬 수 있기 때문이다. 따라서 하늘 영역은 대기 산란광의 추정에 있어서 제외시킨다. 본 발명의 바람직한 실시 예에서는 하늘 영역을 검출하기 위해서 안개 영상의 특성을 이용한다. 하늘 영역은 일반적으로 영상의 상단에 위치하고 안개 영상의 하늘 영역의 경우 윤곽 성분을 가지고 있지 않다. 하늘 영역의 검출을 위해 영상의 그레디언트 영상을 이용하여 윤곽선 검출을 수행한다. 각 행에 대해 열 상단에서 하단방향으로 스캔하며 윤곽선이 감지되면 이전까지의 픽셀까지를 하늘 영역으로 검출한다. 예를 들면, 윤곽선 검출 방법으로 라플라시안 마스크를 사용한다. 라플라시안 윤곽선 검출기는 하나의 마스크만을 사용하기 때문에 속도가 매우 빠르고 2차 미분 연산자를 사용하여 모든 방향의 윤곽선 검출이 가능하다. 윤곽선 검출을 위한 마스크 연산 방법은 원 영상 안의 픽셀들과 동일한 위치의 마스크 픽셀들과 곱하여 모든 픽셀을 더해서 중심 픽셀에 할당한다. 또한, 하늘 영역을 검출하고 나서, 전체 영상에서 하늘 영역이 차지하는 비율, 검출한 하늘 영역에서의 최대, 최소 밝기값을 이용하여 하늘 영역의 표현 범위를 계산한다.Since the distribution of the sky region is uniform because the distribution of the sky region is detected, the fog distortion correction method using the average brightness and dispersion can not distinguish the sky region from the dark mist region. Therefore, the overenhancement (overenhancement) . ≪ / RTI > Therefore, the sky area is excluded from the estimation of the atmospheric scattering light. In a preferred embodiment of the present invention, the feature of the fog image is used to detect the sky area. The sky region is generally located at the top of the image and has no contour component in the sky region of the fog image. Contour detection is performed using the gradient image of the image to detect the sky area. For each row, the scan is performed from the top of the column to the bottom, and when an outline is detected, up to the previous pixel is detected as the sky area. For example, a laplacian mask is used as a contour detection method. Because the Laplacian contour detector uses only one mask, the speed is very fast and contour detection in all directions is possible using the second derivative operator. The mask operation method for contour detection is performed by multiplying the mask pixels at the same positions as the pixels in the original image, and adding all the pixels to the center pixel. After detecting the sky area, the expression range of the sky area is calculated by using the ratio of the sky area occupied by the entire image and the maximum and minimum brightness values in the detected sky area.
본 발명의 바람직한 실시 예에서는 윤곽선 검출을 위해, 라플라시안 마스크를 이용하지만, 이에 한정되지 않고 다른 에지 검출을 위한 마스크를 사용할 수 있음은 물론이다.In the preferred embodiment of the present invention, for contour detection, a laplacian mask is used, but it is needless to say that a mask for other edge detection can be used.
전 처리부(180)는 Y/C변환부(110)로부터 입력된 휘도 영상(Yin)과 하늘 영역 검출부(170)로부터 검출된 하늘 영역 정보를 이용해서 하늘 영역을 제외한 부분의 밝기의 표현 범위를 확장하고, 히스트로그램을 이용해서 밝기를 재조정한다. The
전 처리부(180)의 영상 처리 과정은 도 7을 참조하여 설명한다.The image processing procedure of the
전 처리부(180)는 하늘 영역을 제외한 입력 휘도 영상의 히스토그램 정보를 추출한다. 도 7a에는 입력된 휘도 영상의 히스토그램을 나타낸다. 그리고, 영상의 픽셀 전체 개수의 소정의 퍼센트의 비율로 추출한 히스토그램의 높낮이를 제한한다. 이는 도 7b에 도시되어 있다.The
그리고, 다음 수학식 7과 같은 지수승 연산을 이용하여 히스토그램의 포락선(envelope)은 유지하면서 높낮이 차이를 줄인다.Then, the exponentiation operation as shown in Equation (7) is used to reduce the height difference while maintaining the envelope of the histogram.
여기서, h(k)는 히스토그램이고, k는 밝기 표현 범위, n은 지수승의 상수를 의미한다.Here, h (k) is a histogram, k is a brightness expression range, and n is a constant of the exponentiation.
그리고, 변형된 히스토그램 값을 누적하여 누적 히스토그램을 생성한 후, 밝기 성분의 표현범위로 변경함으로써 매핑 함수를 생성한다. 여기서, 하늘 영역의 표현 범위는 변하지 않도록 조절한다. 매핑 함수는 도 7d에 도시되어 있다.Then, the modified histogram values are accumulated to generate a cumulative histogram, and then the range of brightness components is changed to generate a mapping function. Here, the expression range of the sky area is adjusted so as not to change. The mapping function is shown in Figure 7d.
대기 산란광 맵 생성부(120)는 전처리된 휘도 영상으로부터 대기 산란광 맵을 생성한다. 여기서, 전처리된 휘도 영상은 하늘 영역을 제외하고, 즉 하늘 영역 의 밝기의 최대, 최소 범위는 유지한 채, 안개 성분을 제거하기 위한 관심 영역의 밝기의 범위를 조절한 휘도 영상이다.The atmospheric scattering light
대기 산란광 맵 생성부(120)의 구체적인 구성은 도 8을 참조하여 설명한다.The specific configuration of the air scattering light
도 8을 참조하면, 대기 산란광 맵 생성부(120)는 적응적 영역 분할부(240), 대기 산란광 계산부(220) 및 맵 생성부(230)를 포함한다.8, the atmospheric scattered light
도 2에 도시된 대기 산란광 맵 생성부(120)와의 차이점은 적응적 영역 분할부(240)를 포함한다는 것이다. 도 2에 도시된 영역 분할부(210)는 분할된 하나의 영역 내에서 서로 다른 깊이(Depth)를 갖는 화소가 존재하지만, 이를 고려하지 않는다. 여기서, 깊이는 카메라와 피사체와의 거리를 의미한다. 일반적으로 안개환경에서 대기 산란광은 피사체와 카메라와의 거리에 대한 함수로 표현된다. 즉, 도 2에 도시된 영역 분할부(210)는 각각의 영역에 따라 비용함수를 이용하여 하나의 대기 산란광을 계산하기 때문에, 동일한 영역으로 분할된 동일 영역 내의 깊이 차이가 큰 화소가 존재할수록 결과 영상이 자연스럽지 못할 수 있다. 예를 들면, 균일 영역 분할시 동일 영역에서 깊이 차이가 큰 부분에는 후광효과(Halo effect)가 발생할 수 있으며, 실제로는 같은 건물이나 물체이지만 주변에 의한 영향으로 보상 정보가 다르게 추정되어 밝기가 달라지는 경우가 발생할 수 있다.The difference from the air scattering light
도 8에 도시된 적응적 영역 분할부(240)는 입력 영상의 거리를 기초로 적응적으로 영역을 분할한다. 즉, 촬영 대상 물체 간의 거리를 추정하고, 이를 반영하여 영역을 비균일하도록 분할한다.The adaptive
적응적 영역 분할의 방법은 도 9a 내지 9e를 참조하여 설명한다.A method of adaptive region segmentation will be described with reference to Figs. 9A to 9E.
영역별 대기 산란광을 추정하기 위해 먼저 영역 분할을 수행한다. 원 영상을 균일한 영역들로 분할한다. 영상 내의 하나의 영역을 동일한 깊이(Depth)로 추정하기 위해 그래디언트영상을 이용하여 영역 재분할을 하였다. 한 영역의 영상을 그래디언트 영상으로 만들어 주고 열과 행 방향에 대해서 각각 그래디언트 값을 합한다. 각 영역의 열 방향과 행 방향에 대한 그레디언트 값의 지역 최대값을 분할점으로 삼아 다시 영역 분할을 수행한다.To estimate the atmospheric scattering light for each region, region segmentation is first performed. The original image is divided into uniform regions. The region was re-segmented using gradient images to estimate one region of the image with the same depth. Create an image of a region as a gradient image and add the gradient values to the column and row directions. The region maximum value of the gradient value for the column direction and the row direction of each region is used as the dividing point, and region division is performed again.
예를 들면, 원 영상을 9개(3×3)로 분할하는 경우, 열과 행 방향으로 2×2로 균일하게 분할한다(도 9b). 그리고, 열과 행 방향으로 그래디언트 합을 계산한다. 즉, 균일하게 분할된 하나의 영역에 대하여, 다음 수학식 8을 이용해 그래디언트 합을 계산한다.For example, when the original image is divided into nine (3 x 3), the image is uniformly divided into 2 x 2 in the column and row directions (Fig. 9B). Then, the gradient sum is calculated in the column and row directions. That is, for one uniformly divided region, the gradient sum is calculated using the following equation (8).
여기서, nrow 와 ncol 은 분할된 영역의 행과 열의 수를 의미하고, G(i,j)는 해당 영역의 그래디언트 영상을 의미하고, k(여기서, k=1,...4)는 분할된 영역의 인덱스를 의미한다. Here, n row and n col mean the number of rows and columns of the divided region, G (i, j) means the gradient image of the corresponding region, k (where k = 1, ... 4) Means the index of the divided area.
열과 행 방향으로 영역 별 최대 그래디언트 합인 좌표를 선택하다. 즉 하나의 영역에서, Srow, Scol 의 최대값을 갖는 좌표를 구한다(도 9c 및 9d의 도면 번호 900, 910, 920 및 930). 이는 다음 수학식 9와 같다.Selects coordinates that are the sum of the maximum gradient for each region in the column and row directions. Namely, in one area, the coordinates having the maximum value of S row , S col are obtained (
그리고, 영역 재분할을 수행한다(도 9d). 원 영상을 적응적으로 영역 분할한 결과가 도 9e에 도시되어 있다.Then, region re-segmentation is performed (Fig. 9D). The result of adaptively segmenting the original image is shown in FIG. 9E.
대기 산란광 계산부(220)는 적응적 영역 분할부(240)로부터 비균일하게 분할된 각각의 영역별로 비용함수를 이용해서 안개제거 보상에 필요한 대기산란광을 계산한다. 즉, 안개 제거 보상이 필요한 정도를 계산한다.The atmospheric scattering
맵 생성부(230)는 대기 산란광 계산부(220)에서 계산된 각각의 영역별 대기 산란광을 전체 영상에 대해 인터폴레이션을 함으로써 전체 영상을 보정하는 대기 산란광 맵을 생성한다.The
후 처리부(190)는 감산부(130)로부터 입력된 안개성분을 제거한 휘도 영상과 하늘 영역 검출부(170)로부터 입력된 하늘 영역 정보를 이용하여 후 처리를 수행한다. 여기서, 후 처리는 빼기 연산을 기반으로 한 안개 왜곡 보정으로 인하여 생긴 전체 영상의 밝기 감소를 보정하고, 안개에 의한 에지 정보 손실을 복원하는 처리이다.The
후 처리부(190)의 구성은 도 10을 참조하여 설명한다.The configuration of the
도 10을 참조하면, 후 처리부(190)는 히스토그램 스트레칭부(240), 적응적 히스토그램 등화부(250) 및 에지 강조부(260)를 포함한다.Referring to FIG. 10, the
히스토그램 스트레칭부(240)는 하늘 영역 검출부(170)로부터 입력된 하늘 영역 정보를 이용하여 하늘 영역을 제외한 나머지 영역의 평균 밝기가 안개 왜곡 보정 전후가 동일하도록 밝기 범위를 조절한다. The
적응적 히스토그램 등화부(250)는 하늘 영역 검출부(170)로부터 입력된 하늘 영역 정보를 이용하여 하늘 영역을 제외한 나머지 부분의 밝기 표현 범위를 확장시키고, 히스토그램을 이용한 밝기를 재조정한다. 이는 전 처리부의 처리과정과 동일하다.The
에지 강조부(260)는 적응적 히스토그램 등화부(20)로부터 출력된 휘도 신호에 대한 에지 강조 처리를 수행한다. 안개 영상의 경우 대기 산란광으로 인해 경계가 불분명해져 영상이 블러링(Blurring)된다. 이러한 현상을 해결하기 위해 윤곽선 성분 개선을 수행한다. 여기서, 에지 강조 처리는 상기 수학식 5를 참조하여 설명한 방식과 동일하다.The
색차 보정부(200)는 Y/C 변환부(110)로부터 입력된 휘도 영상(Yin)과 색차 영상(Cin), 후 처리부(190)로부터 입력된 휘도 영상(Yout)을 이용해서 색차 영상을 보정한다. 여기서, 색차 보정은 대기 산란광에 의한 영향을 보정하기 때문에 밝기 변환에 따른 채도 감소분을 보정해 주는 것이다. 색차 보정은 다음 수학식 10을 이용한다.The
여기서, cp는 채도 보정 상수, Cmid는 색차 성분의 중간값, Yin과 Cin은 안개 영상의 휘도 및 색차 영상, Yout 및 Cout은 안개 왜곡이 보정된 영상의 휘도 및 색차 영상을 의미한다.In this case, c p is the saturation correction constant, C mid is the intermediate value of the chrominance component, Y in and C in are the luminance and chrominance images of the fog image, Y out and C out are the luminance and chrominance images of the fog- it means.
RGB 변환부(150)는 색차 보정부(200)로부터 휘도 영상(Yout)과 색차 성분이 보정된 색차 영상(Cout)을 입력받아 RGB 영상을 출력한다. Y/C 색공간에서 RGB 영상으로 변환은 상기 수학식 6을 이용한다.The
도 11은 본 발명의 다른 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an image processing method according to another embodiment of the present invention.
도 11를 참조하면, 단계 1100에서, RGB신호를 Y/C신호로 변환한다. 단계 1102에서, 휘도 신호의 영상을 소정 개수의 블록으로 영역 분할한다. 단계 1104에서, 영역별로 비용함수를 이용해 대기 산란광을 계산하고, 단계 1106에서, 전체 영상을 보정하는 대기 산란광 맵을 생성한다. 단계 1108에서, 휘도 영상에서 대기 산란광 맵을 감산하여 대기 산란광 성분이 제거된 휘도 신호를 얻는다. 단계 1110에서, 대기 산란광으로 인한 에지 성분이 줄어드는 것을 보상해주기 위해 에지 성분을 강조한다. 단계 1112에서, 대기 산란광 성분이 제거되고 에지 성분이 강조된 휘도 신호와, 색차 신호를 이용하여 RGB변환을 하여 RGB신호를 출력한다. 단계 1114에서, 히스토그램 스트레칭을 수행함으로써 전체 영상이 어두워지는 것을 보상해준다.Referring to FIG. 11, in
도 12는 본 발명의 또 다른 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating an image processing method according to another embodiment of the present invention.
도 12를 참조하면, 단계 1200에서, RGB 신호를 Y/C 신호로 변환한다. 단계 1202에서, 입력 휘도 신호로부터 하늘 영역을 검출한다. 여기서, 하늘 영역 검출은 영상의 맨 위에서부터 에지 정보를 검색하고, 특정 이상의 에지가 생기기 전까지를 하늘 영역으로 검출한다. 그리고, 전체 영상에서 하늘 영역이 차지하는 비율과 하늘 영역에서의 최대, 최소 밝기 값을 이용하여 하늘 영역의 밝기 표현 범위를 계산한다. 단계 1024에서, 입력 휘도 신호와 검출한 하늘 영역 정보를 이용하여 전 처리를 수행한다. 전 처리는 하늘 영역을 제외한 나머지 부분의 밝기의 표현 범위를 확장하고 히스토그램을 이용한 밝기를 다시 조정하는 것이다. 여기서, 히스토그램의 높낮이를 제한하고, 특히 지수승 연산을 이용하여 히스토그램의 포락선은 유지하면서 높낮이 차이를 줄인다. 그리고, 하늘 영역의 범위를 유지하면서 매핑함수를 생성한다. 단계 1206에서, 휘도 영상의 깊이 차이를 고려하여 적응적으로 영역을 분할한다. 여기서, 적응적 영역 분할은 그래디언트 영상을 이용하여 영역 분할을 수행한다. 단계 1208에서, 영역별로 비용함수를 이용해 대기 산란광을 계산하고, 단계 1210에서, 전체 영상을 보정하는 대기 산란광 맵을 생성한다. 단계 1212에서, 휘도 영상에서 대기 산란광 맵을 감산하여 대기 산란광 성분이 제거된 휘도 신호를 얻는다. 단계 1214에서, 하늘 영역 정보와 대기 산란광 성분이 제 거된 휘도 신호에 대해 후 처리를 수행한다. 여기서, 후 처리는 히스토그램 스트레칭 처리, 하늘 영역을 고려한 적응적 히스토그램 등화 처리, 에지 강조 처리를 포함한다. 단계 1216에서, 후 처리된 휘도 신호, 입력 휘도 신호, 입력 색차 신호를 이용해서 색차 보정을 수행한다. 색차 보정은 밝기 변화에 따른 채도 감소를 보정해 주는 것이다. 단계 1218에서, 후 처리된 휘도 신호와 색차 보정된 색차 신호를 이용해서 RGB 신호로 변환한다. Referring to FIG. 12, in
도 13a 내지 13g는 본 발명의 또 다른 실시 예에 따른 영상 처리 결과를 설명하기 위한 예시도이다.13A to 13G are diagrams for explaining image processing results according to another embodiment of the present invention.
도 13a는 원본 영상이고, 도 13b는 원본 영상의 휘도 영상이고, 도 13c는 전 처리 과정을 거친 다음의 휘도 영상이고, 도 13d는 그레이 레벨로 표현된 대기 산란광 맵이고, 도 13e는 도 13b에 도시된 휘도 영상과 도 13d에 도시된 대기 산란광 맵을 감산한 왜곡 보정 후의 휘도 영상이고, 도 13f는 후 처리한 휘도 영상이고, 도 13g는 최종 결과 영상이다. 13B is a luminance image of the original image, FIG. 13C is a luminance image following the preprocessing process, FIG. 13D is a standby-scattered light map expressed in gray level, and FIG. FIG. 13F is a luminance image after the post-processing, and FIG. 13G is a final result image. FIG. 13B is a luminance image after distortion correction obtained by subtracting the illustrated luminance image and the standby-scattered light map shown in FIG.
도 13g에 도시된 것처럼, 도 13a의 원본 영상과 비교하여 안개로 인한 왜곡이 제거된 결과 영상임을 알 수 있다.As shown in FIG. 13G, it can be seen that the resultant image is a result of removing distortion due to fog as compared with the original image of FIG. 13A.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied in computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치(100)의 개략적인 블록도이다.1 is a schematic block diagram of an
도 2는 도 1에 도시된 대기 산란광 맵 생성부(120)의 다른 실시 예이다.2 is another embodiment of the atmospheric scattered
도 3a 내지 3d는 안개에 의해 발생한 대기 산란광이 영상의 휘도에 미치는 영향을 설명하기 위한 도면이다.3A to 3D are diagrams for explaining the effect of the air scattering light generated by the mist on the brightness of an image.
도 4a 내지 4c는 도 2에 도시된 대기 산란광 맵 생성부(120)의 기능을 설명하기 위한 도면이다.4A to 4C are views for explaining the functions of the air scattering light
도 5a 및 5b는 도 1에 도시된 후 처리부(160)의 기능을 설명하기 위한 도면이다.5A and 5B are views for explaining the function of the
도 6은 본 발명의 다른 실시 예에 따른 영상 처리 장치(100)의 개략적인 블록도이다.6 is a schematic block diagram of an
도 7a 내지 7d는 본 발명의 또 다른 실시 예에 따른 전 처리 방법을 설명하기 위한 도면이다.7A to 7D are views for explaining a pre-processing method according to another embodiment of the present invention.
도 8은 도 6에 도시된 대기 산란광 맵 생성부(120)의 또 다른 실시 예이다.FIG. 8 shows another embodiment of the atmospheric scattered
도 9a 내지 9e는 본 발명의 또 다른 실시 예에 따른 적응적 영역 분할을 설명하기 위한 도면이다.9A to 9E are views for explaining adaptive region division according to another embodiment of the present invention.
도 10은 도 6에 도시된 후 처리부(190)의 개략적인 블록도이다.FIG. 10 is a schematic block diagram of the
도 11은 본 발명의 또 다른 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an image processing method according to another embodiment of the present invention.
도 12는 본 발명의 또 다른 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating an image processing method according to another embodiment of the present invention.
도 13a 내지 13g는 본 발명의 또 다른 실시 예에 따른 영상 처리 결과를 설명하기 위한 예시도이다.13A to 13G are diagrams for explaining image processing results according to another embodiment of the present invention.
<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art
100: 영상 처리 장치 110: Y/C 변환부100: image processing apparatus 110: Y / C conversion unit
120: 대기 산란광 맵 생성부 130: 감산부120: Atmospheric scattering light map generating unit 130:
140: 에지 강조부 150: RGB 변환부140: edge emphasis unit 150: RGB conversion unit
160: 후 처리부 210: 영역 분할부160: post-processing unit 210: area division unit
220: 대기 산란광 계산부 230: 맵 생성부220: Atmospheric scattering calculation unit 230: Map generation unit
Claims (33)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/436,885 US8396324B2 (en) | 2008-08-18 | 2009-05-07 | Image processing method and apparatus for correcting distortion caused by air particles as in fog |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080080558 | 2008-08-18 | ||
KR20080080558 | 2008-08-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100021952A true KR20100021952A (en) | 2010-02-26 |
KR101518722B1 KR101518722B1 (en) | 2015-05-15 |
Family
ID=42091464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080111875A KR101518722B1 (en) | 2008-08-18 | 2008-11-11 | Image enhancement processing method and apparatus for distortion correction by air particle like fog |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101518722B1 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012053833A2 (en) * | 2010-10-20 | 2012-04-26 | 이영섭 | Fog-correcting telescope |
KR101292421B1 (en) * | 2011-08-05 | 2013-08-01 | 경희대학교 산학협력단 | Method for improving foggy image by unit image block |
WO2013165210A1 (en) * | 2012-05-03 | 2013-11-07 | 에스케이텔레콤 주식회사 | Image processing apparatus for removing haze contained in still image and method thereof |
WO2013172580A1 (en) * | 2012-05-15 | 2013-11-21 | 에스케이텔레콤 주식회사 | Image-processing apparatus for removing haze contained in video, and method therefor |
KR101418185B1 (en) * | 2012-12-26 | 2014-07-10 | 금오공과대학교 산학협력단 | System and method for visibility enhancement using fusion of dehazing and retinex |
WO2014142417A1 (en) * | 2013-03-11 | 2014-09-18 | 전남대학교산학협력단 | System for improving foggy luminance image using fog reduction estimation model |
KR101470833B1 (en) * | 2013-05-24 | 2014-12-09 | 전남대학교산학협력단 | Apparatus for enhancing the foggy luminance image using lower bound of transmission rate |
KR101470831B1 (en) * | 2013-05-28 | 2014-12-10 | 전남대학교산학협력단 | Appatatus for image dehazing using the user controllable radical root operation |
US8934711B2 (en) | 2012-12-24 | 2015-01-13 | Samsung Techwin Co., Ltd. | Apparatus and method of processing image |
KR101490594B1 (en) * | 2013-05-28 | 2015-02-05 | 주식회사 코아로직 | Method and apparatus for processing image including for area |
KR101507642B1 (en) * | 2012-07-17 | 2015-04-07 | 경희대학교 산학협력단 | Method for compensating fogs image based on estimated transmission value |
KR20150146045A (en) * | 2014-06-20 | 2015-12-31 | 현대자동차주식회사 | Apparatus and method for image defogging |
KR101582779B1 (en) * | 2015-07-17 | 2016-01-06 | 중앙대학교 산학협력단 | Wavelength-adaptive dehazing device and method for image |
US9317910B2 (en) | 2014-03-27 | 2016-04-19 | Hanwha Techwin Co., Ltd. | Defogging system and defogging method |
KR101634724B1 (en) | 2015-02-03 | 2016-06-30 | 전남대학교산학협력단 | Apparatus for adaptive enhancing the brightness of night image using generation and selection of brightness conversion curve |
KR20160088178A (en) * | 2015-01-15 | 2016-07-25 | 박진상 | The method and the recording media for original image restoration technology based on scattering noise removal and photon detection for single recorded image |
KR20170044844A (en) * | 2015-10-16 | 2017-04-26 | 삼성전자주식회사 | Image haze removing device |
US9846925B2 (en) | 2015-05-08 | 2017-12-19 | Hanwha Techwin Co., Ltd. | Defog system and defog method |
US10290081B2 (en) | 2016-04-29 | 2019-05-14 | Industry Foundation Of Chonnam National University | System for image dehazing by modifying lower bound of transmittance and method therefor |
KR20190138137A (en) * | 2018-06-04 | 2019-12-12 | 주식회사 샛별교육연구 | System and method for image defogging |
CN113840123A (en) * | 2020-06-24 | 2021-12-24 | 上海赫千电子科技有限公司 | Image processing device of vehicle-mounted image and automobile |
KR102388301B1 (en) * | 2021-01-19 | 2022-04-20 | 주식회사 포에스텍 | Correction method of underwater environment image using ultrasonic sensor |
CN113840123B (en) * | 2020-06-24 | 2024-05-31 | 上海赫千电子科技有限公司 | Image processing device of vehicle-mounted image and automobile |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102584522B1 (en) | 2016-12-27 | 2023-10-05 | 한화비전 주식회사 | Image processing device and image enhancing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4200718B2 (en) * | 2002-09-06 | 2008-12-24 | ソニー株式会社 | Image processing apparatus and method, recording medium, and program |
JP2006197460A (en) * | 2005-01-17 | 2006-07-27 | Konica Minolta Photo Imaging Inc | Image processing method, image processor, image processing program and image pickup device |
-
2008
- 2008-11-11 KR KR1020080111875A patent/KR101518722B1/en active IP Right Grant
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012053833A2 (en) * | 2010-10-20 | 2012-04-26 | 이영섭 | Fog-correcting telescope |
WO2012053833A3 (en) * | 2010-10-20 | 2012-06-28 | 이영섭 | Fog-correcting telescope |
KR101292421B1 (en) * | 2011-08-05 | 2013-08-01 | 경희대학교 산학협력단 | Method for improving foggy image by unit image block |
WO2013165210A1 (en) * | 2012-05-03 | 2013-11-07 | 에스케이텔레콤 주식회사 | Image processing apparatus for removing haze contained in still image and method thereof |
KR20130123525A (en) * | 2012-05-03 | 2013-11-13 | 에스케이텔레콤 주식회사 | Image processing apparatus for image haze removal and method using that |
US9336577B2 (en) | 2012-05-03 | 2016-05-10 | Sk Telecom Co., Ltd. | Image processing apparatus for removing haze contained in still image and method thereof |
WO2013172580A1 (en) * | 2012-05-15 | 2013-11-21 | 에스케이텔레콤 주식회사 | Image-processing apparatus for removing haze contained in video, and method therefor |
KR20130127654A (en) * | 2012-05-15 | 2013-11-25 | 에스케이텔레콤 주식회사 | Image processing apparatus for moving image haze removal and method using that |
US9275443B2 (en) | 2012-05-15 | 2016-03-01 | Sk Telecom Co., Ltd. | Image-processing apparatus for removing haze contained in video, and method therefof |
KR101507642B1 (en) * | 2012-07-17 | 2015-04-07 | 경희대학교 산학협력단 | Method for compensating fogs image based on estimated transmission value |
US8934711B2 (en) | 2012-12-24 | 2015-01-13 | Samsung Techwin Co., Ltd. | Apparatus and method of processing image |
KR101418185B1 (en) * | 2012-12-26 | 2014-07-10 | 금오공과대학교 산학협력단 | System and method for visibility enhancement using fusion of dehazing and retinex |
WO2014142417A1 (en) * | 2013-03-11 | 2014-09-18 | 전남대학교산학협력단 | System for improving foggy luminance image using fog reduction estimation model |
KR101445577B1 (en) * | 2013-03-11 | 2014-11-04 | 주식회사 브이아이티시스템 | System for enhancing the foggy luminance image using the estimation model of haze removal |
US9418402B2 (en) | 2013-03-11 | 2016-08-16 | Industry Foundation Of Chonnam National University | System for improving foggy luminance image using fog reduction estimation model |
KR101470833B1 (en) * | 2013-05-24 | 2014-12-09 | 전남대학교산학협력단 | Apparatus for enhancing the foggy luminance image using lower bound of transmission rate |
KR101490594B1 (en) * | 2013-05-28 | 2015-02-05 | 주식회사 코아로직 | Method and apparatus for processing image including for area |
KR101470831B1 (en) * | 2013-05-28 | 2014-12-10 | 전남대학교산학협력단 | Appatatus for image dehazing using the user controllable radical root operation |
US9384532B2 (en) | 2013-05-28 | 2016-07-05 | Industry Foundation Of Chonnam National University | Apparatus for improving fogged image using user-controllable root operator |
US9317910B2 (en) | 2014-03-27 | 2016-04-19 | Hanwha Techwin Co., Ltd. | Defogging system and defogging method |
US9466097B2 (en) | 2014-06-20 | 2016-10-11 | Hyundai Motor Company | Apparatus and method for removing fog in image |
KR20150146045A (en) * | 2014-06-20 | 2015-12-31 | 현대자동차주식회사 | Apparatus and method for image defogging |
KR20160088178A (en) * | 2015-01-15 | 2016-07-25 | 박진상 | The method and the recording media for original image restoration technology based on scattering noise removal and photon detection for single recorded image |
KR101634724B1 (en) | 2015-02-03 | 2016-06-30 | 전남대학교산학협력단 | Apparatus for adaptive enhancing the brightness of night image using generation and selection of brightness conversion curve |
US9846925B2 (en) | 2015-05-08 | 2017-12-19 | Hanwha Techwin Co., Ltd. | Defog system and defog method |
WO2017014396A1 (en) * | 2015-07-17 | 2017-01-26 | 중앙대학교 산학협력단 | Device and method for wavelength-adaptive dehazing of image |
KR101582779B1 (en) * | 2015-07-17 | 2016-01-06 | 중앙대학교 산학협력단 | Wavelength-adaptive dehazing device and method for image |
KR20170044844A (en) * | 2015-10-16 | 2017-04-26 | 삼성전자주식회사 | Image haze removing device |
US10290081B2 (en) | 2016-04-29 | 2019-05-14 | Industry Foundation Of Chonnam National University | System for image dehazing by modifying lower bound of transmittance and method therefor |
KR20190138137A (en) * | 2018-06-04 | 2019-12-12 | 주식회사 샛별교육연구 | System and method for image defogging |
CN113840123A (en) * | 2020-06-24 | 2021-12-24 | 上海赫千电子科技有限公司 | Image processing device of vehicle-mounted image and automobile |
CN113840123B (en) * | 2020-06-24 | 2024-05-31 | 上海赫千电子科技有限公司 | Image processing device of vehicle-mounted image and automobile |
KR102388301B1 (en) * | 2021-01-19 | 2022-04-20 | 주식회사 포에스텍 | Correction method of underwater environment image using ultrasonic sensor |
WO2022158611A1 (en) * | 2021-01-19 | 2022-07-28 | 주식회사 포에스텍 | Method for correcting underwater environment image by using ultrasonic sensor |
Also Published As
Publication number | Publication date |
---|---|
KR101518722B1 (en) | 2015-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101518722B1 (en) | Image enhancement processing method and apparatus for distortion correction by air particle like fog | |
US8396324B2 (en) | Image processing method and apparatus for correcting distortion caused by air particles as in fog | |
Shin et al. | Radiance–reflectance combined optimization and structure-guided $\ell _0 $-Norm for single image dehazing | |
KR102104403B1 (en) | Method and Apparatus for removing haze in a single image | |
RU2658874C1 (en) | Fog remover device and method of forming images | |
Hou et al. | An efficient nonlocal variational method with application to underwater image restoration | |
US8923612B2 (en) | Image processing apparatus and method, and program | |
WO2013168618A1 (en) | Image processing device and image processing method | |
KR101448164B1 (en) | Method for Image Haze Removal Using Parameter Optimization | |
KR100771158B1 (en) | Method AND System For Enhancement Color Image Quality | |
EP2846306B1 (en) | Image processing apparatus for removing haze contained in still image and method thereof | |
CN104240194A (en) | Low-light-level image enhancement algorithm based on parabolic function | |
CN109377450B (en) | Edge protection denoising method | |
Mohan et al. | Underwater image enhancement based on histogram manipulation and multiscale fusion | |
CN110023957B (en) | Method and apparatus for estimating drop shadow region and/or highlight region in image | |
Yu et al. | Image and video dehazing using view-based cluster segmentation | |
John et al. | Enhancement of weather degraded video sequences using wavelet fusion | |
Mei et al. | Single image dehazing using dark channel fusion and haze density weight | |
CN105719251A (en) | Compression and quality reduction image restoration method used for large image motion linear fuzziness | |
Kansal et al. | Fusion-based image de-fogging using dual tree complex wavelet transform | |
Li et al. | A retinex algorithm for image enhancement based on recursive bilateral filtering | |
KR101651889B1 (en) | Video quality enhancement device and method for extremely low-light video | |
Hu et al. | A low-illumination image enhancement algorithm based on morphological-Retinex (MR) operator | |
JP5822739B2 (en) | Image processing apparatus, method, and program | |
Negru et al. | Exponential image enhancement in daytime fog conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180425 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190425 Year of fee payment: 5 |