WO2014142417A1 - 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템 - Google Patents

안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템 Download PDF

Info

Publication number
WO2014142417A1
WO2014142417A1 PCT/KR2013/010407 KR2013010407W WO2014142417A1 WO 2014142417 A1 WO2014142417 A1 WO 2014142417A1 KR 2013010407 W KR2013010407 W KR 2013010407W WO 2014142417 A1 WO2014142417 A1 WO 2014142417A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fog
equation
transmission rate
transfer rate
Prior art date
Application number
PCT/KR2013/010407
Other languages
English (en)
French (fr)
Inventor
홍성훈
이재원
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to US14/407,092 priority Critical patent/US9418402B2/en
Publication of WO2014142417A1 publication Critical patent/WO2014142417A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Definitions

  • the present invention relates to a system for providing an image having improved visibility by removing fog or smoke from a luminance image deteriorated due to fog or smoke.
  • This is a system that can solve the difficulty of real-time processing due to the degradation, the halo effect caused by the use of a large size filter and a very large amount of computation.
  • a video surveillance system or a video black box for a vehicle is used to prevent or detect an accident.
  • researches are being conducted to provide accident warnings such as lane departure and vehicle crash warning by using computer vision for images acquired from video cameras.
  • the method according to the prior document comprises the steps of receiving a first luminance image of an image including an atmospheric scattered light (Airlight), and generating an atmospheric scattered light map based on a ratio of the average and the standard deviation of the first luminance image; And subtracting the generated atmospheric scattered light map from the first luminance image to output a second luminance image from which the atmospheric scattered light is removed. It includes.
  • the above-mentioned prior document does not perform the fog image processing on a pixel basis.
  • the method of simply using multiple images [3, 4, 5] without using a polarization filter acquires fog information from the images by using several photographs taken under different weather conditions at the same location.
  • This method [3, 4, 5] removes the fog using the method of obtaining the fog value from the two images having the same location but different brightness by the fog value and using the obtained fog value. .
  • Tan [8] proposed a method for removing fog by increasing the contrast.
  • the clean image without fog has a higher edge intensity than the fogged image, and the fog is removed using the property that the fog value does not change rapidly.
  • This method has the advantage that the shape or structure of the image can be clearly seen because the brightness contrast is improved.
  • saturation occurs due to excessive contrast increase, and a halo effect may occur in a section where depth information is greatly different.
  • Fattal proposed an algorithm that measures the reflectance of an image and removes fog and reconstructs the image based on the assumption that the reflectance measured within a certain image area always has the same vector direction.
  • the method proposed by He et al. Removes the fog by using the characteristic that the clean image without fog has a higher color saturation than the image with fog.
  • a pixel having a high color sharpness has a very small value of one channel among the R, G, and B values.
  • the present invention has been made in view of the above-mentioned problems, the brightness and color components in the air, such as fog, smoke, clouds, and light and color components of the object is mixed with the light and color components of the object is low visibility, the brightness and color components in the air
  • the purpose is to provide a clear image by removing the.
  • Existing fog removal method uses the R, G, and B components of the input image, and uses only luminance components, resulting in performance degradation.
  • the color coordinate system used in most multimedia systems currently uses luminance signals and color difference signals like the YCbCr color coordinate system rather than the RGB coordinate system, so that the color coordinate system conversion processing is required to apply the existing methods. Independent processing for each signal component can cause color variations.
  • the conventional fog removal method has a halo effect because a large size of the filter is used, it is difficult to process in real time because a large amount of computation is required.
  • the present invention provides an estimation model for obtaining an image from which the fog is removed from the input luminance image, and indicates how much of the fog is mixed in the original image from the estimation model.
  • the transmission rate is calculated and the fog-free image is obtained using the calculated transmission rate.
  • the proposed method uses only pixel-based calculations without using a filter, thereby solving the problems of halo effect and high calculation amount of the conventional method.
  • the present invention for achieving the technical problem relates to a fog image enhancement system using a fog removal estimation model, the fog removal image estimates to receive the input image of the fog, and to calculate the estimate of the fog-removed pixels
  • a calculator for calculating an estimated transfer rate and a lower limit of a transfer rate using the estimated value of the fog-removed pixel and an input image, and calculating a transfer rate for reconstructing an image without fog by adding the calculated lower transfer rate estimate and the lower limit of the transfer rate.
  • a calculator And a reconstructed image output unit configured to output a reconstructed image from which fog is removed by using the transmission rate calculated through the transmission rate calculator and the input image. It includes.
  • the brightness and color components of the air such as fog, smoke, clouds, and light and color components of the object is mixed with the image is reduced visibility, the brightness and color components in the air to remove the clear image to provide.
  • the color coordinate system used in most multimedia systems uses luminance signals and color difference signals like YCbCr color coordinate system, not RGB coordinate system
  • the proposed method which shows excellent performance with only luminance information is applied to multimedia system without conversion of color coordinate system. It is easy to maintain the color of the input color.
  • the present invention can solve the problem of the halo effect and high calculation amount, which is a problem of the conventional method using a large filter because it performs a pixel-by-pixel operation, it can be applied to real-time applications.
  • FIG. 1 is a diagram illustrating a result of estimating brightness values of pixels from which fog is removed according to an input parameter with respect to the fog removing estimation model according to the present invention.
  • Figure 2 is a schematic diagram showing a conceptual diagram of a fog image enhancement system using a fog elimination estimation model according to the present invention.
  • 3 and 4 is an exemplary view showing a simulation result of the fog image improvement system according to the present invention.
  • transfer rate estimation module 220 transfer rate lower limit calculation module
  • Equation 1 is defined for each of R, G, and B channels. Is the x-th pixel value of the image obtained through the camera, Is a clean image with fog removed, Is the fog coverage of the input image, Is a transmission, and indicates the ratio of the clean image and the fog value to the acquired image.
  • the fog removal of the image is the input image obtained from the camera from Wow And finally use the To restore.
  • Equation 1 The transfer rate from Equation 1 ) And defogging video ( ) Can be obtained by the following [Formula 2] and [Formula 3], respectively.
  • the transmission rate is close to 0 in places far away, such as the sky, and the input image is shown in [Equation 1]. Since the pixel is very close, the transmission rate is close to 1. Obviouslys Therefore, it may be assumed that the bright pixels in the image are far from the fog and the transmission rate is small.
  • the amount of fog included in the input image ( ) Is set to the brightest pixel value in the image, and the transfer rate is assumed to be [Equation 5].
  • Equation 6 is an input parameter for the fog elimination estimation model presented in [Equation 6] Is a diagram illustrating a result of estimating a brightness value of a pixel from which fog is removed according to Larger decreases the brightness of the input value, so the intensity of fog elimination becomes stronger.
  • the transmission rate used to obtain the fog-removed image is an estimate of the transmission rate of [Equation 8] as shown in [Equation 1] below. Calculated by the weighted sum of and the lower limit of [Equation 9].
  • FIG. 2 is a schematic structural diagram illustrating a system for improving a misted luminance image S using the mist elimination estimation model according to the present invention. As shown in FIG. 200), the reconstructed image output unit 300, and the post processor 400.
  • the mist elimination image estimation calculator 100 is configured to input the mist image ( ) Is used to estimate the fog-reduced pixel using the root of a quadratic equation that computes the fog-reduced image on a pixel-by-pixel basis. Calculate
  • the fog elimination image estimator 100 estimates the value of the pixel from which the fog is removed through Equation 6.
  • the transfer rate calculator 200 estimates a pixel from which fog is removed ( ) And input video ( Calculates the lower limit of the estimated transfer rate and the lower transfer rate in pixel units, and calculates the transfer rate to be used to restore the fog-free image by weighting the calculated estimated transfer rate and the lower limit of the transfer rate.
  • the transmission rate estimation module 210 includes a transmission rate lower limit calculation module 220 and a weighted sum calculation module 230.
  • the transfer rate estimation module 210 may calculate an estimated value of the pixel from which the fog has been removed by the fog removal image estimation calculator 100. ), Input video ( Pixel values and fog inclusions () Equation 8 using the transfer rate estimate (Equation 8) Calculate Where the amount of fog in the image ( ) Is set to the brightest pixel value in the image.
  • the lower transfer rate calculation module 220 includes the input image ( ) Is inputted, and the lower transfer rate lower limit ( Calculate
  • the weighted sum calculation module 230 calculates the transfer rate estimated values calculated by the transfer rate estimation module 210 and the transfer rate lower limit calculation module 220, respectively.
  • lower delivery rate limit ( ) Is weighted through Equation 10 to be used for restoring the image from which the fog is removed.
  • Reconstructed image output unit 300 is The transfer rate calculated by the transfer rate calculation unit 200 ( ), The input image ( ) And fog inclusions ( Restored image with fog removed through [Equation 3] using )
  • the post processor 400 performs stretching or the like on the image output through the reconstructed image output unit 300 to finally remove the fog ( )
  • 3 and 4 are exemplary views showing simulation results of the fog image improvement system according to the present invention.
  • 3 and 4 (c) show a transfer rate obtained through [Equation 10].
  • 3 and 4 (d) are luminance images from which fog is removed through the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 안개나 연기로 인해 화질이 저하된 영상에서 안개나 연기를 제거하여 가시성이 향상된 영상을 제공하는 방법을 제공하는 것으로, 이를 위하여 본 발명에서는 입력 영상으로부터 안개가 제거된 영상을 구하는 추정모델을 제공하고, 상기 추정 모델로부터 원영상에 안개가 어느 정도의 비율로 섞여있는지를 나타내는 전달률(transmission rate)을 계산하고, 계산된 전달률을 이용하여 안개가 제거된 영상을 구한다. 본 발명에서 제안한 방식은 필터를 상용하지 않고 화소단위의 연산만을 사용하므로 후광효과가 발생하지 않고, 연산량이 매우 적어 실시간 처리가 가능하며, 휘도 영상만을 가지고 처리하여도 좋은 성능을 나타내므로 실시간 처리가 요구되는 감시시스템, 블랙박스, 디지털 카메라 등 모든 멀티미디어 기기에 적용이 가능하다.

Description

안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
본 발명은 안개 또는 연기로 인해 화질이 저하된 휘도영상에서, 안개 또는 연기를 제거하여 가시성이 향상된 영상을 제공하는 시스템에 관한 것으로, 더욱 상세하게는 기존 방식에서 휘도영상만을 사용할 경우, 안개제거 성능이 저하되고, 큰 크기의 필터를 사용으로 인한 후광효과가 발생과 매우 많은 연산량을 필요로 함으로 인해 실시간 처리가 어려운 점을 해결할 수 있는 시스템에 관한 것이다.
최근 사고예방이나 감지를 위하여 영상 감시시스템이나 차량용 영상 블랙박스 등이 사용되고 있다. 또한, 첨단 안전차량의 경우 동영상 카메라에서 획득한 영상을 컴퓨터 비전을 이용하여 차선이탈과 차량 추돌 경보 등의 사고 경고를 제공하는 연구가 진행되고 있다.
영상처리 또는 컴퓨터 비전 응용에서 좋은 결과 영상을 얻기 위해서는 깨끗한 입력 영상이 필요하다. 특히, 객체를 탐지하거나 추정할 때, 혹은 영상의 에지 정보를 사용할 때는 영상이 깨끗할수록 좋은 결과를 얻을 수 있다. 하지만, 실외에서 획득한 영상의 경우에는 객체로부터 획득되는 빛과 색은 공기 중의 밝기 및 색상과 혼합되어 원래의 색과 다른 색을 띄게 된다. 특히, 안개나 연기와 같은 다른 빛 무리가 있을 경우 객체의 원래 색과 형태를 획득할 때 어려움이 따른다.
안개가 짙은 기상 상태에서 카메라 등의 장치를 통해 영상을 획득했을 때는 같은 색을 가진 객체라 하더라도 안개의 농도에 따라 획득되는 영상에서는 각각 다른 색을 가진다. 안개의 농도가 진할수록 안개의 비율이 높아지기 때문에 획득된 영상 내 객체는 원래의 색을 많이 잃어버리고, 안개에 가까운 값을 가진다. 따라서, 영상의 색 정보를 이용하는 컴퓨터 비전 알고리즘은 안개가 많은 영역에서는 좋은 결과를 제공할 수 없다. 따라서, 안개가 있는 영상을 개선하여 안개가 없을 때 획득한 영상과 유사하게 만드는 다양한 방법들이 제안되었다. 이러한 방법은 여러 개의 영상을 이용하거나, 영상 외에 추가적인 정보를 이용하는 방법 등이 있다. 최근에는 한 개의 영상을 통해 안개를 제거하고 영상을 복원하는 방법이 제안되고 있다.
종래 안개 등이 포함된 영상을 개선하는 방법과 관련해서는, 한국공개특허 제10-2010-0021952호(이하, '선행문헌') 외에 다수 출원 및 공개되어 있다.
선행문헌에 따른 방법은, 대기 산란광(Airlight)을 포함한 영상의 제1 휘도 영상을 입력받아, 상기 제1 휘도 영상의 평균과 표준편차의 비율을 기초로 대기 산란광 맵을 생성하는 단계; 및 상기 제1 휘도 영상에서 상기 생성한 대기 산란광 맵을 감산함으로써 상기 대기 산란광이 제거된 제2 휘도 영상을 출력하는 단계; 를 포함한다. 그러나, 상기한 선행문헌은 화소 단위로 안개 영상 처리를 수행하지 않는다.
한편, 안개 영상을 깨끗한 영상으로 복원하기 위해서 여러 개의 영상을 이용하거나, 영상 외에 추가적인 정보를 이용하는 방법이 일반적이다. 여러 개의 영상을 이용한 방법으로 우선 편광을 이용한 방법[1, 2]이 있는데, 우선 정확히 동일한 위치에서 각각 다른 편광 필터가 장착된 상태로 촬영된 2장의 영상을 획득한다. 편광에 의해 변경된 안개 값이 다르기 때문에 편광된 양을 측정하는 방법을 통해 편광 값을 계산하고 이를 이용하여 편광된 안개를 제거한다. 이 방법은 매우 좋은 결과 영상을 제공하지만, 동일한 위치에서 각각 다른 편광 필터를 사용해야 한다는 강한 제한 조건이 있다.
편광 필터를 이용하지 않고 단순히 여러 장의 영상을 이용하는 방법[3, 4, 5]은 같은 위치에서 다른 날씨 환경 아래 찍은 여러 장의 사진을 이용함으로써 영상으로부터 안개 정보를 획득한다. 이 방법[3, 4, 5]은 동일한 위치이지만 안개 값에 의해 서로 다른 밝기를 가지는 두 영상으로부터 안개 값을 구하고, 구해진 안개 값을 이용하여 안개의 깊이 정보를 구하는 방법을 이용하여 안개를 제거하였다.
여러 장의 영상을 이용하는 대신 영상의 깊이 정보를 이용하여 안개를 제거하는 방법 역시 제안되었다. Kopf 등[6]은 카메라에 내장된 GPS와 같은 정보를 이용하여 촬영하는 즉시 깊이나 텍스쳐 정보를 획득한다. 획득된 깊이 정보는 안개 값의 농도(밀도)로 가정하여, 영상의 안개를 제거한다.
상기 기존 방법들은 모두 여러 장의 영상을 이용하거나 또는 한 장의 영상을 이용하더라도 추가적인 정보를 이용하여 안개를 제거하였다. 하지만 이러한 방법들은 다양한 조건에서의 영상 데이터 확보를 필요로 하고 동적으로 움직이는 카메라에 적용할 수 없다는 단점을 가지고 있어 최근에는 단일 영상으로 안개를 제거하는 방법이 연구되고 있다.
Tan은 [8]에서 대비를 늘리는 방법을 통해서 안개를 제거하는 방법을 제안하였다. 즉, 안개가 없는 깨끗한 영상은 안개가 있는 영상에 비해 높은 에지 강도를 가지고 있고, 안개 값은 급격하게 변하지 않는다는 속성을 이용하여 안개를 제거한다. 이 방법은 밝기 대비가 높게 개선되기 때문에 영상의 형태나 구조가 확실히 들어난다는 장점이 있다. 하지만 과도한 대비 증가로 인하여 포화되는 현상이 일어나며, 깊이 정보가 많이 차이나는 구간에서는 후광 효과(halo effect)가 발생하기도 한다.
Fattal은 [9]에서 영상의 반사율을 측정하고, 일정 영상 영역 내에서 측정된 반사율은 항상 같은 벡터 방향을 갖는다는 가정을 통하여 안개를 제거하고 영상을 복원하는 알고리즘을 제안하였다. He 등이 제안한 [10] 방법은 안개가 없는 깨끗한 영상은 안개가 있는 영상에 비해 칼라의 채도가 높다는 특성을 이용하여 안개를 제거한다. 안개가 없는 깨끗한 영상의 경우에 색선명도가 높은 화소는 R, G, B 값 중 한 채널(channel) 값이 매우 작은 값을 가지므로, 안개가 없는 칼라 영상의 경우 일정 영역에서 매우 낮은 채널 값을 갖는 화소가 있다는 관측을 이용하여 안개를 제거하는 방법을 제안하였다.
하지만, 한 장의 영상을 사용하는 기존 방법은 RGB 칼라를 사용하므로 휘도영상만을 사용할 경우 안개제거 성능이 크게 저하되고, 큰 크기의 필터를 사용하므로 후광효과가 나타나며, 매우 많은 연산량이 요구되어 실시간 처리가 어려운 문제가 있다.
[1] Y. Y. Schechner, S. G. Narasimhan, and S. K. Nayar, "Instant dehazing of images using polarization," in Proc. CVPR, pp. 1984-1991, Hawaii, USA, Dec. 2001.
[2] S. Shwartz, E. Namer, and Y. Y. Schechner, "Blind haze separation," in Proc. CVPR, pp. 1984-1991, New York, USA, Oct. 2006.
[3] S.G. Narasimhan and S. K. Nayar, "Chromatic framework for vision in bad weather," in Proc. CVPR, pp. 598-605, SC, USA, June 2000.
[4] S. G. Narasimhan and S. K. Nayar, "Contrast restoration of weather degraded images," IEEE Trans. Pattern Anal. Mach. Intell., vol. 25, no. 6, pp. 713-724, June 2003.
[5] S. K. Nayar and S. G. Narasimhan, "Vision in bad weather," in Proc. ICCV, pp. 820-827, Corfu, Greece, Sep. 1999.
[6] J. Kopf, B. Neubert, B. Chen , M. Cohen, D. Cohen-Or, O. Deussen, M. Uyttendaele, and D. Lischinski, "Deep photo: Model-based photograph enhancement and viewing," ACM Trans. Graphics, vol. 27, no. 5, pp. 1-10, Dec. 2008.
[7] S. G. Narasimhan and S. K. Nayar, "Interactive deweathering of an image using physical models," In Workshop on Color and Photometirc Methods in Computer Vision, OCT. 2003
[8] R.Tan, "Visibility in bad weather from a single image," in Proc CVPR, pp. 1-8, Alaska, USA, June 2008.
[9] R.Fattal, "Single image dehazing," ACM Trans. Graphics, vol. 27, no. 3, pp. 1-9, Aug. 2008.
[10] K. He, J. Sun, and X.Tang, "Single image haze removal using dark channel prior," in Proc. CVPR, pp. 1956-1963, Miami, USA, June 2009.
본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 안개, 연기, 구름 등 공기 중의 밝기 및 색상 성분과, 객체의 빛 및 색 성분이 혼합되어 가시성이 낮아진 영상에 대하여, 공기 중의 밝기 및 색상성분을 제거하여 선명한 영상을 제공하도록 함에 그 목적이 있다.
기존의 안개제거 방법은 입력영상의 R, G, B 각 성분을 이용하고, 휘도성분만을 사용할 경우 성능 저하가 발생한다. 하지만, 현재 대부분의 멀티미디어 시스템에서 사용되는 색 좌표계는 RGB 좌표계가 아닌 YCbCr 색 좌표계와 같이 휘도신호와 색차신호를 사용하므로 기존 방식을 적용하기 위해서는 색 좌표계 변환 처리가 요구되고, 각 R, G, B 각 신호성분에 대해 독립적인 처리를 할 경우 색상 변화가 발생할 수 있다. 또한, 기존 안개제거 방법은 큰 크기의 필터를 사용하므로 후광효과가 나타나며, 매우 많은 연산량이 요구되어 실시간 처리가 어려운 문제가 있다.
이러한 기존 방식에서 발생하는 문제를 해결하기 위하여, 본 발명에서는 입력 휘도영상으로부터 안개가 제거된 영상을 구하는 추정모델을 제공하고, 상기 추정 모델로부터 원영상에 안개가 어느 정도의 비율로 섞여있는지를 나타내는 전달률(transmission rate)을 계산하며, 계산된 전달률을 이용하여 안개가 제거된 영상을 구한다. 본 발명에서 제안한 방식은 필터를 상용하지 않고 화소단위의 연산만을 사용하므로 기존 방법에서 나타나는 후광효과와 높은 연산량 문제를 해결할 수 있다.
이러한 기술적 과제를 달성하기 위한 본 발명은 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템에 관한 것으로서, 안개가 낀 상기 입력영상을 입력받아, 안개가 제거된 화소의 추정치를 계산하는 안개제거 영상 추정치 계산부; 상기 안개가 제거된 화소의 추정치와 입력영상을 이용하여 전달률의 추정치와 전달률의 하한치를 계산하고, 계산된 전달률의 추정치와 전달률의 하한치를 가중합하여 안개가 제거된 영상 복원에 사용할 전달률을 계산하는 전달률 계산부; 및 상기 전달률 계산부를 통해 계산된 전달률 및 상기 입력영상을 이용하여, 안개가 제거된 복원영상을 출력하는 복원영상 출력부; 를 포함한다.
상기와 같은 본 발명에 따르면, 안개, 연기, 구름 등 공기 중의 밝기 및 색상 성분과, 객체의 빛 및 색 성분이 혼합되어 가시성이 낮아진 영상에 대하여, 공기 중의 밝기 및 색상성분을 제거하여 선명한 영상을 제공한다. 현재, 대부분의 멀티미디어 시스템에서 사용되는 색 좌표계는 RGB 좌표계가 아닌 YCbCr 색 좌표계와 같이 휘도신호와 색차신호를 사용하므로 휘도 정보만으로도 우수한 성능을 발휘하는 제안된 방법은 색 좌표계의 변환 없이 멀티미디어 시스템에 적용이 용이하고, 입력칼라의 색상을 유지할 수 있다. 특히, 본 발명은 화소단위의 연산을 수행하므로 큰 크기의 필터를 사용하는 기존 방법의 문제인 후광효과와 높은 연산량 문제를 해결할 수 있으므로, 실시간 응용에 적용할 수 있다.
따라서, 고화질 감시시스템, 차량용 영상 블랙박스, 화재 방지시스템 등에 적용할 경우, 안개나 연기 등으로 가시성이 감소되는 문제를 해결할 수 있고, 최근에 많은 연구가 이루어지는 첨단 안전차량에 적용이 가능한 효과가 있다.
도 1 은 본 발명에 따른 안개제거 추정 모델에 대해 입력 파라미터에 따른 안개가 제거된 화소의 밝기 값 추정 결과를 도시한 도면.
도 2 는 본 발명에 따른 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템을 개념적으로 도시한 전체 구성도.
도 3 및 도 4 는 본 발명에 따른 안개영상 개선 시스템의 시뮬레이션 결과를 나타낸 일예시도.
[부호의 설명]
S: 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
100: 안개제거 영상 추정치 계산부 200: 전달률 계산부
300: 복원영상 출력부 400: 후 처리부
210: 전달률 추정모듈 220: 전달률 하한치 계산모듈
230: 가중합 계산모듈
본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다.
본 발명에 따른 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템에 관하여 도 1 내지 도 4 를 참조하여 설명하면 다음과 같다.
한 장의 영상을 이용하여 안개를 제거하는 방법들은 공통적으로 아래의 안개 모델링 식을 이용한다.
[수식 1]
Figure PCTKR2013010407-appb-I000001
[수식 1] 은 R, G, B 채널마다 각각 정의되는데,
Figure PCTKR2013010407-appb-I000002
는 카메라를 통해 획득된 영상의 x번째 화소 값이고,
Figure PCTKR2013010407-appb-I000003
는 안개가 제거된 깨끗한 영상,
Figure PCTKR2013010407-appb-I000004
는 입력영상의 안개 포함량,
Figure PCTKR2013010407-appb-I000005
는 전달량(transmission)으로서, 획득된 영상이 깨끗한 영상과 안개 값이 어느 정도의 비율로 이루어져 있는지를 나타낸다.
따라서, 영상의 안개제거는 카메라로부터 획득한 입력영상
Figure PCTKR2013010407-appb-I000006
로부터
Figure PCTKR2013010407-appb-I000007
Figure PCTKR2013010407-appb-I000008
를 구하고, 이를 이용하여 최종적으로 안개가 제거된
Figure PCTKR2013010407-appb-I000009
를 복원하는 것이다.
[수식 1] 로부터 전달률(
Figure PCTKR2013010407-appb-I000010
)과 안개가 제거된 영상(
Figure PCTKR2013010407-appb-I000011
)은 각각 다음의 [수식 2] 및 [수식 3] 으로 구할 수 있다.
[수식 2]
Figure PCTKR2013010407-appb-I000012
[수식 3]
Figure PCTKR2013010407-appb-I000013
일반적으로, 전달률
Figure PCTKR2013010407-appb-I000014
는 다음의 [수식 4] 와 같이 거리에 따라 지수함수적으로 감소한다.
[수식 4]
Figure PCTKR2013010407-appb-I000015
여기서,
Figure PCTKR2013010407-appb-I000016
는 공기의 산란계수이고,
Figure PCTKR2013010407-appb-I000017
는 x번째 화소에 대응하는 공간상의 점과 카메라 사이의 거리이다.
따라서, 안개가 일정하게 낀 경우, 하늘과 같이 거리가 먼 곳은 전달률이 0에 가깝게 되어, [수식 1] 에서 입력영상
Figure PCTKR2013010407-appb-I000018
가 되고, 매우 가까운 곳의 화소는 전달률이 1에 근접하므로
Figure PCTKR2013010407-appb-I000019
이 된다. 따라서, 영상에서 밝은 화소는 거리가 멀어 안개가 많이 낀 경우로 가정할 수 있고 전달률이 작다고 가정할 수 있다.
본 발명에서는 입력영상의 안개 포함량(
Figure PCTKR2013010407-appb-I000020
) 을 영상 내에서 가장 밝은 화소 값으로 설정하고, 전달률은 [수식 5] 로 가정한다.
[수식 5]
Figure PCTKR2013010407-appb-I000021
[수식 5] 의 전달률의 추정치
Figure PCTKR2013010407-appb-I000022
를 [수식 3] 에 대입하면, [수식 6] 과 같은 안개가 제거된 화소의 추정치
Figure PCTKR2013010407-appb-I000023
를 입력영상의 화소 값
Figure PCTKR2013010407-appb-I000024
에 대한 2차 방정식의 해를 계산하여 구할 수 있다.
[수식 6]
Figure PCTKR2013010407-appb-I000025
만일,
Figure PCTKR2013010407-appb-I000026
= 1 인 경우, [수식 6] 은 [수식 7] 로 간단히 표현된다.
[수식 7]
Figure PCTKR2013010407-appb-I000027
도 1 은 [수식 6] 에서 제시한 안개제거 추정 모델에 대해 입력 파라미터
Figure PCTKR2013010407-appb-I000028
에 따른 안개가 제거된 화소의 밝기 값의 추정 결과를 도시한 도면으로서,
Figure PCTKR2013010407-appb-I000029
가 클수록 입력 값의 밝기를 많이 감소시키므로 보다 안개제거의 강도가 강해짐을 알 수 있다.
[수식 6] 으로부터 구한 안개가 제거된 화소의 추정치
Figure PCTKR2013010407-appb-I000030
를 다시 [수식 2] 에 대입하여 전달률의 추정치를 구하면 [수식 8] 과 같다.
[수식 8]
Figure PCTKR2013010407-appb-I000031
한편, 안개가 제거된 영상
Figure PCTKR2013010407-appb-I000033
을 만족해야 하므로 [수식 3] 으로부터 전달률
Figure PCTKR2013010407-appb-I000034
의 범위는 [수식 9] 와 같이 결정된다.
[수식 9]
Figure PCTKR2013010407-appb-I000035
여기서,
Figure PCTKR2013010407-appb-I000036
는 전달률 하한치.
본 발명에서는 안개 제거된 영상을 구하는데 사용되는 전달률은 다음의 [수식 1] 과 같이 [수식 8] 의 전달률의 추정치
Figure PCTKR2013010407-appb-I000037
와 [수식 9] 의 하한치와의 가중합으로 계산한다.
[수식 10]
Figure PCTKR2013010407-appb-I000038
여기서, ω는 가중치.
최종적으로 안개 제거된 영상은 [수식 10] 에서 구한 전달률을 [수식 3] 에 대입하여 구한다.
도 2 는 본 발명에 따른 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템(S)을 개념적으로 도시한 전체 구성도로서, 도시된 바와 같이 안개제거 영상 추정치 계산부(100), 전달률 계산부(200), 복원영상 출력부(300) 및 후 처리부(400)를 포함하여 이루어진다.
안개제거 영상 추정치 계산부(100)는 안개가 낀 입력영상(
Figure PCTKR2013010407-appb-I000039
)을 입력받아, 화소 단위로 안개가 제거된 영상을 산출하는 2차 방정식의 근을 이용하여 안개가 제거된 화소의 추정치(
Figure PCTKR2013010407-appb-I000040
)를 계산한다.
이때, 안개제거 영상 추정치 계산부(100)는 상기 [수식 6] 을 통해 안개가 제거된 화소의 추정치(
Figure PCTKR2013010407-appb-I000041
)를 계산한다.
전달률 계산부(200)는 안개가 제거된 화소의 추정치(
Figure PCTKR2013010407-appb-I000042
)와 입력영상(
Figure PCTKR2013010407-appb-I000043
)을 이용하여 화소단위로 전달률의 추정치와 전달률의 하한치를 계산하고, 계산된 전달률의 추정치와 전달률의 하한치를 가중합하여 안개가 제거된 영상 복원에 사용할 전달률을 계산하는 기능을 수행하는 바, 상기 도 2 에 도시된 바와 같이 전달률 추정모듈(210), 전달률 하한치 계산모듈(220) 및 가중합 계산모듈(230)을 포함한다.
구체적으로, 전달률 추정모듈(210)은 상기 안개제거 영상 추정치 계산부(100)를 통해 계산된 안개가 제거된 화소의 추정치(
Figure PCTKR2013010407-appb-I000044
), 입력영상(
Figure PCTKR2013010407-appb-I000045
)의 화소 값 및 안개 포함량(
Figure PCTKR2013010407-appb-I000046
)을 이용하여 상기 [수식 8] 을 통해 전달률 추정치(
Figure PCTKR2013010407-appb-I000047
)를 계산한다. 여기서, 영상의 안개 포함량(
Figure PCTKR2013010407-appb-I000048
)을 영상 내에서 가장 밝은 화소 값으로 설정한다.
전달률 하한치 계산모듈(220)은 상기 입력영상(
Figure PCTKR2013010407-appb-I000049
)을 입력받아, [수식 9] 를 통해 전달률 하한치(
Figure PCTKR2013010407-appb-I000050
)를 계산한다.
가중합 계산모듈(230)은 상기 전달률 추정모듈(210) 및 전달률 하한치 계산모듈(220)을 통해 각각 계산된 전달률 추정치(
Figure PCTKR2013010407-appb-I000051
) 및 전달률 하한치(
Figure PCTKR2013010407-appb-I000052
)를 상기 [수식 10] 을 통해 가중합하여 안개가 제거된 영상의 복원에 사용될 전달률(
Figure PCTKR2013010407-appb-I000053
)을 계산한다.
복원영상 출력부(300)는 상기 전달률 계산부(200)를 통해 계산된 전달률(
Figure PCTKR2013010407-appb-I000054
), 상기 입력영상(
Figure PCTKR2013010407-appb-I000055
) 및 안개 포함량(
Figure PCTKR2013010407-appb-I000056
)을 이용한 [수식 3] 을 통해 안개가 제거된 복원영상(
Figure PCTKR2013010407-appb-I000057
)을 출력한다.
후 처리부(400)는 상기 복원영상 출력부(300)를 통해 출력된 영상에 대하여 명도 확장(stretching) 등의 처리를 수행하여, 최종적으로 안개가 제거된 영상(
Figure PCTKR2013010407-appb-I000058
)을 출력한다.
도 3 및 도 4 는 본 발명에 따른 안개영상 개선 시스템의 시뮬레이션 결과를 나타낸 일예시도로서, 도시된 바와 같이 도 3 및 도 4 의 (a) 는 안개 낀 영상의 휘도성분
Figure PCTKR2013010407-appb-I000059
이고, 도 3 및 도 4 의 (b) 는 [수식 6] 에서 파라미터
Figure PCTKR2013010407-appb-I000060
= 1 일 때, 안개가 제거된 화소의 추정치
Figure PCTKR2013010407-appb-I000061
을 나타낸 것으로 [수식 7] 을 통해 계산된 영상이다. 또한, 도 3 및 도 4 의 (c) 는 [수식 10] 을 통해 구한 전달률
Figure PCTKR2013010407-appb-I000062
이고, 도 3 및 도 4 의 (d) 는 본 발명을 통해 안개가 제거된 휘도영상이다.
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.

Claims (8)

  1. 입력영상으로부터 화소단위로 안개가 제거된 영상을 산출하는 2차 방정식의 근을 이용하여 안개가 제거된 영상의 추정치를 계산하고, 상기 안개가 제거된 영상의 추정치와 입력영상을 이용하여 화소단위로 전달률의 추정치와 전달률의 하한치를 계산하며, 상기 전달률의 추정치와 전달률의 하한치를 가중합하여 안개가 제거된 영상 복원에 사용할 전달률을 계산하고, 상기 입력영상 내에서 최대값으로 설정된 영상의 안개 포함량, 상기 입력영상 및 전달률을 이용하여 안개가 제거된 영상을 출력하며, 출력된 영상에 대하여 명도 확장(stretching) 처리를 수행하여 최종적으로 안개가 제거된 영상을 출력하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
  2. 제 1 항에 있어서,
    안개가 낀 상기 입력영상(
    Figure PCTKR2013010407-appb-I000063
    )을 입력받아, 안개가 제거된 화소의 추정치(
    Figure PCTKR2013010407-appb-I000064
    )를 계산하는 안개제거 영상 추정치 계산부(100);
    상기 안개가 제거된 화소의 추정치(
    Figure PCTKR2013010407-appb-I000065
    )와 입력영상(
    Figure PCTKR2013010407-appb-I000066
    )을 이용하여 전달률의 추정치와 전달률의 하한치를 계산하고, 계산된 전달률의 추정치와 전달률의 하한치를 가중합하여 안개가 제거된 영상 복원에 사용할 전달률을 계산하는 전달률 계산부(200); 및
    상기 전달률 계산부(200)를 통해 계산된 전달률(
    Figure PCTKR2013010407-appb-I000067
    ) 및 상기 입력영상(
    Figure PCTKR2013010407-appb-I000068
    ) 을 이용하여, 안개가 제거된 복원영상을 출력하는 복원영상 출력부(300); 를 포함하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 복원영상 출력부(300)를 통해 출력된 영상에 대하여 명도 확장(stretching) 처리를 수행하여, 최종적으로 안개가 제거된 영상(
    Figure PCTKR2013010407-appb-I000069
    )을 출력하는 후 처리부(400); 를 포함하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
  4. 제 2 항에 있어서,
    상기 전달률 계산부(200)는,
    상기 안개제거 영상 추정치 계산부(100)를 통해 계산된 안개가 제거된 화소의 추정치(
    Figure PCTKR2013010407-appb-I000070
    ) 및 입력영상(
    Figure PCTKR2013010407-appb-I000071
    )을 이용하여 전달률 추정치(
    Figure PCTKR2013010407-appb-I000072
    )를 계산하는 전달률 추정모듈(210);
    상기 입력영상(
    Figure PCTKR2013010407-appb-I000073
    )을 입력받아, 전달률 하한치(
    Figure PCTKR2013010407-appb-I000074
    )를 계산하는 전달률 하한치 계산모듈(220); 및
    상기 전달률 추정모듈(210) 및 전달률 하한치 계산모듈(220)을 통해 각각 계산된 전달률 추정치(
    Figure PCTKR2013010407-appb-I000075
    ) 및 전달률 하한치(
    Figure PCTKR2013010407-appb-I000076
    )를 가중합하여 안개가 제거된 영상의 복원에 사용될 전달률(
    Figure PCTKR2013010407-appb-I000077
    )을 계산하는 가중합 계산모듈(230); 을 포함하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
  5. 제 2 항에 있어서,
    상기 안개제거 영상 추정치 계산부(100)는,
    상기 입력영상(
    Figure PCTKR2013010407-appb-I000078
    )의 화소 값에 대한 2차 방정식의 해인 [수식 6] 을 통해 안개가 제거된 화소의 추정치(
    Figure PCTKR2013010407-appb-I000079
    )를 계산하여 구하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
    [수식 6]
    Figure PCTKR2013010407-appb-I000080
  6. 제 4 항에 있어서,
    상기 전달률 추정모듈(210)은,
    상기 안개제거 영상 추정치 계산부(100)를 통해 계산된 안개가 제거된 화소의 추정치(
    Figure PCTKR2013010407-appb-I000081
    ), 입력영상(
    Figure PCTKR2013010407-appb-I000082
    )의 화소 값 및 안개 포함량(
    Figure PCTKR2013010407-appb-I000083
    )을 이용하여 상기 [수식 8] 을 통해 전달률 추정치(
    Figure PCTKR2013010407-appb-I000084
    )를 계산하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
    [수식 8]
    Figure PCTKR2013010407-appb-I000085
  7. 제 4 항에 있어서,
    상기 가중합 계산모듈(230)은,
    [수식 10] 을 통해 안개가 제거된 영상의 복원에 사용될 전달률(
    Figure PCTKR2013010407-appb-I000086
    )을 계산하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
    [수식 10]
    Figure PCTKR2013010407-appb-I000087
    여기서, ω 는 가중치.
  8. 제 2 항에 있어서,
    상기 복원영상 출력부(300)는,
    상기 전달률 계산부(200)를 통해 계산된 전달률(
    Figure PCTKR2013010407-appb-I000088
    ), 상기 입력영상(
    Figure PCTKR2013010407-appb-I000089
    ) 및 안개 포함량(
    Figure PCTKR2013010407-appb-I000090
    )을 이용한 [수식 3] 을 통해 안개가 제거된 복원영상(
    Figure PCTKR2013010407-appb-I000091
    )을 출력하는 것을 특징으로 하는 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템.
    [수식 3]
    Figure PCTKR2013010407-appb-I000092
PCT/KR2013/010407 2013-03-11 2013-11-15 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템 WO2014142417A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/407,092 US9418402B2 (en) 2013-03-11 2013-11-15 System for improving foggy luminance image using fog reduction estimation model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0025544 2013-03-11
KR20130025544A KR101445577B1 (ko) 2013-03-11 2013-03-11 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템

Publications (1)

Publication Number Publication Date
WO2014142417A1 true WO2014142417A1 (ko) 2014-09-18

Family

ID=51537035

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010407 WO2014142417A1 (ko) 2013-03-11 2013-11-15 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템

Country Status (3)

Country Link
US (1) US9418402B2 (ko)
KR (1) KR101445577B1 (ko)
WO (1) WO2014142417A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2658874C1 (ru) * 2014-06-12 2018-06-25 ЭЙЗО Корпорайшн Устройство удаления тумана и способ формирования изображений
US9508126B2 (en) * 2015-02-17 2016-11-29 Adobe Systems Incorporated Image haze removal using fast constrained transmission estimation
KR102461144B1 (ko) 2015-10-16 2022-10-31 삼성전자주식회사 영상 연무 제거 장치
JP6635799B2 (ja) * 2016-01-20 2020-01-29 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
TWI580266B (zh) * 2016-02-15 2017-04-21 聯詠科技股份有限公司 影像處理裝置
US10269098B2 (en) * 2016-11-01 2019-04-23 Chun Ming Tsang Systems and methods for removing haze in digital photos
CN108022222A (zh) * 2017-12-15 2018-05-11 西北工业大学 一种基于卷积-反卷积网络的遥感图像薄云去除方法
KR101997866B1 (ko) * 2017-12-18 2019-07-08 동아대학교 산학협력단 단일 영상 내 안개성분 제거 방법
US11127121B2 (en) 2019-03-29 2021-09-21 Wipro Limited System and method of generating enhanced video by removing fog for vehicle navigation
CN110334660A (zh) * 2019-07-08 2019-10-15 天津城建大学 一种雾天条件下基于机器视觉的森林火灾监测方法
CN110827218B (zh) * 2019-10-31 2023-08-29 西北工业大学 基于图像hsv透射率加权校正的机载图像去雾方法
KR102268027B1 (ko) 2019-11-29 2021-06-23 고려대학교 산학협력단 딥러닝 기반 영상의 안개 제거 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102383066B1 (ko) 2020-05-19 2022-04-06 한국도로공사 편광 이미지를 이용한 이미지 내 안개 제거 방법 및 시스템
CN111598886B (zh) * 2020-05-25 2022-03-22 中国科学院长春光学精密机械与物理研究所 一种基于单幅图像的像素级透过率估计方法
KR102220773B1 (ko) * 2020-10-20 2021-02-26 한화시스템(주) 함포 교전 능력을 향상시키기 위한 연기 제거장치 및 그 방법
KR20230144838A (ko) 2022-04-08 2023-10-17 한화오션 주식회사 화이트 채널 프라이어를 활용한 단일 영상의 안개제거방법
KR102583922B1 (ko) * 2023-09-04 2023-10-05 엘텍코리아 주식회사 저시정 영상 개선장치를 포함하는 이동체의 위치 제어 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100021952A (ko) * 2008-08-18 2010-02-26 삼성테크윈 주식회사 안개 등의 대기 산란 입자로 인한 왜곡 보정용 영상 처리 방법 및 장치
KR20110050775A (ko) * 2009-11-09 2011-05-17 리누딕스 주식회사 Cctv 영상 화질 개선 장치
KR20120079564A (ko) * 2011-01-05 2012-07-13 중앙대학교 산학협력단 에지 정보 및 톤 매핑을 기반으로 한 영상의 안개제거 장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6625723B1 (en) * 1999-07-07 2003-09-23 Intel Corporation Unified renaming scheme for load and store instructions
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US8396324B2 (en) 2008-08-18 2013-03-12 Samsung Techwin Co., Ltd. Image processing method and apparatus for correcting distortion caused by air particles as in fog
KR20120011788A (ko) * 2010-07-23 2012-02-08 삼성전자주식회사 네비게이션 수신기에 수신된 신호를 이용하여 위치를 결정하는 방법 및 장치
US20120213436A1 (en) * 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
KR101292421B1 (ko) * 2011-08-05 2013-08-01 경희대학교 산학협력단 단위 블록별 안개 영상 보상 방법
DE102011086512B4 (de) * 2011-11-16 2022-12-01 Bayerische Motoren Werke Aktiengesellschaft Nebeldetektion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100021952A (ko) * 2008-08-18 2010-02-26 삼성테크윈 주식회사 안개 등의 대기 산란 입자로 인한 왜곡 보정용 영상 처리 방법 및 장치
KR20110050775A (ko) * 2009-11-09 2011-05-17 리누딕스 주식회사 Cctv 영상 화질 개선 장치
KR20120079564A (ko) * 2011-01-05 2012-07-13 중앙대학교 산학협력단 에지 정보 및 톤 매핑을 기반으로 한 영상의 안개제거 장치 및 방법

Also Published As

Publication number Publication date
US9418402B2 (en) 2016-08-16
KR20140111426A (ko) 2014-09-19
US20150161769A1 (en) 2015-06-11
KR101445577B1 (ko) 2014-11-04

Similar Documents

Publication Publication Date Title
WO2014142417A1 (ko) 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
WO2014193055A1 (ko) 사용자 제어가 가능한 거듭제곱근 연산자를 이용한 안개영상 개선 장치
WO2013103184A1 (ko) 색상 채널을 이용한 영상 개선 장치 및 방법
WO2013165210A1 (ko) 정지영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법
WO2016003253A1 (en) Method and apparatus for image capturing and simultaneous depth extraction
WO2013125768A1 (ko) 다중 컬러 필터 조리개를 구비한 촬상 장치에 의해 촬영된 영상의 자동 객체 검출 및 깊이 정보 추정장치 및 방법
WO2016053067A1 (en) 3-dimensional model generation using edges
WO2013172580A1 (ko) 동영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법
WO2017014396A1 (ko) 영상의 파장 적응적 안개 제거 장치 및 방법
WO2015037957A1 (ko) 영상 흔들림 보정을 이용한 영상 안정화 장치 및 방법
CN107424133A (zh) 图像去雾方法、装置、计算机可存储介质和移动终端
WO2014185710A1 (ko) Tiled display에서 3d 영상을 보정하는 방법 및 장치
CN111738941B (zh) 融合光场和偏振信息的水下图像优化方法
WO2019132131A1 (ko) 사고 선박 및 익수자 탐지용 다중파장 영상 분석 전자 광학 시스템 및 그 분석 방법
WO2014035103A1 (ko) 촬영영상으로부터 객체를 감시하기 위한 장치 및 방법
EP3164992A1 (en) Method and apparatus for image capturing and simultaneous depth extraction
CN107277299A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2018101746A2 (ko) 도로면 폐색 영역 복원 장치 및 방법
CN110335210B (zh) 一种水下图像复原方法
Patel et al. A review on methods of image dehazing
KR20140137832A (ko) 전달률 하한치를 이용한 안개영상 개선 장치
CN117197068A (zh) 雾浓度估计方法、装置、设备及存储介质
Sahu Design a New Methodology for Removing Fog from the Image
WO2023284104A1 (zh) 绝缘子表面藻类覆盖率测算方法、装置及存储介质
CN110009575A (zh) 基于稀疏表示的红外图像条带噪声抑制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13877822

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14407092

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13877822

Country of ref document: EP

Kind code of ref document: A1