KR102377318B1 - High Dynamic Range technique for light exposure compensation and image quality improvement - Google Patents

High Dynamic Range technique for light exposure compensation and image quality improvement Download PDF

Info

Publication number
KR102377318B1
KR102377318B1 KR1020210147722A KR20210147722A KR102377318B1 KR 102377318 B1 KR102377318 B1 KR 102377318B1 KR 1020210147722 A KR1020210147722 A KR 1020210147722A KR 20210147722 A KR20210147722 A KR 20210147722A KR 102377318 B1 KR102377318 B1 KR 102377318B1
Authority
KR
South Korea
Prior art keywords
image
class
value
light exposure
technique
Prior art date
Application number
KR1020210147722A
Other languages
Korean (ko)
Inventor
한규필
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020210147722A priority Critical patent/KR102377318B1/en
Application granted granted Critical
Publication of KR102377318B1 publication Critical patent/KR102377318B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/007Dynamic range modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Abstract

According to the present invention, an HDR technique for correcting light exposure and increasing image quality comprises the steps of: separating a brightness or luminance channel from an input image, and calculating and applying a gamma correction coefficient for correcting the entire image with the global average value (μ) and the median value (m) of the brightness or luminance value of the image, which are basic parameters extracted from an image global distribution; extracting the class ratio (P_1, P_2) and the class average value (μ_1), which are complementary parameters, from information on classes obtained by binarizing the image into bright and dark areas by applying a binarization image segmentation technique; and determining fusion weights by using the extracted complementary parameters. Therefore, the HDR technique can simply and effectively convert low-contrast and inappropriately exposed images (overexposure, underexposure, and backlight) and low-quality low dynamic range (LDR) images into high-definition HDR images.

Description

광노출 보정 및 화질 개선을 위한 HDR 기법{High Dynamic Range technique for light exposure compensation and image quality improvement}High Dynamic Range technique for light exposure compensation and image quality improvement

본 발명은 HDR(High Dynamic Range) 기법에 관한 것으로서, 더 상세하게는 광노출 보정 및 화질 개선을 위한 HDR 기법에 관한 것이다.The present invention relates to a high dynamic range (HDR) technique, and more particularly, to an HDR technique for correcting light exposure and improving image quality.

최근 스마트폰 내장 카메라의 고사양화와 저가의 고성능 DSLR(digital single lens reflex) 카메라 보급 확대 및 개인의 일상생활을 기록하는 라이프 로깅(life logging) 시대가 보편화되면서 기록 매체의 대부분을 사진이 차지하게 되었다. Recently, as the high-end smartphone built-in camera, the spread of low-cost, high-performance DSLR (digital single lens reflex) cameras, and the life-logging era to record personal daily life became common, photography took up most of the recording media.

그러나 일반인들은 사진 기술에 대한 전문성이 없기 때문에, 역광, 일출과 일몰 등의 환경에서는 부적절한 노출값으로 사진을 획득하는 경우가 빈번하다고 할 수 있다. 이 문제를 해결하기 위해서 카메라 제조사들은 다양한 측광(light metering) 모드와 화질 개선 기능을 탑재하고 있으나, 모든 환경을 반영할 수 없고 사용자의 조작 실수도 많은 비율을 차지하고 있다. However, since ordinary people do not have expertise in photographic technology, it can be said that photographs are frequently obtained with inappropriate exposure values in environments such as backlight, sunrise and sunset. In order to solve this problem, camera manufacturers are equipped with various light metering modes and image quality improvement functions, but they cannot reflect all environments, and user errors account for a large proportion.

그러므로 이런 영상을 개선하기 위해 최근 노출 융합(exposure fusion)을 이용한 HDR(high dynamic range), Retinex, 톤 맵핑(tone mapping)과 감마 보정(gamma correction) 및 히스토그램 변형(histogram manipulation) 등을 이용한 다양한 방법이 활발히 연구되고 있다.Therefore, in order to improve these images, various methods using recently high dynamic range (HDR) using exposure fusion, Retinex, tone mapping, gamma correction, and histogram manipulation, etc. This is being actively studied.

특히, 노출 보정을 통한 고화질 영상 기법(HDR 기법)은 노출 융합법과 톤 맵핑법이 대표적이다. 그러나 노출 융합법은 여러 장의 다른 노출값 사진이 필요하므로 이미 촬영된 영상이나 기존 시스템에는 적용이 불가능하고 톤 맵핑법은 복잡한 변환 수식을 사용하기 때문에 구현이 어렵고 성능이 나쁜 문제가 있다. In particular, as for the high-definition imaging technique (HDR technique) through exposure compensation, the exposure fusion method and the tone mapping method are representative. However, since the exposure fusion method requires several photos of different exposure values, it cannot be applied to already captured images or existing systems, and the tone mapping method is difficult to implement and has poor performance because it uses a complex conversion formula.

KRKR 10-171773310-1717733 BB

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 단일 입력 영상의 명도 또는 휘도채널의 통계정보(전체 평균값과 중간값)만을 이용하여 최적의 감마보상 계수를 예측한 후, 부적정 광노출(저노출 및 과노출)된 낮은 동적 범위의 영상을 HDR 영상으로 개선하는 광노출 보정 및 화질 개선을 위한 HDR 기법을 제공한다.The present invention has been proposed to solve the above technical problem, and after predicting the optimal gamma compensation coefficient using only the brightness or luminance channel statistical information (the overall average value and the median value) of a single input image, improper light exposure It provides HDR techniques for photo-exposure correction and image quality improvement that improve (under-exposure and over-exposure) low dynamic range images into HDR images.

상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 입력된 영상에서 명도 또는 휘도 채널을 분리한 다음, 영상 전역 분포에서 추출한 기본 매개변수인 영상의 명도 또는 휘도값의 전역 평균값(μ)과 중간값(m)으로 전체 영상을 보정하는 감마 보정 계수를 계산해서 적용하는 단계와, 이진화 영상 분할 기법을 적용하여 영상을 밝은 영역과 어두운 영역으로 이진화한 클래스들의 정보에서 보완 매개변수인 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)을 추출하는 단계와, 추출된 보완 매개변수를 사용하여 융합 가중치를 결정하는 단계를 포함하는 광노출 보정 및 화질 개선을 위한 HDR 기법이 제공된다. - P1 : 밝은 영역의 클래스 비율, P2 : 어두운 영역의 클래스 비율, μ1 : 밝은 영역의 클래스 평균값, μ2 : 어두운 영역의 클래스 평균값 - According to an embodiment of the present invention to solve the above problem, the brightness or luminance channel is separated from the input image, and then the global average value (μ) of the brightness or luminance values of the image, which is a basic parameter extracted from the global distribution of the image, and The step of calculating and applying a gamma correction coefficient that corrects the entire image with the median value (m), and the class ratio ( There is an HDR technique for light exposure correction and image quality improvement, which includes extracting P 1 , P 2 ) and class average values (μ 1 , μ 2 ), and determining a fusion weight using the extracted complementary parameters. provided - P 1 : Class ratio of bright area, P 2 : Class ratio of dark area, μ 1 : Class average value of bright area, μ 2 : Class average value of dark area -

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

또한, 본 발명에서 이진화 영상 분할 기법은, Ostu, Iterative thresholding, Kapur 또는 Adaptive thresholding 중 어느 하나의 기법이 사용되는 것을 특징으로 한다.
또한, 본 발명에서 영상의 전역 평균값(μ)과, 중간값(m)의 차이인 d 로부터 감마 보정 계수 - 밝은 영역을 어둡게 보정하는 감마 보정 계수(γ1), 어두운 영역을 밝게 보상하기 위한 감마 보정 계수(γ2) - 를 계산하기 위해서 +∞와 -∞ 양쪽에서 수렴하는 sigmoid 함수를 사용하는 것을 특징으로 한다.
또한, 본 발명에서 영상의 전역 평균값(μ)과, 중간값(m)의 차이인 d 로부터 감마 보정 계수를 계산할 때, 선형 또는 비선형 함수 중 어느 하나를 사용하는 것을 특징으로 한다.
또한, 본 발명에서 밝은 영역을 어둡게 보정하는 감마 보정 계수(γ1) 및 어두운 영역을 밝게 보상하기 위한 감마 보정 계수(γ2)는 하기 식과 같이,

Figure 112022024869119-pat00047

Figure 112022024869119-pat00048

- 여기서 α, β는 스케일링 상수, γmax1는 γ1 의 최대값, γmax2는 γ2 의 최대값, γmin1는 γ1 의 최소값, γmin2는 γ2 의 최소값임 - 으로 정의되는 것을 특징으로 한다.
또한, 본 발명에서 감마 보정 계수(γ1, γ2)로 보정된 각 영상(I(i, j))을 하기 식과 같이,
Figure 112022024869119-pat00049

- 여기서 ω는 각 보정 영상에 대한 융합 가중치이고, 밝은 화소가 보정된 영상(Ib), 어두운 화소가 보정된 영상(Id) 및 입력 영상(Ii)임 - 가중치 융합하여 결과 영상 R(i, j)를 획득하는 것을 특징으로 한다.
또한, 본 발명에서 클래스 평균값의 절대적 위치(class mean position)에 따른 가중치 함수(ωcmp)는 μ1이 0에 가깝거나 μ2가 255에 가까울수록 큰 값을 가지도록 하기 식과 같이,
Figure 112022024869119-pat00050

- 여기에서 σ는 클래스 평균값의 절대적 위치에 따른 가중치 결정 함수인 가우시안 함수의 폭을 조정하는 표준편차임 - 으로 처리되는 것을 특징으로 한다.
또한, 본 발명에서 어두운 클래스와 밝은 클래스의 평균값 위치(class mean position)에 따른 융합 가중치를 계산할 때, Gaussian 함수, 선형 또는 비선형함수 중 어느 하나를 사용하는 것을 특징으로 한다.
또한, 본 발명에서 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)이 적용된 융합 가중치는,
Figure 112022024869119-pat00051

- 여기에서 T는 밝은 영역과 어두운 영역으로 이진 분할하는 문턱치이고, ωb 는 밝은 영역의 융합 가중치이고, ωd 는 어두운 영역의 융합 가중치임 - 으로 정의되는 것을 특징으로 한다.
또한, 본 발명에서 기본 매개변수(primary parameter)인 영상의 전역 평균값(μ)과 중간값(m)으로 전체적인 감마 보정 계수를 계산해서 적용한 후, 이진화된 영상의 보완 매개변수인 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)으로 융합 가중치를 결정하는 것을 특징으로 한다.In addition, the binarization image segmentation technique in the present invention is characterized in that any one of Ostu, Iterative thresholding, Kapur, and Adaptive thresholding is used.
In addition, in the present invention, from d, which is the difference between the global average value (μ) and the median value (m) of the image, a gamma correction coefficient - a gamma correction coefficient for darkening a bright area (γ 1 ), and a gamma for brightening a dark area It is characterized by using a sigmoid function that converges on both +∞ and -∞ to calculate the correction coefficient (γ 2 ) - .
In addition, in the present invention, when calculating the gamma correction coefficient from the difference d between the global average value (μ) and the median value (m) of the image, either a linear or non-linear function is used.
In addition, in the present invention, a gamma correction coefficient (γ 1 ) for darkly correcting a bright area and a gamma correction coefficient (γ 2 ) for brightly compensating a dark area are as follows:
Figure 112022024869119-pat00047

Figure 112022024869119-pat00048

- where α and β are scaling constants, γ max1 is the maximum value of γ 1 , γ max2 is the maximum value of γ 2 , γ min1 is the minimum value of γ 1 , γ min2 is the minimum value of γ 2 - do.
In addition, in the present invention, each image (I(i, j)) corrected with the gamma correction coefficients (γ 1 , γ 2 ) is expressed by the following equation,
Figure 112022024869119-pat00049

- where ω is the fusion weight for each corrected image, the bright pixel corrected image (I b ), the dark pixel corrected image (I d ), and the input image (I i ) - weighted fusion resulting image R( It is characterized in that i, j) is obtained.
In addition, in the present invention, the weight function (ω cmp ) according to the absolute position of the class mean value has a larger value as μ 1 is closer to 0 or μ 2 is closer to 255, as in the following formula,
Figure 112022024869119-pat00050

- Here, σ is the standard deviation that adjusts the width of the Gaussian function, which is a weight determining function according to the absolute position of the class average value.
In addition, when calculating the fusion weight according to the class mean position of the dark class and the light class in the present invention, any one of a Gaussian function, a linear function, or a non-linear function is used.
In addition, in the present invention, the fusion weight to which the class ratio (P 1 , P 2 ) and the class average value (μ 1 , μ 2 ) is applied is,
Figure 112022024869119-pat00051

- where T is the threshold for binary partitioning into bright and dark regions, ω b is the fusion weight of the bright region, and ω d is the fusion weight of the dark region.
In addition, in the present invention, after calculating and applying the overall gamma correction coefficient using the global average (μ) and median (m) of the image, which are the primary parameters, the class ratio (P 1 ), which is a complementary parameter of the binarized image , P 2 ) and class average values (μ 1 , μ 2 ) to determine the fusion weight.

삭제delete

삭제delete

삭제delete

삭제delete

본 발명의 실시예에 따른 광노출 보정 및 화질 개선을 위한 HDR 기법은, 영상의 통계적 특징(전체 평균과 중간값)을 이용하여 가장 단순하게 영상을 보정할 수 있는 감마보정 함수의 계수를 결정하여 어두운 영역과 밝은 영역을 보상한다. The HDR technique for light exposure correction and image quality improvement according to an embodiment of the present invention determines the coefficient of a gamma correction function that can correct an image most simply by using statistical features (overall average and median value) of the image. Compensates for dark and bright areas.

그리고 각 보상 영상을 적절하게 통합하기 위해 밝은 영역과 어두운 영역으로 이진 분할된 각 클래스의 비율과 클래스 평균값을 활용하여 통합 가중치를 결정하여 모든 영역이 개선된 최종 HDR 영상을 획득한다.Then, in order to properly integrate each compensation image, the ratio of each class binary divided into bright and dark regions and the class average value are used to determine the integration weight to obtain the final HDR image in which all regions are improved.

따라서 본 발명은 저대조(low contrast), 노출 부적정 영상(과노출, 저노출 및 역광)의 보정 및 저화질 LDR(low dynamic range) 영상을 고화질 HDR 영상으로 변환하는 단순하면서 효과적인 방법이다. Therefore, the present invention is a simple and effective method for correcting low contrast, underexposure images (overexposure, underexposure and backlight) and converting a low quality low dynamic range (LDR) image into a high quality HDR image.

도 1은 노출 값이 다른 예시 이미지를 나타낸 도면
도 2는 다양한 글로벌 및 로컬 TMO(tone mapping operator)를 나타낸 도면
도 3은 일반적인 감마 보정 함수를 나타낸 도면
도 4는 본 발명의 실시예에서 제안하는 광노출 보정 및 화질 개선을 위한 HDR 기법의 블록도(알고리즘)
도 5는 Ostu 임계값의 예시를 나타내 도면<(a)분포 (b)클래스 간 분산>
도 6은 부적절 광노출(저노출 및 과노출)에 대한 기본 매개변수 예시도<(a)저노출 (b)과노출>
도 7은 통계 분석을 위한 이미지의 일부를 나타낸 도면
도 8은 이진 분할 후 보완 매개변수를 나타낸 도면<(a) 도 6(a)의 경우 (b) 도 6(b)의 경우>
도 9는 제안한 알고리즘의 감마 보정 범위를 나타낸 도면
도 10은 제안하는 감마 계산 함수를 나타낸 도면
도 11은 클래스 평균값 위치에 대한 가중치 함수를 나타낸 도면
도 12는 실험 이미지를 나타낸 도면<(a)이미지 1 (b)이미지 2 (c)이미지 3 (d)이미지 4>
도 13은 이미지 1에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>
도 14는 이미지 2에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>
도 15는 이미지 3에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>
도 16은 이미지 4에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>
1 is a view showing exemplary images with different exposure values;
2 is a diagram illustrating various global and local tone mapping operators (TMOs);
3 is a diagram showing a general gamma correction function;
4 is a block diagram (algorithm) of an HDR technique for light exposure correction and image quality improvement proposed in an embodiment of the present invention.
5 is a diagram showing an example of the Ostu threshold <(a) distribution (b) variance between classes>
6 is an example diagram of basic parameters for inappropriate light exposure (under-exposure and over-exposure) <(a) under-exposure (b) over-exposure>
7 is a view showing a part of an image for statistical analysis
Fig. 8 is a diagram showing the supplementary parameters after binary division <(a) In the case of Fig. 6(a) (b) In the case of Fig. 6(b)>
9 is a diagram showing the gamma correction range of the proposed algorithm.
10 is a diagram illustrating a proposed gamma calculation function;
11 is a diagram illustrating a weight function for a class average value position;
12 is a view showing an experimental image <(a) Image 1 (b) Image 2 (c) Image 3 (d) Image 4>
13 is a diagram showing the results for image 1 <(a) Method 1 (b) Method 2 (c) Proposal method>
14 is a diagram showing the results for image 2 <(a) Method 1 (b) Method 2 (c) Proposal method>
15 is a diagram showing the results for image 3 <(a) Method 1 (b) Method 2 (c) Proposal method>
16 is a view showing the results for image 4 <(a) Method 1 (b) Method 2 (c) Proposal method>

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail enough that a person of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention.

본 발명에서는 부적당한 노출값으로 획득된 측광 실패 영상의 광노출을 보정하는 HDR 알고리즘을 제안한다. 기존의 톤 맵핑과 감마 보정 기법은 입력과 출력 범위가 같은 함수 맵핑으로 보정을 수행하여 영상이 평균적으로 향상되기 때문에 밝기 분포가 평균을 기준으로 대칭적일 경우 좋은 결과를 가져오지만, 비대칭적인 분포에서는 어둡거나 밝은 부분의 한쪽에는 보상이 충분하지 못한 결과를 가져왔었다. The present invention proposes an HDR algorithm for correcting the light exposure of a photometric failure image obtained with an improper exposure value. Existing tone mapping and gamma correction techniques produce good results when the brightness distribution is symmetric with respect to the average, because the image is improved on average by performing correction with function mapping with the same input and output ranges. Otherwise, the compensation was not sufficient for one side of the bright part.

또한, 히스토그램 변형 함수를 이용하는 방법은 강제적으로 영상 분포를 이동시키기 때문에 변화가 많은 영상에는 잘 동작하지만, 평탄한 영역에서는 의도하지 않는 잡음이 심해지는 결과가 나타난다. In addition, the method using the histogram transformation function forcibly shifts the image distribution, so it works well for an image with a lot of change, but unintended noise increases in a flat area.

그러므로 제안한 방법에서는 어둡거나 밝은 부분 모두에 충분한 보정을 적용하기 위해 전역 분포에서 추출한 기본 매개변수로 전체 보정을 위한 감마 계수를 계산한다. 그 다음 이진화 영상 분할 기법에 의해 분할된 정보에서 보완적인 매개변수를 활용하여 융합 가중치에 반영한다. 그 결과 저노출 및 과노출 영상 뿐만아니라 영상의 밝기 분포가 대칭적이거나 비대칭적인 영상에서도 좋은 보정 결과를 얻을 수 있다.Therefore, in the proposed method, in order to apply sufficient correction to both dark and bright parts, the gamma coefficient for overall correction is calculated with the basic parameters extracted from the global distribution. Then, complementary parameters are used in the information segmented by the binarization image segmentation technique and reflected in the fusion weight. As a result, good correction results can be obtained not only in underexposed and overexposed images, but also in images in which the brightness distribution of the image is symmetrical or asymmetrical.

노출 융합exposure fusion

하드웨어적으로 노출 융합이 적용되는 카메라에서는 EV(exposure value)값을 브라케팅(bracketing) 하여 여러 장의 사진을 고속으로 촬영하여 사용하고, 이미 획득된 단일 영상인 경우에는 소프트웨어적으로 감마 보정 계수를 다르게 하여 여러 단계의 보정 영상을 생성하여 이용한다.In a camera that hardware exposure fusion is applied, multiple photos are taken at high speed by bracketing the EV (exposure value) value. It is used to generate and use correction images of several stages.

도 1은 노출 값이 다른 예시 이미지를 나타낸 도면이다.1 is a diagram illustrating exemplary images having different exposure values.

노출 융합은 대부분 휘도(luminance) 또는 명도(brightness) 채널에서 수행되며, 도 1에서처럼 생성된 다중 영상을 화소별로 가중치를 다르게 해서 융합하며, 가장 대표적인 기법은 Tom Mertens 등이 제안한 방식으로 노출이 다른 N개의 영상으로부터 식 (1)과 같이 융합을 위한 가중치 맵 W를 생성한다.Most of the exposure fusion is performed in the luminance or brightness channel, and as in FIG. 1, multiple images generated by different weights are fused for each pixel, and the most representative technique is the method proposed by Tom Mertens et al. A weight map W for fusion is generated from the images of the dog as in Equation (1).

Figure 112021125295270-pat00006
Figure 112021125295270-pat00006

여기서 (i,j)는 영상의 위치이고 k는 k번째 영상의 가중치 맵을 뜻한다. C는 대조(contrast), S는 채도(saturation), E는 노출 정도(well-exposedness)를 나타내며 ω는 각 항목의 반영 계수이다. 이렇게 획득한 가충치 맵을 정규화한 다음 각 입력 영상에 곱하여 식 (2)와 같이 최종 융합 영상(Rij)을 획득한다.Here, (i, j) is the position of the image, and k is the weight map of the k-th image. C is contrast, S is saturation, E is well-exposedness, and ω is the reflection coefficient of each item. After normalizing the provisional decay map obtained in this way, it is multiplied by each input image to obtain a final fusion image (R ij ) as shown in Equation (2).

Figure 112021125295270-pat00007
Figure 112021125295270-pat00007

여기서

Figure 112022024869119-pat00008
은 정규화된 가중치를, I는 입력 영상을 각각 나타낸다. 그러므로 이 과정에서 가장 중요한 부분은 대조, 채도 및 노출 정도를 척도로 수치화하는 것과 각 척도에 화소별 가중치를 결정하는 것이며, 이 부분이 해결해야 할 어려운 문제라고 할 수 있다. 또한, 대부분의 노출 융합법은 식 (2)에서처럼 가중치 맵을 화소별로 다르게 적용하기 때문에 지역적 특성을 반영할 수 있다는 장점이 있지만, 가중치 맵의 데이터가 영상의 개수(N)만큼 필요하고 자료형이 실수형이므로 [4×N×영상크기] 공간이 요구된다. 그 결과, 연산량과 자료공간을 많이 소모하는 단점이 있다.here
Figure 112022024869119-pat00008
denotes a normalized weight, and I denotes an input image. Therefore, the most important part in this process is to quantify contrast, saturation, and exposure as a scale, and to determine a weight for each pixel on each scale, which is a difficult problem to be solved. In addition, most exposure fusion methods have the advantage of reflecting regional characteristics because the weight map is applied differently for each pixel as in Equation (2), but the weight map data requires as much as the number of images (N) and the data type is [4×N×image size] space is required. As a result, there is a disadvantage of consuming a lot of computation and data space.

톤 맵핑tone mapping

톤 맵핑은 영상의 동적범위를 비트 확장에 의해 넓은 범위로 확장한 후, 목표 디스플레이 장치에 적절하게 표현될 수 있도록 밝기 톤을 축소하는 기술이다. Tone mapping is a technique for extending the dynamic range of an image to a wide range by bit extension, and then reducing the brightness tone so that it can be appropriately expressed on a target display device.

도 2는 다양한 글로벌 및 로컬 TMO(tone mapping operator)를 나타낸 도면이다.2 is a diagram illustrating various global and local tone mapping operators (TMOs).

도 2에서 보는 것과 같이 톤 매핑은 디스플레이 색역(color space/gamut) 한계 내에서 입력 휘도 또는 색값에 대해 출력 값을 사상하는 함수로 표현되며, 크게 전역(global)과 국부(local) 곡선으로 구분되고 국부 맵핑 함수는 특정 구역의 중심값 좌우로 미세한 변환을 수행한다. 가장 간단하고 대표적인 기법은 Reinhard 방식으로 TMO(tone mapping operator)는 As shown in FIG. 2, tone mapping is expressed as a function that maps an output value to an input luminance or color value within the display gamut (color space/gamut) limit, and is largely divided into global and local curves, The local mapping function performs a fine transformation to the left and right of the center value of a specific region. The simplest and most representative technique is the Reinhard method, and TMO (tone mapping operator) is

Figure 112021125295270-pat00009
Figure 112021125295270-pat00009

식 (3)과 같이 표현되고 Yi는 입력 휘도, Yo은 사상된 출력 휘도 값이다. 그러나 최대 입력(Yi=1)일 경우, 출력이 1/2이 되면서 동적범위를 모두 활용하지 못하는 단점이 있어 최대 휘도 값인 백색을 반영한 식 (4)와 같이 전체 동적범위를 사용하는 Extended Reinhard 방법을 주로 사용된다. It is expressed as in Equation (3), where Y i is the input luminance and Y o is the mapped output luminance value. However, in the case of the maximum input (Y i = 1), the output is 1/2 and the dynamic range cannot be fully utilized, so the Extended Reinhard method using the entire dynamic range as in Equation (4) reflecting the maximum luminance value of white. is mainly used

Figure 112021125295270-pat00010
Figure 112021125295270-pat00010

Ywhite : 백색 일 때의 휘도값Y white : luminance value when white

그 이후, 실제 필름과 같은 특성을 모방하는 Filmic기법이 제시되었으며, John Hable에 의해 고안된 'Hable Filmic'으로 알려진 Uncharted 2가 대표적인 방법이다. Filmic 기법은 변환함수의 ‘toe’에 해당하는 부분이 Reinhard 곡선보다 낮아서 검은색 영역이 포화되는 특성이 있으며, 필름 특성을 반영하기 위해 세부 구간마다 다른 곡선을 사용하는 piece-wise 함수를 사용한다. Filmic 기법 중 가장 인기가 있는 기법은 행렬 변환으로 빠르게 색값을 변환하는 ACES(academy color encoding system)이며, 실시간 게임 엔진 unreal engine 4나 컴퓨터 그래픽 환경에서 요즘 많이 활용되고 있다. 전역 톤 맵핑 곡선의 외형은 로그 함수에서 시그모이드 함수까지 있고 세부 영역에 대해 미세조정을 추가하는 국부 방법이 보편화되고 있지만, 국부 제어와 평균 및 최대 밝기 등을 고려할수록 연산량이 계속 증가한다.After that, filmic techniques that mimic the properties of real films have been proposed, and Uncharted 2, also known as 'Hable Filmic' designed by John Hable, is a representative method. The filmic technique has a characteristic that the black region is saturated because the part corresponding to ‘toe’ of the conversion function is lower than the Reinhard curve. The most popular filmic technique is ACES (academy color encoding system), which rapidly converts color values through matrix transformation, and is widely used these days in the real-time game engine unreal engine 4 or computer graphics environment. The appearance of the global tone mapping curve ranges from a log function to a sigmoid function, and a local method of adding fine adjustments for a detailed area is becoming common, but the amount of computation continues to increase as local control and average and maximum brightness are taken into account.

감마 보정Gamma Correction

감마 보정을 큰 관점에서 보면 전역 톤 맵핑 함수로 생각할 수 있지만, 카메라나 디스플레이의 비선형 물리적 특성을 선형적으로 보상하기 위한 기술이기 때문에 개념과 적용에서 완전히 다른 분야라고 할 수 있다. 보정된 출력값(IC)은 입력(IS)에 대해서 감마 계수(γ)의 역수 승으로 표현되며, 여기서 L은 최대 출력값이다.Gamma correction can be thought of as a global tone mapping function from a large perspective, but since it is a technology for linearly compensating for non-linear physical properties of a camera or display, it is a completely different field in concept and application. The corrected output value I C is expressed as the power of the reciprocal of the gamma coefficient γ with respect to the input IS , where L is the maximum output value.

Figure 112021125295270-pat00011
Figure 112021125295270-pat00011

도 3은 일반적인 감마 보정 함수를 나타낸 도면이다.3 is a diagram illustrating a general gamma correction function.

영상 장비의 보편적 입출력 감마 특성은 도 3과 같으며, 일반적으로 모니터와 같은 디스플레이는 γ=0.45이고 카메라의 센서는 역수인 2.2 정도이다. 이런 감마 보정이 영상 장비의 특성을 보상하기 위한 것이기도 하지만, 인간 시각의 신경생물학적 특성도 비선형적이므로 영상 장치의 특성과 사람의 인지 정도를 복합적으로 보정하기 위해 널리 적용되고 있다.The general input/output gamma characteristic of the imaging equipment is as shown in FIG. 3 , and in general, a display such as a monitor has γ=0.45, and the sensor of a camera has a reciprocal of about 2.2. Although this gamma correction is intended to compensate for the characteristics of imaging equipment, the neurobiological characteristics of human vision are also non-linear, so it is widely applied to complexly correct the characteristics of imaging devices and human perception.

- 제안한 방법- Suggested method

본 발명에서 제안하는 기법은 상대적으로 톤 맵핑보다 단순한 보정 기법인 감마 보정을 이용하는 기법이며, 영상의 특성에 따라 전체 영상에 고정적으로 적용되는 적응적 감마 계수와 세부적 특성 반영을 위해 융합 가중치를 조정하는 노출 보정법을 제시한다.The technique proposed in the present invention uses gamma correction, which is a relatively simple correction technique than tone mapping, and adjusts adaptive gamma coefficients fixedly applied to the entire image according to image characteristics and fusion weights to reflect detailed characteristics. Exposure compensation method is suggested.

도 4는 본 발명의 실시예에서 제안하는 광노출 보정 및 화질 개선을 위한 HDR 기법(알고리즘)의 블록도이다.4 is a block diagram of an HDR technique (algorithm) for light exposure correction and image quality improvement proposed in an embodiment of the present invention.

도 4는 제안한 기법의 블록도를 보여주며, 먼저 입력 영상에서 명도 또는 휘도 채널을 분리한 다음, 감마 보정 계수 계산에 사용될 기본 매개변수를 영상 전역 분포에서 계산한다. 그리고 영상을 밝은 영역과 어두운 영역으로 이진화해서 각 영역 클래스의 정보에서 보완적인 매개변수를 추출한다. 이 정보를 이용하여 융합 가중치가 결정되며, 최종적으로 개선된 결과 영상을 획득한다.4 shows a block diagram of the proposed technique. First, a brightness or luminance channel is separated from an input image, and then a basic parameter to be used for calculating a gamma correction coefficient is calculated from the global distribution of the image. Then, the image is binarized into a bright region and a dark region to extract complementary parameters from the information of each region class. A fusion weight is determined using this information, and an improved result image is finally obtained.

- 문턱치(threshold) 기법- Threshold technique

문턱치(threshold) 기법은 이진 영상으로 분할하는 가장 단순한 기법으로 iterative thresholding, Otsu, Kapur, Adaptive thresholding 기법 등이 있다. Iterative thresholding은 양분된 각 클래스의 평균(μ1, μ2)의 중간값을 문턱치로 결정하며, 반복 연산을 수행하면서 문턱치가 변화되지 않을 때 연산을 종료한다. Kapur 기법은 히스토그램의 엔트로피를 최대화하는 문턱치를 찾기 때문에, 엔트로피 연산에서 다른 방법보다 복잡한 수식이 필요하다. The threshold technique is the simplest technique for dividing a binary image, and there are iterative thresholding, Otsu, Kapur, and adaptive thresholding techniques. Iterative thresholding determines the median value of the averages (μ 1 , μ 2 ) of each bisected class as a threshold, and ends the calculation when the threshold does not change while performing iterative calculations. Because the Kapur method finds a threshold that maximizes the entropy of the histogram, a more complex formula is required for entropy calculation than other methods.

본 실시예에서는 Otsu 기법을 적용하였으나, iterative thresholding, Kapur, Adaptive thresholding 등과 같은 다양한 문턱치 결정(이진화 분할) 기법이 적용될 수 있을 것이다.Although the Otsu technique is applied in this embodiment, various threshold determination (binarization segmentation) techniques such as iterative thresholding, Kapur, and adaptive thresholding may be applied.

Otsu는 식 (6)과 같이 클래스간 분산(between class variance)을 최대화하는 값을 문턱치로 결정하기 때문에 반복 연산이 필요없고 비교적 단순한 연산으로 최적값을 찾을 수 있다.Since Otsu determines the value that maximizes the between class variance as the threshold as in Equation (6), it does not require repeated calculations and the optimum value can be found with a relatively simple operation.

Figure 112021125295270-pat00012
Figure 112021125295270-pat00012

여기서 T는 밝은 영역과 어두운 영역으로 이진 분할하는 문턱치, μ는 전역 평균(global mean) - 전역 평균값(μ) -,
P1 및 P2는 T에 의해 양분되는 화소의 클래스간 비율이고, P1 는 밝은 영역의 클래스 비율, P2 는 어두운 영역의 클래스 비율, μ1 는 밝은 영역의 클래스 평균값, μ2 는 어두운 영역의 클래스 평균값임 -
where T is the threshold for binary partitioning into bright and dark regions, μ is global mean - global mean (μ) -,
P 1 and P 2 are the interclass ratios of pixels bisected by T, P 1 is the class ratio of the bright area, P 2 is the class ratio of the dark area, μ 1 is the class average value of the bright area, μ 2 is the class ratio of the dark area is the class average of -

도 5는 Ostu 임계값의 예시를 나타내 도면<(a)분포 (b)클래스 간 분산>이다.5 is a diagram showing an example of the Ostu threshold <(a) distribution (b) variance between classes>.

도 5는 한 영상의 분포와 클래스간 분산을 표시한 예인데, 도 5(b)의 클래스간 분산은 가우시안(Gaussian) 함수처럼 항상 최대값까지 단조 증가된 후 단조 감소되는 단봉형(unimodal)한 형태를 가지므로 최대값을 용이하게 찾을 수 있다.5 is an example showing the distribution of one image and the variance between classes. The variance between classes in FIG. 5(b) is always monotonically increased to the maximum value and then monotonically decreased like a Gaussian function. Since it has a shape, it is easy to find the maximum value.

- 통계적 매개변수- Statistical parameters

영상의 전역 평균값(μ)을 보면 전반적으로 밝고 어두운 영상인 것을 알 수 있지만, 중간값(median) m을 함께 고려하면 해당 영상의 전체 밝기 분포가 어느 쪽으로 편중되어있는지 판단할 수 있고, 전역적 보정 함수를 결정할 수 있다. 예를 들어, 밝으면서 전체적으로 고르게 분포된 영상이라고 하면 평균값과 중간값의 차이는 거의 없을 것이다. 그런데, 평균값과 중간값의 차이가 크다고 한다면 중간값의 위치에 따라 노출이 부족한지 과도한지를 판단할 수 있으므로 제안한 방법에서는 이 두 값(μ, m)을 기본 매개변수(primary parameter)로 활용하여 감마 계수 계산에 활용한다. Looking at the global average value (μ) of the image, it can be seen that the image is generally bright and dark. function can be determined. For example, if the image is bright and evenly distributed throughout, there will be little difference between the average value and the median value. However, if the difference between the average value and the median value is large, it can be determined whether the exposure is insufficient or excessive depending on the position of the median value. It is used to calculate the coefficient.

도 6은 부적절 광노출(저노출 및 과노출)에 대한 기본 매개변수 예시도<(a)저노출 (b)과노출>이고, 도 7은 통계 분석을 위한 이미지의 일부를 나타낸 도면이다.6 is an exemplary diagram of basic parameters for inappropriate light exposure (underexposure and overexposure) <(a) underexposure (b) overexposure>, and FIG. 7 is a view showing a part of an image for statistical analysis.

도 6을 살펴보면, 도 6(a)는 노출이 부족한 영상이기 때문에 중간값이 평균보다 낮으며, 도 6(b)는 노출이 과도한 영상이므로 중간값이 평균보다 높은 것을 확인할 수 있다. 이는 도 7과 같이 실험에 사용된 50개의 영상에서 분석한 결과에서 확인할 수 있었고, 평균값(μ)과 중간값(m)의 차이(d)인Referring to FIG. 6 , it can be seen that the median value is higher than the average in FIG. 6( a ) because the image is underexposed, and the median value is higher than the average in FIG. 6 ( b ) because the image is overexposed. This could be confirmed from the results of analysis of 50 images used in the experiment as shown in FIG. 7, and the difference (d) between the average value (μ) and the median value (m) was

Figure 112021125295270-pat00013
Figure 112021125295270-pat00013

에 의해 산출되며 차이(d)가 클수록 큰 보정 계수가 필요하다는 것을 알 수 있다. 대부분의 경우 보정을 수행하면 화질이 개선되고 특히 그 차이가 10이상인 경우에는 과도한 보정을 요구하였다. It is calculated by , and it can be seen that the larger the difference (d), the larger the correction coefficient is required. In most cases, if the correction is performed, the image quality is improved, especially when the difference is 10 or more, excessive correction is required.

표 1은 분석 이미지의 특정 사례를 나타낸 표이다. 표 1에 큰 보정이 필요한 경우의 예를 표시하였으며, 평균값이 128 근처이지만 밝은 영역이나 어두운 영역으로 편중되어 있는 영상에서는 밝은 부분과 어두운 부분을 특별히 고려해야만 한다. Table 1 is a table showing specific examples of analyzed images. Table 1 shows examples of cases requiring large correction. In an image with an average value of around 128 but biased toward bright or dark areas, the bright and dark areas must be specially considered.

도 8은 이진 분할 후 보완 매개변수를 나타낸 도면<(a) 도 6(a)의 경우 (b) 도 6(b)의 경우>이다.FIG. 8 is a diagram showing the supplementary parameters after binary segmentation <(a) the case of FIG. 6(a) (b) the case of FIG. 6(b)>.

도 8은 도 6에 대한 이진화 결과에서 획득한 각 클래스의 정보를 표시한 것이다. 도 8(a)는 문턱치와 전역평균의 차이가 작아서 각 클래스의 비율이 52%(P1)와 48%(P2)로 비슷하지만, 아주 낮은 밝기값에 편중되어 있어서 밝은 영역의 클래스 평균값(μ1)이 매우 낮다. 그러므로 이 경우에는 어두운 영역이 밝게 보정되어 반영되어야 한다는 걸 의미한다. 도 8(b)에서는 전역평균과 중간값이 매우 높은 쪽에 위치해서 밝은 영상임을 알 수 있지만, 각 클래스의 비율을 볼 때 13%와 87%로 밝은 부분이 너무 많은 비중을 차지하는 과다 노출 영상임을 확인할 수 있고, 이 과도한 밝은 부분이 어두운 쪽으로 보정되어야 한다는 것을 알 수 있다. 그러므로 제안한 방식에서는 각 클래스의 비율과 평균인, 밝은 영역의 클래스 비율(P1 ), 어두운 영역의 클래스 비율(P2), 밝은 영역의 클래스 평균값(μ1), 어두운 영역의 클래스 평균값(μ2)를 보완 매개변수(complementary parameter)로 사용하여 융합 가중치 결정에 이용한다.FIG. 8 shows information of each class obtained from the binarization result of FIG. 6 . 8(a) shows that the difference between the threshold and the global average is small, so the ratio of each class is similar at 52% (P 1 ) and 48% (P 2 ), but it is biased toward a very low brightness value, so the class average value ( μ 1 ) is very low. Therefore, in this case, it means that dark areas should be brightly corrected and reflected. In Fig. 8(b), it can be seen that the global average and median are located on the very high side, so it is a bright image. It can be seen that this excessively bright part should be corrected to the dark side. Therefore, in the proposed method, the ratio and average of each class, the class ratio in the bright region (P 1 ), the class ratio in the dark region (P 2 ) , the class average value in the bright region (μ 1 ), and the class average value in the dark region (μ 2 ) ) is used as a complementary parameter to determine the fusion weight.

<표 1><Table 1>

Figure 112021125295270-pat00014
Figure 112021125295270-pat00014

- 감마 계수 및 가중치 계산- Gamma coefficient and weight calculation

일반적으로 사용되는 감마 보정의 계수는 도 3에서 본 것처럼 2.2와 그 역수인 0.45가 보편적이며, 광학 장치와 인간 시각 특성의 기본적인 보상값이다. 그러나 부적정 노출로 인해 입력 영상의 분포가 어둡거나 밝은 쪽으로 밀집되어있는 영상에는 이 값이 적절한 보정 값이라고 할 수 없으며, 영상의 특성에 맞게 노출이 많이 부족한 영상에 대해서는 γ > 2.2보다 큰 값으로 어두운 부분을 크게 보상해야만하고, 그 반대인 경우에는 γ < 0.45보다 더 작게하여 밝은 부분을 보정해야만 한다. As shown in FIG. 3 , a commonly used gamma correction coefficient is 2.2 and its reciprocal of 0.45 is universal, and is a basic compensation value for optical devices and human visual characteristics. However, this value cannot be said to be an appropriate correction value for an image in which the distribution of the input image is concentrated in the dark or bright side due to improper exposure. The part should be compensated largely, and vice versa, the bright part should be corrected by making it smaller than γ < 0.45.

도 9는 제안한 알고리즘의 감마 보정 범위를 나타낸 도면이고, 도 10은 제안하는 감마 계산 함수를 나타낸 도면이다.9 is a diagram illustrating a gamma correction range of the proposed algorithm, and FIG. 10 is a diagram illustrating a proposed gamma calculation function.

그러므로 제안한 기법에서는 도 9에 보여진 것과 같이 밝은 영역을 어둡게 보정하는 감마 보정 계수(γ1)의 범위는 (0.125, 0.45], 어두운 영역을 밝게 보상하기 위한 감마 보정 계수(γ2)는 [2.2, 8)로 넓은 범위를 설정하였다.Therefore, in the proposed technique, as shown in FIG. 9 , the range of the gamma correction coefficient (γ 1 ) for darkening a bright region is (0.125, 0.45], and the gamma correction coefficient (γ 2 ) for brightly compensating a dark region is [2.2, 8) set a wide range.

제안한 방식의 기본 매개변수인 영상의 전역 평균값(μ)과, 중간값(m)의 차이인 d로부터 감마 보정 계수 γ1과γ2 을 계산하기 위해서 +∞와 -∞ 양쪽에서 수렴하는 sigmoid 함수를 도 10에서와 같이 사용하여 감마 계수를 계산하였다. 참고적으로 sigmoid 함수 외에 선형 또는 비선형 함수 중 어느 하나가 사용될 수도 있을 것이다.In order to calculate the gamma correction coefficients γ 1 and γ 2 from d, which is the difference between the global average value (μ) and the median value (m) of the image, which are the basic parameters of the proposed method, a sigmoid function that converges on both +∞ and -∞ The gamma coefficient was calculated using as in FIG. 10 . For reference, in addition to the sigmoid function, either a linear or non-linear function may be used.

γ1 은 0.45에서 0.125까지 감소하는 부분이므로 시그모이드 함수의 d가 음수인 부분에 맵핑하고, γ2 는 2.2에서 8까지 증가되는 d가 양수인 부분에 맵핑한다. 각 구간의 최대, 최소값 및 scale이 다르지만 형태가 같아서 두 구간을 d=0을 기준으로 도 10에 함께 표기하였다. 각 구간에서 d=0일 때를 기본값으로 설정하였으므로 γmax1는 γ1 의 최대값 0.45이고, γmin2는 γ2의 최소값인 2.2이다. 그 결과 γ1과 γ2Since γ 1 is a part decreasing from 0.45 to 0.125, it is mapped to a part where d of the sigmoid function is negative, and γ 2 is mapped to a part where d is positive to increase from 2.2 to 8. Although the maximum, minimum, and scale of each section are different, the shape is the same, so the two sections are marked together in FIG. 10 based on d=0. Since d=0 is set as the default value in each section, γ max1 is the maximum value of γ 1 , 0.45, and γ min2 is the minimum value of γ 2 , 2.2. As a result, γ 1 and γ 2 are

Figure 112021125295270-pat00015
Figure 112021125295270-pat00015

Figure 112021125295270-pat00016
Figure 112021125295270-pat00016

와 같이 표현된다. 여기서 α와 β는 스케일링 상수로써 각 구간의 최대-최소의 차이를 보상한다. 도 7에 사용된 영상의 d의 절대치 평균을

Figure 112021125295270-pat00017
이라고 했을 때, 이 값이 각 구간의 sigmoid 함수 폭에 절반이 되도록 설정하였다. 영상 분석에 사용된 50개의 영상에서 획득한
Figure 112021125295270-pat00018
=16.5가 나왔기 때문에 α=0.08과 β=1.45로 결정하였으며, 편의상 식 (8)과 (9) 중 하나를 사용해도 무관하다. 각 경우에 대해서 γ1과γ2 을 역수로 사용한 이유는 대칭적인 보상을 해서 비대칭적 보상을 통한 급격한 평균 밝기의 변화를 막기 위함이다. 그 결과 d값에 따라 두 개의 감마 계수에 의한 보정 영상이 획득된다.is expressed as Here, α and β are scaling constants to compensate for the maximum-minimum difference in each section. The average of the absolute values of d of the image used in FIG.
Figure 112021125295270-pat00017
, this value was set to be half the width of the sigmoid function of each section. Acquired from 50 images used for image analysis
Figure 112021125295270-pat00018
= 16.5, so α = 0.08 and β = 1.45 were determined, and for convenience, either equation (8) or (9) can be used. The reason why γ 1 and γ 2 are used as reciprocals in each case is to prevent abrupt change in average brightness through asymmetric compensation by performing symmetric compensation. As a result, a corrected image using two gamma coefficients is obtained according to the d value.

이렇게 획득된 각 영상(I(i, j))을 아래와 같이 가중치 융합하여 결과 영상 R(i, j)를 획득한다. Each image (I(i, j)) obtained in this way is weighted fused as follows to obtain a resulting image R(i, j).

Figure 112021125295270-pat00019
Figure 112021125295270-pat00019

ω는 각 보정 영상에 대한 융합 가중치이고 첨자는 순서대로 밝은 화소가 보정된 영상(Ib), 어두운 화소가 보정된 영상(Id) 및 입력 영상(Ii)을 각각 나타낸다. 여기서 영상의 세부 특성을 반영하기 위해서 도 8(b)의 경우를 생각해 보자. 이 영상은 노출이 과도하여 밝은 화소 비율이 87%로 너무 많기 때문에 어두운 영상으로 보정된 영상 Id의 가중치를 높혀야 하므로, 클래스2(밝은 영역)의 비율인 P2=0.87이 어두운 영역의 융합 가중치(ωd)에 반영되어야 하고 반대로 밝게 보정된 Ib영상은 클래스1(어두운 영역)의 비율인 P1=0.13로 약화시키게 밝은 영역의 융합 가중치(ωb)에 작용해야 된다. 보정된 두 영상만을 사용해도 되지만, 가중치에 너무 민감한 특성이 있기 때문에 원본 영상을 기본적으로 반영하도록 하였다.ω is a fusion weight for each corrected image, and the subscripts indicate an image (I b ) in which bright pixels are corrected, an image (I d ) in which dark pixels are corrected, and an input image (I i ), respectively, in order. In order to reflect the detailed characteristics of the image, consider the case of FIG. 8(b). Because this image is overexposed and the proportion of bright pixels is too high (87%), the weight of the image I d corrected with a dark image needs to be increased. It should be reflected in the weight (ω d ) and, on the contrary, the brightly corrected I b image should act on the fusion weight (ω b ) of the bright region to weaken it to P 1 =0.13, which is the ratio of class 1 (dark region). Only the two corrected images can be used, but the original image is basically reflected because the weight is too sensitive.

추가적으로 클래스의 비율뿐만 아니라 클래스 평균값의 위치를 고려하기 위한 가중치 함수를 고려한다. 도 8(a)을 살펴보면 각 클래스의 비율은 비슷하지만, 클래스1의 평균값이 매우 낮다. 그러므로 클래스의 비율만 고려하면 보정이 부족할 수 있기 때문에 낮은 평균을 갖는 경우 밝게 보정될 수 있도록 밝은 영역의 융합 가중치(ωb)를 더욱 증가시켜야 한다. 마찬가지로 도 8(b)의 클래스2의 평균을 보면 아주 높은 쪽에 위치해서 클래스 비율로 1차적으로 약화되지만, 평균의 위치가 고려되어 추가적으로 더욱 감소시킬 필요가 있다. 그러므로 각 클래스의 평균 위치가 가중치 보상을 boosting하는 효과가 있어 결과를 더욱 개선할 수 있다. In addition, we consider a weighting function to consider the position of the class mean value as well as the proportion of the class. Referring to FIG. 8( a ), the ratio of each class is similar, but the average value of class 1 is very low. Therefore, since the correction may be insufficient if only the proportion of classes is considered, the fusion weight (ω b ) of the bright region needs to be further increased so that it can be brightly corrected if it has a low average. Similarly, looking at the average of class 2 in FIG. 8(b), it is located on a very high side and is primarily weakened by the class ratio, but it is necessary to further reduce it further considering the position of the average. Therefore, the average position of each class has the effect of boosting the weight compensation, which can further improve the result.

도 11은 클래스 평균값 위치에 대한 가중치 함수를 나타낸 도면이다.11 is a diagram illustrating a weight function for a class average value position.

클래스 평균값의 절대적 위치(class mean position)에 따른 가중치 함수는 밝은 영역의 클래스 평균값(μ1)이 0에 가깝거나 어두운 영역의 클래스 평균값(μ2)가 255에 가까울수록 큰 값을 가지도록 식 (11)과 도 11에서와 같이 Gaussian함수를 활용하였다. 참고적으로 Gaussian함수 외에 선형 또는 비선형 함수 중 어느 하나가 사용될 수도 있을 것이다.The weighting function according to the class mean position of the class mean value has a larger value as the class mean value (μ 1 ) of the bright area is close to 0 or the class mean value (μ 2 ) of the dark area is close to 255 ( 11) and a Gaussian function as in FIG. 11 were used. For reference, in addition to the Gaussian function, any one of a linear or non-linear function may be used.

Figure 112021125295270-pat00020
Figure 112021125295270-pat00020

여기서 표준편차(σ)는 6σ=128이 되도록 설정하였다. 클래스 비율과 클래스 평균값의 위치가 고려된 융합 가중치는 식 (12)와 같고 가중치의 합이 1이 되도록 정규화되어 적용된다. 표준편차(σ)는 클래스 평균값의 절대적 위치에 따른 가중치 결정 함수인 가우시안 함수의 폭을 조정하는 표준편차이다. Here, the standard deviation (σ) was set so that 6σ=128. The fusion weight considering the class ratio and the position of the class average value is the same as Equation (12), and is applied after being normalized so that the sum of the weights becomes 1. The standard deviation (σ) is the standard deviation that adjusts the width of the Gaussian function, which is a weight determining function according to the absolute position of the class average value.

제안한 기법을 정리하면, 기본 매개변수(primary parameter)인 전역변수 평균(μ)과 중간값(m)으로 전체적인 감마 보정 계수를 계산해서 적용한 후, 이진화된 영상의 보완 매개변수(complementary parameter)인 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)으로 융합 가중치를 세부 조정하는 방식이다. 밝은 영역의 클래스 비율(P1)과 어두운 영역의 클래스 비율(P2)은 부족하거나 넘치는 쪽이 상대방의 비율로 보상을 받게 해서 클래스간 동일한 비중으로 융합하게 만들며, 밝은 영역의 클래스 평균값(μ1)과 어두운 영역의 클래스 평균값(μ2)는 과도하게 어둡거나 밝은 쪽으로 쏠린 영상을 한번 더 보상해서 클래스 평균값이 중간 방향으로 갈 수 있도록 한다.To summarize the proposed technique, after calculating and applying the overall gamma correction coefficient using the global variable mean (μ) and median (m), which are the primary parameters, the class, which is the complementary parameter of the binarized image, is This is a method of fine-tuning the fusion weight with the ratios (P 1 , P 2 ) and class average values (μ 1 , μ 2 ). The class ratio in the bright area (P 1 ) and the class ratio in the dark area (P 2 ) are compensated by the other party's ratio, so that the class ratio in the bright area (μ 1) ) and the class average value (μ 2 ) of the dark region compensate for the excessively dark or bright image once more so that the class average value goes in the middle direction.

Figure 112021125295270-pat00021
Figure 112021125295270-pat00021

- 여기에서 T는 밝은 영역과 어두운 영역으로 이진 분할하는 문턱치이고, ωb 는 밝은 영역의 융합 가중치이고, ωd 는 어두운 영역의 융합 가중치임 - - where T is the threshold for binary partitioning into bright and dark regions, ω b is the fusion weight of the bright region, and ω d is the fusion weight of the dark region -

- 실험 결과 및 고찰- Experimental results and consideration

도 12는 실험 이미지를 나타낸 도면<(a)이미지 1 (b)이미지 2 (c)이미지 3 (d)이미지 4>이고, 표 2는 실험적 이미지 매개변수를 나타낸 표이고, 표 3은 감마 계수 및 융합 가중치를 나타낸 표이다.12 is a diagram showing an experimental image <(a) Image 1 (b) Image 2 (c) Image 3 (d) Image 4>, Table 2 is a table showing experimental image parameters, Table 3 is a gamma coefficient and This is a table showing the fusion weights.

실험에 사용한 영상은 도 12와 같으며, 영상(이미지) 1과 2는 저노출 영상이고 영상(이미지) 3과 4는 과노출 영상이다. 각 영상(이미지)의 정보는 표 2에 표시하였고 회색으로 표시된 것은 가중치 함수(ωcmp) 가중치가 동작하는 경우를 표시한 것이며, 표 3에는 기본 및 보완 매개변수에 의해 계산된 실험 계수들을 명기하였다. 여기서

Figure 112022024869119-pat00022
은 정규화된 가중치를 나타낸다.The images used in the experiment are shown in FIG. 12 , and images (images) 1 and 2 are underexposed images, and images (images) 3 and 4 are overexposed images. The information of each image (image) is shown in Table 2, the gray one is the weight function (ω cmp ) when the weight operates, and the experimental coefficients calculated by the basic and supplementary parameters are specified in Table 3. . here
Figure 112022024869119-pat00022
is the normalized weight.

제안한 방법의 성능을 비교 평가하기 위해 선택한 방법 1은 고정 계수의 감마 보정과 톤 맵핑을 사용하며, 가중치 맵과 경계 보상을 이용하는 기법으로 전통적인 HDR 기법인 T. Mertens과 유사한 방식이다. Method 1, chosen to compare and evaluate the performance of the proposed method, uses fixed coefficient gamma correction and tone mapping, and uses weight map and boundary compensation, which is similar to the traditional HDR technique, T. Mertens.

방법 2는 히스토그램 조정과 통계적 편차를 이용한 방법이다. Method 2 is a method using histogram adjustment and statistical deviation.

도 13은 이미지 1에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>이고, 도 14는 이미지 2에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>이고, 도 15는 이미지 3에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>이고, 도 16은 이미지 4에 대한 결과를 나타낸 도면<(a)방법 1 (b)방법 2 (c)제안방법>이다.13 is a diagram showing the results for image 1 <(a) method 1 (b) method 2 (c) proposed method>, and FIG. 14 is a diagram showing the results for image 2 < (a) method 1 (b) Method 2 (c) Proposal method>, FIG. 15 is a diagram showing the results for image 3 <(a) Method 1 (b) Method 2 (c) Proposal method>, and FIG. 16 is a diagram showing the results for image 4 It is a drawing <(a) Method 1 (b) Method 2 (c) Proposal method>.

표 4는 결과 이미지에 대한 전역 매개변수를 나타낸 표이고, 도 13~16은 결과 영상을 보여주며, 각 결과의 평균 및 중간값을 표 4에 나타내었다. 실험 결과에서 방법 1은 전반적으로 성능 향상을 보였으나, 저노출과 과노출 상황에서 다소 부족한 결과를 나타내었다. 방법 2는 히스토그램을 조정하기 때문에 평균과 중간값을 밝기 분포의 가운데 정렬하는 특성이 있었으므로 저노출은 과다하게 밝은 영상으로, 과노출은 어두운 영상으로 변환하는 결과를 보여주었다. 반면 제안한 기법은 저노출과 과노출 영상에서 적절한 비율로 보정하여 주관적 화질이 가장 우수한 것을 확인할 수 있었다. Table 4 is a table showing global parameters for the result image, FIGS. 13 to 16 show the result image, and the average and median values of each result are shown in Table 4. In the experimental results, method 1 showed overall performance improvement, but showed somewhat insufficient results in underexposure and overexposure situations. Method 2 has the characteristic of aligning the mean and median values in the center of the brightness distribution because the histogram is adjusted, so underexposure is converted into an excessively bright image and overexposure is converted into a dark image. On the other hand, the proposed method showed the best subjective image quality by correcting the underexposed and overexposed images at an appropriate ratio.

<표 2><Table 2>

Figure 112021125295270-pat00023
Figure 112021125295270-pat00023

<표 3><Table 3>

Figure 112021125295270-pat00024
Figure 112021125295270-pat00024

<표 4><Table 4>

Figure 112021125295270-pat00025
Figure 112021125295270-pat00025

- 결론- conclusion

본 발명에서는 부적절한 노출값으로 획득된 영상의 광노출을 보정하는 알고리즘을 제안하였다. 기존의 톤 맵핑이나 감마 보정과 같은 전역적 보정기법은 입력과 출력 사이에 변환 함수를 정의해서 보정을 수행하여 영상의 전체가 평균적으로 향상되기 때문에 밝기 분포가 전역 평균을 중심으로 대칭적일 경우 좋은 결과를 가져오지만, 어둡거나 밝은 부분의 한쪽으로 치우친 비대칭 분포를 갖는 영상에서는 충분하지 못한 보상 결과를 가져왔었다. 또한, 히스토그램 변형 함수를 이용하는 방법일 경우에는 강제적으로 영상 분포를 이동시키기 때문에 변화가 심한 영상에는 잘 동작하지만, 어두운 부분과 밝은 부분이 과도하게 보상되거나 평탄한 영역에서는 의도하지 않는 잡음이 심해지는 결과가 나타난다. 그러므로 제안한 방법에서는 어둡거나 밝은 부분 모두에 충분한 보정을 적용하기 위해 전역 분포에서 추출한 기본 매개변수로 전체 보정을 위한 감마 계수를 계산한다. 그 다음 이진화 영상 분할 기법을 적용하여 분할된 두 클래스의 비율을 융합 가중치에 반영하여 영상의 세부 특성까지 고려하였다. 그리고 어두운 부분과 밝은 부분으로 과도하게 쏠린 특성을 보이는 저노출과 과노출 영상의 보정 성능을 높이기 위해서 각 클래스의 평균값을 추가적으로 융합 가중치에 반영하는 기법을 제시하였다. 그 결과 저노출 및 과노출 영상뿐만아니라 영상의 밝기 분포가 대칭적이거나 비대칭적인 영상에서도 좋은 보정 결과를 얻을 수 있었다. In the present invention, an algorithm for correcting the light exposure of an image acquired with an inappropriate exposure value is proposed. Conventional global correction techniques, such as tone mapping and gamma correction, define a transform function between the input and output and perform correction to improve the overall image, so good results when the brightness distribution is symmetric around the global average However, in images with an asymmetric distribution skewed to one side of dark or light areas, insufficient compensation results were obtained. In addition, in the case of using the histogram transformation function, the image distribution is forcibly moved, so it works well for images with large changes. appear. Therefore, in the proposed method, in order to apply sufficient correction to both dark and bright parts, the gamma coefficient for overall correction is calculated with the basic parameters extracted from the global distribution. Then, the ratio of the two classes divided by applying the binarization image segmentation technique was reflected in the fusion weight to consider the detailed characteristics of the image. In addition, in order to improve the correction performance of underexposed and overexposed images, which are excessively focused on dark and bright areas, a technique for additionally reflecting the average value of each class in the fusion weight was proposed. As a result, good correction results were obtained not only in underexposed and overexposed images, but also in images in which the image brightness distribution was symmetrical or asymmetrical.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (10)

입력된 영상에서 명도 또는 휘도 채널을 분리한 다음, 영상 전역 분포에서 추출한 기본 매개변수인 영상의 명도 또는 휘도값의 전역 평균값(μ)과 중간값(m)으로 전체 영상을 보정하는 감마 보정 계수를 계산해서 적용하는 단계;
이진화 영상 분할 기법을 적용하여 영상을 밝은 영역과 어두운 영역으로 이진화한 클래스들의 정보에서 보완 매개변수인 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)을 추출하는 단계; 및
추출된 보완 매개변수를 사용하여 융합 가중치를 결정하는 단계;
를 포함하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
P1 : 밝은 영역의 클래스 비율
P2 : 어두운 영역의 클래스 비율
μ1 : 밝은 영역의 클래스 평균값
μ2 : 어두운 영역의 클래스 평균값
After separating the brightness or luminance channel from the input image, a gamma correction coefficient that corrects the entire image with the global average (μ) and median (m) of the brightness or luminance values of the image, which is a basic parameter extracted from the global distribution of the image, is calculated. calculating and applying;
extracting the class ratio (P 1 , P 2 ) and class average value (μ 1 , μ 2 ), which are complementary parameters, from the information of classes in which an image is binarized into a bright area and a dark area by applying a binarization image segmentation technique; and
determining fusion weights using the extracted complementation parameters;
HDR technique for light exposure correction and image quality improvement, including.
P 1 : Class ratio of bright areas
P 2 : Class ratio of dark areas
μ 1 : class average value of bright area
μ 2 : average value of the class in the dark area
제1항에 있어서,
상기 이진화 영상 분할 기법은,
Ostu, Iterative thresholding, Kapur 또는 Adaptive thresholding 중 어느 하나의 기법이 사용되는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
According to claim 1,
The binarized image segmentation technique is
HDR technique for light exposure correction and image quality improvement, characterized in that any one of Ostu, Iterative thresholding, Kapur or Adaptive thresholding is used.
제1항에 있어서,
영상의 전역 평균값(μ)과, 중간값(m)의 차이인 d 로부터 감마 보정 계수 - 밝은 영역을 어둡게 보정하는 감마 보정 계수(γ1), 어두운 영역을 밝게 보상하기 위한 감마 보정 계수(γ2) - 를 계산하기 위해서 +∞와 -∞ 양쪽에서 수렴하는 sigmoid 함수를 사용하는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
According to claim 1,
Gamma correction coefficient from d, which is the difference between the global average value (μ) and the median value (m) of the image - Gamma correction coefficient for darkening bright areas (γ 1 ), and gamma correction coefficient for brightening dark areas (γ 2 ) ) HDR technique for light exposure correction and image quality improvement, characterized in that it uses a sigmoid function that converges on both +∞ and -∞ to calculate -.
제1항에 있어서,
영상의 전역 평균값(μ)과, 중간값(m)의 차이인 d 로부터 감마 보정 계수를 계산할 때, 선형 또는 비선형 함수 중 어느 하나를 사용하는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
According to claim 1,
HDR technique for light exposure correction and image quality improvement, characterized in that either a linear or non-linear function is used when calculating the gamma correction coefficient from d, which is the difference between the global average value (μ) and the median value (m) of the image .
제3항에 있어서,
밝은 영역을 어둡게 보정하는 감마 보정 계수(γ1) 및 어두운 영역을 밝게 보상하기 위한 감마 보정 계수(γ2)는 하기 식과 같이,
Figure 112022024869119-pat00026

Figure 112022024869119-pat00027

- 여기서 α, β는 스케일링 상수, γmax1는 γ1 의 최대값, γmax2는 γ2 의 최대값, γmin1는 γ1 의 최소값, γmin2는 γ2 의 최소값임 -
으로 정의되는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
4. The method of claim 3,
A gamma correction coefficient (γ 1 ) for darkly correcting a bright area and a gamma correction coefficient (γ 2 ) for brightly compensating a dark area are as follows:
Figure 112022024869119-pat00026

Figure 112022024869119-pat00027

- where α, β are the scaling constants, γ max1 is the maximum value of γ 1 , γ max2 is the maximum value of γ 2 , γ min1 is the minimum value of γ 1 , γ min2 is the minimum value of γ 2 -
HDR technique for light exposure correction and image quality improvement, characterized in that it is defined as
제5항에 있어서,
감마 보정 계수(γ1, γ2)로 보정된 각 영상(I(i, j))을 하기 식과 같이,
Figure 112022024869119-pat00028

- 여기서 ω는 각 보정 영상에 대한 융합 가중치이고, 밝은 화소가 보정된 영상(Ib), 어두운 화소가 보정된 영상(Id) 및 입력 영상(Ii)임 -
가중치 융합하여 결과 영상 R(i, j)를 획득하는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
6. The method of claim 5,
Each image (I(i, j)) corrected with the gamma correction coefficients (γ 1 , γ 2 ) is expressed by the following equation,
Figure 112022024869119-pat00028

- where ω is the fusion weight for each corrected image, the bright pixel corrected image (I b ), the dark pixel corrected image (I d ) and the input image (I i ) -
HDR technique for light exposure correction and image quality improvement, characterized in that the resultant image R(i, j) is obtained by weighted fusion.
제6항에 있어서,
클래스 평균값의 절대적 위치(class mean position)에 따른 가중치 함수(ωcmp)는 μ1이 0에 가깝거나 μ2가 255에 가까울수록 큰 값을 가지도록 하기 식과 같이,
Figure 112022024869119-pat00029

- 여기에서 σ는 클래스 평균값의 절대적 위치에 따른 가중치 결정 함수인 가우시안 함수의 폭을 조정하는 표준편차임 -
으로 처리되는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
7. The method of claim 6,
The weight function (ω cmp ) according to the absolute position of the class mean value has a larger value as μ 1 is closer to 0 or μ 2 is closer to 255, as in the following formula,
Figure 112022024869119-pat00029

- Here, σ is the standard deviation that adjusts the width of the Gaussian function, which is a weight determining function according to the absolute position of the class mean value -
HDR technique for light exposure correction and image quality improvement, characterized in that it is processed with
제6항에 있어서,
어두운 클래스와 밝은 클래스의 평균값 위치(class mean position)에 따른 융합 가중치를 계산할 때, Gaussian 함수, 선형 또는 비선형함수 중 어느 하나를 사용하는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
7. The method of claim 6,
An HDR technique for light exposure correction and image quality improvement, characterized in that either a Gaussian function, a linear or a non-linear function is used when calculating the fusion weight according to the class mean position of the dark class and the light class.
제7항에 있어서,
클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)이 적용된 융합 가중치는,
Figure 112022024869119-pat00030

- 여기에서 T는 밝은 영역과 어두운 영역으로 이진 분할하는 문턱치이고, ωb 는 밝은 영역의 융합 가중치이고, ωd 는 어두운 영역의 융합 가중치임 -
으로 정의되는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
8. The method of claim 7,
The fusion weight with the class ratio (P 1 , P 2 ) and the class average value (μ 1 , μ 2 ) applied is,
Figure 112022024869119-pat00030

- where T is the threshold for binary partitioning into bright and dark regions, ω b is the fusion weight of the bright region, and ω d is the fusion weight of the dark region -
HDR technique for light exposure correction and image quality improvement, characterized in that it is defined as
제1항에 있어서,
기본 매개변수(primary parameter)인 영상의 전역 평균값(μ)과 중간값(m)으로 전체적인 감마 보정 계수를 계산해서 적용한 후, 이진화된 영상의 보완 매개변수인 클래스 비율(P1, P2)과 클래스 평균값(μ1, μ2)으로 융합 가중치를 결정하는 것을 특징으로 하는 광노출 보정 및 화질 개선을 위한 HDR 기법.
According to claim 1,
After calculating and applying the overall gamma correction coefficient using the global average (μ) and median (m) of the image, which are the primary parameters, the class ratio (P 1 , P 2 ) and HDR technique for light exposure correction and image quality improvement, characterized in that the fusion weight is determined by the class average value (μ 1 , μ 2 ).
KR1020210147722A 2021-11-01 2021-11-01 High Dynamic Range technique for light exposure compensation and image quality improvement KR102377318B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210147722A KR102377318B1 (en) 2021-11-01 2021-11-01 High Dynamic Range technique for light exposure compensation and image quality improvement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210147722A KR102377318B1 (en) 2021-11-01 2021-11-01 High Dynamic Range technique for light exposure compensation and image quality improvement

Publications (1)

Publication Number Publication Date
KR102377318B1 true KR102377318B1 (en) 2022-03-21

Family

ID=80937422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210147722A KR102377318B1 (en) 2021-11-01 2021-11-01 High Dynamic Range technique for light exposure compensation and image quality improvement

Country Status (1)

Country Link
KR (1) KR102377318B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998173A (en) * 2022-06-07 2022-09-02 西北工业大学 High dynamic range imaging method for space environment based on local area brightness adjustment
CN117455780A (en) * 2023-12-26 2024-01-26 广东欧谱曼迪科技股份有限公司 Enhancement method and device for dark field image of endoscope, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080113950A (en) * 2007-06-26 2008-12-31 주식회사 코아로직 Apparatus for automatically computing image correction curve and method thereof
JP2015530834A (en) * 2012-09-20 2015-10-15 華為技術有限公司Huawei Technologies Co.,Ltd. Image processing method and apparatus
KR101717733B1 (en) 2015-11-20 2017-03-17 광운대학교 산학협력단 Hdr image processing apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080113950A (en) * 2007-06-26 2008-12-31 주식회사 코아로직 Apparatus for automatically computing image correction curve and method thereof
JP2015530834A (en) * 2012-09-20 2015-10-15 華為技術有限公司Huawei Technologies Co.,Ltd. Image processing method and apparatus
KR101717733B1 (en) 2015-11-20 2017-03-17 광운대학교 산학협력단 Hdr image processing apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998173A (en) * 2022-06-07 2022-09-02 西北工业大学 High dynamic range imaging method for space environment based on local area brightness adjustment
CN114998173B (en) * 2022-06-07 2024-03-15 西北工业大学 Space environment high dynamic range imaging method based on local area brightness adjustment
CN117455780A (en) * 2023-12-26 2024-01-26 广东欧谱曼迪科技股份有限公司 Enhancement method and device for dark field image of endoscope, electronic equipment and storage medium
CN117455780B (en) * 2023-12-26 2024-04-09 广东欧谱曼迪科技股份有限公司 Enhancement method and device for dark field image of endoscope, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US11127122B2 (en) Image enhancement method and system
US10171786B2 (en) Lens shading modulation
US11037278B2 (en) Systems and methods for transforming raw sensor data captured in low-light conditions to well-exposed images using neural network architectures
KR101812807B1 (en) A method of adaptive auto exposure contol based upon adaptive region&#39;s weight
KR102377318B1 (en) High Dynamic Range technique for light exposure compensation and image quality improvement
US8368779B2 (en) Image processing apparatus for performing gradation correction on subject image
RU2400815C2 (en) Method of enhancing digital image quality
Safonov et al. Adaptive image processing algorithms for printing
CN112565636B (en) Image processing method, device, equipment and storage medium
CN109785240B (en) Low-illumination image enhancement method and device and image processing equipment
Feng et al. Low-light image enhancement based on multi-illumination estimation
CN110852956A (en) Method for enhancing high dynamic range image
CN109816608A (en) A kind of low-light (level) image adaptive brightness enhancement based on noise suppressed
KR100768035B1 (en) Apparatus and method for adaptive image enhancement
CN115660964A (en) Nighttime road image enhancement method based on threshold partition weighted brightness component
Yu et al. Adaptive inverse hyperbolic tangent algorithm for dynamic contrast adjustment in displaying scenes
CN113411554A (en) Underwater image color restoration method and device
Hassan A uniform illumination image enhancement via linear transformation in CIELAB color space
KR20120122574A (en) Apparatus and mdthod for processing image in a digital camera
JP5327766B2 (en) Memory color correction in digital images
US20230146016A1 (en) Method and apparatus for extreme-light image enhancement
CN107644403B (en) Method for correcting non-uniform color of image under severe environment condition
WO2022067761A1 (en) Image processing method and apparatus, capturing device, movable platform, and computer readable storage medium
WO2021093718A1 (en) Video processing method, video repair method, apparatus and device
CN113191956A (en) Backlight image enhancement method based on depth cutout

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant