KR101408343B1 - Apparatus for processing wide dynamic rage - Google Patents

Apparatus for processing wide dynamic rage Download PDF

Info

Publication number
KR101408343B1
KR101408343B1 KR1020090084533A KR20090084533A KR101408343B1 KR 101408343 B1 KR101408343 B1 KR 101408343B1 KR 1020090084533 A KR1020090084533 A KR 1020090084533A KR 20090084533 A KR20090084533 A KR 20090084533A KR 101408343 B1 KR101408343 B1 KR 101408343B1
Authority
KR
South Korea
Prior art keywords
image
luminance
exposure time
unit
fusion
Prior art date
Application number
KR1020090084533A
Other languages
Korean (ko)
Other versions
KR20110026754A (en
Inventor
강봉협
정영제
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020090084533A priority Critical patent/KR101408343B1/en
Publication of KR20110026754A publication Critical patent/KR20110026754A/en
Application granted granted Critical
Publication of KR101408343B1 publication Critical patent/KR101408343B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

본 발명은 광역 역광 보정 시에, 노출시간이 상대적으로 짧은 영상으로부터 엣지 정보를 추출하여 영상의 선명도를 향상시키고, 노출시간이 긴 영상 및 융합된 영상의 차이를 이용하여 명부를 밝기를 조절함으로써 콘트라스트가 향상된 영상을 획득할 수 있는 광역 역광 보정 장치에 관한 것이다. 광역 역광 보정 장치는 제1 노출시간을 갖는 영상으로부터 추출된 엣지 정보와, 제1 및 제2 노출시간을 갖는 영상의 휘도 융합 결과와, 제2 노출시간을 갖는 영상 및 상기 휘도 융합된 제1 및 제2 영상으로부터 추출된 밝기 차이 정보를 합성한 영상을 출력하는 것이 바람직하다.

Figure R1020090084533

엣지 추출, 밝기 차이, 휘도 융합, 선명도 향상, 콘트라스트 향상

In the wide-area backlight correction, the edge information is extracted from an image having a relatively short exposure time to improve the sharpness of the image, and the brightness of the list is adjusted by using the difference between the long-exposure image and the fused image, To a wide-area backlight compensation apparatus capable of obtaining an enhanced image. The wide-area backlight compensation apparatus includes edge information extracted from the image having the first exposure time, luminance fusion result of the image having the first and second exposure times, image having the second exposure time, And output the combined image of brightness difference information extracted from the second image.

Figure R1020090084533

Edge extraction, brightness difference, brightness fusion, sharpness improvement, contrast enhancement

Description

광역 역광 보정 장치{Apparatus for processing wide dynamic rage}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 디지털 영상 처리 장치에 관한 것으로, 보다 상세하게는 명부의 콘트라스트를 향상시키는 광역 역광 보정 장치에 관한 것이다.BACKGROUND OF THE INVENTION Field of the Invention [0002] The present invention relates to a digital image processing apparatus, and more particularly, to a wide-area backlight correction apparatus for improving a contrast of a list portion.

광역 역광 보정(WDR: wide dynamic range)은 기존 역광보정(BLC) 기능이 어두운 부분을 단순히 밝게 함으로써 밝은 부분의 영상이 포화되는 문제를 해결한 것으로, WDR 기능은 밝은 곳은 최대한 유지하면서 어두운 곳은 밝게 보이도록 처리함에 따라 더욱 선명한 영상을 구현할 수 있도록 한 것이다.Wide dynamic range (WDR) is a solution to the problem that the existing backlight compensation (BLC) simply brightens the dark areas and saturates the images in the bright areas. The WDR function keeps the bright areas as dark as possible So that a clearer image can be realized by processing the image so that it looks bright.

WDR 기능을 사용하는 이유는 조도 차이가 커서 명부(보통 실외)와 암부(보통 실내)가 혼재된 영상을 촬영하는 경우 한 장만 촬영해 가지고서는 아무리 노출시간과 조리개를 최적으로 조절한다고 하더라도 명부와 암부가 전부 잘 보이는 영상을 획득할 수 없기 때문이다. 따라서 WDR은 명부가 잘 보이도록 노출을 조절한 영상과 암부가 잘 보이도록 노출을 조절한 서로 다른 영상들을 융합하여 명부와 암부가 모두 선명하게 잘 보이는 영상을 생성할 수 있다.The reason for using the WDR function is that when shooting a mixed image of a list (usually outdoors) and dark areas (usually indoor) due to a large difference in illuminance, only one image is taken to optimize the exposure time and aperture, Is not able to acquire well visible images. Therefore, the WDR can produce clear images of both the list and dark areas by merging the exposure adjusted images and the different exposure adjusted images so that the list can be seen clearly.

이러한 WDR 기능이 적용된 제품으로는 보안 및 감시를 위한 보안 카메라, 일반 디지털 카메라, 방송 촬영 장비, 자동차용 카메라 및 휴대용 카메라 등 모든 영 상 촬영 장비 등에 폭 넓게 사용되고 있다. 예를 들면, 실내의 창가와 같은 역광이 존재하는 장소에서 영상을 촬영할 경우, 또는 야경과 같이 명부와 암부가 혼재해 있는 경우, 스포츠 경기 등 햇볕에 의한 명부와 그늘에 의한 암부가 혼합된 장면을 촬영하는 경우에 WDR 기능은 보다 선명한 영상을 촬영할 수 있게 한다.These WDR-enabled products are widely used for security cameras for surveillance, general digital cameras, broadcasting cameras, automobile cameras, and portable cameras. For example, when a video is shot in a place where a backlight such as a window in a room is present, or when a list and a dark place are mixed together, such as a night view, a scene in which a list of sunshine, such as a sports game, When shooting, the WDR function allows you to shoot clearer images.

한편, WDR 구현 기술은 일반적으로 블록 단위 융합 방법과 픽셀 단위 융합 방법을 사용하고 있다.On the other hand, WDR implementation technology generally uses a block-based fusion method and a pixel-based fusion method.

블록 단위 융합 방법은 영상 융합 단위를 블록으로 설정하여, 각 블록에 따라 융합 비율을 달리하는 방법으로, 픽셀 단위 처리에 비해 속도가 빠르지만 블록마다 서로 다른 융합 과정을 거치게 되므로 블록간 밝기 차이가 발생하고, 이를 해결하기 위한 안티 블로킹(anti-blocking) 처리가 필수적으로 요구되며, 또한 영상을 상하로 구분 시에 밝기가 다른 영상이 출력될 수 있다.In the block-based fusion method, the image fusion unit is set as a block, and the fusion ratio is different according to each block. As compared with the pixel-by-pixel processing, In order to solve this problem, anti-blocking processing is indispensably required. Further, when images are divided into upper and lower portions, images having different brightness may be output.

픽셀 단위 융합 방법은 영상 융합 단위를 하나의 픽셀로 설정하고, 각 픽셀에 따라 융합하는 것으로, 가중 합(weight-sum)을 통한 픽셀 단위 융합과 그래디언트 도메인을 이용한 픽셀 단위 융합 기술이 있다. 전자는 픽셀마다 가중치를 다르게 주는 것으로, 더 자세한 것은 H. John Tatko 등의 "Dynamic range enhancement for imaging sensors"라는 명칭의 미국 특허 제 6, 501,504호와 Kzauhito Horiuchi의 "Imaging processing apparatus for generating a wide dynamic range image"라는 명칭의 미국 특허 제 6,825,884호에 개시되어 있다. 후자는 노출시간이 긴 입력 영상과 노출시간이 짧은 입력 영상 각각에 대해 그래디언트 도메인으로 변환하여 각각의 그래디언트 크기를 조절하고, 각각의 픽셀단위로 융합 비율을 결정하는 것이지만, 성능은 우수하나 많은 연산량으로 인하여 DSP 칩 내에 탑재하기가 어려운 점이 있다. 더 자세한 사항은 R. Fattal 등의 "Gradient domain high dynamic range compression", Proceedings of the 29th annual conference on computer graphics and interactive techniques, pp. 249-256, 2002.에 개시되어 있다.The pixel-based fusion method sets the image fusion unit as one pixel and fuses according to each pixel, and there is a pixel-based fusion using a weight-sum and a pixel-based fusion using a gradient domain. For example, US Pat. No. 6,501,504 entitled " Dynamic range enhancement for imaging sensors " by H. John Tatko et al. And Kzauhito Horiuchi, "Imaging processing apparatus for generating a wide dynamic range image "in U.S. Patent No. 6,825,884. In the latter case, the input image having a long exposure time and the input image having a short exposure time are converted into a gradient domain, and the respective gradient magnitudes are adjusted, and the fusion ratio is determined for each pixel. It is difficult to mount it in the DSP chip. Further details on "Gradient domain high dynamic range compression" such as R. Fattal, Proceedings of the 29 th annual conference on computer graphics and interactive techniques, pp. 249-256, 2002.

기존 방식의 WDR의 경우 암부의 밝기는 최대한 유지하도록 노출이 긴 영상의 밝기를 거의 그대로 사용한다. 반면 명부의 밝기는 노출이 긴 영상과 짧은 영상을 융합하여 사용하게 되는데, 기본적으로 암부보다 밝기가 커야 실제 조도와 비교해도 밝기에서의 역전이 생기지 않는 자연스러운 영상을 만들 수 있으므로 노출시간이 짧은 영상에 비하여 밝기를 표현할 수 있는 범위가 한정될 수 밖에 없다. 따라서 명부에서의 콘트라스트 감소가 발생할 수 밖에 없으며, 이를 보완하는 것이 WDR 성능의 핵심 쟁점이다.In the case of the conventional WDR, the brightness of the long-exposure image is almost used to maintain the brightness of the dark portion as much as possible. On the other hand, the brightness of the list is used by blending long images and short images. Basically, the brightness is larger than that of the dark parts. Therefore, it is possible to create a natural image which does not cause a reversal in brightness even when compared with actual illuminance. The range in which brightness can be expressed is inevitably limited. Therefore, contrast reduction in the list is inevitable, and complementing it is a key issue of WDR performance.

도 9a는 WDR 오프 시에 명부쪽에 노출을 맞추고 촬영한 영상을, 도 9b는 WDR 온 시에 촬영을 영상을 나타낸다. 도 9a와 도 9b 비교 시에, 도 9b 즉, WDR 융합 시에는 노출시간이 짧은 영상에 비해 암부의 디테일이 살아나는 대신 명부에서의 건물 형태나 나뭇가지 등의 디테일이 많이 손실됨을 알 수 있다.FIG. 9A shows an image taken with the exposure on the list side while the WDR is off, and FIG. 9B shows an image taken when the WDR is turned on. 9A and FIG. 9B, it can be seen that, in the WDR fusion, the detail of the dark part is lost compared to the image having a short exposure time, but the details of the building shape and the tree branches in the list are lost.

본 발명이 해결하고자 하는 기술적인 과제는 광역 역광 보정 시에, 노출시간이 상대적으로 짧은 영상으로부터 엣지 정보를 추출하여 영상의 선명도를 향상시키고, 노출시간이 긴 영상 및 융합된 영상의 차이를 이용하여 명부를 밝기를 조절함으로써 콘트라스트가 향상된 영상을 획득할 수 있는 광역 역광 보정 장치를 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide an image processing apparatus and a method thereof, which can improve sharpness of an image by extracting edge information from an image having a relatively short exposure time, And to provide a wide-area backlight compensation apparatus capable of acquiring an image with improved contrast by adjusting the brightness of a list portion.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 광역 역광 보정 장치는 제1 노출시간을 갖는 영상으로부터 추출된 엣지 정보와, 제1 및 제2 노출시간을 갖는 영상의 휘도 융합 결과와, 제2 노출시간을 갖는 영상 및 상기 휘도 융합된 제1 및 제2 영상으로부터 추출된 밝기 차이 정보를 합성한 영상을 출력하는 것이 바람직하다.In order to solve the technical problem to be solved by the present invention, a wide-area backlight correction apparatus is provided with an edge-information extracting unit for extracting, from edge information extracted from an image having a first exposure time, a luminance fusion result of an image having first and second exposure times, And outputting the combined image of brightness difference information extracted from the first and second images subjected to the luminance fusion.

본 발명에 있어서, 상기 장치에서 상기 제1 노출시간이 상기 제2 노출시간 보다 더 짧을 수 있다.In the present invention, the first exposure time in the apparatus may be shorter than the second exposure time.

본 발명에 있어서, 상기 장치는 상기 제1 및 제2 노출시간으로 획득한 영상신호들을 휘도/색차 신호로 각각 변환하는 제1 변환수단; 상기 제1 노출시간을 갖는 휘도신호를 상기 제2 노출시간을 갖는 휘도신호에 상응하도록 정규화 하는 전처리수단; 상기 제1 노출시간을 갖는 휘도신호로부터 추출된 엣지 정보와, 상기 정규화된 제1 노출시간을 갖는 휘도신호 및 상기 제2 노출시간을 갖는 휘도신호의 융합 결과와, 상기 제2 노출시간을 갖는 영상과 상기 융합결과로부터 추출된 밝기 차이를 합성하는 휘도 융합수단; 상기 제1 및 제2 노출시간을 갖는 색차신호를 상기 휘도 융합수단의 출력을 반영한 가중치를 이용하여 합산하는 색차 융합수단; 및 상기 휘도 융합수단 및 색차 융합수단의 출력을 RGB 신호로 변환하는 제2 변환수단을 포함할 수 있다.The apparatus may further include first conversion means for converting the image signals acquired at the first and second exposure times into luminance / color difference signals, respectively; A preprocessing means for normalizing the luminance signal having the first exposure time so as to correspond to the luminance signal having the second exposure time; A result of fusion of the edge information extracted from the luminance signal having the first exposure time, the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time, And luminance fusion means for synthesizing the brightness difference extracted from the fusion result; A color difference fusing unit for summing the color difference signals having the first and second exposure times using a weight reflecting the output of the luminance fusing unit; And second converting means for converting the outputs of the luminance fusing means and the color difference fusing means into RGB signals.

본 발명에 있어서, 상기 휘도 융합수단은 상기 제1 노출시간을 갖는 휘도신호로부터 엣지를 추출하는 엣지 추출부; 상기 정규화된 제1 노출시간을 갖는 휘도신호 및 상기 제2 노출시간을 갖는 휘도신호에 가중치를 적용하여 합산하는 휘도 융합부; 상기 제2 노출시간을 갖는 휘도신호 및 상기 휘도 융합부의 출력을 감산하는 감산부; 및 상기 엣지 추출부, 상기 휘도 융합부 및 상기 감산부의 출력을 합성하는 후처리부를 포함할 수 있다.In the present invention, the luminance fusing unit may include an edge extracting unit that extracts an edge from the luminance signal having the first exposure time; A luminance fusion unit for applying a weight to the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time and for summing up; A subtraction unit for subtracting the luminance signal having the second exposure time and the output of the luminance fusion unit; And a post-processing unit for synthesizing outputs of the edge extracting unit, the luminance fusion unit, and the subtracting unit.

본 발명에 있어서, 상기 엣지 추출부의 출력에 소정의 이득값을 적산하는 제1 연산부를 더 포함할 수 있다.In the present invention, the apparatus may further include a first calculation unit for accumulating a predetermined gain value at the output of the edge extracting unit.

본 발명에 있어서, 상기 감산부의 출력에 소정의 이득값을 적산하는 제2 연산부를 더 포함할 수 있다.The apparatus may further include a second calculation unit for accumulating a predetermined gain value at the output of the subtraction unit.

본 발명에 있어서, 상기 제2 연산부의 출력을 블러링하는 블러링 처리부를 더 포함할 수 있다.The present invention may further comprise a blurring processor for blurring the output of the second calculator.

본 발명에 있어서, 상기 제2 연산부의 출력을 소정의 기준값으로 제한하는 제한부를 더 포함할 수 있다.In the present invention, the apparatus may further include a limiter for limiting the output of the second calculator to a predetermined reference value.

상술한 바와 같이 본 발명에 따르면, 광역 역광 보정 시에 노출시간이 상대적으로 짧은 영상으로부터 엣지 정보를 추출하여 영상의 선명도를 향상시키고, 노출시간이 긴 영상 및 융합된 영상의 차이를 이용하여 명부를 밝기를 조절함으로써 콘트라스트가 향상된 영상을 획득할 수 있다.As described above, according to the present invention, edge information is extracted from an image having a relatively short exposure time at the time of wide-area backlight correction to improve the sharpness of the image, and a list of images By adjusting the brightness, an image with improved contrast can be obtained.

이하, 본 발명의 실시 예에 대한 구성 및 그 작용을 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도면이나 도면에 대한 설명은 본 발명의 예를 든 것으로 이로써 본 발명의 범위를 한정하는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The description of the drawings and the drawings is for illustrative purposes only and is not intended to limit the scope of the invention.

도 1은 본 발명에 따른 광역 역광 보정 장치(100)의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a wide-area backlight compensation apparatus 100 according to the present invention.

도 1을 참조하면, 광역 역광 보정 장치(100)는 Y/C 변환수단(110), 전 처리수단(120), 휘도 융합수단(130), 색차 융합수단(140) 및 RGB 변환수단(150)을 포함한다.1, a wide-angle backlight compensation apparatus 100 includes a Y / C conversion unit 110, a preprocessing unit 120, a luminance fusion unit 130, a color difference fusion unit 140, and RGB conversion unit 150, .

Y/C 변환수단(110)은 서로 다른 노출시간 하에서 획득한 영상 신호들을 휘도/색차신호로 각각 변환한다. 여기서, 서로 다른 노출시간(exposure time)은 WDR 영상 처리를 위해서 소정의 시간, 예를 들면 1/60초 동안에 동일한 장면에 대해 2 장의 영상을 다른 노출시간으로 촬영하는 것을 의미한다. 하나는 노출시간이 상대적으로 긴(long exposure time) 영상으로서, 동일한 장면에서 암부영역, 주로 실내의 장면 정보를 포함한다. 다른 하나는 노출시간이 상대적으로 짧은(short exposure time) 영상으로서, 동일한 장면에서 명부영역, 주로 실외의 장면 정보를 포함한다. Y/C 변환수단(110)은 영상 획득부(미도시), 예를 들면 CCD/CMOS 이미지 센서에서 획득한 2개의 서로 다른 노출시간을 갖는 영상신호들을 각각 컬러 영상의 휘도성분(luminance)과 컬러 영상의 색차성부(chroma)으로 변환한다.The Y / C conversion means 110 converts the image signals obtained under different exposure times into luminance / color difference signals. Here, different exposure times mean that two images are taken at different exposure times for the same scene for a predetermined time, for example, 1/60 second, for WDR image processing. One is a long exposure time image, which includes scene information of the dark area, mainly indoor, in the same scene. The other is a short exposure time image, which includes scene information in the same scene, mainly outdoor scene information. The Y / C conversion unit 110 converts image signals having two different exposure times acquired from an image acquisition unit (not shown), for example, a CCD / CMOS image sensor, To chroma of the image.

전 처리수단(120)은 Y/C 변환수단(110)에서 출력되는 서로 다른 노출시간 중 제1 노출시간을 갖는 휘도신호를 상기 제1 노출시간 보다 긴 제2 노출시간을 갖는 휘도신호에 상응하도록 정규화한다. 여기서 제1 노출시간은 노출시간이 상대적으로 짧은 영상(여기서, SE 영상으로 정의함)을 의미하고, 제2 노출시간은 노출시간이 상대적으로 긴 영상(여기서, LE 영상으로 정의함)을 의미한다. 예를 들면 제2 노출시간은 제1 노출시간의 8배 정도일 수 있으며, 이러한 비율은 명부와 암부를 표현하기에 적절한 비율로 조절할 수 있다. 또한 인간의 눈은 색상의 변화 보다 밝기의 변화에 더 민감하기 때문에, SE 영상과 LE 영상 각각의 휘도신호(여기서 YS, YL 신호로 정의함)를 이용하여 전처리 과정을 수행한다. 즉, 두 영상을 융합하기 전에 YS를 YL의 기준점에 맞도록 정규화 과정을 적용함으로써, 영상 밝기의 불균형을 최소화 하고 노출시간 조절에 제약이 있는 경우에도 최적의 WDR 결과 영상을 획득할 수 있다.The preprocessing means 120 outputs the luminance signal having the first exposure time among the different exposure times output from the Y / C conversion means 110 to the luminance signal having the second exposure time longer than the first exposure time Normalize. Here, the first exposure time means an image having a relatively short exposure time (herein, defined as an SE image), and the second exposure time means an image having a relatively long exposure time (herein, defined as an LE image) . For example, the second exposure time may be about eight times the first exposure time, and the ratio may be adjusted to a suitable ratio for expressing the list and dark areas. In addition, since the human eye is more sensitive to the change in brightness than the change in color, the preprocessing process is performed using the luminance signal of each of the SE image and the LE image (herein, defined as YS and YL signals). In other words, by applying the normalization process so that YS matches the reference point of YL before merging the two images, optimal WDR result image can be obtained even when the imbalance of image brightness is minimized and the exposure time adjustment is restricted.

휘도 융합수단(130)은 제1 노출시간을 갖는 휘도신호로부터 추출된 엣지 정보와, 정규화된 제1 노출시간을 갖는 휘도신호 및 제2 노출시간을 갖는 휘도신호의 융합결과와, 상기 제2 노출시간을 갖는 영상과 상기 융합결과로부터 추출된 밝기 차이를 합성한다. 휘도 융합처리 시에, 정규화된 제1 노출시간을 갖는 휘도신호 및 제2 노출시간을 갖는 휘도신호를 제1 가중치를 이용하여 합산한다. WDR 처리를 위해 영상의 휘도성분과 색차성분을 나누어 융합한다. 이는 일반적인 RGB 색 공간을 사용할 때보다 하드웨어의 복잡도를 줄이고, R,G,B 각각 조절 시에 생기는 색상 불균형 문제를 줄일 수 있다. 휘도 융합 시에 YS 신호와 YL 신호에 적절한 가중치를 적용하여 합산함으로써 명부와 암부가 모두 잘 보이는 휘도 영상을 생성한다. 또한 제1 노출시간을 갖는 휘도신호로부터 엣지 정보를 추출하여 영상의 선명도를 향상시키고, 상기 제2 노출시간을 갖는 영상과 상기 융합결과로부터 추출된 밝기 차이를 이용하여 명부의 밝기를 조절한다. 또한 엣지 추출 영상과 휘도 융합 영상과, 밝기 차이 영상을 합성한 영상에 선명도 등의 대조비를 강조하는 후처리를 수행하여 융합 시 발생하는 아티팩트(artifact)를 최소화 할 수 있다. 휘도 융합수단(130)의 구체적인 구성 및 기능은 하기에 설명하도록 한다.The luminance fusing unit 130 calculates the fusing result of the edge information extracted from the luminance signal having the first exposure time, the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time, And the brightness difference extracted from the fusion result is synthesized. In the luminance fusion process, the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time are added using the first weight. For WDR processing, luminance and chrominance components of image are divided and fused. This reduces the complexity of the hardware and reduces the color imbalance that occurs when adjusting R, G, and B, respectively, as compared to using a common RGB color space. In the luminance fusion, we apply the appropriate weights to the YS and YL signals and add them together to generate a luminance image that shows both the list and the dark areas. Also, edge information is extracted from the luminance signal having the first exposure time to improve the sharpness of the image, and the brightness of the list is adjusted using the brightness difference extracted from the image having the second exposure time and the fusion result. In addition, artifacts generated during fusion can be minimized by performing a post-processing that emphasizes a contrast ratio such as sharpness on an image obtained by combining an edge extracted image, a luminance fusion image, and a brightness difference image. The specific configuration and function of the luminance fusion unit 130 will be described below.

색차 융합수단은(140)은 제1 노출시간을 갖는 색차신호와 제2 노출시간을 갖는 색차신호를 휘도 융합수단(130)의 융합 결과를 반영한 제2 가중치를 이용하여 합산한다. 또한 선택적으로 채도 향상 및 색상 밸런스 조절 등의 후 처리를 수행할 수도 있다.The color difference fusing unit 140 adds the color difference signal having the first exposure time and the color difference signal having the second exposure time using the second weight reflecting the fusion result of the luminance fusion unit 130. [ In addition, post-processing such as color saturation enhancement and color balance adjustment may be selectively performed.

RGB 변환수단(150)은 휘도 융합수단(130)으로부터 출력되는 신호와 색차 융합수단(140)에서 출력되는 신호 즉, Y/C 신호를 RGB 신호로 변환하여 WDR 결과 영상신호를 출력한다.The RGB conversion means 150 converts a signal output from the luminance fusion means 130 and a signal output from the color difference fusion means 140, that is, a Y / C signal, into an RGB signal and outputs a WDR resultant image signal.

도 2는 도 1 중 Y/C 변환수단(110), 전 처리수단(120)이 포함된 휘도 융합수단(130)의 상세 블록도 이다.FIG. 2 is a detailed block diagram of the luminance fusing unit 130 including the Y / C conversion unit 110 and the preprocessing unit 120 in FIG.

도 2를 참조하면, 휘도 융합수단(130)은 엣지 추출부(131), 제1 연산 부(132), 휘도 융합부(133), 감산부(134), 제2 연산부(135) 및 후처리부(136)를 포함한다.2, the luminance fusion unit 130 includes an edge extraction unit 131, a first calculation unit 132, a luminance fusion unit 133, a subtraction unit 134, a second calculation unit 135, (136).

휘도 융합수단(130)의 출력신호 Yout는 다음 수학식1과 같이 구할 수 있다.The output signal Yout of the luminance fusing unit 130 can be obtained by the following equation (1).

Figure 112009055245475-pat00001
Figure 112009055245475-pat00001

먼저, Post1을 설명한다. 엣지 추출부(131)는 Y/C 변환수단(110)에서 출력되는 SE 영상의 휘도성분으로부터 엣지 정보를 추출한다. 엣지 추출부(131)는 고 대역 통과 필터(HPF) 또는 저 대역 통과 필터(LPF)를 적용하여 원본 휘도성분에서 엣지 정보를 추출한다. 도 3a에는 SE 영상이, 도 3b에는 도 3a SE 영상에서 추출된 엣지 영상이 도시되어 있다. 제1 연산부(132)는 추출된 엣지 영상에 이득(파라미터 1)을 적산하여 산출함으로써 명부영역에만 선명도(sharpness)를 조절할 수 있다. 상황에 따라 명부의 엣지 성분이 포함되지 않도록 SE 영상에서 특정 밝기 이상에서만 엣지를 찾을 수 있는 Threshold를 추가할 수 있으며, 이를 통하여 암부의 노이즈 등의 고주파 성분이 엣지와 함께 추출되는 것을 방지한다.First, we explain Post1. The edge extracting unit 131 extracts edge information from the luminance component of the SE image output from the Y / C converting unit 110. [ The edge extracting unit 131 extracts edge information from the original luminance component by applying a high pass filter (HPF) or a low pass filter (LPF). FIG. 3A shows an SE image, and FIG. 3B shows an edge image extracted from the FIG. 3A SE image. The first arithmetic unit 132 can adjust the sharpness only in the bright region by integrating and calculating the gain (parameter 1) on the extracted edge image. Depending on the situation, it is possible to add a threshold that allows the edge to be found only in a certain brightness or more in the SE image so that the edge component of the list is not included, thereby preventing the high frequency components such as the dark part from being extracted together with the edge.

본 발명에서는 명부의 선명도 향상을 위하여 상대적으로 노출시간이 짧은 SE 영상에서의 엣지를 이용하였으나, 상대적으로 노출시간이 긴 LE 영상에도 고 대역 통과 필터를 적용하면 명부의 선명도 조절이 가능하다. 또한 기존 방식에서와 같이 융합된 결과에 고 대역 통과 필터를 적용하면 전체 영상의 선명도 조절이 가능 하다. 따라서 총 3가지의 엣지 정보를 가지고 영상의 명부, 암부, 전체의 선명도를 마음대로 조절하는 것이 가능하다.In the present invention, in order to improve the clarity of the list, the edges of the SE image with relatively short exposure time are used, but the sharpness of the list can be adjusted by applying a high-pass filter to the LE image having a relatively long exposure time. Also, by applying a high-pass filter to the fused result as in the conventional method, the sharpness of the entire image can be adjusted. Therefore, it is possible to arbitrarily adjust the sharpness of the image list, the dark area, and the entire image with a total of three pieces of edge information.

도 4a는 휘도 융합결과 영상을, 도 4b는 엣지 추출 결과에 이득(파라미터 1)을 적산한 결과 영상을 보이고 있다. 도 4c는 도 4a에서 명부만 확대한 영상을, 도 4d는 도 4b 영상에서 명부만 확대한 영상을 보이고 있다. 이와 같이 엣지 추출을 통하여 명부의 선명도가 향상되었음을 알 수 있다.FIG. 4A shows the luminance fusion result image, and FIG. 4B shows the image obtained by integrating the gain (parameter 1) on the edge extraction result. FIG. 4C shows an image enlarged only on the list in FIG. 4A, and FIG. 4D shows an image enlarged only on the list in FIG. 4B. It can be seen that the sharpness of the list is improved by edge extraction as described above.

휘도 융합부(133)는 정규화된 제1 노출시간을 갖는 휘도신호 및 제2 노출시간을 갖는 휘도신호를 가중치를 적용하여 합산한다.The luminance fusion unit 133 adds the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time by weighting.

다음에 Post 2를 설명한다. 감산부(134)는 Y/C 변환수단(110)에서 출력되는 LE 영상의 휘도성분과, 휘도 융합부(133)에서 출력되는 융합 결과를 감산하여 명부의 밝기 변화량을 추출한 후 이를 이득(파라미터 2)에 의해 제2 연산부(135)에서 가공하여 명부 영역만 밝기 조정을 할 수 있다. 명부 영역의 전체적인 밝기가 낮아지지만 융합에 의해 변화량이 큰 부분일수록 밝기 변화가 커지므로 콘트라스트가 향상된 효과가 있다. 도 5에 도시된 바와 같이 암부의 경우는 노출시간이 긴 LE 영상에서의 밝기를 그대로 사용하므로 명부 변화량이 거의 0이 되므로 하얀색으로 나타남을 알 수 있으며, 명부의 경우 노출시간이 서로 다른 두 장의 영상을 융합하여 나타내기 때문에 노출시간이 긴 LE 영상에서 빼주면 음수의 명부 변화량을 구할 수 있다. 도 5에서 도 5a는 노출시간이 긴 LE 영상을, 도 5b는 휘도 융합부(133)에서 출력되는 영상을 도 5c는 도 5a 및 도 5b의 감산 결과 영상을 보이고 있다.Next, we explain Post 2. The subtraction section 134 subtracts the brightness component of the LE image output from the Y / C conversion means 110 and the fusion result output from the brightness fusion section 133 to extract the brightness variation of the name part, The second calculation unit 135 can process the brightness of the bright region only. The overall brightness of the list area is lowered, but the brightness change becomes larger as the amount of change due to fusion increases, so that the contrast is improved. As shown in FIG. 5, in the case of the dark part, since the brightness of the LE image having a long exposure time is used as it is, the change amount of the list is almost 0, so that it appears white. In the case of the list, , It is possible to obtain the change amount of the negative list by subtracting it from the LE image having a long exposure time. In FIG. 5, FIG. 5A shows the LE image with a long exposure time, FIG. 5B shows the image output from the brightness fusion unit 133, and FIG. 5C shows the subtraction result image of FIGS. 5A and 5B.

감산 시에, 명부의 변화량을 많이 반영하는 경우 명부의 밝기가 낮아져서 최 대 표현 범위를 전부 다 사용하지 못하는 경우가 발생하게 되므로, 명부 변화량을 반영한 후 영상의 최대값을 구한 후 최대 표현 범위까지 사용이 가능하도록 부가적으로 이득 보정 과정을 거칠 수 있다. 이때 이득값(파라미터 2)은 제2 연산부(135)에서 감산 결과와 적산되어 출력될 수 있다.In case of subtraction, the brightness of the list is low and the maximum expression range can not be fully used. Therefore, the maximum value of the image is obtained after reflecting the change of the list, and then the maximum expression range is used The gain correction process can be additionally performed. At this time, the gain value (parameter 2) may be integrated with the subtraction result in the second operation unit 135 and output.

하기 수학식 2에는 이득 보정 과정을 포함하는 Post2'를 보이고 있다.The following Equation 2 shows Post 2 'including a gain correction process.

Figure 112009055245475-pat00002
Figure 112009055245475-pat00002

또한 이득값이 너무 클 경우 명부와 암부의 경계 영역에서의 밝기 차이가 급격하게 되어 융합 부작용이 발생하거나 미세하게 존재하던 부작용이 증폭되어 보이게 될 수 있으므로 저 대역 통과 필터(블러링 처리부)를 사용하여 밝기 변화량을 블러링하거나, Threshold(제한부)를 이용하여 후 처리로 인한 밝기 변화의 최대값을 제한 할 수도 있으며, 하기 수학식3에 이를 Post2"로 나타낸다.Also, if the gain is too large, the brightness difference in the border region between the list and the dark region may become abrupt, resulting in fused side effects, or a slight side effect may be amplified. Therefore, a low pass filter (blurring processor) The brightness change amount may be blurred or the maximum value of the brightness change due to post-processing may be limited by using a threshold (Restriction).

Figure 112009055245475-pat00003
Figure 112009055245475-pat00003

도 6a는 휘도 융합결과 영상을, 도 6b는 감산 결과에 따른 밝기 변화량 영상을 보이고 있다. 도 6c는 도 6a에서 명부만 확대한 영상을, 도 6d는 도 6b 영상에서 명부만 확대한 영상을 보이고 있다. 이와 같이 LE 영상의 휘도성분과 휘도 융합 결과를 감산함으로써, 명부의 콘트라스트가 향상되었음을 알 수 있다.FIG. 6A shows the luminance fusion result image, and FIG. 6B shows the brightness change amount image according to the subtraction result. FIG. 6C shows an image enlarged only on the list in FIG. 6A, and FIG. 6D shows an image enlarged only on the list in FIG. 6B. Thus, by subtracting the luminance component of the LE image and the luminance fusion result, it can be seen that the contrast of the list is improved.

후 처리부(136)는 제1 연산부(132)의 출력과, 휘도 융합부(133)의 출력과, 제2 연산부(135)의 출력을 합성하여 Yout 신호로 출력한다. 후 처리부(136)는 제1 연산부(132)의 출력과, 휘도 융합부(133)의 출력과, 제2 연산부(135)의 출력에 특정 영역의 대조비를 향상시킬 수 있다.The post-processing unit 136 combines the output of the first calculation unit 132, the output of the luminance fusion unit 133, and the output of the second calculation unit 135, and outputs it as a Yout signal. The post-processing unit 136 can improve the output of the first calculation unit 132, the output of the luminance fusion unit 133, and the output of the second calculation unit 135 in a specific region.

도 7은 도 2의 각 블록 별 영상의 휘도성분을 보이는 도면으로, 도 7a는 LE 영상의 휘도성분을, 도 7b는 SE 영상의 휘도성분을, 도 7c는 휘도 융합 결과(종래 기술)의 휘도성분을, 도 7d는 본 발명에 따른 후처리 결과 영상의 휘도성분을 나타낸다. 도 7c과 비교 시에 도 7d가 선명도가 향상되었음을 알 수 있다. 7A is a graph showing the luminance components of the LE image, FIG. 7B and FIG. 7C, and FIG. 7C is a graph showing luminance of the luminance fusion result (prior art) And Fig. 7D shows luminance components of the post-processing result image according to the present invention. Compared with FIG. 7C, FIG. 7D shows that the sharpness is improved.

도 8은 도 2의 각 블록 별 컬러 영상을 보이는 도면으로, 도 7a는 LE 컬러 영상을, 도 7b는 SE 컬러 영상을, 도 7c는 휘도 융합 결과(종래 기술)의 컬러 영상을, 도 7d는 본 발명에 따른 후처리 결과 컬러 영상을 나타낸다. 도 7c과 비교 시에 도 7d가 콘트라스트가 향상되었음을 알 수 있다. 7A is a color image of an LE color image, FIG. 7B is an SE color image, FIG. 7C is a color image of a luminance fusion result (prior art), FIG. And shows the resultant color image according to the present invention. Compared with FIG. 7C, FIG. 7D shows that the contrast is improved.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1은 본 발명에 따른 광역 역광 보정 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a wide-area backlight compensation apparatus according to the present invention.

도 2는 도 1 중 Y/C 변환수단, 전 처리수단이 포함된 휘도 융합수단의 상세 블록도 이다.Fig. 2 is a detailed block diagram of luminance fusion means including Y / C conversion means and preprocessing means in Fig. 1. Fig.

도 3은 도 2 중 엣지 추출부를 설명하기 위한 영상을 보이는 도면이다.FIG. 3 is a view showing an image for explaining the edge extracting unit in FIG.

도 4는 도 2 중 엣지 추출 효과를 보이는 도면이다.Fig. 4 is a diagram showing an edge extracting effect in Fig.

도 5는 도 2 중 감산부를 설명하기 위한 영상을 보이는 도면이다.FIG. 5 is a diagram showing an image for explaining a subtraction unit in FIG. 2. FIG.

도 6은 도 2 중 감산부에 따른 콘트라스트 향상 효과를 보이는 도면이다.FIG. 6 is a diagram showing an effect of improving the contrast according to the subtraction unit in FIG. 2;

도 7은 도 2의 각 블록 별 영상의 휘도성분을 보이는 도면이다.FIG. 7 is a diagram showing luminance components of an image of each block in FIG. 2. FIG.

도 8은 도 2의 각 블록 별 컬러 영상을 보이는 도면이다.8 is a view showing a color image for each block of FIG.

도 9는 종래 기술에 따른 WDR 온/오프 영상을 보이는 도면이다.9 is a view showing a WDR on / off image according to the related art.

Claims (8)

삭제delete 삭제delete 제1 및 제2 노출시간으로 획득한 영상신호들을 휘도/색차 신호로 각각 변환하는 제1 변환수단;First conversion means for converting the image signals acquired at the first and second exposure times into luminance / color difference signals, respectively; 상기 제1 노출시간을 갖는 휘도신호를 상기 제2 노출시간을 갖는 휘도신호에 상응하도록 정규화 하는 전처리수단;A preprocessing means for normalizing the luminance signal having the first exposure time so as to correspond to the luminance signal having the second exposure time; 상기 제1 노출시간을 갖는 휘도신호로부터 추출된 엣지 정보와, 상기 정규화된 제1 노출시간을 갖는 휘도신호 및 상기 제2 노출시간을 갖는 휘도신호의 융합결과와, 상기 제2 노출시간을 갖는 영상과 상기 융합결과로부터 추출된 밝기 차이를 합성하는 휘도 융합수단;A result of fusion of the edge information extracted from the luminance signal having the first exposure time, the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time, And luminance fusion means for synthesizing the brightness difference extracted from the fusion result; 제1 및 제2 노출시간을 갖는 색차신호를 상기 휘도 융합수단의 출력을 반영한 가중치를 이용하여 합산하는 색차 융합수단; 및A color difference fusing means for summing color difference signals having first and second exposure times using a weight reflecting the output of the luminance fusing means; And 상기 휘도 융합수단 및 색차 융합수단의 출력을 RGB 신호로 변환하는 제2 변환수단을 포함하고,And second conversion means for converting the outputs of the luminance fusion means and the color difference fusion means into RGB signals, 상기 휘도 융합수단은The luminance fusion means 상기 제1 노출시간을 갖는 휘도신호로부터 엣지를 추출하는 엣지 추출부;An edge extracting unit for extracting an edge from the luminance signal having the first exposure time; 상기 정규화된 제1 노출시간을 갖는 휘도신호 및 상기 제2 노출시간을 갖는 휘도신호에 가중치를 적용하여 합산하는 휘도 융합부;A luminance fusion unit for applying a weight to the luminance signal having the normalized first exposure time and the luminance signal having the second exposure time and for summing up; 상기 제2 노출시간을 갖는 휘도신호 및 상기 휘도 융합부의 출력을 감산하는 감산부;A subtraction unit for subtracting the luminance signal having the second exposure time and the output of the luminance fusion unit; 상기 엣지 추출부, 상기 휘도 융합부 및 상기 감산부의 출력을 합성하는 후처리부를 포함하는 것을 특징으로 하는 광역 역광 보정 장치.And a post-processing unit for synthesizing the outputs of the edge extracting unit, the luminance fusion unit, and the subtracting unit. 삭제delete 제 3항에 있어서, The method of claim 3, 상기 엣지 추출부의 출력에 소정의 이득값을 적산하는 제1 연산부를 더 포함하는 것을 특징으로 하는 광역 역광 보정 장치.Further comprising a first calculating unit for multiplying an output of the edge extracting unit by a predetermined gain value. 제 3항에 있어서, The method of claim 3, 상기 감산부의 출력에 소정의 이득값을 적산하는 제2 연산부를 더 포함하는 것을 특징으로 하는 광역 역광 보정 장치.And a second arithmetic unit for multiplying an output of the subtraction unit by a predetermined gain value. 청구항 7은(는) 설정등록료 납부시 포기되었습니다.Claim 7 has been abandoned due to the setting registration fee. 제 6항에 있어서, The method according to claim 6, 상기 제2 연산부의 출력을 블러링하는 블러링 처리부를 더 포함하는 것을 특징으로 하는 광역 역광 보정 장치.And a blurring processor for blurring the output of the second calculator. 청구항 8은(는) 설정등록료 납부시 포기되었습니다.Claim 8 has been abandoned due to the setting registration fee. 제 6항에 있어서, The method according to claim 6, 상기 제2 연산부의 출력을 소정의 기준값으로 제한하는 제한부를 더 포함하는 것을 특징으로 하는 광역 역광 보정 장치.And a limiter for limiting the output of the second calculator to a predetermined reference value.
KR1020090084533A 2009-09-08 2009-09-08 Apparatus for processing wide dynamic rage KR101408343B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090084533A KR101408343B1 (en) 2009-09-08 2009-09-08 Apparatus for processing wide dynamic rage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090084533A KR101408343B1 (en) 2009-09-08 2009-09-08 Apparatus for processing wide dynamic rage

Publications (2)

Publication Number Publication Date
KR20110026754A KR20110026754A (en) 2011-03-16
KR101408343B1 true KR101408343B1 (en) 2014-07-02

Family

ID=43933680

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090084533A KR101408343B1 (en) 2009-09-08 2009-09-08 Apparatus for processing wide dynamic rage

Country Status (1)

Country Link
KR (1) KR101408343B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101535006B1 (en) * 2014-01-27 2015-07-08 (주) 넥스트칩 Image processing apparatus and method for back light compensation
CN104599643B (en) * 2015-02-13 2017-07-14 合肥京东方光电科技有限公司 Dimmable backlights source device, display device and its application method
CN115953422B (en) * 2022-12-27 2023-12-19 北京小米移动软件有限公司 Edge detection method, device and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10262182A (en) * 1997-03-17 1998-09-29 Ricoh Co Ltd Image synthesizer
JP2000050151A (en) 1998-07-28 2000-02-18 Olympus Optical Co Ltd Image pickup device
JP2002271686A (en) 2001-03-12 2002-09-20 Olympus Optical Co Ltd Imaging device
JP2003158669A (en) 2001-11-21 2003-05-30 Olympus Optical Co Ltd Image pickup device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10262182A (en) * 1997-03-17 1998-09-29 Ricoh Co Ltd Image synthesizer
JP2000050151A (en) 1998-07-28 2000-02-18 Olympus Optical Co Ltd Image pickup device
JP2002271686A (en) 2001-03-12 2002-09-20 Olympus Optical Co Ltd Imaging device
JP2003158669A (en) 2001-11-21 2003-05-30 Olympus Optical Co Ltd Image pickup device

Also Published As

Publication number Publication date
KR20110026754A (en) 2011-03-16

Similar Documents

Publication Publication Date Title
US9019402B2 (en) Dynamic range extension by combining differently exposed hand-held device-acquired images
KR101267404B1 (en) Image processor, image processing method, and recording medium
KR101247646B1 (en) Image combining apparatus, image combining method and recording medium
JP6169186B2 (en) Image processing method and apparatus, and photographing terminal
EP2302903B1 (en) Image processing method, image processing apparatus, computer readable medium, and imaging apparatus
CN107038680B (en) Self-adaptive illumination beautifying method and system
CN110033418B (en) Image processing method, image processing device, storage medium and electronic equipment
US9681026B2 (en) System and method for lens shading compensation
US8687883B2 (en) Method and a device for merging a plurality of digital pictures
JP4208909B2 (en) Image processing device and photographing device
JP5412553B2 (en) Visual processing device and visual processing method
EP3672221B1 (en) Imaging device and imaging method
JP2013106141A (en) Image combining apparatus and program
JP2012109900A (en) Photographing device, photographing method and program
JP2013258444A (en) Image processing device, image processing method, and program
JP2013162431A (en) Image signal processing apparatus, imaging apparatus, and image processing program
CN110047060B (en) Image processing method, image processing device, storage medium and electronic equipment
Kao High dynamic range imaging by fusing multiple raw images and tone reproduction
KR100933556B1 (en) Color image processing apparatus and method for extending the dynamic range
CN110740266B (en) Image frame selection method and device, storage medium and electronic equipment
KR101408343B1 (en) Apparatus for processing wide dynamic rage
JP2015139082A (en) Image processor, image processing method, program and electronic apparatus
Yao et al. Noise reduction for differently exposed images
KR102199472B1 (en) Apparatus and method for processing image
JP2008305122A (en) Image-processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180521

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190527

Year of fee payment: 6