KR20240022084A - Apparatus and Method for Compensating Mura - Google Patents

Apparatus and Method for Compensating Mura Download PDF

Info

Publication number
KR20240022084A
KR20240022084A KR1020220100331A KR20220100331A KR20240022084A KR 20240022084 A KR20240022084 A KR 20240022084A KR 1020220100331 A KR1020220100331 A KR 1020220100331A KR 20220100331 A KR20220100331 A KR 20220100331A KR 20240022084 A KR20240022084 A KR 20240022084A
Authority
KR
South Korea
Prior art keywords
image data
gray
representative
grayscale
low
Prior art date
Application number
KR1020220100331A
Other languages
Korean (ko)
Inventor
장두화
Original Assignee
주식회사 엘엑스세미콘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘엑스세미콘 filed Critical 주식회사 엘엑스세미콘
Priority to KR1020220100331A priority Critical patent/KR20240022084A/en
Priority to PCT/KR2023/011479 priority patent/WO2024035011A1/en
Publication of KR20240022084A publication Critical patent/KR20240022084A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/006Electronic inspection or testing of displays and display drivers, e.g. of LED or LCD displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/08Active matrix structure, i.e. with use of active elements, inclusive of non-linear two terminal elements, in the pixels together with light emitting or modulating elements
    • G09G2300/0809Several active elements per pixel in active matrix panels
    • G09G2300/0819Several active elements per pixel in active matrix panels used for counteracting undesired variations, e.g. feedback or autozeroing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Abstract

디스플레이 패널을 통해 표시되는 이미지의 무라를 검출하고 검출한 무라를 보상하는 본 발명의 일 실시예에 따른 무라 보상 장치로서, 제1 이미지 데이터 및 제2 이미지 데이터를 상기 디스플레이 패널에 공급하는 테스트 영상 공급부; 및 상기 제1 이미지 데이터 및 상기 제2 이미지 데이터에 대응하여 상기 디스플레이 패널에 표시되는 제1 이미지 및 제2 이미지를 각각 촬영하는 테스트 영상 촬영부;를 포함하는 것을 특징으로 한다.A mura compensation device according to an embodiment of the present invention that detects mura in an image displayed through a display panel and compensates for the detected mura, wherein the test image supply unit supplies first image data and second image data to the display panel. ; and a test image capture unit that captures a first image and a second image displayed on the display panel in response to the first image data and the second image data, respectively.

Description

무라 보상 장치 및 무라 보상 방법{Apparatus and Method for Compensating Mura}Mura compensating device and method for compensating Mura {Apparatus and Method for Compensating Mura}

영상을 표시하는 디스플레이 장치로는 액정을 이용한 액정 디스플레이(Liquid Crystal Display; LCD), 유기발광 다이오드를 이용한 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 디스플레이 등이 대표적이다. Representative display devices that display images include liquid crystal displays (LCD) using liquid crystals and organic light emitting diodes (OLED) displays using organic light emitting diodes.

이러한 디스플레이 패널은 제조 공정 상의 불균일로 인해 디스플레이 패널의 특정 화소 또는 일부 영역에서 휘점 또는 얼룩이 시인되는 불량이 발생할 수 있다. Such display panels may have defects in which bright spots or stains are visible in specific pixels or certain areas of the display panel due to non-uniformity in the manufacturing process.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 디스플레이 패널의 제조 공정상 불균일로 인한 특정 화소 및 일부 영역에서 휘점 또는 얼룩이 시인되는 불량을 최소화하기 위한 무라 보상 장치 및 무라 보상 방법을 제공하는 것을 그 기술적 과제로 한다.The present invention is intended to solve the above-mentioned problems, and provides a mura compensation device and a mura compensation method to minimize defects in which bright spots or stains are recognized in specific pixels and some areas due to unevenness in the manufacturing process of the display panel. Make it an assignment.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 디스플레이 패널의 제조 공정상 불균일로 인한 특정 화소 및 일부 영역에서 휘점 또는 얼룩이 시인되는 불량을 최소화하기 위한 무라 보상 장치 및 무라 보상 방법을 제공하는 것을 그 기술적 과제로 한다.The present invention is intended to solve the above-mentioned problems, and provides a mura compensation device and a mura compensation method to minimize defects in which bright spots or stains are recognized in specific pixels and some areas due to unevenness in the manufacturing process of the display panel. Make it an assignment.

디스플레이 패널을 통해 표시되는 이미지의 무라를 검출하고 검출한 무라를 보상하는 무라 보상 장치로서, 제1 이미지 데이터 및 제2 이미지 데이터를 상기 디스플레이 패널에 공급하는 테스트 영상 공급부; 및 상기 제1 이미지 데이터 및 상기 제2 이미지 데이터에 대응하여 상기 디스플레이 패널에 표시되는 제1 이미지 및 제2 이미지를 각각 촬영하는 테스트 영상 촬영부;를 포함하고, 상기 테스트 영상 촬영부는 상기 제1 이미지를 제1 기준 노출시간 동안 촬영하여 제1 촬영 이미지 데이터를 생성하고, 상기 제2 이미지를 상기 제1 기준 노출시간과 다른 제2 기준 노출시간 동안 촬영하여 제2 촬영 이미지 데이터를 생성하는 것을 특징으로 한다.A mura compensation device that detects mura in an image displayed through a display panel and compensates for the detected mura, comprising: a test image supply unit that supplies first image data and second image data to the display panel; and a test image capture unit that captures a first image and a second image displayed on the display panel in response to the first image data and the second image data, respectively, wherein the test image capture unit captures the first image. Characterized by capturing the first image during a first reference exposure time to generate first captured image data, and capturing the second image during a second reference exposure time different from the first reference exposure time to generate second captured image data. do.

본 발명의 일 실시예에 따른 무라 보상 장치 및 무라 보상 방법은 디스플레이 패널의 제조 공정상 불균일로 인한 특정 화소 및 일부 영역에서 휘점 또는 얼룩이 시인되는 불량을 최소화할 수 있다.The mura compensation device and mura compensation method according to an embodiment of the present invention can minimize defects in which bright spots or stains are visible in specific pixels and some areas due to unevenness in the manufacturing process of the display panel.

도 1은 본 발명의 일 실시예에 따른 무라 보상 장치를 이용하여 디스플레이 패널의 무라를 검출하는 과정을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 무라 보상 장치의 블록도이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 계조별 대표 이미지 데이터 생성 과정을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 저계조 대표 이미지 데이터를 생성하기 위한 저계조 무라 보상식을 나타내는 그래프이다.
도 5는 본 발명의 일 실시예에 따른 저계조 무라 보상식을 이용하여 저계조 대표 이미지 데이터를 생성 과정을 나타내는 그래프이다.
도 6은 본 발명의 일 실시예에 따른 계조별 대표 이미지 데이터 생성 과정의 플로우 차트이다.
도 7은 본 발명의 일 실시예에 따른 각 계조에 대한 무라 보상식을 산출하고, 산출한 무라 보상식에 따라 저계조 대표 이미지 데이터를 생성 과정의 플로우 차트이다.
1 is a diagram illustrating a process for detecting mura in a display panel using a mura compensation device according to an embodiment of the present invention.
Figure 2 is a block diagram of a mura compensation device according to an embodiment of the present invention.
Figures 3A to 3C are diagrams showing a process of generating representative image data for each gray level according to an embodiment of the present invention.
Figure 4 is a graph showing a low-gray-scale mura compensation equation for generating low-gray-scale representative image data according to an embodiment of the present invention.
Figure 5 is a graph showing the process of generating low gray level representative image data using a low gray level mura compensation equation according to an embodiment of the present invention.
Figure 6 is a flow chart of the process of generating representative image data for each gray level according to an embodiment of the present invention.
Figure 7 is a flow chart of the process of calculating a mura compensation equation for each gray level and generating low gray level representative image data according to the calculated mura compensation equation according to an embodiment of the present invention.

명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명의 핵심 구성과 관련이 없는 경우 및 본 발명의 기술분야에 공지된 구성과 기능에 대한 상세한 설명은 생략될 수 있다. 본 명세서에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Like reference numerals refer to substantially the same elements throughout the specification. In the following description, detailed descriptions of configurations and functions known in the technical field of the present invention and cases not related to the core configuration of the present invention may be omitted. The meaning of terms described in this specification should be understood as follows.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining embodiments of the present invention are illustrative, and the present invention is not limited to the matters shown. Like reference numerals refer to like elements throughout the specification. Additionally, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

본 명세서에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다. When 'includes', 'has', 'consists of', etc. mentioned in this specification are used, other parts may be added unless 'only' is used. When a component is expressed in the singular, the plural is included unless specifically stated otherwise.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.When interpreting a component, it is interpreted to include the margin of error even if there is no separate explicit description.

시간 관계에 대한 설명일 경우, 예를 들어, '~후에', '~에 이어서', '~다음에', '~전에' 등으로 시간적 선후 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the case of a description of a temporal relationship, for example, if a temporal relationship is described as 'after', 'successfully after', 'after', 'before', etc., 'immediately' or 'directly' Unless used, non-consecutive cases may also be included.

제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although first, second, etc. are used to describe various components, these components are not limited by these terms. These terms are merely used to distinguish one component from another. Accordingly, the first component mentioned below may also be the second component within the technical spirit of the present invention.

"적어도 하나"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및 제3 항목 중에서 적어도 하나"의 의미는 제1 항목, 제2 항목 또는 제3 항목 각각뿐만 아니라 제1 항목, 제2 항목 및 제3 항목 중에서 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미할 수 있다. The term “at least one” should be understood to include all possible combinations from one or more related items. For example, “at least one of the first, second, and third items” means each of the first, second, or third items, as well as two of the first, second, and third items. It can mean a combination of all items that can be presented from more than one.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하고, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시할 수도 있다.Each feature of the various embodiments of the present invention can be combined or combined with each other, partially or entirely, and various technological interconnections and operations are possible, and each embodiment can be implemented independently of each other or together in a related relationship. It may be possible.

이하, 도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 무라 보상 장치에 대해 상세히 설명한다. Hereinafter, with reference to FIGS. 1 to 5, a mura compensation device according to an embodiment of the present invention will be described in detail.

도 1은 본 발명의 일 실시예에 따른 무라 보상 장치를 이용하여 디스플레이 패널의 무라를 검출하는 과정을 나타내는 도면이고, 도 2는 본 발명의 일 실시예에 따른 무라 보상 장치의 블록도이다. 도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 계조별 대표 이미지 데이터 생성 과정을 나타내는 도면이고, 도 4는 본 발명의 일 실시예에 따른 저계조 대표 이미지 데이터를 생성하기 위한 저계조 무라 보상식을 나타내는 그래프이다. 도 5는 본 발명의 일 실시예에 따른 저계조 무라 보상식을 이용하여 저계조 대표 이미지 데이터를 생성 과정을 나타내는 그래프이다.FIG. 1 is a diagram showing a process for detecting mura in a display panel using a mura compensation device according to an embodiment of the present invention, and FIG. 2 is a block diagram of a mura compensation device according to an embodiment of the present invention. 3A to 3C are diagrams illustrating a process of generating representative image data for each gray level according to an embodiment of the present invention, and FIG. 4 is a diagram illustrating a low gray level murabo for generating low gray level representative image data according to an embodiment of the present invention. This is a graph that represents common sense. Figure 5 is a graph showing the process of generating low gray level representative image data using a low gray level mura compensation equation according to an embodiment of the present invention.

도 1을 참조하면, 무라 보상 장치(200)는 디스플레이 패널(100)에 테스트 이미지 데이터를 제공하고, 디스플레이 패널(100)에 표시된 이미지를 촬영하여 무라를 측정하고, 측정된 무라를 보상하기 위한 보상값을 산출하여 디스플레이 패널(100)을 구동하는 드라이버(300)에 제공한다.Referring to FIG. 1, the mura compensation device 200 provides test image data to the display panel 100, measures mura by taking an image displayed on the display panel 100, and performs compensation to compensate for the measured mura. The value is calculated and provided to the driver 300 that drives the display panel 100.

이때, 디스플레이 패널(100)은 백라이트 유닛으로부터 조사되는 광을 이용하여 소정 계조의 이미지를 표시할 수 있다. 디스플레이 패널(100)은 액정 디스플레이(Liquid Crystal Display:LCD) 패널 또는 유기 발광 다이오드 디스플레이(Organic Light Emitting Diode:OLED) 패널과 같은 평판 디스플레이 패널일 수 있다.At this time, the display panel 100 can display an image of a certain gray level using light emitted from the backlight unit. The display panel 100 may be a flat display panel, such as a Liquid Crystal Display (LCD) panel or an Organic Light Emitting Diode (OLED) panel.

디스플레이 패널(100)은 도시되지 않았지만, 복수 개의 게이트 라인, 복수 개의 데이터 라인, 복수 개의 픽셀을 포함한다. 복수 개의 게이트 라인 각각은 스캔 펄스를 입력 받는다. 복수 개의 데이터 라인 각각은 디스플레이 기간(DP)시 데이터 신호를 입력 받는다. 복수 개의 게이트 라인과 복수 개의 데이터 라인 각각은 기판 상에 서로 교차하도록 위치하여 복수 개의 픽셀을 정의한다. 복수 개의 픽셀 각각은 인접한 게이트 라인 및 데이터 라인에 연결된 박막 트랜지스터, 박막 트랜지스터에 연결된 픽셀 전극 및 픽셀 전극에 연결된 스토리지 커패시터를 포함할 수 있다.Although not shown, the display panel 100 includes a plurality of gate lines, a plurality of data lines, and a plurality of pixels. Each of the plurality of gate lines receives a scan pulse. Each of the plurality of data lines receives a data signal during the display period (DP). Each of the plurality of gate lines and the plurality of data lines is positioned to intersect each other on the substrate to define a plurality of pixels. Each of the plurality of pixels may include a thin film transistor connected to adjacent gate lines and data lines, a pixel electrode connected to the thin film transistor, and a storage capacitor connected to the pixel electrode.

디스플레이 패널(100)의 픽셀은 제1 색, 제2 색 및 제3 색의 서브 픽셀들을 포함할 수 있으며, 또한, 제4 색 서브 픽셀들을 더 포함할 수도 있다. 이때, 제1 색은 각각 적색®, 녹색(G) 및 청색(B) 중 어느 하나일 수 있으며, 제2 색은 적색®, 녹색(G) 및 청색(B) 중 다른 하나일 수 있으며, 제3 색은 적색®, 녹색(G) 및 청색(B) 중 또 다른 하나일 수 있다. 또한, 제4 색은 백색(W)일 수 있다. 예를 들어, 각 서브 픽셀들은 행 방향으로 반복적으로 형성되거나 2*2 매트릭스 형태로 형성될 수 있다. 이때, 제1 색, 제2 색 및 제3 색의 서브 픽셀들 각각에는 각 색에 대응되는 컬러필터가 배치되는 반면, 제4 색 서브 픽셀에는 별도의 컬러필터가 배치되지 않는다. 일 실시예에 있어서, 제1 색, 제2 색, 제3 색 및 제4 색의 서브 픽셀들은 동일한 면적비율을 갖도록 형성될 수 있지만, 다른 면적 비율을 갖도록 형성될 수도 있다.A pixel of the display panel 100 may include subpixels of a first color, a second color, and a third color, and may further include subpixels of a fourth color. At this time, the first color may be one of red®, green (G), and blue (B), and the second color may be another one of red®, green (G), and blue (B), respectively. 3 The color may be another one of red®, green (G) and blue (B). Additionally, the fourth color may be white (W). For example, each subpixel may be formed repeatedly in the row direction or may be formed in a 2*2 matrix. At this time, a color filter corresponding to each color is disposed in each of the first, second, and third color subpixels, while a separate color filter is not disposed in the fourth color subpixel. In one embodiment, subpixels of the first color, second color, third color, and fourth color may be formed to have the same area ratio, but may also be formed to have different area ratios.

디스플레이 패널(100)은 제조 공정 상의 불균일로 인해 일부 픽셀 또는 일부 영역에서 휘점 또는 얼룩을 표시할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 디스플레이 패널(100)의 표시 불량을 보상하여 디스플레이 패널(100)의 표시 품질을 향상시킬 수 있다.The display panel 100 may display bright spots or spots in some pixels or some areas due to unevenness in the manufacturing process. According to an embodiment of the present invention, the display quality of the display panel 100 can be improved by compensating for the display defect of the display panel 100.

본 발명의 일 실시예에 따른 무라 보상 장치(200)는 도 1 및 도 2에 도시된 바와 같이, 테스트 영상 공급부(210), 테스트 영상 촬영부(220), 무라 보상부(230)를 포함한다.As shown in FIGS. 1 and 2, the mura compensation device 200 according to an embodiment of the present invention includes a test image supply unit 210, a test image capture unit 220, and a mura compensation unit 230. .

테스트 영상 공급부(210)는 이미지 데이터를 디스플레이 패널(100)에 제공한다. 본 발명의 일 실시예에 따르면, 테스트 영상 공급부(210)는 각 계조 범위에 대응하는 복수의 이미지 데이터를 디스플레이 패널(100)에 제공할 수 있다. 이때, 복수의 이미지 데이터 각각은 디스플레이 패널(100)의 각 픽셀에 입력되는 이미지 데이터들로 구성될 수 있다. 구체적으로, 테스트 영상 공급부(210)는 도 2에 도시된 바와 같이, 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3), 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)를 디스플레이 패널(100)에 제공한다. The test image supply unit 210 provides image data to the display panel 100. According to one embodiment of the present invention, the test image supply unit 210 may provide a plurality of image data corresponding to each gray level range to the display panel 100. At this time, each of the plurality of image data may be composed of image data input to each pixel of the display panel 100. Specifically, as shown in FIG. 2, the test image supply unit 210 supplies first to third low gray scale image data (L_IMG1, L_IMG2, L_IMG3) and first to third mid gray scale image data (M_IMG1, M_IMG2, M_IMG3). ) and first to third high grayscale image data (H_IMG1, H_IMG2, H_IMG3) are provided to the display panel 100.

제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3)는 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)보다 낮거나 같은 계조를 가질 수 있고, 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3)는 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)보다 낮거나 같은 계조를 가질 수 있다. The first to third low gray-scale image data (L_IMG1, L_IMG2, L_IMG3) are the first to third middle gray-scale image data (M_IMG1, M_IMG2, M_IMG3) and the first to third high gray-scale image data (H_IMG1, H_IMG2, H_IMG3). It may have a grayscale lower than or equal to that of the first to third medium grayscale image data (M_IMG1, M_IMG2, M_IMG3) and the first to third high grayscale image data (H_IMG1, H_IMG2, H_IMG3). You can.

본 발명의 일 실시예에 따르면, 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3)은 각각 서로 다른 계조를 갖고, 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3)은 각각 서로 다른 계조를 갖고, 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)은 각각 서로 다른 계조를 가질 수 있다. 예를 들어, 제1 저계조 이미지 데이터(L_IMG1)는 제2 및 제3 저계조 이미지 데이터(L_IMG2,L_IMG3)보다 낮은 계조를 가지고, 제2 저계조 이미지 데이터(L_IMG2)는 제3 저계조 이미지 데이터(L_IMG3)보다 낮은 계조를 가지며, 제2 저계조 이미지 데이터(L_IMG2)와 제1 저계조 이미지 데이터(L_IMG1)의 계조 차이는 제3 저계조 이미지 데이터(L_IMG3)와 제2 저계조 이미지 데이터(L_IMG2)의 계조 차이와 동일할 수 있다. 제1 중계조 이미지 데이터(M_IMG1)는 제2 및 제3 중계조 이미지 데이터(M_IMG2,M_IMG3)보다 낮은 계조를 가지고, 제2 중계조 이미지 데이터(M_IMG2)는 제3 중계조 이미지 데이터(M_IMG3)보다 낮은 계조를 가지며, 제2 중계조 이미지 데이터(M_IMG2)와 제1 중계조 이미지 데이터(M_IMG1)의 계조 차이는 제3 중계조 이미지 데이터(M_IMG3)와 제2 중계조 이미지 데이터(M_IMG2)의 계조 차이와 동일할 수 있다. 또한, 제1 고계조 이미지 데이터(H_IMG1)는 제2 및 제3 고계조 이미지 데이터(H_IMG2,H_IMG3)보다 낮은 계조를 가지고, 제2 고계조 이미지 데이터(H_IMG2)는 제3 고계조 이미지 데이터(H_IMG3)보다 낮은 계조를 가지며, 제2 고계조 이미지 데이터(H_IMG2)와 제1 고계조 이미지 데이터(H_IMG1)의 계조 차이는 제3 고계조 이미지 데이터(H_IMG3)와 제2 고계조 이미지 데이터(H_IMG2)의 계조 차이와 동일할 수 있다. 이때, 저계조 이미지 데이터들 사이의 계조 차이는 중계조 이미지 데이터들 사이의 계조 차이 및 고계조 이미지 데이터들 사이의 계조 차이보다 작은 값일 수 있고, 중계조 이미지 데이터들 사이의 계조 차이는 고계조 이미지 데이터들 사이의 계조 차이보다 작은 값일 수 있다. According to an embodiment of the present invention, the first to third low gray scale image data (L_IMG1, L_IMG2, L_IMG3) each have different gray scales, and the first to third medium gray scale image data (M_IMG1, M_IMG2, M_IMG3) Each has a different gray scale, and the first to third high gray scale image data (H_IMG1, H_IMG2, H_IMG3) may each have different gray scales. For example, the first low-gray-scale image data (L_IMG1) has a lower gray-scale than the second and third low-gray-scale image data (L_IMG2 and L_IMG3), and the second low-gray-scale image data (L_IMG2) has a lower gray-scale than the third low-gray-scale image data (L_IMG2 and L_IMG3). It has a lower gray level than (L_IMG3), and the gray level difference between the second low gray level image data (L_IMG2) and the first low gray level image data (L_IMG1) is the third low gray level image data (L_IMG3) and the second low gray level image data (L_IMG2). ) may be the same as the gray level difference. The first relay image data (M_IMG1) has a lower gray level than the second and third relay image data (M_IMG2, M_IMG3), and the second relay image data (M_IMG2) has a lower gray level than the third relay image data (M_IMG3). It has a low gray scale, and the gray scale difference between the second intermediate gray scale image data (M_IMG2) and the first intermediate gray scale image data (M_IMG1) is the gray scale difference between the third intermediate gray scale image data (M_IMG3) and the second intermediate gray scale image data (M_IMG2). may be the same as In addition, the first high gray scale image data (H_IMG1) has a lower gray scale than the second and third high gray scale image data (H_IMG2, H_IMG3), and the second high gray scale image data (H_IMG2) has a lower gray scale than the third high gray scale image data (H_IMG3). ), and the difference in grayscale between the second high grayscale image data (H_IMG2) and the first high grayscale image data (H_IMG1) is that of the third high grayscale image data (H_IMG3) and the second high grayscale image data (H_IMG2). It may be the same as the gray level difference. At this time, the gray level difference between the low gray level image data may be a value smaller than the gray level difference between the mid gray level image data and the gray level difference between the high gray level image data, and the gray level difference between the mid gray level image data may be a value smaller than the gray level difference between the mid gray level image data and the high gray level image data. It may be a value smaller than the gray level difference between data.

예를 들어, 제1 저계조 이미지 데이터(L_IMG1)는 20 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제2 저계조 이미지 데이터(L_IMG2)는 30 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제3 저계조 이미지 데이터(L_IMG3)는 40 계조의 이미지 데이터로 구성된 이미지 데이터일 수 있고, 제1 중계조 이미지 데이터(M_IMG1)는 40 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제2 중계조 이미지 데이터(M_IMG2)는 60 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제3 중계조 이미지 데이터(M_IMG3)는 80 계조의 이미지 데이터로 구성된 이미지 데이터일 수 있고, 제1 고계조 이미지 데이터(H_IMG1)는 150 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제2 고계조 이미지 데이터(H_IMG2)는 180 계조의 이미지 데이터로 구성된 이미지 데이터이고, 제3 고계조 이미지 데이터(H_IMG3)는 210 계조의 이미지 데이터로 구성된 이미지 데이터일 수 있다. 이에 따라, 저계조 이미지 데이터들(L_IMG1,L_IMG2,L_IMG3) 사이의 차이의 절대값인 10 계조는 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 사이의 차이의 절대값인 20 계조 및 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3) 사이의 차이의 절대값인 30 계조보다 작은 값일 수 있고, 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 사이의 차이의 절대값인 20 계조는 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3) 사이의 차이의 절대값인 30 계조보다 작은 값일 수 있다. 또한, 예를 들어, 저계조 이미지 데이터들(L_IMG1,L_IMG2,L_IMG3)은 0계조 이상 45계조 미만의 계조를 가질 수 있고, 중계조 이미지 데이터들(M_IMG1,M_IMG2,M_IMG3)은 20계조 이상 100계조 미만의 계조를 가질 수 있고, 고계조 이미지 데이터들(H_IMG1,H_IMG2,H_IMG3)은 100계조 이상의 계조를 가질 수 있다.For example, the first low gray level image data (L_IMG1) is image data consisting of image data of 20 gray levels, the second low gray level image data (L_IMG2) is image data consisting of image data of 30 gray levels, and the third low gray level image data. The image data (L_IMG3) may be image data composed of 40 gray-scale image data, the first mid-gray-scale image data (M_IMG1) may be image data composed of 40-gray-scale image data, and the second mid-gray-scale image data (M_IMG2) may be image data composed of 40 gray-scale image data. It is image data composed of image data of 60 gray levels, the third middle gray level image data (M_IMG3) may be image data composed of image data of 80 gray levels, and the first high gray level image data (H_IMG1) may be image data of 150 gray levels. It is image data composed of image data, the second high gray-scale image data (H_IMG2) may be image data composed of image data of 180 gray-scale, and the third high-gray-scale image data (H_IMG3) may be image data composed of image data of 210 gray-scale. Accordingly, 10 gray levels, which is the absolute value of the difference between the low gray level image data (L_IMG1, L_IMG2, L_IMG3), is 20 gray levels, which is the absolute value of the difference between the mid gray level image data (M_IMG1, M_IMG2, M_IMG3) and high gray level image data. It may be a value smaller than 30 gray levels, which is the absolute value of the difference between (H_IMG1, H_IMG2, H_IMG3), and 20 gray levels, which is the absolute value of the difference between the mid-gray-scale image data (M_IMG1, M_IMG2, M_IMG3), is the high-gray-scale image data (H_IMG1, It may be a value smaller than 30 gray levels, which is the absolute value of the difference between (H_IMG2, H_IMG3). Additionally, for example, the low gray level image data (L_IMG1, L_IMG2, L_IMG3) may have a gray level of 0 to 45 gray levels, and the medium gray level image data (M_IMG1, M_IMG2, M_IMG3) may have a gray level of 20 to 100 gray levels. It may have a gray level of less than 100 gray levels, and the high gray level image data (H_IMG1, H_IMG2, H_IMG3) may have a gray level of 100 gray levels or more.

디스플레이 패널(100)은 테스트 영상 공급부(210)로부터 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3), 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)를 수신하여 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지 및 제1 내지 제3 고계조 이미지들을 각각 표시한다.The display panel 100 receives first to third low gray scale image data (L_IMG1, L_IMG2, L_IMG3), first to third mid gray scale image data (M_IMG1, M_IMG2, M_IMG3), and first to third low gray scale image data (M_IMG1, M_IMG2, M_IMG3) from the test image supply unit 210. Third high gray scale image data (H_IMG1, H_IMG2, H_IMG3) is received and first to third low gray scale images, first to third mid gray scale images, and first to third high gray scale images are respectively displayed.

테스트 영상 촬영부(220)는 디스플레이 패널(100)에 표시되는 이미지를 촬영하여 촬영 이미지 데이터를 획득한다. 이때, 본 발명의 일 실시예에 따르면, 테스트 영상 촬영부(220)는 제1 내지 제3 저계조 이미지들에 대해 동일한 기준 노출시간을 적용하여 촬영하고, 제1 내지 제3 중계조 이미지들에 대해 동일한 기준 노출시간을 적용하여 촬영하고, 제1 내지 제3 고계조 이미지들에 대해 동일한 기준 노출시간을 적용하여 촬영하며, 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지 및 제1 내지 제3 고계조 이미지에 대해 서로 다른 기준 노출시간을 적용하여 디스플레이 패널(100)에 표시된 이미지를 촬영한다. 이에 따라, 테스트 영상 촬영부(220)는 상 식산출 복수의 촬영 이미지 데이터를 생성한다. 구체적으로, 테스트 영상 촬영부(220)는 제1 내지 제3 저계조 이미지를 표시하는 디스플레이 패널(100)을 제1 기준 노출시간(t_exp1)동안 촬영하여 제1 내지 제3 저계조 촬영 이미지 데이터(L_capIMG1,L_capIMG2,L_capIMG3)를 생성하고, 제1 내지 제3 중계조 이미지를 표시하는 디스플레이 패널(100)을 제2 기준 노출시간(t_exp2)동안 촬영하여 제1 내지 제3 중계조 촬영 이미지 데이터(M_capIMG1,M_capIMG2,M_capIMG3)를 생성하고, 제1 내지 제3 고계조 이미지 를 표시하는 디스플레이 패널(100)을 제3 기준 노출시간(t_exp3)동안 촬영하여 제1 내지 제3 고계조 촬영 이미지 데이터(H_capIMG1,H_capIMG2,H_capIMG3)를 생성한다. 이때, 본 발명의 일 실시예에 따르면, 제1 기준 노출시간(t_exp1)은 제2 및 제3 기준 노출시간(t_exp2,t_exp3)보다 큰 값일 수 있으며, 제2 기준 노출시간(t_exp2)은 제3 기준 노출시간(t_exp3)보다 큰 값일 수 있다. 예를 들어, 제1 기준 노출시간(t_exp1)은 40ms일 수 있으며, 제2 기준 노출시간(t_exp2)은 30ms일 수 있으며, 제3 기준 노출시간(t_exp3)은 15ms일 수 있다. 이러한 제1 내지 제3 기준 노출시간(t_exp1,t_exp2,t_exp3)은 후술할 무라 보상부(230)를 통해 산출될 수 있다. The test image capture unit 220 acquires captured image data by capturing an image displayed on the display panel 100. At this time, according to an embodiment of the present invention, the test image capture unit 220 captures the first to third low-gray-scale images by applying the same standard exposure time and the first to third mid-gray-scale images. The same standard exposure time is applied to the first to third high gray scale images, and the same standard exposure time is applied to the first to third low gray scale images, the first to third mid gray scale images, and the first to third high gray scale images. The image displayed on the display panel 100 is photographed by applying different standard exposure times to the first to third high grayscale images. Accordingly, the test image capture unit 220 generates a plurality of captured image data that is calculated in a common sense manner. Specifically, the test image capture unit 220 captures the display panel 100 displaying the first to third low-gray-scale images for a first reference exposure time (t_exp1) to produce first to third low-gray-scale captured image data ( L_capIMG1, L_capIMG2, L_capIMG3) are generated, and the display panel 100 displaying the first to third intermediate gray scale images is photographed for a second reference exposure time (t_exp2) to produce first to third intermediate gray scale captured image data (M_capIMG1). , M_capIMG2, M_capIMG3) are generated, and the display panel 100 displaying the first to third high gray scale images is photographed for a third reference exposure time (t_exp3) to produce first to third high gray scale captured image data (H_capIMG1, Create H_capIMG2,H_capIMG3). At this time, according to an embodiment of the present invention, the first reference exposure time (t_exp1) may be a value greater than the second and third reference exposure times (t_exp2, t_exp3), and the second reference exposure time (t_exp2) may be greater than the third reference exposure time (t_exp2). It may be a larger value than the standard exposure time (t_exp3). For example, the first reference exposure time (t_exp1) may be 40ms, the second reference exposure time (t_exp2) may be 30ms, and the third reference exposure time (t_exp3) may be 15ms. These first to third reference exposure times (t_exp1, t_exp2, t_exp3) can be calculated through the mura compensation unit 230, which will be described later.

테스트 영상 촬영부(220)는 디스플레이 패널(100)에 표시되는 이미지들을 촬영하여 촬영 이미지 데이터들을 생성하고, 무라 보상부(230)에 전송한다. The test image capture unit 220 captures images displayed on the display panel 100, generates captured image data, and transmits it to the mura compensation unit 230.

이를 위해, 테스트 영상 촬영부(220)는 카메라, 측색기(colorimeter) 등으로 구현될 수 있으며, 예를 들어, CCD 센서, 렌즈, 바디 등으로 구성될 수 있다. 특히, 본 발명의 일 실시예에 따르면, 테스트 영상 촬영부(220)는 전술한 바와 같이, 계조의 범위에 따라 기준 노출시간을 설정할 수 있다.To this end, the test image capture unit 220 may be implemented with a camera, a colorimeter, etc., and may be comprised of, for example, a CCD sensor, a lens, a body, etc. In particular, according to one embodiment of the present invention, the test image capture unit 220 may set the reference exposure time according to the range of grayscale, as described above.

또한, 테스트 영상 촬영부(220)는 디스플레이 패널(100)에 표시되는 이미지를 촬영하여 생성하는 촬영 이미지 데이터들은 디스플레이 패널(100)의 픽셀에 대응하는 이미지 데이터들로 구성될 수 있다. 즉, 제1 내지 제3 저계조 촬영 이미지 데이터(L_capIMG1,L_capIMG2,L_capIMG3), 제1 내지 제3 중계조 촬영 이미지 데이터(M_capIMG1,M_capIMG2,M_capIMG3) 및 제1 내지 제3 고계조 촬영 이미지 데이터(H_capIMG1,H_capIMG2,H_capIMG3) 각각은 디스플레이 패널(100)의 각 픽셀에 대응하는 이미지 데이터로 구성될 수 있다.Additionally, the captured image data generated by the test image capture unit 220 by photographing an image displayed on the display panel 100 may be composed of image data corresponding to pixels of the display panel 100. That is, first to third low gray scale captured image data (L_capIMG1, L_capIMG2, L_capIMG3), first to third intermediate gray scale captured image data (M_capIMG1, M_capIMG2, M_capIMG3), and first to third high gray scale captured image data (H_capIMG1). ,H_capIMG2,H_capIMG3) may each be composed of image data corresponding to each pixel of the display panel 100.

테스트 영상 촬영부(220)는 무라 보상부(230)에서 수신 가능한 다양한 포맷으로 촬영 이미지 데이터들을 전송할 수 있다. The test image capture unit 220 may transmit captured image data in various formats that can be received by the mura compensation unit 230.

도시되지 않았지만, 무라 보상 장치(200)는 보다 정확한 촬영 이미지 데이터를 획득하기 위해, 촬영 교정부를 더 포함할 수 있다. 촬영 교정부는 테스트 영상 촬영부(220)에서 디스플레이 패널(100)에 표시된 이미지를 촬영하여 획득한 촬영 이미지 데이터를 수신하고, 테스트 영상 촬영부(220)의 촬영 상태를 교정하여 테스트 영상 촬영부(220)로 인한 오류를 방지할 수 있다. 이를 위해, 촬영 교정부는 디스플레이 패널(100)에서 표시되는 이미지를 촬영한 촬영 이미지 데이터를 분석한 결과에 따라 촬영 상태를 교정하기 위한 교정 정보를 별도의 표시 장치에 표시하거나 교정 정보를 테스트 영상 촬영부(220)로 피드백할 수 있다. 촬영 교정부가 별도의 표시 장치에 교정 정보를 표시하는 경우, 사용자가 교정 정보를 확인하고 테스트 영상 촬영부(220)의 촬영 상태를 교정할 수 있다. 또는, 테스트 영상 촬영부(220)가 피드백된 교정 정보를 참조하여 자동으로 촬영 상태를 교정할 수도 있다. 이때, 테스트 영상 촬영부(220)의 촬영 상태를 교정하기 위한 이미지 데이터는 디스플레이 패널(100)의 무라 분석을 위한 이미지 데이터와 서로 다른 이미지일 수 있으며, 촬영 상태를 교정하기 위한 이미지 데이터는 영상의 크기, 영상의 회전 정도(기울기) 및 영상의 뒤틀림을 분석하기 용이한 패턴을 포함할 수 있다.Although not shown, the mura compensation device 200 may further include an imaging correction unit to obtain more accurate captured image data. The shooting correction unit receives captured image data obtained by shooting the image displayed on the display panel 100 in the test image capturing unit 220, and corrects the shooting state of the test image capturing unit 220 to determine the test image capturing unit 220. ) can prevent errors caused by For this purpose, the shooting correction unit displays correction information for correcting the shooting condition on a separate display device or sends the correction information to the test image capture unit according to the results of analyzing the captured image data captured by the image displayed on the display panel 100. You can give feedback at (220). When the shooting correction unit displays correction information on a separate display device, the user can check the correction information and correct the shooting state of the test image capturing unit 220. Alternatively, the test image capture unit 220 may automatically correct the capture state by referring to the feedback correction information. At this time, the image data for correcting the shooting condition of the test image capture unit 220 may be a different image from the image data for mura analysis of the display panel 100, and the image data for correcting the shooting condition may be a different image from the image data. It may include patterns that make it easy to analyze the size, degree of rotation (tilt) of the image, and distortion of the image.

무라 보상부(230)는 무라 보상 계수를 산출하는 무라 보상식을 산출한다. 구체적으로, 무라 보상부(230)는 계조 범위별 이미지를 촬영하기 위한 계조 범위별 기준 노출시간을 산출하여 테스트 영상 촬영부(220)에 제공하고, 계조 범위별 대표 이미지 데이터를 산출하여, 무라 보상식을 산출한다. 이를 위해, 무라 보상부(230)는 도 2에 도시된 바와 같이, 기준 노출시간 산출부(231), 대표 이미지 데이터 산출부(232) 및 무라 보상식 산출부(233)를 포함한다. The mura compensation unit 230 calculates a mura compensation equation that calculates a mura compensation coefficient. Specifically, the mura compensation unit 230 calculates the standard exposure time for each gray scale range for shooting images for each gray scale range and provides it to the test image capture unit 220, calculates representative image data for each gray scale range, and calculates the standard exposure time for each gray scale range to compensate for the mura compensation. Generates common sense. To this end, the mura compensation unit 230 includes a standard exposure time calculation unit 231, a representative image data calculation unit 232, and a mura compensation calculation unit 233, as shown in FIG. 2 .

기준 노출시간 산출부(231)는 제1 내지 제3 저계조 이미지를 촬영하기 위한 제1 기준 노출시간(t_exp1), 제1 내지 제3 중계조 이미지를 촬영하기 위한 제2 기준 노출시간(t_exp2) 및 제1 내지 제3 고계조 이미지를 촬영하기 위한 제3 기준 노출시간(t_exp3)를 산출하여 테스트 영상 촬영부(220)에 제공한다. 기준 노출시간 산출부(231)는 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지, 제1 내지 제3 고계조 이미지를 각각 촬영하여 생성되는 제1 내지 제3 저계조 이미지 데이터(L_IMG,L_IMG2,L_IMG3) 중 어느 하나, 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 중 어느 하나 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3) 중 어느 하나가 포화되지 않는 각 노출시간을 제1 기준 노출시간(t_exp1), 제2 기준 노출시간(t_exp2) 및 제3 기준 노출시간(t_exp3)으로 결정한다. 예를 들어, 기준 노출시간 산출부(231)는 제2 저계조 이미지 데이터(L_IMG2)가 포화되지 않는 노출시간을 제1 기준 노출시간(t_exp1)으로 결정하고, 제2 중계조 이미지 데이터(M_IMG2)가 포화되지 않는 노출시간을 제2 기준 노출시간(t_exp2)으로 결정하고, 제2 고계조 이미지 데이터(H_IMG2)가 포화되지 않는 노출시간을 제3 기준 노출시간(t_exp3)으로 결정할 수 있다. The standard exposure time calculation unit 231 sets a first standard exposure time (t_exp1) for photographing the first to third low gray scale images and a second standard exposure time (t_exp2) for photographing the first to third medium gray scale images. And a third reference exposure time (t_exp3) for photographing the first to third high grayscale images is calculated and provided to the test image capture unit 220. The reference exposure time calculation unit 231 provides first to third low gray scale image data generated by photographing first to third low gray scale images, first to third mid gray scale images, and first to third high gray scale images, respectively. Any one of (L_IMG, L_IMG2, L_IMG3), any one of the first to third medium gray scale image data (M_IMG1, M_IMG2, M_IMG3), and any one of the first to third high gray scale image data (H_IMG1, H_IMG2, H_IMG3) Each exposure time that is not saturated is determined as the first reference exposure time (t_exp1), the second reference exposure time (t_exp2), and the third reference exposure time (t_exp3). For example, the standard exposure time calculation unit 231 determines the exposure time at which the second low-gray-scale image data (L_IMG2) is not saturated as the first standard exposure time (t_exp1), and the second mid-gray-scale image data (M_IMG2) The exposure time at which the second high grayscale image data (H_IMG2) is not saturated may be determined as the second reference exposure time (t_exp2), and the exposure time at which the second high grayscale image data (H_IMG2) is not saturated may be determined as the third reference exposure time (t_exp3).

대표 이미지 데이터 산출부(232)는 도 3a 내지 도 3c에 도시된 바와 같이, 상 식산출 대표 이미지 데이터를 산출한다. 즉, 대표 이미지 데이터 산출부(232)는 제1 내지 제3 저계조 촬영 이미지 데이터(L_capIMG1,L_capIMG2,L_capIMG3)를 이용하여 저계조 대표 이미지 데이터(L_repIMG)를 산출하고, 제1 내지 제3 중계조 촬영 데이터(M_capIMG1,M_capIMG2,M_capIMG3)를 이용하여 중계조 대표 이미지 데이터(M_repIMG)를 산출하고, 제1 내지 제3 고계조 촬영 이미지 데이터(H_capIMG1,H_capIMG2,H_capIMG3)를 이용하여 고계조 대표 이미지 데이터(L_repIMG)를 산출한다. The representative image data calculation unit 232 calculates typical image data as shown in FIGS. 3A to 3C. That is, the representative image data calculation unit 232 calculates low grayscale representative image data (L_repIMG) using the first to third low grayscale captured image data (L_capIMG1, L_capIMG2, L_capIMG3), and uses the first to third intermediate grayscale captured image data (L_capIMG1, L_capIMG3) to calculate low grayscale representative image data (L_repIMG). Captured data (M_capIMG1, M_capIMG2, M_capIMG3) is used to calculate mid-gray scale representative image data (M_repIMG), and the first to third high gray scale captured image data (H_capIMG1, H_capIMG2, H_capIMG3) are used to calculate high gray scale representative image data ( Calculate L_repIMG).

구체적으로, 대표 이미지 데이터 산출부(232)는 도 3a에 도시된 바와 같이, 제1 내지 제3 저계조 촬영 이미지 데이터(L_capIMG1,L_capIMG2,L_capIMG3) 각각에 대한 대표 밝기 코드값(L_repIMG1,L_repIMG2,L_repIMG3)을 산출하고, 도 3b에 도시된 바와 같이, 제1 내지 제3 중계조 촬영 이미지 데이터(M_capIMG1,M_capIMG2,M_capIMG3) 각각에 대한 대표 밝기 코드값(M_repIMG1,M_repIMG2,M_repIMG3)을 산출하고, 도 3c에 도시된 바와 같이, 제1 내지 제3 고계조 촬영 이미지 데이터(H_capIMG1,H_capIMG2,H_capIMG3) 각각에 대한 대표 밝기 코드값(H_repIMG1,H_repIMG2,H_repIMG3)을 산출한다. 이때, 대표 밝기 코드값은 각 계조의 촬영 이미지 데이터를 구성하는 이미지 데이터들의 평균값, 최빈값 및 중앙값 중 하나일 수 있다. 예를 들어, 대표 이미지 데이터 산출부(232)는 제1 저계조 촬영 이미지 데이터(L_capIMG1)를 구성하는 이미지 데이터들의 평균값인 80 계조를 제1 저계조 대표 밝기 코드값(L_repIMG1)으로 산출하고, 제2 저계조 촬영 이미지 데이터(L_capIMG2)를 구성하는 이미지 데이터들의 평균값인 120계조를 제2 저계조 대표 밝기 코드값(L_repIMG1)으로 산출하고, 제3 저계조 촬영 이미지 데이터(L_capIMG3)를 구성하는 이미지 데이터들의 평균값인 200계조를 제3 저계조 대표 밝기 코드값(L_repIMG3)으로 산출할 수 있다. Specifically, as shown in FIG. 3A, the representative image data calculation unit 232 calculates representative brightness code values (L_repIMG1, L_repIMG2, L_repIMG3) for each of the first to third low grayscale captured image data (L_capIMG1, L_capIMG2, L_capIMG3). ) is calculated, and as shown in FIG. 3b, representative brightness code values (M_repIMG1, M_repIMG2, M_repIMG3) are calculated for each of the first to third middle grayscale captured image data (M_capIMG1, M_capIMG2, M_capIMG3), and FIG. 3c As shown, representative brightness code values (H_repIMG1, H_repIMG2, H_repIMG3) are calculated for each of the first to third high grayscale captured image data (H_capIMG1, H_capIMG2, H_capIMG3). At this time, the representative brightness code value may be one of the average value, mode, and median of the image data constituting the captured image data of each gray level. For example, the representative image data calculation unit 232 calculates 80 gray levels, which is the average value of the image data constituting the first low gray level captured image data (L_capIMG1), as the first low gray level representative brightness code value (L_repIMG1), and 2 120 gray levels, which is the average value of the image data constituting the low gray level captured image data (L_capIMG2), is calculated as the second low gray level representative brightness code value (L_repIMG1), and the image data constituting the third low gray level captured image data (L_capIMG3) The average value of 200 gray levels can be calculated as the third low gray level representative brightness code value (L_repIMG3).

대표 이미지 데이터 산출부(232)는 계조 범위별 대표 밝기 코드값을 이용하여 계조별 대표 이미지 데이터 산출식을 결정한다. 구체적으로, 제1 저계조 이미지 데이터(L_IMG1)가 입력되어 촬영된 제1 저계조 촬영 이미지 데이터(L_capIMG1)의 제1 저계조 대표 밝기 코드값(L_repIMG1), 제2 저계조 이미지 데이터(L_IMG2)가 입력되어 촬영된 제2 저계조 촬영 이미지 데이터(L_capIMG2)의 제2 저계조 대표 밝기 코드값(L_repIMG2) 및 제3 저계조 이미지 데이터(L_IMG3)가 입력되어 촬영된 제3 저계조 촬영 이미지 데이터(L_capIMG3)의 제3 저계조 대표 밝기 코드값(L_repIMG3)을 이용하여 저계조 대표 이미지 데이터 산출식인 수학식 1을 산출할 수 있다. The representative image data calculation unit 232 determines a representative image data calculation formula for each gray level using the representative brightness code value for each gray level range. Specifically, the first low gray level representative brightness code value (L_repIMG1) and the second low gray level image data (L_IMG2) of the first low gray level captured image data (L_capIMG1) captured by inputting the first low gray level image data (L_IMG1) are The second low gray level representative brightness code value (L_repIMG2) of the input and captured second low gray level captured image data (L_capIMG2) and the third low gray level captured image data (L_capIMG3) input and captured. ) can be used to calculate Equation 1, which is a low-gray-scale representative image data calculation formula, using the third low-gray-scale representative brightness code value (L_repIMG3).

[수학식 1][Equation 1]

수학식 1의 x는 디스플레이 패널(100)에 입력된 계조값이며, y는 디스플레이 패널(100)에 표시되는 이미지를 촬영하여 획득된 촬영 이미지 데이터의 계조값이다. 즉, 대표 이미지 데이터 산출부(232)는 제1 저계조 이미지 데이터(L_IMG1), 제1 저계조 대표 밝기 코드값(L_repIMG1), 제1 저계조 이미지 데이터(L_IMG2), 제2 저계조 대표 밝기 코드값(L_repIMG2), 제1 저계조 이미지 데이터(L_IMG3) 및 제3 저계조 대표 밝기 코드값(L_repIMG3)을 이용하여 아래의 수학식 1의 aL, bL 및 cL을 산출한다. 즉, 제1 저계조 이미지 데이터(L_IMG1) 및 제1 저계조 대표 밝기 코드값(L_repIMG1)을 각각 아래의 수학식 1의 x 및 y에 적용하고, 제2 저계조 이미지 데이터(L_IMG2) 및 제2 저계조 대표 밝기 코드값(L_repIMG2)을 각각 아래의 수학식 1의 x 및 y에 적용하고, 제3 저계조 이미지 데이터(L_IMG3) 및 제3 저계조 대표 밝기 코드값(L_repIMG3)을 각각 아래의 수학식 1의 x 및 y에 적용하여 수학식 1의 aL, bL 및 cL에 대한 3개의 연립 방정식을 산출하고, 산출된 연립 방정식들을 이용하여, 수학식 1의 aL, bL 및 cL을 산출하여 도 4에 도시된 바와 같은 저계조 이미지 데이터들에 대한 저계조 대표 이미지 데이터 산출식을 산출할 수 있다. In Equation 1, x is a grayscale value input to the display panel 100, and y is a grayscale value of captured image data obtained by shooting an image displayed on the display panel 100. That is, the representative image data calculation unit 232 includes first low gray scale image data (L_IMG1), first low gray scale representative brightness code value (L_repIMG1), first low gray scale image data (L_IMG2), and second low gray scale representative brightness code. a L , b L , and c L in Equation 1 below are calculated using the value (L_repIMG2), the first low-gray-scale image data (L_IMG3), and the third low-gray-scale representative brightness code value (L_repIMG3). That is, the first low-gray-scale image data (L_IMG1) and the first low-gray-scale representative brightness code value (L_repIMG1) are applied to x and y in Equation 1 below, respectively, and the second low-gray-scale image data (L_IMG2) and the second Apply the low grayscale representative brightness code value (L_repIMG2) to x and y in Equation 1 below, respectively, and apply the third low grayscale image data (L_IMG3) and the third low grayscale representative brightness code value (L_repIMG3) to the math below, respectively. Applying Equation 1 to x and y calculates three simultaneous equations for a L , b L and c L in Equation 1, and using the calculated simultaneous equations, a L , b L and c in Equation 1 By calculating L , a low-gray-scale representative image data calculation formula for the low-gray-scale image data as shown in FIG. 4 can be calculated.

이에 따라, 대표 이미지 데이터 산출부(232)는 제1 내지 제3 저계조 촬영 이미지 데이터(L_capIMG,L_capIMG2,L_capIMG3) 중 하나를 수학식1을 변형한 아래의 수학식2에 적용하여 디스플레이 패널(100)의 적용된 무라 보상값을 제외하여 디스플레이 패널(100)에 이상적으로 표시될 것으로 추정되는 저계조 대표 이미지 데이터(L_repIMG)를 산출할 수 있다. 예를 들어, 전술한 바와 같이, 각 상 식산출 촬영 이미지 데이터는 디스플레이 패널(100)의 각 픽셀에 대응하는 이미지 데이터들로 구성되고, 대표 이미지 데이터 산출부(232)는 각 촬영 이미지 데이터에 대한 디스플레이 패널(100)의 각 픽셀에 대응하는 이미지 데이터를 적어도 하나 포함하는 단위 블록에 대해 수학식 1을 변형한 수학식 2를 각각 적용하여 저계조 대표 이미지 데이터(L_repIMG)를 산출할 수 있다. Accordingly, the representative image data calculation unit 232 applies one of the first to third low-gradation captured image data (L_capIMG, L_capIMG2, L_capIMG3) to Equation 2 below, which is a modification of Equation 1, to display the display panel 100. ), it is possible to calculate low-gray-scale representative image data (L_repIMG) that is estimated to be ideally displayed on the display panel 100 by excluding the applied mura compensation value. For example, as described above, each image calculation captured image data consists of image data corresponding to each pixel of the display panel 100, and the representative image data calculation unit 232 provides information on each captured image data. Low-gray representative image data (L_repIMG) can be calculated by applying Equation 2, which is a modified version of Equation 1, to each unit block containing at least one piece of image data corresponding to each pixel of the display panel 100.

[수학식 2][Equation 2]

즉, 도 5에 도시된 바와 같이, 대표 이미지 데이터 산출부(232)는 제2 저계조 촬영 이미지(L_capIMG2)의 각 단위 블록의 이미지 데이터를 수학식 2의 y에 적용하여 산출되는 x로 구성된 저계조 대표 이미지 데이터(L_repIMG)를 산출한다. That is, as shown in FIG. 5, the representative image data calculation unit 232 calculates the low grayscale image data of each unit block of the second low-gray-scale captured image (L_capIMG2) to Calculate grayscale representative image data (L_repIMG).

저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3)를 기준으로 대표 이미지 데이터 산출부(232)에 대해 설명하였으나, 대표 이미지 데이터 산출부(232)는 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)에 대해서도 동일한 방법을 이용하여 중계조 대표 이미지 데이터(M_repIMG1,M_repIMG2,M_repIMG3) 및 고계조 대표 이미지 데이터(H_repIMG1,H_repIMG2,H_repIMG3)를 산출한다. Although the representative image data calculation unit 232 has been described based on low-gradation image data (L_IMG1, L_IMG2, L_IMG3), the representative image data calculation unit 232 uses mid-gradation image data (M_IMG1, M_IMG2, M_IMG3) and high-gradation image data (M_IMG1, M_IMG2, M_IMG3). The same method is used for the image data (H_IMG1, H_IMG2, H_IMG3) to calculate mid-gray scale representative image data (M_repIMG1, M_repIMG2, M_repIMG3) and high gray scale representative image data (H_repIMG1, H_repIMG2, H_repIMG3).

무라 보상식 산출부(233)는 대표 이미지 데이터 산출부(232)에서 산출된 저계조 대표 이미지 데이터(L_repIMG), 중계조 대표 이미지 데이터(L_repIMG) 및 고계조 대표 이미지 데이터(L_repIMG)를 이용하여 무라 보상식을 산출한다. 구체적으로, 무라 보상식 산출부(233)는 적어도 하나의 픽셀에 대응하는 이미지 데이터를 포함하는 각 단위 블록에 대한 저계조 대표 이미지 데이터(L_repIMG), 중계조 대표 이미지 데이터(L_repIMG) 및 고계조 대표 이미지 데이터(L_repIMG)의 각 이미지 데이터들을 이용하여 아래의 수학식 3의 aF, bF 및 cF들을 산출하여, 무라 보상식을 산출한다. 즉, 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3) 중 어느 하나 및 저계조 대표 이미지 데이터(L_repIMG)를 아래의 수학식 3의 x 및 y에 각각 적용하고, 제1 내지 제3 저계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 중 어느 하나 및 중계조 대표 이미지 데이터(M_repIMG)를 아래의 수학식 3의 x 및 y에 각각 적용하고, 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3) 중 어느 하나 및 고계조 대표 이미지 데이터(H_repIMG)를 아래의 수학식 3의 x 및 y에 각각 적용하여 수학식 3의 aF, bF 및 cF에 대한 3개의 연립 방정식을 산출하고, 수학식 3의 aF, bF 및 cF을 산출하여 무라 보상식을 산출한다.The mura compensation calculation unit 233 uses the low gray level representative image data (L_repIMG), mid gray level representative image data (L_repIMG), and high gray level representative image data (L_repIMG) calculated by the representative image data calculation unit 232 to determine mura. Calculate the compensation formula. Specifically, the mura compensation calculation unit 233 generates low-gray-scale representative image data (L_repIMG), mid-gray-scale representative image data (L_repIMG), and high-gray-scale representative image data (L_repIMG) for each unit block including image data corresponding to at least one pixel. Using each image data of the image data (L_repIMG), a F , b F , and c F in Equation 3 below are calculated to calculate the mura compensation equation. That is, any one of the first to third low gray-scale image data (L_IMG1, L_IMG2, L_IMG3) and the low gray-scale representative image data (L_repIMG) are applied to x and y in Equation 3 below, respectively, and the first to third Any one of the low gray scale image data (M_IMG1, M_IMG2, M_IMG3) and the mid gray scale representative image data (M_repIMG) are applied to x and y in Equation 3 below, respectively, and the first to third high gray scale image data (H_IMG1, One of H_IMG2,H_IMG3) and high-grayscale representative image data (H_repIMG) are applied to x and y in Equation 3 below, respectively, to calculate three simultaneous equations for a F , b F , and c F in Equation 3 And, a F , b F , and c F in Equation 3 are calculated to calculate the mura compensation equation.

[수학식 3][Equation 3]

무라 보상식 산출부(233)는 무라 보상식을 통해 디스플레이 패널(100)의 각 픽셀에 대한 입력 계조에 따른 보상계수를 산출하여 디스플레이 패널(100)을 구동하는 드라이버(300)에 제공한다.The mura compensation calculation unit 233 calculates a compensation coefficient according to the input gray level for each pixel of the display panel 100 through the mura compensation equation and provides the compensation coefficient to the driver 300 that drives the display panel 100.

이에 따라, 본 발명의 일 실시예에 따른 무라 보상 장치는 디스플레이 패널(100)을 촬영하여 생성된 계조별 촬영 이미지 데이터(L_capIMG1,L_capIMG2,L_capIMG3)를 이용하여 테스트 영상 촬영부(220)의 촬영 장비 및 디스플레이 패널(100)들의 편차에 상관없이 실제 디스플레이 패널(100)에 의해 표시되는 계조별 대표 이미지 데이터(L_repIMG,L_repIMG,L_repIMG)를 획득하여 무라 보상 계수를 산출하기 때문에, 무라를 보다 정확하게 보상할 수 있다. Accordingly, the mura compensation device according to an embodiment of the present invention is a photographing equipment of the test image capture unit 220 using the captured image data (L_capIMG1, L_capIMG2, L_capIMG3) for each gray level generated by photographing the display panel 100. And since the mura compensation coefficient is calculated by obtaining representative image data (L_repIMG, L_repIMG, L_repIMG) for each gray level displayed by the actual display panel 100 regardless of the deviation of the display panels 100, mura can be compensated more accurately. You can.

이하, 도 6 내지 도 7을 참조하여, 본 발명의 일 실시예에 따른 무라 보상 방법에 대해 상세히 설명한다.Hereinafter, with reference to FIGS. 6 and 7, a mura compensation method according to an embodiment of the present invention will be described in detail.

도 6은 본 발명의 일 실시예에 따른 계조별 대표 이미지 데이터 생성 과정의 플로우 차트이고, 도 7은 본 발명의 일 실시예에 따른 각 계조에 대한 무라 보상식을 산출하고, 산출한 무라 보상식에 따라 저계조 대표 이미지 데이터를 생성 과정의 플로우 차트이다.Figure 6 is a flow chart of the process of generating representative image data for each gray level according to an embodiment of the present invention, and Figure 7 shows the mura compensation equation for each gray level according to an embodiment of the present invention, and the calculated mura compensation equation. This is a flow chart of the process of generating low-gradation representative image data.

도 6을 참조하면, 테스트 영상 공급부(210)는 계조 범위별 제1 내지 제3 이미지 데이터를 디스플레이 패널(100)에 제공한다(s601). 구체적으로, 테스트 영상 공급부(210)는 전술한 바와 같이, 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3), 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)를 디스플레이 패널(100)에 제공한다. 본 발명의 일 실시예에 따르면, 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3)은 서로 다른 계조를 갖고, 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3)은 서로 다른 계조를 갖고, 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)은 서로 다른 계조를 가질 수 있다. 구체적으로, 제1 저계조 이미지 데이터(L_IMG1)는 제2 및 제3 저계조 이미지 데이터(L_IMG2,L_IMG3)보다 낮은 계조를 가지고, 제2 저계조 이미지 데이터(L_IMG2)는 제3 저계조 이미지 데이터(L_IMG3)보다 낮은 계조를 가지며, 제2 저계조 이미지 데이터(L_IMG2)와 제1 저계조 이미지 데이터(L_IMG1)의 계조 차이는 제3 저계조 이미지 데이터(L_IMG3)와 제2 저계조 이미지 데이터(L_IMG2)의 계조 차이와 동일할 수 있다. 제1 중계조 이미지 데이터(M_IMG1)는 제2 및 제3 중계조 이미지 데이터(M_IMG2,M_IMG3)보다 낮은 계조를 가지고, 제2 중계조 이미지 데이터(M_IMG2)는 제3 중계조 이미지 데이터(M_IMG3)보다 낮은 계조를 가지며, 제2 중계조 이미지 데이터(M_IMG2)와 제1 중계조 이미지 데이터(M_IMG1)의 계조 차이는 제3 중계조 이미지 데이터(M_IMG3)와 제2 중계조 이미지 데이터(M_IMG2)의 계조 차이와 동일할 수 있다. 또한, 제1 고계조 이미지 데이터(H_IMG1)는 제2 및 제3 고계조 이미지 데이터(H_IMG2,H_IMG3)보다 낮은 계조를 가지고, 제2 고계조 이미지 데이터(H_IMG2)는 제3 고계조 이미지 데이터(H_IMG3)보다 낮은 계조를 가지며, 제2 고계조 이미지 데이터(H_IMG2)와 제1 고계조 이미지 데이터(H_IMG1)의 계조 차이는 제3 고계조 이미지 데이터(H_IMG3)와 제2 고계조 이미지 데이터(H_IMG2)의 계조 차이와 동일할 수 있다. 이때, 저계조 이미지 데이터들 사이의 계조 차이는 중계조 이미지 데이터들 사이의 계조 차이 및 고계조 이미지 데이터들 사이의 계조 차이보다 작은 값일 수 있고, 중계조 이미지 데이터들 사이의 계조 차이는 고계조 이미지 데이터들 사이의 계조 차이보다 작은 값일 수 있다. Referring to FIG. 6, the test image supply unit 210 provides first to third image data for each gray level range to the display panel 100 (s601). Specifically, as described above, the test image supply unit 210 includes first to third low gray-scale image data (L_IMG1, L_IMG2, L_IMG3), first to third middle gray-scale image data (M_IMG1, M_IMG2, M_IMG3), and First to third high grayscale image data (H_IMG1, H_IMG2, H_IMG3) are provided to the display panel 100. According to an embodiment of the present invention, the first to third low gray scale image data (L_IMG1, L_IMG2, L_IMG3) have different gray scales, and the first to third medium gray scale image data (M_IMG1, M_IMG2, M_IMG3) have different gray levels. The first to third high grayscale image data (H_IMG1, H_IMG2, H_IMG3) may have different grayscales. Specifically, the first low-gray-scale image data (L_IMG1) has a lower gray-scale than the second and third low-gray-scale image data (L_IMG2, L_IMG3), and the second low-gray-scale image data (L_IMG2) has a lower gray-scale than the third low-gray-scale image data (L_IMG2). L_IMG3), and the gray level difference between the second low gray scale image data (L_IMG2) and the first low gray scale image data (L_IMG1) is the third low gray scale image data (L_IMG3) and the second low gray scale image data (L_IMG2). It may be the same as the gray level difference of . The first relay image data (M_IMG1) has a lower gray level than the second and third relay image data (M_IMG2, M_IMG3), and the second relay image data (M_IMG2) has a lower gray level than the third relay image data (M_IMG3). It has a low gray scale, and the gray scale difference between the second intermediate gray scale image data (M_IMG2) and the first intermediate gray scale image data (M_IMG1) is the gray scale difference between the third intermediate gray scale image data (M_IMG3) and the second intermediate gray scale image data (M_IMG2). may be the same as In addition, the first high gray scale image data (H_IMG1) has a lower gray scale than the second and third high gray scale image data (H_IMG2, H_IMG3), and the second high gray scale image data (H_IMG2) has a lower gray scale than the third high gray scale image data (H_IMG3). ), and the difference in grayscale between the second high grayscale image data (H_IMG2) and the first high grayscale image data (H_IMG1) is that of the third high grayscale image data (H_IMG3) and the second high grayscale image data (H_IMG2). It may be the same as the gray level difference. At this time, the gray level difference between the low gray level image data may be a value smaller than the gray level difference between the mid gray level image data and the gray level difference between the high gray level image data, and the gray level difference between the mid gray level image data may be a value smaller than the gray level difference between the mid gray level image data and the high gray level image data. It may be a value smaller than the gray level difference between data.

이후, 디스플레이 패널(100)은 수신하는 계조 범위별 이미지 데이터에 대응하는 이미지를 표시한다(s602). 구체적으로, 디스플레이 패널(100)은 수신하는 제1 내지 제3 저계조 이미지 데이터(L_IMG1,L_IMG2,L_IMG3), 제1 내지 제3 중계조 이미지 데이터(M_IMG1,M_IMG2,M_IMG3) 및 제1 내지 제3 고계조 이미지 데이터(H_IMG1,H_IMG2,H_IMG3)에 각각 대응하는 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지 및 제1 내지 제3 고계조 이미지를 표시한다. Thereafter, the display panel 100 displays an image corresponding to the image data for each gray level range received (s602). Specifically, the display panel 100 receives first to third low gray-scale image data (L_IMG1, L_IMG2, L_IMG3), first to third middle gray-scale image data (M_IMG1, M_IMG2, M_IMG3), and first to third First to third low gray scale images, first to third mid gray scale images, and first to third high gray scale images respectively corresponding to high gray scale image data (H_IMG1, H_IMG2, H_IMG3) are displayed.

이후, 테스트 영상 촬영부(220)는 디스플레이 패널(100)에 표시되는 이미지를 촬영하여 촬영 이미지 데이터를 생성한다(s603). 구체적으로, 테스트 영상 촬영부(220)는 디스플레이 패널(100)에 표시되는 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지 및 제1 내지 제3 고계조 이미지에 각각 대응하는 제1 저계조 촬영 이미지(L_capIMG1,L_capIMG2,L_capIMG3), 제1 중계조 촬영 이미지(M_capIMG1,M_capIMG2,M_capIMG3) 및 제1 고계조 촬영 이미지(H_capIMG1,H_capIMG2,H_capIMG3)를 생성한다. 이때, 테스트 영상 촬영부(220)는 제1 내지 제3 저계조 이미지는 동일한 기준 노출시간인 제1 기준 노출시간(t_exp1)을 적용하여 촬영하고, 제1 내지 제3 중계조 이미지는 동일한 기준 노출시간인 제2 기준 노출시간(t_exp2)을 적용하여 촬영하고, 제1 내지 제3 고계조 이미지는 동일한 기준 노출시간인 제3 기준 노출시간(t_exp3)을 적용하여 촬영하고, 제1 내지 제3 저계조 이미지, 제1 내지 제3 중계조 이미지 및 제1 내지 제3 고계조 이미지는 각각 서로 다른 기준 노출시간을 적용하여 촬영할 수 있다. 구체적으로, 테스트 영상 촬영부(220)는 기준 노출시간 산출부(231)에 의해 제1 내지 제3 기준 노출시간(t_exp1,t_exp2,t_exp3)을 수신하여, 제1 내지 제3 저계조 이미지에 제1 기준 노출시간(t_exp1)을 적용하여 촬영하고, 제1 내지 제3 중계조 이미지에 제2 기준 노출시간(t_exp2)을 적용하여 촬영하고, 제1 내지 제3 고계조 이미지에 제3 기준 노출시간(t_exp3)을 적용하여 촬영할 수 있다. 이때, 제1 내지 제3 기준 노출시간(t_exp1,t_exp2,t_exp3)은 서로 다른 값을 가질 수 있으며, 제1 기준 노출시간(t_exp1)은 제2 및 제3 기준 노출시간(t_exp2,t_exp3)보다 큰 값일 수 있으며, 제2 기준 노출시간(t_exp2)은 제3 기준 노출시간(t_exp3)보다 큰 값일 수 있다. Thereafter, the test image capture unit 220 captures the image displayed on the display panel 100 and generates captured image data (s603). Specifically, the test image capture unit 220 may generate images corresponding to the first to third low gray scale images, first to third intermediate gray scale images, and first to third high gray scale images displayed on the display panel 100. 1 Generate low-gray-scale captured images (L_capIMG1, L_capIMG2, L_capIMG3), first mid-gray-scale captured images (M_capIMG1, M_capIMG2, M_capIMG3), and first high-gray-scale captured images (H_capIMG1, H_capIMG2, H_capIMG3). At this time, the test image capture unit 220 captures the first to third low gray scale images by applying the first standard exposure time (t_exp1), which is the same standard exposure time, and the first to third mid gray scale images by applying the same standard exposure time. The first to third high-gradation images are taken by applying the second standard exposure time (t_exp2), which is the same standard exposure time, and the first to third high-gradation images are taken by applying the third standard exposure time (t_exp3), which is the same standard exposure time. Gray-scale images, first to third mid-gray-scale images, and first to third high-gray-scale images may be captured by applying different standard exposure times. Specifically, the test image capture unit 220 receives the first to third reference exposure times (t_exp1, t_exp2, and t_exp3) from the reference exposure time calculation unit 231 and adds the first to third low grayscale images. 1 Shoot by applying the standard exposure time (t_exp1), shoot by applying the second standard exposure time (t_exp2) to the first to third medium gray scale images, and shoot by applying the third standard exposure time to the first to third high gray scale images. You can shoot by applying (t_exp3). At this time, the first to third reference exposure times (t_exp1, t_exp2, t_exp3) may have different values, and the first reference exposure time (t_exp1) is greater than the second and third reference exposure times (t_exp2, t_exp3). It may be a value, and the second standard exposure time (t_exp2) may be a value greater than the third standard exposure time (t_exp3).

이후, 대표 이미지 데이터 산출부(232)는 계조 범위별 촬영 이미지 데이터를 이용하여 계조 범위별 대표 이미지 데이터를 생성한다(s604). 이에 대해서는 도 7을 참조하여 상세히 후술한다. Thereafter, the representative image data calculation unit 232 generates representative image data for each grayscale range using captured image data for each grayscale range (s604). This will be described in detail later with reference to FIG. 7.

도 7을 참조하면, 대표 이미지 데이터 산출부(232)는 각 촬영 이미지 데이터에 대응하는 대표 밝기 코드값을 산출한다(s701). 구체적으로, 대표 이미지 데이터 산출부(232)는 촬영 이미지 데이터를 구성하는 이미지 데이터들의 평균값, 최빈값 또는 중앙값 중 하나를 해당 촬영 이미지 데이터에 대응하는 대표 밝기 코드값으로 산출한다. 예를 들어, 대표 이미지 데이터 산출부(232)는 제1 저계조 촬영 이미지 데이터(L_capIMG1)를 구성하는 이미지 데이터들의 평균값인 80계조를 제1 저계조 대표 밝기 코드값(L_repIMG1)으로 산출하고, 제2 저계조 촬영 이미지 데이터(L_capIMG2)를 구성하는 이미지 데이터들의 평균값인 120계조를 제2 저계조 대표 밝기 코드값(L_repIMG2)으로 산출하고, 제3 저계조 촬영 이미지 데이터(L_capIMG3)를 구성하는 이미지 데이터들의 평균값인 200계조를 제3 저계조 대표 밝기 코드값(L_repIMG3)으로 산출할 수 있다.Referring to FIG. 7, the representative image data calculation unit 232 calculates a representative brightness code value corresponding to each captured image data (s701). Specifically, the representative image data calculation unit 232 calculates one of the average value, mode, or median value of the image data constituting the captured image data as a representative brightness code value corresponding to the captured image data. For example, the representative image data calculation unit 232 calculates 80 grayscales, which is the average value of the image data constituting the first low grayscale captured image data (L_capIMG1), as the first low grayscale representative brightness code value (L_repIMG1), and 2 120 gray levels, which is the average value of the image data constituting the low gray level captured image data (L_capIMG2), is calculated as the second low gray level representative brightness code value (L_repIMG2), and the image data constituting the third low gray level captured image data (L_capIMG3) The average value of 200 gray levels can be calculated as the third low gray level representative brightness code value (L_repIMG3).

이후, 대표 이미지 데이터 산출부(232)는 상 식산출 대표 밝기 코드값들을 이용하여 계조별 대표 이미지 데이터 산출식을 결정한다(s702). 구체적으로, 대표 이미지 데이터 산출부(232)는 제1 저계조 촬영 이미지 데이터(L_capIMG1)에 대한 제1 저계조 대표 밝기 코드값(L_repIMG1), 제2 저계조 촬영 이미지 데이터(L_capIMG2)에 대한 제2 저계조 대표 밝기 코드값(L_repIMG2) 및 제3 저계조 촬영 이미지 데이터(L_capIMG3)에 대한 제3 저계조 대표 밝기 코드값(L_repIMG3)을 이용하여 수학식 1의 계수들인 aL, bL 및 cL을 산출하여 저계조 대표 이미지 데이터 산출식을 결정한다. Thereafter, the representative image data calculation unit 232 determines a representative image data calculation formula for each gray level using the representative brightness code values calculated by common sense (s702). Specifically, the representative image data calculation unit 232 generates a first low gray level representative brightness code value (L_repIMG1) for the first low gray level captured image data (L_capIMG1) and a second low gray level captured image data (L_capIMG2). Using the low grayscale representative brightness code value (L_repIMG2) and the third low grayscale representative brightness code value (L_repIMG3) for the third low grayscale captured image data (L_capIMG3), the coefficients of Equation 1, a L , b L and c L Calculate and determine the low-gradation representative image data calculation formula.

이후, 대표 이미지 데이터 산출부(232)는 s702단계에서 계조 범위별 대표 이미지 데이터 산출식인 계조 범위별 수학식1을 변형한 수학식2에 계조 범위별 촬영 이미지 데이터 중 하나를 적용하여 계조 범위별 대표 이미지 데이터를 산출한다(s703). 예를 들어, 대표 이미지 데이터 산출부(232)는 제2 저계조 촬영 이미지 데이터(L_capIMG2)의 단위 블록의 이미지 데이터를 수학식 2의 y에 적용하여 저계조 대표 이미지 데이터(L_repIMG)를 산출할 수 있다.Thereafter, in step s702, the representative image data calculation unit 232 applies one of the photographed image data for each gray scale range to Equation 2, which is a modified version of Equation 1 for each gray scale range, which is the representative image data calculation formula for each gray scale range, to obtain representative image data for each gray scale range. Calculate image data (s703). For example, the representative image data calculation unit 232 may calculate low gray level representative image data (L_repIMG) by applying the image data of the unit block of the second low gray level captured image data (L_capIMG2) to y in Equation 2. there is.

S702 단계 및 s703 단계에 대해 저계조 촬영 이미지 데이터를 기준으로 설명하였으나, 중계조 및 고계조 촬영 이미지 데이터에 대해서도 저계조 촬영 이미지 데이터와 동일한 방법을 통해 대표 이미지 데이터를 산출한다. Steps S702 and S703 have been explained based on low-gray-scale captured image data, but representative image data is calculated for mid-gray-scale and high-gray-scale captured image data using the same method as the low-gray-scale captured image data.

다시 도 6을 참조하면, 이후, 무라 보상식 산출부(233)는 계조 범위별 대표 이미지 데이터를 이용하여 무라 보상식을 산출한다(s605). 구체적으로, 무라 보상식 산출부(233)는 적어도 하나의 픽셀에 대응하는 이미지 데이터를 포함하는 각 단위 블록에 대한 저계조 대표 이미지 데이터(L_repIMG), 중계조 대표 이미지 데이터(L_repIMG) 및 고계조 대표 이미지 데이터(L_repIMG)의 각 이미지 데이터들을 이용하여 수학식 3의 각 계수들을 산출하여, 무라 보상식을 산출한다. Referring to FIG. 6 again, the mura compensation formula calculation unit 233 calculates the mura compensation formula using representative image data for each gray level range (s605). Specifically, the mura compensation calculation unit 233 generates low-gray-scale representative image data (L_repIMG), mid-gray-scale representative image data (L_repIMG), and high-gray-scale representative image data (L_repIMG) for each unit block including image data corresponding to at least one pixel. Each coefficient of Equation 3 is calculated using each image data of the image data (L_repIMG), and a mura compensation equation is calculated.

본 발명이 속하는 기술분야의 당업자는 상술한 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.Those skilled in the art to which the present invention pertains will understand that the above-described present invention can be implemented in other specific forms without changing its technical idea or essential features.

또한, 본 명세서에 설명되어 있는 방법들은 적어도 부분적으로, 하나 이상의 컴퓨터 프로그램 또는 구성요소를 사용하여 구현될 수 있다.  이 구성요소는 휘발성 및 비휘발성 메모리를 포함하는 컴퓨터로 판독 가능한 매체 또는 기계 판독 가능한 매체를 통해 일련의 컴퓨터 지시어들로서 제공될 수 있다. 상기 지시어들은 소프트웨어 또는 펌웨어로서 제공될 수 있으며, 전체적 또는 부분적으로, ASICs, FPGAs, DSPs, 또는 그 밖의 다른 유사 소자와 같은 하드웨어 구성에 구현될 수도 있다. 상기 지시어들은 하나 이상의 프로세서 또는 다른 하드웨어 구성에 의해 실행되도록 구성될 수 있는데, 상기 프로세서 또는 다른 하드웨어 구성은 상기 일련의 컴퓨터 지시어들을 실행할 때 본 명세서에 개시된 방법들 및 절차들의 모두 또는 일부를 수행하거나 수행할 수 있도록 한다.Additionally, the methods described herein may be implemented, at least in part, using one or more computer programs or components. This component may be provided as a series of computer instructions on a computer-readable medium or machine-readable medium containing volatile and non-volatile memory. The directives may be provided as software or firmware, and may be implemented, in whole or in part, in hardware components such as ASICs, FPGAs, DSPs, or other similar devices. The instructions may be configured to be executed by one or more processors or other hardware components, which, when executing the set of computer instructions, perform or perform all or part of the methods and procedures disclosed herein. make it possible

그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 디스플레이 패널 200: 무라 보상 장치
210: 테스트 영상 공급부 220: 테스트 영상 촬영부
230: 무라 보상부 231: 기준 노출시간 산출부
232: 대표 이미지 데이터 산출부 233: 무라 보상식 산출부
100: display panel 200: mura compensation device
210: Test image supply unit 220: Test image recording unit
230: Mura compensation unit 231: Standard exposure time calculation unit
232: Representative image data calculation unit 233: Mura compensation calculation unit

Claims (13)

디스플레이 패널을 통해 표시되는 이미지의 무라를 검출하고 검출한 무라를 보상하는 무라 보상 장치로서,
제1 이미지 데이터 및 제2 이미지 데이터를 상기 디스플레이 패널에 공급하는 테스트 영상 공급부; 및
상기 제1 이미지 데이터 및 상기 제2 이미지 데이터에 대응하여 상기 디스플레이 패널에 표시되는 제1 이미지 및 제2 이미지를 각각 촬영하는 테스트 영상 촬영부;를 포함하고,
상기 테스트 영상 촬영부는 상기 제1 이미지를 제1 기준 노출시간 동안 촬영하여 제1 촬영 이미지 데이터를 생성하고, 상기 제2 이미지를 상기 제1 기준 노출시간과 다른 제2 기준 노출시간 동안 촬영하여 제2 촬영 이미지 데이터를 생성하는 것을 특징으로 하는 무라 보상 장치.
A mura compensation device that detects mura in an image displayed through a display panel and compensates for the detected mura,
a test image supply unit that supplies first image data and second image data to the display panel; and
A test image capture unit that captures a first image and a second image displayed on the display panel in response to the first image data and the second image data, respectively,
The test image capture unit captures the first image during a first reference exposure time to generate first captured image data, and captures the second image during a second reference exposure time different from the first reference exposure time to generate a second image data. A mura compensation device characterized in that it generates captured image data.
제1항에 있어서,
상기 제1 촬영 이미지 데이터를 이용하여 제1 대표 이미지 데이터를 생성하고, 상기 제2 촬영 이미지 데이터를 이용하여 제2 대표 이미지 데이터를 생성하고, 상기 제1 및 제2 대표 이미지 데이터를 이용하여 무라를 보상하는 무라 보상부를 더 포함하는 것을 특징으로 하는 무라 보상 장치.
According to paragraph 1,
Generate first representative image data using the first captured image data, generate second representative image data using the second captured image data, and determine mura using the first and second representative image data. A mura compensation device further comprising a mura compensation unit that compensates.
제2항에 있어서,
상기 제1 이미지 데이터는 제1 및 제2 저계조 이미지 데이터를 포함하고,
상기 제2 이미지 데이터는 제1 및 제2 고계조 이미지 데이터를 포함하고,
상기 제1 촬영 이미지 데이터는 제1 및 제2 저계조 촬영 이미지 데이터를 포함하고,
상기 제2 촬영 이미지 데이터는 제1 및 제2 고계조 촬영 이미지 데이터를 포함하고,
상기 무라 보상부는,
상기 제1 및 제2 저계조 촬영 이미지 데이터 각각에 대해 제1 및 제2 저계조 대표 밝기 코드값을 산출하고, 산출한 제1 및 제2 저계조 대표 밝기값을 이용하여 상기 제1 대표 이미지 데이터를 생성하고, 상기 제1 및 제2 고계조 촬영 이미지 데이터 각각에 대해 제1 및 제2 고계조 대표 밝기 코드값을 산출하고, 산출한 제1 및 제2 고계조 대표 밝기값을 이용하여 상기 제2 대표 이미지 데이터를 생성하는 것을 특징으로 하는 무라 보상 장치.
According to paragraph 2,
The first image data includes first and second low-gradation image data,
The second image data includes first and second high grayscale image data,
The first captured image data includes first and second low grayscale captured image data,
The second captured image data includes first and second high grayscale captured image data,
The mura compensation department,
First and second low gray scale representative brightness code values are calculated for each of the first and second low gray scale captured image data, and the first representative image data is calculated using the calculated first and second low gray scale representative brightness values. Generate, calculate first and second high gray scale representative brightness code values for each of the first and second high gray scale captured image data, and use the calculated first and second high gray scale representative brightness values to 2 A mura compensation device characterized by generating representative image data.
제1항에 있어서,
상기 제1 및 제2 저계조 대표 밝기 코드값 및 상기 제1 및 제2 고계조 대표 밝기 코드값 각각은 상기 제1 및 제2 저계조 촬영 이미지 데이터 상기 제1 및 제2 고계조 촬영 이미지 데이터 각각을 구성하는 이미지 데이터들의 평균값, 최빈값 및 중앙값 중 어느 하나인 것을 특징으로 하는 무라 보상 장치.
According to paragraph 1,
The first and second low grayscale representative brightness code values and the first and second high grayscale representative brightness code values respectively correspond to the first and second low grayscale captured image data and the first and second high grayscale captured image data, respectively. A mura compensation device characterized in that it is one of the average value, mode, and median of the image data constituting .
제1항에 있어서,
상기 테스트 영상 공급부는 제3 이미지 데이터를 상기 디스플레이 패널에 공급하고,
상기 테스트 영상 촬영부는 상기 제3 이미지 데이터에 대응하여 상기 디스플레이 패널에 표시되는 제3 이미지를 촬영하고, 상기 제3 이미지를 상기 제1 기준 노출시간 및 상기 제2 기준 노출시간과 다른 제3 기준 노출시간 동안 촬영하여 제3 촬영 이미지 데이터를 생성하는 것을 특징으로 하는 무라 보상 장치.
According to paragraph 1,
The test image supply unit supplies third image data to the display panel,
The test image capture unit captures a third image displayed on the display panel in response to the third image data, and applies the third image to a third reference exposure time different from the first reference exposure time and the second reference exposure time. A mura compensation device characterized in that it generates third captured image data by shooting over a period of time.
제5항에 있어서,
상기 제1 촬영 이미지 데이터를 이용하여 제1 대표 이미지 데이터를 생성하고, 상기 제2 촬영 이미지 데이터를 이용하여 제2 대표 이미지 데이터를 생성하고, 상기 제3 촬영 이미지 데이터를 이용하여 제3 대표 이미지 데이터를 생성하고, 상기 제1 내지 제3 대표 이미지 데이터를 이용하여 무라를 보상하는 무라 보상부를 더 포함하는 것을 특징으로 하는 무라 보상 장치.
According to clause 5,
Generating first representative image data using the first captured image data, generating second representative image data using the second captured image data, and generating third representative image data using the third captured image data. A mura compensation device further comprising a mura compensation unit that generates and compensates for mura using the first to third representative image data.
제6항에 있어서,
상기 제1 이미지 데이터는 제1 내지 제3 저계조 이미지 데이터를 포함하고,
상기 제2 이미지 데이터는 제1 내지 제3 고계조 이미지 데이터를 포함하고,
상기 제3 이미지 데이터는 제1 내지 제3 중계조 이미지 데이터를 포함하고,
상기 제1 촬영 이미지 데이터는 제1 내지 제3 저계조 촬영 이미지 데이터를 포함하고,
상기 제2 촬영 이미지 데이터는 제1 내지 제3 고계조 촬영 이미지 데이터를 포함하고,
상기 제3 촬영 이미지 데이터는 제1 내지 제3 중계조 촬영 이미지 데이터를 포함하고,
상기 무라 보상부는,
상기 제1 내지 제3 저계조 촬영 이미지 데이터 각각에 대해 제1 내지 제3 저계조 대표 밝기 코드값을 산출하고 산출한 제1 내지 제3 저계조 대표 밝기값을 이용하여 상기 제1 대표 이미지 데이터를 생성하고,
상기 제1 내지 제3 고계조 촬영 이미지 데이터 각각에 대해 제1 내지 제3 고계조 대표 밝기 코드값을 산출하고 산출한 제1 내지 제3 고계조 대표 밝기값을 이용하여 상기 제2 대표 이미지 데이터를 생성하고,
상기 제1 내지 제3 중계조 촬영 이미지 데이터 각각에 대해 제1 내지 제3 중계조 대표 밝기 코드값을 산출하고 산출한 제1 내지 제3 중계조 대표 밝기값을 이용하여 상기 제3 대표 이미지 데이터를 생성하는 것을 특징으로 하는 무라 보상 장치.
According to clause 6,
The first image data includes first to third low gray scale image data,
The second image data includes first to third high grayscale image data,
The third image data includes first to third grayscale image data,
The first captured image data includes first to third low grayscale captured image data,
The second captured image data includes first to third high grayscale captured image data,
The third captured image data includes first to third gray scale captured image data,
The mura compensation department,
Calculate first to third low gray scale representative brightness code values for each of the first to third low gray scale captured image data, and calculate the first representative image data using the calculated first to third low gray scale representative brightness values. create,
Calculating first to third high grayscale representative brightness code values for each of the first to third high grayscale captured image data, and calculating the second representative image data using the calculated first to third high grayscale representative brightness values. create,
Calculate first to third relay scale representative brightness code values for each of the first to third relay scale captured image data, and calculate the third representative image data using the calculated first to third relay scale representative brightness values. A mura compensation device characterized in that it generates.
제7항에 있어서,
상기 제1 내지 제3 저계조 이미지 데이터는 서로 다른 계조로 구성된 이미지 데이터이고, 상기 제1 내지 제3 중계조 이미지 데이터는 서로 다른 계조로 구성된 이미지 데이터이고, 상기 제1 내지 제3 고계조 이미지 데이터는 서로 다른 계조로 구성된 이미지 데이터인 것을 특징으로 하는 무라 보상 장치.
In clause 7,
The first to third low gray scale image data are image data composed of different gray scales, the first to third intermediate gray scale image data are image data composed of different gray scales, and the first to third high gray scale image data are is a mura compensation device characterized in that image data composed of different gray levels.
제7항에 있어서,
상기 제1 저계조 이미지 데이터가 상기 제2 및 제3 저계조 이미지 데이터보다 낮은 계조를 갖고 상기 제2 저계조 이미지 데이터가 상기 제3 저계조 이미지 데이터보다 낮은 계조를 갖는 경우, 상기 제2 저계조 이미지 데이터와 상기 제1 저계조 이미지 데이터의 계조 차이는 상기 제3 저계조 이미지 데이터와 상기 제2 저계조 이미지 데이터의 계조 차이와 동일하고,
상기 제1 중계조 이미지 데이터가 상기 제2 및 제3 중계조 이미지 데이터보다 낮은 계조를 갖고 상기 제2 중계조 이미지 데이터가 상기 제3 중계조 이미지 데이터보다 낮은 계조를 갖는 경우, 상기 제2 중계조 이미지 데이터와 상기 제1 중계조 이미지 데이터의 계조 차이는 상기 제3 중계조 이미지 데이터와 상기 제2 중계조 이미지 데이터의 계조 차이와 동일하고,
상기 제1 고계조 이미지 데이터가 상기 제2 및 제3 고계조 이미지 데이터보다 낮은 계조를 갖고 상기 제2 고계조 이미지 데이터가 상기 제3 고계조 이미지 데이터보다 낮은 계조를 갖는 경우, 상기 제2 고계조 이미지 데이터와 상기 제1 고계조 이미지 데이터의 계조 차이는 상기 제3 고계조 이미지 데이터와 상기 제2 고계조 이미지 데이터의 계조 차이와 동일한 것을 특징으로 하는 무라 보상 장치.
In clause 7,
When the first low-gray-scale image data has a lower gray-scale than the second and third low-gray-scale image data and the second low-gray-scale image data has a lower gray-scale than the third low-gray-scale image data, the second low-gray-scale image data The grayscale difference between the image data and the first low grayscale image data is the same as the grayscale difference between the third low grayscale image data and the second low grayscale image data,
When the first relay image data has a lower gray level than the second and third relay image data and the second relay image data has a lower gray level than the third relay image data, the second relay image data has a lower gray level than the third relay image data. The grayscale difference between the image data and the first grayscale image data is the same as the grayscale difference between the third grayscale image data and the second grayscale image data,
When the first high gray scale image data has a lower gray scale than the second and third high gray scale image data and the second high gray scale image data has a lower gray scale than the third high gray scale image data, the second high gray scale image data has a lower gray scale than the third high gray scale image data. A mura compensation device, wherein a grayscale difference between the image data and the first high grayscale image data is the same as a grayscale difference between the third high grayscale image data and the second high grayscale image data.
제7항에 있어서,
상기 제2 저계조 이미지 데이터와 상기 제1 저계조 이미지 데이터의 계조 차이는, 상기 제2 중계조 이미지 데이터와 상기 제1 중계조 이미지 데이터의 계조 차이 및 상기 제2 고계조 이미지 데이터와 상기 제1 고계조 이미지 데이터의 계조 차이보다 작은 값을 갖고,
상기 제2 중계조 이미지 데이터와 상기 제1 중계조 이미지 데이터의 계조 차이는 상기 제2 고계조 이미지 데이터와 상기 제1 고계조 이미지 데이터의 계조 차이보다 작은 값을 갖는 것을 특징으로 하는 무라 보상 장치.
In clause 7,
The gray scale difference between the second low gray scale image data and the first low gray scale image data includes the gray scale difference between the second mid gray scale image data and the first mid gray scale image data, and the gray scale difference between the second high gray scale image data and the first mid gray scale image data. Has a value smaller than the gray level difference of high gray level image data,
A mura compensation device, characterized in that the gray level difference between the second gray level image data and the first gray level image data has a smaller value than the gray level difference between the second high gray level image data and the first high gray level image data.
디스플레이 패널을 통해 표시되는 이미지의 무라를 검출하고 검출한 무라를 보상하는 무라 보상 방법으로서,
이미지 데이터를 상기 디스플레이 패널에 제공하는 단계;
상기 디스플레이 패널이 이미지를 표시하는 단계;
상기 이미지를 촬영하여 촬영 이미지 데이터를 생성하는 단계;
상기 촬영 이미지 데이터를 이용하여 대표 이미지 데이터를 산출하는 단계; 및
상기 대표 이미지 데이터를 이용하여 무라를 보상하는 단계;를 포함하고,
상기 이미지 데이터는 제1 및 제2 이미지 데이터를 포함하고,
상기 이미지는 제1 및 제2 이미지를 포함하고,
상기 이미지를 촬영하여 촬영 이미지 데이터를 생성하는 단계에서,
상기 제1 이미지를 제1 기준 노출시간 동안 촬영하여 제1 촬영 이미지 데이터를 생성하고, 상기 제1 이미지를 상기 제1 기준 노출시간과 다른 제2 기준 노출시간 동안 촬영하여 제2 촬영 이미지 데이터를 생성하는 것을 특징으로 하는 무라 보상 방법.
A mura compensation method for detecting mura in an image displayed through a display panel and compensating for the detected mura, comprising:
providing image data to the display panel;
displaying an image by the display panel;
generating captured image data by capturing the image;
calculating representative image data using the captured image data; and
Compensating for mura using the representative image data,
The image data includes first and second image data,
The image includes a first and a second image,
In the step of capturing the image and generating captured image data,
First captured image data is generated by photographing the first image during a first standard exposure time, and second photographed image data is generated by photographing the first image during a second standard exposure time different from the first standard exposure time. A mura compensation method characterized by:
제11항에 있어서,
상기 제1 이미지 데이터는 제1 및 제2 저계조 이미지 데이터를 포함하고,
상기 제2 이미지 데이터는 제1 및 제2 고계조 이미지 데이터를 포함하고,
상기 촬영 이미지 데이터는 제1 및 제2 촬영 이미지 데이터를 포함하고,
상기 제1 촬영 이미지 데이터는 제1 및 제2 저계조 촬영 이미지 데이터를 포함하고,
상기 제2 촬영 이미지 데이터는 제1 및 제2 고계조 촬영 이미지 데이터를 포함하고,
상기 대표 이미지 데이터는 제1 및 제2 대표 이미지 데이터를 포함하고,
상기 촬영 이미지 데이터를 이용하여 대표 이미지 데이터를 산출하는 단계에서, 상기 제1 및 제2 저계조 촬영 이미지 데이터를 이용하여 상기 제1 대표 이미지 데이터를 산출하고, 상기 제1 및 제2 고계조 촬영 이미지 데이터를 이용하여 상기 제2 대표 이미지 데이터를 산출하는 것을 특징으로 하는 무라 보상 방법.
According to clause 11,
The first image data includes first and second low-gradation image data,
The second image data includes first and second high grayscale image data,
The captured image data includes first and second captured image data,
The first captured image data includes first and second low grayscale captured image data,
The second captured image data includes first and second high grayscale captured image data,
The representative image data includes first and second representative image data,
In the step of calculating representative image data using the captured image data, the first representative image data is calculated using the first and second low gray level captured image data, and the first representative image data is calculated using the first and second high gray level captured image data. A mura compensation method characterized by calculating the second representative image data using data.
제11항에 있어서,
상기 이미지 데이터는 제3 이미지 데이터를 더 포함하고,
상기 제1 이미지 데이터는 제1 내지 제3 저계조 이미지 데이터를 포함하고,
상기 제2 이미지 데이터는 제1 내지 제3 고계조 이미지 데이터를 포함하고,
상기 제2 이미지 데이터는 제1 내지 제3 중계조 이미지 데이터를 포함하고,
상기 촬영 이미지 데이터는 제1 내지 제3 촬영 이미지 데이터를 포함하고,
상기 제1 촬영 이미지 데이터는 제1 내지 제3 저계조 촬영 이미지 데이터를 포함하고,
상기 제2 촬영 이미지 데이터는 제1 내지 제3 고계조 촬영 이미지 데이터를 포함하고,
상기 제3 촬영 이미지 데이터는 제1 내지 제3 중계조 촬영 이미지 데이터를 포함하고,
상기 대표 이미지 데이터는 제1 내지 제3 대표 이미지 데이터를 포함하고,
상기 촬영 이미지 데이터를 이용하여 대표 이미지 데이터를 산출하는 단계에서, 상기 제1 내지 제3 저계조 촬영 이미지 데이터를 이용하여 제1 대표 이미지 데이터를 산출하고, 상기 제1 내지 제3 고계조 촬영 이미지 데이터를 이용하여 제2 대표 이미지 데이터를 산출하고, 상기 제1 내지 제3 중계조 촬영 이미지 데이터를 이용하여 제3 대표 이미지 데이터를 산출하는 것을 특징으로 하는 무라 보상 방법.
According to clause 11,
The image data further includes third image data,
The first image data includes first to third low gray scale image data,
The second image data includes first to third high grayscale image data,
The second image data includes first to third grayscale image data,
The captured image data includes first to third captured image data,
The first captured image data includes first to third low grayscale captured image data,
The second captured image data includes first to third high grayscale captured image data,
The third captured image data includes first to third gray scale captured image data,
The representative image data includes first to third representative image data,
In the step of calculating representative image data using the captured image data, first representative image data is calculated using the first to third low grayscale captured image data, and the first to third high grayscale captured image data are calculated. A mura compensation method characterized by calculating second representative image data using and calculating third representative image data using the first to third grayscale captured image data.
KR1020220100331A 2022-08-11 2022-08-11 Apparatus and Method for Compensating Mura KR20240022084A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220100331A KR20240022084A (en) 2022-08-11 2022-08-11 Apparatus and Method for Compensating Mura
PCT/KR2023/011479 WO2024035011A1 (en) 2022-08-11 2023-08-04 Mura compensation device and mura compensation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220100331A KR20240022084A (en) 2022-08-11 2022-08-11 Apparatus and Method for Compensating Mura

Publications (1)

Publication Number Publication Date
KR20240022084A true KR20240022084A (en) 2024-02-20

Family

ID=89852129

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220100331A KR20240022084A (en) 2022-08-11 2022-08-11 Apparatus and Method for Compensating Mura

Country Status (2)

Country Link
KR (1) KR20240022084A (en)
WO (1) WO2024035011A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7308157B2 (en) * 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
JP2015222332A (en) * 2014-05-22 2015-12-10 株式会社Joled Display panel manufacturing method
KR102233316B1 (en) * 2014-07-31 2021-03-29 삼성전자주식회사 Display apparatus, display correction appratus, display correction system and display correction method
KR102385633B1 (en) * 2017-11-30 2022-04-11 엘지디스플레이 주식회사 Display Device and Image Quality Compensation Device of the same
KR20220081141A (en) * 2020-12-08 2022-06-15 주식회사 엘엑스세미콘 Compensation data generating apparatus for compensating mura and mura compensation apparatus of display using compensation data

Also Published As

Publication number Publication date
WO2024035011A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
US7486417B2 (en) Apparatus for driving liquid crystal display device and driving method using the same
US7782335B2 (en) Apparatus for driving liquid crystal display device and driving method using the same
KR102169720B1 (en) Display panel, stain compensation system for the same and stain compensation method for the same
KR101144185B1 (en) Picture quality testing apparatus and method of liquid crystal display
US20120062580A1 (en) Display device, display method, and computer program
US20110012908A1 (en) System for compensation of differential aging mura of displays
KR20200079920A (en) Mura compensation system
KR20160061541A (en) Vision inspection apparatus and method of compensating gamma and mura defect thereof
CN109712580B (en) Display panel and control method and control equipment thereof
CN109523955A (en) Pixel compensation method and device, storage medium, display screen
CN109036265A (en) Optical compensating member and its operation method applied to display panel
US7990431B2 (en) Calculation method for the correction of white balance
WO2019061677A1 (en) 3gamma correction method and system for an oled display module
KR20160026681A (en) Luminance level inspection equipment and luminance level inspection method
KR20160026680A (en) Luminance compensation equipment and system and luminance compensation method
TW201903743A (en) Optical compensation apparatus applied to panel and operating method thereof
KR20170047449A (en) Display device and luminance correction method of the same
KR20160011300A (en) Method of displaying an image, display apparatus performing the same, method of calculating a correction value applied to the same and method of correcting gray data
KR20200079921A (en) Dmura compensation driver
KR20220139332A (en) image processing system
US8305396B2 (en) Method and apparatus for correcting color of display device
US20150356896A1 (en) Apparatus and method for image analysis and image display
CN114170941B (en) Display brightness matching method and display
KR20060135999A (en) Transflective type liquid crystal display device
KR20070000029A (en) Transflective type liquid crystal display device