KR102524559B1 - Apparatus and method for screen correcting of external display device - Google Patents

Apparatus and method for screen correcting of external display device Download PDF

Info

Publication number
KR102524559B1
KR102524559B1 KR1020160134581A KR20160134581A KR102524559B1 KR 102524559 B1 KR102524559 B1 KR 102524559B1 KR 1020160134581 A KR1020160134581 A KR 1020160134581A KR 20160134581 A KR20160134581 A KR 20160134581A KR 102524559 B1 KR102524559 B1 KR 102524559B1
Authority
KR
South Korea
Prior art keywords
display device
pixel
screen
image
correction data
Prior art date
Application number
KR1020160134581A
Other languages
Korean (ko)
Other versions
KR20180042030A (en
Inventor
김철영
장시호
서영민
이영수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160134581A priority Critical patent/KR102524559B1/en
Publication of KR20180042030A publication Critical patent/KR20180042030A/en
Application granted granted Critical
Publication of KR102524559B1 publication Critical patent/KR102524559B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

다양한 실시 예에 따르면 외부 디스플레이 장치의 화면 보정 장치에 있어서, 카메라 및 상기 외부 디스플레이 장치와 통신 가능하게 연결된 통신 모듈과; 상기 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하고, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하며, 상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하도록 설정된 프로세서를 포함하도록 할 수 있다. 다른 실시 예가 가능하다.According to various embodiments, an apparatus for calibrating a screen of an external display device includes: a camera and a communication module communicatively connected to the external display device; First correction data for correcting the screen is generated using first image data for each pixel of each of the divided images of the first image displayed on the external display device obtained by using the camera, and the first correction data Provided to the display device, a second correction for correcting the screen using second image data for each pixel of a second image corresponding to the first correction data displayed on the display device obtained using the camera It can include a processor configured to generate data. Other embodiments are possible.

Description

외부 디스플레이 장치의 화면 보정 장치 및 방법{APPARATUS AND METHOD FOR SCREEN CORRECTING OF EXTERNAL DISPLAY DEVICE}Screen correction device and method of external display device {APPARATUS AND METHOD FOR SCREEN CORRECTING OF EXTERNAL DISPLAY DEVICE}

다양한 실시 예는 외부 디스플레이 장치의 화면 보정 장치 및 방법에 관한 것이다.Various embodiments relate to an apparatus and method for calibrating a screen of an external display device.

디스플레이 장치에서 색상 및 휘도(밝기)를 균일하게 유지하는 것은 화질에서 가장 중요한 요소이다. 최근 소비자나 인증 기관에서 디스플레이 장치에 대해 요구하는 품질 수준이 높아지고 있어서 색상 및 휘도의 균일도를 맞추는 기술에 대한 개발이 지속적으로 요구되고 있다.Keeping color and luminance (brightness) uniform in a display device is the most important factor in picture quality. Recently, as the quality level required for a display device by consumers or certification institutions is increasing, the development of a technology for matching color and luminance uniformity is continuously required.

최근, 대형화된 디스플레이 장치는 옥외에 설치되어 광고를 위해 많이 이용되고 있다. 이에 대형화된 디스플레이 장치에 대한 색상 및 휘도의 균일도를 맞추는 보정 기술에 대한 기술 개발이 요구되고 있다. 또한, 대형화된 디스플레이 장치가 작업자가 보정 작업을 진행하기 어려운 특수 공간, 예를 들어, 초고층 빌딩의 상단 외벽에 설치되거나, 또는 다수의 보정을 필요로 할 때, 보다 안전하게 보정할 수 있도록 하기 위한 기술 개발이 요구되고 있다.Recently, large-sized display devices are installed outdoors and are widely used for advertisements. Accordingly, there is a demand for technology development of a correction technology that matches the uniformity of color and luminance for a large-sized display device. In addition, when a large-sized display device is installed in a special space where it is difficult for operators to perform calibration, for example, on the upper outer wall of a high-rise building, or when multiple calibrations are required, technology for enabling calibration more safely development is required.

종래의 디스플레이 장치에 대한 휘도 및 색상의 편차를 보정하는 기술은, 카메라를 통해 디스플레이 장치의 화면에 표시된 영상의 화소별 색상 및 휘도 정보를 획득하고, 기준 색상 값 및 기준 휘도 값이 출력되도록 보정 데이터를 만든 후 메모리(예를 들어, flash memory 등)에 저장할 수 있다.A technology for correcting luminance and color deviation for a conventional display device acquires color and luminance information for each pixel of an image displayed on a screen of a display device through a camera, and corrects data such that a reference color value and a reference luminance value are output. After creating it, it can be stored in memory (eg, flash memory, etc.).

일반적으로 카메라의 해상도는 디스플레이 장치의 해상도에 비해 많이 높지 않기 때문에, 카메라로 디스플레이 장치에 표시된 화면의 영상을 촬영할 경우, 촬영된 영상에 모아레 패턴이 발생할 수 있다. 이를 방지하기 위해, 일반적으로 카메라로 디스플레이 장치에 표시된 영상을 분할하여 촬영할 수 있다.In general, since the resolution of a camera is not much higher than that of a display device, when capturing an image of a screen displayed on a display device with a camera, a moiré pattern may occur in the captured image. In order to prevent this, in general, an image displayed on a display device may be divided and photographed by a camera.

영상의 보정 데이터를 생성하기 위해, 카메라를 이용하여 디스플레이 장치를 분할 촬영하는 경우, 촬영 시점이 화면 영역 내지 화소 별로 상이하기 때문에 보정된 영상의 색상 및/또는 밝기의 편차가 발생할 수 있다.When a display device is divided and photographed using a camera to generate image correction data, color and/or brightness deviation of the corrected image may occur because the photographing time point is different for each screen area or pixel.

또한, 일반적으로 디스플레이 장치는 모든 화소가 켜져 있는 경우와 부분적으로 켜져 있는 경우의 출력 특성이 상이하므로 통상적인 시청 환경에서는 보정 효과가 저하되는 요인이 존재 한다. 도 12는 LED 디스플레이 장치의 점등 후 시간별 화질 변화를 나타내는 도면으로, 도 12의 (a)는 LED 디스플레이 장치를 점등 했을 때(점등 후 0분 경과되었을 때), 도 12의 (b)는 LED 디스플레이 장치를 점등 후 10분이 경과되었을 때, 도 12의 (c)는 LED 디스플레이 장치를 점등 후 40분이 경과되었을 때의 영상을 나타낸다. 디스플레이 장치를 점등 했을 때 색온도는 4905K, LED 장치를 점등 후 10분이 경과되었을 때 색온도는 5462K, LED 장치를 점등 후 40분이 경과되었을 때 색온도는 5718K일 수 있다. 도 12를 참조하면, LED는 온도가 높아지면 광량이 낮아지고 색온도가 높아지는 문제가 발생하기도 하며, 디스플레이 장치 내부에 휘도 및 색상 편차가 증가할 수 있다.In addition, in general, display devices have different output characteristics when all pixels are turned on and when they are partially turned on, so a factor that deteriorates the correction effect exists in a normal viewing environment. FIG. 12 is a diagram showing the change in image quality over time after the LED display device is turned on. FIG. 12 (a) is when the LED display device is turned on (when 0 minutes have elapsed after turning on), FIG. 12 (b) is the LED display When 10 minutes have elapsed after turning on the device, (c) of FIG. 12 shows an image when 40 minutes have elapsed after turning on the LED display device. When the display device is turned on, the color temperature may be 4905K, the color temperature may be 5462K when 10 minutes have elapsed after the LED device is turned on, and the color temperature may be 5718K when 40 minutes have elapsed after the LED device is turned on. Referring to FIG. 12 , when the temperature of the LED increases, the amount of light decreases and the color temperature increases, and luminance and color deviation may increase in the display device.

한편, 일반적으로 디스플레이 장치의 휘도 및 색상의 편차를 보정하는 보정 거리는 시청 거리와 유사한 거리로 설정하고 있으며, 디스플레이 장치의 높이 또는 대각선 거리에 대해 1.5배 이상의 거리로 한다.On the other hand, in general, the correction distance for correcting the luminance and color deviation of the display device is set to a distance similar to the viewing distance, and is 1.5 times or more than the height or diagonal distance of the display device.

이에 따라, 작업자가 대형화된 디스플레이 장치의 색상 및/또는 휘도를 보정하거나 디스플레이 장치의 모듈을 교체하는 작업을 할 때, 디스플레이 장치에 표시된 영상을 촬영하기 위한 높이와 거리가 증가하여, 안전 사고가 발생할 위험이 증가하고 있다.Accordingly, when a worker corrects color and/or luminance of a large-sized display device or replaces a module of a display device, the height and distance for capturing an image displayed on the display device increases, resulting in a safety accident. The danger is increasing.

예를 들어, 디스플레이 장치의 불량 모듈을 교체하는 작업의 경우, 높은 위치의 불량 모듈은 작업자 한 명이 모듈 하나를 가지고 사다리를 통해 올라가 하나의 불량 모듈을 교체한 후 내려온 뒤, 다시 사다리의 위치를 이동하여 불량 모듈을 교체하는 작업을 반복하게 되어 많은 시간이 소요 되며, 디스플레이 장치가 설치된 위치가 높을수록 작업 속도의 저하 및 교체 작업 중 작업자의 낙하로 인한 사고 위험성이 증가하며, 교체 작업 중 작업 도구 등의 낙하가 발생하여 작업 구역 근처에 있는 주변 사람들이 사고가 날 가능성도 증가한다.For example, in the case of replacing a defective module in a display device, for a defective module in a high position, one worker climbs up the ladder with one module, replaces one defective module, comes down, and moves the ladder again. It takes a lot of time to repeat the replacement of defective modules, and the higher the location where the display device is installed, the lower the work speed and the higher the risk of accidents due to workers falling during replacement work. The fall of the work area also increases the possibility of accidents to bystanders near the work area.

또한, 도 13의 (a) 및 (b)와 같이 실외용 디스플레이 장치가 다양한 각도와 높이에 설치되어 있는 경우 도로의 차량 및 사람들로 인해 차량이나 사다리를 이용하여 작업자가 디스플레이 장치의 색상 및/또는 휘도를 보정하거나 디스플레이 장치의 모듈을 교체하기에는 어려움이 있을 수 있다.In addition, when the outdoor display device is installed at various angles and heights as shown in (a) and (b) of FIG. 13, the color and/or luminance of the display device may be changed by an operator using a vehicle or a ladder due to vehicles and people on the road. It may be difficult to calibrate or replace the module of the display device.

본 발명의 다양한 실시 예들은, 디스플레이 장치에 대해 종래보다 개선된 보정 기술을 적용할 수 있는 외부 디스플레이 장치의 화면 보정 장치 및 방법을 제공할 수 있다. 예를 들어, 사용자 환경 조건에 따라 디스플레이 장치에 대한 휘도 및 색상의 편차를 보정하는 보정 알고리즘을 개선할 수 있다. 또 다른 예를 들어, 디스플레이 장치에 대한 휘도 및 색상의 편차를 보정하는 보정 작업 및 디스플레이 장치의 불량 모듈 교체 작업 시 안전 사고 방지를 위한 원격 또는 무인 작업 시스템을 도입할 수 있다.Various embodiments of the present disclosure may provide an apparatus and method for correcting a screen of an external display device capable of applying an improved correction technology to the display device. For example, a correction algorithm for correcting luminance and color deviations of a display device according to user environment conditions may be improved. As another example, a remote or unmanned operation system for preventing safety accidents may be introduced during a correction operation for correcting deviations in brightness and color of the display device and a replacement operation for a defective module of the display device.

다양한 실시 예들에 따른 외부 디스플레이 장치의 화면 보정 장치에 있어서, 카메라 및 상기 외부 디스플레이 장치와 통신 가능하게 연결된 통신 모듈과; 상기 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하고, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하며, 상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하도록 설정된 프로세서를 포함할 수 있다.An apparatus for calibrating a screen of an external display device according to various embodiments of the present disclosure, comprising: a camera and a communication module communicatively connected to the external display device; First correction data for correcting the screen is generated using first image data for each pixel of each of the divided images of the first image displayed on the external display device obtained by using the camera, and the first correction data Provided to the display device, a second correction for correcting the screen using second image data for each pixel of a second image corresponding to the first correction data displayed on the display device obtained using the camera It may include a processor configured to generate data.

다양한 실시 예들에 따른 외부 디스플레이 장치의 화면 보정 방법에 있어서, 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하는 동작과, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하는 동작과, 상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하는 동작을 포함할 수 있다.In the method for calibrating a screen of an external display device according to various embodiments, correcting the screen using first image data for each pixel of divided images of a first image displayed on the external display device acquired using a camera An operation of generating first correction data for a second image corresponding to the first correction data displayed on the display device obtained by using the camera; and providing the first correction data to the display device. An operation of generating second correction data for correcting the screen using second image data for each pixel may be included.

다양한 실시 예에 따른 외부 디스플레이 장치의 화면 보정 장치 및 방법은 종래의 디스플레이 장치의 보정 기술에 비해 휘도 및 색상의 균일도를 향상시킬 수 있다.An apparatus and method for calibrating a screen of an external display device according to various embodiments may improve uniformity of brightness and color compared to conventional calibrating techniques of a display device.

다양한 실시 예에 따른 외부 디스플레이 장치의 화면 보정 장치 및 방법은 디스플레이 장치의 유지 보수 작업 시, 로봇 장치를 이용함으로써 효율적이고 안전한 작업이 가능하도록 할 수 있다.An apparatus and method for calibrating a screen of an external display device according to various embodiments may enable efficient and safe operation by using a robot device during maintenance work of the display device.

도 1은 다양한 실시 예에 따른 디스플레이 장치의 보정 시스템을 나타낸 도면이다.
도 2는 다양한 실시 예에 따른 전자 장치의 블록도를 나타낸다.
도 3은 다양한 실시 예에 따른 디스플레이 장치의 블록도를 나타낸다.
도 4는 다양한 실시 예에 따른 LED 디스플레이 패널을 설명하기 위한 도면이다.
도 5는 다양한 실시 예에 따른 디스플레이 장치의 보정 동작의 흐름도이다.
도 6은 다양한 실시 예에 따른 디스플레이 장치의 보정 동작의 흐름도이다.
도 7은 다양한 실시 예에 따른 로봇 장치를 이용한 디스플레이 장치의 보정 동작을 설명하기 위한 도면이다.
도 8은 다양한 실시 예에 따른 로봇 장치의 구성도이다.
도 9는 다양한 실시 예에 따른 로봇 장치를 이용한 디스플레이 보정 동작의 흐름도이다.
도 10은 다양한 실시 예에 따른 디스플레이 장치의 보정에 따른 개선된 휘도 특성을 보여주는 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치의 디스플레이 장치의 모듈 교체 동작의 흐름도이다.
도 12는 종래의 LED 디스플레이 장치의 점등 후 시간별 화질 변화를 나타내는 도면이다.
도 13은 종래의 실외에 설치된 디스플레이 장치를 나타낸 도면이다.
1 is a diagram illustrating a calibration system of a display device according to various embodiments.
2 is a block diagram of an electronic device according to various embodiments.
3 is a block diagram of a display device according to various embodiments.
4 is a diagram for explaining an LED display panel according to various embodiments.
5 is a flowchart of a calibration operation of a display device according to various embodiments.
6 is a flowchart of a calibration operation of a display device according to various embodiments of the present disclosure.
7 is a diagram for explaining a correction operation of a display device using a robot device according to various embodiments.
8 is a configuration diagram of a robot device according to various embodiments.
9 is a flowchart of a display correction operation using a robot device according to various embodiments of the present disclosure.
10 is a diagram illustrating improved luminance characteristics according to calibration of a display device according to various embodiments.
11 is a flowchart of a module replacement operation of a display device of an electronic device according to various embodiments of the present disclosure.
12 is a diagram illustrating a change in image quality over time after lighting of a conventional LED display device.
13 is a view showing a conventional display device installed outdoors.

이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Hereinafter, various embodiments of this document will be described with reference to the accompanying drawings. Examples and terms used therein are not intended to limit the technology described in this document to specific embodiments, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, expressions such as "A or B" or "at least one of A and/or B" may include all possible combinations of the items listed together. Expressions such as "first," "second," "first," or "second," may modify the corresponding components regardless of order or importance, and are used to distinguish one component from another. It is used only and does not limit the corresponding components. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).

본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. In this document, "configured (or configured to)" means "suitable for," "having the ability to," "changed to," depending on the situation, for example, hardware or software. ,” “made to,” “capable of,” or or “designed to” can be used interchangeably. In some contexts, the expression "device configured to" can mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (eg, embedded processor) to perform the operation, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices according to various embodiments of the present document, for example, smart phones, tablet PCs, mobile phones, video phones, e-book readers, desktop PCs, laptop PCs, netbook computers, workstations, servers, PDAs, PMPs ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device. A wearable device may be in the form of an accessory (e.g. watch, ring, bracelet, anklet, necklace, eyeglasses, contact lens, or head-mounted-device (HMD)), integrated into textiles or clothing (e.g. electronic garment); In some embodiments, the electronic device may include, for example, a television, a digital video disk (DVD) player, or an audio device. , refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set top boxes, home automation control panels, security control panels, media boxes (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ), It may include at least one of a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.

다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. In another embodiment, the electronic device may include various types of medical devices (e.g., various portable medical measuring devices (blood glucose meter, heart rate monitor, blood pressure monitor, body temperature monitor, etc.), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), imager, or ultrasonicator, etc.), navigation device, global navigation satellite system (GNSS), EDR (event data recorder), FDR (flight data recorder), automobile infotainment device, marine electronic equipment (e.g. navigation devices for ships, gyrocompasses, etc.), avionics, security devices, head units for vehicles, industrial or home robots, drones, ATMs in financial institutions, point of sale (POS) in stores of sales), or IoT devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). According to some embodiments, the electronic device may be furniture, a part of a building/structure or a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, gas, radio wave measuring device, etc.). In various embodiments, the electronic device may be flexible or may be a combination of two or more of the various devices described above. An electronic device according to an embodiment of this document is not limited to the aforementioned devices. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (eg, an artificial intelligence electronic device).

도 1은 다양한 실시 예에 따른 디스플레이 장치의 보정 시스템을 나타낸 도면이다.1 is a diagram illustrating a calibration system of a display device according to various embodiments.

도 1을 참조하면, 보정 시스템(101)은 전자 장치(110), 카메라(120), 디스플레이 장치(130를 포함할 수 있다. 추가로 보정 시스템(101)은 통신 보드(140)를 더 포함할 수도 있다.1, the calibration system 101 may include an electronic device 110, a camera 120, and a display device 130. Additionally, the calibration system 101 may further include a communication board 140. may be

전자 장치(110)는 도 2의 전자 장치(201)일 수 있다. 도 2를 참조하면, 전자 장치(201)는 버스(210), 프로세서(220), 메모리(230), 입출력 인터페이스(250), 디스플레이(260), 및 통신 인터페이스(270)를 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(201)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. The electronic device 110 may be the electronic device 201 of FIG. 2 . Referring to FIG. 2 , an electronic device 201 may include a bus 210, a processor 220, a memory 230, an input/output interface 250, a display 260, and a communication interface 270. In some embodiments, the electronic device 201 may omit at least one of the components or may additionally include other components.

버스(210)는 구성요소들(210-270)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. Bus 210 may include circuitry that connects components 210 - 270 to each other and communicates (eg, control messages or data) between components.

프로세서(220)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(220)는, 예를 들면, 전자 장치(201)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. The processor 220 may include one or more of a central processing unit, an application processor, or a communication processor (CP). The processor 220 may, for example, execute calculations or data processing related to control and/or communication of at least one other component of the electronic device 201 .

메모리(230)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(230)는, 예를 들면, 전자 장치(201)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(230)는 소프트웨어 및/또는 프로그램(240)을 저장할 수 있다. 프로그램(240)은, 예를 들면, 커널(241), 미들웨어(243), 어플리케이션 프로그래밍 인터페이스(API)(245), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(247) 등을 포함할 수 있다. 커널(241), 미들웨어(243), 또는 API(245)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(241)은, 예를 들면, 다른 프로그램들(예: 미들웨어(243), API(245), 또는 어플리케이션 프로그램(247))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(210), 프로세서(220), 또는 메모리(230) 등)을 제어 또는 관리할 수 있다. 또한, 커널(241)은 미들웨어(243), API(245), 또는 어플리케이션 프로그램(247)에서 전자 장치(201)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. Memory 230 may include volatile and/or non-volatile memory. The memory 230 may store, for example, commands or data related to at least one other component of the electronic device 201 . According to one embodiment, the memory 230 may store software and/or programs 240 . The program 240 may include, for example, a kernel 241, middleware 243, an application programming interface (API) 245, and/or an application program (or “application”) 247, and the like. . At least part of the kernel 241, middleware 243, or API 245 may be referred to as an operating system. Kernel 241, for example, provides system resources (eg, middleware 243, API 245, or application program 247) used to execute operations or functions implemented in other programs (eg, middleware 243, API 245, or application program 247). : The bus 210, the processor 220, or the memory 230, etc.) can be controlled or managed. In addition, the kernel 241 may provide an interface capable of controlling or managing system resources by accessing individual components of the electronic device 201 from the middleware 243, API 245, or application program 247. can

미들웨어(243)는, 예를 들면, API(245) 또는 어플리케이션 프로그램(247)이 커널(241)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(243)는 어플리케이션 프로그램(247)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(243)는 어플리케이션 프로그램(247) 중 적어도 하나에 전자 장치(201)의 시스템 리소스(예: 버스(210), 프로세서(220), 또는 메모리(230) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(245)는 어플리케이션(247)이 커널(241) 또는 미들웨어(243)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(250)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(201)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(201)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다. The middleware 243 may perform an intermediary role so that, for example, the API 245 or the application program 247 communicates with the kernel 241 to exchange data. Also, the middleware 243 may process one or more job requests received from the application program 247 according to priority. For example, the middleware 243 may use system resources (eg, the bus 210, the processor 220, or the memory 230, etc.) of the electronic device 201 for at least one of the application programs 247. Prioritize and process the one or more work requests. The API 245 is an interface for the application 247 to control functions provided by the kernel 241 or the middleware 243, for example, at least for file control, window control, image processing, or character control. It can contain one interface or function (eg command). The input/output interface 250 transmits, for example, commands or data input from a user or other external device to other element(s) of the electronic device 201, or other elements of the electronic device 201 ( s) may output commands or data received from the user or other external devices.

디스플레이(260)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(260)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(260)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. The display 260 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a microelectromechanical systems (MEMS) display, or an electronic paper display. can include The display 260 may display various contents (eg, text, image, video, icon, and/or symbol) to the user. The display 260 may include a touch screen, and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of the user's body.

통신 인터페이스(270)는, 예를 들면, 전자 장치(201)와 외부 장치(예: 제 1 외부 전자 장치(202), 제 2 외부 전자 장치(204), 또는 서버(206)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(270)는 무선 통신 또는 유선 통신을 통해서 네트워크(262)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(204) 또는 서버(206))와 통신할 수 있다.The communication interface 270 establishes communication between the electronic device 201 and an external device (eg, the first external electronic device 202 , the second external electronic device 204 , or the server 206 ). can For example, the communication interface 270 may be connected to the network 262 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 204 or the server 206).

무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시 예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(262)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.Wireless communication is, for example, LTE, LTE-A (LTE Advance), CDMA (code division multiple access), WCDMA (wideband CDMA), UMTS (universal mobile telecommunications system), WiBro (Wireless Broadband), or GSM (Global System for Mobile Communications) may include cellular communication using at least one of the like. According to one embodiment, wireless communication, for example, WiFi (wireless fidelity), Bluetooth, Bluetooth Low Energy (BLE), Zigbee (Zigbee), NFC (near field communication), magnetic secure transmission (Magnetic Secure Transmission), radio It may include at least one of a frequency (RF) and a body area network (BAN). According to one embodiment, wireless communication may include GNSS. The GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System (hereinafter “Beidou”) or Galileo, the European global satellite-based navigation system. Hereinafter, in this document, "GPS" may be used interchangeably with "GNSS". Wired communication may include, for example, at least one of universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard 232 (RS-232), power line communication, or plain old telephone service (POTS). there is. Network 262 may include at least one of a telecommunications network, for example, a computer network (eg, LAN or WAN), the Internet, or a telephone network.

제 1 및 제 2 외부 전자 장치(202, 204) 각각은 전자 장치(201)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예에 따르면, 전자 장치(201)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(202,204), 또는 서버(206)에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치(201)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(202, 204), 또는 서버(206))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(202, 204), 또는 서버(206))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(201)로 전달할 수 있다. 전자 장치(201)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Each of the first and second external electronic devices 202 and 204 may be the same as or different from the electronic device 201 . According to various embodiments, all or part of operations executed in the electronic device 201 may be executed in one or more electronic devices (eg, the electronic devices 202 and 204 or the server 206). According to this, when the electronic device 201 needs to perform a certain function or service automatically or upon request, the electronic device 201 instead of or in addition to executing the function or service itself, at least some functions related thereto may request another device (eg, the electronic device 202 or 204 or the server 206). The additional function may be executed and the result may be delivered to the electronic device 201. The electronic device 201 may provide the requested function or service by processing the received result as it is or additionally. For example, cloud computing, distributed computing, or client-server computing technologies may be used.

카메라(120)는 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.The camera 120 is, for example, a device capable of capturing still images and moving images, and according to one embodiment, one or more image sensors (eg, a front sensor or a rear sensor), a lens, an image signal processor (ISP), or May contain a flash (e.g. LED or xenon lamp).

디스플레이 장치(130)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이를 포함할 수 있다. 디스플레이 장치(130)는, 예를 들면, 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. 디스플레이 장치(130)는 FHD(Full-HD), UHD(Ultra-HD) 등 다양한 해상도를 갖도록 제작될 수 있으며, 실내 또는 실외용으로 다양한 크기로 제작될 수 있다.The display device 130 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display. The display device 130 may display, for example, various types of content (eg, text, image, video, icon, and/or symbol). The display device 130 may be manufactured to have various resolutions such as FHD (Full-HD) and UHD (Ultra-HD), and may be manufactured in various sizes for indoor or outdoor use.

디스플레이 장치(130)는 도 3의 디스플레이 장치(301)일 수 있다. 도 3을 참조하면, 디스플레이 장치(301)는 프로세서(310), 메모리(330), 입출력 인터페이스(350), 디스플레이 패널(370), 통신 인터페이스(390)를 포함할 수 있다.The display device 130 may be the display device 301 of FIG. 3 . Referring to FIG. 3 , a display device 301 may include a processor 310, a memory 330, an input/output interface 350, a display panel 370, and a communication interface 390.

프로세서(310)는, 예를 들면, 디스플레이 장치(301)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(310)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서(310)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(310) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.The processor 310 may, for example, execute calculations or data processing related to control and/or communication of at least one other component of the display device 301 . The processor 310 may be implemented as, for example, a system on chip (SoC). According to one embodiment, the processor 310 may further include a graphic processing unit (GPU) and/or an image signal processor. The processor 310 may load and process a command or data received from at least one of other components (eg, a non-volatile memory) into a volatile memory, and store resultant data in the non-volatile memory.

메모리(330)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(330)는, 예를 들면, 디스플레이 장치(301)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다.Memory 330 may include volatile and/or non-volatile memory. The memory 330 may store, for example, commands or data related to at least one other component of the display device 301 .

입출력 인터페이스(350)는 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 디스플레이 장치(301)의 다른 구성요소(들)에 전달하거나, 또는 디스플레이 장치(301)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.The input/output interface 350 transmits, for example, commands or data input from a user or other external device to other component(s) of the display device 301 or other component(s) of the display device 301. ) can output commands or data received from the user or other external devices.

디스플레이 패널(370)은 예를 들면, 발광 다이오드(LED) 디스플레이 패널일 수 있다. 도 4를 참조하면, LED 디스플레이 패널(401)은, 지정된 개수의 LED(410)를 각각 포함하는 복수개의 디스플레이 모듈(420)로 구성될 수 있다. 또 다른 예로, 디스플레이 패널(370)은 액정 디스플레이(LCD) 패널, 또는 유기 발광 다이오드(OLED) 디스플레이 패널 등 다양할 수 있다. The display panel 370 may be, for example, a light emitting diode (LED) display panel. Referring to FIG. 4 , the LED display panel 401 may include a plurality of display modules 420 each including a designated number of LEDs 410 . As another example, the display panel 370 may be a liquid crystal display (LCD) panel or an organic light emitting diode (OLED) display panel.

통신 인터페이스(390)는 예를 들면, 디스플레이 장치(301)와 외부 장치(예: 전자 장치(110), 통신 보드(140), 카메라(120)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(370)는 무선 통신 또는 유선 통신을 통해서 네트워크(미도시)에 연결되어 외부 장치와 통신할 수 있다.The communication interface 390 may establish communication between the display device 301 and external devices (eg, the electronic device 110 , the communication board 140 , and the camera 120 ). For example, the communication interface 370 may communicate with an external device by being connected to a network (not shown) through wireless or wired communication.

통신 보드(140)는 전자 장치(110)와 디스플레이 장치(130) 간의 통신을 위한 보드일 수 있다. 도 1을 참조하면, 통신 보드(140)는 전자 장치(110) 및 디스플레이 장치(130)의 통신 방식에 따라 보정 시스템(101)에 포함되거나 포함되지 않을 수 있다. 통신 보드(140)는 전자 장치(110)와 디스플레이 장치(130)간의 통신 방식이 상이할 경우 전자 장치(110)와 디스플레이 장치(130)간의 통신이 가능하도록 할 수 있으며, 보정 시스템(101)에 포함될 수 있다. 예를 들어, 디스플레이 장치(130)가 SPI 통신 방식 또는 I2C 통신 방식이 적용되나, 전자 장치(110)가 디스플레이 장치(130)와 상이한 통신 방식이 적용될 경우, 통신 보드(140)가 전자 장치(110)와 디스플레이 장치(130) 간의 통신이 가능하도록 할 수 있다. 또 다른 예로, 전자 장치(110)와 디스플레이 장치(130)간의 통신 방식이 동일할 경우 통신 보드(140)는 보정 시스템(101)에 포함되지 않을 수 있다.The communication board 140 may be a board for communication between the electronic device 110 and the display device 130 . Referring to FIG. 1 , the communication board 140 may or may not be included in the calibration system 101 according to the communication method of the electronic device 110 and the display device 130 . The communication board 140 may enable communication between the electronic device 110 and the display device 130 when communication methods between the electronic device 110 and the display device 130 are different, and the correction system 101 can be included For example, when an SPI communication method or an I2C communication method is applied to the display device 130, but a communication method different from that of the display device 130 is applied to the electronic device 110, the communication board 140 uses the electronic device 110 ) and the display device 130 can be communicated. As another example, if the communication method between the electronic device 110 and the display device 130 is the same, the communication board 140 may not be included in the calibration system 101 .

예를 들어, 통신 보드(140)는 도 1과 같이 독립적인 장치일 수 있으며, 도시되지 않았으나, 통신 보드(140)는 통신 인터페이스를 포함할 수 있다. 또 다른 예로, 통신 보드(140)는 전자 장치(110)에 부착되거나 또는 디스플레이 장치(130)에 부착될 수도 있다.For example, the communication board 140 may be an independent device as shown in FIG. 1 and, although not shown, the communication board 140 may include a communication interface. As another example, the communication board 140 may be attached to the electronic device 110 or the display device 130 .

다양한 실시 예에 따르면, 외부 디스플레이 장치의 화면 보정 장치에 있어서, 카메라 및 상기 외부 디스플레이 장치와 통신 가능하게 연결된 통신 모듈과; 상기 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하고, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하며, 상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하도록 설정된 프로세서를 포함할 수 있다.According to various embodiments, an apparatus for calibrating a screen of an external display device may include: a camera and a communication module communicatively connected to the external display device; First correction data for correcting the screen is generated using first image data for each pixel of each of the divided images of the first image displayed on the external display device obtained by using the camera, and the first correction data Provided to the display device, a second correction for correcting the screen using second image data for each pixel of a second image corresponding to the first correction data displayed on the display device obtained using the camera It may include a processor configured to generate data.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 제1 보정 데이터와 상기 제2 보정 데이터를 이용하여 최종 보정 데이터를 생성하는 것을 더 포함할 수 있다.According to various embodiments, the processor may further include generating final correction data using the first correction data and the second correction data.

다양한 실시 예에 따르면, 상기 화소별 제1 영상 데이터는, 상기 화소별 제1 휘도 값을 포함하며, 상기 화소별 제2 영상 데이터는, 상기 화소별 제2 휘도 값을 포함할 수 있다.According to various embodiments, the first image data for each pixel may include a first luminance value for each pixel, and the second image data for each pixel may include a second luminance value for each pixel.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 화소별 제1 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 기준 휘도 값에 대한 상기 제1 휘도 값 간의 편차를 보정하기 위한 상기 1차 보정 데이터를 생성하며, 상기 화소별 제2 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 기준 휘도 값에 대한 상기 제2 휘도 값 간의 편차를 보정하기 위한 상기 2차 보정 데이터를 생성하는 것을 포함할 수 있다.According to various embodiments, the processor may use the ratio of the reference luminance value for each pixel to the first luminance value for each pixel to correct the deviation between the reference luminance value and the first luminance value. The second correction data for generating difference correction data and correcting a deviation between the reference luminance value and the second luminance value by using a ratio of the reference luminance value per pixel to the second luminance value per pixel. may include generating

다양한 실시 예에 따르면, 상기 화소별 제1 영상 데이터는, 상기 화소별 제1 색좌표 값을 포함하며, 상기 화소별 제2 영상 데이터는, 상기 화소별 제2 색좌표 값을 포함할 수 있다.According to various embodiments, the first image data for each pixel may include a first color coordinate value for each pixel, and the second image data for each pixel may include a second color coordinate value for each pixel.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 화소별 제1 색좌표 값에 대한 상기 화소별 기준 색 좌표 값의 비율을 이용하여, 상기 기준 색 좌표 값에 대한 상기 제1 색좌표 값 간의 편차를 보정하기 위한 상기 1차 보정 데이터를 생성하며, 상기 화소별 제2 색좌표 값에 대한 상기 화소별 기준 색 좌표 값의 비율을 이용하여, 상기 기준 색 좌표 값에 대한 상기 제2 색좌표 값 간의 편차를 보정하기 위한 상기 1차 보정 데이터를 생성하는 것을 포함할 수 있다.According to various embodiments of the present disclosure, the processor may be configured to correct a deviation between the reference color coordinate value and the first color coordinate value by using a ratio of the reference color coordinate value for each pixel to the first color coordinate value for each pixel. generating the primary correction data, and correcting a deviation between the reference color coordinate value and the second color coordinate value by using a ratio of the reference color coordinate value for each pixel to the second color coordinate value for each pixel; It may include generating primary correction data.

다양한 실시 예에 따르면, 상기 디스플레이 장치의 적어도 일부 화면에는, 화이트 색상의 영상이 표시되거나, 또는 R, G, B 색상 별 영상이 표시될 수 있다.According to various embodiments, an image of white color or an image of R, G, and B colors may be displayed on at least a portion of the screen of the display device.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 화이트 색상의 영상 또는 상기 R, G, B 색상 별 영상을 이용하여, 상기 디스플레이 장치의 화면의 R, G, B 색상 각각에 대해 상기 화소별 제1 영상 데이터를 획득하며, 상기 화이트 색상의 영상 또는 상기 R, G, B 색상 별 영상을 이용하여, 상기 디스플레이 장치의 화면의 R, G, B 색상 각각에 대해 상기 화소별 제2 영상 데이터를 획득할 수 있다.According to various embodiments, the processor may use the white color image or the R, G, and B color image for each of the R, G, and B colors of the screen of the display device to determine the first image for each pixel. data, and second image data for each pixel of the R, G, and B colors of the screen of the display device may be obtained using the white color image or the R, G, and B color image. there is.

다양한 실시 예에 따르면, 상기 카메라는, 로봇 장치에 포함될 수 있다.According to various embodiments, the camera may be included in a robot device.

다양한 실시 예에 따르면, 상기 카메라를 이용하여 상기 디스플레이 장치에 출력되는 패턴 영상이 획득되면, 상기 로봇 장치에 의해 상기 패턴 영상을 이용하여 상기 디스플레이 장치의 화면이 촬영될 지점이 설정될 수 있다.According to various embodiments, when a pattern image output to the display device is obtained using the camera, a point at which the screen of the display device is captured may be set by the robot device using the pattern image.

다양한 실시 예에 따르면, 상기 디스플레이 장치는, 복수의 디스플레이 모듈들로 구성되며, 로봇 장치에 의해 상기 복수의 디스플레이 모듈들 중 불량 디스플레이 모듈이 정상 디스플레이 모듈로 교체될 수 있다.According to various embodiments, the display device is composed of a plurality of display modules, and a defective display module among the plurality of display modules may be replaced with a normal display module by a robot device.

다양한 실시 예에 따르면, 상기 로봇 장치는, 카메라를 포함하며, 상기 로봇 장치에 포함된 카메라에 의해, 상기 불량 디스플레이 모듈의 위치가 감지되며, 상기 로봇 장치에 포함된 카메라에 의해, 상기 교체된 정상 디스플레이 모듈의 동작 상태가 확인될 수 있다.According to various embodiments, the robot device includes a camera, the position of the defective display module is detected by the camera included in the robot device, and the replaced normal display module is detected by the camera included in the robot device. An operating state of the display module may be confirmed.

도 5는 다양한 실시 예에 따른 디스플레이 장치의 보정 동작의 흐름도이다. 도 5를 참조하면, 전자 장치(51)가 디스플레이 장치(53)의 화소별 제1 영상 데이터를 확보하여, 이를 근거로 화소별 1차 보정 데이터를 계산할 수 있다. 상기 화소별 1차 보정 데이터를 디스플레이 장치(53)에 반영한 뒤, 전자 장치(51), 카메라(52), 및 디스플레이 장치(53)의 동작들에 따라 디스플레이 장치(53)에 대한 추가 보정 동작이 수행될 수 있다. 상기 추가 보정 동작은 디스플레이 장치(53)가 일정한 휘도(또는 밝기) 및/또는 색상의 화소별 보정된 영상을 출력하고 지정된 시간(예: 최소 5분 이상)을 에이징(aging)한 이후 카메라(52)가 디스플레이 장치(53)의 전체 화면을 촬영하는 동작을 통해 진행할 수 있다. 전자 장치(51)가 촬영된 디스플레이 장치(53)의 전체 화면에서 각 화소별 휘도 및/또는 색상의 변화를 획득하여 화소별 2차 보정 데이터를 계산 할 수 있으며, 이전에 1차 보정 데이터가 반영된 디스플레이 장치(53)는 2차 보정 데이터를 추가로 반영할 수 있다.5 is a flowchart of a calibration operation of a display device according to various embodiments. Referring to FIG. 5 , the electronic device 51 may obtain first image data for each pixel of the display device 53 and calculate first correction data for each pixel based on this. After reflecting the primary correction data for each pixel on the display device 53, an additional correction operation for the display device 53 is performed according to the operations of the electronic device 51, the camera 52, and the display device 53. can be performed The additional correction operation is performed after the display device 53 outputs an image calibrated for each pixel of a constant luminance (or brightness) and/or color and after aging for a specified time (eg, at least 5 minutes or more), the camera 52 ) may proceed through an operation of capturing the entire screen of the display device 53. In the entire screen of the display device 53 where the electronic device 51 is photographed, the change in luminance and/or color of each pixel may be obtained to calculate secondary correction data for each pixel, and the primary correction data may be previously reflected. The display device 53 may additionally reflect secondary correction data.

505 동작에서 디스플레이 장치(53)는 영상을 출력할 수 있다. In operation 505, the display device 53 may output an image.

일 실시 예에 따르면, 디스플레이 장치(53)는 R(red), G(green), B(blue) 색상의 영상을 각각 출력할 수 있다. 또는, 디스플레이 장치(53)는 W(white) 색상의 영상을 출력할 수 있다.According to an embodiment, the display device 53 may output R (red), G (green), and B (blue) color images, respectively. Alternatively, the display device 53 may output a white (W) color image.

일 실시 예에 따르면, 디스플레이 장치(53)가 LED 디스플레이 장치일 때, LED 소자들 전체를 동시에 온(on)시켜서 전체 영상을 출력할 수 있다. 또는, 디스플레이 장치(53)가 LED 소자들을 분할하여 온 시켜서 복수의 분할 영상들(패턴 영상들이라고도 함)을 각각 출력할 수 있다. According to an embodiment, when the display device 53 is an LED display device, all of the LED elements may be simultaneously turned on to output an entire image. Alternatively, the display device 53 may divide and turn on the LED elements to output a plurality of divided images (also referred to as pattern images), respectively.

510 동작에서 카메라(52)는 디스플레이 장치(53)의 화면에 표시된 영상을 촬영하여 분할 영상들을 획득 할 수 있다.In operation 510, the camera 52 may obtain divided images by capturing an image displayed on the screen of the display device 53.

일 실시 예에 따르면, 촬영된 영상에 모아레 패턴이 발생되는 것을 방지하기 위해, 디스플레이 장치(53)가 영상을 전체 화면에 출력하면, 카메라(52)는 디스플레이 장치(53)의 화면에 표시된 영상을 분할하여 여러 번 촬영할 수 있다. According to an embodiment, in order to prevent a moiré pattern from occurring in a captured image, when the display device 53 outputs an image on the entire screen, the camera 52 captures the image displayed on the screen of the display device 53. You can split and take multiple shots.

예를 들면, 디스플레이 장치(53)가 R, G, B 색상의 영상을 각각 전체 화면으로 출력하면, 카메라(52)는 R, G, B 색상의 영상이 각각 표시된 디스플레이 장치(53)의 전체 화면을 분할하여 촬영할 수 있다. 이에 따라, 카메라(52)는 R, G, B 영상 각각에 대한 분할 영상들을 획득할 수 있다. For example, when the display device 53 outputs images of R, G, and B colors on a full screen, the camera 52 displays the entire screen of the display device 53 on which the images of R, G, and B colors are respectively displayed. can be divided and taken. Accordingly, the camera 52 may obtain divided images for each of the R, G, and B images.

또 다른 예로, 디스플레이 장치(53)가 W 색상의 영상을 전체 화면으로 출력하면, 카메라(52)는 W 색상의 영상이 표시된 디스플레이 장치(53)의 전체 화면을 분할하여 촬영할 수 있다. 또한, 카메라(52)는 카메라(52)의 컬러 필터(color filter)를 이용하여, W 색상의 분할 영상들 각각에서 R, G, B 색상의 영상을 추출할 수 있다.As another example, if the display device 53 outputs a W color image on the entire screen, the camera 52 may divide and capture the entire screen of the display device 53 displaying the W color image. In addition, the camera 52 may extract images of R, G, and B colors from each of the divided images of W color by using a color filter of the camera 52 .

다른 실시 예에 따르면, 촬영된 영상에 모아레 패턴이 발생되는 것을 방지하기 위해, 디스플레이 장치(53)가 디스플레이 장치(53)의 전체 화면을 분할하여 여러 번 출력할 수 있으며, 이에 따라 카메라(52)는 디스플레이 장치(53)의 분할된 화면들을 각각 촬영할 수 있다. According to another embodiment, in order to prevent a moiré pattern from occurring in a captured image, the display device 53 may divide the entire screen of the display device 53 and output the divided screen several times, and accordingly, the camera 52 may capture each of the divided screens of the display device 53.

예를 들어 디스플레이 장치(53)는 패턴 영상들을 각각 출력할 수 있다. 상기 패턴 영상들 각각은 최소한 2개 이상의 화소 간격 별로 화소들이 출력되도록 하는 영상들로, 각각의 영상들은 서로 다른 화소들이 출력되도록 할 수 있다. 또한, 상기 패턴 영상들 각각은 바둑판 형태로 점 혹은 선형 패턴의 영상 등 디스플레이 장치(53)의 화소 위치 구분이 가능하도록 미리 지정된 영상일 수 있다.For example, the display device 53 may output pattern images, respectively. Each of the pattern images is images in which pixels are output at intervals of at least two or more pixels, and each image may output different pixels. In addition, each of the pattern images may be a pre-designated image such as a dotted or linear pattern image in a checkerboard form so that pixel positions of the display device 53 can be distinguished.

예를 들어, 디스플레이 장치(53)가 R, G, B 색상의 영상 각각에 대해 미리 결정된 패턴 영상들 각각을 출력할 수 있으며, 카메라(52)는 디스플레이 장치(53)의 화면에 표시되는 패턴 영상들 각각을 촬영할 수 있다. 이에 따라, 카메라(52)는 R, G, B 영상 각각에 대한 분할 영상들을 획득할 수 있다. For example, the display device 53 may output predetermined pattern images for each of R, G, and B color images, and the camera 52 may output pattern images displayed on the screen of the display device 53. Each of them can be photographed. Accordingly, the camera 52 may obtain divided images for each of the R, G, and B images.

또 다른 예로, 디스플레이 장치(53)가 W 색상의 영상에 대해 미리 결정된 패턴 영상들을 각각 출력할 수 있으며, 카메라(52)는 디스플레이 장치(53)의 화면에 표시되는 패턴 영상들 각각을 촬영할 수 있다. 이에 따라, 카메라(52)는 W 색상에 대한 분할 영상들을 획득할 수 있다. 또한, 카메라(52)는 컬러 필터를 이용하여 W 색상의 분할 영상들 각각에서 R, G, B 색상의 영상을 추출할 수 있다.As another example, the display device 53 may output predetermined pattern images for W color images, and the camera 52 may capture each of the pattern images displayed on the screen of the display device 53. . Accordingly, the camera 52 may obtain segmented images for color W. In addition, the camera 52 may extract images of R, G, and B colors from each of the divided images of W color by using a color filter.

515 동작에서 전자 장치(51)는 카메라(52)로부터 촬영 영상을 수신할 수 있다.In operation 515, the electronic device 51 may receive a photographed image from the camera 52.

520 동작에서 전자 장치(51)는 상기 촬영 영상을 이용하여 디스플레이 장치(53)의 화면의 화소별 제1 영상 데이터를 획득할 수 있다. In operation 520, the electronic device 51 may obtain first image data for each pixel of the screen of the display device 53 using the photographed image.

예를 들어, 상기 제1 영상 데이터는, 디스플레이 장치(53)가 출력한 영상의 휘도 및/또는 색상 정보(값)일 수 있다. 또 다른 예로, 상기 제1 영상 데이터는 디스플레이 장치(53)가 출력한 영상의 명도(휘도)와 채도를 수치화한 색좌표일 수 있다. 예를 들어, 전자 장치(51)는 R, G, B 색상마다 화소별 제1 영상 데이터의 값에 대한 테이블을 생성하여 저장할 수 있다.For example, the first image data may be luminance and/or color information (value) of an image output by the display device 53 . As another example, the first image data may be color coordinates obtained by digitizing brightness (luminance) and saturation of an image output by the display device 53 . For example, the electronic device 51 may create and store a table of values of the first image data for each pixel for each R, G, and B color.

일 실시 예에 따르면, 디스플레이 장치(53)의 전체 화면을 분할 촬영하여 획득한 분할 영상들에 대해서는, 전자 장치(51)는 분할 영상들, 분할 영상들 각각에 대응하는 디스플레이 장치(53)의 해상도 정보, 및/또는 카메라(52)의 해상도 정보를 이용하여, 디스플레이 장치(53)의 화면의 화소별 제1 영상 데이터를 획득할 수 있다. 예를 들어, 전자 장치(51)는 분할 영상들 각각에 대응하는 디스플레이 장치(53)의 해상도 및 카메라(52)의 해상도의 비율에 기반하여 디스플레이 장치(53)의 화면의 화소들 각각의 위치를 판별하여, 디스플레이 장치(53)의 화면의 화소별 제1 영상 데이터를 획득할 수 있다. 상기 분할 영상들 각각에 대응하는 디스플레이 장치(53)의 해상도 정보 및 카메라(52)의 해상도 정보는 카메라(52)로부터 수신할 수 있거나, 사용자에 의해 입력 되거나, 또는 전자 장치(51)에 미리 저장될 수 있다.According to an embodiment, for split images obtained by dividing and photographing the entire screen of the display device 53, the electronic device 51 determines the split images and the resolution of the display device 53 corresponding to each of the split images. First image data for each pixel of the screen of the display device 53 may be obtained using information and/or resolution information of the camera 52 . For example, the electronic device 51 determines the position of each pixel of the screen of the display device 53 based on the ratio of the resolution of the display device 53 and the resolution of the camera 52 corresponding to each of the divided images. By determining, first image data for each pixel of the screen of the display device 53 may be obtained. Resolution information of the display device 53 and resolution information of the camera 52 corresponding to each of the divided images may be received from the camera 52, input by a user, or previously stored in the electronic device 51. It can be.

다른 실시 예에 따르면, 디스플레이 장치(53)가 복수의 패턴 영상들을 각각 출력하여, 카메라(52)가 패턴 영상들을 각각 촬영하여 획득한 분할 영상들에 대해서는, 전자 장치(51)는 패턴 영상들을 이용하여 디스플레이 장치(53)의 화면의 화소별 제1 영상 데이터를 획득할 수 있다. 상기 패턴 영상은 최소한 2개 이상의 화소 간격을 가지는 점 혹은 선형 패턴의 영상 등 디스플레이 장치(53)의 화소별 위치 구분이 가능하도록 미리 지정된 영상일 수 있다. 예를 들어, 상기 패턴 영상은, 바둑판 형태일 수 있다. According to another embodiment, the display device 53 outputs a plurality of pattern images, and the electronic device 51 uses the pattern images for divided images obtained by photographing the pattern images respectively by the camera 52. Thus, first image data for each pixel of the screen of the display device 53 may be acquired. The pattern image may be a dotted image with at least two or more pixel intervals or a linear pattern image, which is designated in advance so that the location of each pixel of the display device 53 can be distinguished. For example, the pattern image may have a checkerboard shape.

525 동작에서 전자 장치(51)는 화소별 제1 영상 데이터를 이용하여 화소별 1차 보정 데이터를 생성할 수 있다.In operation 525, the electronic device 51 may generate first correction data for each pixel using the first image data for each pixel.

예를 들어, 전자 장치(51)는 종래의 영상 데이터를 보정하기 위한 기술(예: 휘도 및/또는 색상 보정 기술)을 이용하여, 기준 영상 데이터와 제1 영상 데이터 간의 편차를 보정하기 위한 1차 보정 데이터를 생성할 수 있다. 전자 장치(51)는 종래의 보간법을 이용하여, 화소별 1차 보정 데이터를 생성할 수 있다.For example, the electronic device 51 performs a first step for correcting a deviation between the reference image data and the first image data by using a conventional image data correction technology (eg, luminance and/or color correction technology). Calibration data can be generated. The electronic device 51 may generate primary correction data for each pixel using a conventional interpolation method.

상기 화소별 제1 영상 데이터가 제1 휘도 값일 때, 상기 화소별 1차 보정 데이터는, 화소별 색상 값(예, R, G, 또는 B 색상 값)의 기준 휘도 값에 대한 제1 휘도 값 간의 편차를 보정하기 위한 데이터일 수 있다. 전자 장치(51)는 화소별 제1 휘도 값에 대한 기준 휘도 값의 비율을 이용하여 화소 별로 휘도 값을 보정하기 위한 화소별 1차 보정 데이터를 생성할 수 있다.When the first image data for each pixel is a first luminance value, the primary correction data for each pixel is the interval between the first luminance value and the reference luminance value of the color value (eg, R, G, or B color value) for each pixel. It may be data for correcting the deviation. The electronic device 51 may generate first correction data for each pixel for correcting the luminance value for each pixel using a ratio of the reference luminance value to the first luminance value for each pixel.

또는, 상기 화소별 제1 영상 데이터가 명도(휘도)와 채도를 수치화한 제1 색 좌표일 때, 상기 화소별 1차 보정 데이터는, 화소별 색상 값의 기준 색 좌표에 대한 제1 색 좌표 간의 편차를 보정하기 위한 데이터일 수 있다. 전자 장치(51)는 제1 색 좌표 및 기준 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환하여, 기준 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환한 값과 제1 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환한 값 간의 비율을 이용하여 화소별 색 좌표를 보정하기 위한 화소별 1차 보정 데이터를 생성할 수 있다. 원색(primary color)만 이용하여 보정하는 경우에는 상술한 것과 같이 화소별 1차 보정 데이터를 계산할 수 있으나, 보다 정확한 색 좌표 변환을 위해 3 by 3 matrix를 이용하여 색좌표를 변환할 수도 있다.Alternatively, when the first image data for each pixel is first color coordinates obtained by digitizing lightness (luminance) and saturation, the primary correction data for each pixel is the first color coordinate between the reference color coordinates of the color value for each pixel. It may be data for correcting the deviation. The electronic device 51 converts the first color coordinates and the reference color coordinates into an RGB or XYZ color coordinate system, converts the value obtained by converting the reference color coordinates into an RGB or XYZ color coordinate system, and converts the first color coordinates into an RGB or XYZ color coordinate system First correction data for each pixel for correcting color coordinates for each pixel may be generated using a ratio between values. In the case of correction using only primary colors, primary correction data for each pixel may be calculated as described above, but color coordinates may be converted using a 3 by 3 matrix for more accurate color coordinate conversion.

530 동작에서 전자 장치(51)는 화소별 1차 보정 데이터를 디스플레이 장치(53)에 전송할 수 있다.In operation 530, the electronic device 51 may transmit primary correction data for each pixel to the display device 53.

535 동작에서 디스플레이 장치(53)는 화소별 1차 보정 데이터가 반영된 영상을 출력할 수 있다. In operation 535, the display device 53 may output an image in which the primary correction data for each pixel is reflected.

예를 들면, 디스플레이 장치(53)는 화소별 1차 보정 데이터가 적용된 R(red), G(green), B(blue) 색상의 영상을 각각 출력할 수 있다. 또 다른 예로, 디스플레이 장치(53)는 화소별 1차 보정 데이터가 적용된 W(white) 색상의 영상을 출력할 수 있다.For example, the display device 53 may output R (red), G (green), and B (blue) color images to which primary correction data for each pixel is applied. As another example, the display device 53 may output a W (white) color image to which primary correction data for each pixel is applied.

상술한 510 내지 535 동작에 따르면, 화소별 1차 보정 데이터가 반영된 영상은 후술하는 디스플레이 장치(53) 및 카메라(52)의 특성에 따라, 화소별로 밝기 및/또는 색상의 균일도가 저하되는 문제가 있다. According to the above-described operations 510 to 535, the image to which the primary correction data for each pixel is reflected has a problem in that the brightness and/or color uniformity of each pixel is lowered according to the characteristics of the display device 53 and the camera 52 described later. there is.

예를 들어, 디스플레이 장치(53)는 시간 별로 광원 소자의 온도가 바뀌게 되며 이로 인해 광원 소자 별로 밝기가 변경될 수 있다. 또한, 디스플레이 장치(53)에 LED 소자가 적용된 경우 LED 소자의 온 상태가 유지되면 온도가 상승하게 되며, 이로 인해 광량이 감소하는 특성을 가진다. 또한, 디스플레이 장치(53)의 일부 광원 소자가 점등하거나 또는 디스플레이 장치(53)의 전체 광원 소자가 점등할 때의 디스플레이 장치(53)의 온도 분포가 상이하게 되어 광원 소자의 위치 별로 밝기가 다른 현상이 발생한다. 상술한 디스플레이 장치(53)의 시간 별 및/또는 점등 방식 별 특성 이외에도 카메라(52)의 감도는 시간 별로 달라지는 특성을 가진다.For example, in the display device 53, the temperature of the light source element changes according to time, and as a result, the brightness of each light source element may be changed. In addition, when the LED element is applied to the display device 53, the temperature rises when the on state of the LED element is maintained, thereby reducing the amount of light. In addition, when some light source elements of the display device 53 or all light source elements of the display device 53 are turned on, the temperature distribution of the display device 53 is different, so that the brightness varies according to the position of the light source elements. this happens In addition to the above-described characteristics of the display device 53 for each time and/or lighting method, the sensitivity of the camera 52 has a characteristic that varies according to time.

상술한 디스플레이 장치(53) 및 카메라(52)의 특성에 따라, 발생되는 화소별 밝기 및/또는 색상의 균일도의 저하 문제를 해결하여 디스플레이 장치(53)의 최적의 화질을 위해, 후술하는 540 내지 560 동작을 통해 화소별 2차 보정 데이터를 생성하는 추가 동작을 실행할 수 있다.According to the characteristics of the display device 53 and the camera 52 described above, in order to achieve optimal image quality of the display device 53 by solving the problem of deterioration in the uniformity of brightness and/or color of each pixel, the 540 to 540 to Through operation 560, an additional operation of generating secondary correction data for each pixel may be executed.

540 동작에서 디스플레이 장치(53)는 화면 에이징(aging)을 할 수 있다. 일 실시 예에 따르면, 디스플레이 장치(53)는 지정된 시간 동안 상기 화소별 1차 보정 데이터가 반영된 영상 출력을 유지할 수 있다. 예를 들어, R 색상의 영상을 출력한 후 지정된 시간 동안 R 색상의 영상 출력을 유지할 수 있으며, G 색상의 영상을 출력한 후 지정된 시간 동안 G 색상의 출력을 유지할 수 있으며, 또한 B 색상의 영상을 출력한 후 지정된 시간 동안 B 색상의 출력을 유지할 수 있다. 또 다른 예로, W 색상의 영상을 출력한 후 지정된 시간 동안 W 색상의 출력을 유지할 수 있다.In operation 540, the display device 53 may perform screen aging. According to an embodiment, the display device 53 may maintain the image output to which the primary correction data for each pixel is reflected for a specified period of time. For example, after outputting the R color video, the R color video output can be maintained for a specified period of time, and the G color video output can be maintained for a specified period of time after the G color video output, and also the B color video output can be maintained. After outputting, the output of color B can be maintained for a specified period of time. As another example, after outputting a W color image, the W color output may be maintained for a specified time.

545 동작에서 카메라(52)는 디스플레이 장치(53)의 화면에 표시된 영상을 촬영하여 디스플레이 장치(53)의 전체 화면의 영상을 획득할 수 있다.In operation 545, the camera 52 may acquire an image of the entire screen of the display device 53 by capturing an image displayed on the screen of the display device 53.

예를 들어, 디스플레이 장치(53)가 R, G, B 색상의 영상 각각을 전체 화면으로 출력한 이후 각각 지정된 시간이 경과되면, 카메라(52)는 R, G, B 색상의 영상 각각을 촬영하여 R, G, B 색상의 영상을 획득할 수 있다.For example, when a designated time elapses after the display device 53 outputs each of the R, G, and B color images in full screen, the camera 52 captures the R, G, and B color images, respectively. Images of R, G, and B colors can be obtained.

또 다른 예로, 디스플레이 장치(53)가 W 색상의 영상을 전체 화면으로 출력한 이후 지정된 시간이 경과되면 카메라(52)는 W 색상의 영상을 촬영하여 W 색상의 영상을 획득할 수 있다. 또한, 카메라(52)는 카메라(52)의 컬러 필터를 이용하여, W 색상의 영상에서 R, G, B 색상의 영상을 추출할 수 있다.As another example, when a specified time elapses after the display device 53 outputs the W color image on the entire screen, the camera 52 may acquire the W color image by capturing the W color image. In addition, the camera 52 may extract R, G, and B color images from the W color image using the color filter of the camera 52 .

일 실시 예에 따르면, 모아레 패턴이 발생되는 것을 방지하기 위해, 카메라(52)는 디포커스(defocus) 촬영을 통해 디스플레이 장치(53)의 화면에 표시된 영상을 획득할 수 있다. 이와 같은 경우, 디스플레이 장치(53)는 화소별 1차 보정 데이터가 반영된 영상을 출력한 이후 또는 이전에 디스플레이 장치(53)의 각 화소의 정확한 위치 파악이 가능하도록 미리 지정된 패턴 영상을 출력할 수 있으며, 카메라(52)는 상기 패턴 영상을 촬영하여 획득할 수 있다. 상기 패턴 영상은 디스플레이 패널 제작 공정에서 발생하는 간격 편차 및 열, 외력에 의한 변화 등에 따라, 디스플레이 장치(53)의 화소별 간격이 다르거나, 카메라(52) 촬영 시 디스플레이 장치(53)와 수직 및/또는 수평이 틀어지거나, 또는 카메라(52)의 렌즈 왜곡이 있는 등 여러 왜곡 현상이 혼재되어 있을 경우, 디스플레이 장치(53)의 화소 위치 및 촬영 영상의 화소 위치간 연결 작업을 통해 왜곡된 영상의 보정에 이용되도록 미리 설정된 영상일 수 있다. 상기 패턴 영상은 최소한 2개 이상의 화소 간격을 가지는 영상으로 바둑판 형태로 점 혹은 선형 패턴의 영상일 수 있다.According to an embodiment, in order to prevent the moiré pattern from occurring, the camera 52 may obtain an image displayed on the screen of the display device 53 through defocus photography. In this case, the display device 53 may output a predetermined pattern image to enable accurate positioning of each pixel of the display device 53 after or before outputting an image in which the primary correction data for each pixel is reflected. , The camera 52 may capture and obtain the pattern image. The pattern image may have a different spacing between pixels of the display device 53 or may be perpendicular and /or When various distortion phenomena are mixed, such as a horizontal misalignment or a lens distortion of the camera 52, the distorted image is obtained by connecting the pixel positions of the display device 53 and the pixel positions of the captured image. It may be a preset image to be used for correction. The pattern image is an image having at least two or more pixel intervals, and may be a dotted or linear pattern image in a checkerboard form.

다른 실시 예에 따르면, 카메라(52)의 사양에 따라, 카메라(52)가 포커스 촬영을 한 경우에도 모아레 패턴이 발생되지 않은 디스플레이 장치(53)의 화면에 표시된 영상을 획득할 수 있다.According to another embodiment, according to specifications of the camera 52, an image displayed on the screen of the display device 53 without generating a moiré pattern may be acquired even when the camera 52 performs focus photography.

550 동작에서 전자 장치(51)는 카메라(52)로부터 촬영 영상을 수신할 수 있다.In operation 550, the electronic device 51 may receive a photographed image from the camera 52.

555 동작에서 전자 장치(51)는 상기 촬영 영상을 이용하여 디스플레이 장치(53)의 화면의 화소별 제2 영상 데이터를 획득할 수 있다.In operation 555, the electronic device 51 may obtain second image data for each pixel of the screen of the display device 53 using the photographed image.

예를 들어, 상기 제2 영상 데이터는, 디스플레이 장치(53)가 출력한 영상의 휘도 및/또는 색상 정보(값)일 수 있다. 또 다른 예로, 상기 제2 영상 데이터는 디스플레이 장치(53)가 출력한 영상의 명도(휘도)와 채도를 수치화한 색좌표일 수 있다. 예를 들어, 전자 장치(51)는 R, G, B 색상마다 화소별 제2 영상 데이터의 값에 대한 테이블을 생성하여 저장할 수 있다.For example, the second image data may be luminance and/or color information (value) of an image output by the display device 53 . As another example, the second image data may be color coordinates obtained by digitizing brightness (luminance) and saturation of the image output by the display device 53 . For example, the electronic device 51 may generate and store a table of values of the second image data for each pixel for each R, G, and B color.

일 실시 예에 따르면, 카메라(52)가 디포커스(defocus) 촬영을 통해 디스플레이 장치(53)의 화면에 표시된 영상을 획득하고, 패턴 영상을 획득하여 전자 장치(51)에 전송하면, 전자 장치(51)는 디포커스 촬영된 영상 및 패턴 영상을 이용하여 디스플레이 장치(53)의 화면의 화소별 제2 영상 데이터를 획득할 수 있다. 예를 들어, 전자 장치(51)는 상기 패턴 영상을 이용하여 디포커스 촬영에 따라 획득된 영상의 왜곡 보정 및 디스플레이 장치(53)의 화소별 위치와 디포커스 촬영된 영상의 화소별 위치 간의 연결 작업을 하여 디포커스 촬영된 영상의 화소들을 구분할 수 있다. 또한, 상기 제2 영상 데이터는, 디포커스 촬영에 따라 인접 화소들의 제2 영상 데이터 값들의 평균한 값이 될 수 있다.According to an embodiment, when the camera 52 obtains an image displayed on the screen of the display device 53 through defocus photography and transmits the obtained pattern image to the electronic device 51, the electronic device ( 51) may obtain second image data for each pixel of the screen of the display device 53 using the defocused image and the pattern image. For example, the electronic device 51 performs distortion correction of an image acquired according to defocus shooting using the pattern image and a connection between the position of each pixel of the display device 53 and the position of each pixel of the defocus photographed image. It is possible to distinguish pixels of a defocused image by doing. Also, the second image data may be an average value of second image data values of adjacent pixels according to defocus photography.

다른 실시 예에 따르면, 카메라(52)가 포커스 촬영을 한 영상을 전자 장치(51)에 전송하면, 전자 장치(51)는 촬영 영상, 디스플레이 장치(53)의 해상도 정보, 및/또는 카메라(52)의 해상도 정보를 이용하여, 디스플레이 장치(53)의 화면의 화소별 제2 영상 데이터를 획득할 수 있다.According to another embodiment, when the camera 52 transmits a focused image captured by the electronic device 51, the electronic device 51 transmits the photographed image, resolution information of the display device 53, and/or the camera 52 ), second image data for each pixel of the screen of the display device 53 may be obtained.

560 동작에서 전자 장치(51)는 화소별 제2 영상 데이터를 이용하여 화소별 2차 보정 데이터를 생성할 수 있다.In operation 560, the electronic device 51 may generate secondary correction data for each pixel using the second image data for each pixel.

예를 들어, 전자 장치(51)는 종래의 영상 데이터를 보정하기 위한 기술(예: 휘도 및/또는 색상 보정 기술)을 이용하여, 기준 영상 데이터와 제2 영상 데이터 간의 편차를 보정하기 위한 2차 보정 데이터를 생성할 수 있다. 전자 장치(51)는 종래의 보간법을 이용하여, 화소별 2차 보정 데이터를 생성할 수 있다.For example, the electronic device 51 uses a conventional technique for correcting image data (eg, luminance and/or color correction technology) to perform a secondary process for correcting a deviation between the reference image data and the second image data. Calibration data can be generated. The electronic device 51 may generate secondary correction data for each pixel using a conventional interpolation method.

상기 화소별 제2 영상 데이터가 제2 휘도 값일 때, 상기 화소별 2차 보정 데이터는, 화소별 색상 값(예, R, G, 또는 B 색상 값)의 기준 휘도 값에 대한 제2 휘도 값 간의 편차를 보정하기 위한 데이터일 수 있다. 전자 장치(51)는 화소별 제2 휘도 값에 대한 기준 휘도 값의 비율을 이용하여 화소 별로 휘도 값을 보정하기 위한 화소별 2차 보정 데이터를 생성할 수 있다.When the second image data for each pixel is the second luminance value, the secondary correction data for each pixel is the interval between the second luminance value and the reference luminance value of the color value (eg, R, G, or B color value) for each pixel. It may be data for correcting the deviation. The electronic device 51 may generate secondary correction data for each pixel for correcting the luminance value for each pixel using a ratio of the reference luminance value to the second luminance value for each pixel.

또는, 상기 화소별 제2 영상 데이터가 명도(휘도)와 채도를 수치화한 제2 색 좌표일 때, 상기 화소별 2차 보정 데이터는, 화소별 색상 값의 기준 색 좌표에 대한 제1 색 좌표 간의 편차를 보정하기 위한 데이터일 수 있다. 전자 장치(51)는 제2 색 좌표 및 기준 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환하여, 기준 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환한 값과 제2 색 좌표를 RGB 또는 XYZ 색 좌표계로 변환한 값 간의 비율을 이용하여 화소별 색 좌표를 보정하기 위한 화소별 2차 보정 데이터를 생성할 수 있다. 원색(primary color)만 이용하여 보정하는 경우에는 상술한 것과 같이 화소별 2차 보정 데이터를 계산할 수 있으나, 보다 정확한 색 좌표 변환을 위해 3 by 3 matrix를 이용하여 색좌표를 변환할 수도 있다.Alternatively, when the second image data for each pixel is second color coordinates obtained by digitizing lightness (luminance) and saturation, the secondary correction data for each pixel is the difference between the first color coordinates and the reference color coordinates of the color value for each pixel. It may be data for correcting the deviation. The electronic device 51 converts the second color coordinates and the reference color coordinates into an RGB or XYZ color coordinate system, converts the value obtained by converting the reference color coordinates into an RGB or XYZ color coordinate system, and converts the second color coordinates into an RGB or XYZ color coordinate system Secondary correction data for each pixel for correcting color coordinates for each pixel may be generated using a ratio between values. In the case of correction using only primary colors, secondary correction data for each pixel may be calculated as described above, but color coordinates may be converted using a 3 by 3 matrix for more accurate color coordinate conversion.

상술한 실시 예에 따르면, 모아레 패턴의 발생 문제에 따라, 카메라(52)의 렌즈의 초점을 인위적으로 디포커스하여 디스플레이 장치(53)의 화면의 전체 영상을 촬영하면, 각 화소별 제2 영상 데이터는, 주변의 인접한 화소들의 제2 영상 데이터들의 평균 값이 될 수 있다. 이에 따라, 2차 보정 데이터만을 디스플레이 장치에 적용할 경우, 전반적인 밝기 및/또는 색상의 분포는 균일할지 몰라도 미소 영역에서는 밝기 및/또는 색상 편차가 발생할 수도 있다. 이에 따라, 디스플레이 장치(53)에 화소들 간의 밝기 차이로 인한 얼룩이 확인될 수 있다.According to the above-described embodiment, when the entire image of the screen of the display device 53 is captured by artificially defocusing the focus of the lens of the camera 52 according to the moiré pattern generation problem, the second image data for each pixel is captured. may be an average value of second image data of neighboring pixels. Accordingly, when only the secondary correction data is applied to the display device, although overall brightness and/or color distribution may be uniform, brightness and/or color deviation may occur in a small area. Accordingly, stains due to differences in brightness between pixels may be identified on the display device 53 .

이러한 점을 보완하기 위해, 565 동작을 실행할 수 있다.To compensate for this, operation 565 may be executed.

565 동작에서 전자 장치(51)는 화소별 1차 및 2 보정 데이터를 곱 연산하여 최종 보정 데이터를 생성할 수 있다. 565 동작을 통해, 부분 영상으로부터 화소별 이웃 화소들의 밝기 및/또는 색상 정보가 포함되지 않은 화소별 개별 데이터인 1차 보정 데이터와, 전체 영상으로부터 화소별 이웃 화소들의 밝기 및/또는 색상 정보가 포함된 2차 보정 데이터를 모두 이용하여, 디스플레이 장치(53)의 화소를 전체 점등할 때 미소 영역의 밝기 및/또는 색상 편차의 보정과, 디스플레이 장치(53)의 전체 영역의 밝기 및/또는 색상 편차를 개선할 수 있다.In operation 565, the electronic device 51 may generate final correction data by multiplying and calculating the first and second correction data for each pixel. Through operation 565, primary correction data, which is individual data for each pixel that does not include brightness and/or color information of neighboring pixels for each pixel from the partial image, and brightness and/or color information of neighboring pixels for each pixel from the entire image are included. Correction of brightness and/or color deviation of the small area when all pixels of the display device 53 are turned on, and brightness and/or color deviation of the entire area of the display device 53 using all of the secondary correction data obtained can improve

일 실시 예에 따르면, 카메라(52)와 디스플레이 장치(53) 간의 거리와 카메라(52)의 촬영 각도, 촬영속도, 및 조리개 값 등의 촬영 조건은 사람에 의해 조정될 수 있다.According to an embodiment, shooting conditions such as a distance between the camera 52 and the display device 53, a shooting angle of the camera 52, a shooting speed, and an aperture value may be adjusted by a person.

일 실시 예에 따르면, 상술한 카메라(52) 및/또는 디스플레이 장치(53)는 전자 장치(51)의 제어에 따라 상술한 동작들을 각각 수행할 수도 있다. 다른 실시 예에 따르면, 상술한 디스플레이 장치(53)는 리모컨으로부터 수신된 신호에 따라 영상 출력 동작을 실행할 수 있다. 다른 실시 예에 따르면, 카메라(52)의 영상 촬영은 사람의 조작에 의해 이루어질 수 있다.According to an embodiment, the aforementioned camera 52 and/or display device 53 may perform the aforementioned operations respectively under the control of the electronic device 51 . According to another embodiment, the above-described display device 53 may execute an image output operation according to a signal received from a remote controller. According to another embodiment, capturing an image of the camera 52 may be performed by human manipulation.

상술한 실시 예의 505 동작의 영상 출력은 디스플레이 장치(53)에 저장된 영상을 출력하거나, 전자 장치(51)로부터 수신한 영상을 출력하거나, 또는 USB 등의 저장 매체에 저장된 영상을 출력하는 등 다양하게 동작할 수 있다.The image output of operation 505 of the above-described embodiment may be performed in various ways, such as outputting an image stored in the display device 53, outputting an image received from the electronic device 51, or outputting an image stored in a storage medium such as USB. It can work.

상술한 실시 예에 따르면, 카메라(52)와 전자 장치(51)가 각각 독립적인 장치인 것을 예로 들어 설명하였으나, 다른 실시 예에 따르면, 카메라(52)가 전자 장치(51)에 포함되어 동작할 수도 있다.According to the above-described embodiment, the camera 52 and the electronic device 51 have been described as independent devices, but according to another embodiment, the camera 52 is included in the electronic device 51 and operates. may be

한편, 다른 실시 예에 따르면, 디스플레이 장치(53)가 지정된 시간 동안 화소별 1차 보정 데이터가 반영된 영상 출력 후 카메라(52)가 촬영한 영상에 대한 화소별 제2 영상 데이터가 기준 영상 데이터에 근사하게 될 때까지 디스플레이 장치(53)의 화소별 밝기 값(휘도 값 또는 색 좌표 값)을 조정하고 다시 디스플레이 장치(53)의 화면을 촬영하는 동작을 반복할 수도 있다.Meanwhile, according to another embodiment, after the display device 53 outputs an image in which the primary correction data for each pixel is reflected for a specified time, the second image data for each pixel of the image captured by the camera 52 approximates the reference image data. Operations of adjusting the brightness values (luminance values or color coordinate values) of each pixel of the display device 53 and photographing the screen of the display device 53 may be repeated until it is done.

도 6은 다양한 실시 예에 따른 디스플레이 장치의 보정 동작의 흐름도이다. 도 6을 참조하면, 디스플레이 장치(63)가 화소별 1, 2차 보정 데이터 및 최종 보정 데이터를 생성하는 도 5의 전자 장치(51)의 동작을 수행할 수 있다.6 is a flowchart of a calibration operation of a display device according to various embodiments of the present disclosure. Referring to FIG. 6 , the display device 63 may perform the operation of the electronic device 51 of FIG. 5 for generating first and second correction data and final correction data for each pixel.

605 동작에서 디스플레이 장치(63)는 영상을 출력할 수 있다.In operation 605, the display device 63 may output an image.

610 동작에서 카메라(62)는 디스플레이 장치(63)의 화면에 표시된 영상을 촬영하여 분할 영상들을 획득할 수 있다.In operation 610, the camera 62 may obtain divided images by capturing an image displayed on the screen of the display device 63.

605 동작 및 610 동작은 도 5의 505 동작 및 510 동작에 대응하는 동작들로 상세한 설명은 생략한다.Operations 605 and 610 correspond to operations 505 and 510 of FIG. 5 , and detailed descriptions thereof are omitted.

615 동작에서 디스플레이 장치(63)는 카메라(62)로부터 촬영 영상을 수신할 수 있다.In operation 615, the display device 63 may receive a photographed image from the camera 62.

620 동작에서 디스플레이 장치(63)는 상기 촬영 영상을 이용하여 디스플레이 장치(63)의 화면의 화소별 제1 영상 데이터를 획득할 수 있다. In operation 620, the display device 63 may obtain first image data for each pixel of the screen of the display device 63 using the photographed image.

625 동작에서 디스플레이 장치(63)는 화소별 제1 영상 데이터를 이용하여 화소별 1차 보정 데이터를 생성할 수 있다. In operation 625, the display device 63 may generate first correction data for each pixel using the first image data for each pixel.

620 동작 및 625 동작은 도 5의 520 동작 및 525 동작과 비교하여 동작의 주체만 다를 뿐 세부 동작은 도 5의 520 동작 및 525 동작에 대응하는 동작들로 상세한 설명은 생략한다.Operations 620 and 625 are different from operations 520 and 525 of FIG. 5 only in the subject of the operation, and detailed operations correspond to operations 520 and 525 of FIG. 5 , and detailed descriptions thereof are omitted.

630 동작에서 디스플레이 장치(63)는 1차 보정 데이터가 반영된 제2 영상을 출력할 수 있다.In operation 630, the display device 63 may output a second image to which the first correction data is reflected.

635 동작에서 디스플레이 장치(63)는 화면 에이징을 할 수 있다.In operation 635, the display device 63 may perform screen aging.

640 동작에서 카메라(62)는 디스플레이 장치(63)의 화면에 표시된 영상을 촬영하여 디스플레이 장치(63)의 전체 화면의 영상을 획득할 수 있다.In operation 640, the camera 62 may obtain an image of the entire screen of the display device 63 by capturing an image displayed on the screen of the display device 63.

630 동작, 635 동작, 및 640 동작은 도 5의 535 동작, 540 동작, 545 동작과 대응하는 동작들로 상세한 설명은 생략한다.Operations 630 , 635 , and 640 correspond to operations 535 , 540 , and 545 of FIG. 5 , and detailed descriptions thereof are omitted.

645 동작에서 디스플레이 장치(63)는 카메라(62)로부터 촬영 영상을 수신할 수 있다.In operation 645, the display device 63 may receive a photographed image from the camera 62.

650 동작에서 디스플레이 장치(63)는 상기 촬영 영상을 이용하여 디스플레이 장치(63)의 화면의 화소별 제2 영상 데이터를 획득할 수 있다.In operation 650, the display device 63 may obtain second image data for each pixel of the screen of the display device 63 using the photographed image.

655 동작에서 디스플레이 장치(63)는 화소별 제2 영상 데이터를 이용하여 화소별 2차 보정 데이터를 생성할 수 있다.In operation 655, the display device 63 may generate secondary correction data for each pixel using the second image data for each pixel.

660 동작에서 디스플레이 장치(63)는 화소별 1차 및 2차 보정 데이터를 곱 연산하여 최종 보정 데이터를 생성할 수 있다.In operation 660, the display device 63 may generate final correction data by multiplying and calculating the first and second correction data for each pixel.

650 동작, 655 동작, 660 동작은 도 5의 555 동작, 560 동작, 565 동작과 동작의 주체만 다를 뿐 세부 동작은 도 5의 555 동작, 560 동작, 565 동작에 대응하는 동작들로 상세한 설명은 생략한다.Operations 650, 655, and 660 are operations corresponding to operations 555, 560, and 565 of FIG. 5 and operations 555, 560, and 565 in FIG. omit

도 7은 다양한 실시 예에 따른 로봇 장치를 이용한 디스플레이 장치의 보정 동작을 설명하기 위한 도면이며, 도 8은 다양한 실시 예에 따른 로봇 장치의 구성도이다.7 is a diagram for explaining a correction operation of a display device using a robot device according to various embodiments, and FIG. 8 is a configuration diagram of a robot device according to various embodiments.

도 7을 참조하면, 디스플레이 장치(73)가 고층 건물의 상단에 위치할 때, 디스플레이 장치(73)의 보정을 위해 카메라(75)를 구비한 드론(74) 또는 카메라(77)를 구비한 로봇(76) 등의 로봇 장치를 이용하여, 디스플레이 장치(73)의 화면을 촬영 할 수 있다. 예를 들어, 로봇 장치는 드론과 같이 비행 가능한 무인 항공기 또는 일반 로봇일 수 있으며, 도 7에서는 도시를 생략하였으나, 로봇 장치는 적어도 2개의 다관절을 구비한 로봇 등 다양한 형태의 로봇일 수 있다.Referring to FIG. 7 , when the display device 73 is located on top of a high-rise building, a drone 74 equipped with a camera 75 or a robot equipped with a camera 77 is used to calibrate the display device 73. The screen of the display device 73 can be photographed using a robot device such as (76). For example, the robot device may be an unmanned aerial vehicle or a general robot capable of flying, such as a drone, and although not shown in FIG. 7, the robot device may be various types of robots, such as a robot having at least two articulated joints.

도 8을 참조하면, 로봇 장치(801)는 프로세서(810), 카메라(820), 메모리(830), 통신 인터페이스(840)를 포함할 수 있다.Referring to FIG. 8 , a robot device 801 may include a processor 810, a camera 820, a memory 830, and a communication interface 840.

프로세서(810)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(810)는, 예를 들면, 로봇 장치(801)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.The processor 810 may include one or more of a central processing unit, an application processor, or a communication processor (CP). The processor 810 may execute calculations or data processing related to control and/or communication of at least one other component of the robot device 801, for example.

카메라(820)는 예를 들면, 정지 영상 및 동영상을 촬영할 수 있으며, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.The camera 820 may take, for example, still images and moving images, and according to one embodiment, one or more image sensors (eg, a front sensor or a rear sensor), a lens, an image signal processor (ISP), or a flash ( eg LED or xenon lamp).

메모리(830)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(830)는, 예를 들면, 로봇 장치(801)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(830)는 소프트웨어 및/또는 프로그램을 저장할 수 있다.Memory 830 may include volatile and/or non-volatile memory. The memory 830 may store, for example, commands or data related to at least one other component of the robotic device 801 . According to one embodiment, the memory 830 may store software and/or programs.

통신 인터페이스(840)는, 예를 들면, 로봇 장치(801)와 외부 장치 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(840)는 무선 통신 또는 유선 통신을 통해서 네트워크에 연결되어 외부 장치와 통신할 수 있다.The communication interface 840 may establish communication between the robot device 801 and an external device, for example. For example, the communication interface 840 may communicate with an external device by being connected to a network through wireless or wired communication.

한편, 도 8에서는 로봇 장치(801)의 다관절 팔 및/또는 다리와, 드론의 경우 프로펠러 등의 구동을 위한 기계적인 구동부에 관한 도시를 생략하였다.On the other hand, in FIG. 8, the illustration of the multi-joint arm and/or leg of the robot device 801 and the mechanical driving unit for driving the propeller in the case of a drone is omitted.

도 9는 다양한 실시 예에 따른 로봇 장치를 이용한 디스플레이 보정 동작의 흐름도이다.9 is a flowchart of a display correction operation using a robot device according to various embodiments of the present disclosure.

905 동작에서 디스플레이 장치(93)는 패턴 영상을 출력할 수 있다. 예를 들어, 상기 패턴 영상을 카메라를 포함하는 로봇 장치(94)의 위치 조정에 이용되도록 미리 설정된 영상일 수 있다.In operation 905, the display device 93 may output a pattern image. For example, the pattern image may be a preset image to be used for adjusting the position of the robot device 94 including a camera.

910 동작에서 로봇 장치(94)는 상기 패턴 영상을 이용하여 로봇 장치(94) 자신의 위치를 조정할 수 있다.In operation 910, the robot device 94 may adjust its position using the pattern image.

915 동작에서 디스플레이 장치(93)는 사전에 화소별 1차 보정 데이터가 반영되어 저장된 영상을 출력할 수 있다.In operation 915, the display device 93 may output an image in which primary correction data for each pixel is previously reflected and stored.

915 동작의 상기 1차 보정 데이터가 반영되어 저장된 영상은 도 5의 화소별 1차 보정 데이터가 반영된 영상 또는 도 6의 화소별 1차 보정 데이터가 반영된 영상 일 수 있다.The image in which the first correction data of operation 915 is reflected and stored may be an image in which the first correction data for each pixel of FIG. 5 is reflected or an image in which the first correction data for each pixel in FIG. 6 is reflected.

920 동작에서 디스플레이 장치(93)는 화면 에이징을 할 수 있다.In operation 920, the display device 93 may perform screen aging.

925 동작에서 로봇 장치(94)는 디스플레이 장치(93)의 화면에 표시된 영상을 촬영하여 디스플레이 장치(93)의 전체 화면의 영상을 획득할 수 있다.In operation 925, the robot device 94 may acquire an image of the entire screen of the display device 93 by capturing an image displayed on the screen of the display device 93.

930 동작에서 전자 장치(91)는 로봇 장치(94)로부터 촬영 영상을 수신할 수 있다.In operation 930, the electronic device 91 may receive a captured image from the robot device 94.

935 동작에서 전자 장치(91)는 상기 촬영 영상을 이용하여 디스플레이 장치(93)의 화면의 화소별 제2 영상 데이터를 획득할 수 있다.In operation 935, the electronic device 91 may obtain second image data for each pixel of the screen of the display device 93 using the photographed image.

940 동작에서 전자 장치(91)는 화소별 제2 영상 데이터를 이용하여 화소별 2차 보정 데이터를 생성할 수 있다.In operation 940, the electronic device 91 may generate secondary correction data for each pixel using the second image data for each pixel.

945 동작에서 전자 장치(91)는 화소별 1차 및 2차 보정 데이터를 곱 연산하여 최종 보정 데이터를 생성할 수 있다.In operation 945, the electronic device 91 may generate final correction data by multiplying and calculating the first and second correction data for each pixel.

상술한 920 내지 945 동작은 도 5의 540 내지 565 동작과 비교하면 도 5의 카메라(52) 대신 로봇 장치(94)가 적용된다는 점을 제외하고 서로 대응하는 동작들로 상세한 설명은 생략한다.The above-described operations 920 to 945 are operations corresponding to each other except that the robot device 94 is applied instead of the camera 52 of FIG. 5 compared to the operations 540 to 565 of FIG. 5 , and detailed descriptions thereof are omitted.

상술한 실시 예에서는 사전에 1차 보정 데이터가 반영되어 저장된 영상을 출력하는 것으로 설명되었으나, 도 5 및 도 6과 같이 1차 보정 데이터를 생성하여 반영하는 동작을 실행할 수도 있다.In the above-described embodiment, it has been described that the first correction data is reflected in advance and the stored image is output, but an operation of generating and reflecting the first correction data may be performed as shown in FIGS. 5 and 6 .

상술한 실시 예에서는 로봇 장치(94)가 스스로 패턴 영상을 이용하여 로봇 장치(94)의 위치를 조정하는 것으로 설명하였으나, 다른 실시 예에 따르면, 사람이 직접 로봇 장치(94)의 위치가 조정되거나, 또는 전자 장치(91)의 제어에 따라 로봇 장치(94)의 위치가 조정될 수 있다.In the above-described embodiment, it has been described that the robot device 94 adjusts the position of the robot device 94 by using a pattern image, but according to another embodiment, the position of the robot device 94 is directly adjusted by a person or , or the position of the robot device 94 may be adjusted according to the control of the electronic device 91 .

상술한 실시 예들에 따라 디스플레이 장치를 보정하면, 종래의 디스플레이 보정 기술을 적용하였을 때와 비교하여 도 10 및 표 1과 같이 휘도 및 색상의 균일도 향상 효과를 얻을 수 있다. If the display device is calibrated according to the above-described embodiments, the uniformity improvement effect of luminance and color can be obtained as shown in FIG. 10 and Table 1 compared to the conventional display calibration technology.

도 10을 참조하면, 보정 전 디스플레이 장치에 표시된 영상인 도 10의 (a)에 비해 화소별 1차 보정 데이터 반영 후 디스플레이 장치에 표시된 영상인 도 10의 (b)의 영상의 휘도 및 색상의 균일도가 향상되었음을 알 수 있다. 또한, 상기 도 10의 (b)에 비해 에이징 후 화소별 2차 보정 데이터를 반영한 후의 디스플레이 장치에 표시된 영상인 도 10의 (c)의 영상의 휘도 및 색상의 균일도가 향상되었음을 알 수 있다.Referring to FIG. 10, the uniformity of luminance and color of the image of FIG. 10 (b), which is the image displayed on the display device after reflecting the primary correction data for each pixel, compared to (a) of FIG. 10, which is the image displayed on the display device before correction. It can be seen that has improved. In addition, compared to FIG. 10 (b), it can be seen that the uniformity of luminance and color of the image of FIG. 10 (c) displayed on the display device after reflecting the secondary correction data for each pixel after aging is improved.

아래의 표 1은, 보정 전, 화소별 1차 보정 데이터의 반영 후, 에이징 후 화소별 2차 보정 데이터의 반영 후 디스플레이 장치 각각의 휘도 편차 및 색온도 편차를 측정한 값이다. 표 1을 참조하면, 에이징 후 화소별 2차 보정 데이터 반영 후의 디스플레이 장치의 휘도 편차 및 색온도 편차가 보정전 및 화소별 1차 보정 데이터 반영후 디스플레이 장치의 휘도 편차 및 온도 편차에 비해 감소되었음을 알 수 있다.Table 1 below shows measured values of luminance deviation and color temperature deviation of each display device before correction, after reflection of primary correction data for each pixel, and after reflection of secondary correction data for each pixel after aging. Referring to Table 1, it can be seen that the luminance deviation and color temperature deviation of the display device after reflecting the secondary correction data for each pixel after aging are reduced compared to the luminance deviation and temperature deviation of the display device before correction and after reflecting the primary correction data for each pixel. there is.

구분division 휘도 편차luminance deviation 색온도 편차color temperature deviation 보정 전before correction 3.48%3.48% 184K184K 화소별 1차 보정 데이터 반영 후After reflecting the primary correction data for each pixel 2.82%2.82% 97K97K 에이징후 화소별 2차 보정 데이터 반영 후After reflecting secondary correction data for each pixel after aging 2.09%2.09% 93K93K

도 11은 다양한 실시 예에 따른 전자 장치의 디스플레이 장치의 모듈 교체 동작의 흐름도이다. 도 11을 참조하면, 다양한 높이와 각도로 설치된 디스플레이 장치를 로봇 장치를 이용하여 유지 보수 작업을 하면, 사다리 등을 이용하여 사람이 직접 디스플레이 장치를 유지 보수하는 것에 비해, 효율적이며 안전한 작업이 가능할 수 있다.11 is a flowchart of a module replacement operation of a display device of an electronic device according to various embodiments of the present disclosure. Referring to FIG. 11, when a robot device is used to maintain a display device installed at various heights and angles, it is possible to perform more efficient and safe work than when a person directly maintains the display device using a ladder or the like. there is.

1105 동작에서 로봇 장치(1104)는 디스플레이 장치(1103)의 불량 모듈로 위치 이동을 할 수 있다. 예를 들어, 전자 장치의 제어(원격 조정)에 따라 불량 모듈이 위치한 곳으로 위치 이동하거나, 또는 로봇 장치(1104)가 로봇 장치(1104)의 카메라를 이용하여 스스로 불량 감지 후 이동할 수 있다.In operation 1105, the robot device 1104 may move to the defective module of the display device 1103. For example, according to the control (remote control) of the electronic device, the position may be moved to the place where the defective module is located, or the robot device 1104 may detect a defect by itself using a camera of the robot device 1104 and then move.

1110 동작에서 디스플레이 장치(1103)는 불량 모듈의 영상 신호를 차단할 수 있다. In operation 1110, the display device 1103 may block the video signal of the defective module.

1115 동작에서 로봇 장치(1104)는 영상 신호가 차단된 불량 모듈을 디스플레이 장치(1103)에서 이격시킬 수 있다. 예를 들어, 로봇 장치(1104)가 적어도 두 개의 다관절 팔을 가질 경우, 어느 하나의 다관절 팔을 이용하여 영상 신호가 차단된 불량 모듈을 디스플레이 장치(1103)에서 이격시킬 수 있다.In operation 1115, the robot device 1104 may separate the defective module from which the image signal is blocked from the display device 1103. For example, when the robot device 1104 has at least two articulated arms, a defective module whose image signal is blocked may be spaced apart from the display device 1103 using one of the articulated arms.

1120 동작에서 로봇 장치(1104)는 불량 모듈과 디스플레이 장치(1103)간 연결 케이블을 분리할 수 있다. 예를 들어, 로봇 장치(1104)가 적어도 두 개의 다관절 팔을 가질 경우, 어느 하나의 다관절 팔을 이용하여 불량 모듈과 디스플레이 장치(1103)간 연결 케이블을 분리할 수 있다. In operation 1120, the robot device 1104 may separate the connection cable between the defective module and the display device 1103. For example, when the robot device 1104 has at least two articulated arms, a connection cable between the defective module and the display device 1103 may be separated using one of the articulated arms.

1125 동작에서 로봇 장치(1104)는 정상 모듈과 디스플레이 장치(1103)간 케이블을 연결할 수 있다. 예를 들어, 로봇 장치(1104)가 적어도 두 개의 다관절 팔을 가질 경우, 어느 하나의 다관절 팔을 이용하여 정상 모듈과 디스플레이 장치(1103)간 케이블을 연결할 수 있다.In operation 1125, the robot device 1104 may connect a cable between the normal module and the display device 1103. For example, when the robot device 1104 has at least two articulated arms, a cable between the normal module and the display device 1103 can be connected using one of the articulated arms.

1130 동작에서 로봇 장치(1104)는 정상 모듈을 디스플레이 장치(1103)에 고정시킬 수 있다. 예를 들어, 로봇 장치(1104)가 적어도 두 개의 다관절 팔을 가질 경우, 어느 하나의 다관절 팔을 이용하여 정상 모듈을 디스플레이 장치(1103)에 고정시킬 수 있다.In operation 1130, the robot device 1104 may fix the normal module to the display device 1103. For example, when the robot device 1104 has at least two articulated arms, a normal module may be fixed to the display device 1103 using one of the articulated arms.

1135 동작에서 디스플레이 장치(1103)는 디스플레이 장치(1103)에 고정시킨 정상 영상 신호를 출력 시킬 수 있다.In operation 1135, the display device 1103 may output a normal image signal fixed to the display device 1103.

1140 동작에서 로봇 장치(1104)는 카메라를 이용하여 디스플레이 장치(1103)에 고정 시킨 정상 모듈의 동작 상태를 확인할 수 있다.In operation 1140, the robot device 1104 can check the operating state of the normal module fixed to the display device 1103 using a camera.

예를 들어, 로봇 장치(1104)는 카메라를 이용하여 디스플레이 장치(1103)의 정상 모듈의 화면의 화소별 제1 영상 데이터를 획득하여, 정상 모듈의 동작 상태를 확인할 수 있다. 예를 들어, 상기 제1 영상 데이터는, 디스플레이 장치(1103)가 출력한 영상의 휘도 및/또는 색상 정보(값)일 수 있다. 또 다른 예로, 상기 제1 영상 데이터는 디스플레이 장치(1103)가 출력한 영상의 명도(휘도)와 채도를 수치화한 색좌표일 수 있다.For example, the robot device 1104 may obtain first image data for each pixel of the screen of the normal module of the display device 1103 using a camera to check the operating state of the normal module. For example, the first image data may be luminance and/or color information (value) of an image output by the display device 1103 . As another example, the first image data may be color coordinates obtained by digitizing brightness (luminance) and saturation of an image output by the display device 1103 .

다양한 실시 예에 따르면, 디스플레이 장치(1103)는 로봇 장치(1104) 또는 외부의 전자 장치(미도시)에 의해 동작할 수 있다. 또한, 로봇 장치(1104)는 외부의 전자 장치의 제어에 따라 동작할 수 있다.According to various embodiments, the display device 1103 may be operated by the robot device 1104 or an external electronic device (not shown). Also, the robot device 1104 may operate under the control of an external electronic device.

다양한 실시 예에 따르면, 외부 디스플레이 장치의 화면 보정 방법에 있어서, 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하는 동작과, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하는 동작과, 상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하는 동작을 포함할 수 있다.According to various embodiments, in a method for calibrating a screen of an external display device, the screen is calibrated using first image data for each pixel of divided images of a first image displayed on the external display device acquired using a camera. An operation of generating first correction data for processing, an operation of providing the first correction data to the display device, and a second image corresponding to the first correction data displayed on the display device acquired using the camera. An operation of generating second correction data for correcting the screen using second image data for each pixel of .

다양한 실시 예에 따르면, 상기 제1 보정 데이터와 상기 제2 보정 데이터를 이용하여 최종 보정 데이터를 생성하는 동작을 더 포함할 수 있다.According to various embodiments, an operation of generating final correction data using the first correction data and the second correction data may be further included.

다양한 실시 예에 따르면, 상기 화소별 제1 영상 데이터는, 상기 화소별 제1 휘도 값을 포함하며, 상기 화소별 제2 영상 데이터는, 상기 화소별 제2 휘도 값을 포함할 수 있다.According to various embodiments, the first image data for each pixel may include a first luminance value for each pixel, and the second image data for each pixel may include a second luminance value for each pixel.

다양한 실시 예에 따르면, 상기 1차 보정 데이터를 생성하는 동작은, 상기 화소별 제1 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 기준 휘도 값에 대한 상기 제1 휘도 값 간의 편차를 보정하기 위한 상기 1차 보정 데이터를 생성하는 동작을 포함하며, 상기 2차 보정 데이터를 생성하는 동작은, 상기 화소별 제2 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 기준 휘도 값에 대한 상기 제2 휘도 값 간의 편차를 보정하기 위한 상기 2차 보정 데이터를 생성하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the generating of the first correction data may include using a ratio of the reference luminance value for each pixel to the first luminance value for each pixel, and the first luminance value for the reference luminance value. The operation of generating the first correction data for correcting the deviation includes generating the second correction data, and the operation of generating the second correction data uses a ratio of the reference luminance value for each pixel to the second luminance value for each pixel, An operation of generating the secondary correction data for correcting a deviation between the reference luminance value and the second luminance value may be included.

다양한 실시 예에 따르면, 상기 카메라는, 로봇 장치에 포함될 수 있다.According to various embodiments, the camera may be included in a robot device.

다양한 실시 예에 따르면, 상기 카메라를 이용하여 상기 디스플레이 장치에 출력되는 패턴 영상이 획득되면, 상기 로봇 장치에 의해 상기 패턴 영상을 이용하여 상기 디스플레이 장치의 화면이 촬영될 지점이 설정될 수 있다.According to various embodiments, when a pattern image output to the display device is obtained using the camera, a point at which the screen of the display device is captured may be set by the robot device using the pattern image.

다양한 실시 예에 따르면, 상기 디스플레이 장치는, 복수의 디스플레이 모듈들로 구성되며, 로봇 장치에 의해 상기 복수의 디스플레이 모듈들 중 불량 디스플레이 모듈이 정상 디스플레이 모듈로 교체됨을 특징으로 할 수 있다.According to various embodiments, the display device may be composed of a plurality of display modules, and a defective display module among the plurality of display modules may be replaced with a normal display module by a robot device.

다양한 실시 예에 따르면, 상기 로봇 장치는, 카메라를 포함하며, 상기 로봇 장치에 포함된 카메라에 의해, 상기 불량 디스플레이 모듈의 위치가 감지되며, 상기 로봇 장치에 포함된 카메라에 의해, 상기 교체된 정상 디스플레이 모듈의 동작 상태가 확인될 수 있다. According to various embodiments, the robot device includes a camera, the position of the defective display module is detected by the camera included in the robot device, and the replaced normal display module is detected by the camera included in the robot device. An operating state of the display module may be confirmed.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예:메모리(230))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(220))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A “module” may be an integrally constructed component or a minimal unit or part thereof that performs one or more functions. A "module" may be implemented mechanically or electronically, for example, a known or future developed application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), or A programmable logic device may be included. At least some of the devices (eg, modules or functions thereof) or methods (eg, operations) according to various embodiments are instructions stored in a computer-readable storage medium (eg, the memory 230) in the form of program modules. can be implemented as When the command is executed by a processor (eg, the processor 220), the processor may perform a function corresponding to the command. Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magneto-optical media (e.g. floptical disks), built-in memory, etc.) A command may include code generated by a compiler or code executable by an interpreter A module or program module according to various embodiments may include at least one or more of the above-described components or , Some of them may be omitted, or other elements may be further included.According to various embodiments, operations performed by modules, program modules, or other elements may be executed sequentially, in parallel, iteratively, or heuristically, or at least Some actions may be performed in a different order, omitted, or other actions may be added.

Claims (20)

외부 디스플레이 장치의 화면 보정 장치에 있어서,
로봇 장치에 포함되는 카메라 및 상기 외부 디스플레이 장치와 통신 가능하게 연결된 통신 모듈과;
상기 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하고, 상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하며,
상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하도록 구성되는 프로세서를 포함하고,
상기 카메라를 이용하여 상기 디스플레이 장치에 출력되는 패턴 영상이 획득되면, 상기 로봇 장치에 의해 상기 패턴 영상을 이용하여 상기 디스플레이 장치의 화면이 촬영될 지점이 설정되는 외부 디스플레이 장치의 화면 보정 장치.
In the screen calibration device of the external display device,
A camera included in the robot device and a communication module communicatively connected to the external display device;
First correction data for correcting the screen is generated using first image data for each pixel of each of the divided images of the first image displayed on the external display device obtained by using the camera, and the first correction data Provided to the display device,
A processor configured to generate second correction data for correcting the screen using second image data for each pixel of a second image corresponding to the first correction data displayed on the display device obtained using the camera; include,
When a pattern image output to the display device is obtained using the camera, a screen correction device of an external display device in which a point at which the screen of the display device is to be captured is set using the pattern image by the robot device.
제 1항에 있어서, 상기 프로세서는,
상기 제1 보정 데이터와 상기 제2 보정 데이터를 이용하여 최종 보정 데이터를 생성하는 것을 더 포함하는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 1, wherein the processor,
The screen correction device of an external display device further comprising generating final correction data using the first correction data and the second correction data.
제 1항에 있어서, 상기 화소별 제1 영상 데이터는,
화소별 제1 휘도 값을 포함하며,
상기 화소별 제2 영상 데이터는,
화소별 제2 휘도 값을 포함하는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 1 , wherein the first image data for each pixel comprises:
It includes a first luminance value for each pixel,
The second image data for each pixel,
An apparatus for calibrating a screen of an external display device including a second luminance value for each pixel.
◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when the registration fee was paid.◈ 제 3항에 있어서, 상기 프로세서는,
상기 화소별 제1 휘도 값에 대한 화소별 기준 휘도 값의 비율을 이용하여, 상기 화소별 기준 휘도 값에 대한 상기 화소별 제1 휘도 값 간의 편차를 보정하기 위한 상기 제1 보정 데이터를 생성하며,
상기 화소별 제2 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 화소별 기준 휘도 값에 대한 상기 화소별 제2 휘도 값 간의 편차를 보정하기 위한 상기 제2 보정 데이터를 생성하도록 구성되는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 3, wherein the processor,
generating the first correction data for correcting a deviation between the reference luminance value for each pixel and the first luminance value for each pixel using a ratio of the reference luminance value for each pixel to the first luminance value for each pixel;
generating the second correction data for correcting a deviation between the reference luminance value for each pixel and the second luminance value for each pixel using a ratio of the reference luminance value for each pixel to the second luminance value for each pixel; The screen calibration device of the configured external display device.
제 1항에 있어서, 상기 화소별 제1 영상 데이터는,
화소별 제1 색좌표 값을 포함하며,
상기 화소별 제2 영상 데이터는,
화소별 제2 색좌표 값을 포함하는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 1 , wherein the first image data for each pixel comprises:
It includes a first color coordinate value for each pixel,
The second image data for each pixel,
An apparatus for calibrating a screen of an external display device including a second color coordinate value for each pixel.
◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 6 was abandoned when the registration fee was paid.◈ 제 5항에 있어서, 상기 프로세서는,
상기 화소별 제1 색좌표 값에 대한 화소별 기준 색 좌표 값의 비율을 이용하여, 상기 화소별 기준 색 좌표 값에 대한 상기 화소별 제1 색좌표 값 간의 편차를 보정하기 위한 상기 제1 보정 데이터를 생성하며,
상기 화소별 제2 색좌표 값에 대한 상기 화소별 기준 색 좌표 값의 비율을 이용하여, 상기 화소별 기준 색 좌표 값에 대한 상기 화소별 제2 색좌표 값 간의 편차를 보정하기 위한 상기 제2 보정 데이터를 생성하도록 구성되는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 5, wherein the processor,
The first correction data for correcting a deviation between the reference color coordinate value for each pixel and the first color coordinate value for each pixel is generated using a ratio of the reference color coordinate value for each pixel to the first color coordinate value for each pixel. and
The second correction data for correcting a deviation between the reference color coordinate value for each pixel and the second color coordinate value for each pixel using a ratio of the reference color coordinate value for each pixel to the second color coordinate value for each pixel A device for calibrating the screen of an external display device configured to generate.
제 1항에 있어서, 상기 디스플레이 장치의 적어도 일부 화면에는,
화이트 색상의 영상이 표시되거나, 또는 R, G, B 색상 별 영상이 표시되는 하는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 1, wherein on at least a portion of the screen of the display device,
A screen calibration device of an external display device for displaying a white color image or displaying images for each R, G, and B color.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned when the registration fee was paid.◈ 제 7항에 있어서, 상기 프로세서는,
상기 화이트 색상의 영상 또는 상기 R, G, B 색상 별 영상을 이용하여, 상기 디스플레이 장치의 화면의 R, G, B 색상 각각에 대해 상기 화소별 제1 영상 데이터를 획득하며,
상기 화이트 색상의 영상 또는 상기 R, G, B 색상 별 영상을 이용하여, 상기 디스플레이 장치의 화면의 R, G, B 색상 각각에 대해 상기 화소별 제2 영상 데이터를 획득하는 것을 특징으로 하는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 7, wherein the processor,
Obtaining first image data for each pixel for each of the R, G, and B colors of the screen of the display device using the white color image or the R, G, and B color image;
The external display characterized in that the second image data for each pixel is obtained for each of the R, G, and B colors of the screen of the display device using the white color image or the R, G, and B color image. device's screen calibration device.
삭제delete 삭제delete 제 1항에 있어서, 상기 디스플레이 장치는,
복수의 디스플레이 모듈들로 구성되며,
상기 로봇 장치에 의해 상기 복수의 디스플레이 모듈들 중 불량 디스플레이 모듈이 정상 디스플레이 모듈로 교체되는 외부 디스플레이 장치의 화면 보정 장치.
The method of claim 1, wherein the display device,
Consists of a plurality of display modules,
A screen calibration device of an external display device in which a defective display module among the plurality of display modules is replaced with a normal display module by the robot device.
◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 12 was abandoned when the registration fee was paid.◈ 제 11항에 있어서,
상기 로봇 장치에 포함된 상기 카메라에 의해, 상기 불량 디스플레이 모듈의 위치가 감지되며,
상기 로봇 장치에 포함된 상기 카메라에 의해, 상기 교체된 정상 디스플레이 모듈의 동작 상태가 확인되는 외부 디스플레이 장치의 화면 보정 장치.
According to claim 11,
The position of the defective display module is detected by the camera included in the robot device,
A screen calibration device of an external display device in which an operating state of the replaced normal display module is checked by the camera included in the robot device.
외부 디스플레이 장치의 화면 보정 방법에 있어서,
로봇 장치에 포함ㅎ되는 카메라를 이용하여 획득된 상기 외부 디스플레이 장치에 표시된 제1 영상의 분할 영상들 각각의 화소별 제1 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제1 보정 데이터를 생성하는 동작과,
상기 제1 보정 데이터를 상기 디스플레이 장치에 제공하는 동작과,
상기 카메라를 이용하여 획득된 상기 디스플레이 장치에 표시된 상기 제1 보정 데이터에 대응하는 제2 영상의 화소별 제2 영상 데이터를 이용하여 상기 화면을 보정하기 위한 제2 보정 데이터를 생성하는 동작을 포함하고,
상기 카메라를 이용하여 상기 디스플레이 장치에 출력되는 패턴 영상이 획득되면, 상기 로봇 장치에 의해 상기 패턴 영상을 이용하여 상기 디스플레이 장치의 화면이 촬영될 지점이 설정되는 외부 디스플레이 장치의 화면 보정 방법.
In the screen calibration method of the external display device,
An operation of generating first correction data for correcting the screen by using first image data for each pixel of each of the divided images of the first image displayed on the external display device obtained by using a camera included in the robot device. class,
providing the first correction data to the display device;
generating second correction data for correcting the screen using second image data for each pixel of a second image corresponding to the first correction data displayed on the display device acquired using the camera; and ,
When a pattern image output to the display device is obtained using the camera, a screen correction method of an external display device in which a point at which the screen of the display device is to be captured is set using the pattern image by the robot device.
제 13항에 있어서,
상기 제1 보정 데이터와 상기 제2 보정 데이터를 이용하여 최종 보정 데이터를 생성하는 동작을 더 포함하는 외부 디스플레이 장치의 화면 보정 방법.
According to claim 13,
The method of calibrating the screen of an external display device further comprising an operation of generating final correction data using the first correction data and the second correction data.
제 13항에 있어서, 상기 화소별 제1 영상 데이터는,
화소별 제1 휘도 값을 포함하며,
상기 화소별 제2 영상 데이터는,
화소별 제2 휘도 값을 포함하는 외부 디스플레이 장치의 화면 보정 방법.
14. The method of claim 13, wherein the first image data for each pixel comprises:
It includes a first luminance value for each pixel,
The second image data for each pixel,
A screen calibration method of an external display device including a second luminance value for each pixel.
◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 16 was abandoned when the registration fee was paid.◈ 제 15항에 있어서, 상기 제1 보정 데이터를 생성하는 동작은,
상기 화소별 제1 휘도 값에 대한 화소별 기준 휘도 값의 비율을 이용하여, 상기 화소별 기준 휘도 값에 대한 상기 화소별 제1 휘도 값 간의 편차를 보정하기 위한 상기 제1 보정 데이터를 생성하는 동작을 포함하며,
상기 제2 보정 데이터를 생성하는 동작은,
상기 화소별 제2 휘도 값에 대한 상기 화소별 기준 휘도 값의 비율을 이용하여, 상기 화소별 기준 휘도 값에 대한 상기 화소별 제2 휘도 값 간의 편차를 보정하기 위한 상기 제2 보정 데이터를 생성하는 동작을 포함하는 외부 디스플레이 장치의 화면 보정 방법.
The method of claim 15, wherein the generating of the first correction data comprises:
Generating the first correction data for correcting a deviation between the reference luminance value for each pixel and the first luminance value for each pixel by using a ratio of the reference luminance value for each pixel to the first luminance value for each pixel. Including,
The operation of generating the second correction data,
Generating the second correction data for correcting a deviation between the reference luminance value for each pixel and the second luminance value for each pixel using a ratio of the reference luminance value for each pixel to the second luminance value for each pixel A method for calibrating the screen of an external display device including an operation.
삭제delete 삭제delete 제 13항에 있어서, 상기 디스플레이 장치는,
복수의 디스플레이 모듈들로 구성되며,
상기 로봇 장치에 의해 상기 복수의 디스플레이 모듈들 중 불량 디스플레이 모듈이 정상 디스플레이 모듈로 교체되는 외부 디스플레이 장치의 화면 보정 방법.
The method of claim 13, wherein the display device,
Consists of a plurality of display modules,
A screen correction method of an external display device in which a defective display module among the plurality of display modules is replaced with a normal display module by the robot device.
◈청구항 20은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 20 was abandoned when the registration fee was paid.◈ 제 19항에 있어서,
상기 로봇 장치에 포함된 상기 카메라에 의해, 상기 불량 디스플레이 모듈의 위치가 감지되며,
상기 로봇 장치에 포함된 상기 카메라에 의해, 상기 교체된 정상 디스플레이 모듈의 동작 상태가 확인되는 외부 디스플레이 장치의 화면 보정 방법.
According to claim 19,
The position of the defective display module is detected by the camera included in the robot device,
A screen calibration method of an external display device in which an operating state of the replaced normal display module is checked by the camera included in the robot device.
KR1020160134581A 2016-10-17 2016-10-17 Apparatus and method for screen correcting of external display device KR102524559B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160134581A KR102524559B1 (en) 2016-10-17 2016-10-17 Apparatus and method for screen correcting of external display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160134581A KR102524559B1 (en) 2016-10-17 2016-10-17 Apparatus and method for screen correcting of external display device

Publications (2)

Publication Number Publication Date
KR20180042030A KR20180042030A (en) 2018-04-25
KR102524559B1 true KR102524559B1 (en) 2023-04-24

Family

ID=62088568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160134581A KR102524559B1 (en) 2016-10-17 2016-10-17 Apparatus and method for screen correcting of external display device

Country Status (1)

Country Link
KR (1) KR102524559B1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102549537B1 (en) * 2018-06-05 2023-06-29 삼성전자주식회사 Mobile terminal adjusting quality of display, and method thereof
US10841529B2 (en) 2018-06-05 2020-11-17 Samsung Electronics Co., Ltd. Mobile terminal adjusting image quality of display, and method of operating the same
US11227412B2 (en) 2019-07-05 2022-01-18 Lg Electronics Inc. Artificial intelligence apparatus for calibrating color of display panel of user and method for the same
WO2021006367A1 (en) * 2019-07-05 2021-01-14 엘지전자 주식회사 Artificial intelligence device for adjusting output position of display panel, and method therefor
KR102250873B1 (en) * 2019-11-29 2021-05-11 한국전자기술연구원 System and method for transmitting external image in security environment
KR102243928B1 (en) * 2019-12-17 2021-04-23 주식회사 한글과컴퓨터 Electronic terminal apparatus to enable the optimal adjustment of the screen of display apparatus and operating method thereof
CN111901574B (en) * 2020-08-21 2022-07-05 北京浦泰锐迅技术有限公司 Liquid crystal screen dual-mode working system and method for variable-focal-length electronic viewing telescope
WO2022045769A1 (en) 2020-08-26 2022-03-03 삼성전자 주식회사 Electronic device for adjusting picture quality of display device, and operation method thereof
KR102220914B1 (en) * 2020-09-15 2021-02-26 유환아이텍(주) LED Display Board System and Method with Automatic Calibration of Image Quality that Varies with the External Environment
WO2022225138A1 (en) * 2021-04-22 2022-10-27 삼성전자주식회사 Electronic device and control method therefor
GB2609432B (en) 2021-07-30 2024-01-31 Sony Interactive Entertainment Inc Display modification system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012095914A1 (en) * 2011-01-13 2012-07-19 パナソニック株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102197953B1 (en) * 2013-12-30 2021-01-04 엘지디스플레이 주식회사 Stereoscopic image display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012095914A1 (en) * 2011-01-13 2012-07-19 パナソニック株式会社 Stereoscopic image processing device, stereoscopic image processing method, and program

Also Published As

Publication number Publication date
KR20180042030A (en) 2018-04-25

Similar Documents

Publication Publication Date Title
KR102524559B1 (en) Apparatus and method for screen correcting of external display device
US11270464B2 (en) Dynamic detection and correction of light field camera array miscalibration
EP3389253A1 (en) Method and electronic device for focus control
US8957913B2 (en) Display apparatus, display control method, and storage medium storing program
JP6037375B2 (en) Image projection apparatus and image processing method
US9838614B1 (en) Multi-camera image data generation
US8398246B2 (en) Real-time projection management
US8717389B2 (en) Projector array for multiple images
WO2017006780A1 (en) Information processing device and method, and program
US11218675B2 (en) Information processing apparatus, computation method of information processing apparatus, and program
US20210021785A1 (en) Light field camera modules and light field camera module arrays
US11553123B2 (en) Dynamic detection and correction of light field camera array miscalibration
CN105308503A (en) System and method for calibrating a display system using a short throw camera
JP6658520B2 (en) Image processing apparatus and method
US11212463B2 (en) Method for visually representing scanning data
US20210021784A1 (en) Device pose detection and pose-related image capture and processing for light field based telepresence communications
US10148944B2 (en) Calibration method of an image capture system
CN106576159A (en) Photographing device and method for acquiring depth information
US11195259B2 (en) Apparatus and method for dynamic multi-camera rectification using depth camera
WO2017006779A1 (en) Information processing device and method, and projection imaging device and information processing method
CN106454294A (en) Projector screen correction method and projector
US10750080B2 (en) Information processing device, information processing method, and program
US11735078B2 (en) Control device, control method, control program, and control system
JP2018157444A (en) Image display device, image adjustment method of image display device, and image adjustment program
US20180020141A1 (en) Exposure Method in Panoramic Photo Shooting and Apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant