KR20200071521A - Image generation method and display device using the same - Google Patents

Image generation method and display device using the same Download PDF

Info

Publication number
KR20200071521A
KR20200071521A KR1020180159346A KR20180159346A KR20200071521A KR 20200071521 A KR20200071521 A KR 20200071521A KR 1020180159346 A KR1020180159346 A KR 1020180159346A KR 20180159346 A KR20180159346 A KR 20180159346A KR 20200071521 A KR20200071521 A KR 20200071521A
Authority
KR
South Korea
Prior art keywords
data
movement
frame data
user
image
Prior art date
Application number
KR1020180159346A
Other languages
Korean (ko)
Other versions
KR102629441B1 (en
Inventor
이동우
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020180159346A priority Critical patent/KR102629441B1/en
Publication of KR20200071521A publication Critical patent/KR20200071521A/en
Application granted granted Critical
Publication of KR102629441B1 publication Critical patent/KR102629441B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0457Improvement of perceived resolution by subpixel rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling

Abstract

The present invention relates to an image generating method and a display device using the same. The image generator of the display device shifts a first frame data received from a system controller in the direction of a user movement by the amount of user movement to generate image data reflecting the user movement in real-time as one or more frame data. The user can enjoy a moving image in response to the user movement in real-time on the display device without feeling nausea or tired.

Description

영상 생성 방법과 이를 이용한 표시장치{IMAGE GENERATION METHOD AND DISPLAY DEVICE USING THE SAME}Image generation method and display device using the same{IMAGE GENERATION METHOD AND DISPLAY DEVICE USING THE SAME}

본 발명은 사용자의 움직임을 화면 상에 실시간 반영하는 영상 생성 방법과 이를 이용한 표시장치에 관한 것이다.The present invention relates to an image generation method for reflecting a user's movement on a screen in real time and a display device using the image.

가상 현실 기술은 국방, 건축, 관광, 영화, 멀티미디어, 게임 분야 등에서 가장 빠르고 발전하고 있다. 가상 현실은 입체 영상 기술을 이용하여 실제 환경과 유사하게 느껴지는 특정한 환경, 상황을 의미한다. Virtual reality technology is the fastest developing in defense, architecture, tourism, film, multimedia, and gaming. Virtual reality refers to a specific environment or situation that feels similar to the real environment using stereoscopic image technology.

가상 현실(Virtual Reality. 이하 “VR”이라 함) 시스템은 사용자의 움직임에 따라 입체 영상을 이동하고 입체 음향을 출력하여 사용자에게 가상 체험을 제공한다. VR 시스템은 HMD(Head Mounted Display), FMD(Face Mounted Display) 형태로 구현될 수 있다. 증강 현실(Augmented Reality, 이하 “AR”이라 함) 시스템은 현실 세계에 디지털 콘텐츠(contents)를 겹쳐 보이게 한다. 증강 현실 시스템은 EGD(Eye Glasses-type Display) 형태로 구현될 수 있다. The virtual reality (hereinafter referred to as “VR”) system moves a stereoscopic image according to a user's movement and outputs a stereoscopic sound to provide a virtual experience to the user. The VR system may be implemented in the form of a head mounted display (HMD) or a face mounted display (FMD). Augmented Reality (hereinafter referred to as “AR”) systems allow digital content to be superimposed on the real world. The augmented reality system may be implemented in the form of an eye glasses-type display (EGD).

VR/AR 시스템에서 표시패널의 화면 상에 입력 영상이 표시될 때까지의 지연 시간(Latency)이 화질에 큰 영향을 준다. 그래픽 처리 장치(Graphic Processing Unit, 이하 “GPU”라 함)로부터 생성된 영상 데이터가 디스플레이 구동부를 통해 표시패널의 픽셀들에 기입된다. 입력 영상의 데이터는 GPU의 이미지 처리 지연 시간과 표시장치의 지연 시간을 합한 총 지연 시간 이후에 데이터가 픽셀들에 표시된다. VR 시스템의 GPU는 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링(rendering)하여 새로운 이미지를 생성하는데, 렌더링 연산 시간으로 인하여 움직임이 반영된 이미지를 생성하기까지의 지연 시간이 사용자의 움직임을 따라가지 못하고 있다. 이로 인하여, 사용자는 멀미와 피로감을 크게 된다. In the VR/AR system, the latency until the input image is displayed on the screen of the display panel has a significant effect on image quality. Image data generated from a graphic processing unit (hereinafter referred to as “GPU”) is written to pixels of a display panel through a display driver. The data of the input image is displayed on the pixels after the total delay time, which is the sum of the image processing delay time of the GPU and the delay time of the display device. The GPU of the VR system reflects the user's movement and renders pixel data to create a new image. Due to the rendering operation time, the delay time before generating the image reflecting the movement cannot keep up with the user's movement. . Due to this, the user becomes greatly sick and tired.

본 발명은 사용자의 움직임을 실시간 반영한 이미지를 표시패널 상에 업데이트할 수 있는 영상 생성 방법과 이를 이용한 표시장치를 제공한다.The present invention provides an image generation method capable of updating an image reflecting a user's movement in real time on a display panel and a display device using the image.

본 발명의 영상 생성 방법은 시스템 제어부로부터 입력 영상의 제1 프레임 데이터를 수신 받는 단계; 상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계; 표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계; 상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함한다. The method for generating an image of the present invention includes receiving first frame data of an input image from a system controller; Generating, by the system controller, second frame data reflecting the movement of the user by starting rendering in response to a signal from a motion sensor; Determining a user's movement direction and movement amount from a signal of the motion sensor in an image generation unit of a display device; Generating, by the image generation unit of the display device, the first frame data by shifting the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data; After the image generation unit transmits one or more frame data obtained from the shift of the first frame data to a data driver, transmitting the second frame data received from the system controller to the data driver; And displaying, in the order of the first frame data, the first frame data, one or more frame data, and the second frame data, an image in which the movement of the user is reflected in real time on a screen of the display panel. Includes.

상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시패널의 화면 상에 표시된다. During the rendering operation for generating the second frame data in the system control unit, one or more frame data obtained from the shift of the first frame data is displayed on the screen of the display panel.

상기 영상 생성 방법은 상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함한다. The image generation method further includes the step of repeatedly transmitting the first frame data to the image generation unit by the system control unit during the rendering operation for generating the second frame data by the system control unit.

상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같다. The resolution of each of the first and second frame data is the same as the screen resolution of the display panel.

상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계; 상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및 상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함한다. In the image generating unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data indicates that the user's movement direction is indicated. Defining a reference area with a width equal to the amount of motion at the edge of the first frame data; Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And copying neighboring pixel data adjacent to the reference area to the reference area.

상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 크다. The resolution of each of the first and second frame data is greater than the screen resolution of the display panel.

상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성한다. In the image generating unit of the display device, the step of shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data is displayed on the screen of the display panel. The first pixel data to be written in the first pixel located on the leftmost side is shifted by the amount of movement in the movement direction on the first frame data to generate one or more frame data.

본 발명의 표시장치는 다수의 데이터 라인들, 다수의 게이트 라인들, 및 다수의 픽셀들이 매트릭스 형태로 배치된 화면을 포함한 표시패널; 모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부; 상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부; 상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및 상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함한다. 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시된다. The display device of the present invention includes a display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form; A system control unit connected to a motion sensor to generate first frame data of an input image, start rendering in response to a signal of the motion sensor, and generate second frame data reflecting the user's movement; It is connected to the motion sensor to determine the user's movement direction and amount of movement from the signal of the motion sensor, and shift the first frame data by the amount of movement in the movement direction to display the image data reflecting the movement of the user in real time An image generator that generates the above frame data; A data driver that converts image data received from the image generator into a data voltage and supplies the data lines to the data lines; And a gate driver supplying a gate signal synchronized with the data voltage to the gate lines. In the order of the first frame data, the one or more frame data obtained from the shift of the first frame data, and the second frame data, an image in which the user's movement is reflected in real time is displayed on the screen of the display panel.

본 발명은 입력 영상을 미리 설정된 해상도로 스케일링하여 표시장치의 타이밍 콘트롤러로 전송하는 시스템 제어부로부터 사용자의 움직임이 반영된 영상 데이터가 수신되기 전에 표시장치 내에서 영상 데이터를 사용자의 움직임 방향으로 사용자의 움직임만큼 시프트하여 지연 없이 사용자의 움직임이 실시간 반영된 영상 데이터를 발생하여 표시패널의 화면 상에 반영한다. According to the present invention, before the image data reflecting the user's movement is received from the system control unit that scales the input image to a preset resolution and transmits it to the timing controller of the display device, the image data in the display device is moved as much as the user's movement in the user's movement direction. By shifting, image data reflecting the user's movement in real time without delay is generated and reflected on the display panel.

따라서, 본 발명의 표시장치는 VR/AR 시스템에서 사용자가 멀미와 피로감 없이 표시장치에서 사용자의 움직임에 실시한 반응하여 이동되는 영상을 감상할 수 있게 한다. Accordingly, the display device of the present invention enables the user to view a moving image in response to a user's movement on the display device without motion sickness and fatigue in the VR/AR system.

도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다.
도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다.
도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 5는 GPU의 렌더링 과정으로 인하여 영상 업데이트가 지연되는 예를 보여 주는 도면이다.
도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다.
도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다.
도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러의 입력 영상과 영상 생성부에 의해 생성되는 영상을 보여 주는 도면이다.
도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상 데이터(overscan image)의 해상도를 보여 주는 도면이다.
도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 12 및 도 13은 시스템 제어부에 표시패널의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다.
도 14 및 도 15는 영상 생성부를 상세히 보여 주는 도면들이다.
1 is an exploded perspective view schematically showing an external configuration of a VR system according to an embodiment of the present invention.
2 is a block diagram showing a display device according to an exemplary embodiment of the present invention.
3 is a view showing an example in which two screens are implemented with two display panels.
4 is a diagram showing an example in which two screens are implemented by one display panel.
5 is a diagram illustrating an example in which an image update is delayed due to a rendering process of a GPU.
6 is a diagram showing an example of image data generated in the rendering process of the GPU.
7 is a view showing image data generated by a display device according to an embodiment of the present invention.
8A and 8B are diagrams illustrating a method of generating an image of a display device according to a first embodiment of the present invention.
9 is a view showing an input image of the timing controller and the image generated by the image generation unit in FIGS. 8A and 8B.
FIG. 10 is a view showing the screen resolution of the display device and the resolution of the overscan image data transmitted from the system control unit to the display device.
11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.
12 and 13 are diagrams showing a method of transmitting resolution information of a display panel to a system control unit.
14 and 15 are diagrams showing the image generator in detail.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다는 것에 주의하여야 한다. 이하의 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명은 특허청구범위에 의해 정의된다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. It should be noted that the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The following examples are provided to make the disclosure of the present invention complete, and to fully inform the scope of the invention to those of ordinary skill in the art. The invention is defined by the claims.

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. The shapes, sizes, ratios, angles, numbers, etc. disclosed in the drawings for describing the embodiments of the present invention are exemplary and the present invention is not limited to the illustrated matters. The same reference numerals refer to the same components throughout the specification. In addition, in the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

본 명세서 상에서 언급된 '구비한다', '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 ' ~ 만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다. When'equipped','include','have','consist of', etc. mentioned in this specification are used, other parts may be added unless'~ only' is used. When a component is expressed as a singular number, the plural number is included unless otherwise specified.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the components, it is interpreted as including the error range even if there is no explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, ' ~ 상에', ' ~ 상부에', ' ~ 하부에', ' ~ 옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다. In the case of the description of the positional relationship, for example, if the positional relationship of the two parts is described as'~ on','~ on top','~ on the bottom','~ next to', etc.,'right' Alternatively, one or more other parts may be located between the two parts unless'direct' is used.

실시예의 설명에서, 제1, 제2 등이 다양한 구성 요소들을 서술하기 위해서 사용되지만, 이들 구성 요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성 요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다.In the description of the embodiment, the first, second, etc. are used to describe various components, but these components are not limited by these terms. These terms are only used to distinguish one component from another component.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be partially or wholly combined or combined with each other, technically various interlocking and driving may be possible, and each of the embodiments may be independently implemented with respect to each other or may be implemented together in an associative relationship. It might be.

본 발명의 표시장치는 VR 시스템, AR 시스템과 같이 사용자의 움직임에 따라 영상 데이터의 프레임을 업데이트(update)하는 시스템에 적용 가능하다. 본 발명의 표시장치는 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치로 구현될 수 있다. The display device of the present invention is applicable to a system that updates a frame of image data according to a user's movement, such as a VR system or an AR system. The display device of the present invention may be implemented as a flat panel display device such as a liquid crystal display (LCD) or an organic light emitting display (OLED).

VR/AR 시스템은 모션 센서를 이용하여 사용자의 움직임을 감지할 수 있고, 사용자가 움직일 때 표시장치에서 재현되는 영상 데이터의 프레임을 업데이트한다. 모션 센서(Motion sensor)는 자이로 센서 또는 가속도 센서를 포함할 수 있다.The VR/AR system can detect a user's movement using a motion sensor and updates a frame of image data reproduced on a display device when the user moves. The motion sensor may include a gyro sensor or an acceleration sensor.

본 발명의 영상 생성 방법은 시스템의 영상 처리부에서 사용자의 움직임을 반영하여 영상 데이터를 업데이트하는데 필요한 렌더링(Rendering) 과정에서 모션 센서의 출력 신호를 표시장치로 전송한다. 본 발명의 표시장치는 모션 센서의 출력 신호에 응답하여 사용자의 움직임을 반영하여 픽셀 데이터를 시프트함으로써 렌더링 과정 없이 사용자의 움직임을 반영하여 화면 상에서 영상 데이터를 업데이트한다. 본 발명의 표시장치는 시스템의 영상 처리부에서 렌더링이 진행되는 동안 사용자의 움직임이 반영된 하나 이상의 영상 데이터를 생성하여 화면 상에 업데이트함으로써 사용자의 움직임이 실시간 반영되는 영상을 화면 상에서 재현할 수 있다. 시스템의 영상 처리부는 GPU로 해석될 수 있다.The image generation method of the present invention transmits an output signal of a motion sensor to a display device in a rendering process necessary to update image data by reflecting a user's movement in the image processing unit of the system. The display device of the present invention updates the image data on the screen by reflecting the user's movement without rendering by shifting the pixel data by reflecting the user's movement in response to the output signal of the motion sensor. The display device of the present invention can reproduce one or more image data reflecting the user's movement while rendering is being performed by the image processing unit of the system and update it on the screen, thereby reproducing an image on which the user's movement is reflected in real time on the screen. The image processing unit of the system can be interpreted as a GPU.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Throughout the specification, the same reference numerals refer to substantially the same components. In the following description, when it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description is omitted.

도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다. 도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다. 도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다. 도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다. 1 is an exploded perspective view schematically showing an external configuration of a VR system according to an embodiment of the present invention. 2 is a block diagram showing a display device according to an exemplary embodiment of the present invention. 3 is a view showing an example in which two screens are implemented with two display panels. 4 is a diagram showing an example in which two screens are implemented by one display panel.

도 1 내지 도 4를 참조하면, VR 시스템은 렌즈 모듈(lens module, 12), 디스플레이 모듈(display module, 13), 메인 보드(14), 헤드 기어(headgear, 11), 사이드 프레임(side frame)(15), 프론트 커버(front cover)(16) 등을 포함한다. 1 to 4, the VR system includes a lens module 12, a display module 13, a main board 14, a headgear 11, and a side frame. (15), a front cover (front cover) 16, and the like.

디스플레이 모듈(13)은 메인 보드(14)로부터 수신된 입력 영상을 표시한다. 디스플레이 모듈(13)은 표시패널(100)과, 표시패널(100)에 입력 영상의 픽셀 데이터(RGB)를 기입하는 디스플레이 구동부(200)를 포함한다. 디스플레이 모듈(13)은 도 3에 도시된 바와 같이 두 개의 표시패널들(100A, 100B)로 두 개의 화면(AA)을 구현하거나 도 4에 도시된 바와 같이 하나의 표시패널(100)에서 두 개의 화면을 구현할 수 있다. 제1 화면(AA1)은 사용자의 좌안으로 보이는 영상을 표시하고, 제2 화면(AA2)은 사용자의 우안으로 보이는 영상을 표시한다. The display module 13 displays the input image received from the main board 14. The display module 13 includes a display panel 100 and a display driver 200 that writes pixel data RGB of an input image to the display panel 100. The display module 13 implements two screens AA with two display panels 100A and 100B as shown in FIG. 3 or two display panels in one display panel 100 as shown in FIG. 4. You can implement the screen. The first screen AA1 displays an image seen by the user's left eye, and the second screen AA2 displays an image seen by the user's right eye.

디스플레이 모듈(13)에서 재현되는 영상은 사용자의 움직임에 따라 시프트(shift)된다. 사용자의 움직임 방향에 대하여 반대로 영상이 시프트된다. 디스플레이 모듈(13)에서 재현되는 영상은 VR 시스템에서 2D/3D 영상일 수 있다. The image reproduced in the display module 13 is shifted according to the user's movement. Conversely, the image is shifted with respect to the user's movement direction. The image reproduced in the display module 13 may be a 2D/3D image in a VR system.

표시패널(100)은 액정표시장치(Liquid Crystal Display, LCD), 유기발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치의 표시패널로 구현될 수 있다. 표시패널(100)은 데이터 전압이 인가되는 데이터 라인들(102), 게이트 펄스(또는 스캔 펄스)가 인가되는 게이트 라인들(또는 스캔 라인들, 104), 및 데이터 라인들(102)과 게이트 라인들(104)의 교차 구조에 의해 정의된 매트릭스 형태로 배열되어 데이터 라인들과 게이트 라인들에 전기적으로 연결된 픽셀들(101)을 포함한다. 픽셀들(101) 각각은 컬러 구현을 위하여 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀로 나뉘어진다. 픽셀들 각각은 백색 서브 픽셀을 더 포함할 수 있다. 서브 픽셀들 각각은 하나 이상의 TFT(Thin Film Transistor)를 포함할 수 있다. The display panel 100 may be implemented as a display panel of a flat panel display device such as a liquid crystal display (LCD), an organic light emitting display (OLED), or the like. The display panel 100 includes data lines 102 to which a data voltage is applied, gate lines (or scan lines 104) to which a gate pulse (or scan pulse) is applied, and data lines 102 and a gate line. It includes pixels 101 arranged in a matrix form defined by the crossing structure of the fields 104 and electrically connected to data lines and gate lines. Each of the pixels 101 is divided into a red sub-pixel, a green sub-pixel, and a blue sub-pixel for color realization. Each of the pixels may further include a white sub-pixel. Each of the sub-pixels may include one or more thin film transistors (TFTs).

디스플레이 구동부(200)는 메인 보드(14)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 표시패널(100)의 픽셀들에 기입한다. 디스플레이 구동부(200)는 도 3에 도시된 바와 같이 데이터 구동부(110), 게이트 구동부(120), 및 타이밍 콘트롤러(timing controller, 130)) 등을 구비한다. The display driver 200 writes the pixel data RGB of the input image received from the GPU of the main board 14 to the pixels of the display panel 100. The display driver 200 includes a data driver 110, a gate driver 120, and a timing controller 130 as shown in FIG. 3.

데이터 구동부(110)는 입력 영상의 픽셀 데이터(RGB)를 감마 보상 전압으로 변환하여 데이터 전압을 발생하여 데이터 라인들(102)에 공급한다. 게이트 구동부(120)는 데이터 전압에 동기되는 게이트 신호를 게이트 라인들(104)에 순차적으로 공급한다. The data driver 110 converts the pixel data RGB of the input image into a gamma compensation voltage to generate a data voltage and supplies the data voltage to the data lines 102. The gate driver 120 sequentially supplies a gate signal synchronized with the data voltage to the gate lines 104.

타이밍 콘트롤러(130)는 메인보트(150)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 데이터 구동부(110)로 전송한다. 타이밍 콘트롤러(130)에 연결된 메모리에 표시패널(100)의 구동에 필요한 정보와 표시장치의 기본 정보가 저장될 수 있다. 메모리는 EEPROM(Electrically Erasable Programmable Read-Only Memory, 134)일 수 있다. 타이밍 콘트롤러(130)는 메인 보드(14)의 GPU로부터 수신된 타이밍 신호와 EEPROM(134)에 저장된 설정 데이터를 비교하여 입력 영상의 픽셀 데이터와 동기되도록 데이터 구동부(110)와 게이트 구동부(120)의 구동 타이밍을 제어한다.The timing controller 130 transmits the pixel data RGB of the input image received from the GPU of the main boat 150 to the data driver 110. Information required for driving the display panel 100 and basic information of the display device may be stored in a memory connected to the timing controller 130. The memory may be EEPROM (Electrically Erasable Programmable Read-Only Memory, 134). The timing controller 130 compares the timing signal received from the GPU of the main board 14 with the setting data stored in the EEPROM 134 to synchronize the pixel data of the input image so that the data driver 110 and the gate driver 120 Control the driving timing.

타이밍 콘트롤러(130)는 EEPROM(134)는 외부의 ROM writer에 연결되어 ROM writer를 통해 수신된 데이터를 EEPROM(134)에 저장(write)할 수 있다. 타이밍 콘트롤러(130)는 EEPROM(134)에 표시패널의 구동에 필요한 설정 데이터와, EDID(Extended display identification data) 데이터를 저장하거나 갱신(update)할 수 있다. EDID 데이터는 표시장치의 제조사 정보, 제품 모델 정보, 표시패널(100)의 화면 해상도, 구동 타이밍 관련 정보, 휘도, 픽셀 정보 등 표시장치에 관한 정보를 포함한다. The timing controller 130 may be connected to an external ROM writer, and the EEPROM 134 may write data received through the ROM writer to the EEPROM 134. The timing controller 130 may store or update configuration data required for driving the display panel and EDID (Extended Display Identification Data) data in the EEPROM 134. EDID data includes information about a display device such as manufacturer information of a display device, product model information, screen resolution of the display panel 100, driving timing related information, luminance, and pixel information.

VR 시스템과 같은 모바일 시스템 또는 웨어러블 기기에서, 타이밍 콘트롤러(130)와 데이터 구동부(110)는 도 4에 도시된 바와 같이 하나의 드라이브 IC(113) 내에 집적될 수 있다. In a mobile system such as a VR system or a wearable device, the timing controller 130 and the data driver 110 may be integrated in one drive IC 113 as shown in FIG. 4.

렌즈 모듈(12)은 사용자의 좌우안 화각을 넓히기 위한 초광각 렌즈 즉, 한 쌍의 어안 렌즈(Fisheye Lens)를 포함한다. 한 쌍의 어안 렌즈는 제1 화면(AA1) 앞에 배치된 좌안 렌즈와, 제2 화면(AA2) 앞에 배치된 우안 렌즈를 포함한다.The lens module 12 includes an ultra-wide-angle lens, that is, a pair of fisheye lenses, for widening the angle of view of the left and right eyes of the user. The pair of fish-eye lenses includes a left-eye lens disposed in front of the first screen AA1 and a right-eye lens disposed in front of the second screen AA2.

헤드 기어(11)는 어안 렌즈들을 노출하는 백 커버(back cover), 백 커버에 연결된 밴드(band)를 포함한다. 헤드 기어(11)의 백 커버, 사이드 프레임(15) 및 프론트 커버(16)는 조립되어 VR 시스템과 구성 요소들(12, 13, 14)이 배치되는 내부 공간을 확보하고 그 구성 요소들을 보호한다. 밴드는 백 커버에 연결된다. 사용자는 밴드로 자신의 머리에 VR 시스템을 착용한다. 사용자가 VR 시스템을 자신의 머리에 쓰면, 어안 렌즈들을 통해 좌안과 우안으로 서로 다른 화면들(AA, AA2)을 바라 보게 된다.The head gear 11 includes a back cover exposing fisheye lenses and a band connected to the back cover. The back cover, side frame 15 and front cover 16 of the head gear 11 are assembled to secure the interior space in which the VR system and components 12, 13, 14 are arranged and protect the components. . The band is connected to the back cover. The user wears the VR system on his head as a band. When the user wears the VR system on his head, he sees different screens AA and AA2 through the fish-eye lenses to the left and right eyes.

사이드 프레임(15)은 헤드 기어(11)와 프론트 커버(16) 사이에 고정되어 렌즈 모듈(12), 디스플레이 모듈(13), 메인 보드(14)가 배치된 내부 공간의 갭(gap)을 확보한다. 프론트 커버(16)는 VR 시스템의 전면에 배치된다.The side frame 15 is fixed between the head gear 11 and the front cover 16 to secure a gap in the interior space in which the lens module 12, the display module 13, and the main board 14 are disposed. do. The front cover 16 is disposed on the front of the VR system.

메인 보드(14)는 시스템 제어부(300), 센서 모듈(302), 및 카메라 모듈(304)을 포함한다. 메인 보드(14)는 외부 기기와 연결되는 인터페이스 모듈, 센서 모듈(26) 등을 더 포함한다. 인터페이스 모듈은 Universal serial bus(USB), High definition multimedia interface (HDMI) 등의 인터페이스를 통해 외부 기기와 연결된다. The main board 14 includes a system controller 300, a sensor module 302, and a camera module 304. The main board 14 further includes an interface module connected to an external device, a sensor module 26, and the like. The interface module is connected to an external device through an interface such as Universal serial bus (USB), High definition multimedia interface (HDMI).

시스템 제어부(300)는 가상 현실 소프트웨어를 실행한다. 시스템 제어부(300)는 입력 영상의 픽셀 데이터(RGB)와, 픽셀 데이터(RGB)에 동기되는 타이밍 신호를 디스플레이 모듈(13)에 공급하는 GPU를 포함한다.The system controller 300 runs virtual reality software. The system controller 300 includes a GPU that supplies pixel data RGB of the input image and a timing signal synchronized with the pixel data RGB to the display module 13.

센서 모듈(302)은 자이로 센서, 3축 가속도 센서 등 모션 센서를 포함한다. 센서 모듈(302)은 사용자 움직임을 센싱하여 시스템 제어부(300)와 디스플레이 구동부(200)로 전송한다. The sensor module 302 includes a gyro sensor, a motion sensor, such as a 3-axis acceleration sensor. The sensor module 302 senses user movement and transmits it to the system controller 300 and the display driver 200.

시스템 제어부(300)는 인터페이스 모듈을 통해 외부로부터 입력 영상의 픽셀 데이터(RGB)를 수신할 수 있다. GPU는 표시장치로부터 수신된 디스플레이 정보에 맞게 입력 영상의 해상도를 변환한다. 디스플레이 정보는 EDIC(Extended Display Identification Data)일 수 있다. GPU는 센서 모듈(302)의 출력 신호에 응답하여 사용자의 움직임을 반영된 영상 데이터를 렌더링(rendering)하여 새로운 프레임 데이터를 생성함으로써 사용자의 움직임에 따라 화면들(AA2, AA2)에 표시되는 영상을 이동시킨다. The system controller 300 may receive pixel data (RGB) of the input image from the outside through the interface module. The GPU converts the resolution of the input image according to the display information received from the display device. The display information may be EDIC (Extended Display Identification Data). The GPU moves image displayed on the screens AA2 and AA2 according to the user's movement by generating new frame data by rendering image data reflecting the user's movement in response to the output signal of the sensor module 302. Order.

GPU는 미리 설정된 아이 트랙킹 알고리즘(eye tracking algorithm)을 실행하여 카메라(304)로부터 얻어진 영상을 분석하여 사용자의 시선이 향하는 초점 영역을 추정한다. GPU는 포비에이티드 렌더링 알고리즘(foveated rendering algorithm)을 이용하여 사용자의 시선이 향하는 초점 영역의 해상도를 높이고, 초점 영역 밖의 주변 영역에서 입력 영상의 해상도를 낮출 수 있다. The GPU analyzes an image obtained from the camera 304 by executing a preset eye tracking algorithm to estimate a focus area facing the user's gaze. The GPU may increase the resolution of the focus area facing the user's gaze and lower the resolution of the input image in a peripheral area outside the focus area by using a foveated rendering algorithm.

GPU는 모션 센서를 이용한 모션 트랙킹(motion tracking)에 의해 사용자의 움직임이 감지되면 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링하여 사용자의 움직임이 반영된 영상 데이터를 생성하여 타이밍 콘트롤러(130)로 전송한다. When the user's movement is detected by motion tracking using a motion sensor, the GPU renders pixel data reflecting the user's movement, generates image data reflecting the user's movement, and transmits the image data to the timing controller 130.

타이밍 콘트롤러(130)는 GPU가 사용자의 움직임을 반영하여 렌더링하는 동안 하나 이상의 영상 데이터를 생성하는 영상 생성부(132)를 포함한다. 영상 생성부(132)는 센서 모듈(302)로부터 모션 센서의 출력 신호(MSS)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 영상 생성부(132)는 사용자 움직임에 따라 현재 영상 데이터를 시프트(shift)하여 GPU에 의해 픽셀 렌더링 연산 후 생성되는 프레임 데이터 보다 빠르게 하나 이상의 영상 데이터를 생성한다. The timing controller 130 includes an image generating unit 132 that generates one or more image data while rendering the GPU by reflecting the user's movement. The image generating unit 132 receives the output signal MSS of the motion sensor from the sensor module 302 and determines a user's motion direction (Vector) and motion amount (Scalar). The image generating unit 132 shifts the current image data according to a user's movement to generate one or more image data faster than frame data generated after a pixel rendering operation by the GPU.

영상 생성부(132)는 시스템 제어부(300)로부터 입력 영상의 제1 프레임 데이터를 수신 받는다. 시스템 제어부(300)는 모션 센서의 신호에 응답하여 렌더링을 시작하여 사용자의 움직임이 반영된 제2 프레임 데이터를 생성한다. 영상 생성부(132)는 모션 센서의 신호에 응답하여 사용자의 움직임 방향과 움직임 양을 판단하고, 제1 프레임 데이터를 사용자의 움직임 방향으로 움직임 양만큼 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성한다. 영상 생성부(132)는 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부(110)로 전송한 후에, 시스템 제어부(300)로부터 수신된 제2 프레임 데이터를 데이터 구동부(110)로 전송한다. 그 결과, 표시패널(100)의 화면(AA) 상에 제1 프레임 데이터, 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 사용자의 움직임이 실시간 반영된 영상이 표시된다. The image generator 132 receives the first frame data of the input image from the system controller 300. The system controller 300 starts rendering in response to a signal from the motion sensor to generate second frame data reflecting the user's movement. The image generating unit 132 determines the user's movement direction and amount of movement in response to a signal from the motion sensor, and shifts the first frame data by the amount of movement in the direction of the user's movement to retrieve the image data reflecting the user's movement in real time. It is created with the above frame data. The image generator 132 transmits one or more frame data obtained from the shift of the first frame data to the data driver 110, and then transmits the second frame data received from the system controller 300 to the data driver 110. do. As a result, on the screen AA of the display panel 100, first frame data, one or more frame data obtained from the shift of the first frame data, and an image in which the user's movement is reflected in real time in the order of the second frame data are displayed. Is displayed.

시스템 제어부(300)에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 입력 영상의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 표시패널(100)의 화면 상에 표시된다. GPU부에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, GPU는 영상 생성부(132)에 제1 프레임 데이터를 하나 이상 반복 전송한다. During the rendering operation for generating the second frame data in the system control unit 300, one or more frame data obtained from the shift of the input image is displayed on the screen of the display panel 100. During the rendering operation for generating the second frame data in the GPU unit, the GPU repeatedly transmits one or more first frame data to the image generation unit 132.

픽셀 데이터의 렌더링이나 MEMC(Motion Estimation Motion Compensation) 알고리즘 연산에 필요한 지연 시간이 필요하기 때문에 GPU의 렌더링이나 MEMC 지연 시간은 사용자의 움직임과 표시패널 상에 재현되는 영상의 실제 업데이트 시간 사이의 시간차를 초래한다. Since the delay time required for the rendering of pixel data or the operation of the Motion Estimation Motion Compensation (MEMC) algorithm is required, the GPU rendering or MEMC delay time causes a time difference between the user's movement and the actual update time of the image reproduced on the display panel. do.

도 5에 도시된 바와 같이 모션 트랙킹(motion tracking)에서 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU는 사용자 움직임을 반영하여 렌더링 연산을 하여 픽셀 데이터들을 생성한다. GPU에서 수행되는 렌더링은 사용자의 움직임을 반영하여 하나의 장면(프레임) 데이터에서 개체들 각각에 적용되는 조명 효과, 픽셀 데이터 각각의 깊이(depth)를 조정하는 프리 렌더링(pre-rendering) 과정이다. 이러한 렌더링에 필요한 계산양이 많기 때문에 렌더링 시간은 통상 20ms 이상이다. As illustrated in FIG. 5, when a user's movement is detected in motion tracking, the GPU of the system controller 300 reflects the user's movement and performs rendering operations to generate pixel data. Rendering performed in the GPU is a pre-rendering process that adjusts a lighting effect applied to each of the objects in one scene (frame) data and a depth of each pixel data in response to a user's movement. Because of the large amount of calculation required for such rendering, the rendering time is usually 20 ms or more.

MEMC는 프레임간 픽셀 데이터를 비교하여 이전 프레임과 현재 프레임 간의 비교를 위하여 아래와 같은 양방향 절대차(sum of bilateral absolute difference, SBAD)로 모션 벡터(Motion vector)를 계산하기 때문에 계산량이 많기 때문에 지연 시간이 적지 않다. MEMC는 두 개의 프레임 데이터를 비교하기 때문에 두 개의 프레임 메모리를 필요로 한다.MEMC calculates a motion vector with the sum of bilateral absolute difference (SBAD) as follows to compare pixel data between frames to compare the previous frame with the current frame. Not many Since MEMC compares two frame data, it needs two frame memories.

VR 시스템의 GPU에서 다음 프레임 데이터가 생성될 때까지 렌더링에 필요한 시간이 32ms 정도 필요하여 사용자의 움직임 속도를 따라가지 못한다. 도 5에서 “RF(N)”과 “RF(N+1)”은 GPU에서 사용자 움직임을 반영하여 렌더링되어 생성된 입력 영상의 제N 및 제N+1 프레임 데이터이다. Until the next frame data is generated on the GPU of the VR system, the time required for rendering is about 32ms, and it cannot keep up with the user's movement speed. In FIG. 5, “RF(N)” and “RF(N+1)” are N and N+1 frame data of an input image generated by rendering by reflecting a user's movement in a GPU.

따라서, GPU의 렌더링 처리 시간으로 인하여 표시패널(100)에서 재현되는 영상의 업데이트가 지연된다. 이로 인하여, 사용자의 움직임과 화면의 업데이트가 불일치하고 렌더링으로 인하여 사용자 움직임이 영상 업데이트에 반영되기까의 시간 차이가 20ms 이상일 때 사용자가 멀미를 느끼게 된다. Therefore, the update of the image reproduced on the display panel 100 is delayed due to the rendering processing time of the GPU. Due to this, when the user's movement and the screen update are inconsistent, and the time difference between the rendering and the user's movement reflected in the video update is 20 ms or more, the user may feel motion sickness.

도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다. 6 is a diagram showing an example of image data generated in the rendering process of the GPU.

도 6을 참조하면, GPS는 모션 트랙킹에 의해 사용자의 움직임이 감지되면 렌더링을 시작하고 렌더링 과정에서 이전 영상 데이터[RF(N)]를 다시 표시장치로 전송한 다음, 렌더링 연산 결과 사용자의 움직임이 반영된 다음 영상 데이터[RF(N+1)]를 표시장치로 전송할 수 있다. 표시장치는 사용자가 움직이는 동안 시스템 제어부(300)로부터 수신된 동일한 영상 데이터(정지 영상)를 반복하여 표시패널 상에 표시할 수 있다. 이 경우에, 사용자가 움직이는 과정에서 움직임이 반영되지 않은 동일한 제N 영상 데이터[RF(N)]기 표시패널(100)의 화면(AA) 상에 반복 표시되기 때문에 사용자가 멀미를 느낄 수 있다. Referring to FIG. 6, GPS starts rendering when a user's motion is detected by motion tracking, transmits previous image data [RF(N)] back to a display device in the rendering process, and then renders the user's motion The reflected next image data [RF(N+1)] may be transmitted to the display device. The display device may repeatedly display the same image data (still image) received from the system controller 300 while the user is moving. In this case, the user may feel motion sickness because it is repeatedly displayed on the screen AA of the display panel 100 of the same N-th image data [RF(N)] in which movement is not reflected in the process of the user moving.

도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다. 도 7에서 RF(N) 및 RF(N+1)은 시스템 제어부(300)의 GPU에서 생성된 영상 데이터다. Image1 및 Image2는 표시장치에 의해 생성된 영상 데이터다.7 is a view showing image data generated by a display device according to an embodiment of the present invention. In FIG. 7, RF(N) and RF(N+1) are image data generated by the GPU of the system controller 300. Image1 and Image2 are image data generated by the display device.

도 7을 참조하면, 시스템 제어부(300)의 GPU는 모션 센서에 의해 사용자 움직임이 감지되면 사용자 움직임을 반영한 영상 데이터를 생성하기 위하여 렌더링을 실시한다. 렌더링은 20ms 이상의 시간이 필요하다. Referring to FIG. 7, when the user motion is detected by the motion sensor, the GPU of the system controller 300 performs rendering to generate image data reflecting the user motion. Rendering requires 20ms or more.

표시장치의 영상 생성부(132)는 제N 영상 데이터[RF(N)]와 모션 센서의 출력 신호(MSS)를 GPU로부터 수신 받을 수 있다. 모션 센서의 출력 신호는 사용자의 움직임을 실시간 지시하는 모션 트랙킹 데이터(Motion tracking data)를 포함한다. 모션 트랙킹 데이터는 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 지시한다. The image generating unit 132 of the display device may receive the N-th image data [RF(N)] and the output signal MSS of the motion sensor from the GPU. The output signal of the motion sensor includes motion tracking data indicating the user's movement in real time. The motion tracking data indicates a user's motion direction (Vector) and motion amount (Scalar).

영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제N 영상 데이터[RF(N)]를 시프트하여 제1 시프트 영상 데이터(Image1)를 생성하여 데이터 구동부(110)로 전송한다. 제1 시프트 영상 데이터(Image1)는 제N 영상 데이터[RF(N)]의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다. 이어서, 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제1 시프트 영상 데이터(Image1)를 시프트하여 제2 시프트 영상 데이터(Image2)를 생성한다. 제2 시프트 영상 데이터(Image2)는 제1 시프트 영상 데이터(Image1)의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다.The image generating unit 132 generates the first shift image data Image1 by shifting the N-th image data [RF(N)] in the user's movement direction in response to the output signal MSS of the motion sensor to generate a data driver ( 110). The first shift image data Image1 is data in which the display position of the Nth image data [RF(N)] is shifted by the amount of the user's movement in the direction of the user's movement. Subsequently, the image generation unit 132 generates the second shift image data Image2 by shifting the first shift image data Image1 in the user's movement direction in response to the output signal MSS of the motion sensor. The second shift image data Image2 is data in which the display position of the first shift image data Image1 is shifted by the amount of the user's movement in the direction of the user's movement.

영상 생성부(132)는 렌더링 연산 없이 단순히 입력 받은 영상 데이터의 표시 위치만 시프트하기 때문에 시프트된 영상 데이터(Image1, Image2)를 생성하기까지의 지연 시간이 거의 없다. 따라서, 영상 생성부(132)는 GPU가 렌더링 연산하여 픽셀 데이터를 생성하는 동안 사용자 움직임이 반영된 하나 이상의 프레임 데이터(Image1, Image2)를 생성할 수 있다.Since the image generation unit 132 simply shifts the display position of the received image data without rendering operation, there is almost no delay time to generate the shifted image data (Image1, Image2). Accordingly, the image generation unit 132 may generate one or more frame data (Image1, Image2) reflecting the user's movement while the GPU performs rendering operation to generate pixel data.

도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. 8A and 8B are diagrams showing a method of generating an image of a display device according to a first embodiment of the present invention.

도 8a 및 도 8b를 참조하면, 영상 생성부(132)는 모션 센서의 출력 신호에 따라 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU로부터 수신 받은 영상 데이터[RF(N)]에서 사용자의 움직임 방향이 지시하는 참조 영역(REF)의 데이터를 정의한다. 8A and 8B, when the user's movement is detected according to the output signal of the motion sensor, the image generation unit 132 uses the image data [RF(N)] received from the GPU of the system controller 300. Data of the reference area REF indicated by the direction of movement is defined.

GPU에 의해 사용자 움직임이 반영된 제N 및 제N+1 영상 데이터[RF(N), RF(N+1)]는 제1 계조 값의 픽셀 데이터를 포함한 제1 계조 영역(71), 제2 계조 값의 픽셀 데이터를 포함한 제2 계조 영역(72), 및 제3 계조 값의 픽셀 데이터를 포함한 제3 계조 영역(73)을 포함할 수 있다. 사용자의 머리가 도 8a에 도시된 바와 같이 우상단으로 움직이면, 제1 계조 영역(71)은 감소되고 제2 및 제3 계조 영역(72, 73)이 넓어진다. The N and N+1 image data (RF(N), RF(N+1)) in which user motion is reflected by the GPU includes first grayscale regions 71 and second grayscales including pixel data of a first grayscale value. A second grayscale region 72 including pixel data of a value and a third grayscale region 73 including pixel data of a third grayscale value may be included. When the user's head moves to the upper right end as shown in Fig. 8A, the first gradation region 71 is reduced and the second and third gradation regions 72 and 73 are widened.

참조 영역(REF)은 사용자의 움직임 방향이 지시하는 화면(AA)의 가장자리에 표시될 데이터이다. 예를 들어, 도 8a에 도시된 바와 같이 사용자의 머리가 우상단 방향으로 움직이면 참조 영역(REF)은 화면의 우측 가장자리와 상단 가장자리 영역으로 정의된다. 도 8b에 도시된 바와 같이 사용자의 머리가 좌하단 방향으로 움직이면 참조 영역(REF)은 화면의 좌측 가장자리와 하단 가장자리 영역으로 지정된다. 참조 영역(AA)의 폭은 사용자의 움직임 양 만큼 설정된다. The reference area REF is data to be displayed on the edge of the screen AA indicated by the user's movement direction. For example, as illustrated in FIG. 8A, when the user's head moves in the upper right direction, the reference area REF is defined as a right edge and a top edge area of the screen. As shown in FIG. 8B, when the user's head moves in the lower left direction, the reference area REF is designated as the left edge and bottom edge regions of the screen. The width of the reference area AA is set by the amount of movement of the user.

영상 생성부(132)는 참조 영역(REF) 만큼 사용자의 움직임 방향과 반대 방향으로 참조 영역(REF) 만큼 영상 데이터의 표시 위치를 시프트하여 데이터 구동부(110)로 전송한다. 참조 영역(REF)의 픽셀 데이터는 현재의 픽셀 데이터와 동일한 의사 데이터(Pseudo data)로 채워진다. 도 8a에서 의사 데이터는 제2 계조 영역(72)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. 도 8b에서 의사 데이터는 제1 계조 영역(71)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. The image generator 132 shifts the display position of the image data by the reference region REF in the direction opposite to the user's movement direction by the reference region REF and transmits the image data to the data driver 110. The pixel data of the reference area REF is filled with the same pseudo data as the current pixel data. In FIG. 8A, the pseudo data may be generated by copying pixel data of the second grayscale region 72. In FIG. 8B, the pseudo data may be generated by copying pixel data of the first grayscale region 71.

화면의 가장 자리에 표시되는 데이터는 배경 데이터이기 때문에 장면이 전환되는 프레임이 아니면 참조 영역에서 프레임간 데이터 변화가 거의 없고 사용자의 관심 영역이 아니다. 이로 인하여, 참조 영역(REF)에서 프레임간 변화가 없더라도 사용자가 이를 인식하지 못할 확률이 높다. Since the data displayed on the edge of the screen is background data, there is little change in data between frames in the reference area unless the scene is a switched frame, and it is not the user's area of interest. For this reason, even if there is no inter-frame change in the reference area REF, there is a high probability that the user cannot recognize it.

본 발명의 제1 실시예에 따른 영상 생성 방법은 현재 프레임 데이터의 표시 위치를 시프트하고 이웃한 픽셀 데이터로부터 얻어진 의사 데이터로 참조 영역(REF)을 채워 넣음으로써 GPU로부터 제N+1 영상 데이터[RF(N+1)]가 타이밍 콘트롤러(130)에 수신되기 전에 하나 이상의 시프트 영상 데이터(Image1, Image2)를 생성할 수 있다. 따라서, 본 발명의 제1 실시예에 따른 영상 생성 방법은 사용자의 움직임을 실시간 반영한 영상 데이터로 화면(AA) 상에 표시된 영상을 빠르게 업데이트하여 화질 저하 없이 사용자의 멀미와 피로감 문제를 개선할 수 있다. The image generation method according to the first embodiment of the present invention shifts the display position of the current frame data and fills the reference area REF with pseudo data obtained from neighboring pixel data to generate N+1 image data [RF from the GPU] (N+1)] may be generated one or more shift image data (Image1, Image2) before being received by the timing controller 130. Therefore, in the image generating method according to the first embodiment of the present invention, the image displayed on the screen AA can be quickly updated with image data reflecting the user's movement in real time, thereby improving the user's motion sickness and fatigue problems without deteriorating image quality. .

도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러(130)의 입력 영상[RF(N)]과 영상 생성부(132)에 의해 생성되는 영상(Image1)을 나타낸다. 타이밍 콘트롤러(130)는 도 9에 도시된 바와 같이 표시패널의 화면(AA)의 해상도(x * y)와 같은 해상도를 갖는 제N 영상 데이터[RF(N)]]를 수신 받아 사용자의 움직임 만큼 그 데이터[RF(N)]의 표시 위치만 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터(Image1)를 생성한다. 9 shows an input image [RF(N)] of the timing controller 130 in FIGS. 8A and 8B and an image Image1 generated by the image generation unit 132. As shown in FIG. 9, the timing controller 130 receives the Nth image data [RF(N)] having the same resolution as the resolution (x * y) of the screen AA of the display panel, and as much as the user moves. Only the display position of the data [RF(N)] is shifted to generate image data Image1 reflecting the user's movement in real time.

도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상(overscan image)의 해상도를 보여 주는 도면이다. 도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. FIG. 10 is a view showing a screen resolution of a display device and a resolution of an overscan image transmitted from the system control unit to the display device. 11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.

도 10 내지 도 11f를 참조하면, 시스템 제어부(300)의 GPU는 표시장치의 해상도(x * y) 보다 큰 해상도(X * Y)를 갖는 오버스캔 영상(OAA) 데이터를 표시장치로 전송할 수 있다. 10 to 11F, the GPU of the system controller 300 may transmit overscan image (OAA) data having a resolution (X * Y) greater than the resolution (x * y) of the display device to the display device. .

영상 생성부(132)는 GPU로부터 수신된 오버 스캔 영상에서 표시패널(100)의 화면 해상도(AA = x * y) 크기로 정의된 선택 영역(SA)에 존재하는 픽셀 데이터를 데이터 구동부(110)로 전송한다. 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 따라 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판단하여 그 움직임 방향으로 선택 영역(SA)의 표시 위치를 시프트하여 시프트 영상 데이터(Image1, Image2)를 생성한다. 선택 영역(SA)은 사용자의 움직임 양만큼 시프트된다. The image generation unit 132 uses the pixel driver existing in the selected area SA defined by the size of the screen resolution (AA = x * y) of the display panel 100 in the overscan image received from the GPU. Transfer to. The image generating unit 132 determines a user's motion direction (Vector) and motion amount (Scalar) according to the output signal (MSS) of the motion sensor, shifts the display position of the selection area SA in the motion direction, and shifts the image. Data (Image1, Image2) is generated. The selection area SA is shifted by the amount of movement of the user.

영상 생성부(132)는 GPU로부터 수신된 오버스캔 영상 데이터를 지연시키지 않고 매 프레임 기간마다 데이터 구동부(110)로 전송되는 제1 픽셀 데이터의 표시 위치만 수신된 오버스캔 영상 데이터 상에서 시프트한다. 여기서, 오버스캔 영상 데이터는 GPU로부터 수신된 프레임 데이터[RF(N)]이다. 제1 픽셀 데이터는 도 11a 내지 도 11f에 도시된 바와 같이 표시패널(100)의 화면(AA) 상에서 상단 최좌측에 위치하는 제1 픽셀[P(1,1)]에 기입될 픽셀 데이터이다. 제1 픽셀 데이터의 위치가 정해지면, 제1 픽셀 데이터를 기준으로 화면의 해상도에 의해 정해지는 선택 영역(SA)의 픽셀 데이터가 정의되기 때문에 제1 픽셀 데이터의 표시 위치만 결정되면 선택 영역이 자동 정의된다.The image generator 132 shifts on the received overscan image data only the display position of the first pixel data transmitted to the data driver 110 every frame period without delaying the overscan image data received from the GPU. Here, the overscan image data is frame data [RF(N)] received from the GPU. The first pixel data is pixel data to be written in the first pixel [P(1,1)] positioned at the upper leftmost position on the screen AA of the display panel 100 as shown in FIGS. 11A to 11F. When the position of the first pixel data is determined, the pixel data of the selection area SA determined by the resolution of the screen based on the first pixel data is defined. Is defined.

도 11a는 오버 스캔 영상(OAA)에서 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = +3 만큼 시프트된 예이다. 도 11b는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = +3 만큼 시프트된 예이다. 도 11c는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -3 만큼 시프트된 예이다. 도 11d는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = -3 만큼 시프트된 예이다. 도 11e는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -4 만큼 시프트된 예이다. 도 11f는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -2, Y = -4 만큼 시프트된 예이다.11A is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = +3 in the X-axis direction and the Y-axis direction according to the user's movement in the overscan image OAA. 11B is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = +3 in the X-axis direction and the Y-axis direction according to the user's movement. 11C is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = -3 in the X-axis direction and the Y-axis direction according to the user's movement. 11D is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = -3 in the X-axis direction and the Y-axis direction according to the user's movement. 11E is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = -4 in the X-axis direction and the Y-axis direction according to the user's movement. 11F is an example in which the selection area SA including the first pixel data is shifted by X = -2 and Y = -4 in the X-axis direction and the Y-axis direction according to the user's movement.

도 12 및 도 13은 시스템 제어부(300)에 표시패널(100)의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다. 도 12 및 도 13에서, “RGB DATA”는 시스템 제어부(300)의 GPU에서 렌더링 후 생성된 입력 영상 데이터이다. “EDID DATA”는 표시장치의 해상도 정보를 포함하여 시스템 제어부(300)로 전송되는 데이터이다. 12 and 13 are diagrams showing a method of transmitting resolution information of the display panel 100 to the system control unit 300. 12 and 13, “RGB DATA” is input image data generated after rendering by the GPU of the system controller 300. “EDID DATA” is data transmitted to the system controller 300 including resolution information of the display device.

도 12를 참조하면, EEPROM(134)에 표시패널(100)의 실제 해상도(x * y)와, 실제 해상도(x * y)와 다른 해상도가 저장될 수 있다. 타이밍 콘트롤러(130)에 의해 시스템 제어부(300)에 전송될 해상도가 선택될 수 있다. 이를 상세히 하면, 타이밍 콘트롤러(130)은 EEPROM 레지스터 설정값(register setting)에 따라 EEPROM(134)에 저장된 둘 이상의 해상도 중 어느 하나를 인에이블(enable)할 수 있다. EEPROM(134)은 타이밍 콘트롤러(130)에 의해 인에이블된 해상도를 시스템 제어부(300)로 전송한다. EEPROM(134)은 I2C 인터페이스와 같은 표준 인터페이스를 통해 클럭 타이밍에 동기되어 해상도 정보를 포함한 EDID 데이터를 시스템 제어부(300)로 전송한다. 시스템 제어부(300)의 GPU는 EEPROM(134)으로부터 수신된 해상도로 입력 영상을 스케일링하여 타이밍 콘트롤러(130)로 전송한다.Referring to FIG. 12, an actual resolution (x * y) of the display panel 100 and a different resolution from the actual resolution (x * y) may be stored in the EEPROM 134. The resolution to be transmitted to the system controller 300 may be selected by the timing controller 130. In detail, the timing controller 130 may enable any one of two or more resolutions stored in the EEPROM 134 according to the EEPROM register setting. The EEPROM 134 transmits the resolution enabled by the timing controller 130 to the system controller 300. The EEPROM 134 transmits EDID data including resolution information to the system controller 300 in synchronization with clock timing through a standard interface such as an I2C interface. The GPU of the system controller 300 scales the input image with the resolution received from the EEPROM 134 and transmits it to the timing controller 130.

도 13을 참조하면, EEPROM(134)은 표시패널(100)의 실제 해상도(x * y)를 시스템 제어부(300)로 전송할 수 있다. 타이밍 콘트롤러(130)는 시스템 제어부(300)에 원하는 해상도를 요청할 수 있다. 이 경우, 시스템 제어부(300)의 GPU는 타이밍 콘트롤러(130)로부터 수신된 해상도 정보에 따라 입력 영상 데이터를 스케일링하여 타이밍 콘트롤러(130)가 요청한 해상도(REQ)의 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. Referring to FIG. 13, the EEPROM 134 may transmit the actual resolution (x * y) of the display panel 100 to the system controller 300. The timing controller 130 may request a desired resolution from the system controller 300. In this case, the GPU of the system controller 300 scales the input image data according to the resolution information received from the timing controller 130 to obtain image data [RF(N), RF of the resolution REQ requested by the timing controller 130] (N+1)] to the timing controller 130.

도 7 내지 도 9와 같이 표시패널(100)의 실제 해상도(x * y)를 갖는 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 x * y 해상도로 스케일링된 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도이다. 7 to 9, when new image data reflecting a user's movement in real time is generated from image data having an actual resolution (x * y) of the display panel 100, the GPU of the system controller 300 is x * The image data (RF(N), RF(N+1)) scaled with y resolution is transmitted to the timing controller 130. In this case, the resolution of the EDID data transmitted from the EEPROM 134 to the system control unit 300 is the actual resolution of the display panel 100.

도 10 내지 도 12와 같이 표시패널(100)의 실제 해상도(x * y) 보다 큰 해상도(X * Y)의 오버스캔 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 X * Y 해상도로 스케일링된 오버스캔 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도 보다 큰 해상도이다. 10 to 12, a system in which new image data reflecting a user's movement in real time is generated from overscan image data having a resolution (X*Y) greater than the actual resolution (x*y) of the display panel 100 The GPU of the controller 300 transmits overscan image data (RF(N), RF(N+1)) scaled with X*Y resolution to the timing controller 130. In this case, the resolution of the EDID data transmitted from the EEPROM 134 to the system controller 300 is a resolution greater than the actual resolution of the display panel 100.

도 14 및 도 15는 영상 생성부(132)를 상세히 보여 주는 도면들이다. 14 and 15 are diagrams showing the image generator 132 in detail.

도 14를 참조하면, 영상 생성부(132)는 움직임 판단부(31), 시프트 계산부(32), 영상 수신부(33), 프레임 메모리(34), 및 데이터 출력부(35)를 포함한다. Referring to FIG. 14, the image generation unit 132 includes a motion determination unit 31, a shift calculation unit 32, an image reception unit 33, a frame memory 34, and a data output unit 35.

움직임 판단부(31)는 모션 센서의 출력 신호(MSS) 즉, 모션 트랙킹 데이터(Motion tracking data)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 시프트 계산부(32)는 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시스템 제어부(300)의 GPU로부터 수신된 데이터[RF(N)]의 시프트 방향 및 시프트 양을 정의한다. 시프트 계산부(32)는 매 프레임 기간마다 제N 프레임 데이터[RF(N)]에서 화면(AA)의 제1 픽셀[P(1,1)]에 기입될 제1 픽셀 데이터의 위치를 지시하는 시프트 정보를 출력할 수 있다. The motion determination unit 31 receives an output signal (MSS) of the motion sensor, that is, motion tracking data, and determines a user's motion direction (Vector) and motion amount (Scalar). The shift calculator 32 defines a shift direction and a shift amount of data [RF(N)] received from the GPU of the system controller 300 as much as the user's movement amount in the user's movement direction. The shift calculator 32 indicates the position of the first pixel data to be written in the first pixel [P(1,1)] of the screen AA in the Nth frame data [RF(N)] for every frame period. Shift information can be output.

영상 수신부(33)는 시스템 제어부(300)의 GPU로부터 수신된 입력 영상 데이터(RGB DATA)를 프레임 메모리(34)에 공급한다. 입력 영상 데이터(RGB DATA)는 GPU의 렌더링 후 생성된 영상 데이터[RF(N), RF(N+1)]이다. 프레임 메모리(34)는 영상 수신부(33)로부터의 영상 데이터[RF(N), RF(N+1)]를 일시 저장하여 데이터 출력부(35)로 전송한다.The image receiving unit 33 supplies the input image data RGB data received from the GPU of the system controller 300 to the frame memory 34. The input image data (RGB DATA) is image data generated after rendering of the GPU (RF(N), RF(N+1)). The frame memory 34 temporarily stores image data (RF(N), RF(N+1)) from the image receiving unit 33 and transmits them to the data output unit 35.

데이터 출력부(35)는 시프트 계산부(32)로부터의 시프트 정보에 응답하여 입력 영상 데이터를 시프트한다. 데이터 출력부(35)로부터 출력된 영상 데이터(RGB')는 데이터 구동부(110)로 전송된다. The data output unit 35 shifts the input image data in response to the shift information from the shift calculation unit 32. The image data RGB' output from the data output unit 35 is transmitted to the data driver 110.

전술한 바와 같이, 영상 생성부(132)는 입력 영상을 시프트하는 것만으로 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하기 때문에 입력 영상 데이터의 지연이 거의 없다. 따라서, 도 15에 도시된 바와 같이 버퍼 메모리 역할을 하는 프레임 메모리(34)가 생략될 수 있다. As described above, since the image generation unit 132 generates image data in which the user's movement is reflected in real time by simply shifting the input image, there is almost no delay in the input image data. Therefore, as illustrated in FIG. 15, the frame memory 34 serving as a buffer memory can be omitted.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above description, those skilled in the art will appreciate that various changes and modifications are possible without departing from the technical idea of the present invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the scope of the claims.

31 : 움직임 판단부 32 : 시프트 계산부
33 : 영상 수신부 34 : 프레임 메모리
35 : 데이터 출력부 100 : 표시패널
101 : 픽셀 110 : 데이터 구동부
120 : 게이트 구동부 130 : 타이밍 콘트롤러
132 : 영상 생성부 134 : EEPROM
200 : 디스플레이 구동부 300 : 시스템 제어부
302 : 센서 모듈 304 : 카메라
AA : 표시패널의 화면 OAA : 오버스캔 영상
31: motion determination unit 32: shift calculation unit
33: image receiving unit 34: frame memory
35: data output unit 100: display panel
101: pixel 110: data driver
120: gate driver 130: timing controller
132: image generation unit 134: EEPROM
200: display driving unit 300: system control unit
302: sensor module 304: camera
AA: Display panel screen OAA: Overscan image

Claims (17)

시스템 제어부로부터 입력 영상의 제1 프레임 데이터를 수신 받는 단계;
상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계;
표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계;
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함하는 영상 생성 방법.
Receiving first frame data of the input image from the system controller;
Generating, by the system controller, second frame data reflecting the movement of the user by starting rendering in response to a signal from a motion sensor;
Determining a user's movement direction and movement amount from a signal of the motion sensor in an image generation unit of a display device;
Generating, by the image generation unit of the display device, the first frame data by shifting the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And
After the image generation unit transmits one or more frame data obtained from the shift of the first frame data to a data driver, transmitting the second frame data received from the system controller to the data driver; And
And displaying, in the order of the first frame data, one or more frame data obtained from the shift of the first frame data, and the second frame data, an image in which the movement of the user is reflected in real time on a screen of the display panel. How to create video.
제 1 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시패널의 화면 상에 표시되는 영상 생성 방법.
According to claim 1,
During the rendering operation for generating the second frame data in the system control unit, one or more frame data obtained from the shift of the first frame data is displayed on the screen of the display panel.
제 1 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함하는 영상 생성 방법.
According to claim 1,
During the rendering operation for generating the second frame data in the system control unit, the system control unit repeatedly transmitting the first frame data to the image generation unit one or more times.
제 3 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같은 영상 생성 방법.
The method of claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is the same as the screen resolution of the display panel.
제 4 항에 있어서,
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계;
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함하는 영상 생성 방법.
The method of claim 4,
In the image generation unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data,
Defining a reference area with a width equal to the amount of movement from an edge of the first frame data indicated by the direction of movement of the user;
Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And
And copying surrounding pixel data adjacent to the reference area to the reference area.
제 3 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 큰 영상 생성 방법.
The method of claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is greater than the screen resolution of the display panel.
제 6 항에 있어서,
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 단계를 포함하는 영상 생성 방법.
The method of claim 6,
In the image generation unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data,
And generating the first pixel data to be written in the first leftmost pixel on the screen of the display panel by shifting the amount of motion in the direction of movement on the first frame data to generate one or more frame data. How to create an image.
다수의 데이터 라인들, 다수의 게이트 라인들, 및 다수의 픽셀들이 매트릭스 형태로 배치된 화면을 포함한 표시패널;
모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부;
상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부;
상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및
상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함하고,
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 표시장치.
A display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form;
A system control unit connected to a motion sensor to generate first frame data of an input image, start rendering in response to a signal of the motion sensor, and generate second frame data reflecting the user's movement;
It is connected to the motion sensor to determine the user's movement direction and amount of movement from the signal of the motion sensor, and shift the first frame data by the amount of movement in the movement direction to display the image data reflecting the movement of the user in real time An image generator that generates the above frame data;
A data driver that converts image data received from the image generator into a data voltage and supplies the data lines to the data lines; And
And a gate driver supplying a gate signal synchronized with the data voltage to the gate lines,
A display device displaying an image in which the movement of the user is reflected in real time on a screen of the display panel in the order of the first frame data, one or more frame data obtained from the shift of the first frame data, and the second frame data.
제 8 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 표시장치.
The method of claim 8,
During the rendering operation for generating the second frame data in the system control unit, the system control unit repeatedly transmits one or more of the first frame data to the image generation unit.
제 9 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같은 표시장치.
The method of claim 9,
A display device having a resolution of each of the first and second frame data equal to a screen resolution of the display panel.
제 10 항에 있어서,
상기 영상 생성부는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하고,
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하며,
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 표시장치.
The method of claim 10,
The image generation unit,
A reference area is defined by a width corresponding to the amount of movement from the edge of the first frame data indicated by the direction of movement of the user,
By shifting the first frame data by the reference area in a direction opposite to the user's movement direction, image data reflecting the user's movement in real time is generated as one or more frame data,
A display device for copying surrounding pixel data adjacent to the reference area to the reference area.
제 9 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 큰 표시장치.
The method of claim 9,
A display device having a resolution of each of the first and second frame data greater than a screen resolution of the display panel.
제 12 항에 있어서,
상기 영상 생성부는,
상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 표시장치.
The method of claim 12,
The image generation unit,
A display device that generates first or more frame data by shifting the first pixel data to be written in the first leftmost pixel on the screen of the display panel by the amount of movement in the movement direction on the first frame data.
제 8 항에 있어서,
상기 표시패널의 화면 해상도, 및 상기 화면 해상도와 다른 하나 이상의 해상도를 포함한 디스플레이 정보를 저장하는 메모리를 더 포함하고,
상기 시스템 제어부가 상기 메모리에서 활성화된 해상도 정보를 수신하고, 수신된 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치.
The method of claim 8,
Further comprising a memory for storing display information including the screen resolution of the display panel and one or more resolutions different from the screen resolution,
A display device that the system control unit receives the resolution information activated from the memory, and scales the input image to the received resolution and transmits it to the image generation unit.
제 8 항에 있어서,
상기 표시패널의 화면 해상도를 저장하는 메모리; 및
상기 메모리에 연결되어 상기 데이터 구동부와 상기 게이트 구동부의 동작 타이밍을 제어하는 타이밍 콘트롤러를 더 포함하고,
상기 시스템 제어부가 상기 메모리로부터 상기 표시패널의 해상도 정보를 수신하고, 상기 타이밍 콘트롤러가 요청한 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치.
The method of claim 8,
A memory that stores the screen resolution of the display panel; And
Further comprising a timing controller connected to the memory to control the operation timing of the data driver and the gate driver,
The system control unit receives the resolution information of the display panel from the memory, and scales the input image to the resolution requested by the timing controller and transmits it to the image generation unit.
제 8 항에 있어서,
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부;
상기 영상 수신부로부터의 데이터를 일시 저장하는 메모리; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치.
The method of claim 8,
The image generation unit,
A motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
A shift calculator configured to output shift information defining a shift direction and a shift amount of the first frame data as much as the user's motion amount in the user's motion direction;
An image receiving unit receiving the first and second frame data from the system control unit;
A memory for temporarily storing data from the image receiving unit; And
And a data output unit that shifts the first frame data in the shift direction indicated by the shift information by the shift amount to generate image data reflecting the user's movement in real time and transmits the image data to the data driver.
제 8 항에 있어서,
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치.
The method of claim 8,
The image generation unit,
A motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
A shift calculator configured to output shift information defining a shift direction and a shift amount of the first frame data as much as the user's motion amount in the user's motion direction;
An image receiving unit receiving the first and second frame data from the system control unit; And
And a data output unit that shifts the first frame data in the shift direction indicated by the shift information by the shift amount to generate image data reflecting the user's movement in real time and transmits the image data to the data driver.
KR1020180159346A 2018-12-11 2018-12-11 Image generation method and display device using the same KR102629441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Publications (2)

Publication Number Publication Date
KR20200071521A true KR20200071521A (en) 2020-06-19
KR102629441B1 KR102629441B1 (en) 2024-01-24

Family

ID=71137561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Country Status (1)

Country Link
KR (1) KR102629441B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066574A (en) * 2009-09-16 2011-03-31 Toshiba Corp Video processor, video displaying system, and video displaying method
KR20180075732A (en) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 Head mounted display and method for controlling thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066574A (en) * 2009-09-16 2011-03-31 Toshiba Corp Video processor, video displaying system, and video displaying method
KR20180075732A (en) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 Head mounted display and method for controlling thereof

Also Published As

Publication number Publication date
KR102629441B1 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
US11200730B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
US10754163B2 (en) Image generation method and display device using the same
US9595083B1 (en) Method and apparatus for image producing with predictions of future positions
US20110007136A1 (en) Image signal processing apparatus and image display
KR20160002602A (en) Display device and accelerated head tracking method using the same
US11126261B2 (en) Display control system and rendering pipeline
US10699673B2 (en) Apparatus, systems, and methods for local dimming in brightness-controlled environments
CN111066081B (en) Techniques for compensating for variable display device latency in virtual reality image display
US20200168001A1 (en) Display unit for ar/vr/mr systems
KR102551131B1 (en) Display device and head mounted device including thereof
KR102629441B1 (en) Image generation method and display device using the same
WO2020237421A1 (en) Method and device for controlling virtual reality display device
KR102087841B1 (en) Display unit having panel time warp for ar/vr/mr system
CN110659005A (en) Data processing system
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant