KR102629441B1 - Image generation method and display device using the same - Google Patents

Image generation method and display device using the same Download PDF

Info

Publication number
KR102629441B1
KR102629441B1 KR1020180159346A KR20180159346A KR102629441B1 KR 102629441 B1 KR102629441 B1 KR 102629441B1 KR 1020180159346 A KR1020180159346 A KR 1020180159346A KR 20180159346 A KR20180159346 A KR 20180159346A KR 102629441 B1 KR102629441 B1 KR 102629441B1
Authority
KR
South Korea
Prior art keywords
movement
data
frame data
user
image
Prior art date
Application number
KR1020180159346A
Other languages
Korean (ko)
Other versions
KR20200071521A (en
Inventor
이동우
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020180159346A priority Critical patent/KR102629441B1/en
Publication of KR20200071521A publication Critical patent/KR20200071521A/en
Application granted granted Critical
Publication of KR102629441B1 publication Critical patent/KR102629441B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0457Improvement of perceived resolution by subpixel rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 영상 생성 방법과 이를 이용한 표시장치에 관한 것으로, 표시장치의 영상 생성부에서 시스템 제어부로부터 수신된 제1 프레임 데이터를 사용자의 움직임 방향으로 사용자의 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성한다. 사용자는 멀미와 피로감 없이 표시장치에서 사용자의 움직임에 실시한 반응하여 이동되는 영상을 감상할 수 있다. The present invention relates to an image generation method and a display device using the same. The image generation unit of the display device shifts the first frame data received from the system control unit in the direction of the user's movement by the amount of the user's movement, so that the user's movement is recorded in real time. The reflected image data is generated as one or more frame data. Users can watch images that move in response to the user's movements on the display device without feeling motion sickness or fatigue.

Description

영상 생성 방법과 이를 이용한 표시장치{IMAGE GENERATION METHOD AND DISPLAY DEVICE USING THE SAME}Image generation method and display device using the same {IMAGE GENERATION METHOD AND DISPLAY DEVICE USING THE SAME}

본 발명은 사용자의 움직임을 화면 상에 실시간 반영하는 영상 생성 방법과 이를 이용한 표시장치에 관한 것이다.The present invention relates to an image generation method that reflects the user's movements on a screen in real time and a display device using the same.

가상 현실 기술은 국방, 건축, 관광, 영화, 멀티미디어, 게임 분야 등에서 가장 빠르고 발전하고 있다. 가상 현실은 입체 영상 기술을 이용하여 실제 환경과 유사하게 느껴지는 특정한 환경, 상황을 의미한다. Virtual reality technology is developing the fastest in the fields of defense, architecture, tourism, movies, multimedia, and games. Virtual reality refers to a specific environment or situation that feels similar to the real environment using stereoscopic imaging technology.

가상 현실(Virtual Reality. 이하 “VR”이라 함) 시스템은 사용자의 움직임에 따라 입체 영상을 이동하고 입체 음향을 출력하여 사용자에게 가상 체험을 제공한다. VR 시스템은 HMD(Head Mounted Display), FMD(Face Mounted Display) 형태로 구현될 수 있다. 증강 현실(Augmented Reality, 이하 “AR”이라 함) 시스템은 현실 세계에 디지털 콘텐츠(contents)를 겹쳐 보이게 한다. 증강 현실 시스템은 EGD(Eye Glasses-type Display) 형태로 구현될 수 있다. A virtual reality (hereinafter referred to as “VR”) system provides a virtual experience to the user by moving a three-dimensional image and outputting three-dimensional sound according to the user’s movements. VR systems can be implemented in the form of HMD (Head Mounted Display) and FMD (Face Mounted Display). The Augmented Reality (AR) system superimposes digital content on the real world. The augmented reality system can be implemented in the form of an Eye Glasses-type Display (EGD).

VR/AR 시스템에서 표시패널의 화면 상에 입력 영상이 표시될 때까지의 지연 시간(Latency)이 화질에 큰 영향을 준다. 그래픽 처리 장치(Graphic Processing Unit, 이하 “GPU”라 함)로부터 생성된 영상 데이터가 디스플레이 구동부를 통해 표시패널의 픽셀들에 기입된다. 입력 영상의 데이터는 GPU의 이미지 처리 지연 시간과 표시장치의 지연 시간을 합한 총 지연 시간 이후에 데이터가 픽셀들에 표시된다. VR 시스템의 GPU는 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링(rendering)하여 새로운 이미지를 생성하는데, 렌더링 연산 시간으로 인하여 움직임이 반영된 이미지를 생성하기까지의 지연 시간이 사용자의 움직임을 따라가지 못하고 있다. 이로 인하여, 사용자는 멀미와 피로감을 크게 된다. In VR/AR systems, the latency until the input image is displayed on the display panel screen has a significant impact on image quality. Image data generated from a graphics processing unit (hereinafter referred to as “GPU”) is written to the pixels of the display panel through the display driver. The data of the input image is displayed in pixels after a total delay time that is the sum of the image processing delay time of the GPU and the delay time of the display device. The VR system's GPU reflects the user's movement and creates a new image by rendering pixel data, but due to the rendering operation time, the delay time to create an image reflecting the movement does not keep up with the user's movement. . As a result, the user experiences increased motion sickness and fatigue.

본 발명은 사용자의 움직임을 실시간 반영한 이미지를 표시패널 상에 업데이트할 수 있는 영상 생성 방법과 이를 이용한 표시장치를 제공한다.The present invention provides an image generation method that can update an image reflecting the user's movements in real time on a display panel and a display device using the same.

본 발명의 영상 생성 방법은 시스템 제어부로부터 입력 영상의 제1 프레임 데이터를 수신 받는 단계; 상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계; 표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계; 상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함한다. The image generation method of the present invention includes receiving first frame data of an input image from a system control unit; generating second frame data reflecting the user's movement by starting rendering in response to a signal from a motion sensor at the system control unit; determining the direction and amount of movement of the user from the signal of the motion sensor at the image generator of the display device; Shifting the first frame data in the movement direction by the movement amount in the image generator of the display device to generate image data reflecting the user's movement in real time as one or more frame data; After the image generating unit transmits one or more frame data obtained from shifting the first frame data to a data driving unit, transmitting second frame data received from the system control unit to a data driving unit; and displaying an image reflecting the user's movement in real time on the screen of the display panel in the order of the first frame data, one or more frame data obtained from shifting the first frame data, and the second frame data. Includes.

상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시패널의 화면 상에 표시된다. While the system control unit performs a rendering operation to generate the second frame data, one or more frame data obtained from shifting the first frame data is displayed on the screen of the display panel.

상기 영상 생성 방법은 상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함한다. The image generation method further includes the step of the system control unit repeatedly transmitting the first frame data to the image generator one or more times while the system control unit performs a rendering operation to generate the second frame data.

상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같다. The resolution of each of the first and second frame data is the same as the screen resolution of the display panel.

상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계; 상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및 상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함한다. The step of generating image data reflecting the user's movement in real time as one or more frame data by shifting the first frame data in the movement direction by the movement amount in the image generating unit of the display device is indicated by the user's movement direction. defining a reference area with a width equal to the amount of movement at an edge of the first frame data; Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; and copying neighboring pixel data neighboring the reference area to the reference area.

상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 크다. The resolution of each of the first and second frame data is greater than the screen resolution of the display panel.

상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성한다. The step of generating image data reflecting the user's movement in real time as one or more frame data by shifting the first frame data in the movement direction by the movement amount in the image generator of the display device is performed at the top of the screen of the display panel. First pixel data to be written in the first pixel located on the leftmost side is shifted by the movement amount in the movement direction on the first frame data to generate one or more frame data.

본 발명의 표시장치는 다수의 데이터 라인들, 다수의 게이트 라인들, 및 다수의 픽셀들이 매트릭스 형태로 배치된 화면을 포함한 표시패널; 모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부; 상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부; 상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및 상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함한다. 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시된다. A display device of the present invention includes a display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form; a system control unit connected to a motion sensor, generating first frame data of an input image, starting rendering in response to a signal from the motion sensor, and generating second frame data reflecting the user's movement; It is connected to the motion sensor to determine the user's movement direction and movement amount from the signal of the motion sensor, and shifts the first frame data in the movement direction by the movement amount to produce image data reflecting the user's movement in real time. An image generator generating the above frame data; a data driver that converts the image data received from the image generator into a data voltage and supplies it to the data lines; and a gate driver that supplies a gate signal synchronized with the data voltage to the gate lines. An image reflecting the user's movements in real time is displayed on the screen of the display panel in the order of the first frame data, one or more frame data obtained from shifting the first frame data, and the second frame data.

본 발명은 입력 영상을 미리 설정된 해상도로 스케일링하여 표시장치의 타이밍 콘트롤러로 전송하는 시스템 제어부로부터 사용자의 움직임이 반영된 영상 데이터가 수신되기 전에 표시장치 내에서 영상 데이터를 사용자의 움직임 방향으로 사용자의 움직임만큼 시프트하여 지연 없이 사용자의 움직임이 실시간 반영된 영상 데이터를 발생하여 표시패널의 화면 상에 반영한다. The present invention scales the input image to a preset resolution and transmits it to the timing controller of the display device. Before the image data reflecting the user's movement is received from the system control unit, the image data is distributed within the display device in the direction of the user's movement as much as the user's movement. By shifting, video data reflecting the user's movements in real time is generated without delay and reflected on the screen of the display panel.

따라서, 본 발명의 표시장치는 VR/AR 시스템에서 사용자가 멀미와 피로감 없이 표시장치에서 사용자의 움직임에 실시한 반응하여 이동되는 영상을 감상할 수 있게 한다. Therefore, the display device of the present invention allows the user in a VR/AR system to view images that move in response to the user's movements on the display device without feeling motion sickness or fatigue.

도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다.
도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다.
도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 5는 GPU의 렌더링 과정으로 인하여 영상 업데이트가 지연되는 예를 보여 주는 도면이다.
도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다.
도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다.
도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러의 입력 영상과 영상 생성부에 의해 생성되는 영상을 보여 주는 도면이다.
도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상 데이터(overscan image)의 해상도를 보여 주는 도면이다.
도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 12 및 도 13은 시스템 제어부에 표시패널의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다.
도 14 및 도 15는 영상 생성부를 상세히 보여 주는 도면들이다.
Figure 1 is an exploded perspective view schematically showing the external configuration of a VR system according to an embodiment of the present invention.
Figure 2 is a block diagram showing a display device according to an embodiment of the present invention.
Figure 3 is a diagram showing an example of two screens implemented with two display panels.
Figure 4 is a diagram showing an example of two screens implemented with one display panel.
Figure 5 is a diagram showing an example of an image update being delayed due to the GPU rendering process.
Figure 6 is a diagram showing an example of image data generated during a GPU rendering process.
Figure 7 is a diagram showing image data generated in a display device according to an embodiment of the present invention.
8A and 8B are diagrams showing a method of generating an image of a display device according to a first embodiment of the present invention.
FIG. 9 is a diagram showing the input image of the timing controller and the image generated by the image generator in FIGS. 8A and 8B.
Figure 10 is a diagram showing the screen resolution of the display device and the resolution of overscan image data transmitted from the system control unit to the display device.
11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.
Figures 12 and 13 are diagrams showing a method of transmitting resolution information of a display panel to a system control unit.
Figures 14 and 15 are diagrams showing the image generator in detail.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다는 것에 주의하여야 한다. 이하의 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명은 특허청구범위에 의해 정의된다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. It should be noted that the present invention is not limited to the embodiments disclosed below and can be implemented in various forms. The following examples are provided to make the disclosure of the present invention complete and to fully inform those skilled in the art of the scope of the invention. The invention is defined by the claims.

본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. The shapes, sizes, proportions, angles, numbers, etc. disclosed in the drawings for explaining embodiments of the present invention are illustrative, and the present invention is not limited to the matters shown. Like reference numerals refer to like elements throughout the specification. Additionally, in describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

본 명세서 상에서 언급된 '구비한다', '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 ' ~ 만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다. When words such as 'provide', 'include', 'have', 'consist', etc. mentioned in the specification are used, other parts may be added unless 'only' is used. When a component is expressed in the singular, the plural is included unless specifically stated otherwise.

구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.When interpreting a component, it is interpreted to include the margin of error even if there is no separate explicit description.

위치 관계에 대한 설명일 경우, 예를 들어, ' ~ 상에', ' ~ 상부에', ' ~ 하부에', ' ~ 옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다. In the case of a description of a positional relationship, for example, if the positional relationship between two parts is described as 'on top', 'on top', 'at the bottom', 'next to ~', 'right next to' Alternatively, there may be one or more other parts placed between the two parts, unless 'directly' is used.

실시예의 설명에서, 제1, 제2 등이 다양한 구성 요소들을 서술하기 위해서 사용되지만, 이들 구성 요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성 요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다.In the description of the embodiments, first, second, etc. are used to describe various components, but these components are not limited by these terms. These terms are merely used to distinguish one component from another.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other or together in a related relationship. It may be possible.

본 발명의 표시장치는 VR 시스템, AR 시스템과 같이 사용자의 움직임에 따라 영상 데이터의 프레임을 업데이트(update)하는 시스템에 적용 가능하다. 본 발명의 표시장치는 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치로 구현될 수 있다. The display device of the present invention is applicable to systems that update frames of image data according to the user's movements, such as VR systems and AR systems. The display device of the present invention can be implemented as a flat panel display device such as a liquid crystal display (LCD) or an organic light emitting diode display (OLED display).

VR/AR 시스템은 모션 센서를 이용하여 사용자의 움직임을 감지할 수 있고, 사용자가 움직일 때 표시장치에서 재현되는 영상 데이터의 프레임을 업데이트한다. 모션 센서(Motion sensor)는 자이로 센서 또는 가속도 센서를 포함할 수 있다.VR/AR systems can detect the user's movement using a motion sensor, and update the frame of image data reproduced on the display device when the user moves. A motion sensor may include a gyro sensor or an acceleration sensor.

본 발명의 영상 생성 방법은 시스템의 영상 처리부에서 사용자의 움직임을 반영하여 영상 데이터를 업데이트하는데 필요한 렌더링(Rendering) 과정에서 모션 센서의 출력 신호를 표시장치로 전송한다. 본 발명의 표시장치는 모션 센서의 출력 신호에 응답하여 사용자의 움직임을 반영하여 픽셀 데이터를 시프트함으로써 렌더링 과정 없이 사용자의 움직임을 반영하여 화면 상에서 영상 데이터를 업데이트한다. 본 발명의 표시장치는 시스템의 영상 처리부에서 렌더링이 진행되는 동안 사용자의 움직임이 반영된 하나 이상의 영상 데이터를 생성하여 화면 상에 업데이트함으로써 사용자의 움직임이 실시간 반영되는 영상을 화면 상에서 재현할 수 있다. 시스템의 영상 처리부는 GPU로 해석될 수 있다.The image generation method of the present invention transmits the output signal of the motion sensor to the display device during the rendering process required to update image data by reflecting the user's movement in the image processing unit of the system. The display device of the present invention updates image data on the screen by reflecting the user's movement without a rendering process by shifting pixel data to reflect the user's movement in response to the output signal of the motion sensor. The display device of the present invention can reproduce an image reflecting the user's movement in real time on the screen by generating one or more image data reflecting the user's movement and updating it on the screen while rendering is in progress in the image processing unit of the system. The image processing unit of the system can be interpreted as a GPU.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. Like reference numerals refer to substantially the same elements throughout the specification. In the following description, if it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다. 도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다. 도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다. 도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다. Figure 1 is an exploded perspective view schematically showing the external configuration of a VR system according to an embodiment of the present invention. Figure 2 is a block diagram showing a display device according to an embodiment of the present invention. Figure 3 is a diagram showing an example of two screens implemented with two display panels. Figure 4 is a diagram showing an example of two screens implemented with one display panel.

도 1 내지 도 4를 참조하면, VR 시스템은 렌즈 모듈(lens module, 12), 디스플레이 모듈(display module, 13), 메인 보드(14), 헤드 기어(headgear, 11), 사이드 프레임(side frame)(15), 프론트 커버(front cover)(16) 등을 포함한다. 1 to 4, the VR system includes a lens module (12), a display module (13), a main board (14), a headgear (11), and a side frame. (15), front cover (16), etc.

디스플레이 모듈(13)은 메인 보드(14)로부터 수신된 입력 영상을 표시한다. 디스플레이 모듈(13)은 표시패널(100)과, 표시패널(100)에 입력 영상의 픽셀 데이터(RGB)를 기입하는 디스플레이 구동부(200)를 포함한다. 디스플레이 모듈(13)은 도 3에 도시된 바와 같이 두 개의 표시패널들(100A, 100B)로 두 개의 화면(AA)을 구현하거나 도 4에 도시된 바와 같이 하나의 표시패널(100)에서 두 개의 화면을 구현할 수 있다. 제1 화면(AA1)은 사용자의 좌안으로 보이는 영상을 표시하고, 제2 화면(AA2)은 사용자의 우안으로 보이는 영상을 표시한다. The display module 13 displays the input image received from the main board 14. The display module 13 includes a display panel 100 and a display driver 200 that writes pixel data (RGB) of an input image to the display panel 100. The display module 13 implements two screens AA with two display panels 100A and 100B as shown in FIG. 3 or two screens AA in one display panel 100 as shown in FIG. 4. A screen can be implemented. The first screen AA1 displays an image viewed from the user's left eye, and the second screen AA2 displays an image viewed from the user's right eye.

디스플레이 모듈(13)에서 재현되는 영상은 사용자의 움직임에 따라 시프트(shift)된다. 사용자의 움직임 방향에 대하여 반대로 영상이 시프트된다. 디스플레이 모듈(13)에서 재현되는 영상은 VR 시스템에서 2D/3D 영상일 수 있다. The image reproduced in the display module 13 shifts according to the user's movement. The image is shifted in the opposite direction of the user's movement direction. The image reproduced in the display module 13 may be a 2D/3D image in a VR system.

표시패널(100)은 액정표시장치(Liquid Crystal Display, LCD), 유기발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치의 표시패널로 구현될 수 있다. 표시패널(100)은 데이터 전압이 인가되는 데이터 라인들(102), 게이트 펄스(또는 스캔 펄스)가 인가되는 게이트 라인들(또는 스캔 라인들, 104), 및 데이터 라인들(102)과 게이트 라인들(104)의 교차 구조에 의해 정의된 매트릭스 형태로 배열되어 데이터 라인들과 게이트 라인들에 전기적으로 연결된 픽셀들(101)을 포함한다. 픽셀들(101) 각각은 컬러 구현을 위하여 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀로 나뉘어진다. 픽셀들 각각은 백색 서브 픽셀을 더 포함할 수 있다. 서브 픽셀들 각각은 하나 이상의 TFT(Thin Film Transistor)를 포함할 수 있다. The display panel 100 may be implemented as a display panel of a flat panel display such as a liquid crystal display (LCD) or an organic light emitting diode display (OLED display). The display panel 100 includes data lines 102 to which data voltages are applied, gate lines (or scan lines, 104) to which gate pulses (or scan pulses) are applied, and data lines 102 and gate lines. It includes pixels 101 arranged in a matrix form defined by a cross structure of pixels 104 and electrically connected to data lines and gate lines. Each of the pixels 101 is divided into a red sub-pixel, a green sub-pixel, and a blue sub-pixel to implement color. Each of the pixels may further include a white subpixel. Each subpixel may include one or more thin film transistors (TFTs).

디스플레이 구동부(200)는 메인 보드(14)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 표시패널(100)의 픽셀들에 기입한다. 디스플레이 구동부(200)는 도 3에 도시된 바와 같이 데이터 구동부(110), 게이트 구동부(120), 및 타이밍 콘트롤러(timing controller, 130)) 등을 구비한다. The display driver 200 writes pixel data (RGB) of the input image received from the GPU of the main board 14 into pixels of the display panel 100. As shown in FIG. 3, the display driver 200 includes a data driver 110, a gate driver 120, and a timing controller 130.

데이터 구동부(110)는 입력 영상의 픽셀 데이터(RGB)를 감마 보상 전압으로 변환하여 데이터 전압을 발생하여 데이터 라인들(102)에 공급한다. 게이트 구동부(120)는 데이터 전압에 동기되는 게이트 신호를 게이트 라인들(104)에 순차적으로 공급한다. The data driver 110 converts pixel data (RGB) of the input image into a gamma compensation voltage, generates a data voltage, and supplies it to the data lines 102. The gate driver 120 sequentially supplies a gate signal synchronized to the data voltage to the gate lines 104.

타이밍 콘트롤러(130)는 메인보트(150)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 데이터 구동부(110)로 전송한다. 타이밍 콘트롤러(130)에 연결된 메모리에 표시패널(100)의 구동에 필요한 정보와 표시장치의 기본 정보가 저장될 수 있다. 메모리는 EEPROM(Electrically Erasable Programmable Read-Only Memory, 134)일 수 있다. 타이밍 콘트롤러(130)는 메인 보드(14)의 GPU로부터 수신된 타이밍 신호와 EEPROM(134)에 저장된 설정 데이터를 비교하여 입력 영상의 픽셀 데이터와 동기되도록 데이터 구동부(110)와 게이트 구동부(120)의 구동 타이밍을 제어한다.The timing controller 130 transmits pixel data (RGB) of the input image received from the GPU of the main boat 150 to the data driver 110. Information necessary for driving the display panel 100 and basic information about the display device may be stored in the memory connected to the timing controller 130. The memory may be EEPROM (Electrically Erasable Programmable Read-Only Memory, 134). The timing controller 130 compares the timing signal received from the GPU of the main board 14 with the setting data stored in the EEPROM 134 and operates the data driver 110 and the gate driver 120 to synchronize with the pixel data of the input image. Controls driving timing.

타이밍 콘트롤러(130)는 EEPROM(134)는 외부의 ROM writer에 연결되어 ROM writer를 통해 수신된 데이터를 EEPROM(134)에 저장(write)할 수 있다. 타이밍 콘트롤러(130)는 EEPROM(134)에 표시패널의 구동에 필요한 설정 데이터와, EDID(Extended display identification data) 데이터를 저장하거나 갱신(update)할 수 있다. EDID 데이터는 표시장치의 제조사 정보, 제품 모델 정보, 표시패널(100)의 화면 해상도, 구동 타이밍 관련 정보, 휘도, 픽셀 정보 등 표시장치에 관한 정보를 포함한다. The timing controller 130 can connect the EEPROM 134 to an external ROM writer and write data received through the ROM writer to the EEPROM 134. The timing controller 130 can store or update setting data and extended display identification data (EDID) data necessary for driving the display panel in the EEPROM 134. EDID data includes information about the display device, such as display device manufacturer information, product model information, screen resolution of the display panel 100, driving timing information, luminance, and pixel information.

VR 시스템과 같은 모바일 시스템 또는 웨어러블 기기에서, 타이밍 콘트롤러(130)와 데이터 구동부(110)는 도 4에 도시된 바와 같이 하나의 드라이브 IC(113) 내에 집적될 수 있다. In a mobile system such as a VR system or a wearable device, the timing controller 130 and the data driver 110 may be integrated into one drive IC 113 as shown in FIG. 4.

렌즈 모듈(12)은 사용자의 좌우안 화각을 넓히기 위한 초광각 렌즈 즉, 한 쌍의 어안 렌즈(Fisheye Lens)를 포함한다. 한 쌍의 어안 렌즈는 제1 화면(AA1) 앞에 배치된 좌안 렌즈와, 제2 화면(AA2) 앞에 배치된 우안 렌즈를 포함한다.The lens module 12 includes an ultra-wide-angle lens, that is, a pair of fisheye lenses, to expand the angle of view of the user's left and right eyes. The pair of fisheye lenses includes a left eye lens disposed in front of the first screen AA1 and a right eye lens disposed in front of the second screen AA2.

헤드 기어(11)는 어안 렌즈들을 노출하는 백 커버(back cover), 백 커버에 연결된 밴드(band)를 포함한다. 헤드 기어(11)의 백 커버, 사이드 프레임(15) 및 프론트 커버(16)는 조립되어 VR 시스템과 구성 요소들(12, 13, 14)이 배치되는 내부 공간을 확보하고 그 구성 요소들을 보호한다. 밴드는 백 커버에 연결된다. 사용자는 밴드로 자신의 머리에 VR 시스템을 착용한다. 사용자가 VR 시스템을 자신의 머리에 쓰면, 어안 렌즈들을 통해 좌안과 우안으로 서로 다른 화면들(AA, AA2)을 바라 보게 된다.The headgear 11 includes a back cover exposing the fisheye lenses and a band connected to the back cover. The back cover, side frame 15, and front cover 16 of the head gear 11 are assembled to secure an internal space where the VR system and components 12, 13, and 14 are placed and to protect the components. . The band connects to the back cover. Users wear the VR system on their head with a band. When a user puts the VR system on his or her head, he or she looks at different screens (AA, AA2) with the left and right eyes through the fisheye lenses.

사이드 프레임(15)은 헤드 기어(11)와 프론트 커버(16) 사이에 고정되어 렌즈 모듈(12), 디스플레이 모듈(13), 메인 보드(14)가 배치된 내부 공간의 갭(gap)을 확보한다. 프론트 커버(16)는 VR 시스템의 전면에 배치된다.The side frame (15) is fixed between the head gear (11) and the front cover (16) to secure the gap in the internal space where the lens module (12), display module (13), and main board (14) are placed. do. The front cover 16 is placed on the front of the VR system.

메인 보드(14)는 시스템 제어부(300), 센서 모듈(302), 및 카메라 모듈(304)을 포함한다. 메인 보드(14)는 외부 기기와 연결되는 인터페이스 모듈, 센서 모듈(26) 등을 더 포함한다. 인터페이스 모듈은 Universal serial bus(USB), High definition multimedia interface (HDMI) 등의 인터페이스를 통해 외부 기기와 연결된다. The main board 14 includes a system control unit 300, a sensor module 302, and a camera module 304. The main board 14 further includes an interface module and a sensor module 26 that are connected to external devices. The interface module is connected to external devices through interfaces such as Universal serial bus (USB) and High definition multimedia interface (HDMI).

시스템 제어부(300)는 가상 현실 소프트웨어를 실행한다. 시스템 제어부(300)는 입력 영상의 픽셀 데이터(RGB)와, 픽셀 데이터(RGB)에 동기되는 타이밍 신호를 디스플레이 모듈(13)에 공급하는 GPU를 포함한다.The system control unit 300 executes virtual reality software. The system control unit 300 includes a GPU that supplies pixel data (RGB) of an input image and a timing signal synchronized with the pixel data (RGB) to the display module 13.

센서 모듈(302)은 자이로 센서, 3축 가속도 센서 등 모션 센서를 포함한다. 센서 모듈(302)은 사용자 움직임을 센싱하여 시스템 제어부(300)와 디스플레이 구동부(200)로 전송한다. The sensor module 302 includes a motion sensor such as a gyro sensor and a 3-axis acceleration sensor. The sensor module 302 senses the user's movement and transmits it to the system control unit 300 and the display driver 200.

시스템 제어부(300)는 인터페이스 모듈을 통해 외부로부터 입력 영상의 픽셀 데이터(RGB)를 수신할 수 있다. GPU는 표시장치로부터 수신된 디스플레이 정보에 맞게 입력 영상의 해상도를 변환한다. 디스플레이 정보는 EDIC(Extended Display Identification Data)일 수 있다. GPU는 센서 모듈(302)의 출력 신호에 응답하여 사용자의 움직임을 반영된 영상 데이터를 렌더링(rendering)하여 새로운 프레임 데이터를 생성함으로써 사용자의 움직임에 따라 화면들(AA2, AA2)에 표시되는 영상을 이동시킨다. The system control unit 300 may receive pixel data (RGB) of an input image from the outside through an interface module. The GPU converts the resolution of the input image to match the display information received from the display device. The display information may be EDIC (Extended Display Identification Data). The GPU responds to the output signal of the sensor module 302 by rendering image data reflecting the user's movement to generate new frame data, thereby moving the images displayed on the screens AA2 and AA2 according to the user's movement. I order it.

GPU는 미리 설정된 아이 트랙킹 알고리즘(eye tracking algorithm)을 실행하여 카메라(304)로부터 얻어진 영상을 분석하여 사용자의 시선이 향하는 초점 영역을 추정한다. GPU는 포비에이티드 렌더링 알고리즘(foveated rendering algorithm)을 이용하여 사용자의 시선이 향하는 초점 영역의 해상도를 높이고, 초점 영역 밖의 주변 영역에서 입력 영상의 해상도를 낮출 수 있다. The GPU analyzes the image obtained from the camera 304 by executing a preset eye tracking algorithm to estimate the focus area where the user's gaze is directed. The GPU can use a foveated rendering algorithm to increase the resolution of the focus area where the user's gaze is directed and lower the resolution of the input image in surrounding areas outside the focus area.

GPU는 모션 센서를 이용한 모션 트랙킹(motion tracking)에 의해 사용자의 움직임이 감지되면 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링하여 사용자의 움직임이 반영된 영상 데이터를 생성하여 타이밍 콘트롤러(130)로 전송한다. When the GPU detects the user's movement through motion tracking using a motion sensor, it renders pixel data to reflect the user's movement, generates image data reflecting the user's movement, and transmits it to the timing controller 130.

타이밍 콘트롤러(130)는 GPU가 사용자의 움직임을 반영하여 렌더링하는 동안 하나 이상의 영상 데이터를 생성하는 영상 생성부(132)를 포함한다. 영상 생성부(132)는 센서 모듈(302)로부터 모션 센서의 출력 신호(MSS)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 영상 생성부(132)는 사용자 움직임에 따라 현재 영상 데이터를 시프트(shift)하여 GPU에 의해 픽셀 렌더링 연산 후 생성되는 프레임 데이터 보다 빠르게 하나 이상의 영상 데이터를 생성한다. The timing controller 130 includes an image generator 132 that generates one or more image data while the GPU reflects the user's movements and renders them. The image generator 132 receives the output signal (MSS) of the motion sensor from the sensor module 302 and determines the user's movement direction (Vector) and movement amount (Scalar). The image generator 132 shifts the current image data according to the user's movement and generates one or more image data faster than frame data generated after a pixel rendering operation by the GPU.

영상 생성부(132)는 시스템 제어부(300)로부터 입력 영상의 제1 프레임 데이터를 수신 받는다. 시스템 제어부(300)는 모션 센서의 신호에 응답하여 렌더링을 시작하여 사용자의 움직임이 반영된 제2 프레임 데이터를 생성한다. 영상 생성부(132)는 모션 센서의 신호에 응답하여 사용자의 움직임 방향과 움직임 양을 판단하고, 제1 프레임 데이터를 사용자의 움직임 방향으로 움직임 양만큼 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성한다. 영상 생성부(132)는 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부(110)로 전송한 후에, 시스템 제어부(300)로부터 수신된 제2 프레임 데이터를 데이터 구동부(110)로 전송한다. 그 결과, 표시패널(100)의 화면(AA) 상에 제1 프레임 데이터, 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 사용자의 움직임이 실시간 반영된 영상이 표시된다. The image generator 132 receives the first frame data of the input image from the system control unit 300. The system control unit 300 starts rendering in response to a signal from the motion sensor and generates second frame data reflecting the user's movement. The image generator 132 determines the user's movement direction and movement amount in response to a signal from the motion sensor, and shifts the first frame data to the user's movement direction by the movement amount to produce image data reflecting the user's movement in real time. Created using the above frame data. The image generator 132 transmits one or more frame data obtained from shifting the first frame data to the data driver 110, and then transmits the second frame data received from the system controller 300 to the data driver 110. do. As a result, an image reflecting the user's movement in real time is displayed on the screen AA of the display panel 100 in the order of the first frame data, one or more frame data obtained from shifting the first frame data, and the second frame data. displayed.

시스템 제어부(300)에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 입력 영상의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 표시패널(100)의 화면 상에 표시된다. GPU부에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, GPU는 영상 생성부(132)에 제1 프레임 데이터를 하나 이상 반복 전송한다. While the system control unit 300 performs a rendering operation to generate second frame data, one or more frame data obtained from shifting the input image are displayed on the screen of the display panel 100. While the GPU unit performs a rendering operation to generate second frame data, the GPU repeatedly transmits one or more first frame data to the image generation unit 132.

픽셀 데이터의 렌더링이나 MEMC(Motion Estimation Motion Compensation) 알고리즘 연산에 필요한 지연 시간이 필요하기 때문에 GPU의 렌더링이나 MEMC 지연 시간은 사용자의 움직임과 표시패널 상에 재현되는 영상의 실제 업데이트 시간 사이의 시간차를 초래한다. Because the delay time required for rendering pixel data or calculating the Motion Estimation Motion Compensation (MEMC) algorithm, GPU rendering or MEMC delay time causes a time difference between the user's movement and the actual update time of the image reproduced on the display panel. do.

도 5에 도시된 바와 같이 모션 트랙킹(motion tracking)에서 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU는 사용자 움직임을 반영하여 렌더링 연산을 하여 픽셀 데이터들을 생성한다. GPU에서 수행되는 렌더링은 사용자의 움직임을 반영하여 하나의 장면(프레임) 데이터에서 개체들 각각에 적용되는 조명 효과, 픽셀 데이터 각각의 깊이(depth)를 조정하는 프리 렌더링(pre-rendering) 과정이다. 이러한 렌더링에 필요한 계산양이 많기 때문에 렌더링 시간은 통상 20ms 이상이다. As shown in FIG. 5, when a user's movement is detected through motion tracking, the GPU of the system control unit 300 reflects the user's movement and performs a rendering operation to generate pixel data. Rendering performed on the GPU is a pre-rendering process that reflects the user's movements and adjusts the lighting effects applied to each object in a single scene (frame) data and the depth of each pixel data. Because of the large amount of calculations required for such rendering, the rendering time is typically 20ms or more.

MEMC는 프레임간 픽셀 데이터를 비교하여 이전 프레임과 현재 프레임 간의 비교를 위하여 아래와 같은 양방향 절대차(sum of bilateral absolute difference, SBAD)로 모션 벡터(Motion vector)를 계산하기 때문에 계산량이 많기 때문에 지연 시간이 적지 않다. MEMC는 두 개의 프레임 데이터를 비교하기 때문에 두 개의 프레임 메모리를 필요로 한다.MEMC compares pixel data between frames and calculates a motion vector using the sum of bilateral absolute difference (SBAD) as shown below for comparison between the previous frame and the current frame, so the delay time is high due to the large calculation amount. Not a lot. MEMC requires two frame memories because it compares two frame data.

VR 시스템의 GPU에서 다음 프레임 데이터가 생성될 때까지 렌더링에 필요한 시간이 32ms 정도 필요하여 사용자의 움직임 속도를 따라가지 못한다. 도 5에서 “RF(N)”과 “RF(N+1)”은 GPU에서 사용자 움직임을 반영하여 렌더링되어 생성된 입력 영상의 제N 및 제N+1 프레임 데이터이다. The rendering time required for the next frame data to be generated by the VR system's GPU is approximately 32ms, making it unable to keep up with the user's movement speed. In FIG. 5, “RF(N)” and “RF(N+1)” are the N-th and N+1-th frame data of the input image generated by rendering by reflecting the user's movement on the GPU.

따라서, GPU의 렌더링 처리 시간으로 인하여 표시패널(100)에서 재현되는 영상의 업데이트가 지연된다. 이로 인하여, 사용자의 움직임과 화면의 업데이트가 불일치하고 렌더링으로 인하여 사용자 움직임이 영상 업데이트에 반영되기까의 시간 차이가 20ms 이상일 때 사용자가 멀미를 느끼게 된다. Therefore, the update of the image reproduced on the display panel 100 is delayed due to the rendering processing time of the GPU. Because of this, when the user's movement and the screen update do not match, and the time difference between the user's movement and the image update due to rendering is more than 20 ms, the user feels motion sickness.

도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다. Figure 6 is a diagram showing an example of image data generated during a GPU rendering process.

도 6을 참조하면, GPS는 모션 트랙킹에 의해 사용자의 움직임이 감지되면 렌더링을 시작하고 렌더링 과정에서 이전 영상 데이터[RF(N)]를 다시 표시장치로 전송한 다음, 렌더링 연산 결과 사용자의 움직임이 반영된 다음 영상 데이터[RF(N+1)]를 표시장치로 전송할 수 있다. 표시장치는 사용자가 움직이는 동안 시스템 제어부(300)로부터 수신된 동일한 영상 데이터(정지 영상)를 반복하여 표시패널 상에 표시할 수 있다. 이 경우에, 사용자가 움직이는 과정에서 움직임이 반영되지 않은 동일한 제N 영상 데이터[RF(N)]기 표시패널(100)의 화면(AA) 상에 반복 표시되기 때문에 사용자가 멀미를 느낄 수 있다. Referring to FIG. 6, when the user's movement is detected by motion tracking, the GPS starts rendering and transmits the previous image data [RF(N)] back to the display device during the rendering process, and then the user's movement is detected as a result of the rendering operation. The next reflected image data [RF(N+1)] can be transmitted to the display device. The display device may repeatedly display the same image data (still image) received from the system control unit 300 on the display panel while the user moves. In this case, the user may feel motion sickness because the same N-th image data [RF(N)] that does not reflect the movement is repeatedly displayed on the screen AA of the display panel 100 while the user moves.

도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다. 도 7에서 RF(N) 및 RF(N+1)은 시스템 제어부(300)의 GPU에서 생성된 영상 데이터다. Image1 및 Image2는 표시장치에 의해 생성된 영상 데이터다.Figure 7 is a diagram showing image data generated in a display device according to an embodiment of the present invention. In FIG. 7 , RF(N) and RF(N+1) are image data generated by the GPU of the system control unit 300. Image1 and Image2 are image data generated by the display device.

도 7을 참조하면, 시스템 제어부(300)의 GPU는 모션 센서에 의해 사용자 움직임이 감지되면 사용자 움직임을 반영한 영상 데이터를 생성하기 위하여 렌더링을 실시한다. 렌더링은 20ms 이상의 시간이 필요하다. Referring to FIG. 7, when user movement is detected by a motion sensor, the GPU of the system control unit 300 performs rendering to generate image data reflecting the user movement. Rendering requires more than 20ms.

표시장치의 영상 생성부(132)는 제N 영상 데이터[RF(N)]와 모션 센서의 출력 신호(MSS)를 GPU로부터 수신 받을 수 있다. 모션 센서의 출력 신호는 사용자의 움직임을 실시간 지시하는 모션 트랙킹 데이터(Motion tracking data)를 포함한다. 모션 트랙킹 데이터는 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 지시한다. The image generator 132 of the display device may receive Nth image data [RF(N)] and the output signal (MSS) of the motion sensor from the GPU. The output signal of the motion sensor includes motion tracking data that indicates the user's movements in real time. Motion tracking data indicates the user's movement direction (Vector) and movement amount (Scalar).

영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제N 영상 데이터[RF(N)]를 시프트하여 제1 시프트 영상 데이터(Image1)를 생성하여 데이터 구동부(110)로 전송한다. 제1 시프트 영상 데이터(Image1)는 제N 영상 데이터[RF(N)]의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다. 이어서, 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제1 시프트 영상 데이터(Image1)를 시프트하여 제2 시프트 영상 데이터(Image2)를 생성한다. 제2 시프트 영상 데이터(Image2)는 제1 시프트 영상 데이터(Image1)의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다.The image generator 132 shifts the Nth image data [RF(N)] in the user's movement direction in response to the output signal (MSS) of the motion sensor to generate first shift image data (Image1), and the data driver ( 110). The first shifted image data (Image1) is data in which the display position of the Nth image data [RF(N)] is shifted in the direction of the user's movement by the amount of the user's movement. Next, the image generator 132 generates second shift image data (Image2) by shifting the first shift image data (Image1) in the user's movement direction in response to the output signal (MSS) of the motion sensor. The second shift image data (Image2) is data in which the display position of the first shift image data (Image1) is shifted in the direction of the user's movement by the amount of the user's movement.

영상 생성부(132)는 렌더링 연산 없이 단순히 입력 받은 영상 데이터의 표시 위치만 시프트하기 때문에 시프트된 영상 데이터(Image1, Image2)를 생성하기까지의 지연 시간이 거의 없다. 따라서, 영상 생성부(132)는 GPU가 렌더링 연산하여 픽셀 데이터를 생성하는 동안 사용자 움직임이 반영된 하나 이상의 프레임 데이터(Image1, Image2)를 생성할 수 있다.Since the image generator 132 simply shifts the display position of the input image data without performing a rendering operation, there is almost no delay before generating the shifted image data (Image1, Image2). Accordingly, the image generator 132 may generate one or more frame data (Image1, Image2) reflecting the user's movement while the GPU performs a rendering operation to generate pixel data.

도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. 8A and 8B are diagrams showing a method of generating an image of a display device according to a first embodiment of the present invention.

도 8a 및 도 8b를 참조하면, 영상 생성부(132)는 모션 센서의 출력 신호에 따라 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU로부터 수신 받은 영상 데이터[RF(N)]에서 사용자의 움직임 방향이 지시하는 참조 영역(REF)의 데이터를 정의한다. Referring to FIGS. 8A and 8B, when the user's movement is detected according to the output signal of the motion sensor, the image generator 132 generates the user's image from the image data [RF(N)] received from the GPU of the system control unit 300. Defines the data of the reference area (REF) indicated by the direction of movement.

GPU에 의해 사용자 움직임이 반영된 제N 및 제N+1 영상 데이터[RF(N), RF(N+1)]는 제1 계조 값의 픽셀 데이터를 포함한 제1 계조 영역(71), 제2 계조 값의 픽셀 데이터를 포함한 제2 계조 영역(72), 및 제3 계조 값의 픽셀 데이터를 포함한 제3 계조 영역(73)을 포함할 수 있다. 사용자의 머리가 도 8a에 도시된 바와 같이 우상단으로 움직이면, 제1 계조 영역(71)은 감소되고 제2 및 제3 계조 영역(72, 73)이 넓어진다. The Nth and N+1th image data [RF(N), RF(N+1)] in which the user's movement is reflected by the GPU is a first grayscale area 71 including pixel data of the first grayscale value, and a second grayscale It may include a second grayscale area 72 including pixel data of a value, and a third grayscale area 73 including pixel data of a third grayscale value. When the user's head moves to the upper right corner as shown in FIG. 8A, the first grayscale area 71 decreases and the second and third grayscale areas 72 and 73 widen.

참조 영역(REF)은 사용자의 움직임 방향이 지시하는 화면(AA)의 가장자리에 표시될 데이터이다. 예를 들어, 도 8a에 도시된 바와 같이 사용자의 머리가 우상단 방향으로 움직이면 참조 영역(REF)은 화면의 우측 가장자리와 상단 가장자리 영역으로 정의된다. 도 8b에 도시된 바와 같이 사용자의 머리가 좌하단 방향으로 움직이면 참조 영역(REF)은 화면의 좌측 가장자리와 하단 가장자리 영역으로 지정된다. 참조 영역(AA)의 폭은 사용자의 움직임 양 만큼 설정된다. The reference area (REF) is data to be displayed at the edge of the screen (AA) indicated by the user's movement direction. For example, as shown in FIG. 8A, when the user's head moves toward the upper right, the reference area (REF) is defined as the right edge and top edge areas of the screen. As shown in FIG. 8B, when the user's head moves toward the bottom left, the reference area (REF) is designated as the left edge and bottom edge areas of the screen. The width of the reference area (AA) is set to the amount of user movement.

영상 생성부(132)는 참조 영역(REF) 만큼 사용자의 움직임 방향과 반대 방향으로 참조 영역(REF) 만큼 영상 데이터의 표시 위치를 시프트하여 데이터 구동부(110)로 전송한다. 참조 영역(REF)의 픽셀 데이터는 현재의 픽셀 데이터와 동일한 의사 데이터(Pseudo data)로 채워진다. 도 8a에서 의사 데이터는 제2 계조 영역(72)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. 도 8b에서 의사 데이터는 제1 계조 영역(71)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. The image generator 132 shifts the display position of the image data by the reference area REF in the direction opposite to the user's movement direction and transmits it to the data driver 110. Pixel data in the reference area (REF) is filled with pseudo data identical to the current pixel data. In FIG. 8A , pseudo data may be generated by copying pixel data of the second grayscale area 72. In FIG. 8B, pseudo data may be generated by copying pixel data of the first grayscale area 71.

화면의 가장 자리에 표시되는 데이터는 배경 데이터이기 때문에 장면이 전환되는 프레임이 아니면 참조 영역에서 프레임간 데이터 변화가 거의 없고 사용자의 관심 영역이 아니다. 이로 인하여, 참조 영역(REF)에서 프레임간 변화가 없더라도 사용자가 이를 인식하지 못할 확률이 높다. Because the data displayed at the edge of the screen is background data, unless it is a frame where the scene changes, there is little data change between frames in the reference area and is not an area of interest to the user. Because of this, even if there is no change between frames in the reference area (REF), there is a high probability that the user will not recognize it.

본 발명의 제1 실시예에 따른 영상 생성 방법은 현재 프레임 데이터의 표시 위치를 시프트하고 이웃한 픽셀 데이터로부터 얻어진 의사 데이터로 참조 영역(REF)을 채워 넣음으로써 GPU로부터 제N+1 영상 데이터[RF(N+1)]가 타이밍 콘트롤러(130)에 수신되기 전에 하나 이상의 시프트 영상 데이터(Image1, Image2)를 생성할 수 있다. 따라서, 본 발명의 제1 실시예에 따른 영상 생성 방법은 사용자의 움직임을 실시간 반영한 영상 데이터로 화면(AA) 상에 표시된 영상을 빠르게 업데이트하여 화질 저하 없이 사용자의 멀미와 피로감 문제를 개선할 수 있다. The image generation method according to the first embodiment of the present invention is to obtain the N+1 image data [RF] from the GPU by shifting the display position of the current frame data and filling the reference area (REF) with pseudo data obtained from neighboring pixel data. (N+1)] may be generated before one or more shift image data (Image1, Image2) is received by the timing controller 130. Therefore, the image generation method according to the first embodiment of the present invention can improve the user's motion sickness and fatigue problems without deteriorating image quality by quickly updating the image displayed on the screen (AA) with image data that reflects the user's movements in real time. .

도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러(130)의 입력 영상[RF(N)]과 영상 생성부(132)에 의해 생성되는 영상(Image1)을 나타낸다. 타이밍 콘트롤러(130)는 도 9에 도시된 바와 같이 표시패널의 화면(AA)의 해상도(x * y)와 같은 해상도를 갖는 제N 영상 데이터[RF(N)]]를 수신 받아 사용자의 움직임 만큼 그 데이터[RF(N)]의 표시 위치만 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터(Image1)를 생성한다. FIG. 9 shows the input image [RF(N)] of the timing controller 130 and the image (Image1) generated by the image generator 132 in FIGS. 8A and 8B. As shown in FIG. 9, the timing controller 130 receives the Nth image data [RF(N)]] having the same resolution as the resolution (x * y) of the screen AA of the display panel and displays the data as much as the user's movement. Only the display position of the data [RF(N)] is shifted to generate image data (Image1) that reflects the user's movements in real time.

도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상(overscan image)의 해상도를 보여 주는 도면이다. 도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. Figure 10 is a diagram showing the screen resolution of the display device and the resolution of the overscan image transmitted from the system control unit to the display device. 11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.

도 10 내지 도 11f를 참조하면, 시스템 제어부(300)의 GPU는 표시장치의 해상도(x * y) 보다 큰 해상도(X * Y)를 갖는 오버스캔 영상(OAA) 데이터를 표시장치로 전송할 수 있다. Referring to FIGS. 10 to 11F, the GPU of the system control unit 300 may transmit overscan image (OAA) data having a resolution (X * Y) greater than the resolution (x * y) of the display device to the display device. .

영상 생성부(132)는 GPU로부터 수신된 오버 스캔 영상에서 표시패널(100)의 화면 해상도(AA = x * y) 크기로 정의된 선택 영역(SA)에 존재하는 픽셀 데이터를 데이터 구동부(110)로 전송한다. 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 따라 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판단하여 그 움직임 방향으로 선택 영역(SA)의 표시 위치를 시프트하여 시프트 영상 데이터(Image1, Image2)를 생성한다. 선택 영역(SA)은 사용자의 움직임 양만큼 시프트된다. The image generator 132 converts the pixel data present in the selection area (SA) defined by the screen resolution (AA = x * y) size of the display panel 100 from the overscan image received from the GPU to the data driver 110. send to The image generator 132 determines the user's movement direction (Vector) and movement amount (Scalar) according to the output signal (MSS) of the motion sensor and shifts the display position of the selection area (SA) to the movement direction to create a shift image. Create data (Image1, Image2). The selection area (SA) is shifted by the amount of user movement.

영상 생성부(132)는 GPU로부터 수신된 오버스캔 영상 데이터를 지연시키지 않고 매 프레임 기간마다 데이터 구동부(110)로 전송되는 제1 픽셀 데이터의 표시 위치만 수신된 오버스캔 영상 데이터 상에서 시프트한다. 여기서, 오버스캔 영상 데이터는 GPU로부터 수신된 프레임 데이터[RF(N)]이다. 제1 픽셀 데이터는 도 11a 내지 도 11f에 도시된 바와 같이 표시패널(100)의 화면(AA) 상에서 상단 최좌측에 위치하는 제1 픽셀[P(1,1)]에 기입될 픽셀 데이터이다. 제1 픽셀 데이터의 위치가 정해지면, 제1 픽셀 데이터를 기준으로 화면의 해상도에 의해 정해지는 선택 영역(SA)의 픽셀 데이터가 정의되기 때문에 제1 픽셀 데이터의 표시 위치만 결정되면 선택 영역이 자동 정의된다.The image generator 132 does not delay the overscan image data received from the GPU, but shifts only the display position of the first pixel data transmitted to the data driver 110 in each frame period on the received overscan image data. Here, the overscan image data is frame data [RF(N)] received from the GPU. The first pixel data is pixel data to be written in the first pixel [P(1,1)] located at the top left of the screen AA of the display panel 100, as shown in FIGS. 11A to 11F. Once the position of the first pixel data is determined, the pixel data of the selection area (SA) determined by the resolution of the screen based on the first pixel data is defined, so once the display position of the first pixel data is determined, the selection area is automatically selected. is defined.

도 11a는 오버 스캔 영상(OAA)에서 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = +3 만큼 시프트된 예이다. 도 11b는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = +3 만큼 시프트된 예이다. 도 11c는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -3 만큼 시프트된 예이다. 도 11d는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = -3 만큼 시프트된 예이다. 도 11e는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -4 만큼 시프트된 예이다. 도 11f는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -2, Y = -4 만큼 시프트된 예이다.FIG. 11A is an example in which the selection area (SA) including the first pixel data is shifted by X = +3 and Y = +3 in the FIG. 11B is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = +3 in the X and Y axes according to the user's movement. FIG. 11C is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = -3 in the X-axis direction and Y-axis direction according to the user's movement. FIG. 11D is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = -3 in the X-axis and Y-axis directions according to the user's movement. Figure 11e is an example in which the selection area (SA) including the first pixel data is shifted by X = +3 and Y = -4 in the X-axis direction and Y-axis direction according to the user's movement. Figure 11f is an example in which the selection area (SA) including the first pixel data is shifted by X = -2 and Y = -4 in the X-axis direction and Y-axis direction according to the user's movement.

도 12 및 도 13은 시스템 제어부(300)에 표시패널(100)의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다. 도 12 및 도 13에서, “RGB DATA”는 시스템 제어부(300)의 GPU에서 렌더링 후 생성된 입력 영상 데이터이다. “EDID DATA”는 표시장치의 해상도 정보를 포함하여 시스템 제어부(300)로 전송되는 데이터이다. 12 and 13 are diagrams showing a method of transmitting resolution information of the display panel 100 to the system control unit 300. In FIGS. 12 and 13, “RGB DATA” is input image data generated after rendering in the GPU of the system control unit 300. “EDID DATA” is data transmitted to the system control unit 300 including resolution information of the display device.

도 12를 참조하면, EEPROM(134)에 표시패널(100)의 실제 해상도(x * y)와, 실제 해상도(x * y)와 다른 해상도가 저장될 수 있다. 타이밍 콘트롤러(130)에 의해 시스템 제어부(300)에 전송될 해상도가 선택될 수 있다. 이를 상세히 하면, 타이밍 콘트롤러(130)은 EEPROM 레지스터 설정값(register setting)에 따라 EEPROM(134)에 저장된 둘 이상의 해상도 중 어느 하나를 인에이블(enable)할 수 있다. EEPROM(134)은 타이밍 콘트롤러(130)에 의해 인에이블된 해상도를 시스템 제어부(300)로 전송한다. EEPROM(134)은 I2C 인터페이스와 같은 표준 인터페이스를 통해 클럭 타이밍에 동기되어 해상도 정보를 포함한 EDID 데이터를 시스템 제어부(300)로 전송한다. 시스템 제어부(300)의 GPU는 EEPROM(134)으로부터 수신된 해상도로 입력 영상을 스케일링하여 타이밍 콘트롤러(130)로 전송한다.Referring to FIG. 12, the actual resolution (x * y) of the display panel 100 and a resolution different from the actual resolution (x * y) may be stored in the EEPROM 134. The resolution to be transmitted to the system control unit 300 may be selected by the timing controller 130. In detail, the timing controller 130 can enable one of two or more resolutions stored in the EEPROM 134 according to the EEPROM register setting. The EEPROM 134 transmits the resolution enabled by the timing controller 130 to the system control unit 300. The EEPROM 134 transmits EDID data including resolution information to the system control unit 300 in synchronization with clock timing through a standard interface such as an I2C interface. The GPU of the system control unit 300 scales the input image to the resolution received from the EEPROM 134 and transmits it to the timing controller 130.

도 13을 참조하면, EEPROM(134)은 표시패널(100)의 실제 해상도(x * y)를 시스템 제어부(300)로 전송할 수 있다. 타이밍 콘트롤러(130)는 시스템 제어부(300)에 원하는 해상도를 요청할 수 있다. 이 경우, 시스템 제어부(300)의 GPU는 타이밍 콘트롤러(130)로부터 수신된 해상도 정보에 따라 입력 영상 데이터를 스케일링하여 타이밍 콘트롤러(130)가 요청한 해상도(REQ)의 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. Referring to FIG. 13, the EEPROM 134 can transmit the actual resolution (x * y) of the display panel 100 to the system control unit 300. The timing controller 130 may request a desired resolution from the system control unit 300. In this case, the GPU of the system control unit 300 scales the input image data according to the resolution information received from the timing controller 130 to produce image data [RF(N), RF of the resolution (REQ) requested by the timing controller 130. (N+1)] is transmitted to the timing controller 130.

도 7 내지 도 9와 같이 표시패널(100)의 실제 해상도(x * y)를 갖는 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 x * y 해상도로 스케일링된 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도이다. 7 to 9, when new image data reflecting the user's movement in real time is generated from image data having the actual resolution (x * y) of the display panel 100, the GPU of the system control unit 300 is x * y. Image data [RF(N), RF(N+1)] scaled to y resolution is transmitted to the timing controller 130. In this case, the resolution of EDID data transmitted from the EEPROM 134 to the system control unit 300 is the actual resolution of the display panel 100.

도 10 내지 도 12와 같이 표시패널(100)의 실제 해상도(x * y) 보다 큰 해상도(X * Y)의 오버스캔 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 X * Y 해상도로 스케일링된 오버스캔 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도 보다 큰 해상도이다. 10 to 12, when new image data reflecting the user's movement in real time is generated from overscan image data with a resolution (X * Y) greater than the actual resolution (x * y) of the display panel 100, the system The GPU of the control unit 300 transmits overscan image data [RF(N), RF(N+1)] scaled to X * Y resolution to the timing controller 130. In this case, the resolution of the EDID data transmitted from the EEPROM 134 to the system control unit 300 is a higher resolution than the actual resolution of the display panel 100.

도 14 및 도 15는 영상 생성부(132)를 상세히 보여 주는 도면들이다. 14 and 15 are diagrams showing the image generator 132 in detail.

도 14를 참조하면, 영상 생성부(132)는 움직임 판단부(31), 시프트 계산부(32), 영상 수신부(33), 프레임 메모리(34), 및 데이터 출력부(35)를 포함한다. Referring to FIG. 14, the image generator 132 includes a motion determination unit 31, a shift calculation unit 32, an image reception unit 33, a frame memory 34, and a data output unit 35.

움직임 판단부(31)는 모션 센서의 출력 신호(MSS) 즉, 모션 트랙킹 데이터(Motion tracking data)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 시프트 계산부(32)는 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시스템 제어부(300)의 GPU로부터 수신된 데이터[RF(N)]의 시프트 방향 및 시프트 양을 정의한다. 시프트 계산부(32)는 매 프레임 기간마다 제N 프레임 데이터[RF(N)]에서 화면(AA)의 제1 픽셀[P(1,1)]에 기입될 제1 픽셀 데이터의 위치를 지시하는 시프트 정보를 출력할 수 있다. The motion determination unit 31 receives the output signal (MSS) of the motion sensor, that is, motion tracking data, and determines the user's movement direction (Vector) and movement amount (Scalar). The shift calculation unit 32 defines the shift direction and shift amount of the data [RF(N)] received from the GPU of the system control unit 300 by the amount of the user's movement in the direction of the user's movement. The shift calculation unit 32 indicates the position of the first pixel data to be written in the first pixel [P(1,1)] of the screen AA in the N-th frame data [RF(N)] every frame period. Shift information can be output.

영상 수신부(33)는 시스템 제어부(300)의 GPU로부터 수신된 입력 영상 데이터(RGB DATA)를 프레임 메모리(34)에 공급한다. 입력 영상 데이터(RGB DATA)는 GPU의 렌더링 후 생성된 영상 데이터[RF(N), RF(N+1)]이다. 프레임 메모리(34)는 영상 수신부(33)로부터의 영상 데이터[RF(N), RF(N+1)]를 일시 저장하여 데이터 출력부(35)로 전송한다.The image receiving unit 33 supplies input image data (RGB DATA) received from the GPU of the system control unit 300 to the frame memory 34. Input image data (RGB DATA) is image data [RF(N), RF(N+1)] generated after rendering by GPU. The frame memory 34 temporarily stores the image data [RF(N), RF(N+1)] from the image receiver 33 and transmits it to the data output unit 35.

데이터 출력부(35)는 시프트 계산부(32)로부터의 시프트 정보에 응답하여 입력 영상 데이터를 시프트한다. 데이터 출력부(35)로부터 출력된 영상 데이터(RGB')는 데이터 구동부(110)로 전송된다. The data output unit 35 shifts the input image data in response to shift information from the shift calculation unit 32. Image data (RGB') output from the data output unit 35 is transmitted to the data driver 110.

전술한 바와 같이, 영상 생성부(132)는 입력 영상을 시프트하는 것만으로 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하기 때문에 입력 영상 데이터의 지연이 거의 없다. 따라서, 도 15에 도시된 바와 같이 버퍼 메모리 역할을 하는 프레임 메모리(34)가 생략될 수 있다. As described above, the image generator 132 generates image data that reflects the user's movements in real time simply by shifting the input image, so there is almost no delay in the input image data. Accordingly, as shown in FIG. 15, the frame memory 34 serving as a buffer memory can be omitted.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above-described content, those skilled in the art will be able to see that various changes and modifications can be made without departing from the technical idea of the present invention. Therefore, the technical scope of the present invention should not be limited to what is described in the detailed description of the specification, but should be defined by the scope of the patent claims.

31 : 움직임 판단부 32 : 시프트 계산부
33 : 영상 수신부 34 : 프레임 메모리
35 : 데이터 출력부 100 : 표시패널
101 : 픽셀 110 : 데이터 구동부
120 : 게이트 구동부 130 : 타이밍 콘트롤러
132 : 영상 생성부 134 : EEPROM
200 : 디스플레이 구동부 300 : 시스템 제어부
302 : 센서 모듈 304 : 카메라
AA : 표시패널의 화면 OAA : 오버스캔 영상
31: movement determination unit 32: shift calculation unit
33: video receiver 34: frame memory
35: data output unit 100: display panel
101: Pixel 110: Data driver
120: Gate driver 130: Timing controller
132: Image generator 134: EEPROM
200: display driver 300: system control unit
302: sensor module 304: camera
AA: Display panel screen OAA: Overscan image

Claims (17)

시스템 제어부로부터 입력 영상의 제1 프레임 데이터를 수신 받는 단계;
상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계;
표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계;
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시장치의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함하고,
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계;
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함하는 영상 생성 방법.
Receiving first frame data of an input image from a system control unit;
generating second frame data reflecting the user's movement by starting rendering in response to a signal from a motion sensor at the system control unit;
determining the direction and amount of movement of the user from the signal of the motion sensor at the image generator of the display device;
Shifting the first frame data in the movement direction by the movement amount in the image generator of the display device to generate image data reflecting the user's movement in real time as one or more frame data; and
After the image generator transmits one or more frame data obtained from shifting the first frame data to a data driver, transmitting second frame data received from the system controller to a data driver; and
A step of displaying an image reflecting the user's movement in real time on the screen of the display device in the order of the first frame data, one or more frame data obtained from shifting the first frame data, and the second frame data. do,
The step of shifting the first frame data in the movement direction by the movement amount in the image generator of the display device to generate image data reflecting the user's movement in real time as one or more frame data,
defining a reference area with a width equal to the amount of movement at an edge of the first frame data indicated by the direction of movement of the user;
Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; and
An image generating method comprising copying data of neighboring pixels neighboring the reference area to the reference area.
제 1 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시장치의 화면 상에 표시되는 영상 생성 방법.
According to claim 1,
An image generating method in which one or more frame data obtained from shifting the first frame data are displayed on the screen of the display device while the system control unit performs a rendering operation to generate the second frame data.
제 1 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함하는 영상 생성 방법.
According to claim 1,
While the system control unit performs a rendering operation to generate the second frame data, the system control unit repeatedly transmits the first frame data to the image generator one or more times.
제 3 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시장치의 화면 해상도와 같은 영상 생성 방법.
According to claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is equal to the screen resolution of the display device.
삭제delete 제 3 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시장치의 화면 해상도 보다 큰 영상 생성 방법.
According to claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is greater than the screen resolution of the display device.
제 6 항에 있어서,
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 표시장치의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 단계를 포함하는 영상 생성 방법.
According to claim 6,
The step of shifting the first frame data in the movement direction by the movement amount in the image generator of the display device to generate image data reflecting the user's movement in real time as one or more frame data,
Shifting first pixel data to be written in a first pixel located at the upper leftmost position on the screen of the display device by the movement amount in the movement direction on the first frame data to generate one or more frame data. How to create video.
다수의 데이터 라인들, 다수의 게이트 라인들, 및 다수의 픽셀들이 매트릭스 형태로 배치된 화면을 포함한 표시패널;
모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부;
상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부;
상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및
상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함하고,
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되고,
상기 영상 생성부는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하고,
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하며,
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 표시장치.
A display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form;
a system control unit connected to a motion sensor, generating first frame data of an input image, starting rendering in response to a signal from the motion sensor, and generating second frame data reflecting the user's movement;
It is connected to the motion sensor to determine the user's movement direction and movement amount from the signal of the motion sensor, and shifts the first frame data in the movement direction by the movement amount to produce one or more image data reflecting the user's movement in real time. An image generator that generates frame data;
a data driver that converts the image data received from the image generator into a data voltage and supplies it to the data lines; and
A gate driver that supplies a gate signal synchronized to the data voltage to the gate lines,
An image reflecting the user's movement in real time is displayed on the screen of the display panel in the order of the first frame data, one or more frame data obtained from shifting the first frame data, and the second frame data,
The image generator,
Defining a reference area with a width equal to the amount of movement at the edge of the first frame data indicated by the direction of movement of the user,
Shifting the first frame data by the reference area in a direction opposite to the direction of movement of the user to generate image data reflecting the user's movement in real time as one or more frame data,
A display device that copies data of neighboring pixels adjacent to the reference area to the reference area.
제 8 항에 있어서,
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 표시장치.
According to claim 8,
A display device in which the system control unit repeatedly transmits the first frame data to the image generator one or more times while the system control unit performs a rendering operation to generate the second frame data.
제 9 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같은 표시장치.
According to clause 9,
A display device wherein the resolution of each of the first and second frame data is the same as the screen resolution of the display panel.
삭제delete 제 9 항에 있어서,
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 큰 표시장치.
According to clause 9,
A display device in which the resolution of each of the first and second frame data is greater than the screen resolution of the display panel.
제 12 항에 있어서,
상기 영상 생성부는,
상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 표시장치.
According to claim 12,
The image generator,
A display device that generates one or more frame data by shifting first pixel data to be written in a first pixel located at the upper leftmost position on the screen of the display panel by the amount of movement in the direction of movement on the first frame data.
제 8 항에 있어서,
상기 표시패널의 화면 해상도, 및 상기 화면 해상도와 다른 하나 이상의 해상도를 포함한 디스플레이 정보를 저장하는 메모리를 더 포함하고,
상기 시스템 제어부가 상기 메모리에서 활성화된 해상도 정보를 수신하고, 수신된 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치.
According to claim 8,
It further includes a memory that stores display information including a screen resolution of the display panel and one or more resolutions different from the screen resolution,
A display device in which the system control unit receives activated resolution information from the memory, scales the input image to the received resolution, and transmits it to the image generator.
제 8 항에 있어서,
상기 표시패널의 화면 해상도를 저장하는 메모리; 및
상기 메모리에 연결되어 상기 데이터 구동부와 상기 게이트 구동부의 동작 타이밍을 제어하는 타이밍 콘트롤러를 더 포함하고,
상기 시스템 제어부가 상기 메모리로부터 상기 표시패널의 해상도 정보를 수신하고, 상기 타이밍 콘트롤러가 요청한 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치.
According to claim 8,
a memory that stores the screen resolution of the display panel; and
Further comprising a timing controller connected to the memory to control the operation timing of the data driver and the gate driver,
A display device in which the system control unit receives resolution information of the display panel from the memory, scales the input image to the resolution requested by the timing controller, and transmits it to the image generator.
제 8 항에 있어서,
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부;
상기 영상 수신부로부터의 데이터를 일시 저장하는 메모리; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치.
According to claim 8,
The image generator,
a motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
a shift calculation unit that outputs shift information defining a shift direction and shift amount of the first frame data in the direction of the user's movement by the amount of the user's movement;
an image receiving unit that receives the first and second frame data from the system control unit;
a memory for temporarily storing data from the image receiver; and
A display device comprising a data output unit that shifts the first frame data by the shift amount in the shift direction indicated by the shift information to generate image data reflecting the user's movement in real time and transmits the generated image data to the data driver.
제 8 항에 있어서,
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치.
According to claim 8,
The image generator,
a motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
a shift calculation unit that outputs shift information defining a shift direction and shift amount of the first frame data in the direction of the user's movement by the amount of the user's movement;
an image receiving unit that receives the first and second frame data from the system control unit; and
A display device comprising a data output unit that shifts the first frame data by the shift amount in the shift direction indicated by the shift information to generate image data reflecting the user's movement in real time and transmits the generated image data to the data driver.
KR1020180159346A 2018-12-11 2018-12-11 Image generation method and display device using the same KR102629441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Publications (2)

Publication Number Publication Date
KR20200071521A KR20200071521A (en) 2020-06-19
KR102629441B1 true KR102629441B1 (en) 2024-01-24

Family

ID=71137561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180159346A KR102629441B1 (en) 2018-12-11 2018-12-11 Image generation method and display device using the same

Country Status (1)

Country Link
KR (1) KR102629441B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066574A (en) * 2009-09-16 2011-03-31 Toshiba Corp Video processor, video displaying system, and video displaying method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180075732A (en) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 Head mounted display and method for controlling thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066574A (en) * 2009-09-16 2011-03-31 Toshiba Corp Video processor, video displaying system, and video displaying method

Also Published As

Publication number Publication date
KR20200071521A (en) 2020-06-19

Similar Documents

Publication Publication Date Title
US11200730B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
US9595083B1 (en) Method and apparatus for image producing with predictions of future positions
CN109427283B (en) Image generating method and display device using the same
KR20170033462A (en) Electronic device and method for displaying image of a head mounted display device
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
US10699673B2 (en) Apparatus, systems, and methods for local dimming in brightness-controlled environments
CN110659005A (en) Data processing system
CN111066081B (en) Techniques for compensating for variable display device latency in virtual reality image display
US20200168001A1 (en) Display unit for ar/vr/mr systems
US11604356B1 (en) Near-eye display assembly with enhanced display resolution
KR20200030844A (en) Display device and head mounted device including thereof
KR102629441B1 (en) Image generation method and display device using the same
US11284060B2 (en) Display device and display system
KR102087841B1 (en) Display unit having panel time warp for ar/vr/mr system
US11176911B2 (en) Information processing apparatus, information processing method, program, and head-mounted display
WO2020237421A1 (en) Method and device for controlling virtual reality display device
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant