KR20200071521A - Image generation method and display device using the same - Google Patents
Image generation method and display device using the same Download PDFInfo
- Publication number
- KR20200071521A KR20200071521A KR1020180159346A KR20180159346A KR20200071521A KR 20200071521 A KR20200071521 A KR 20200071521A KR 1020180159346 A KR1020180159346 A KR 1020180159346A KR 20180159346 A KR20180159346 A KR 20180159346A KR 20200071521 A KR20200071521 A KR 20200071521A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- movement
- frame data
- user
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000004044 response Effects 0.000 claims abstract description 14
- 238000009877 rendering Methods 0.000 claims description 42
- 230000015654 memory Effects 0.000 claims description 16
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 206010028813 Nausea Diseases 0.000 abstract 1
- 230000008693 nausea Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 201000003152 motion sickness Diseases 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0457—Improvement of perceived resolution by subpixel rendering
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2360/00—Aspects of the architecture of display systems
- G09G2360/12—Frame memory handling
Abstract
Description
본 발명은 사용자의 움직임을 화면 상에 실시간 반영하는 영상 생성 방법과 이를 이용한 표시장치에 관한 것이다.The present invention relates to an image generation method for reflecting a user's movement on a screen in real time and a display device using the image.
가상 현실 기술은 국방, 건축, 관광, 영화, 멀티미디어, 게임 분야 등에서 가장 빠르고 발전하고 있다. 가상 현실은 입체 영상 기술을 이용하여 실제 환경과 유사하게 느껴지는 특정한 환경, 상황을 의미한다. Virtual reality technology is the fastest developing in defense, architecture, tourism, film, multimedia, and gaming. Virtual reality refers to a specific environment or situation that feels similar to the real environment using stereoscopic image technology.
가상 현실(Virtual Reality. 이하 “VR”이라 함) 시스템은 사용자의 움직임에 따라 입체 영상을 이동하고 입체 음향을 출력하여 사용자에게 가상 체험을 제공한다. VR 시스템은 HMD(Head Mounted Display), FMD(Face Mounted Display) 형태로 구현될 수 있다. 증강 현실(Augmented Reality, 이하 “AR”이라 함) 시스템은 현실 세계에 디지털 콘텐츠(contents)를 겹쳐 보이게 한다. 증강 현실 시스템은 EGD(Eye Glasses-type Display) 형태로 구현될 수 있다. The virtual reality (hereinafter referred to as “VR”) system moves a stereoscopic image according to a user's movement and outputs a stereoscopic sound to provide a virtual experience to the user. The VR system may be implemented in the form of a head mounted display (HMD) or a face mounted display (FMD). Augmented Reality (hereinafter referred to as “AR”) systems allow digital content to be superimposed on the real world. The augmented reality system may be implemented in the form of an eye glasses-type display (EGD).
VR/AR 시스템에서 표시패널의 화면 상에 입력 영상이 표시될 때까지의 지연 시간(Latency)이 화질에 큰 영향을 준다. 그래픽 처리 장치(Graphic Processing Unit, 이하 “GPU”라 함)로부터 생성된 영상 데이터가 디스플레이 구동부를 통해 표시패널의 픽셀들에 기입된다. 입력 영상의 데이터는 GPU의 이미지 처리 지연 시간과 표시장치의 지연 시간을 합한 총 지연 시간 이후에 데이터가 픽셀들에 표시된다. VR 시스템의 GPU는 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링(rendering)하여 새로운 이미지를 생성하는데, 렌더링 연산 시간으로 인하여 움직임이 반영된 이미지를 생성하기까지의 지연 시간이 사용자의 움직임을 따라가지 못하고 있다. 이로 인하여, 사용자는 멀미와 피로감을 크게 된다. In the VR/AR system, the latency until the input image is displayed on the screen of the display panel has a significant effect on image quality. Image data generated from a graphic processing unit (hereinafter referred to as “GPU”) is written to pixels of a display panel through a display driver. The data of the input image is displayed on the pixels after the total delay time, which is the sum of the image processing delay time of the GPU and the delay time of the display device. The GPU of the VR system reflects the user's movement and renders pixel data to create a new image. Due to the rendering operation time, the delay time before generating the image reflecting the movement cannot keep up with the user's movement. . Due to this, the user becomes greatly sick and tired.
본 발명은 사용자의 움직임을 실시간 반영한 이미지를 표시패널 상에 업데이트할 수 있는 영상 생성 방법과 이를 이용한 표시장치를 제공한다.The present invention provides an image generation method capable of updating an image reflecting a user's movement in real time on a display panel and a display device using the image.
본 발명의 영상 생성 방법은 시스템 제어부로부터 입력 영상의 제1 프레임 데이터를 수신 받는 단계; 상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계; 표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계; 상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함한다. The method for generating an image of the present invention includes receiving first frame data of an input image from a system controller; Generating, by the system controller, second frame data reflecting the movement of the user by starting rendering in response to a signal from a motion sensor; Determining a user's movement direction and movement amount from a signal of the motion sensor in an image generation unit of a display device; Generating, by the image generation unit of the display device, the first frame data by shifting the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data; After the image generation unit transmits one or more frame data obtained from the shift of the first frame data to a data driver, transmitting the second frame data received from the system controller to the data driver; And displaying, in the order of the first frame data, the first frame data, one or more frame data, and the second frame data, an image in which the movement of the user is reflected in real time on a screen of the display panel. Includes.
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시패널의 화면 상에 표시된다. During the rendering operation for generating the second frame data in the system control unit, one or more frame data obtained from the shift of the first frame data is displayed on the screen of the display panel.
상기 영상 생성 방법은 상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함한다. The image generation method further includes the step of repeatedly transmitting the first frame data to the image generation unit by the system control unit during the rendering operation for generating the second frame data by the system control unit.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같다. The resolution of each of the first and second frame data is the same as the screen resolution of the display panel.
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계; 상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및 상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함한다. In the image generating unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data indicates that the user's movement direction is indicated. Defining a reference area with a width equal to the amount of motion at the edge of the first frame data; Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And copying neighboring pixel data adjacent to the reference area to the reference area.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 크다. The resolution of each of the first and second frame data is greater than the screen resolution of the display panel.
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는 상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성한다. In the image generating unit of the display device, the step of shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data is displayed on the screen of the display panel. The first pixel data to be written in the first pixel located on the leftmost side is shifted by the amount of movement in the movement direction on the first frame data to generate one or more frame data.
본 발명의 표시장치는 다수의 데이터 라인들, 다수의 게이트 라인들, 및 다수의 픽셀들이 매트릭스 형태로 배치된 화면을 포함한 표시패널; 모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부; 상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부; 상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및 상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함한다. 상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시된다. The display device of the present invention includes a display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form; A system control unit connected to a motion sensor to generate first frame data of an input image, start rendering in response to a signal of the motion sensor, and generate second frame data reflecting the user's movement; It is connected to the motion sensor to determine the user's movement direction and amount of movement from the signal of the motion sensor, and shift the first frame data by the amount of movement in the movement direction to display the image data reflecting the movement of the user in real time An image generator that generates the above frame data; A data driver that converts image data received from the image generator into a data voltage and supplies the data lines to the data lines; And a gate driver supplying a gate signal synchronized with the data voltage to the gate lines. In the order of the first frame data, the one or more frame data obtained from the shift of the first frame data, and the second frame data, an image in which the user's movement is reflected in real time is displayed on the screen of the display panel.
본 발명은 입력 영상을 미리 설정된 해상도로 스케일링하여 표시장치의 타이밍 콘트롤러로 전송하는 시스템 제어부로부터 사용자의 움직임이 반영된 영상 데이터가 수신되기 전에 표시장치 내에서 영상 데이터를 사용자의 움직임 방향으로 사용자의 움직임만큼 시프트하여 지연 없이 사용자의 움직임이 실시간 반영된 영상 데이터를 발생하여 표시패널의 화면 상에 반영한다. According to the present invention, before the image data reflecting the user's movement is received from the system control unit that scales the input image to a preset resolution and transmits it to the timing controller of the display device, the image data in the display device is moved as much as the user's movement in the user's movement direction. By shifting, image data reflecting the user's movement in real time without delay is generated and reflected on the display panel.
따라서, 본 발명의 표시장치는 VR/AR 시스템에서 사용자가 멀미와 피로감 없이 표시장치에서 사용자의 움직임에 실시한 반응하여 이동되는 영상을 감상할 수 있게 한다. Accordingly, the display device of the present invention enables the user to view a moving image in response to a user's movement on the display device without motion sickness and fatigue in the VR/AR system.
도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다.
도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다.
도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다.
도 5는 GPU의 렌더링 과정으로 인하여 영상 업데이트가 지연되는 예를 보여 주는 도면이다.
도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다.
도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다.
도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러의 입력 영상과 영상 생성부에 의해 생성되는 영상을 보여 주는 도면이다.
도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상 데이터(overscan image)의 해상도를 보여 주는 도면이다.
도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다.
도 12 및 도 13은 시스템 제어부에 표시패널의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다.
도 14 및 도 15는 영상 생성부를 상세히 보여 주는 도면들이다. 1 is an exploded perspective view schematically showing an external configuration of a VR system according to an embodiment of the present invention.
2 is a block diagram showing a display device according to an exemplary embodiment of the present invention.
3 is a view showing an example in which two screens are implemented with two display panels.
4 is a diagram showing an example in which two screens are implemented by one display panel.
5 is a diagram illustrating an example in which an image update is delayed due to a rendering process of a GPU.
6 is a diagram showing an example of image data generated in the rendering process of the GPU.
7 is a view showing image data generated by a display device according to an embodiment of the present invention.
8A and 8B are diagrams illustrating a method of generating an image of a display device according to a first embodiment of the present invention.
9 is a view showing an input image of the timing controller and the image generated by the image generation unit in FIGS. 8A and 8B.
FIG. 10 is a view showing the screen resolution of the display device and the resolution of the overscan image data transmitted from the system control unit to the display device.
11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.
12 and 13 are diagrams showing a method of transmitting resolution information of a display panel to a system control unit.
14 and 15 are diagrams showing the image generator in detail.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다는 것에 주의하여야 한다. 이하의 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명은 특허청구범위에 의해 정의된다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. It should be noted that the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms. The following examples are provided to make the disclosure of the present invention complete, and to fully inform the scope of the invention to those of ordinary skill in the art. The invention is defined by the claims.
본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. The shapes, sizes, ratios, angles, numbers, etc. disclosed in the drawings for describing the embodiments of the present invention are exemplary and the present invention is not limited to the illustrated matters. The same reference numerals refer to the same components throughout the specification. In addition, in the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.
본 명세서 상에서 언급된 '구비한다', '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 ' ~ 만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다. When'equipped','include','have','consist of', etc. mentioned in this specification are used, other parts may be added unless'~ only' is used. When a component is expressed as a singular number, the plural number is included unless otherwise specified.
구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.In interpreting the components, it is interpreted as including the error range even if there is no explicit description.
위치 관계에 대한 설명일 경우, 예를 들어, ' ~ 상에', ' ~ 상부에', ' ~ 하부에', ' ~ 옆에' 등으로 두 부분의 위치 관계가 설명되는 경우, '바로' 또는 '직접'이 사용되지 않는 이상 두 부분 사이에 하나 이상의 다른 부분이 위치할 수도 있다. In the case of the description of the positional relationship, for example, if the positional relationship of the two parts is described as'~ on','~ on top','~ on the bottom','~ next to', etc.,'right' Alternatively, one or more other parts may be located between the two parts unless'direct' is used.
실시예의 설명에서, 제1, 제2 등이 다양한 구성 요소들을 서술하기 위해서 사용되지만, 이들 구성 요소들은 이들 용어에 의해 제한되지 않는다. 이들 용어들은 단지 하나의 구성 요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다.In the description of the embodiment, the first, second, etc. are used to describe various components, but these components are not limited by these terms. These terms are only used to distinguish one component from another component.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be partially or wholly combined or combined with each other, technically various interlocking and driving may be possible, and each of the embodiments may be independently implemented with respect to each other or may be implemented together in an associative relationship. It might be.
본 발명의 표시장치는 VR 시스템, AR 시스템과 같이 사용자의 움직임에 따라 영상 데이터의 프레임을 업데이트(update)하는 시스템에 적용 가능하다. 본 발명의 표시장치는 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치로 구현될 수 있다. The display device of the present invention is applicable to a system that updates a frame of image data according to a user's movement, such as a VR system or an AR system. The display device of the present invention may be implemented as a flat panel display device such as a liquid crystal display (LCD) or an organic light emitting display (OLED).
VR/AR 시스템은 모션 센서를 이용하여 사용자의 움직임을 감지할 수 있고, 사용자가 움직일 때 표시장치에서 재현되는 영상 데이터의 프레임을 업데이트한다. 모션 센서(Motion sensor)는 자이로 센서 또는 가속도 센서를 포함할 수 있다.The VR/AR system can detect a user's movement using a motion sensor and updates a frame of image data reproduced on a display device when the user moves. The motion sensor may include a gyro sensor or an acceleration sensor.
본 발명의 영상 생성 방법은 시스템의 영상 처리부에서 사용자의 움직임을 반영하여 영상 데이터를 업데이트하는데 필요한 렌더링(Rendering) 과정에서 모션 센서의 출력 신호를 표시장치로 전송한다. 본 발명의 표시장치는 모션 센서의 출력 신호에 응답하여 사용자의 움직임을 반영하여 픽셀 데이터를 시프트함으로써 렌더링 과정 없이 사용자의 움직임을 반영하여 화면 상에서 영상 데이터를 업데이트한다. 본 발명의 표시장치는 시스템의 영상 처리부에서 렌더링이 진행되는 동안 사용자의 움직임이 반영된 하나 이상의 영상 데이터를 생성하여 화면 상에 업데이트함으로써 사용자의 움직임이 실시간 반영되는 영상을 화면 상에서 재현할 수 있다. 시스템의 영상 처리부는 GPU로 해석될 수 있다.The image generation method of the present invention transmits an output signal of a motion sensor to a display device in a rendering process necessary to update image data by reflecting a user's movement in the image processing unit of the system. The display device of the present invention updates the image data on the screen by reflecting the user's movement without rendering by shifting the pixel data by reflecting the user's movement in response to the output signal of the motion sensor. The display device of the present invention can reproduce one or more image data reflecting the user's movement while rendering is being performed by the image processing unit of the system and update it on the screen, thereby reproducing an image on which the user's movement is reflected in real time on the screen. The image processing unit of the system can be interpreted as a GPU.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Throughout the specification, the same reference numerals refer to substantially the same components. In the following description, when it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description is omitted.
도 1은 본 발명의 실시예에 따른 VR 시스템의 외관 구성을 개략적으로 보여 주는 분해 사시도이다. 도 2는 본 발명의 실시예에 따른 표시장치를 보여 주는 블록도이다. 도 3은 두 개의 표시패널들로 두 개의 화면이 구현된 예를 보여 주는 도면이다. 도 4는 하나의의 표시패널로 두 개의 화면이 구현된 예를 보여 주는 도면이다. 1 is an exploded perspective view schematically showing an external configuration of a VR system according to an embodiment of the present invention. 2 is a block diagram showing a display device according to an exemplary embodiment of the present invention. 3 is a view showing an example in which two screens are implemented with two display panels. 4 is a diagram showing an example in which two screens are implemented by one display panel.
도 1 내지 도 4를 참조하면, VR 시스템은 렌즈 모듈(lens module, 12), 디스플레이 모듈(display module, 13), 메인 보드(14), 헤드 기어(headgear, 11), 사이드 프레임(side frame)(15), 프론트 커버(front cover)(16) 등을 포함한다. 1 to 4, the VR system includes a
디스플레이 모듈(13)은 메인 보드(14)로부터 수신된 입력 영상을 표시한다. 디스플레이 모듈(13)은 표시패널(100)과, 표시패널(100)에 입력 영상의 픽셀 데이터(RGB)를 기입하는 디스플레이 구동부(200)를 포함한다. 디스플레이 모듈(13)은 도 3에 도시된 바와 같이 두 개의 표시패널들(100A, 100B)로 두 개의 화면(AA)을 구현하거나 도 4에 도시된 바와 같이 하나의 표시패널(100)에서 두 개의 화면을 구현할 수 있다. 제1 화면(AA1)은 사용자의 좌안으로 보이는 영상을 표시하고, 제2 화면(AA2)은 사용자의 우안으로 보이는 영상을 표시한다. The
디스플레이 모듈(13)에서 재현되는 영상은 사용자의 움직임에 따라 시프트(shift)된다. 사용자의 움직임 방향에 대하여 반대로 영상이 시프트된다. 디스플레이 모듈(13)에서 재현되는 영상은 VR 시스템에서 2D/3D 영상일 수 있다. The image reproduced in the
표시패널(100)은 액정표시장치(Liquid Crystal Display, LCD), 유기발광 다이오드 표시장치(Organic Light Emitting Display, OLED Display) 등의 평판 표시장치의 표시패널로 구현될 수 있다. 표시패널(100)은 데이터 전압이 인가되는 데이터 라인들(102), 게이트 펄스(또는 스캔 펄스)가 인가되는 게이트 라인들(또는 스캔 라인들, 104), 및 데이터 라인들(102)과 게이트 라인들(104)의 교차 구조에 의해 정의된 매트릭스 형태로 배열되어 데이터 라인들과 게이트 라인들에 전기적으로 연결된 픽셀들(101)을 포함한다. 픽셀들(101) 각각은 컬러 구현을 위하여 적색 서브 픽셀, 녹색 서브 픽셀 및 청색 서브 픽셀로 나뉘어진다. 픽셀들 각각은 백색 서브 픽셀을 더 포함할 수 있다. 서브 픽셀들 각각은 하나 이상의 TFT(Thin Film Transistor)를 포함할 수 있다. The
디스플레이 구동부(200)는 메인 보드(14)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 표시패널(100)의 픽셀들에 기입한다. 디스플레이 구동부(200)는 도 3에 도시된 바와 같이 데이터 구동부(110), 게이트 구동부(120), 및 타이밍 콘트롤러(timing controller, 130)) 등을 구비한다. The
데이터 구동부(110)는 입력 영상의 픽셀 데이터(RGB)를 감마 보상 전압으로 변환하여 데이터 전압을 발생하여 데이터 라인들(102)에 공급한다. 게이트 구동부(120)는 데이터 전압에 동기되는 게이트 신호를 게이트 라인들(104)에 순차적으로 공급한다. The
타이밍 콘트롤러(130)는 메인보트(150)의 GPU로부터 수신된 입력 영상의 픽셀 데이터(RGB)를 데이터 구동부(110)로 전송한다. 타이밍 콘트롤러(130)에 연결된 메모리에 표시패널(100)의 구동에 필요한 정보와 표시장치의 기본 정보가 저장될 수 있다. 메모리는 EEPROM(Electrically Erasable Programmable Read-Only Memory, 134)일 수 있다. 타이밍 콘트롤러(130)는 메인 보드(14)의 GPU로부터 수신된 타이밍 신호와 EEPROM(134)에 저장된 설정 데이터를 비교하여 입력 영상의 픽셀 데이터와 동기되도록 데이터 구동부(110)와 게이트 구동부(120)의 구동 타이밍을 제어한다.The
타이밍 콘트롤러(130)는 EEPROM(134)는 외부의 ROM writer에 연결되어 ROM writer를 통해 수신된 데이터를 EEPROM(134)에 저장(write)할 수 있다. 타이밍 콘트롤러(130)는 EEPROM(134)에 표시패널의 구동에 필요한 설정 데이터와, EDID(Extended display identification data) 데이터를 저장하거나 갱신(update)할 수 있다. EDID 데이터는 표시장치의 제조사 정보, 제품 모델 정보, 표시패널(100)의 화면 해상도, 구동 타이밍 관련 정보, 휘도, 픽셀 정보 등 표시장치에 관한 정보를 포함한다. The
VR 시스템과 같은 모바일 시스템 또는 웨어러블 기기에서, 타이밍 콘트롤러(130)와 데이터 구동부(110)는 도 4에 도시된 바와 같이 하나의 드라이브 IC(113) 내에 집적될 수 있다. In a mobile system such as a VR system or a wearable device, the
렌즈 모듈(12)은 사용자의 좌우안 화각을 넓히기 위한 초광각 렌즈 즉, 한 쌍의 어안 렌즈(Fisheye Lens)를 포함한다. 한 쌍의 어안 렌즈는 제1 화면(AA1) 앞에 배치된 좌안 렌즈와, 제2 화면(AA2) 앞에 배치된 우안 렌즈를 포함한다.The
헤드 기어(11)는 어안 렌즈들을 노출하는 백 커버(back cover), 백 커버에 연결된 밴드(band)를 포함한다. 헤드 기어(11)의 백 커버, 사이드 프레임(15) 및 프론트 커버(16)는 조립되어 VR 시스템과 구성 요소들(12, 13, 14)이 배치되는 내부 공간을 확보하고 그 구성 요소들을 보호한다. 밴드는 백 커버에 연결된다. 사용자는 밴드로 자신의 머리에 VR 시스템을 착용한다. 사용자가 VR 시스템을 자신의 머리에 쓰면, 어안 렌즈들을 통해 좌안과 우안으로 서로 다른 화면들(AA, AA2)을 바라 보게 된다.The
사이드 프레임(15)은 헤드 기어(11)와 프론트 커버(16) 사이에 고정되어 렌즈 모듈(12), 디스플레이 모듈(13), 메인 보드(14)가 배치된 내부 공간의 갭(gap)을 확보한다. 프론트 커버(16)는 VR 시스템의 전면에 배치된다.The
메인 보드(14)는 시스템 제어부(300), 센서 모듈(302), 및 카메라 모듈(304)을 포함한다. 메인 보드(14)는 외부 기기와 연결되는 인터페이스 모듈, 센서 모듈(26) 등을 더 포함한다. 인터페이스 모듈은 Universal serial bus(USB), High definition multimedia interface (HDMI) 등의 인터페이스를 통해 외부 기기와 연결된다. The
시스템 제어부(300)는 가상 현실 소프트웨어를 실행한다. 시스템 제어부(300)는 입력 영상의 픽셀 데이터(RGB)와, 픽셀 데이터(RGB)에 동기되는 타이밍 신호를 디스플레이 모듈(13)에 공급하는 GPU를 포함한다.The
센서 모듈(302)은 자이로 센서, 3축 가속도 센서 등 모션 센서를 포함한다. 센서 모듈(302)은 사용자 움직임을 센싱하여 시스템 제어부(300)와 디스플레이 구동부(200)로 전송한다. The
시스템 제어부(300)는 인터페이스 모듈을 통해 외부로부터 입력 영상의 픽셀 데이터(RGB)를 수신할 수 있다. GPU는 표시장치로부터 수신된 디스플레이 정보에 맞게 입력 영상의 해상도를 변환한다. 디스플레이 정보는 EDIC(Extended Display Identification Data)일 수 있다. GPU는 센서 모듈(302)의 출력 신호에 응답하여 사용자의 움직임을 반영된 영상 데이터를 렌더링(rendering)하여 새로운 프레임 데이터를 생성함으로써 사용자의 움직임에 따라 화면들(AA2, AA2)에 표시되는 영상을 이동시킨다. The
GPU는 미리 설정된 아이 트랙킹 알고리즘(eye tracking algorithm)을 실행하여 카메라(304)로부터 얻어진 영상을 분석하여 사용자의 시선이 향하는 초점 영역을 추정한다. GPU는 포비에이티드 렌더링 알고리즘(foveated rendering algorithm)을 이용하여 사용자의 시선이 향하는 초점 영역의 해상도를 높이고, 초점 영역 밖의 주변 영역에서 입력 영상의 해상도를 낮출 수 있다. The GPU analyzes an image obtained from the
GPU는 모션 센서를 이용한 모션 트랙킹(motion tracking)에 의해 사용자의 움직임이 감지되면 사용자의 움직임을 반영하여 픽셀 데이터를 렌더링하여 사용자의 움직임이 반영된 영상 데이터를 생성하여 타이밍 콘트롤러(130)로 전송한다. When the user's movement is detected by motion tracking using a motion sensor, the GPU renders pixel data reflecting the user's movement, generates image data reflecting the user's movement, and transmits the image data to the
타이밍 콘트롤러(130)는 GPU가 사용자의 움직임을 반영하여 렌더링하는 동안 하나 이상의 영상 데이터를 생성하는 영상 생성부(132)를 포함한다. 영상 생성부(132)는 센서 모듈(302)로부터 모션 센서의 출력 신호(MSS)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 영상 생성부(132)는 사용자 움직임에 따라 현재 영상 데이터를 시프트(shift)하여 GPU에 의해 픽셀 렌더링 연산 후 생성되는 프레임 데이터 보다 빠르게 하나 이상의 영상 데이터를 생성한다. The
영상 생성부(132)는 시스템 제어부(300)로부터 입력 영상의 제1 프레임 데이터를 수신 받는다. 시스템 제어부(300)는 모션 센서의 신호에 응답하여 렌더링을 시작하여 사용자의 움직임이 반영된 제2 프레임 데이터를 생성한다. 영상 생성부(132)는 모션 센서의 신호에 응답하여 사용자의 움직임 방향과 움직임 양을 판단하고, 제1 프레임 데이터를 사용자의 움직임 방향으로 움직임 양만큼 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성한다. 영상 생성부(132)는 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부(110)로 전송한 후에, 시스템 제어부(300)로부터 수신된 제2 프레임 데이터를 데이터 구동부(110)로 전송한다. 그 결과, 표시패널(100)의 화면(AA) 상에 제1 프레임 데이터, 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 사용자의 움직임이 실시간 반영된 영상이 표시된다. The
시스템 제어부(300)에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 입력 영상의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 표시패널(100)의 화면 상에 표시된다. GPU부에서 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, GPU는 영상 생성부(132)에 제1 프레임 데이터를 하나 이상 반복 전송한다. During the rendering operation for generating the second frame data in the
픽셀 데이터의 렌더링이나 MEMC(Motion Estimation Motion Compensation) 알고리즘 연산에 필요한 지연 시간이 필요하기 때문에 GPU의 렌더링이나 MEMC 지연 시간은 사용자의 움직임과 표시패널 상에 재현되는 영상의 실제 업데이트 시간 사이의 시간차를 초래한다. Since the delay time required for the rendering of pixel data or the operation of the Motion Estimation Motion Compensation (MEMC) algorithm is required, the GPU rendering or MEMC delay time causes a time difference between the user's movement and the actual update time of the image reproduced on the display panel. do.
도 5에 도시된 바와 같이 모션 트랙킹(motion tracking)에서 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU는 사용자 움직임을 반영하여 렌더링 연산을 하여 픽셀 데이터들을 생성한다. GPU에서 수행되는 렌더링은 사용자의 움직임을 반영하여 하나의 장면(프레임) 데이터에서 개체들 각각에 적용되는 조명 효과, 픽셀 데이터 각각의 깊이(depth)를 조정하는 프리 렌더링(pre-rendering) 과정이다. 이러한 렌더링에 필요한 계산양이 많기 때문에 렌더링 시간은 통상 20ms 이상이다. As illustrated in FIG. 5, when a user's movement is detected in motion tracking, the GPU of the
MEMC는 프레임간 픽셀 데이터를 비교하여 이전 프레임과 현재 프레임 간의 비교를 위하여 아래와 같은 양방향 절대차(sum of bilateral absolute difference, SBAD)로 모션 벡터(Motion vector)를 계산하기 때문에 계산량이 많기 때문에 지연 시간이 적지 않다. MEMC는 두 개의 프레임 데이터를 비교하기 때문에 두 개의 프레임 메모리를 필요로 한다.MEMC calculates a motion vector with the sum of bilateral absolute difference (SBAD) as follows to compare pixel data between frames to compare the previous frame with the current frame. Not many Since MEMC compares two frame data, it needs two frame memories.
VR 시스템의 GPU에서 다음 프레임 데이터가 생성될 때까지 렌더링에 필요한 시간이 32ms 정도 필요하여 사용자의 움직임 속도를 따라가지 못한다. 도 5에서 “RF(N)”과 “RF(N+1)”은 GPU에서 사용자 움직임을 반영하여 렌더링되어 생성된 입력 영상의 제N 및 제N+1 프레임 데이터이다. Until the next frame data is generated on the GPU of the VR system, the time required for rendering is about 32ms, and it cannot keep up with the user's movement speed. In FIG. 5, “RF(N)” and “RF(N+1)” are N and N+1 frame data of an input image generated by rendering by reflecting a user's movement in a GPU.
따라서, GPU의 렌더링 처리 시간으로 인하여 표시패널(100)에서 재현되는 영상의 업데이트가 지연된다. 이로 인하여, 사용자의 움직임과 화면의 업데이트가 불일치하고 렌더링으로 인하여 사용자 움직임이 영상 업데이트에 반영되기까의 시간 차이가 20ms 이상일 때 사용자가 멀미를 느끼게 된다. Therefore, the update of the image reproduced on the
도 6은 GPU의 렌더링 과정에서 생성되는 영상 데이터의 일 예를 보여 주는 도면이다. 6 is a diagram showing an example of image data generated in the rendering process of the GPU.
도 6을 참조하면, GPS는 모션 트랙킹에 의해 사용자의 움직임이 감지되면 렌더링을 시작하고 렌더링 과정에서 이전 영상 데이터[RF(N)]를 다시 표시장치로 전송한 다음, 렌더링 연산 결과 사용자의 움직임이 반영된 다음 영상 데이터[RF(N+1)]를 표시장치로 전송할 수 있다. 표시장치는 사용자가 움직이는 동안 시스템 제어부(300)로부터 수신된 동일한 영상 데이터(정지 영상)를 반복하여 표시패널 상에 표시할 수 있다. 이 경우에, 사용자가 움직이는 과정에서 움직임이 반영되지 않은 동일한 제N 영상 데이터[RF(N)]기 표시패널(100)의 화면(AA) 상에 반복 표시되기 때문에 사용자가 멀미를 느낄 수 있다. Referring to FIG. 6, GPS starts rendering when a user's motion is detected by motion tracking, transmits previous image data [RF(N)] back to a display device in the rendering process, and then renders the user's motion The reflected next image data [RF(N+1)] may be transmitted to the display device. The display device may repeatedly display the same image data (still image) received from the
도 7은 본 발명의 실시예에 따른 표시장치에서 생성되는 영상 데이터를 보여 주는 도면이다. 도 7에서 RF(N) 및 RF(N+1)은 시스템 제어부(300)의 GPU에서 생성된 영상 데이터다. Image1 및 Image2는 표시장치에 의해 생성된 영상 데이터다.7 is a view showing image data generated by a display device according to an embodiment of the present invention. In FIG. 7, RF(N) and RF(N+1) are image data generated by the GPU of the
도 7을 참조하면, 시스템 제어부(300)의 GPU는 모션 센서에 의해 사용자 움직임이 감지되면 사용자 움직임을 반영한 영상 데이터를 생성하기 위하여 렌더링을 실시한다. 렌더링은 20ms 이상의 시간이 필요하다. Referring to FIG. 7, when the user motion is detected by the motion sensor, the GPU of the
표시장치의 영상 생성부(132)는 제N 영상 데이터[RF(N)]와 모션 센서의 출력 신호(MSS)를 GPU로부터 수신 받을 수 있다. 모션 센서의 출력 신호는 사용자의 움직임을 실시간 지시하는 모션 트랙킹 데이터(Motion tracking data)를 포함한다. 모션 트랙킹 데이터는 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 지시한다. The
영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제N 영상 데이터[RF(N)]를 시프트하여 제1 시프트 영상 데이터(Image1)를 생성하여 데이터 구동부(110)로 전송한다. 제1 시프트 영상 데이터(Image1)는 제N 영상 데이터[RF(N)]의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다. 이어서, 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 응답하여 사용자의 움직임 방향으로 제1 시프트 영상 데이터(Image1)를 시프트하여 제2 시프트 영상 데이터(Image2)를 생성한다. 제2 시프트 영상 데이터(Image2)는 제1 시프트 영상 데이터(Image1)의 표시 위치가 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시프트된 데이터이다.The
영상 생성부(132)는 렌더링 연산 없이 단순히 입력 받은 영상 데이터의 표시 위치만 시프트하기 때문에 시프트된 영상 데이터(Image1, Image2)를 생성하기까지의 지연 시간이 거의 없다. 따라서, 영상 생성부(132)는 GPU가 렌더링 연산하여 픽셀 데이터를 생성하는 동안 사용자 움직임이 반영된 하나 이상의 프레임 데이터(Image1, Image2)를 생성할 수 있다.Since the
도 8a 및 도 8b는 본 발명의 제1 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. 8A and 8B are diagrams showing a method of generating an image of a display device according to a first embodiment of the present invention.
도 8a 및 도 8b를 참조하면, 영상 생성부(132)는 모션 센서의 출력 신호에 따라 사용자의 움직임이 감지되면 시스템 제어부(300)의 GPU로부터 수신 받은 영상 데이터[RF(N)]에서 사용자의 움직임 방향이 지시하는 참조 영역(REF)의 데이터를 정의한다. 8A and 8B, when the user's movement is detected according to the output signal of the motion sensor, the
GPU에 의해 사용자 움직임이 반영된 제N 및 제N+1 영상 데이터[RF(N), RF(N+1)]는 제1 계조 값의 픽셀 데이터를 포함한 제1 계조 영역(71), 제2 계조 값의 픽셀 데이터를 포함한 제2 계조 영역(72), 및 제3 계조 값의 픽셀 데이터를 포함한 제3 계조 영역(73)을 포함할 수 있다. 사용자의 머리가 도 8a에 도시된 바와 같이 우상단으로 움직이면, 제1 계조 영역(71)은 감소되고 제2 및 제3 계조 영역(72, 73)이 넓어진다. The N and N+1 image data (RF(N), RF(N+1)) in which user motion is reflected by the GPU includes first
참조 영역(REF)은 사용자의 움직임 방향이 지시하는 화면(AA)의 가장자리에 표시될 데이터이다. 예를 들어, 도 8a에 도시된 바와 같이 사용자의 머리가 우상단 방향으로 움직이면 참조 영역(REF)은 화면의 우측 가장자리와 상단 가장자리 영역으로 정의된다. 도 8b에 도시된 바와 같이 사용자의 머리가 좌하단 방향으로 움직이면 참조 영역(REF)은 화면의 좌측 가장자리와 하단 가장자리 영역으로 지정된다. 참조 영역(AA)의 폭은 사용자의 움직임 양 만큼 설정된다. The reference area REF is data to be displayed on the edge of the screen AA indicated by the user's movement direction. For example, as illustrated in FIG. 8A, when the user's head moves in the upper right direction, the reference area REF is defined as a right edge and a top edge area of the screen. As shown in FIG. 8B, when the user's head moves in the lower left direction, the reference area REF is designated as the left edge and bottom edge regions of the screen. The width of the reference area AA is set by the amount of movement of the user.
영상 생성부(132)는 참조 영역(REF) 만큼 사용자의 움직임 방향과 반대 방향으로 참조 영역(REF) 만큼 영상 데이터의 표시 위치를 시프트하여 데이터 구동부(110)로 전송한다. 참조 영역(REF)의 픽셀 데이터는 현재의 픽셀 데이터와 동일한 의사 데이터(Pseudo data)로 채워진다. 도 8a에서 의사 데이터는 제2 계조 영역(72)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. 도 8b에서 의사 데이터는 제1 계조 영역(71)의 픽셀 데이터를 복사하는 방법으로 생성될 수 있다. The
화면의 가장 자리에 표시되는 데이터는 배경 데이터이기 때문에 장면이 전환되는 프레임이 아니면 참조 영역에서 프레임간 데이터 변화가 거의 없고 사용자의 관심 영역이 아니다. 이로 인하여, 참조 영역(REF)에서 프레임간 변화가 없더라도 사용자가 이를 인식하지 못할 확률이 높다. Since the data displayed on the edge of the screen is background data, there is little change in data between frames in the reference area unless the scene is a switched frame, and it is not the user's area of interest. For this reason, even if there is no inter-frame change in the reference area REF, there is a high probability that the user cannot recognize it.
본 발명의 제1 실시예에 따른 영상 생성 방법은 현재 프레임 데이터의 표시 위치를 시프트하고 이웃한 픽셀 데이터로부터 얻어진 의사 데이터로 참조 영역(REF)을 채워 넣음으로써 GPU로부터 제N+1 영상 데이터[RF(N+1)]가 타이밍 콘트롤러(130)에 수신되기 전에 하나 이상의 시프트 영상 데이터(Image1, Image2)를 생성할 수 있다. 따라서, 본 발명의 제1 실시예에 따른 영상 생성 방법은 사용자의 움직임을 실시간 반영한 영상 데이터로 화면(AA) 상에 표시된 영상을 빠르게 업데이트하여 화질 저하 없이 사용자의 멀미와 피로감 문제를 개선할 수 있다. The image generation method according to the first embodiment of the present invention shifts the display position of the current frame data and fills the reference area REF with pseudo data obtained from neighboring pixel data to generate N+1 image data [RF from the GPU] (N+1)] may be generated one or more shift image data (Image1, Image2) before being received by the
도 9는 도 8a 및 도 8b에서 타이밍 콘트롤러(130)의 입력 영상[RF(N)]과 영상 생성부(132)에 의해 생성되는 영상(Image1)을 나타낸다. 타이밍 콘트롤러(130)는 도 9에 도시된 바와 같이 표시패널의 화면(AA)의 해상도(x * y)와 같은 해상도를 갖는 제N 영상 데이터[RF(N)]]를 수신 받아 사용자의 움직임 만큼 그 데이터[RF(N)]의 표시 위치만 시프트하여 사용자의 움직임이 실시간 반영된 영상 데이터(Image1)를 생성한다. 9 shows an input image [RF(N)] of the
도 10은 표시장치의 화면 해상도와 시스템 제어부로부터 표시장치로 전송되는 오버스캔 영상(overscan image)의 해상도를 보여 주는 도면이다. 도 11a 내지 도 11f는 본 발명의 제2 실시에에 따른 표시장치의 영상 생성 방법을 보여 주는 도면들이다. FIG. 10 is a view showing a screen resolution of a display device and a resolution of an overscan image transmitted from the system control unit to the display device. 11A to 11F are diagrams showing a method of generating an image of a display device according to a second embodiment of the present invention.
도 10 내지 도 11f를 참조하면, 시스템 제어부(300)의 GPU는 표시장치의 해상도(x * y) 보다 큰 해상도(X * Y)를 갖는 오버스캔 영상(OAA) 데이터를 표시장치로 전송할 수 있다. 10 to 11F, the GPU of the
영상 생성부(132)는 GPU로부터 수신된 오버 스캔 영상에서 표시패널(100)의 화면 해상도(AA = x * y) 크기로 정의된 선택 영역(SA)에 존재하는 픽셀 데이터를 데이터 구동부(110)로 전송한다. 영상 생성부(132)는 모션 센서의 출력 신호(MSS)에 따라 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판단하여 그 움직임 방향으로 선택 영역(SA)의 표시 위치를 시프트하여 시프트 영상 데이터(Image1, Image2)를 생성한다. 선택 영역(SA)은 사용자의 움직임 양만큼 시프트된다. The
영상 생성부(132)는 GPU로부터 수신된 오버스캔 영상 데이터를 지연시키지 않고 매 프레임 기간마다 데이터 구동부(110)로 전송되는 제1 픽셀 데이터의 표시 위치만 수신된 오버스캔 영상 데이터 상에서 시프트한다. 여기서, 오버스캔 영상 데이터는 GPU로부터 수신된 프레임 데이터[RF(N)]이다. 제1 픽셀 데이터는 도 11a 내지 도 11f에 도시된 바와 같이 표시패널(100)의 화면(AA) 상에서 상단 최좌측에 위치하는 제1 픽셀[P(1,1)]에 기입될 픽셀 데이터이다. 제1 픽셀 데이터의 위치가 정해지면, 제1 픽셀 데이터를 기준으로 화면의 해상도에 의해 정해지는 선택 영역(SA)의 픽셀 데이터가 정의되기 때문에 제1 픽셀 데이터의 표시 위치만 결정되면 선택 영역이 자동 정의된다.The
도 11a는 오버 스캔 영상(OAA)에서 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = +3 만큼 시프트된 예이다. 도 11b는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = +3 만큼 시프트된 예이다. 도 11c는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -3 만큼 시프트된 예이다. 도 11d는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -3, Y = -3 만큼 시프트된 예이다. 도 11e는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = +3, Y = -4 만큼 시프트된 예이다. 도 11f는 사용자의 움직임에 따라 제1 픽셀 데이터를 포함한 선택 영역(SA)이 X축 방향과 Y축 방향으로 X = -2, Y = -4 만큼 시프트된 예이다.11A is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = +3 in the X-axis direction and the Y-axis direction according to the user's movement in the overscan image OAA. 11B is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = +3 in the X-axis direction and the Y-axis direction according to the user's movement. 11C is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = -3 in the X-axis direction and the Y-axis direction according to the user's movement. 11D is an example in which the selection area SA including the first pixel data is shifted by X = -3 and Y = -3 in the X-axis direction and the Y-axis direction according to the user's movement. 11E is an example in which the selection area SA including the first pixel data is shifted by X = +3 and Y = -4 in the X-axis direction and the Y-axis direction according to the user's movement. 11F is an example in which the selection area SA including the first pixel data is shifted by X = -2 and Y = -4 in the X-axis direction and the Y-axis direction according to the user's movement.
도 12 및 도 13은 시스템 제어부(300)에 표시패널(100)의 해상도 정보를 전송하는 방법을 보여 주는 도면들이다. 도 12 및 도 13에서, “RGB DATA”는 시스템 제어부(300)의 GPU에서 렌더링 후 생성된 입력 영상 데이터이다. “EDID DATA”는 표시장치의 해상도 정보를 포함하여 시스템 제어부(300)로 전송되는 데이터이다. 12 and 13 are diagrams showing a method of transmitting resolution information of the
도 12를 참조하면, EEPROM(134)에 표시패널(100)의 실제 해상도(x * y)와, 실제 해상도(x * y)와 다른 해상도가 저장될 수 있다. 타이밍 콘트롤러(130)에 의해 시스템 제어부(300)에 전송될 해상도가 선택될 수 있다. 이를 상세히 하면, 타이밍 콘트롤러(130)은 EEPROM 레지스터 설정값(register setting)에 따라 EEPROM(134)에 저장된 둘 이상의 해상도 중 어느 하나를 인에이블(enable)할 수 있다. EEPROM(134)은 타이밍 콘트롤러(130)에 의해 인에이블된 해상도를 시스템 제어부(300)로 전송한다. EEPROM(134)은 I2C 인터페이스와 같은 표준 인터페이스를 통해 클럭 타이밍에 동기되어 해상도 정보를 포함한 EDID 데이터를 시스템 제어부(300)로 전송한다. 시스템 제어부(300)의 GPU는 EEPROM(134)으로부터 수신된 해상도로 입력 영상을 스케일링하여 타이밍 콘트롤러(130)로 전송한다.Referring to FIG. 12, an actual resolution (x * y) of the
도 13을 참조하면, EEPROM(134)은 표시패널(100)의 실제 해상도(x * y)를 시스템 제어부(300)로 전송할 수 있다. 타이밍 콘트롤러(130)는 시스템 제어부(300)에 원하는 해상도를 요청할 수 있다. 이 경우, 시스템 제어부(300)의 GPU는 타이밍 콘트롤러(130)로부터 수신된 해상도 정보에 따라 입력 영상 데이터를 스케일링하여 타이밍 콘트롤러(130)가 요청한 해상도(REQ)의 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. Referring to FIG. 13, the
도 7 내지 도 9와 같이 표시패널(100)의 실제 해상도(x * y)를 갖는 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 x * y 해상도로 스케일링된 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도이다. 7 to 9, when new image data reflecting a user's movement in real time is generated from image data having an actual resolution (x * y) of the
도 10 내지 도 12와 같이 표시패널(100)의 실제 해상도(x * y) 보다 큰 해상도(X * Y)의 오버스캔 영상 데이터로부터 사용자의 움직임이 실시간 반영된 새로운 영상 데이터가 생성되는 경우에, 시스템 제어부(300)의 GPU는 X * Y 해상도로 스케일링된 오버스캔 영상 데이터[RF(N), RF(N+1)]를 타이밍 콘트롤러(130)로 전송한다. 이 경우, EEPROM(134)으로부터 시스템 제어부(300)로 전송되는 EDID 데이터의 해상도는 표시패널(100)의 실제 해상도 보다 큰 해상도이다. 10 to 12, a system in which new image data reflecting a user's movement in real time is generated from overscan image data having a resolution (X*Y) greater than the actual resolution (x*y) of the
도 14 및 도 15는 영상 생성부(132)를 상세히 보여 주는 도면들이다. 14 and 15 are diagrams showing the
도 14를 참조하면, 영상 생성부(132)는 움직임 판단부(31), 시프트 계산부(32), 영상 수신부(33), 프레임 메모리(34), 및 데이터 출력부(35)를 포함한다. Referring to FIG. 14, the
움직임 판단부(31)는 모션 센서의 출력 신호(MSS) 즉, 모션 트랙킹 데이터(Motion tracking data)를 수신 받아 사용자의 움직임 방향(Vector)과 움직임 양(Scalar)을 판정한다. 시프트 계산부(32)는 사용자의 움직임 방향으로 사용자의 움직임 양 만큼 시스템 제어부(300)의 GPU로부터 수신된 데이터[RF(N)]의 시프트 방향 및 시프트 양을 정의한다. 시프트 계산부(32)는 매 프레임 기간마다 제N 프레임 데이터[RF(N)]에서 화면(AA)의 제1 픽셀[P(1,1)]에 기입될 제1 픽셀 데이터의 위치를 지시하는 시프트 정보를 출력할 수 있다. The
영상 수신부(33)는 시스템 제어부(300)의 GPU로부터 수신된 입력 영상 데이터(RGB DATA)를 프레임 메모리(34)에 공급한다. 입력 영상 데이터(RGB DATA)는 GPU의 렌더링 후 생성된 영상 데이터[RF(N), RF(N+1)]이다. 프레임 메모리(34)는 영상 수신부(33)로부터의 영상 데이터[RF(N), RF(N+1)]를 일시 저장하여 데이터 출력부(35)로 전송한다.The
데이터 출력부(35)는 시프트 계산부(32)로부터의 시프트 정보에 응답하여 입력 영상 데이터를 시프트한다. 데이터 출력부(35)로부터 출력된 영상 데이터(RGB')는 데이터 구동부(110)로 전송된다. The
전술한 바와 같이, 영상 생성부(132)는 입력 영상을 시프트하는 것만으로 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하기 때문에 입력 영상 데이터의 지연이 거의 없다. 따라서, 도 15에 도시된 바와 같이 버퍼 메모리 역할을 하는 프레임 메모리(34)가 생략될 수 있다. As described above, since the
이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Through the above description, those skilled in the art will appreciate that various changes and modifications are possible without departing from the technical idea of the present invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the scope of the claims.
31 : 움직임 판단부
32 : 시프트 계산부
33 : 영상 수신부
34 : 프레임 메모리
35 : 데이터 출력부
100 : 표시패널
101 : 픽셀
110 : 데이터 구동부
120 : 게이트 구동부
130 : 타이밍 콘트롤러
132 : 영상 생성부
134 : EEPROM
200 : 디스플레이 구동부
300 : 시스템 제어부
302 : 센서 모듈
304 : 카메라
AA : 표시패널의 화면
OAA : 오버스캔 영상31: motion determination unit 32: shift calculation unit
33: image receiving unit 34: frame memory
35: data output unit 100: display panel
101: pixel 110: data driver
120: gate driver 130: timing controller
132: image generation unit 134: EEPROM
200: display driving unit 300: system control unit
302: sensor module 304: camera
AA: Display panel screen OAA: Overscan image
Claims (17)
상기 시스템 제어부에서 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 단계;
표시장치의 영상 생성부에서 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하는 단계;
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 영상 생성부가 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터를 데이터 구동부로 전송한 후에, 상기 시스템 제어부로부터 수신된 제2 프레임 데이터를 데이터 구동부로 전송하는 단계; 및
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 단계를 포함하는 영상 생성 방법. Receiving first frame data of the input image from the system controller;
Generating, by the system controller, second frame data reflecting the movement of the user by starting rendering in response to a signal from a motion sensor;
Determining a user's movement direction and movement amount from a signal of the motion sensor in an image generation unit of a display device;
Generating, by the image generation unit of the display device, the first frame data by shifting the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And
After the image generation unit transmits one or more frame data obtained from the shift of the first frame data to a data driver, transmitting the second frame data received from the system controller to the data driver; And
And displaying, in the order of the first frame data, one or more frame data obtained from the shift of the first frame data, and the second frame data, an image in which the movement of the user is reflected in real time on a screen of the display panel. How to create video.
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터가 상기 표시패널의 화면 상에 표시되는 영상 생성 방법. According to claim 1,
During the rendering operation for generating the second frame data in the system control unit, one or more frame data obtained from the shift of the first frame data is displayed on the screen of the display panel.
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 단계를 더 포함하는 영상 생성 방법. According to claim 1,
During the rendering operation for generating the second frame data in the system control unit, the system control unit repeatedly transmitting the first frame data to the image generation unit one or more times.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같은 영상 생성 방법.The method of claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is the same as the screen resolution of the display panel.
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하는 단계;
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계; 및
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 단계를 포함하는 영상 생성 방법. The method of claim 4,
In the image generation unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data,
Defining a reference area with a width equal to the amount of movement from an edge of the first frame data indicated by the direction of movement of the user;
Shifting the first frame data by the reference area in a direction opposite to the user's movement direction to generate image data reflecting the user's movement in real time as one or more frame data; And
And copying surrounding pixel data adjacent to the reference area to the reference area.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 큰 영상 생성 방법.The method of claim 3,
A method of generating an image in which the resolution of each of the first and second frame data is greater than the screen resolution of the display panel.
상기 표시장치의 영상 생성부에서 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 단계는,
상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 단계를 포함하는 영상 생성 방법.The method of claim 6,
In the image generation unit of the display device, shifting the first frame data by the amount of movement in the movement direction to generate image data reflecting the user's movement in real time as one or more frame data,
And generating the first pixel data to be written in the first leftmost pixel on the screen of the display panel by shifting the amount of motion in the direction of movement on the first frame data to generate one or more frame data. How to create an image.
모션 센서에 연결되고 입력 영상의 제1 프레임 데이터를 생성하고, 상기 모션 센서의 신호에 응답하여 렌더링을 시작하여 상기 사용자의 움직임이 반영된 제2 프레임 데이터를 생성하는 시스템 제어부;
상기 모션 센서에 연결되어 상기 모션 센서의 신호로부터 사용자의 움직임 방향과 움직임 양을 판단하고, 상기 제1 프레임 데이터를 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하는 영상 생성부;
상기 영상 생성부로부터 수신된 영상 데이터를 데이터 전압으로 변환하여 상기 데이터 라인들에 공급하는 데이터 구동부; 및
상기 데이터 전압에 동기되는 게이트 신호를 상기 게이트 라인들에 공급하는 게이트 구동부를 포함하고,
상기 제1 프레임 데이터, 상기 제1 프레임 데이터의 시프트로부터 얻어진 하나 이상의 프레임 데이터, 및 상기 제2 프레임 데이터의 순서로 상기 표시패널의 화면 상에 상기 사용자의 움직임이 실시간 반영된 영상이 표시되는 표시장치. A display panel including a screen in which a plurality of data lines, a plurality of gate lines, and a plurality of pixels are arranged in a matrix form;
A system control unit connected to a motion sensor to generate first frame data of an input image, start rendering in response to a signal of the motion sensor, and generate second frame data reflecting the user's movement;
It is connected to the motion sensor to determine the user's movement direction and amount of movement from the signal of the motion sensor, and shift the first frame data by the amount of movement in the movement direction to display the image data reflecting the movement of the user in real time An image generator that generates the above frame data;
A data driver that converts image data received from the image generator into a data voltage and supplies the data lines to the data lines; And
And a gate driver supplying a gate signal synchronized with the data voltage to the gate lines,
A display device displaying an image in which the movement of the user is reflected in real time on a screen of the display panel in the order of the first frame data, one or more frame data obtained from the shift of the first frame data, and the second frame data.
상기 시스템 제어부에서 상기 제2 프레임 데이터를 생성하기 위한 렌더링 연산을 하는 동안, 상기 시스템 제어부가 상기 제1 프레임 데이터를 상기 영상 생성부에 하나 이상 반복 전송하는 표시장치. The method of claim 8,
During the rendering operation for generating the second frame data in the system control unit, the system control unit repeatedly transmits one or more of the first frame data to the image generation unit.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도와 같은 표시장치. The method of claim 9,
A display device having a resolution of each of the first and second frame data equal to a screen resolution of the display panel.
상기 영상 생성부는,
상기 사용자의 움직임 방향이 지시하는 상기 제1 프레임 데이터의 가장 자리에서 상기 움직임 양만큼의 폭으로 참조 영역을 정의하고,
상기 사용자의 움직임 방향과 반대 방향으로 상기 참조 영역 만큼 상기 제1 프레임 데이터를 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 하나 이상의 프레임 데이터로 생성하며,
상기 참조 영역에 상기 참조 영역과 이웃하는 주변 픽셀 데이터를 복사하는 표시장치. The method of claim 10,
The image generation unit,
A reference area is defined by a width corresponding to the amount of movement from the edge of the first frame data indicated by the direction of movement of the user,
By shifting the first frame data by the reference area in a direction opposite to the user's movement direction, image data reflecting the user's movement in real time is generated as one or more frame data,
A display device for copying surrounding pixel data adjacent to the reference area to the reference area.
상기 제1 및 제2 프레임 데이터 각각의 해상도가 상기 표시패널의 화면 해상도 보다 큰 표시장치. The method of claim 9,
A display device having a resolution of each of the first and second frame data greater than a screen resolution of the display panel.
상기 영상 생성부는,
상기 표시패널의 화면 상에서 상단 최좌측에 위치하는 제1 픽셀에 기입될 제1 픽셀 데이터를 상기 제1 프레임 데이터 상에서 상기 움직임 방향으로 상기 움직임 양만큼 시프트하여 하나 이상의 프레임 데이터로 생성하는 표시장치.The method of claim 12,
The image generation unit,
A display device that generates first or more frame data by shifting the first pixel data to be written in the first leftmost pixel on the screen of the display panel by the amount of movement in the movement direction on the first frame data.
상기 표시패널의 화면 해상도, 및 상기 화면 해상도와 다른 하나 이상의 해상도를 포함한 디스플레이 정보를 저장하는 메모리를 더 포함하고,
상기 시스템 제어부가 상기 메모리에서 활성화된 해상도 정보를 수신하고, 수신된 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치. The method of claim 8,
Further comprising a memory for storing display information including the screen resolution of the display panel and one or more resolutions different from the screen resolution,
A display device that the system control unit receives the resolution information activated from the memory, and scales the input image to the received resolution and transmits it to the image generation unit.
상기 표시패널의 화면 해상도를 저장하는 메모리; 및
상기 메모리에 연결되어 상기 데이터 구동부와 상기 게이트 구동부의 동작 타이밍을 제어하는 타이밍 콘트롤러를 더 포함하고,
상기 시스템 제어부가 상기 메모리로부터 상기 표시패널의 해상도 정보를 수신하고, 상기 타이밍 콘트롤러가 요청한 해상도로 상기 입력 영상을 스케일링하여 상기 영상 생성부로 전송하는 표시장치. The method of claim 8,
A memory that stores the screen resolution of the display panel; And
Further comprising a timing controller connected to the memory to control the operation timing of the data driver and the gate driver,
The system control unit receives the resolution information of the display panel from the memory, and scales the input image to the resolution requested by the timing controller and transmits it to the image generation unit.
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부;
상기 영상 수신부로부터의 데이터를 일시 저장하는 메모리; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치. The method of claim 8,
The image generation unit,
A motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
A shift calculator configured to output shift information defining a shift direction and a shift amount of the first frame data as much as the user's motion amount in the user's motion direction;
An image receiving unit receiving the first and second frame data from the system control unit;
A memory for temporarily storing data from the image receiving unit; And
And a data output unit that shifts the first frame data in the shift direction indicated by the shift information by the shift amount to generate image data reflecting the user's movement in real time and transmits the image data to the data driver.
상기 영상 생성부는,
상기 모션 센서의 출력 신호로부터 상기 사용자의 움직임 방향과 상기 사용자의 움직임 양을 판정하는 움직임 판단부;
상기 사용자의 움직임 방향으로 상기 사용자의 움직임 양 만큼 상기 제1 프레임 데이터의 시프트 방향 및 시프트 양을 정의하는 시프트 정보를 출력하는 시프트 계산부;
상기 시스템 제어부로부터 상기 제1 및 제2 프레임 데이터를 수신하는 영상 수신부; 및
상기 시프트 정보가 지시하는 시프트 방향으로 상기 제1 프레임 데이터를 상기 시프트 양 만큼 시프트하여 상기 사용자의 움직임이 실시간 반영된 영상 데이터를 생성하여 상기 데이터 구동부로 전송하는 데이터 출력부를 포함하는 표시장치.The method of claim 8,
The image generation unit,
A motion determination unit that determines the direction of movement of the user and the amount of movement of the user from the output signal of the motion sensor;
A shift calculator configured to output shift information defining a shift direction and a shift amount of the first frame data as much as the user's motion amount in the user's motion direction;
An image receiving unit receiving the first and second frame data from the system control unit; And
And a data output unit that shifts the first frame data in the shift direction indicated by the shift information by the shift amount to generate image data reflecting the user's movement in real time and transmits the image data to the data driver.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180159346A KR102629441B1 (en) | 2018-12-11 | 2018-12-11 | Image generation method and display device using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180159346A KR102629441B1 (en) | 2018-12-11 | 2018-12-11 | Image generation method and display device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200071521A true KR20200071521A (en) | 2020-06-19 |
KR102629441B1 KR102629441B1 (en) | 2024-01-24 |
Family
ID=71137561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180159346A KR102629441B1 (en) | 2018-12-11 | 2018-12-11 | Image generation method and display device using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102629441B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011066574A (en) * | 2009-09-16 | 2011-03-31 | Toshiba Corp | Video processor, video displaying system, and video displaying method |
KR20180075732A (en) * | 2016-12-26 | 2018-07-05 | 엘지디스플레이 주식회사 | Head mounted display and method for controlling thereof |
-
2018
- 2018-12-11 KR KR1020180159346A patent/KR102629441B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011066574A (en) * | 2009-09-16 | 2011-03-31 | Toshiba Corp | Video processor, video displaying system, and video displaying method |
KR20180075732A (en) * | 2016-12-26 | 2018-07-05 | 엘지디스플레이 주식회사 | Head mounted display and method for controlling thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102629441B1 (en) | 2024-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200730B2 (en) | Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods | |
US10754163B2 (en) | Image generation method and display device using the same | |
US9595083B1 (en) | Method and apparatus for image producing with predictions of future positions | |
US20110007136A1 (en) | Image signal processing apparatus and image display | |
KR20160002602A (en) | Display device and accelerated head tracking method using the same | |
US11126261B2 (en) | Display control system and rendering pipeline | |
US10699673B2 (en) | Apparatus, systems, and methods for local dimming in brightness-controlled environments | |
CN111066081B (en) | Techniques for compensating for variable display device latency in virtual reality image display | |
US20200168001A1 (en) | Display unit for ar/vr/mr systems | |
KR102551131B1 (en) | Display device and head mounted device including thereof | |
KR102629441B1 (en) | Image generation method and display device using the same | |
WO2020237421A1 (en) | Method and device for controlling virtual reality display device | |
KR102087841B1 (en) | Display unit having panel time warp for ar/vr/mr system | |
CN110659005A (en) | Data processing system | |
NZ751028B2 (en) | Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |