KR20180036820A - 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 - Google Patents
영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 Download PDFInfo
- Publication number
- KR20180036820A KR20180036820A KR1020160126214A KR20160126214A KR20180036820A KR 20180036820 A KR20180036820 A KR 20180036820A KR 1020160126214 A KR1020160126214 A KR 1020160126214A KR 20160126214 A KR20160126214 A KR 20160126214A KR 20180036820 A KR20180036820 A KR 20180036820A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- image
- scaling
- rendering
- partial
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 40
- 238000009877 rendering Methods 0.000 claims abstract description 220
- 239000003086 colorant Substances 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 25
- 230000004075 alteration Effects 0.000 description 14
- 238000000926 separation method Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 241001270131 Agaricus moelleri Species 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 101100121035 Arabidopsis thaliana GCP2 gene Proteins 0.000 description 1
- 101100478233 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SPR3 gene Proteins 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H04N13/044—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- H04N13/0436—
-
- H04N13/0456—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/339—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0147—Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Image Processing (AREA)
Abstract
영상 처리 장치는 제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및 제2 영상 데이터를 수신하고, 상기 제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고, 상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터일 수 있다.
Description
본 발명은 표시 장치에 관한 것으로, 보다 상세하게는 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치에 관한 것이다.
두부 장착 표시 장치(또는, 헤드 마운트 디스플레이 장치, head mounted display device; HMD device)는 머리(또는, 사용자의 머리) 부분에 장착되고, 렌즈를 이용하여 영상(즉, 표시 패널에서 출력되는 영상)을 확대하며, 사용자의 눈 앞에 직접 영상을 제공할 수 있다.
일반적인 표시 패널(또는, 고해상도 표시 패널)의 화소 밀도는 500 PPI(pixel per inch)이므로, 표시 패널 내 화소가 사용자에게 시인되지 않는다. 그러나, 두부 장착 표시 장치는 렌즈를 이용하여 영상을 확대하므로, 두부 장착 표시 장치의 표시 패널 내 화소는 사용자에게 시인될 수 있다. 예를 들어, 영상 내 객체의 경계에서 색들(적색, 녹색, 적색)이 분리되어 시인될 수 있다.
본 발명의 일 목적은 영상 내 객체의 경계에서 색이 분리되어 시인되는 것을 방지할 수 있는 영상 처리 장치를 제공하는 것이다.
본 발명의 일 목적은 상기 영상 처리 장치를 포함하는 표시 장치를 제공하는 것이다.
본 발명의 일 목적은 상기 영상 처리 장치를 포함하는 두부 장착 표시 장치를 제공하는 것이다.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 영상 처리 장치는, 제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및 제2 영상 데이터를 수신하고, 상기 제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고, 상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터 일 수 있다.
일 실시예에 의하면, 상기 렌더링 유닛은 M*N개의 상기 데이터 값들을 가중치 평균하여 상기 대상 렌더링 데이터 값을 산출하며, 제1 포맷의 상기 제2 영상 데이터를 제2 포맷의 상기 렌더링 데이터로 재구성 할 수 있다.
일 실시예에 의하면, 상기 제2 영상 데이터는 제1 방향을 따라 순차적으로 반복하여 배열된 제1 타입 데이터 값, 제2 타입 데이터 값 및 제3 타입 데이터 값을 가지고, 상기 렌더링 데이터는 상기 제1 방향을 따라 순차적으로 반복하여 배열된 제4 타입 데이터 값, 제5 타입 데이터 값, 제6 타입 데이터 값 및 제7 타입 데이터 값을 포함하며, 상기 제1 및 제4 타입 데이터 값들은 제1 색으로 발광하는 제1 화소에 대응하고, 상기 제2, 제5 및 제7 타입 데이터 값들은 제2 색으로 발광하는 제2 화소에 대응하며, 상기 제3 및 제6 타입 데이터 값들은 제3 색으로 발광하는 제3 화소에 대응 할 수 있다.
일 실시예에 의하면, 상기 제2 영상 데이터는 사용자의 좌안에 대응하는 좌측 영상 데이터 및 사용자의 우안에 대응하는 우측 영상 데이터를 포함 할 수 있다.
일 실시예에 의하면, 상기 렌더링 유닛은, 상기 제1 블록에 대응하는 상기 데이터 값들에 대하여 각각 가중치를 가지는 제1 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하고, 상기 제1 블록은 2*2 크기를 가질 수 있다.
일 실시예에 의하면, 상기 제1 서브 필터는 상기 데이터 값들 중 제1 대상 데이터 값에 대한 제1 가중치, 상기 제1 대상 데이터 값과 제1 방향으로 인접한 제1 인접 데이터 값에 대한 제2 가중치, 상기 제1 대상 데이터 값과 제2 방향으로 인접한 제2 인접 데이터 값에 대한 제3 가중치 및 상기 제2 인접 데이터 값과 상기 제1 방향으로 인접한 제3 인접 데이터 값에 대한 제4 가중치를 가지고, 상기 제2 방향은 상기 제1 방향에 수직 할 수 있다.
일 실시예에 의하면, 상기 렌더링 유닛은 노말 모드 또는 웨어러블 모드에서 동작하고, 상기 노말 모드에서 제2 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하며, 상기 웨어러블 모드에서 제1 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하되, 상기 제1 서브 필터는 상기 데이터 값들 중 제1 대상 데이터 값에 대한 제1 가중치, 상기 제1 대상 데이터 값과 제1 방향으로 인접한 제1 인접 데이터 값에 대한 제2 가중치, 상기 제1 대상 데이터 값과 제2 방향으로 인접한 제2 인접 데이터 값에 대한 제3 가중치 및 상기 제2 인접 데이터 값과 상기 제1 방향으로 인접한 제3 인접 데이터 값에 대한 제4 가중치를 가지고, 상기 제2 서브 필터는 상기 제1 대상 데이터 값에 대한 제21 가중치 및 상기 제1 인접 데이터 값에 대한 제22 가중치를 가지며, 상기 제2 방향은 상기 제1 방향에 수직 할 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 변조 데이터 또는 상기 렌더링 데이터에 기초하여 영상을 표시하는 표시 패널 상의 기준 지점으로부터 상기 표시 패널에 배열된 서브 화소들까지의 이격 거리들에 기초하여 스케일링 변수들을 각각 설정하며, 상기 스케일링 변수들에 기초하여 상기 제1 영상 데이터를 리사이징 할 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 제1 영상 데이터에서 동일 색상으로 각각 구성된 색상 데이터들을 추출하고, 상기 색상 데이터들 중 적어도 하나의 색상 데이터를 스케일링 변수들에 기초하여 리사이징 할 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 적어도 하나의 색상 데이터를 부분 영상 데이터들로 분할하고, 부분 영상 데이터들을 상기 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하며, 상기 부분 변조 데이터들을 통합하여 상기 변조 데이터를 생성 할 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 적어도 하나의 색상 데이터에 대응하는 영상의 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제1 부분 데이터 및 제2 부분 데이터로 분할하고, 상기 제1 부분 데이터를 제1 스케일링 변수를 이용하여 리사이징하며, 상기 제2 부분 데이터를 제2 스케일링 변수를 이용하여 리사이징하고, 상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다를 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 영상의 상기 기준 지점을 기준으로 제1 방향으로 연장되는 제1 축에 기초하여 리사이징된 색상 데이터를 제3 부분 데이터 및 제4 부분 데이터로 분할하고, 상기 제3 부분 데이터를 제3 스케일링 변수를 이용하여 리사이징하며, 상기 제4 부분 데이터를 제4 스케일링 변수를 이용하여 리사이징하고, 상기 리사이징된 색상 데이터는 리사이징된 제1 부분 데이터 및 리사이징된 제2 부분 데이터를 포함하며, 상기 제4 스케일링 변수는 상기 제3 스케일링 변수와 다를 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 적어도 하나의 색상 데이터에 대응하는 영상의 기준 지점을 기준으로 제1 방향으로 연장되는 제1 축 및 상기 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제11 내지 제14 부분 데이터들로 분할하고, 상기 제11 부분 데이터를 제1 스케일링 변수 및 제3 스케일링 변수에 기초하여 리사이징하며, 상기 제12 부분 데이터를 제2 스케일링 변수 및 상기 제3 스케일링 변수에 기초하여 리사이징하고, 상기 제13 부분 데이터를 상기 제1 스케일링 변수 및 제4 스케일링 변수에 기초하여 리사이징하며, 상기 제14 부분 데이터를 상기 제2 스케일링 변수 및 상기 제4 스케일링 변수에 기초하여 리사이징하고, 상기 제2 방향은 상기 제1 방향에 수직하며, 상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다르며, 상기 제4 스케일링 변수는 상기 제3 스케일링 변수와 다를 수 있다.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 영상 처리 장치는, 제1 영상 데이터를 색상들 및 영역들 중 적어도 하나에 기초하여 부분 데이터들로 분할하는 분할부; 부분 데이터들을 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하는 스케일링부; 및 상기 부분 변조 데이터들을 통합하여 변조 데이터를 출력하는 통합부를 포함하고, 상기 색상들은 상기 제1 영상 데이터에 기초하여 표시되는 영상을 구성하며, 상기 영역들은 상기 영상의 일부분들에 각각 대응 할 수 있다.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 표시 장치는, 제1 데이터를 변조하여 제2 데이터를 출력하는 영상 처리부; 화소들을 포함하는 표시 패널; 및 상기 제2 데이터에 기초하여 데이터 신호를 생성하고, 상기 데이터 신호를 상기 화소들에 제공하는 데이터 구동부를 포함하고, 상기 영상 처리부는, 제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및 제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고, 상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터 일 수 있다.
일 실시예에 의하면, 상기 스케일링 유닛은, 상기 제1 영상 데이터에서 동일 색상으로 각각 구성된 색상 데이터들을 추출하고, 상기 색상 데이터들 중 적어도 하나의 색상 데이터를 스케일링 변수들에 기초하여 리사이징 할 수 있다.
일 실시예에 의하면, 상기 표시 패널은 영상의 기준 지점을 기준으로 다수의 영역들로 구분되며, 상기 스케링일 유닛은, 상기 색상 데이터들 중 상기 적어도 하나의 색상 데이터를 상기 영역들에 대응하는 부분 데이터들로 분할하고, 부분 데이터들을 상기 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하며, 상기 부분 변조 데이터들을 통합하여 변조 데이터를 생성 할 수 있다.
일 실시예에 의하면, 상기 스케링일 유닛은, 상기 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제1 부분 데이터 및 제2 부분 데이터로 분할하고, 상기 제1 부분 데이터를 제1 스케일링 변수를 이용하여 리사이징하며, 상기 제2 부분 데이터를 제2 스케일링 변수를 이용하여 리사이징하고, 상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다르며, 상기 기준 지점은 사용자의 시선축에 대응 할 수 있다.
일 실시예에 의하면, 상기 제1 스케일링 변수는 제1 서브 화소의 위치 정보에 기초하여 설정되고, 상기 제1 서브 화소는 상기 화소들에 포함되고, 상기 제2 방향에 수직하는 제1 방향으로 최외곽에 위치 할 수 있다.
본 발명의 일 목적을 달성하기 위하여, 본 발명의 실시예들에 따른 두부 장착 표시 장치는, 제1 데이터를 변조하여 제2 데이터를 출력하는 영상 처리부; 상기 제2 데이터에 기초하여 데이터 신호를 생성하는 데이터 구동부; 상기 데이터 신호에 기초하여 발광하는 화소들을 포함하는 표시 패널; 및 상기 표시 패널에서 출력되는 영상을 확대하는 렌즈를 포함하고, 상기 영상 처리부는, 제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및 제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고, 상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터 일 수 있다.
본 발명의 실시예들에 따른 영상 처리 장치는 제1 블록(예를 들어, 2*2 크기의 블록)에 대응하는 데이터 값들에 기초하여 영상 데이터를 렌더링 할 수 있다. 따라서, 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 방지할 수 있다.
또한, 영상 처리 장치는 노말 모드에서 제2 서브 필터(또는, 제2 서브 렌더링 필터)를 이용하여 영상 데이터를 렌더링함으로써 영상 처리 장치의 부하를 감소시키고, 웨어러블 모드에서 제1 서브 필터(또는, 제1 서브 렌더링 필터)를 이용하여 영상 데이터를 렌더링함으로써 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 감소시킬 수 있다.
나아가, 본 발명의 실시예들에 따른 표시 장치는 영상의 기준 지점을 기준으로 방향별로 다른 스케일링 변수들을 이용하여 영상 데이터(또는, 렌더링 데이터)를 리사이징(또는, 스케일링)할 수 있다. 따라서, 렌즈에 기인한 색수차를 보상할 뿐 만 아니라, 서브 화소들의 배열(또는, 위치 차이)에 기인하여 영상 내 색들이 구분되어 시인되는 현상을 완화시킬 수 있다.
본 발명의 실시예들에 따른 두부 장착 표시 장치는 상기 영상 처리 장치를 포함하므로, 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 감소시킬 수 있다.
다만, 본 발명의 효과는 상기 효과들로 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.
도 1은 본 발명의 실시예들에 따른 두부 장착 표시 장치를 나타내는 도면이다.
도 2는 도 1의 두부 장착 표시 장치에 포함된 표시 장치의 일 예를 나타내는 도면이다.
도 3a는 도 2의 표시 장치에 포함된 표시 패널의 일 예를 나타내는 도면이다.
도 3b 및 도 3c는 도 2의 표시 장치에서 사용되는 영상 데이터의 일 예를 나타내는 도면이다.
도 4는 도 2의 표시 장치에 포함된 영상 처리부의 일 예를 나타내는 도면이다.
도 5a는 도 4의 영상 처리부에 포함된 렌더링 유닛에서 사용되는 서브 필터들의 일 예를 나타내는 도면이다.
도 5b 내지 도 5f는 도 5a의 서브 필터들에 기초하여 렌더링을 수행하는 과정을 설명하는 도면이다.
도 6a는 도 4의 영상 처리부에 포함된 렌더링 유닛의 일 예를 나타내는 도면이다.
도 6b는 도 4의 영상 처리부에 포함된 렌더링 유닛의 다른 일 예를 나타내는 도면이다.
도 6c는 도 6b의 렌더링 유닛에 포함된 제1 서브 렌더링 회로의 일 예를 나타내는 도면이다.
도 6d는 도 4의 영상 처리부에 포함된 렌더링 유닛의 또 다른 일 예를 나타내는 도면이다.
도 7은 도 4의 영상 처리부에 포함된 제2 스케링일 유닛의 일 예를 나타내는 도면이다.
도 8a는 색수차를 설명하는 도면이다.
도 8b는 도 7의 제2 스케링일 유닛에 의해 생성된 변조 데이터의 비교예를 나타내는 도면이다.
도 8c 및 도 8d는 도 7의 제2 스케링일 유닛에서 사용되는 스케일링 변수들의 일 예를 나타내는 도면이다.
도 8e는 도 7의 제2 스케링일 유닛에 의해 생성된 변조 데이터의 일 예를 나타내는 도면이다.
도 8f는 도 7의 제2 스케링일 유닛에 제공되는 테스트 데이터의 일 예를 나타내는 도면이다.
도 9a는 도 7의 제2 스케일링 유닛에서 사용되는 스케일링 변수들의 일 예를 나타내는 도면이다.
도 9b 및 도 9c는 도 7의 제2 스케일링 유닛에 의해 생성된 변조 데이터의 일 예를 나타내는 도면이다.
도 2는 도 1의 두부 장착 표시 장치에 포함된 표시 장치의 일 예를 나타내는 도면이다.
도 3a는 도 2의 표시 장치에 포함된 표시 패널의 일 예를 나타내는 도면이다.
도 3b 및 도 3c는 도 2의 표시 장치에서 사용되는 영상 데이터의 일 예를 나타내는 도면이다.
도 4는 도 2의 표시 장치에 포함된 영상 처리부의 일 예를 나타내는 도면이다.
도 5a는 도 4의 영상 처리부에 포함된 렌더링 유닛에서 사용되는 서브 필터들의 일 예를 나타내는 도면이다.
도 5b 내지 도 5f는 도 5a의 서브 필터들에 기초하여 렌더링을 수행하는 과정을 설명하는 도면이다.
도 6a는 도 4의 영상 처리부에 포함된 렌더링 유닛의 일 예를 나타내는 도면이다.
도 6b는 도 4의 영상 처리부에 포함된 렌더링 유닛의 다른 일 예를 나타내는 도면이다.
도 6c는 도 6b의 렌더링 유닛에 포함된 제1 서브 렌더링 회로의 일 예를 나타내는 도면이다.
도 6d는 도 4의 영상 처리부에 포함된 렌더링 유닛의 또 다른 일 예를 나타내는 도면이다.
도 7은 도 4의 영상 처리부에 포함된 제2 스케링일 유닛의 일 예를 나타내는 도면이다.
도 8a는 색수차를 설명하는 도면이다.
도 8b는 도 7의 제2 스케링일 유닛에 의해 생성된 변조 데이터의 비교예를 나타내는 도면이다.
도 8c 및 도 8d는 도 7의 제2 스케링일 유닛에서 사용되는 스케일링 변수들의 일 예를 나타내는 도면이다.
도 8e는 도 7의 제2 스케링일 유닛에 의해 생성된 변조 데이터의 일 예를 나타내는 도면이다.
도 8f는 도 7의 제2 스케링일 유닛에 제공되는 테스트 데이터의 일 예를 나타내는 도면이다.
도 9a는 도 7의 제2 스케일링 유닛에서 사용되는 스케일링 변수들의 일 예를 나타내는 도면이다.
도 9b 및 도 9c는 도 7의 제2 스케일링 유닛에 의해 생성된 변조 데이터의 일 예를 나타내는 도면이다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성 요소에 대해서는 동일하거나 유사한 참조 부호를 사용한다.
도 1은 본 발명의 실시예들에 따른 두부 장착 표시 장치를 나타내는 도면이다.
도 1을 참조하면, 두부 장착 표시 장치(100)(또는, 두부 장착 표시 시스템)는 표시 장치(110) 및 렌즈(120)를 포함할 수 있다. 두부 장착 표시 장치(100)는 사용자의 머리 부분에 착용되고 표시 장치(110) 및 렌즈(120)를 지지하는 프레임(또는, 케이스)을 더 포함할 수 있다. 표시 장치(110)(또는, 표시 장치(110)에 포함된 표시 패널)와 렌즈(120)는 특정 거리를 가지고 이격 될 수 있다.
표시 장치(110)는 외부에서 제공되는 영상 데이터에 기초하여 영상을 표시할 수 있다. 예를 들어, 표시 장치(110)는 유기 발광 표시 장치일 수 있다. 표시 장치(110)는 두부 장착 표시 장치(100)에 내장되거나, 또는 두부 장착 표시 장치(100)에 착탈 될 수 있다. 예를 들어, 표시 장치(110)는 스마트폰 일 수 있다.
렌즈(120)는 두부 장착 표시 장치(100)가 사용자에게 착용되었을 때, 표시 장치(110)에서 표시하는 영상을 사용자의 눈에 직접적으로 제공할 수 있고, 예를 들어, 렌즈(120)는 접안 렌즈일 수 있다.
도 1에 도시되지 않았으나, 두부 장착 표시 장치(100)는 표시 장치(110)에서 표시되는 영상을 사용자의 양 눈에 주사되도록 광경로를 형성 및 조절하기 위한 렌즈, 반사경 및 광학소자들을 더 포함할 수 있다.
도 2는 도 1의 두부 장착 표시 장치에 포함된 표시 장치의 일 예를 나타내는 도면이다. 도 3a는 도 2의 표시 장치에 포함된 표시 패널의 일 예를 나타내는 도면이다. 도 3b 및 도 3c는 도 2의 표시 장치에서 사용되는 영상 데이터의 일 예를 나타내는 도면이다.
도 2를 참조하면, 표시 장치(200)는 표시 패널(210), 타이밍 제어부(220), 주사 구동부(230), 데이터 구동부(240) 및 영상 처리부(250)를 포함할 수 있다.
표시 패널(210)은 주사선들(S1 내지 Sn), 데이터선들(D1 내지 Dm) 및 화소(PX)를 포함할 수 있다(단, n과 m은 각각 2이상의 정수). 화소(PX)는 주사선들(S1 내지 Sn) 및 데이터선들(D1 내지 Dm)의 교차 영역에 배치될 수 있다. 화소(PX)는 주사신호(즉, 주사선들(S1 내지 Sn)을 통해 제공되는 주사신호)에 응답하여 데이터 신호(즉, 데이터선들(D1 내지 Dm)을 통해 제공되는 데이터 신호)를 저장하고, 저장된 데이터 신호에 기초하여 발광할 수 있다.
표시 패널(210)(또는, 화소(PX))은 제1 서브 화소(R), 제2 서브 화소(G) 및 제3 서브 화소(G)를 포함할 수 있다. 제1 내지 제3 서브 화소들(R, G, B) 각각은 단색으로 발광할 수 있다. 예를 들어, 제1 서브 화소(R)(또는, 제1 타입 화소)는 제1 색(예를 들어, 적색)으로 발광하고, 제2 서브 화소(G)(또는, 제2 타입 화소)는 제2 색(예를 들어, 녹색)으로 발광하며, 제3 서브 화소(B)(또는, 제3 타입 화소)는 제3 색(예를 들어, 청색)으로 발광할 수 있다.
도 3a를 참조하면, 제1 내지 제3 서브 화소들(R, G, B)는 펜타일 형태로 배열될 수 있다. 예를 들어, 제1 내지 제3 서브 화소들(R, G, B)는 알지비지(RGBG) 포맷으로 배열될 수 있다. 도 3a에 도시된 바와 같이, 제1 서브 화소(R), 제2 서브 화소(G), 제3 서브 화소(B) 및 제2 서브 화소(G)는 제1 방향(D1)(또는, 수평 방향)으로 순차적으로 반복하여 배열될 수 있다. 이 경우, 단위 화소(P_U)는 하나의 제1 서브 화소(R) 및 하나의 제2 서브 화소(G)를 포함하거나, 하나의 제2 서브 화소(G) 및 하나의 제3 서브 화소(B)를 포함할 수 있다.
다시 도 2를 참조하면, 타이밍 제어부(220)는 영상 처리부(250)로부터 변조 데이터(예를 들어, 제2 데이터(DATA2)를 수신하고, 외부 장치로부터 제어 신호를 수신할 수 있다. 여기서, 제어신호는 수평 동기 신호, 수직 동기 신호 및 클럭 신호들을 포함할 수 있다. 타이밍 제어부(220)는 수평 동기 신호 및 클럭 신호에 기초하여 데이터 구동제어신호(DCS)를 생성하여 데이터 구동부(240)에 제공할 수 있다. 여기서, 데이터 구동제어신호(DCS)는 데이터 시작 신호 및 데이터 클럭 신호를 포함할 수 있다. 유사하게, 타이밍 제어부(220)는 수직 동기 신호 및 클럭 신호에 기초하여 주사 구동제어신호(SCS)를 생성하여 주사 구동부(230)에 제공할 수 있다. 여기서, 주사 구동제어신호(SCS)는 스타트 펄스 및 클럭 신호들을 포함할 수 있다.
주사 구동부(230)는 주사 구동제어신호(SCS)에 기초하여 주사신호를 생성할 수 있다. 주사 구동부(230)는 스타트 펄스 및 클럭 신호들에 기초하여 순차적으로 주사신호를 생성하는 시프트 레지스터를 포함하여 구성될 수 있다.
데이터 구동부(240)는 데이터 구동제어신호(DCS)에 응답하여 데이터 신호를 생성할 수 있다. 데이터 구동부(240)는 디지털 형태(또는, 디지털 타입)의 영상 데이터(예를 들어, 제3 데이터(DATA3))를 아날로그 형태의 데이터 신호로 변환할 수 있다. 데이터 구동부(240)는 기 설정된 계조 전압(또는, 감마 전압)에 기초하여 디지털 신호를 생성하고, 계조 전압은 감마 회로(미도시)로부터 데이터 구동부(240)에 제공될 수 있다. 데이터 구동부(240)는 화소열들에 포함되는 화소들에 데이터 신호를 순차적으로 제공할 수 있다.
영상 처리부(250)는 외부 장치로부터 제공된 영상 데이터(예를 들어, 제1 데이터(DATA1))를 리사이징(또는, 스케일링) 및 렌더링(또는, 서브 픽셀 렌더링)하여 변조 데이터(예를 들어, 제2 데이터(DATA2))를 생성할 수 있다. 여기서, 영상 데이터는 사용자의 양 눈에 각각 영상을 제공하기 위한, 사용자의 좌안에 대응하는 좌측 영상 데이터 및 사용자의 우안에 대응하는 우측 영상 데이터를 포함할 수 있다.
실시예들에서, 영상 처리부(250)는 영상 데이터를 색상별로 리사이징하여 영상 데이터(또는, 영상 데이터에 대응하는 영상)의 색수차(chromatic aberration; CA)를 보정할 수 있다. 두부 장착 표시 장치(100)에서, 표시 장치(110)에서 표시되는 영상(또는, 광)은 렌즈(120)를 통과하고, 영상의 파장에 따른 굴절률의 차이에 의해 색수차가 발생하기 때문이다.
실시예들에서, 영상 처리부(250)는 제1 포맷(예를 들어, 알지비(RGB) 포맷)의 영상 데이터를 렌더링하여 제2 포맷(예를 들어, 알지비지(RGBG) 포맷)의 렌더링 데이터를 생성할 수 있다. 즉, 제1 포맷의 영상 데이터를 렌더링하여 제2 포맷의 렌더링 데이터로 재구성할 수 있다. 한편, 제2 포맷은 표시 패널(210) 내 화소들(PX)(또는, 서브 화소들)의 배열 형태에 기초하여 설정될 수 있다. 즉, 영상 처리부(250)는 서브 화소들(R, G, B)의 배열에 적합하게 제1 포맷의 영상 데이터를 렌더링 할 수 있다.
도 3b 및 도 3c를 참조하면, 제1 포맷의 영상 데이터(DATA_RGB)는 제1 방향(D1)(또는, 수평 방향)을 따라 순차적으로 반복하여 배열된 제1 타입 데이터 값(r), 제2 타입 데이터 값(g) 및 제3 타입 데이터 값(b)을 포함할 수 있다. 여기서, 제1 타입 데이터 값은 제1 색으로 발광하는 제1 화소(예를 들어, 도 3a를 참조하여 설명한 제1 서브 화소(R))를 위한 데이터 값이고, 제2 타입 데이터 값은 제2 색으로 발광하는 제2 화소(예를 들어, 제2 서브 화소(G))를 위한 데이터 값이고, 제3 타입 데이터 값은 제3 색으로 발광하는 제3 화소(예를 들어, 제3 서브 화소(B))를 위한 데이터 값일 수 있다. 제1 포맷의 영상 데이터(DATA_RGB)는 도 3a를 참조하여 설명한 단위 화소(P_U)에 대응하여 각각 하나의 제1 내지 제3 타입 데이터 값(r)을 포함할 수 있다.
한편, 제2 포맷의 렌더링 데이터(DATA_RGBG)는 도 3a를 참조하여 설명한 서브 화소들의 화소 배열에 대응하는 데이터 값들을 포함하고, 예를 들어, 제3 방향(D3)을 따라 순차적으로 반복하여 배열된 제1 타입 데이터 값(r), 제2 타입 데이터 값(g), 제3 타입 데이터 값(b) 및 제2 타입 데이터 값(g)을 포함할 수 있다.
렌더링 데이터를 생성하는 구성에 대해서는 도 5a 내지 도 5f를 참조하여 설명하기로 한다.
도 4는 도 2의 표시 장치에 포함된 영상 처리부의 일 예를 나타내는 도면이다.
도 4를 참조하면, 영상 처리부(400)는 제1 스케링일 유닛(410)(또는, 업스케일링 유닛), 경계 향상 유닛(420), 제2 스케일링 유닛(430)(또는, 스케일링 유닛) 및 렌더링 유닛(440)(또는, 서브 픽셀 렌더링 유닛(sub pixel rendering unit; SPR unit))을 포함할 수 있다.
제1 스케일링 유닛(410)은 영상 데이터를 표시 패널(210)에서 사용 가능하도록 업스케일링 할 수 있다. 예를 들어, 제1 스케일링 유닛(410)은 영상 데이터의 해상도가 표시 패널(210)의 해상도와 같아지도록 영상 데이터를 업스케일링 할 수 있다. 또한, 제1 스케일링 유닛(410)은 표시 패널(210) 내 화소의 배열(예를 들어, RGBG 타입, RGBWCY 타입 등)을 고려하여 영상 데이터를 업스케일링 할 수 있다.
경계 향상 유닛(420)은 업스케일링된 영상 데이터로부터 경계(또는, 에지)를 추출하고, 경계를 향상시킬 수 있다. 예를 들어, 경계 향상 유닛(420)은 선형 보간(linear interpolation) 기술, 컬러 경계 향상 기술 등과 같은 공지된 기술을 이용하여 경계를 향상시킬 수 있다.
제2 스케링일 유닛(430)은, 제1 영상 데이터를 색상별로 다르게 설정된 비율로 스케일링(또는, 리사이징)함으로써, 렌즈(120)에 기인한 제1 영상 데이터의 색수차를 보정할 수 있다. 여기서, 제1 영상 데이터는 경계 향상 유닛(420)으로부터 제공된 경계 향상된 영상 데이터 또는 후술하는 렌더링 유닛(440)으로부터 제공된 렌더링 데이터일 수 있다. 즉, 제2 스케일링 유닛(430)은 영상 데이터에 대한 렌더링 이전에 색수차를 보정하거나 또는 영상 데이터에 대한 렌더링 이후에 색수차를 보정할 수 있다. 예를 들어, 영상 처리부(400)는 도 4에 도시된 실선(①) 또는 점선(②)에 따라 영상 데이터를 리사이징 및 렌더링 할 수 있다.
실시예들에서, 제2 스케일링 유닛(430)은 제1 영상 데이터를 부분 영상 데이터들로 분할하고, 부분 영상 데이터들을 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하며, 상기 부분 변조 데이터들을 통합하여 변조 데이터를 생성할 수 있다. 여기서, 부분 영상 데이터들은 제1 영상 데이터에 대응하는 영상을 구성하는 부분 영상들에 각각 대응할 수 있다. 제2 스케링일 유닛(430)에 대해서는 렌더링 유닛(440)을 설명한 이후, 도 7을 참조하여 상세히 설명하기로 한다.
렌더링 유닛(440)은 제1 포맷의 제2 영상 데이터(또는, 경계 향상 유닛(420)으로부터 제공되는 데이터)를 렌더링하여 제2 포맷의 렌더링 데이터를 출력하되, 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출할 수 있다(단, M 및 N 각각은 2 이상의 정수). 예를 들어, 렌더링 유닛(440)은 M*N 개의 데이터 값들(즉, M*N 크기의 제1 블록에 대응하는 데이터 값들)을 가중치 평균하여 대상 렌더링 값을 산출하고, 제1 포맷의 제1 영상 데이터를 제2 포맷의 렌더링 데이터로 재구성할 수 있다. 앞서 도 1, 도 3b 및 도 3c을 참조하여 설명한 바와 같이, 제1 포맷은 스트라이프 포맷(또는, 타입) 또는 RGB 포맷이고, 제2 포맷은 펜타일 포맷 또는 RGBG 포맷일 수 있다. 한편, 제2 영상 데이터는 제2 스케일링 유닛(430)으로부터 제공되는 변조 데이터이거나 또는 경계 향상 유닛(420)으로부터 제공된 경계 향상된 영상 데이터일 수 있다. 즉, 렌더링 유닛(440)은 영상 데이터에 대한 색수차 보정 이후에 렌더링을 수행하거나 또는 영상 데이터에 대한 색수차 보정 이전에 렌더링을 수행할 수 있다.
일 실시예에서, 제1 블록은 2*2 크기를 가질 수 있다. 이 경우, 렌더링 유닛(440)은 대상 서브 화소(또는, 특정 서브 화소, 특정 화소)에 대응하는 대상 데이터 값(즉, 영상 데이터에 포함된 대상 데이터 값) 및 대상 데이터 값에 인접한 3개의 인접 데이터 값들(즉, 대상 서브 화소에 인접한 3개의 인접 서브 화소들에 대응하는 인접 데이터 값들)에 기초하여 대상 서브 화소에 대한 대상 렌더링 데이터 값을 산출할 수 있다.
일 실시예들에서, 렌더링 유닛(440)은 제1 블록에 대응하는 데이터 값들에 대하여 각각 가중치를 가지는 제1 서브 필터(또는, 제1 서브 렌더링 필터)를 이용하여 영상 데이터를 렌더링 할 수 있다.
도 5a는 도 4의 영상 처리부에 포함된 렌더링 유닛에서 사용되는 서브 필터들의 일 예를 나타내는 도면이다. 도 5b 내지 도 5f는 도 5a의 서브 필터들에 기초하여 렌더링을 수행하는 과정을 설명하는 도면이다.
도 5a를 참조하면, 제1 서브 필터(SPRF1)는 데이터 값들 중 대상 데이터 값에 대한 제1 가중치(a1), 대상 데이터 값과 제1 방향(D1)(예를 들어, 수평 방향)으로 인접한 제1 인접 데이터 값에 대한 제2 가중치(a2), 대상 데이터 값과 제2 방향(D2)(예를 들어, 수직 방향)으로 인접한 제2 인접 데이터 값에 대한 제3 가중치(a3) 및 제2 인접 데이터 값과 제1 방향(D1)으로 인접한 제3 인접 데이터 값(또는, 제1 인접 데이터 값과 제2 방향(D2)으로 인접한 제3 인접 데이터 값)에 대한 제4 가중치(a4)를 포함할 수 있다.
예를 들어, 제1 서브 필터(SPRF1)는 대상 화소(또는, 대상 데이터 값), 대상 화소의 좌측, 상측 및 좌상측에 위치한 인접 화소들(또는, 인접 데이터 값들)에 대해 각각 가중치 값들(a1, a2, a3, a4)을 포함할 수 있다. 여기서, 가중치 값들(a1, a2, a3, a4)의 총합은 1 이고, 예를 들어, 가중치 값들(a1, a2, a3, a4) 각각은 1/4 일 수 있다.
한편, 도 5a에 도시된 제1 서브 필터(SPRF1)는 예시적인 것으로, 제1 서브 필터(SPRF1)가 이에 국한되는 것은 아니다. 예를 들어, 제1 서브 필터(SPRF1)는, 도 5a에 도시된 제11 서브 필터(SPRF11)와 같이, 대상 화소(또는, 대상 데이터 값), 대상 화소의 우측, 상측 및 우상측에 위치한 인접 화소들(또는, 인접 데이터 값들)에 대해 각각 가중치 값들(a11, a12, a13, a14)을 포함하고, 가중치 값들(a11, a12, a13, a14)은 상호 동일하거나 다를 수 있다. 다른 예를 들어, 제1 서브 필터(SPRF1)는, 도 5a에 도시된 제12 서브 필터(SPRF12)와 같이, 대상 화소(또는, 대상 데이터 값), 대상 화소의 좌측, 하측 및 좌하측에 위치한 인접 화소들(또는, 인접 데이터 값들)에 대해 각각 가중치 값들(a21, a22, a23, a24)을 포함할 수 있다. 또 다른 예를 들어, 제1 서브 필터(SPRF1)는, 도 5a에 도시된 제13 서브 필터(SPRF13)와 같이 대상 화소(또는, 대상 데이터 값), 대상 화소의 우측, 하측 및 우하측에 위치한 인접 화소들(또는, 인접 데이터 값들)에 대해 각각 가중치 값들(a31, a32, a33, a34)을 포함할 수 있다.
제2 서브 필터(SPRF2)는 데이터 값들 중 대상 데이터 값에 대한 제21 가중치(b1) 및 대상 데이터 값과 제1 방향(D1)으로 인접한 제1 인접 데이터 값에 대한 제22 가중치(b2)를 포함할 수 있다. 예를 들어, 제2 서브 필터(SPRF2)는 대상 화소(또는, 대상 데이터 값) 및 대상 화소의 좌측에 위치한 인접 화소에 대해 각각 가중치 값들(b1, b2)을 가질 수 있다. 여기서, 가중치 값들(b1, b2)의 총합은 1이고, 예를 들어, 가중치 값들(b1, b2) 각각은 1/2 일 수 있다.
도 5a에 도시된 제2 서브 필터(SPRF2)는 예시적인 것으로, 제2 서브 필터(SPRF2)가 이에 국한되는 것은 아니다. 예를 들어, 제2 서브 필터(SPRF2)는, 제21 서브 필터(SPRF21)과 같이, 대상 화소(또는, 대상 데이터 값) 및 대상 화소의 우측에 위치한 인접 화소에 대해 각각 가중치 값들(b11, b12)을 가질 수 있다. 여기서, 가중치 값들(b11, b12)은 상호 동일하거나 다를 수 있다.
유사하게, 제3 서브 필터(SPRF3)는 데이터 값들 중 대상 데이터 값에 대한 제31 가중치(c1) 및 대상 데이터 값과 제2 방향(D2)으로 인접한 제2 인접 데이터 값에 대한 제32 가중치(c2)를 포함할 수 있다. 예를 들어, 제3 서브 필터(SPRF3)는 대상 화소(또는, 대상 데이터 값) 및 대상 화소의 상측에 위치한 인접 화소에 대해 각각 가중치 값들(c1, c2)을 가질 수 있다. 여기서, 가중치 값들(c1, c2)의 총합은 1이고, 예를 들어, 가중치 값들(c1, c2) 각각은 1/2 일 수 있다.
도 5a에 도시된 제3 서브 필터(SPRF3)는 예시적인 것으로, 제3 서브 필터(SPRF3)가 이에 국한되는 것은 아니다. 예를 들어, 제3 서브 필터(SPRF3)는, 제31 서브 필터(SPRF31)과 같이, 대상 화소(또는, 대상 데이터 값) 및 대상 화소의 하측에 위치한 인접 화소에 대해 각각 가중치 값들(c11, c12)을 가질 수 있다. 여기서, 가중치 값들(c11, c12)은 상호 동일하거나 다를 수 있다.
이하에서는, 제1 서브 필터(SPRF1)를 이용한 렌더링 결과 및 제2 서브 필터(SPRF2)(또는, 제3 서브 필터(SPRF3))를 이용한 렌더링 결과를 설명하기로 한다.
도 3b, 도 3c, 도 5a, 및 도 5b를 참조하면, 렌더링 유닛(440)은 제2 서브 필터(SPRF2)를 이용하여 영상 데이터를 렌더링 할 수 있다.
영상 데이터가 도 3b를 참조하여 설명한 RGB 포맷을 가지는 경우, 영상 데이터는 제1 서브 화소들을 위한 제1 색상 데이터(DATA_R), 제2 서브 화소들을 위한 제2 색상 데이터 및 제3 서브 화소들을 위한 제3 색상 데이터를 포함할 수 있다. 여기서, 제1 서브 화소들은 적색으로 발광하고, 제1 색상 데이터(DATA_R)는 적색 데이터일 수 있다. 제2 서브 화소들은 녹색으로 발광하고, 제2 색상 데이터는 녹색 데이터일 수 있다. 제3 서브 화소들은 청색으로 발광하고, 제3 색상 데이터는 청색 데이터일 수 있다. 제1 색상 데이터(DATA_R) 및 제3 색상 데이터(DATA_B)에 각각 포함된 제1 색상 및 제3 색상 데이터 값들은 도 3a의 표시 패널(300)에 포함된 제1 서브 화소(R) 및 제3 서브 화소(B)에 각각 일대일 대응되지 않으므로, 렌더링 유닛(440)은 도 3a에 도시된 서브 화소들의 배열(즉, RGBG 포맷)에 따라 제1 색상 데이터(DATA_R) 및 제3 색상 데이터(DATA_B)에 대해 렌더링을 수행할 수 있다. 한편, 제2 색상 데이터(DATA_G)에 포함된 제2 색상 데이터 값들은 도 3a의 표시 패널(300)에 포함된 제2 서브 화소(G)에 일대일 대응되므로, 렌더링 유닛(440)은 제2 색상 데이터(DATA_G)에 대해서는 렌더링을 수행하지 않을 수 있다.
렌더링 유닛(440)이 제2 서브 필터(SPRF2)를 이용하여 제1 색상 데이터(DATA_R)를 렌더링하는 경우, 렌더링 유닛(440)은 제2 데이터 값들 중 대상 데이터 값 및 대상 데이터 값과 제1 방향(D1)으로 인접한 제1 인접 데이터 값을 가중치 평균하여 대상 렌더링 데이터 값을 산출할 수 있다. 예를 들어, 렌더링 유닛(440)은 제21 데이터 값(r21) 및 제22 데이터 값(r22)을 가중치 평균하여, 도 3a에 도시된 제22 서브 화소(P_R22)에 대한 제22 렌더링 데이터 값(R22)을 산출할 수 있다. 즉, 렌더링 유닛(440)은 제1 서브 화소들(R)에 각각 대응하는 데이터 값들을 가중치 평균함으로써, 제1 색상 렌더링 데이터를 생성할 수 있다. 또한, 렌더링 유닛(440)은 제3 서브 화소들(B)에 각각 대응하는 데이터 값들을 가중치 평균함으로써, 제3 색상 렌더링 데이터를 생성할 수 있다. 이 경우, 최종적으로 렌더링 유닛(440)으로부터 출력되는 렌더링 데이터는 제1 색상 렌더링 데이터, 제2 색상 렌더링 데이터(또는, 제2 색상 데이터) 및 제3 색상 렌더링 데이터를 포함할 수 있다.
도 5c를 참조하여 예를 들어, 행 방향으로 하나의 선만을 가지는 영상을 표시하고자 하는 경우, 영상 데이터(DATA_RGB)는 제j 행에만 유효한 데이터 값들(예를 들어, 255 계조, 255계조의 제1 내지 제3 데이터 값들(255r, 255g, 225b))을 가질 수 있다. 렌더링 유닛(440)이 제2 서브 필터(SPRF2)를 이용하여 영상 데이터를 렌더링하면, 렌더링 데이터(DATA_RGBG)는 제j 행에만 유효한 데이터 값들(예를 들어, 127계조의 제1 데이터 값(127r) 및 255계조의 제1 내지 제3 데이터 값들(255r, 255g, 225b))을 포함할 수 있다. 따라서, 도 5d에 도시된 바와 같이, 제j 행에 위치한 서브 화소들(R, G, B)만이 발광할 수 있다. 이 경우, 도 1에 도시된 렌즈(120)를 통해 표시 패널(500)에서 표시되는 영상이 확대되는 경우, 제j 행에 대응하는 선이 제1 색, 제2 색 및 제3 색으로 구분되어 시인될 수 있다.
한편, 렌더링 유닛(440)은 제1 서브 필터(SPRF1)을 이용하여 영상 데이터를 렌더링함으로써, 선(또는, 객체의 경계)에서 색들이 구분되어 시인되는 현상을 방지할 수 있다.
도 5b 및 도 5e를 참조하면, 렌더링 유닛(440)은 제1 서브 필터(SPRF1)를 이용하여 영상 데이터를 렌더링 할 수 있다.
렌더링 유닛(440)이 제1 서브 필터(SPRF1)를 이용하여 제1 색상 데이터(DATA_R)를 렌더링하는 경우, 렌더링 유닛(440)은 제2 데이터 값들 중 대상 데이터 값, 대상 데이터 값과 제1 방향(D1)으로 인접한 제1 인접 데이터 값, 대상 데이터 값과 제2 방향(D2)으로 인접한 제2 인접 데이터 값 및 제1 인접 데이터 값과 제1 방향(D1)으로 인접한 제3 인접 데이터 값을 가중치 평균하여 대상 렌더링 데이터 값을 산출할 수 있다. 예를 들어, 렌더링 유닛(440)은 제21 데이터 값(r21), 제22 데이터 값(r22), 제11 데이터 값(r11) 및 제12 데이터 값(r12)을 가중치 평균하여, 제22 서브 화소(P_R22)에 대한 제22 렌더링 데이터 값(R22)을 산출할 수 있다.
도 5e에 도시된 바와 같이, 렌더링 유닛(440)은 제1 서브 화소들(R)에 각각 대응하는 데이터 값들을 가중치 평균함으로써, 렌더링 유닛(440)은 제1 색상 렌더링 데이터를 생성할 수 있다. 또한, 렌더링 유닛(440)은 제3 서브 화소들(B)에 각각 대응하는 데이터 값들을 가중치 평균함으로써, 렌더링 유닛(440)은 제3 색상 렌더링 데이터를 생성할 수 있다. 이 경우, 최종적으로 렌더링 유닛(440)으로부터 출력되는 렌더링 데이터는 제1 색상 렌더링 데이터, 제2 색상 렌더링 데이터(또는, 제2 색상 데이터) 및 제3 색상 렌더링 데이터를 포함할 수 있다.
도 5f를 참조하여 예를 들어, 행 방향으로 하나의 선만을 가지는 영상을 표시하고자 하는 경우, 영상 데이터(DATA_RGB)는 제j 행에만 유효한 데이터 값들(예를 들어, 255 계조)을 가질 수 있다. 렌더링 유닛(440)이 제2 서브 필터(SPRF2)를 이용하여 영상 데이터를 렌더링하면, 렌더링 데이터(DATA_RGBG)는 제j 행에 유효한 데이터 값들(예를 들어, 64계조의 제1 데이터 값(64r), 127계조의 제1 및 제3 데이터 값들(127r, 127b) 및 255계조의 제3 데이터 값(255g))을 포함하고, 제j+1 행에 다른 유효한 데이터 값들(예를 들어, 64계조의 제3 데이터 값(64b) 및 127계조의 제1 및 제3 데이터 값들(127r, 127b))을 포함할 수 있다.
따라서, 도 5g에 도시된 바와 같이, 제j 행에 위치한 서브 화소들(R, G, B) 및 제j+1 행에 위치한 서브 화소들(R, G, B)이 발광할 수 있다. 제j 행에 위치한 제1 서브 화소(R)는 제j 행에 대응하는 유효 데이터 값(예를 들어, 255 계조) 및 제j-1 행에 대응하는 무효 데이터 값(예를 들어, 0 계조)을 가중치 평균함에 따라 평균 데이터 값(예를 들어, 127 계조)를 가지고 발광할 수 있다. 유사하게, 제j+1 행에 위치한 제1 서브 화소(R)는 제j+1 행에 대응하는 무효 데이터 값(예를 들어, 0 계조) 및 제j 행에 대응하는 유효 데이터 값(예를 들어, 255 계조)을 가중치 평균함에 따라 평균 데이터 값(예를 들어, 127 계조)을 가지고 발광할 수 있다.
이 경우, 도 1에 도시된 렌즈(120)를 통해 표시 패널(500)에서 표시되는 영상이 확대되더라도, 제1 색의 세기 및 제3 색의 세기가 제2 서브 필터(SPRF2)를 이용하는 경우보다 감소되고, 제2 색은 상하좌우로 인접한 제1 색 및 제3 색에 혼합되므로, 제1 색 내지 제3 색이 구분되어 시인되는 현상이 방지(또는, 감소)될 수 있다.
도 5a 내지 도 5f를 참조하여 설명한 바와 같이, 본 발명의 실시예들에 따른 표시 장치(200)(또는, 영상 처리부(250), 렌더링 유닛(440))은 제1 블록(예를 들어, 2*2 크기의 블록)에 대응하는 데이터 값들에 대하여 각각 가중치를 가지는 제1 서브 필터(SPRF1)를 이용하여 영상 데이터를 렌더링 할 수 있다. 따라서, 영상 내 선(또는, 객체의 경계)에서 색들이 구분되어 시인되는 현상을 방지하거나 또는 감소시킬 수 있다.
도 6a는 도 4의 영상 처리부에 포함된 렌더링 유닛의 일 예를 나타내는 도면이다.
도 6a를 참조하면, 렌더링 유닛(440)은 필터 선택기(610) 및 렌더링 회로(620)를 포함할 수 있다.
필터 선택기(610)는 수평 필터 또는 수평 수직 필터를 선택할 수 있다. 여기서, 수평 필터는 대상 화소(또는, 제1 대상 데이터 값)에 대한 제21 가중치 및 대상 화소와 제1 방향(또는, 수평 방향, 예를 들어, 좌측)으로 인접한 제1 인접 화소(또는, 제1 인접 데이터 값)에 대한 제22 가중치를 가지며, 앞서 도 5a를 참조하여 설명한 제2 서브 필터(SPRF2)와 실질적으로 동일할 수 있다. 수평 수직 필터는 수직 수평 필터는 대상 화소(또는, 제1 대상 데이터 값)에 대한 제1 가중치, 대상 화소와 제1 방향(또는, 수평 방향, 예를 들어, 좌측)으로 인접한 제1 인접 화소(또는, 제1 인접 데이터 값)에 대한 제2 가중치, 대상 화소와 제2 방향(또는, 수직 방향, 예를 들어, 상측)으로 인접한 제2 인접 화소(또는, 제2 인접 데이터 값)에 대한 제3 가중치 및 대상 화소와 제1 및 제2 방향들(또는, 수평 수직 방향, 예를 들어, 좌상측)으로 인접한 제3 인접 화소(또는, 제3 인접 데이터 값)에 대한 제4 가중치를 가지며, 앞서 도 5a를 참조하여 설명한 제1 서브 필터(SPRF1)과 실질적으로 동일할 수 있다.
렌더링 회로(620)는 필터 선택기(610)에서 선택된 필터(예를 들어, 수평 필터 또는 수평 수직 필터)를 이용하여 영상 데이터를 렌더링 할 수 있다. 렌더링 회로(620)의 동작은 앞서 도 5b를 참조하여 설명한 렌더링 유닛(440)의 동작과 실질적으로 동일할 수 있다. 따라서, 중복되는 설명은 반복하지 않기로 한다.
실시예들에서, 렌더링 유닛(440)은 노말 모드 또는 웨어러블 모드에서 동작할 수 있다.
예를 들어, 표시 장치(200)가 스마트폰으로 구현되고, 두부 장착 표시 장치(100)에 장착되지 않은 경우, 렌더링 유닛(440)은 노말 모드에서 동작할 수 있다. 이 경우, 렌즈(120)를 통해 영상이 확대되지 않으므로, 외부 장치로부터 노말 모드에 대응하는 제1 모드 선택 신호(HMD_OFF)가 제공될 수 있고, 필터 선택기(610)는 제1 모드 선택 신호(HMD_OFF)에 기초하여 노말 모드에서 수평 필터를 선택하며, 렌더링 회로(620)는 수평 필터(예를 들어, 제2 서브 필터(SPRF2)를 이용하여 영상 데이터에 대한 렌더링을 수행할 수 있다. 따라서, 표시 장치(200)의 부하가 상대적으로 감소될 수 있다.
예를 들어, 표시 장치(200)가 두부 장착 표시 장치(100)에 장착되는 경우, 렌더링 유닛(440)은 웨어러블 모드에서 동작할 수 있다. 이 경우, 렌즈(120)를 통해 영상이 확대되므로, 외부 장치로부터 웨어러블 모드에 대응하는 제2 모드 선택 신호(HMD_ON)가 제공될 수 있고, 필터 선택기(610)는 제2 모드 선택 신호(HMD_ON)에 기초하여 웨어러블 모드에서 수평 수직 필터를 선택하며, 렌더링 회로(620)는 수평 수직 필터(예를 들어, 제1 서브 필터(SPRF1))를 이용하여 영상 데이터에 대한 렌더링을 수행할 수 있다. 따라서, 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상이 감소될 수 있다.
도 6a를 참조하여 설명한 바와 같이, 표시 장치(200)가 스마트폰으로 구현되어 두부 장착 표시 장치(100)에 장착되지 않는 경우, 렌더링 유닛(440)은 수평 필터를 이용하여 영상 데이터를 렌더링 함으로써 표시 장치(200)의 부하를 감소시키고, 표시 장치(200)가 두부 장착 표시 장치(100)에 장착되는 경우, 수평 수직 필터를 이용하여 영상 데이터를 렌더링 함으로써 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 감소시킬 수 있다.
도 6b는 도 4의 영상 처리부에 포함된 렌더링 유닛의 다른 일 예를 나타내는 도면이다. 도 6c는 도 6b의 렌더링 유닛에 포함된 제1 서브 렌더링 회로의 일 예를 나타내는 도면이다. 도 6d는 도 4의 영상 처리부에 포함된 렌더링 유닛의 또 다른 일 예를 나타내는 도면이다.
도 6b를 참조하면, 렌더링 유닛(440)은 제1 서브 렌더링 회로(630), 제2 서브 렌더링 회로(640) 및 제1 선택기(650)를 포함할 수 있다.
제1 서브 렌더링 회로(630)는 수평 필터를 이용하여 영상 데이터를 렌더링하여 제1 서브 렌더링 데이터를 출력할 수 있다. 여기서, 수평 필터는, 앞서 도 6a를 참조하여 설명한 바와 같이, 앞서 도 5a를 참조하여 설명한 제2 서브 필터(SPRF2)와 실질적으로 동일할 수 있다. 제1 서브 렌더링 회로(630)의 동작은 앞서 도 5b를 참조하여 설명한 렌더링 유닛(440)의 동작과 실질적으로 동일할 수 있다. 따라서, 중복되는 설명은 반복하지 않기로 한다.
제2 서브 렌더링 회로(640)는 수직 필터를 이용하여 제1 서브 렌더링 데이터를 렌더링하여 제2 서브 렌더링 데이터를 출력할 수 있다. 수직 필터는 대상 화소(또는, 제1 대상 데이터 값)에 대한 제31 가중치 및 대상 화소와 제2 방향(또는, 수직 방향, 예를 들어, 상측)으로 인접한 제2 인접 화소(또는, 제2 인접 데이터 값)에 대한 제32 가중치를 가지며, 앞서 도 5a를 참조하여 설명한 제3 서브 필터(SPRF3)와 실질적으로 동일할 수 있다.
수평 필터 및 수직 필터를 순차적으로 이용하여 영상 데이터를 렌더링하여 생성된 제2 서브 렌더링 데이터는, 아래의 [수학식 1]에 나타난 바와 같이, 앞서 도 5a를 참조하여 설명한 제1 서브 필터(SPRF1)를 이용하여 영상 데이터를 렌더링하여 생성된 렌더링 데이터와 실질적으로 동일할 수 있다.
[수학식 1]
여기서, R12_R2 및 R22_R2는 수평 필터(예를 들어, 도 5a에 도시된 제2 서브 필터(SPRF2))에 기초하여 생성된 제12 서브 화소의 렌더링 데이터 값 및 제22 서브 화소(예를 들어, 도 5b에 도시된 제22 서브 화소(P_R22))의 렌더링 데이터 값이고, R11, R12, R21, R22는 제22 서브 화소(P_R22)에 대응하는 데이터 값들이며, R22_R3는 수직 필터(예를 들어, 도 5a에 도시된 제3 서브 필터(SPRF3))에 기초하여 생성된 제22 서브 화소의 렌더링 데이터 값이며, R22_R1은 도 5a에 도시된 제1 서브 필터(SPRF1)에 기초하여 생성된 제22 서브 화소의 렌더링 데이터 값일 수 있다.
제1 선택기(650)는 제1 서브 렌더링 데이터 및 제2 서브 렌더링 데이터 중 하나를 선택하여 출력할 수 있다.
실시예들에서, 렌더링 유닛(440)은 노말 모드 또는 웨어러블 모드에서 동작할 수 있다. 앞서 도 6a를 참조하여 설명한 바와 같이, 표시 장치(200)가 스마트폰으로 구현되고, 두부 장착 표시 장치(100)에 장착되지 않은 경우, 렌더링 유닛(440)은 노말 모드에서 동작할 수 있다. 즉, 렌즈(120)를 통해 영상이 확대되지 않으므로, 렌더링 유닛(440)은 제1 서브 렌더링 회로(630)(또는, 수평 필터(예를 들어, 제2 서브 필터(SPRF2)))만을 이용하여 영상 데이터에 대한 렌더링을 수행하고, 제1 선택기(650)를 통해 제1 서브 렌더링 데이터를 출력함으로써, 표시 장치(200)의 부하를 감소시킬 수 있다.
예를 들어, 표시 장치(200)가 두부 장착 표시 장치(100)에 장착되는 경우, 렌더링 유닛(440)은 웨어러블 모드에서 동작할 수 있다. 즉, 렌즈(120)를 통해 영상이 확대되므로, 렌더링 유닛(440)은 제1 서브 렌더링 회로(630) 및 제2 서브 렌더링 회로(640)를 이용하여(또는, 수평 필터(예를 들어, 제2 서브 필터(SPRF2)) 및 수직 필터(예를 들어, 제3 서브 필터(SPR3))를 순차적으로 적용하여) 영상 데이터에 대한 렌더링을 수행하고, 제1 선택기(650)를 통해 제2 서브 렌더링 데이터를 출력함으로써, 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 감소시킬 수 있다.
도 6c를 참조하면, 제1 서브 렌더링 회로(630)는 제1 라인 버퍼(631) 및 제1 연산기(632)를 포함할 수 있다.
제1 라인 버퍼(631)는 제1 대상 데이터 값(또는, 대상 화소가 포함된 라인에 대응하는 데이터 값들) 및 제1 인접 데이터 값(또는, 대상 화소에 인접한 인접 화소가 포함된 라인에 대응하는 데이터 값들)을 저장할 수 있다. 예를 들어, 제1 라인 버퍼(631)는 2 라인 메모리(예를 들어, 2개 라인들의 데이터를 저장하는 메모리)일 수 있다.
제1 연산기(632)는 제1 대상 데이터 값 및 제1 인접 데이터 값을 가중치 평균하여 출력할 수 있다.
유사하게, 제2 서브 렌더링 회로(640)는 제2 라인 버퍼 및 제2 연산기를 포함할 수 있다.
제2 라인 버퍼는 제2 대상 데이터 값(또는, 대상 화소가 포함된 라인에 대응하는 데이터 값들) 및 제2 인접 데이터 값(또는, 대상 화소에 인접한 인접 화소가 포함된 라인에 대응하는 데이터 값들)을 저장할 수 있다. 예를 들어, 제2 라인 버퍼는 1/6 라인 메모리(예를 들어, 1/6개 라인들의 데이터를 저장하는 메모리)일 수 있다. 제1 서브 렌더링 회로(610)에 의해 제1 렌더링 데이터는 영상 데이터의 1/2로 감소되므로, 제2 라인 버퍼의 크기는 제1 라인 버퍼(611)의 크기의 1/2(또는, 1/2 이하)로 감소될 수 있다.
참고로, 하나의 렌더링 유닛은 4개의 데이터 값들에 기초하여 하나의 렌더링 데이터 값을 산출하기 위해, 4 라인 버퍼를 필요로 할 수 있다. 이와 달리, 순차적으로 연결된 2개의 서브 렌더링 회로들을 포함하는 렌더링 유닛은 3 라인 버퍼만을 이용하여 4개의 데이터 값들에 기초하여 하나의 렌더링 데이터 값을 산출할 수 있다. 즉, 본 발명의 실시예들에 따른 렌더링 유닛(440)은 순차적으로 연결된 제1 및 제2 서브 렌더링 회로들(630, 640)을 포함함으로써, 제조 비용을 절감시킬 수 있다.
제2 연산기는, 제1 연산기와 유사하게, 제2 대상 데이터 값 및 제2 인접 데이터 값을 가중치 평균하여 출력할 수 있다.
도 6d를 참조하면, 렌더링 유닛(440)은 제3 서브 렌더링 회로(660), 제4 서브 렌더링 회로(660) 및 제2 선택기(670)를 포함할 수 있다.
제3 서브 렌더링 회로(660)는 수평 필터를 이용하여 영상 데이터를 렌더링하여 제3 서브 렌더링 데이터를 출력하며, 도 6b를 참조하여 설명한 제1 서브 렌더링 회로(630)와 실질적으로 동일하고, 제3 서브 렌더링 데이터는 도 6b를 참조하여 설명한 제1 서브 렌더링 데이터와 실질적으로 동일할 수 있다.
제4 서브 렌더링 회로(670)는 수평 수직 필터를 이용하여 영상 데이터를 렌더링하여 제4 서브 렌더링 데이터를 출력할 수 있다. 여기서, 수직 수평 필터는, 앞서 도 6a를 참조하여 설명한 바와 같이, 앞서 도 5a를 참조하여 설명한 제1 서브 필터(SPRF1)과 실질적으로 동일할 수 있다.
앞서 [수학식 1]을 참조하여 설명한 바와 같이, 수평 수직 필터(예를 들어, 제1 서브 필터(SPRF1))를 이용하여 생성된 제4 서브 렌더링 데이터는 도 6b를 참조하여 설명한 제2 서브 렌더링 데이터와 실질적으로 동일할 수 있다. 제2 선택기(680)는 도 6b를 참조하여 설명한 제1 선택기(650)와 실질적으로 동일하고, 제3 서브 렌더링 데이터 또는 제4 서브 렌더링 데이터를 출력할 수 있다.
도 6b를 참조하여 설명한 바와 같이, 렌더링 유닛(440)은 노말 모드 또는 웨어러블 모드에서 동작할 수 있다. 이 경우, 제2 선택기(680)는 노말 모드에서 제3 서브 렌더링 데이터를 출력하고, 웨어러블 모드에서 제4 서브 렌더링 데이터를 출력할 수 있다.
도 6b 내지 도 6d를 참조하여 설명한 바와 같이, 렌더링 유닛(440)은 제1 서브 렌더링 회로(630)(또는, 제3 서브 렌더링 회로(650))를 이용하여 영상 데이터를 렌더링하여 제1 서브 렌더링 데이터(또는, 제3 서브 렌더링 데이터)를 생성하고, 제2 서브 렌더링 회로(640)(또는, 제4 서브 렌더링 회로(670))를 이용하여 제2 서브 렌더링 데이터(또는, 제4 서브 렌더링 데이터)를 생성하며, 제1 서브 렌더링 데이터 및 제2 서브 렌더링 데이터(또는, 제3 서브 렌더링 데이터 및 제4 서브 렌더링 데이터)를 선택적으로 출력할 수 있다. 특히, 표시 장치(200)가 스마트폰으로 구현되어 두부 장착 표시 장치(100)에 장착되지 않는 경우, 제1 서브 렌더링 데이터를 출력함으로써 표시 장치(200)의 부하를 감소시키고, 표시 장치(200)가 두부 장착 표시 장치(100)에 장착되는 경우, 제2 서브 렌더링 데이터를 출력함으로써 영상 내 객체의 경계에서 색들이 구분되어 시인되는 현상을 감소시킬 수 있다.
도 7은 도 4의 영상 처리부에 포함된 제2 스케링일 유닛의 일 예를 나타내는 도면이다. 도 8a는 색수차를 설명하는 도면이다. 도 8b는 도 7의 제2 스케링일 유닛에 의해 생성된 변조 데이터의 비교예를 나타내는 도면이다.
먼저 도 8a를 참조하면, 표시 패널(210)에서 표시되는 광(또는, 영상)은 렌즈(120)를 통해 사용자에게 제공될 수 있다. 색수차는 광의 파장에 따른 굴절률의 차이에 의해 발생한다. 도 8a에 도시된 바와 같이, 상대적으로 짧은 파장을 가지는 제1 광(R)의 초점은 상대적으로 긴 파장을 가지는 제3 광(B)의 초점보다 렌즈(120)로부터 먼 지점에 맺힐 수 있다. 즉, 제1 광(R)은 표시 패널(210) 상에서 기준 지점(예를 들어, 사용자의 시선축(AXIS_C)에 대응하는 지점)에 상대적으로 가깝게 위치한 화소에 대응하고, 제3 광(R)은 기준 지점에 상대적으로 멀리 위치한 화소에 대응할 수 있다. 따라서, 하나의 영상에 포함된 제1 색상 영상(예를 들어, 적색 영상), 제2 색상 영상(예를 들어, 녹색 영상) 및 제3 색상 영상(예를 들어, 청색 영상)이 다른 비율들로 각각 스케일링 됨으로써 색수차가 보상(또는, 제거)될 수 있다.
도 4 및 도 8b를 참조하면, 제2 스케링일 유닛(440)은 제1 색상 데이터(예를 들어, 영상 데이터에 포함된 적색 데이터)를 업스케일링함으로써, 제1 색상 비교 영상(IMAGE_R_C)을 표시하고, 제3 색상 데이터(예를 들어, 영상 데이터에 포함된 청색 데이터)를 다운스케일링함으로써, 제3 색상 비교 영상(IMAGE_B_C)를 표시할 수 있다. 또한, 제2 스케링일 유닛(440)은 제2 색상 데이터(예를 들어, 영상 데이터에 포함된 녹색 데이터)를 그대로 이용함으로써, 제2 색상 비교 영상(IMAGE_G_C)로 표시할 수 있다.
제2 스케링일 유닛(440)은 기준 지점(P_C)을 기준으로 모든 방향에 동일한 스케일링 비율을 적용하여 영상 데이터를 스케일링할 수 있다. 여기서, 기준 지점(P_C)은 도 8a에 도시된 사용자의 시선축(visual axis)(AXIS_C)에 대응할 수 있다.
예를 들어, 제2 스케링일 유닛(440)은 제1 색상 데이터를 상하좌우 방향으로 1.006배만큼 스케일링(또는, 리사이징)하여 제1 비교 영상(IMAGE_R_C)을 표시 할 수 있다. 따라서, 제1 색상 데이터가 기준 지점(P_C)을 기준으로 제1 방향(D1) 및 제2 방향(D2)으로 대칭인 경우(예를 들어, 제1 축(AXIS_X) 및 제2 축(AXIS_Y)를 기준으로 구분된 영역들(A1 내지 A4)에 표시되는 부분 영상들의 크기가 상호 동일하거나 또는 부분 영상들이 상호 대칭인 경우), 제2 축(AXIS_Y)을 기준으로 제1 색상 비교 영상(IMAGE_R_C)의 경계까지의 거리들(L1, L2)은 상호 동일할 수 있다.
실시예들에서, 제2 스케링일 유닛(700)은 기준 지점(P_C)을 기준으로 방향별로 다른 스케일링 비율을 이용하여 제1 영상 데이터를 스케일링 할 수 있다. 즉, 하나의 화소에 포함된 서브 화소들(R, G, B)로부터 출력되는 광들을 가능한 한 하나의 지점으로 집중시킴으로써, 영상 내 객체의 경계에서 색이 구분되어 시인되는 현상을 보다 완화시킬 수 있다.
도 7을 참조하면, 제2 스케일링 유닛(700)은 분할부(710), 스케일링부(720) 및 통합부(730)를 포함할 수 있다.
분할부(710)는 제1 영상 데이터를 부분 영상 데이터들로 분할할 수 있다.
실시예들에서, 분할부(710)는 제1 영상 데이터를 색상들 및 영역들 중 적어도 하나에 기초하여 부분 데이터들로 분할할 수 있다. 여기서, 색상들은 제1 영상 데이터에 기초하여 표시되는 영상을 구성하는 색상들이고(또는, 표시 패널 내 서브 화소들이 발하는 색상들이며), 영역들 각각은 영상의 일부분에 각각 대응할 수 있다. 즉, 분할부(710)는 제1 영상 데이터를 색상 분할 및/또는 공간 분할할 수 있다. 예를 들어, 제1 영상 데이터는 제1 색상 내지 제3 색상 데이터들을 포함하고, 분할부(710)는 제1 영상 데이터를 제1 내지 제3 색상 데이터들로 분할하고(또는, 제1 영상 데이터로부터 제1 내지 제3 색상 데이터들을 추출하고), 제1 내지 제3 색상 데이터들 중 적어도 하나를 부분 영상 데이터들로 분할할 수 있다. 여기서, 제1 내지 제3 색상 데이터들 각각은 동일한 색상(예를 들어, 적색, 녹색, 청색) 또는 동일한 타입의 데이터 값들로 구성될 수 있다. 이하에서는, 설명의 편의상, 제1 영상 데이터는 제1 색상 데이터(또는, 제1 색상 렌더링 데이터)인 것으로 가정하여 설명한다.
도 8c를 참조하면, 분할부(710)는 영상의 기준 지점(P_C)를 기준으로 제2 방향(D2)으로 연장되는 제2 축(AXIS_Y)(또는, 제1 방향(D1)으로 연장되는 제1 축(AXIS_X))에 기초하여 제1 영상 데이터(예를 들어, 제1 색상 데이터(DATA_R))를 분할할 수 있다. 여기서, 제2 방향(D2)은 제1 방향(D1)에 수직하고, 기준 지점(P_C)는 앞서 설명한 바와 같이 도 8a에 도시된 사용자의 시선축(AXIS_C)에 대응할 수 있다.
스케일링부(720)는 부분 영상 데이터들을 상호 다른 스케일링 변수들(또는, 스케일링 계수들)에 기초하여 각각 리사이징(또는, 스케일링)하여 부분 변조 데이터들을 생성할 수 있다.
실시예들에서, 스케일링부(720)는 제2 축(AXIS_Y)을 기준으로 좌측 방향에 위치하는 부분 영상(예를 들어, 도 8b에 도시된 제1 영역(A1) 및 제3 영역(A3) 상에 표시되는 부분 영상)에 대응하는 제1 부분 데이터(DATA_P1)를 제1 스케일링 변수(R_X1)를 이용하여 제1 방향(D1)(예를 들어, 수평 방향)으로 리사이징하고, 제2 축(AXIS_Y)을 기준으로 우측 방향에 위치하는 부분 영상(예를 들어, 도 8b에 도시된 제2 영역(A2) 및 제4 영역(A4) 상에 표시되는 부분 영상)에 대응하는 제2 부분 데이터(DATA_P2)를 제2 스케일링 변수(R_X2)를 이용하여 제1 방향(D1)으로 리사이징할 수 있다. 여기서, 제2 스케일링 변수(R_X2)는 제1 스케링일 변수(R_X1)와 다를 수 있다. 예를 들어, 제1 스케링일 변수(R_X1) 및 제2 스케일링 변수(R_X2)는 0.9 내지 1.1의 범위 이내이고, 예를 들어, 제1 스케일링 변수(R_X1)는 1.005이고, 제2 스케일링 변수(R_X2)는 1.008일 수 있다.
즉, 스케일링부(720)는 제1 스케일링 변수(R_X1) 및 제2 스케일링 변수(R_X2)에 기초하여 제1 부분 데이터(DATA_P1) 및 제2 부분 데이터(DATA_P2)를 제1 방향(D1)(예를 들어, 수평 방향)으로 각각 리사이징 할 수 있다.
통합부(730)는 부분 변조 데이터들을 통합하여 변조 데이터를 생성할 수 있다. 예를 들어, 통합부(730)는 리사이징된 제1 및 제2 부분 데이터들을 통합하여 제1 변조 데이터를 생성할 수 있다.
이후, 제2 스케일링 유닛(700)은 제1 변조 데이터를 재분할, 재리사이징 및 재통합하여 제2 변조 데이터를 생성할 수 있다.
분할부(710)는 영상의 기준 지점(P_C)를 기준으로 제1 방향(D1)으로 연장되는 제1 축(AXIS_X)(또는, 제2 방향(D2)으로 연장되는 제2 축(AXIS_Y))에 기초하여 제1 변조 데이터(예를 들어, 1차적으로 변조된 제1 색상 데이터)를 분할할 수 있다.
이후, 스케일링부(720)는 제1 축(AXIS_X)을 기준으로 상측 방향에 위치하는 부분 영상(예를 들어, 도 8b에 도시된 제1 및 제2 영역들(A1, A2)에 표시되는 부분 영상)에 대응하는 제3 부분 데이터(DATA_P3)를 제3 스케일링 변수(R_Y1)를 이용하여 제2 방향(D2)(예를 들어, 수직 방향)으로 리사이징하고, 제1 축(AXIS_X)을 기준으로 하측 방향에 위치하는 부분 영상(예를 들어, 도 8b에 도시된 제3 및 제4 영역(A3, A4)에 표시되는 부분 영상)에 대응하는 제4 부분 데이터(DATA_P4)를 제2 스케일링 변수(R_Y2)를 이용하여 제2 방향(D2)으로 리사이징할 수 있다. 여기서, 제4 스케일링 변수(R_Y2)는 제3 스케링일 변수(R_Y1)와 다를 수 있다. 예를 들어, 제3 스케링일 변수(R_Y1) 및 제4 스케일링 변수(R_Y2)는 0.9 내지 1.1의 범위 이내이고, 예를 들어, 제3 스케링일 변수(R_Y1)는 1.003이고, 제4 스케일링 변수(R_Y2)는 1.008일 수 있다.
즉, 스케일링부(720)는 제3 스케일링 변수(R_Y1) 및 제4 스케일링 변수(R_Y2)에 기초하여 제3 부분 데이터(DATA_P3) 및 제4 부분 데이터(DATA_P4)를 제2 방향(D2)(예를 들어, 수직 방향)으로 각각 리사이징 할 수 있다.
이후, 통합부(730)는 리사이징된 제3 및 제4 부분 데이터들(또는, 부분 변조 데이터들)을 통합하여 제2 변조 데이터를 생성할 수 있다.
한편, 도 7 및 도 8c를 참조하여, 제2 스케일링 유닛(700)은 제1 영상 데이터를 제2 축(AXIS_Y)에 기초하여 분할하여 리사이징하고, 리사이징 된 제1 영상 데이터(또는, 제1 변조 데이터)를 제1 축(AXIS_X)에 기초하여 분할하여 리사이징하는 것으로 설명하였으나, 제2 스케일링 유닛(700)은 이에 국한되는 것은 아니다. 예를 들어, 제2 스케일링 유닛(700)은 제1 영상 데이터를 제1 축(AXIS_X)에 기초하여 분할하여 리사이징하고, 리사이징 된 제1 영상 데이터를 제2 축(AXIS_Y)에 기초하여 분할하여 리사이징 할 수 있다.
다른 예를 들어 제2 스케일링 유닛(700)은 영상의 기준 지점(P_C)를 기준으로 제1 방향(D1)으로 연장되는 제1 축(AXIS_X) 및 제2 방향(D2)으로 연장되는 제2 축(AXIS_Y)에 기초하여 제1 영상 데이터(예를 들어, 제1 색상 데이터(DATA_R))를 제11 내지 제14 부분 데이터들(DATA_P11, DATA_P12, DATA_P13, DATA_P14)로 분할 할 수 있다. 이후, 제2 스케일링 유닛(700)은 제1 스케일링 변수(R_X1) 및 제3 스케일링 변수(R_Y1)에 기초하여 제11 부분 데이터(DATA_P11)를 리사이징 하고, 제2 스케일링 변수(R_X2) 및 제3 스케일링 변수(R_Y1)에 기초하여 제12 부분 데이터(DATA_P12)를 리사이징하며, 제1 스케일링 변수(R_X1) 및 제4 스케일링 변수(R_Y4)에 기초하여 제13 부분 데이터(DATA_P13)를 리사이징하고, 제2 스케일링 변수(R_X2) 및 제4 스케일링 변수(R_Y2)에 기초하여 제14 부분 데이터(DATA_P14)를 리사이징 할 수 있다. 이후, 제2 스케일링 유닛(700)은 리사이징된 제1 내지 제4 부분 데이터들(또는, 부분 변조 데이터들)을 통합하여 변조 데이터를 생성 및 출력할 수 있다.
실시예들에서, 제1 스케일링 변수(R_X1)는 제1 기준 서브 화소의 위치 정보에 기초하여 설정되고, 제1 기준 서브 화소는 서브 화소들 중 제1 방향(D1)으로 최외곽에 위치할 수 있다.
도 8d를 참조하면, 도 3a을 참조하여 설명한 바와 같이, 표시 패널(820)은 RGBG 포맷으로 배열된 서브 화소들(R, G, B)를 포함할 수 있다.
기준 지점(P_C)은 제j 화소행 및 제j+1 화소행 사이의 제1 축(AXIS_X)과 제k+1 화소열 및 제k+2 화소열 사이의 제2 축(AXIS_Y)의 교차 지점에 위치할 수 있다(단, j 및 k는 2 이상의 정수). 이 경우, 제j 화소행으로부터 제1 방향(D1)으로 최외곽에 위치한 서브 화소(R)의 제1 이격거리(L1)(예를 들어, 제2 축(AXIS_Y)으로부터의 이격거리, 또는 제1 방향(D1)으로의 거리)는 제j 화소행으로부터 제1 방향(D1)의 반대 방향으로 최외곽에 위치한 서브 화소(R)의 제2 이격거리(L2)와 다를 수 있다.
유사하게, 제k 화소열로부터 제2 방향(D2)으로 최외곽에 위치한 서브 화소(R)의 제3 이격거리(L3)(예를 들어, 제1 축(AXIS_X)으로부터의 이격거리, 또는 제2 방향(D2)으로의 거리)는 제k+2 화소행으로부터 제2 방향(D2)의 반대 방향으로 최외곽에 위치한 서브 화소(R)의 제4 이격거리(L4)와 다를 수 있다.
따라서, 제1 스케일링 변수(R_X1)는 제1 이격거리(L1)에 비례(또는, 반비례)하도록 설정될 수 있다. 유사하게, 제2 스케일링 변수(R_X2), 제3 스케일링 변수(R_Y1) 및 제4 스케일링 변수(R_Y2)는 제2 내지 제4 이격거리들(L2 내지 L4)에 각각 비례(또는, 반비례)할 수 있다.
도 8d에서 제1 기준 서브 화소는 표시 패널(820)의 외곽에 위치하는 것으로 설명하였으나, 이는 예시적인 것으로 본 발명은 이에 국한되는 것은 아니다. 예를 들어, 제1 기준 서브 화소는 영상 데이터의 최외곽에 대응하는 화소일 수 있다.
도 8e를 참조하면, 제1 색상 영상(IMAGE_R2), 제2 색상 영상(IMAGE_G2) 및 제3 색상 영상(IMAGE_B2)는 제2 스케링일 유닛(700)에서 생성된 변조 데이터에 기초하여 표시 패널(820) 상에 표시되는 영상들 일 수 있다.
도 8b를 참조하여 예시한 바와 같이, 제1 색상 데이터가 기준 지점(P_C)을 기준으로 제1 방향 및 제2 방향으로 대칭이더라도, 제2 축(AXIS_Y)을 기준으로 제1 색상 영상(IMAGE_R2)의 경계까지의 거리들(L3, L4)은 상호 다를 수 있다.
제1 색상 영상(IMAGE_R2)은 제2 색상 영상(IMAGE_G2)보다 제1 방향(D1)으로 제1 차이(DL1)만큼 크고, 제1 방향(D1)의 반대 방향으로 제2 차이(DL2)만큼 클 수 있다. 제2 색상 영상(IMAGE_G2)는 도 8b에 도시된 제2 색상 비교 영상(IMAGE_G2)과 동일한 경우(또는, 제2 색상 영상(IMAGE_G2)은 색수차 보정 과정을 거치지 않은 경우), 제1 및 제2 스케일링 변수(R_X1, R_X2)가 상호 다르므로, 제2 차이(DL2)는 제1 차이(DL1)와 다를 수 있다.
유사하게, 제3 색상 영상(IMAGE_B2)은 제2 색상 영상(IMAGE_G2)보다 제1 방향(D1)으로 제3 차이(DL3)만큼 작고, 제1 방향의 반대 방향으로 제4 차이(DL4)만큼 클 수 있다. 제3 색상 영상(IMAGE_R2)에 대한 제1 및 제2 스케일링 변수들이 상호 다르게 설정되므로, 제4 차이(DL4)는 제3 차이(DL3)와 다를 수 있다.
도 8f을 참조하면, 테스트 데이터(DATA_TEST)는 제1 내지 제4 영역들(A1 내지 A4)에 대응하는 부분 데이터들을 포함하고, 부분 데이터들은 상호 동일한 크기(또는, 면적)를 가지며, 상호 다른 데이터 값들을 포함할 수 있다.
예를 들어, 제1 내지 제4 부분 데이터들은 100*100 개의 화소들에 대응하는 데이터 값들 각각 포함하고, 제1 영역(A1)에 대응하는 제1 부분 데이터는 265 계조만을 포함하며, 제2 영역(A2)에 대응하는 제2 부분 데이터는 0 계조만을 포함할 수 있다. 유사하게, 제3 영역(A3)에 대응하는 제3 부분 데이터는 0 계조만을 포함하고, 제4 영역(A4)에 대응하는 제4 부분 데이터는 256 계조만을 포함할 수 있다.
일 실시예에서, 테스트 데이터(DATA_TESET)는 체크 무늬 형태로 배열된 유효 데이터 값들을 포함할 수 있다. 유효 데이터 값들에 대응하여 표시되는 체크 무늬 영상의 크기를 영역들(A1 내지 A4)별로 비교함으로써, 색수차 보정 여부를 판단할 수 있다.
도 7 내지 도 8f를 참조하여 설명한 바와 같이, 본 발명의 실시예들에 따른 제2 스케링일 유닛(700)(또는, 표시 장치(200))는 기준 지점(예를 들어, 사용자 시선축)을 기준으로 방향별로 설정된 스케일링 변수들(예를 들어, 동일하거나 또는 상호 다른 스케일링 변수들)을 이용하여 제1 영상 데이터를 리사이징(또는, 스케일링)할 수 있다. 특히, 제2 스케일링 유닛(700)은 상호 다른 스케일링 변수들을 이용하여 제1 영상 데이터를 리사이징함으로써, 서브 화소들의 배열(또는, 위치 차이)에 기인하여 영상 내 객체의 경계에서 시인되는 색 구분 현상을 완화시킬 수 있다.
한편, 도 7 내지 도 8f에서, 제2 스케링일 유닛(700)은 제2 색상 데이터(예를 들어, 녹색 데이터)를 기준으로, 제1 색상 데이터(예를 들어, 적색 데이터)를 업스케링일링하고, 제3 색상 데이터(예를 들어, 청색 데이터)를 다운스케일링하는 것으로 설명하였으나, 제2 스케링일 유닛(700)은 이에 국한되는 것은 아니다. 예를 들어, 제2 스케링일 유닛(700)은 제1 색상 데이터(예를 들어, 적색 데이터)를 기준으로 제2 색상 데이터(예를 들어, 녹색 데이터)및 제3 색상 데이터(예를 들어, 청색 데이터)를 다운스케일링하거나, 또는 제3 색상 데이터(예를 들어, 청색 데이터)를 기준으로 제1 색상 데이터(예를 들어, 적색 데이터)및 제2 색상 데이터(예를 들어, 녹색 데이터)를 업스케일링할 수 있다.
도 9a는 도 7의 제2 스케일링 유닛에서 사용되는 스케일링 변수들의 일 예를 나타내는 도면이고, 도 9b 및 도 9c는 도 7의 제2 스케일링 유닛에 의해 생성된 변조 데이터의 일 예를 나타내는 도면이다.
도 7, 도 8d, 도 9a 및 도 9b를 참조하면, 제2 스케일링 유닛(700)(또는, 스케일링부(720))은 표시 패널(820)의 기준 지점(P_C)을 기준으로 서브 화소들의 이격 거리들(예를 들어, 제11 내지 제14 이격거리들(L11 내지 L14))에 기초하여 스케일링 변수들(예를 들어, 제11 내지 제14 스케일링 변수들(R_1R1 내지 R_R14))을 각각 설정하며, 스케일링 변수들에 기초하여 제1 영상 데이터를 리사이징 할 수 있다. 즉, 제2 스케일링 유닛(700)(또는, 스케일링부(720))은 영상의 특정 지점(또는, 기준 지점, 예를 들어, 표시 패널(820)의 기준 지점(P_C)에 대응하는 지점)으로부터 영상을 구성하는 단색광들까지의 이격거리들에 기초하여 스케일링 변수들(예를 들어, 제11 내지 제14 스케일링 변수들(R_1R1 내지 R_R14))을 각각 설정하며, 스케일링 변수들에 기초하여 제1 영상 데이터를 리사이징 할 수 있다. 여기서, 영상은 표시 패널(820)에 표시되는 영상이고, 단색광들은 표시 패널(820) 내 서브 화소들에서 발광되며, 영상의 특정 지점(또는, 기준 지점)과 단색광들은 동일 평면 상(예를 들어, 표시 패널 상)에 위치할 수 있다. 이 경우, 단색광들의 이격거리들은 화소들의 이격거리들(L111 내지 L14)와 실질적으로 동일할 수 있다.
도 8b를 참조하여 설명한 제1 스케일링 변수(R_X1)와 유사하게, 제11 내지 제14 스케일링 변수들(R_R11 내지 R_R14)은 서브 화소들의 이격 거리들(L1 내지 L4)에 각각 비례(또는, 이격 거리의 제곱에 비례)하도록 설정될 수 있다. 따라서, 제11 내지 제14 스케일링 변수들(R_R11 내지 R_R14)는 상호 다를 수 있다.
예를 들어, 제1 기준 서브 화소(P_R1)(예를 들어, 표시 패널(820)의 제j 행 및 제1 열의 교차 영역에 위치하는 서브 화소(R))에 대응하는 제21 부분 데이터(DATA_P21)에 대한 제11 스케일링 변수(R_R11)는 제2 기준 서브 화소(P_R2)(예를 들어, 표시 패널(820)의 제j+1 행 및 제3 열의 교차 영역에 위치하는 서브 화소(R))에 대응하는 제22 부분 데이터(DATA_P22)에 대한 제12 스케일링 변수(R_R12)와 다를 수 있다. 여기서, 제21 부분 데이터(DATA_P21) 및 제22 부분 데이터(DATA_P22)는 앞서 도 8c를 참조하여 설명한 제1 색상 데이터(DATA_R1)에 포함될 수 있다. 예를 들어, 제11 스케일링 변수(R_R11) 및 제12 스케일링 변수(R_R12)는 0.9 내지 1.1의 범위 이내이고, 제11 스케일링 변수(R_R11)는 1.005이고, 제12 스케일링 변수(R_R12)는 1.003일 수 있다.
이 경우, 제2 스케일링 유닛(700)은 제21 부분 데이터(DATA_P21)을 제11 스케일링 변수(R_R11)을 이용하여 원의 중심 방향(또는, 기준 지점(P_C)를 기준으로 제1 기준 서브 화소(P_R1)의 방향)으로 리사이징하고, 제22 부분 데이터(DATA_P22)을 제12 스케일링 변수(R_R12)을 이용하여 원의 중심 방향(또는, 기준 지점(P_C)를 기준으로 제2 기준 서브 화소(P_R2)의 방향)으로 리사이징 할 수 있다.
유사하게, 제3 기준 서브 화소(P_R3)(예를 들어, 표시 패널(820)의 제j 행 및 제m-3 열의 교차 영역에 위치하는 서브 화소(R))에 대응하는 제23 부분 데이터(DATA_P23)에 대한 제13 스케일링 변수(R_R13)는 제4 기준 서브 화소(P_R4)(예를 들어, 표시 패널(820)의 제j+1 행 및 제m-1 열의 교차 영역에 위치하는 서브 화소(R))에 대응하는 제24 부분 데이터(DATA_P24)에 대한 제14 스케일링 변수(R_R14)와 다를 수 있다. 여기서, 제23 부분 데이터(DATA_P23) 및 제24 부분 데이터(DATA_P24)는 앞서 도 8c를 참조하여 설명한 제1 색상 데이터(DATA_R1)에 포함될 수 있다. 예를 들어, 제13 스케일링 변수(R_R13) 및 제14 스케일링 변수(R_R14)는 0.9 내지 1.1의 범위 이내이고, 제13 스케일링 변수(R_R13)는 1.004이고, 제14 스케일링 변수(R_R14)는 1.002일 수 있다.
이 경우, 제2 스케일링 유닛(700)은 제23 부분 데이터(DATA_P23)을 제13 스케일링 변수(R_R13)을 이용하여 원의 중심 방향(또는, 기준 지점(P_C)를 기준으로 제3 기준 서브 화소(P_R3)의 방향)으로 리사이징하고, 제24 부분 데이터(DATA_P24)을 제14 스케일링 변수(R_R14)을 이용하여 원의 중심 방향(또는, 기준 지점(P_C)를 기준으로 제4 기준 서브 화소(P_R4)의 방향)으로 리사이징 할 수 있다.
즉, 제2 스케일링 유닛(700)은 제1 영상 데이터에 포함된 데이터 값들(또는, 이를 포함하는 부분 데이터들) 각각을 리사이징(또는, 리맵핑, 보정)함으로써, 서브 화소들의 배열(또는, 위치 차이)에 기인하여 영상 내 객체의 경계에서 시인되는 색 구분 현상을 보다 완화시킬 수 있다.
도 9a 및 도 9b을 참조하여, 제2 스케일링 유닛(700)은 원의 중심 방향으로의 스케일링 변수들(R_R11 내지 R_R14)을 설정하는 것으로 설명하였으나, 제2 스케일링 유닛(700)은 이에 국한되는 것은 아니다.
도 9a 및 도 9c를 참조하면, 제2 스케일일 유닛(700)은 제1 이격 거리(L11)의 제1 방향(D1)으로의 성분에 기초하여 제21 스케일링 변수(R_X21)을 설정하고, 제1 기준 서브 화소(P_R1)에 대응하는 제31 부분 데이터(DATA_P31)를 제1 방향(D1)으로 리사이징 할 수 있다. 여기서, 제31 부분 데이터(DATA_P31)는 제1 색상 데이터(DATA_R1)에 포함될 수 있다. 유사하게, 제2 스케일일 유닛(700)은 제2 내지 제4 이격 거리들(L12 내지 L14)의 제1 방향(D1)으로의 성분들에 기초하여 제22 내지 제24 스케일링 변수들(R_X22 내지 R_X24)을 각각 설정하고, 제2 내지 제4 기준 서브 화소들(P_R2 내지 P_R4)에 각각 대응하는 제32 내지 제34 부분 데이터들(DATA_P32 내지 DATA_P34)을 제1 방향(D1)(예를 들어, 수평 방향)으로 각각 리사이징 할 수 있다. 여기서, 제32 내지 제34 부분 데이터들(DATA_P32 내지 DATA_P34)은 제1 색상 데이터(DATA_R1)에 포함될 수 있다.
도 9c에 도시되지 않았으나, 제2 스케일일 유닛(700)은 제1 내지 제4 이격 거리들(L11 내지 L14)의 제2 방향(D2)으로의 성분들에 기초하여 제31 내지 제34 부분 데이터들(DATA_P31 내지 DATA_P34)에 대한 수직 스케일링 변수들(예를 들어, 제2 방향(D2)으로의 스케일링 변수들)을 각각 설정할 수 있다.
상술한 바와 같이, 제2 스케일링 유닛(700)는 표시 패널(820)의 기준 지점(P_C)을 기준으로 서브 화소들의 이격 거리들(예를 들어, 제11 내지 제14 이격거리들(L11 내지 L14))에 기초하여 스케일링 변수들(예를 들어, 제11 내지 제14 스케일링 변수들(R_1R1 내지 R_R14))을 각각 설정하며, 스케일링 변수들에 기초하여 제1 영상 데이터(또는, 제1 영상 데이터에 포함된 데이터 값들 각각)을 리사이징 할 수 있다. 따라서, 제2 스케일링 유닛(700)은 서브 화소들의 배열(또는, 위치 차이)에 기인하여 영상 내 객체의 경계에서 시인되는 색 구분 현상을 보다 완화시킬 수 있다.
이상, 본 발명의 실시예들에 따른 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치에 대하여 도면을 참조하여 설명하였지만, 상기 설명은 예시적인 것으로서 본 발명의 기술적 사상을 벗어나지 않는 범위에서 해당 기술 분야에서 통상의 지식을 가진 자에 의하여 수정 및 변경될 수 있을 것이다.
본 발명의 실시예들에 따른 표시 장치는 다양한 디스플레이 시스템에 적용될 수 있다. 예를 들어, 표시 장치는 헤드 마운트 디스플레이(HMD), 텔레비전, 컴퓨터 모니터, 랩탑, 디지털 카메라, 셀룰러 폰, 스마트 폰, PDA, PMP, MP3 플레이어, 네비게이션 시스템, 비디오 폰 등에 적용될 수 있다.
100: 두부 장착 표시 장치
110: 표시 장치
120: 렌즈 200: 표시 장치
210: 표시 패널 220: 타이밍 제어부
230: 주사 구동부 240: 데이터 구동부
250: 영상 처리부 300: 표시 패널
400: 영상 처리부 410: 제1 스케일링 유닛
420: 경계 향상 유닛 430: 제2 스케일링 유닛
440: 렌더링 유닛 500: 표시 패널
610: 필터 선택기 620: 렌더링 회로
630: 제1 서브 렌더링 회로 640: 제2 서브 렌더링 회로
631: 제1 라인 버퍼 632: 제1 연산기
650: 제1 선택기 660: 제3 서브 렌더링 회로
670: 제4 서브 렌더링 회로 680: 제2 선택기
700: 제2 스케링일 유닛 710: 분할부
720: 스케일링부 730: 통합부
820: 표시 패널
120: 렌즈 200: 표시 장치
210: 표시 패널 220: 타이밍 제어부
230: 주사 구동부 240: 데이터 구동부
250: 영상 처리부 300: 표시 패널
400: 영상 처리부 410: 제1 스케일링 유닛
420: 경계 향상 유닛 430: 제2 스케일링 유닛
440: 렌더링 유닛 500: 표시 패널
610: 필터 선택기 620: 렌더링 회로
630: 제1 서브 렌더링 회로 640: 제2 서브 렌더링 회로
631: 제1 라인 버퍼 632: 제1 연산기
650: 제1 선택기 660: 제3 서브 렌더링 회로
670: 제4 서브 렌더링 회로 680: 제2 선택기
700: 제2 스케링일 유닛 710: 분할부
720: 스케일링부 730: 통합부
820: 표시 패널
Claims (20)
- 제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및
제2 영상 데이터를 수신하고, 상기 제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고,
상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터인 영상 처리 장치. - 제 1 항에 있어서, 상기 렌더링 유닛은 M*N개의 상기 데이터 값들을 가중치 평균하여 상기 대상 렌더링 데이터 값을 산출하며, 제1 포맷의 상기 제2 영상 데이터를 제2 포맷의 상기 렌더링 데이터로 재구성하는 것을 특징으로 하는 영상 처리 장치.
- 제 2 항에 있어서, 상기 제2 영상 데이터는 제1 방향을 따라 순차적으로 반복하여 배열된 제1 타입 데이터 값, 제2 타입 데이터 값 및 제3 타입 데이터 값을 가지고,
상기 렌더링 데이터는 상기 제1 방향을 따라 순차적으로 반복하여 배열된 제4 타입 데이터 값, 제5 타입 데이터 값, 제6 타입 데이터 값 및 제7 타입 데이터 값을 포함하며,
상기 제1 및 제4 타입 데이터 값들은 제1 색으로 발광하는 제1 화소에 대응하고, 상기 제2, 제5 및 제7 타입 데이터 값들은 제2 색으로 발광하는 제2 화소에 대응하며, 상기 제3 및 제6 타입 데이터 값들은 제3 색으로 발광하는 제3 화소에 대응하는 것을 특징으로 하는 영상 처리 장치. - 제 1 항에 있어서, 상기 제2 영상 데이터는 사용자의 좌안에 대응하는 좌측 영상 데이터 및 사용자의 우안에 대응하는 우측 영상 데이터를 포함하는 것을 특징으로 하는 영상 처리 장치.
- 제 1 항에 있어서, 상기 렌더링 유닛은, 상기 제1 블록에 대응하는 상기 데이터 값들에 대하여 각각 가중치를 가지는 제1 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하고,
상기 제1 블록은 2*2 크기를 가지는 것을 특징으로 하는 영상 처리 장치. - 제 5 항에 있어서, 상기 제1 서브 필터는 상기 데이터 값들 중 제1 대상 데이터 값에 대한 제1 가중치, 상기 제1 대상 데이터 값과 제1 방향으로 인접한 제1 인접 데이터 값에 대한 제2 가중치, 상기 제1 대상 데이터 값과 제2 방향으로 인접한 제2 인접 데이터 값에 대한 제3 가중치 및 상기 제2 인접 데이터 값과 상기 제1 방향으로 인접한 제3 인접 데이터 값에 대한 제4 가중치를 가지고,
상기 제2 방향은 상기 제1 방향에 수직하는 것을 특징으로 하는 영상 처리 장치. - 제 1 항에 있어서, 상기 렌더링 유닛은 노말 모드 또는 웨어러블 모드에서 동작하고, 상기 노말 모드에서 제2 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하며, 상기 웨어러블 모드에서 제1 서브 필터를 이용하여 상기 제2 영상 데이터를 렌더링하되,
상기 제1 서브 필터는 상기 데이터 값들 중 제1 대상 데이터 값에 대한 제1 가중치, 상기 제1 대상 데이터 값과 제1 방향으로 인접한 제1 인접 데이터 값에 대한 제2 가중치, 상기 제1 대상 데이터 값과 제2 방향으로 인접한 제2 인접 데이터 값에 대한 제3 가중치 및 상기 제2 인접 데이터 값과 상기 제1 방향으로 인접한 제3 인접 데이터 값에 대한 제4 가중치를 가지고,
상기 제2 서브 필터는 상기 제1 대상 데이터 값에 대한 제21 가중치 및 상기 제1 인접 데이터 값에 대한 제22 가중치를 가지며,
상기 제2 방향은 상기 제1 방향에 수직하는 것을 특징으로 하는 영상 처리 장치. - 제 1 항에 있어서, 상기 스케일링 유닛은, 상기 변조 데이터 또는 상기 렌더링 데이터에 기초하여 영상을 표시하는 표시 패널 상의 기준 지점으로부터 상기 표시 패널에 배열된 서브 화소들까지의 이격 거리들에 기초하여 스케일링 변수들을 각각 설정하며, 상기 스케일링 변수들에 기초하여 상기 제1 영상 데이터를 리사이징하는 것을 특징으로 하는 영상 처리 장치.
- 제 1 항에 있어서, 상기 스케일링 유닛은, 상기 제1 영상 데이터에서 동일 색상으로 각각 구성된 색상 데이터들을 추출하고, 상기 색상 데이터들 중 적어도 하나의 색상 데이터를 스케일링 변수들에 기초하여 리사이징하는 것을 특징으로 하는 영상 처리 장치.
- 제 9 항에 있어서, 상기 스케일링 유닛은, 상기 적어도 하나의 색상 데이터를 부분 영상 데이터들로 분할하고, 부분 영상 데이터들을 상기 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하며, 상기 부분 변조 데이터들을 통합하여 상기 변조 데이터를 생성하는 영상 처리 장치.
- 제 10 항에 있어서, 상기 스케일링 유닛은,
상기 적어도 하나의 색상 데이터에 대응하는 영상의 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제1 부분 데이터 및 제2 부분 데이터로 분할하고,
상기 제1 부분 데이터를 제1 스케일링 변수를 이용하여 리사이징하며,
상기 제2 부분 데이터를 제2 스케일링 변수를 이용하여 리사이징하고,
상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다른 것을 특징으로 하는 영상 처리 장치. - 제 11 항에 있어서, 상기 스케일링 유닛은,
상기 영상의 상기 기준 지점을 기준으로 제1 방향으로 연장되는 제1 축에 기초하여 리사이징된 색상 데이터를 제3 부분 데이터 및 제4 부분 데이터로 분할하고,
상기 제3 부분 데이터를 제3 스케일링 변수를 이용하여 리사이징하며,
상기 제4 부분 데이터를 제4 스케일링 변수를 이용하여 리사이징하고,
상기 리사이징된 색상 데이터는 리사이징된 제1 부분 데이터 및 리사이징된 제2 부분 데이터를 포함하며,
상기 제4 스케일링 변수는 상기 제3 스케일링 변수와 다른 것을 특징으로 하는 영상 처리 장치. - 제 10 항에 있어서, 상기 스케일링 유닛은
상기 적어도 하나의 색상 데이터에 대응하는 영상의 기준 지점을 기준으로 제1 방향으로 연장되는 제1 축 및 상기 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제11 내지 제14 부분 데이터들로 분할하고,
상기 제11 부분 데이터를 제1 스케일링 변수 및 제3 스케일링 변수에 기초하여 리사이징하며,
상기 제12 부분 데이터를 제2 스케일링 변수 및 상기 제3 스케일링 변수에 기초하여 리사이징하고,
상기 제13 부분 데이터를 상기 제1 스케일링 변수 및 제4 스케일링 변수에 기초하여 리사이징하며,
상기 제14 부분 데이터를 상기 제2 스케일링 변수 및 상기 제4 스케일링 변수에 기초하여 리사이징하고,
상기 제2 방향은 상기 제1 방향에 수직하며,
상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다르며,
상기 제4 스케일링 변수는 상기 제3 스케일링 변수와 다른 것을 특징으로 하는 영상 처리 장치. - 제1 영상 데이터를 색상들 및 영역들 중 적어도 하나에 기초하여 부분 데이터들로 분할하는 분할부;
부분 데이터들을 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하는 스케일링부; 및
상기 부분 변조 데이터들을 통합하여 변조 데이터를 출력하는 통합부를 포함하고,
상기 색상들은 상기 제1 영상 데이터에 기초하여 표시되는 영상을 구성하며,
상기 영역들은 상기 영상의 일부분들에 각각 대응하는 것을 특징으로 하는 영상 처리 장치. - 제1 데이터를 변조하여 제2 데이터를 출력하는 영상 처리부;
화소들을 포함하는 표시 패널; 및
상기 제2 데이터에 기초하여 데이터 신호를 생성하고, 상기 데이터 신호를 상기 화소들에 제공하는 데이터 구동부를 포함하고,
상기 영상 처리부는,
제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및
제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고,
상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터인 것을 특징으로 하는 표시 장치. - 제 15 항에 있어서, 상기 스케일링 유닛은, 상기 제1 영상 데이터에서 동일 색상으로 각각 구성된 색상 데이터들을 추출하고, 상기 색상 데이터들 중 적어도 하나의 색상 데이터를 스케일링 변수들에 기초하여 리사이징하는 것을 특징으로 하는 영상 처리 장치.
- 제 16 항에 있어서, 상기 표시 패널은 영상의 기준 지점을 기준으로 다수의 영역들로 구분되며,
상기 스케링일 유닛은, 상기 색상 데이터들 중 상기 적어도 하나의 색상 데이터를 상기 영역들에 대응하는 부분 데이터들로 분할하고, 부분 데이터들을 상기 스케일링 변수들에 기초하여 각각 리사이징하여 부분 변조 데이터들을 생성하며, 상기 부분 변조 데이터들을 통합하여 변조 데이터를 생성하는 것을 특징으로 하는 표시 장치. - 제 17 항에 있어서, 상기 스케링일 유닛은,
상기 기준 지점을 기준으로 제2 방향으로 연장되는 제2 축에 기초하여 상기 적어도 하나의 색상 데이터를 제1 부분 데이터 및 제2 부분 데이터로 분할하고,
상기 제1 부분 데이터를 제1 스케일링 변수를 이용하여 리사이징하며,
상기 제2 부분 데이터를 제2 스케일링 변수를 이용하여 리사이징하고,
상기 제2 스케일링 변수는 상기 제1 스케일링 변수와 다르며,
상기 기준 지점은 사용자의 시선축에 대응하는 것을 특징으로 하는 영상 처리 장치. - 제 18 항에 있어서, 상기 제1 스케일링 변수는 제1 서브 화소의 위치 정보에 기초하여 설정되고,
상기 제1 서브 화소는 상기 화소들에 포함되고, 상기 제2 방향에 수직하는 제1 방향으로 최외곽에 위치하는 것을 특징으로 하는 표시 장치. - 제1 데이터를 변조하여 제2 데이터를 출력하는 영상 처리부;
상기 제2 데이터에 기초하여 데이터 신호를 생성하는 데이터 구동부;
상기 데이터 신호에 기초하여 발광하는 화소들을 포함하는 표시 패널; 및
상기 표시 패널에서 출력되는 영상을 확대하는 렌즈를 포함하고,
상기 영상 처리부는,
제1 영상 데이터를 리사이징하여 변조 데이터를 출력하는 스케일링 유닛; 및
제2 영상 데이터를 렌더링하여 렌더링 데이터를 출력하되, 상기 제2 영상 데이터 중 M*N 크기의 제1 블록에 대응하는 데이터 값들에 기초하여 대상 렌더링 데이터 값을 산출하는 렌더링 유닛(단, M 및 N 각각은 2 이상의 정수)을 포함하고,
상기 제2 영상 데이터는 상기 변조 데이터이거나, 상기 제1 영상 데이터는 상기 렌더링 데이터인 두부 장착 표시 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160126214A KR102597231B1 (ko) | 2016-09-30 | 2016-09-30 | 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 |
US15/679,800 US10455170B2 (en) | 2016-09-30 | 2017-08-17 | Image processing device, display device, and head mounted display device |
CN201710895897.2A CN107886465B (zh) | 2016-09-30 | 2017-09-28 | 图像处理器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160126214A KR102597231B1 (ko) | 2016-09-30 | 2016-09-30 | 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180036820A true KR20180036820A (ko) | 2018-04-10 |
KR102597231B1 KR102597231B1 (ko) | 2023-11-03 |
Family
ID=61758653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160126214A KR102597231B1 (ko) | 2016-09-30 | 2016-09-30 | 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10455170B2 (ko) |
KR (1) | KR102597231B1 (ko) |
CN (1) | CN107886465B (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111651131A (zh) * | 2020-05-18 | 2020-09-11 | 武汉联影医疗科技有限公司 | 图像的显示方法、装置和计算机设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114203089B (zh) * | 2021-12-15 | 2023-03-24 | 南京国兆光电科技有限公司 | 一种用于RGB-Delta排列的子像素渲染方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070076971A1 (en) * | 2005-09-30 | 2007-04-05 | Nokia Corporation | Compression of images for computer graphics |
KR100923053B1 (ko) * | 2001-08-08 | 2009-10-22 | 삼성전자주식회사 | 감마 조정 및 적응 필터링을 이용한 서브픽셀의 렌더링방법 및 시스템 |
US20150379916A1 (en) * | 2013-12-16 | 2015-12-31 | Boe Technology Group Co., Ltd. | Display panel and display method thereof, and display device |
US20160093018A1 (en) * | 2014-09-25 | 2016-03-31 | Sony Corporation | Bayer-consistent raw scaling |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7184066B2 (en) * | 2001-05-09 | 2007-02-27 | Clairvoyante, Inc | Methods and systems for sub-pixel rendering with adaptive filtering |
DE10241353B4 (de) * | 2002-09-06 | 2004-07-15 | Sp3D Chip Design Gmbh | Verfahren und Vorrichtung zum Umwandeln eines Farbbildes |
KR100532105B1 (ko) * | 2003-08-05 | 2005-11-29 | 삼성전자주식회사 | 공간분할방식 3차원 영상 신호 발생 장치 |
US7525526B2 (en) * | 2003-10-28 | 2009-04-28 | Samsung Electronics Co., Ltd. | System and method for performing image reconstruction and subpixel rendering to effect scaling for multi-mode display |
KR20110091797A (ko) * | 2003-11-28 | 2011-08-12 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 발광 장치 |
EP1655966A3 (en) * | 2004-10-26 | 2011-04-27 | Samsung Electronics Co., Ltd. | Apparatus and method for processing an image signal in a digital broadcast receiver |
EP2418865A3 (en) * | 2010-08-09 | 2014-08-06 | LG Electronics Inc. | 3D viewing device, image display apparatus, and method for operating the same |
CN106385586A (zh) * | 2010-12-07 | 2017-02-08 | 索尼公司 | 图像处理设备和图像处理方法 |
KR102025876B1 (ko) | 2012-03-16 | 2019-09-27 | 삼성디스플레이 주식회사 | 데이터 렌더링 방법, 데이터 렌더링 장치, 및 이를 포함하는 표시 장치 |
US9508031B2 (en) * | 2012-05-22 | 2016-11-29 | Andrew William Peter Cave | Computer programs and methods for generating 1-bit image data from multiple-bit image data |
JP2013251742A (ja) * | 2012-05-31 | 2013-12-12 | Toshiba Corp | 電子機器及び復号方法 |
KR101969456B1 (ko) * | 2012-08-31 | 2019-08-14 | 삼성디스플레이 주식회사 | 화상 데이터 변환 장치 및 이를 포함하는 표시 장치 |
US20140266985A1 (en) | 2013-03-15 | 2014-09-18 | Lockheed Martin Corporation | System and method for chromatic aberration correction for an image projection system |
JP6396022B2 (ja) * | 2014-01-21 | 2018-09-26 | 住友重機械工業株式会社 | 出力画像を生成する装置 |
AU2014388185B2 (en) * | 2014-03-27 | 2018-08-02 | Microsoft Technology Licensing, Llc | Adjusting quantization/scaling and inverse quantization/scaling when switching color spaces |
US10438331B2 (en) | 2014-06-26 | 2019-10-08 | Intel Corporation | Distortion meshes against chromatic aberrations |
KR20170012696A (ko) * | 2015-07-22 | 2017-02-03 | 엘지디스플레이 주식회사 | 표시장치 및 그 편광판 |
KR102379775B1 (ko) * | 2015-08-31 | 2022-03-29 | 엘지디스플레이 주식회사 | 표시장치 |
-
2016
- 2016-09-30 KR KR1020160126214A patent/KR102597231B1/ko active IP Right Grant
-
2017
- 2017-08-17 US US15/679,800 patent/US10455170B2/en active Active
- 2017-09-28 CN CN201710895897.2A patent/CN107886465B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100923053B1 (ko) * | 2001-08-08 | 2009-10-22 | 삼성전자주식회사 | 감마 조정 및 적응 필터링을 이용한 서브픽셀의 렌더링방법 및 시스템 |
US20070076971A1 (en) * | 2005-09-30 | 2007-04-05 | Nokia Corporation | Compression of images for computer graphics |
US20150379916A1 (en) * | 2013-12-16 | 2015-12-31 | Boe Technology Group Co., Ltd. | Display panel and display method thereof, and display device |
US20160093018A1 (en) * | 2014-09-25 | 2016-03-31 | Sony Corporation | Bayer-consistent raw scaling |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111651131A (zh) * | 2020-05-18 | 2020-09-11 | 武汉联影医疗科技有限公司 | 图像的显示方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
KR102597231B1 (ko) | 2023-11-03 |
CN107886465A (zh) | 2018-04-06 |
US20180098006A1 (en) | 2018-04-05 |
CN107886465B (zh) | 2023-09-22 |
US10455170B2 (en) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110134353B (zh) | 颜色补偿方法、补偿装置以及显示装置 | |
US8456485B2 (en) | Image processing apparatus and method, head mounted display, program, and recording medium | |
US10332432B2 (en) | Display device | |
KR101073044B1 (ko) | 2차원 서브픽셀 레이아웃을 갖는 디스플레이 패널을 위한 영상 색 균형 처리 방법 | |
KR101427607B1 (ko) | 다원색 변환 | |
CN102254540B (zh) | 处理颜色子像素 | |
JP4845825B2 (ja) | 多色表示装置 | |
JP5615136B2 (ja) | 立体画像補正方法、立体表示装置、および立体画像生成装置 | |
US20120313843A1 (en) | Display device | |
US9542875B2 (en) | Signal processing method, signal processor, and display device including signal processor | |
JP2006285238A (ja) | 表示装置を用いる表示方法および表示装置 | |
US10366673B2 (en) | Display device and image processing method thereof | |
WO2016169143A1 (zh) | 显示面板、其显示方法及显示装置 | |
TW201533718A (zh) | 顯示器的驅動方法 | |
WO2014203366A1 (ja) | 画像処理装置、方法、及びプログラム、並びに画像表示装置 | |
US10467947B2 (en) | Display device | |
CN106560880B (zh) | 显示装置和该显示装置的图像渲染方法 | |
CN109461400B (zh) | 用于rgb到rgbw图像转换的子像素渲染方法及装置 | |
KR20210138372A (ko) | 디스플레이 구동장치 및 구동방법 | |
KR102597231B1 (ko) | 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치 | |
US20140125689A1 (en) | Display device, electronic apparatus, and drive method for display device | |
KR101999546B1 (ko) | 색보정 방법, 다원색 매트릭스 표시장치의 기계 구현 방법 및 영상 데이터 신호 처리 장치 | |
US9602800B2 (en) | Image processing method | |
JP5884385B2 (ja) | 画像処理装置、表示装置及び画像処理方法 | |
US11929021B1 (en) | Optical crosstalk compensation for foveated display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |