KR20210079612A - 표시장치 - Google Patents

표시장치 Download PDF

Info

Publication number
KR20210079612A
KR20210079612A KR1020190171589A KR20190171589A KR20210079612A KR 20210079612 A KR20210079612 A KR 20210079612A KR 1020190171589 A KR1020190171589 A KR 1020190171589A KR 20190171589 A KR20190171589 A KR 20190171589A KR 20210079612 A KR20210079612 A KR 20210079612A
Authority
KR
South Korea
Prior art keywords
image data
image
display device
eye image
luminance
Prior art date
Application number
KR1020190171589A
Other languages
English (en)
Inventor
강유진
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020190171589A priority Critical patent/KR20210079612A/ko
Priority to US17/126,005 priority patent/US11343483B2/en
Publication of KR20210079612A publication Critical patent/KR20210079612A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/385Image reproducers alternating rapidly the location of the left-right image components on the display screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

본 개시는 영상데이터의 깊이맵(depth map)정보를 이용하여 표시장치의 소비전력을 저감 시키는 기술에 관한 것이다.

Description

표시장치{Display Device}
본 발명은 표시장치에 관한 것으로, 더욱 상세하게는 영상데이터의 깊이맵(depth map)정보를 이용하여 표시장치의 소비전력을 저감 시키는 기술에 관한 것이다.
일반적으로 3차원을 표현하는 입체 영상은 두 눈을 통한 스테레오 시각의 원리에 의하여 이루어지게 되는데 두 눈의 시차 즉, 두 눈이 약 65mm 정도 떨어져서 존재하기 때문에, 두 눈의 위치의 차이로 왼쪽과 오른쪽 눈은 서로 약간 다른 영상을 보게 된다. 이와 같이, 두 눈의 위치 차이에 의한 영상의 차이점을 양안 시차(disparity)라고 한다. 그리고, 3차원 입체 영상 표시 장치는 상기 양안 시차를 이용하여 왼쪽 눈은 왼쪽 눈에 대한 좌안 영상만 보게 하고, 오른쪽 눈은 오른쪽 눈에 대한 우안 영상만을 볼 수 있게 한다. 이에 따라, 좌/우의 눈은 각각 서로 다른 2차원 영상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 서로 융합하여 본래 3차원 영상의 깊이감과 실제감을 재생하는 것이다. 이러한 능력을 통상 스테레오그라피(Stereography)라 하며, 이를 표시 장치로 응용한 장치를 입체 영상 표시 장치라 한다.
3차원 입체 영상은 2차원 영상인 좌안 영상과 우안 영상간의 조합으로 생성된다. 이러한 입체 영상을 생성하기 위해서는, 좌안 영상 및 우안 영상에 포함된 피사체들 간의 입체적인 시차(disparity)에 대한 정보가 필요하다. 이러한 정보는 깊이맵(depth map)에 담겨진다. 깊이맵은 이미지에 존재하는 픽셀들의 상대적인 거리를 그레이 스케일로 구분하여 나타낸 이미지라고 볼 수 있다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명은 영상데이터를 분석하여 깊이맵을 생성하고, 깊이맵 정보에 따라 영상데이터의 휘도를 조절하여 소비전력을 저감하는데 목적이 있다.
전술한 과제를 해결하기 위한 수단으로, 본 발명은 다음과 같은 특징이 있는 실시예를 가진다.
본 발명의 일 실시예에 따른 표시장치는 복수의 화소를 포함하는 표시 패널;상기 표시 패널에 영상을 표시하기 위한 동작을 수행하는 타이밍 컨트롤러; 를 포함하고, 상기 타이밍 컨트롤러는 좌안 영상과 우안 영상에 포함된 객체(Object)의 시차(Disparity)에 따라 상기 객체의 휘도를 변환하여 출력 영상데이터를 생성하는 제2 영상데이터 변환부를 포함하는 것을 특징으로 한다.
상기 제2 영상데이터 변환부는 상기 객체의 시차가 작을수록 상기 객체의 휘도 감소량을 증가시켜 출력 영상데이터를 생성하는 것을 특징으로 한다.
상기 타이밍 컨트롤러는 2D 영상데이터를 좌안 영상 및 우안 영상 정보를 포함하는 3D 영상데이터로 변환하는 제1 영상데이터 변환부를 포함하는 것을 특징으로 한다.
상기 제2 영상데이터 변환부는 미리 정해진 룩업 테이블을 참조로 상기 객체의 휘도를 조절하는 휘도 저감 계수 값을 결정하고, 상기 휘도 저감 계수 값을 이용하여 휘도를 변환하여 출력 영상데이터를 생성하는 것을 특징으로 한다.
상기 룩업 테이블은 시차 값에 매핑되는 변곡점을 포함하고, 상기 제2 영상데이터 변환부는 상기 변곡점을 선형으로 연결하여 휘도 저감 커브를 생성하는 것을 특징으로 한다.
상기 룩업 테이블은 모드별로 구성된 복수의 변곡점 세트를 포함하고, 상기 타이밍 컨트롤러는 상기 룩업 테이블의 변곡점 세트를 선택하는 모드 신호를 생성하는 모드 설정부를 포함하고, 상기 제2 영상데이터 변환부는 상기 모드 설정부가 생성한 모드 신호에 따라 상기 변곡점 세트를 선택하고, 상기 변곡점 세트를 이용하여 휘도 저감 커브를 생성하는 것을 특징으로 한다.
상기 룩업 테이블은 서브 화소의 색상에 기초하여 변곡점 값을 정한 것을 특징으로 한다.
상기 룩업 테이블은 동일한 시차 값에서 변곡점 값이 서브 화소의 색상별로 다르고, G(녹) 서브 화소의 변곡점 값이 R(적) 서브 화소의 변곡점 값보다 크고, R(적) 서브 화소의 변곡점 값이 B(청) 서브 화소의 변곡점 값보다 큰 것을 특징으로 한다.
상기 룩업 테이블은 상기 객체가 차지하는 화소 개수에 비례하여 상기 변곡점 값을 정한 것을 특징으로 한다.
상기 표시장치는 상기 표시 패널을 격자 형태로 분할한 복수 블록들 각각에 개별적으로 광을 조사하는 복수의 광원을 포함하여 구성된 백 라이트 유닛을 포함하고, 상기 타이밍 컨트롤러는 상기 블록별 시차 정보에 따라 블록별 백 라이트 디밍 신호를 생성하는 로컬디밍 제어부를 더 포함하고, 상기 제2 영상데이터 변환부는 깊이맵 정보에 따라 블록별 시차 정보를 생성하여 상기 로컬디밍 제어부에 출력하는 것을 특징으로 한다.
상기 표시 패널은 좌안 영상을 표시하는 제1 디스플레이 영역과, 우안 영상을 표시하는 제2 디스플레이 영역을 포함하고, 상기 표시장치는 상기 출력 영상데이터를 좌안 영상과 우안 영상으로 구별하여, 상기 제1 디스플레이 영역 및 제2 디스플레이 영역에 공급하는 데이터 구동부를 더 포함하는 것을 특징으로 한다.
본 발명은 영상데이터를 분석하여 깊이맵을 생성하고, 깊이맵 정보에 따라 영상데이터의 휘도를 조절하여 소비전력을 저감하는데 효과가 있다.
또한, 본 발명은 입체 영상 표시장치에 사용되는 경우 소비전력 저감 및 입체 영상의 임장감을 극대화할 수 있는 효과가 있다.
도 1은 일 실시 예에 따른 표시장치를 나타낸 평면도이다.
도 2는 본 발명의 일 실시예에 따른 타이밍 컨트롤러의 블록도이다.
도 3은 좌안 영상의 이미지다.
도 4는 우안 영상의 이미지다.
도 5는 도 3 및 도 4의 이미지를 이용하여 생성한 깊이맵의 이미지이다.
도 6은 본 발명의 일 실시예에 따른 좌안 영상과 우안 영상에 포함된 객체의 시차를 분석하는 방법을 설명하기 위한 도면이다.
도 7은 제2 영상데이터 변환부(150)가 영상데이터를 변환하는 프로세스를 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 휘도 변환 커브(curve)에 관한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 위하여 실제보다 확대하여 도시한 것이다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함하다." 또는 "가지다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 층, 막, 영역, 판 등의 부분이 다른 부분 "상에" 있다고 할 경우, 이는 다른 부분 "바로 위에" 있는 경우뿐만 아니라 그 중간에 또 다른 부분이 있는 경우도 포함한다. 또한, 본 명세서에 있어서, 어느 층, 막, 영역, 판 등의 부분이 다른 부분 상(on)에 형성되었다고 할 경우, 형성된 방향은 상부 방향만 한정되지 않으며 측면이나 하부 방향으로 형성된 것을 포함한다. 반대로 층, 막, 영역, 판 등의 부분이 다른 부분 "아래에" 있다고 할 경우, 이는 다른 부분 "바로 아래에" 있는 경우뿐만 아니라 그 중간에 또 다른 부분이 있는 경우도 포함한다.
이하에서는 설명의 편의를 위하여 본 발명의 일 실시예에 따른 입체 영상 표시 장치가 입체 영상을 표시하는 것으로 설명하고 있으나, 이에 한정되는 것이 아니며, 입체 영상뿐만 아니라 평면 영상을 표시할 수도 있다.
또한, 본 발명의 일 실시예에 따른 입체 영상 표시 장치는 좌안 영상 및 우안 영상으로 이루어진다고 설명하도록 한다. 그러나, 본 발명은 이에 한정되는 것이 아니며, 시점 영상이 3개 이상인 멀티뷰(multi-view)를 구현하는 입체 영상 표시 장치에도 적용될 수 있다.
또한, 본 발명에 따른 시차는 설명의 편의를 위하여 양의 시차, 음의 시차, 영의 시차로 구분하지 않고, 단순히 화면 시차의 크기를 나타낸다. 예컨대, 시차가 3이라는 것은 양의 시차로서 3을 의미할 수도 있고, 음의 시차로서 -3을 의미할 수도 있다.
표시패널은 2D 영상과 3D 영상을 표시하는 장치로서, 액정 표시 장치(Liquid Crystal Display, LCD), 전계 방출 표시 장치(Field Emission Display, FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기 발광 다이오드 표시 장치(Organic Light Emitting Diode, OLED) 등의 평판 표시 장치로 구현될 수 있다.
표시패널 상에는 3D 광학 소자가 결합될 수 있다. 안경 방식의 입체 영상 표시장치는 편광 안경 방식이나 셔터 안경 방식으로 구현될 수 있다. 3D 광학 소자는 무안경 방식에서 시청자의 좌안을 통해 보이는 서브 픽셀들과 우안을 통해 보이는 서브 픽셀들을 분리하는 광학 소자로서, 패럴랙스 베리어나 렌티큘러 렌즈와 같은 광학 부품일 수 있다. 또한, 3D 광학 소자는 안경 방식에서 좌안 영상과 우안 영상의 편광 특성을 다르게 변환하는 패턴 리타더나 액티브 리타더일 수 있다. 패럴랙스 베리어와 렌티큘러 렌즈는 액정패널을 이용하여 전기적으로 제어되는 스위쳐블 베리어(switchable barrier)나 스위쳐블 렌즈(switchable lens)로 구현될 수 있다. 
도 1은 일 실시 예에 따른 표시장치를 나타낸 평면도이다.
표시장치(1)는 영상을 표시하기 위한 장치로써, 유기 발광 표시장치와 같은 자발광성 표시장치거나, 액정 표시장치(LCD), 전기 영동 표시장치(Electro-Phoretic Display; EPD) 및 일렉트로웨팅 표시장치(Electro-Wetting Display; EWD)와 같은 비발광성 표시장치일 수 있다.
표시장치(1)는 다양한 형태로 구현될 수 있다. 예를 들어, 표시장치(1)는 직사각형의 판상으로 구현될 수 있다. 그러나 본 실시 예의 기술적 사상은 이로써 한정되지 않으며, 표시장치(1)는 정사각형, 원형, 타원형, 다각형 등 다양한 형태를 가질 수 있으며, 모서리 일부가 곡면으로 처리되거나 적어도 일 영역에서 두께가 변하는 형태를 가질 수 있다. 또한, 표시장치(1)는 전체 또는 일부가 가요성(flexibility)을 가질 수 있다.
표시장치(1)는 2D 모드에서 2D 영상을 표시하고, 3D 모드에서 3D 영상을 표시한다.
표시장치(1)는 가상 현실(Virtual Reality, VR) 컨텐츠를 표시할 수 있는 웨어러블 표시장치에 사용될 수 있다. 웨어러블 표시장치는 머리에 직접 착용하는 HMD(Headmounted Display)방식 또는 안경 방식일 수 있다.
도 1을 참조하면, 표시장치(1)는 타이밍 컨트롤러(10), 게이트 구동부(20), 데이터 구동부(30) 및 표시 패널(40)을 포함한다.
타이밍 컨트롤러(10)는 외부로부터 영상 신호 및 제어 신호를 수신할 수 있다. 영상 신호는 복수의 계조 데이터를 포함할 수 있다. 제어 신호는 예를 들어, 수평 동기 신호, 수직 동기 신호 및 메인 클럭 신호를 포함할 수 있다.
타이밍 컨트롤러(10)는 영상 신호 및 제어 신호를 표시 패널(40)의 동작 조건에 적합하게 처리하여, 영상 데이터, 게이트 구동 제어 신호 및 데이터 구동 제어 신호를 생성 및 출력할 수 있다.
타이밍 컨트롤러(10)는 회로 보드(50) 상에 실장될 수 있다. 회로 보드(50)에는 타이밍 컨트롤러(10)를 포함하여, 구동 칩들로 구현된 다수의 회로들이 실장될 수 있다. 회로 보드(50)는 인쇄 회로 보드(printed circuit board) 또는 연성 인쇄 회로 보드(flexible printed circuit board)일 수 있으나, 회로 보드(50)의 종류가 이로써 한정되지는 않는다.
타이밍 컨트롤러(10)가 실장된 회로 보드(50)는 연성 필름(60)을 통해 표시 패널(40)에 부착될 수 있다. 연성 필름(60)은 일단이 표시 패널(40)에 부착되고, 타단이 회로 보드(50)에 부착되어, 표시 패널(40)과 회로 보드(50)를 전기적으로 연결할 수 있다. 연성 필름(60)은 표시 패널(40)에 형성되는 패드(미도시)들과 회로 보드(50)의 배선들을 전기적으로 연결하기 위한 복수의 배선들을 포함할 수 있다. 일 실시 예에서, 연성 필름(60)은 이방성 도전 필름(antisotropic conducting film; ACF)을 통해 패드들 상에 부착될 수 있다.
게이트 구동부(20)는 복수의 게이트 라인(GL)들을 통해 표시 패널(40)의 서브 화소(sP)들과 전기적으로 연결될 수 있다. 게이트 구동부(20)는 타이밍 컨트롤러(10)로부터 제공되는 게이트 구동 제어 신호에 기초하여 게이트 신호들을 생성할 수 있다. 게이트 구동부는 생성된 게이트 신호들을 복수의 게이트 라인(GL)들을 통해 서브 화소(sP)들에 제공할 수 있다.
일 실시 예에서, 게이트 구동부(20)는 표시 패널(40)의 비표시 영역(NDA)에 게이트 인 패널(Gate In Panel; GIP) 방식으로 형성될 수 있다. 이러한 실시 예에서, 게이트 구동부(20)는 표시 패널(40)의 비표시 영역(NDA)에서, 표시 영역(DA)의 일측 또는 양측에 인접하게 배치될 수 있다. 다른 실시 예에서, 게이트 구동부(20)는 게이트 인 패널 방식이 아닌 별도의 구동 칩으로 제작되어 연성 필름 등에 실장되고, TAB(Tape Automated Bonding) 방식으로 비표시 영역(NDA)에 부착될 수 있다.
데이터 구동부(30)는 복수의 데이터 라인(DL)들을 통해 표시 패널(40)의 서브 화소(sP)들과 연결될 수 있다. 데이터 구동부(30)는 타이밍 컨트롤러(10)로부터 공급되는 영상 데이터 및 데이터 구동 제어 신호에 기초하여 데이터 신호들을 생성할 수 있다. 데이터 구동부(30)는 생성된 데이터 신호들을 복수의 데이터 라인(DL)들을 통해 서브 화소(sP)들에 제공할 수 있다.
데이터 구동부(30)가 구동 칩으로 제작되는 경우, 데이터 구동부(30)는 COF(Chip On Film) 또는 COP(Chip On Plastic) 방식으로 연성 필름(60)에 실장될 수 있다. 데이터 구동부(30)는 연성 필름(60)을 경유하여 연결된 패드를 통해 데이터 라인(DL)들로 데이터 신호를 출력할 수 있다.
표시 패널(40)은 표시 영역(DA) 및 비표시 영역(NDA)을 포함한다. 표시 영역(DA)은 서브 화소(sP)들이 배치되는 영역으로, 활성 영역(Active Area)으로 명명될 수 있다. 비표시 영역(NDA)은 표시 영역(DA)의 주변에 배치될 수 있다. 예를 들어, 비표시 영역(NDA)은 표시 영역(DA)의 테두리를 따라 배치될 수 있다. 비표시 영역(NDA)은 표시 패널(40) 상에서 표시 영역(DA)을 제외한 나머지 영역을 포괄적으로 의미할 수 있으며, 비활성 영역(Non-Active Area)으로 명명될 수 있다.
서브 화소(sP)들은 예를 들어, 표시 패널(40) 상에 매트릭스 형태로 배열될 수 있다. 각각의 서브 화소(sP)는 대응되는 게이트 라인(GL) 및 데이터 라인(DL)에 전기적으로 연결될 수 있다. 이러한 서브 화소(sP)들 게이트 라인(GL)들 및 데이터 라인(DL)들을 통해 공급되는 게이트 신호 및 데이터 신호에 대응하는 휘도로 발광할 수 있다.
각각의 서브 화소(sP)는 제1 내지 제3 색 중 어느 하나의 색을 표시할 수 있다. 일 실시 예에서, 각각의 서브 화소(sP)는 레드, 그린 및 블루 중 어느 하나의 색을 표시할 수 있다. 다른 실시 예에서, 각각의 서브 화소(sP)는 시안, 마젠타 및 옐로우 중 어느 하나의 색을 표시할 수 있다. 다양한 실시 예에서, 서브 화소(sP)들은 4개 이상의 색들 중 어느 하나를 표시하도록 구성될 수 있다. 예를 들어, 각각의 서브 화소(sP)는 레드, 그린, 블루 및 화이트 중 어느 하나의 색을 표시할 수도 있다.
비표시 영역(NDA)에는 서브 화소(sP)를 구동하기 위한 구동부로써, 예를 들어 게이트 구동부(20)가 마련될 수 있다. 또한, 비표시 영역(NDA)에는 연성 필름을 통해 데이터 구동부(30) 및/또는 회로 보드(50)에 전기적으로 연결되는 복수의 패드들이 마련될 수 있다. 패드들은 절연층에 의해 덮이지 않고 표시 패널(40)의 외부로 노출되어, 상술한 데이터 구동부(30) 및 회로 보드(50) 등과 전기적으로 연결될 수 있다.
도 2는 본 발명의 일 실시예에 따른 타이밍 컨트롤러의 블록도이다.
타이밍 컨트롤러(10)는 입력 영상데이터를 분석하여 깁이맵을 생성하고, 깊이맵 정보에 기초하여 휘도가 조절되도록 영상데이터를 변환하여 데이터 구동부(30)에 출력한다. 또한, 표시장치가 백 라이트 유닛(BLU)과 액정 표시장치(LCD)로 구성된 경우 타이밍 컨트롤러(10)는 깊이맵 정보에 기초하여 휘도가 조절되도록 영상데이터를 변환하여 데이터 구동부(30)에 출력할 뿐만 아니라 백라이트유닛(BLU) 디밍 신호(BBDS)를 백 라이트 유닛(BLU) 구동부에 출력한다.
본 발명의 실시예에 따른 표시 장치는 깊이맵 정보에 기초하여 입력 영상데이터의 휘도를 변환하여 출력하는 타이밍 컨트롤러(10)를 포함하여, 소비전력을 저감하며, 영상의 임장감을 높이는 효과가 있다. 또한, 상기 타이밍 컨트롤러(10)가 가상 현실(VR) 컨텐츠를 표시할 수 있는 웨어러블 표시장치 등 입체 영상 표시장치에 사용될 경우, 입체 영상의 임장감을 더욱 극대화할 수 있는 효과가 있다.
도 2를 참조하여 본 발명의 실시예에 따른 타이밍 컨트롤러(10)를 설명하면, 타이밍 컨트롤러(10)는 제1 영상데이터 변환부(110), 깊이맵 생성부(120), 제2 영상데이터 변환부(150), 모드 설정부(160), 로컬디밍 제어부(170)를 포함한다.
제1 영상데이터 변환부(110)는 2D 입력 영상데이터(I(i,j))를 3D 입력 영상데이터((L(i,j)), R(i,j))로 변환한다. 깊이맵 생성부(130)에서 깊이맵(depth map)을 생성하기 위해서는 좌안 영상 및 우안 영상 정보가 필요한데, 입력 영상 데이터가 2D(I(i,j)) 인 경우에는 좌안 영상 및 우안 영상 정보를 가지고 있는 3D 입력 영상데이터((L(i,j)), R(i,j))가 필요하기 때문이다.
2D 입력 영상데이터(I(i,j))를 3D 입력 영상데이터((L(i,j)), R(i,j))로 변환하는 방법은 인간의 원근간 학습 효과를 이용한 방법으로 2D 영상데이터를 3D 영상데이터로 변환하며, 모델링(Modeling) 기법, 움직임 추정(예측)(Motion Estimation) 기법 등이 있다. 모델링 기법은 원근법을 이용하여 2D 영상을 3D 영상으로 변환하는 방법으로서, 2D 입력 영상의 경계 정보(혹은 윤곽 정보)와 명암 정보를 이용하여 깊이 정보를 예측한다. 모델링 기법은 정지 영상에 유용하며 비교적 알고리즘이 간단하다. 모션 평가 기법은 운동시차를 이용하여 2D 영상을 3D 영상으로 변환하는 방법으로서, 이웃한 프레임간 물체의 움직임에서 깊이 정보를 예측한다.
제1 영상데이터 변환부(110)는 2D 입력 영상데이터(I(i,j))로부터 좌안 영상데이터((L(i,j))와 우안 영상데이터(R(i,j))를 생성한다. 본 발명의 실시예에 따른 2D-3D 영상 변환 방법은 2D 영상을 3D 영상으로 변환하므로 깊이값을 기반으로 좌안 영상과 우안 영상의 양안 시차를 구현하는 어떠한 입체 영상 표시장치에도 적용 가능하다.
깊이맵 생성부(120)는, 3D 영상데이터로부터 시차(disparity)를 분석하여 깊이맵을 생성한다. 3D 영상데이터는 좌안 영상 신호(L(i,j)) 및 우안 영상 신호(R(i,j))를 포함한다. 좌안 영상 신호(L(i,j)) 및 우안 영상 신호(R(i,j))는 각 화소의 휘도 정보를 담고 있으며, 휘도는 정해진 수효, 예를 들어 1024(=210), 256(=28), 또는 64(=26)의 계조(gray)를 가지고 있다. 시차(D(i,j))는 하나의 객체(Object)에 대해 좌안의 망막상의 위치와 우안의 망막상의 위치의 차이를 의미한다. 시차의 크기에 따라 깊이가 결정된다. 여기서는 하나의 객체(Object)에 대해 좌안 영상에서의 객체(Object) 위치와 우안 영상에서의 객체(Object) 위치의 차이, 즉 좌표의 차이를 말한다.
객체(Object)는 동물, 식물, 자동차, 선박, 항공기 등 서로 구별되는 독립적 인식 대상으로 정의된다. 객체 각각은 독립적으로 인식되는 세부 객체들을 포함할 수 있다. 세부 객체들은 객체 내에서 평면 상에 존재하지 않은 객체 종속적 대상들로 정의되며 일 예로, 사람의 얼굴은 눈, 코, 턱 등의 평면 상에 존재하지 않은 다수의 세부 객체들을 포함한다. 또한, 사람은 움직임에 따라 몸과 평면 상에 존재하지 않은 팔, 다리 등의 세부 객체들을 포함한다.
깊이맵은 같은 장면의 두 영상에서 정합되는 점들을 찾아 이 점들의 차이를 표현한 것으로서, 기준 영상의 각 점이 대응 영상에서 어느 위치에 나타나는지를 나타낸다. 이때, 좌안 영상 및 우안 영상 중 어느 하나가 기준 영상이 되고, 나머지 하나가 대응 영상이 된다.
깊이맵 생성부(120)는 BMA(Block Matching Algorithm)을 이용하여 좌안 영상 및 우안 영상에 대한 깊이맵을 생성한다. 보다 구체적으로 설명하면, BMA(Block Matching Algorithm)에 따라 좌안 영상(L(i,j) 및 우안 영상(R(i,j) 중 하나를 기준 영상으로 정하고, 기준 영상에 일정한 크기의 블럭을 지정한다. 그리고, 깊이맵 생성부(120)는 다른 하나의 영상에서 기준 영상과 대응되는 블럭의 좌표를 찾아, 두 영상 간에 블록 위치의 차이를 깊이맵으로 표현한다.
깊이맵 생성부(120)는 도 3에 도시된 좌안 영상 및 도 4에 도시된 우안 영상이 입력되면, 도 5와 같은 깊이맵을 생성할 수 있다. 깊이맵은 이미지에 존재하는 픽셀들의 상대적인 거리를 그레이 스케일로 구분하여 나타낸 이미지라고 볼 수 있다. 깁이맵 생성부(120)의 깊이맵 생성에 대한 구체적인 설명은 도 6을 참조하여 후술한다.
제2 영상데이터 변환부(150)는 좌안 영상(L(i,j)과 우안 영상(R(i,j)에 포함된 객체(Object)의 시차(D(i,j)에 따라 객체(Object) 의 휘도를 변환하여 출력 영상데이터(L*(i,j), R*(i,j))를 생성하여 데이터 구동부(30)에 전송한다. 시차(D(i,j))는 하나의 객체(Object)에 대해 좌안의 망막상의 위치와 우안의 망막상의 위치의 차이를 의미하며, 깊이맵 생성부(120)가 생성한 깊이맵 정보에 포함되어 있다.
제2 영상데이터 변환부(150)는 휘도 변환 커브에 기초하여 입력 영상데이터(L(i,j), R(i,j))의 휘도를 변환하여 출력 영상데이터(L*(i,j), R*(i,j))를 생성할 수 있다. 휘도 변환 커브는 복수개로 구성될 수 있다. 모드 설정부(160)에서 생성된 모드 신호에 따라 제2 영상데이터 변환부(150)가 입력 영상데이터(L(i,j), R(i,j))의 휘도를 변환에 사용하는 휘도 변환 커브가 결정될 수 있다. 휘도 변환 커브는 메모리(200)에 기 저장된 룩업 테이블(Look-Up Table)의 변곡점 세트에 기초하여 생성될 수 있다. 일 실시예에 따른 휘도 변환 커브는 변곡점 세트에 포함된 각 변곡점을 선형으로 연결하여 생성할 수 있다.
제2 영상데이터 변환부(150)가 생성하는 출력 영상데이터(L*(i,j), R*(i,j))는 데이터 구동부(30)에 전송된다. 데이터 구동부(30)는 휘도 변환된 출력 영상데이터(L*(i,j), R*(i,j)) 및 데이터 구동 제어 신호에 기초하여 데이터 신호를 생성한다. 데이터 구동 제어 신호는 휘도 변환된 출력 영상데이터(L*(i,j), R*(i,j))를 좌안 영상데이터(L*(i,j))와 우안 영상데이터(R*(i,j))로 구별하여 제어할 수 있다. 데이터 구동부(30)는 생성된 데이터 신호들을 데이터 라인들을 통하여 표시 패널의 서브 화소(sP)들에 제공한다. 데이터 구동부(30)는 좌안 영상데이터(L*(i,j))를 좌안 영상 표시 화소(L_Sp)에 공급하고, 우안 영상데이터(R*(i,j))를 우안 영상 표시 화소(R_sP)에 공급할 수 있다.
좌안 영상 표시 화소(L_Sp)는 표시 패널의 제1 디스플레이 영역에 배치되고, 우안 영상 표시 화소(R_sP)는 표시 패널의 제2 디스플레이 영역에 배치될 수 있다. 좌안 영상 표시 화소(L_Sp)와 우안 영상 표시 화소(R_sP)는 3D 입체영상 표시장치의 표시 패널에 다양한 형태로 배열될 수 있다. 입체 영상 표시장치가 HMD(Headmounted Display) 방식 또는 안경 방식 등의 웨어러블 표시장치로 구현되는 경우, 좌안 영상 표시 화소(L_Sp)는 좌안에 인접하는 좌안 표시패널에 배치되고, 우안 영상 표시 화소(R_sP)는 우안에 인접하는 우안 표시패널에 배치될 수 있다.
제2 영상데이터 변환부(150)가 영상데이터를 변환하는 구체적인 프로세스는 도 7 내지 도 8을 참조하여 후술한다.
또한, 제2 영상 데이터 변환부(150)는 깊이맵 정보에 따라 블록별 시차 정보(BDI)를 생성하여 로컬디밍 제어부(170)에 출력할 수 있다. 제2 영상 데이터 변환부(150)는 영상 데이터에서 화소별 깊이 데이터를 추출하여 복수의 블록 각각에 대응되는 블록별 깊이맵에 맵핑한 후, 블록별 깊이맵에 따라 블록별 시차 정보(BDI)를 생성한다. 블록별 시차 정보(BDI)는 백 라이트 유닛(BLU)과 액정 표시장치(LCD)로 구성된 표시장치에서 로컬 디밍 제어에 이용될 수 있다. 제2 영상 데이터 변환부(150)가 생성한 블록별 시차 정보(BDI)는 로컬 디밍 제어부(170)로 전송되고, 로컬 디밍 제어부(170)는 블록별 시차 정보(BDI)에 따라 블록별 디밍 값을 보정하여 블록별 백 라이트 디밍 신호(BBDS)를 생성한다.
모드 설정부(160)는 메모리(200)에 기 저장된 룩업 테이블(Look-Up Table)의 변곡점 세트를 선택하는 모드 신호를 생성한다. 모드 설정부(160)에서 생성된 모드 신호에 따라 제2 영상 데이터 변환부(150)에서 영상 데이터 변환에 사용되는 휘도 변환 커브가 결정된다. 모드 설정부(160)는 사용자 인터페이스로 구현될 수 있다. 사용자는 선택에 따라 원본 영상을 그대로 시청하거나, 전방 객체(front object)와 후방 객체(rear object)의 휘도 대비비를 향상시키는 정도를 모드 선택을 통하여 결정할 수 있다.
로컬디밍 제어부(170)는 표시장치가 백 라이트 유닛(BLU)과 액정 표시장치(LCD)로 구성된 경우 타이밍 컨트롤러(10)에 포함될 수 있다.
로컬 디밍 제어부(170)는 제2 영상데이터 변환부(150)로부터 제공되는 블록별 시차 정보(BDI)에 따라 상기 블록별 디밍 값을 보정하여 블록별 백 라이트 디밍 신호(BBDS)를 생성한다.
백 라이트 유닛(BLU)은 액정 표시 패널을 격자 형태로 분할한 복수 블록들 각각에 개별적으로 광을 조사하는 복수의 광원을 포함하여 구성된다.
복수의 광원들 각각은 발광 다이오드(LED)로 이루어질 수 있으며, 각 블록은 적어도 하나의 광원을 포함한다. 이러한 복수의 광원들 각각은 백 라이트 유닛 구동부(300)의 구동에 따라 각 블록 단위로 개별 구동되어 각 블록에 중첩되는 액정 표시 패널의 각 영역에 휘도 조절된 광을 조사한다.
백 라이트 유닛 구동부(300)는 로컬디밍 제어부(170)로부터 제공되는 블록별 백 라이트 디밍 신호(BBDS)에 따라 각 블록 단위로 광원을 구동함으로써 각 블록에 중첩되는 액정 표시 패널의 각 영역에 휘도 조절된 광이 조사되도록 한다.
제2 영상 데이터 변환부(150)는 깊이맵 정보에 따라 블록별 시차 정보(BDI)를 생성할 수 있다. 영상 데이터에서 화소별 깊이 데이터를 추출하여 복수의 블록 각각에 대응되는 블록별 깊이맵에 맵핑한 후, 블록별 깊이맵에 따라 블록별 시차 정보(BDI)를 생성할 수 있다.
로컬 디밍 제어부(170)는 복수의 블록 각각에 표시될 영상 데이터(L- *(i,j), R- *(i,j))를 블록별로 분석하여 복수의 광원들을 각 블록 단위로 구동시키기 위한 블록별 디밍 값을 생성한다. 그리고, 로컬 디밍 제어부(170)는 제2 영상데이터 변환부(150)로부터 제공되는 블록별 시차 정보(BDI)에 따라 블록별 백 라이트 디밍 신호(BBDS)를 생성한다.
도 6은 본 발명의 일 실시예에 따른 좌안 영상과 우안 영상에 포함된 객체의 시차를 분석하는 방법을 설명하기 위한 도면이다.
도 6을 참조하여, 깁이맵 생성부(120)의 깊이맵 생성에 대하여 더 구체적으로 살펴보면, 좌안 영상에 포함된 제1 객채(AL)와 우안 영상에 포함된 제1 객체(AR)가 사용자에게 제1 객체(A)를 인식시킨다. 좌안 영상에 포함된 제1 객채(AL)와 우안 영상에 포함된 제1 객체(AR)는 제1 위치 차이값 D1 만큼 거리가 떨어져 있다. 화면의 우측 방향이 양의 방향이므로, 좌안 영상에 포함된 제1 객채(AL)와 우안 영상에 포함된 제1 객체(AR)의 위치를 뺀 제1 위치 차이값 D1은 양의 값이 된다.
좌안 영상에 포함된 제2 객채(BL)와 우안 영상에 포함된 제2 객체(BR)가 사용자에게 제2 객체(B)를 인식시킨다. 좌안 영상에 포함된 제2 객채(BL)와 우안 영상에 포함된 제2 객체(BR)는 동일한 위치에 표시되므로, 제2 위치 차이값 D2는 0의 값이 된다.
좌안 영상에 포함된 제3 객채(CL)와 우안 영상에 포함된 제3 객체(CR)가 사용자에게 제3 객체(C)를 인식시킨다. 좌안 영상에 포함된 제3 객채(CL)와 우안 영상에 포함된 제3 객체(CR)는 제3 위치 차이값 D3 만큼 거리가 떨어져 있다. 화면의 우측 방향이 양의 방향이므로, 좌안 영상에 포함된 제3 객채(CL)와 우안 영상에 포함된 제3 객체(CR)의 위치를 뺀 제3 위치 차이값 D3은 음의 값이 된다.
이와 같이 좌안 영상에 포함된 객체의 위치와 우안 영상에 포함된 객체의 위치의 차이 값이 양의 값인 경우 객체가 사용자에게 가까이, 즉 객체가 표시장치에서 돌출된 위치에 존재하는 것으로 인식된다(front object).
그리고 좌안 영상에 포함된 객체의 위치와 우안 영상에 포함된 객체의 위치의 차이 값이 음의 값인 경우 객체가 사용자에게 멀리, 즉 객체가 표시장치 안쪽에 위치하는 것으로 인식된다(rear object).
깊이맵은 이미지에 존재하는 픽셀들의 상대적인 거리인 시차(disparity)를 그레이 스케일로 구분하여 나타낸 이미지이다. 즉, 양의 값인 D1을 가지는 제1 객체(A)를 가장 밝은 그레이 값으로, 0의 값인 D2를 가지는 제2 객체(B)를 중간 그레이 값으로, 그리고 음의 값인 D3을 가지는 제3 객체(C)를 가장 어두운 그레이 값으로 구분하여 깊이맵을 생성할 수 있다. 따라서 깊이맵에는 각 객체의 시차(disparity) 값 정보를 포함한다.
도 7은 제2 영상데이터 변환부(150)가 영상데이터를 변환하는 프로세스를 설명하기 위한 순서도이다. 도 8은 본 발명의 일 실시예에 따른 휘도 변환 커브(curve)이다.
도 7 내지 도 8을 참조하여 제2 영상데이터 변환부(150)가 영상데이터를 변환하는 프로세스를 구체적으로 설명한다.
먼저 제2 영상 데이터 변환부(150)는 한 프레임 영상 정보에서 깊이맵 정보의 최소(min), 최대(max) 시차 값을 도출한다(S151). 시차 값은 음의 값을 가질 수 있다. 깊이맵 정보의 최소(min)값은 크기뿐만 아니라 부호도 고려된 것으로서, 최소(min) 값은 음의 값을 가질 수 있다.
다음 단계로 제2 영상 데이터 변환부(150)는 깊이맵 정보를 정규화한다(S152). 정규화된 시차 D_n(i,j)는 [수학식 1]과 같다.
Figure pat00001
여기서 i,j는 픽셀의 위치이고,
D(i,j)는 i,j 픽셀에서의 좌안 영상과 우안 영상의 시차(disparity) 값이다.
다음 단계로 제2 영상 데이터 변환부(150)는 모드 설정부(160)로부터 모드 설정 정보를 입력 받는다(S153).
다음 단계로 제2 영상 데이터 변환부(150)는 메모리(200)에 기 저장된 룩업 테이블(Look-Up Table)을 이용하여 휘도 저감 계수(α)를 결정한다(S154). 룩업 테이블(Look-Up Table)은 변곡점을 정규화된 시차 D_n(i,j)와 매핑한다. 휘도 저감 계수(α)는 시차 D(i,j) 또는 정규화된 시차 D_n(i,j)값에 따라 결정된다. 휘도 저감 계수(α)는 복수의 상기 변곡점을 선형으로 연결한 값을 가진다. 휘도 저감 계수(α)는 객체의 시차가 작을수록 단계적으로 감소하도록 구성하여, 입체영상 표시장치에서 표현되는 입체 영상의 임장감을 극대화할 수 있다. 또한 휘도 감소로 인하여 표시장치의 소비전력을 저감할 수 있다. 휘도 저감 계수 α는 0보다 크고, 1보다 작거나 같은 값을 가질 수 있다.도 8에 도시된 휘도 변환 커브(curve)에서 가로축은 정규화된 시차 D_n(i,j) 값이고, 세로 축은 휘도 저감 계수(α) 값이다.
도 8은 휘도 변환 커브1 및 커브2의 각 변곡점이 선형으로 연결된 것을 도시하고 있으나, 이는 하나의 예시로서 본 발명은 이에 한정되지 않으며, 각 변곡점을 2차 내지 N차 곡선으로 연결하는 등 다양한 방식으로 휘도 변환 커브를 생성할 수도 있다.
[표 1]은 휘도 변환 커브1 및 커브2의 변곡점을 정규화된 시차 D_n(i,j)와 매핑한 룩업 테이블(Look-Up Table)이다. 룩업 테이블(Look-Up Table)은 모드별로 구성된 복수의 변곡점 세트를 포함한다. [표 1]에는 2개의 변곡점 세트가 구성되어 있으며, curve1, curve2 열(row)이 각각 변곡점 세트를 구성한다.
Figure pat00002
휘도 변환 커브 및 룩업 테이블(Look-Up Table)을 정규화된 시차 D_n(i,j)에 대해서 생성하는 것은 일 예시이며, 휘도 변환 커브는 시차 D(i,j)에 대한 휘도 저감 계수(α) 관계 그래프로 생성될 수 있다. 룩업 테이블(Look-Up Table) 또한 시차 D(i,j)와 변곡점이 매핑된 테이블로 생성되도록 구성될 수도 있다.
정규화된 시차 D_n(i,j)에 대한 휘도 저감 계수(α) 값은 표시장치 사용자의 인지 열화 정도 및 소비전력 저감 정도를 고려하여 실험적으로 도출할 수 있다.
휘도 변환 커브1과 커브2를 비교하면, 커브1의 휘도 저감 계수(α)가 커브2보다 완만하게 감소되고 있다. 커브2는 전방 객체(front object)와 후방 객체(rear object)의 휘도 대비비를 향상시킴으로써 영상의 임장감을 극대화하는 동시에 소비전력도 최대한 절감할 수 있다.
다음 단계로 제2 영상 데이터 변환부(150)는 결정된 휘도 저감 계수 (α)를 이용하여 영상데이터를 변환한다(S155). 변환된 영상데이터 L- *(i,j), R- *(i,j)는 하기 수학식 2와 같다.
Figure pat00003
휘도 저감 계수 α는 0보다 크고, 1보다 작거나 같은 값을 가질 수 있다.
한편, 룩업 테이블(Look-Up Table)에 매핑된 변곡점 값을 정하는데 서브 화소의 색상(color)이 고려될 수 있다. 예를 들면 하나의 화소가 R(적), G(녹), B(청)의 서브 화소로 구성된다고 할 때, R,B의 서브 화소에 대한 변곡점 값을, G의 서브 화소에 대한 변곡점 값보다 더 낮출 수 있다. 사람의 눈은 G(녹)에 가장 민감하고, 그 다음으로 R(적)에 민감하며, B(청)에 반응하는 정도는 상대적으로 낮기 때문이다. G(녹)에 대한 화소는 휘도 변환 커브1로, R(적) 및 B(청)의 화소는 휘도 변환 커브2에 대응하도록 휘도 저감 계수(α) 값을 정할 수 있다.
또한, 룩업 테이블(Look-Up Table)에 매핑된 변곡점 값을 정하는데 객체(object)가 차지하는 화소의 개수가 고려될 수 있다. 객체(object)가 차지하는 화소 면적이 큰 경우, 휘도 조절이 사용자에게 이질감을 불러 일으킬 수 있다. 따라서 객체(object)가 차지하는 화소 면적이 클수록 휘도 저감 계수(α)가 크도록 룩업 테이블(Look-Up Table)에 매핑된 변곡점 값 크게 정하는 것이 바람직하다.
모드 설정부(160)는 메모리(200)에 기 저장된 룩업 테이블(Look-Up Table)의 변곡점 세트를 선택하는 모드 신호를 생성한다. 모드 설정부(160)는 사용자 인터페이스로 구현될 수 있다. 사용자는 선택에 따라 원본 영상을 그대로 시청하거나, 전방 객체(front object)와 후방 객체(rear object)의 휘도 대비비를 향상시키는 정도를 모드 선택을 통하여 결정할 수 있다.
예를 들면 mode 0은 변곡점 값이 모두 1로 구성된 변곡점 세트일 수 있다. mode 0에서 표시장치는 원본 영상을 그대로 출력한다. mode 1은 curve1에 해당하는 변곡점 세트일 수 있다. 모드 신호 mode 2는 curve2에 해당하는 변곡점 세트일 수 있다. 사용자가 전방 객체(front object)와 후방 객체(rear object)의 휘도 대비비를 극대화하고 소비 전력을 최대로 절감하고자 하는 경우 mode 2를 선택할 수 있다. mode의 개수 및 룩업 테이블(Look-Up Table)의 변곡점 세트의 개수는 제조자의 선택에 따라 다양하게 구성될 수 있다.
본 발명의 다양한 실시예에 따라, 표시장치는 직사각형의 판상은 물론, 정사각형, 원형, 타원형, 다각형 등 다양한 형태를 가질 수 있다. 표시장치는 2D 영상 및 3D 영상을 표시할 수 있으며, 가상 현실(VR) 컨텐츠를 표시할 수 있는 웨어러블 표시장치에 사용될 수 있다.
본 개시에서 소개된 다양한 실시예는 입력 영상 데이터를 분석하여 객체의 깊이(또는 시차) 정보에 기초하여, 전방(front)의 객체는 휘도를 유지하고, 후방(rear)의 객체는 휘도를 감소시켜 영상을 표시하는데 특징이 있다. 그 결과 본 발명의 표시장치는 소비전력을 저감하고, 영상의 임장감을 높이는 효과가 있다.
특히 본 개시에서 소개된 입력 영상 데이터를 분석하여 전방(front)의 객체는 휘도를 유지하고, 후방(rear)의 객체는 휘도를 감소시켜 영상을 표시하는 기술적 사상이, 가상 현실(VR) 컨텐츠를 표시할 수 있는 웨어러블 표시장치 등 입체 영상 표시장치에 사용될 경우, 입체영상에서 상대적으로 흐릿하게 보이는 후방 객체(rear Object)의 휘도를 감소시켜 영상을 표시하기 때문에, 입체 영상의 임장감을 더욱 극대화할 수 있다.
이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 청구범위에 포함되는 것으로 해석되어야 한다.
10: 타이밍 컨트롤러
20: 게이트 구동부
30: 데이터 구동부
40: 표시 패널
50: 회로 보드
60: 연성 필름
110: 제1 영상데이터 변환부
120: 깊이맵 생성부
150: 제2 영상데이터 변환부
160: 모드 설정부
170: 로컬디밍 제어부
200: 메모리
300: 백라이트 유닛 구동부

Claims (11)

  1. 복수의 화소를 포함하는 표시 패널;
    상기 표시 패널에 영상을 표시하기 위한 동작을 수행하는 타이밍 컨트롤러; 를 포함하고,
    상기 타이밍 컨트롤러는 좌안 영상과 우안 영상에 포함된 객체(Object)의 시차(Disparity)에 따라 상기 객체의 휘도를 변환하여 출력 영상데이터를 생성하는 제2 영상데이터 변환부를 포함하는 표시장치.
  2. 제1항에 있어서
    상기 제2 영상데이터 변환부는
    상기 객체의 시차가 작을수록 상기 객체의 휘도 감소량을 증가시켜 출력 영상데이터를 생성하는 것을 특징으로 하는 표시장치.
  3. 제1항에 있어서
    상기 타이밍 컨트롤러는
    2D 영상데이터를 좌안 영상 및 우안 영상 정보를 포함하는 3D 영상데이터로 변환하는 제1 영상데이터 변환부를 포함 하는 표시장치.
  4. 제1항에 있어서
    상기 제2 영상데이터 변환부는
    미리 정해진 룩업 테이블을 참조로 상기 객체의 휘도를 조절하는 휘도 저감 계수 값을 결정하고,
    상기 휘도 저감 계수 값을 이용하여 휘도를 변환하여 출력 영상데이터를 생성하는 것을 특징으로 하는 표시장치.
  5. 제4항에 있어서,
    상기 룩업 테이블은 시차 값에 매핑되는 변곡점을 포함하고,
    상기 제2 영상데이터 변환부는 상기 변곡점을 선형으로 연결하여 휘도 저감 커브를 생성하는 것을 특징으로 하는 표시장치.
  6. 제5항에 있어서
    상기 룩업 테이블은 모드별로 구성된 복수의 변곡점 세트를 포함하고,
    상기 타이밍 컨트롤러는 상기 룩업 테이블의 변곡점 세트를 선택하는 모드 신호를 생성하는 모드 설정부를 포함하고,
    상기 제2 영상데이터 변환부는 상기 모드 설정부가 생성한 모드 신호에 따라 상기 변곡점 세트를 선택하고, 상기 변곡점 세트를 이용하여 휘도 저감 커브를 생성하는 것을 특징으로 하는 표시장치.
  7. 제5항에 있어서
    상기 룩업 테이블은
    서브 화소의 색상에 기초하여 변곡점 값을 정한 것을 특징으로 하는 표시장치.
  8. 제7항에 있어서
    상기 룩업 테이블은
    동일한 시차 값에서 변곡점 값이 서브 화소의 색상별로 다르고,
    G(녹) 서브 화소의 변곡점 값이 R(적) 서브 화소의 변곡점 값보다 크고, R(적) 서브 화소의 변곡점 값이 B(청) 서브 화소의 변곡점 값보다 큰 것을 특징으로 하는 표시장치.
  9. 제5항에 있어서
    상기 룩업 테이블은
    상기 객체가 차지하는 화소 개수에 비례하여 상기 변곡점 값을 정한 것을 특징으로 하는 표시장치.
  10. 제1항에 있어서,
    상기 표시장치는 상기 표시 패널을 격자 형태로 분할한 복수 블록들 각각에 개별적으로 광을 조사하는 복수의 광원을 포함하여 구성된 백 라이트 유닛을 포함하고,
    상기 타이밍 컨트롤러는 상기 블록별 시차 정보에 따라 블록별 백 라이트 디밍 신호를 생성하는 로컬디밍 제어부를 더 포함하고,
    상기 제2 영상데이터 변환부는 깊이맵 정보에 따라 블록별 시차 정보를 생성하여 상기 로컬디밍 제어부에 출력하는 표시장치.
  11. 제1항에 있어서,
    상기 표시 패널은 좌안 영상을 표시하는 제1 디스플레이 영역과, 우안 영상을 표시하는 제2 디스플레이 영역을 포함하고,
    상기 표시장치는 상기 출력 영상데이터를 좌안 영상과 우안 영상으로 구별하여, 상기 제1 디스플레이 영역 및 제2 디스플레이 영역에 공급하는 데이터 구동부를 더 포함하는 것을 특징으로 하는 표시장치.
KR1020190171589A 2019-12-20 2019-12-20 표시장치 KR20210079612A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190171589A KR20210079612A (ko) 2019-12-20 2019-12-20 표시장치
US17/126,005 US11343483B2 (en) 2019-12-20 2020-12-17 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171589A KR20210079612A (ko) 2019-12-20 2019-12-20 표시장치

Publications (1)

Publication Number Publication Date
KR20210079612A true KR20210079612A (ko) 2021-06-30

Family

ID=76441712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171589A KR20210079612A (ko) 2019-12-20 2019-12-20 표시장치

Country Status (2)

Country Link
US (1) US11343483B2 (ko)
KR (1) KR20210079612A (ko)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8520061B2 (en) * 2009-12-14 2013-08-27 3M Innovative Properties Company Zero-D dimming for 3D displays
EP2557559A1 (en) * 2010-04-05 2013-02-13 Sharp Kabushiki Kaisha Three-dimensional image display device, display system, drive method, drive device, display control method, display control device, program, and computer-readable recording medium
JP5255028B2 (ja) * 2010-08-30 2013-08-07 シャープ株式会社 画像処理装置、表示装置、再生装置、記録装置、画像処理装置の制御方法、情報記録媒体、画像処理装置の制御プログラム及びコンピュータ読取可能な記録媒体
KR101824125B1 (ko) * 2010-09-10 2018-02-01 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치
JP5594477B2 (ja) * 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
KR20120114022A (ko) * 2011-04-06 2012-10-16 삼성디스플레이 주식회사 입체 영상 표시 장치
JP2013005259A (ja) * 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101820497B1 (ko) * 2011-07-27 2018-01-22 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
KR101831652B1 (ko) * 2011-09-07 2018-02-26 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
KR20130053606A (ko) * 2011-11-15 2013-05-24 삼성디스플레이 주식회사 입체 영상 표시 시스템 및 그의 구동 제어 방법
GB2500712A (en) * 2012-03-30 2013-10-02 Sony Corp An Apparatus and Method for transmitting a disparity map
CN104123926B (zh) * 2013-04-25 2016-08-31 乐金显示有限公司 伽马补偿方法及使用该伽马补偿方法的显示装置
KR101670365B1 (ko) 2013-05-21 2016-10-28 엘지이노텍 주식회사 발광소자 어레이, 백라이트 장치 및 조명 장치
KR20150069413A (ko) * 2013-12-13 2015-06-23 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
KR20150070649A (ko) * 2013-12-17 2015-06-25 삼성디스플레이 주식회사 표시 장치 및 영상 표시 방법
WO2019099654A1 (en) * 2017-11-16 2019-05-23 Synaptics Incorporated Compensation technology for display panel
KR20200101570A (ko) * 2019-02-19 2020-08-28 삼성디스플레이 주식회사 소스 드라이버 및 이를 포함하는 표시 장치

Also Published As

Publication number Publication date
US11343483B2 (en) 2022-05-24
US20210195158A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP7230082B2 (ja) 仮想および拡張現実システムならびに方法
US10598948B2 (en) Display device and display method
KR20210028240A (ko) 디스플레이 처리 회로
US8154543B2 (en) Stereoscopic image display device
KR102172388B1 (ko) 곡면 디스플레이 및 이의 영상 처리 방법
US10699673B2 (en) Apparatus, systems, and methods for local dimming in brightness-controlled environments
US20150304623A1 (en) Three dimensional image display device and method of processing three dimensional images
KR101731113B1 (ko) 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치
KR101780813B1 (ko) 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치
US9756321B2 (en) Three-dimensional image display device and method of displaying three dimensional image
KR20210079612A (ko) 표시장치
TWI449956B (zh) 主動式偏光三維顯示裝置
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
CN110072098B (zh) 立体影像调整方法与显示设备
US9245467B2 (en) Stereoscopic display device, image processing device and image processing method
KR20110096812A (ko) 3d 풀 컬러 led 전광판
JP5721210B2 (ja) 画像投影装置、画像処理装置、画像処理方法、画像処理プログラム、及び画像データの使用方法
CN115220240A (zh) 适应眼睛位置的立体影像数据的产生方法与显示系统
KR102080611B1 (ko) 이미지 생성 장치 및 방법
TW202409649A (zh) 頭部追蹤式多視像顯示器和方法
JP2015142142A (ja) 表示装置及びプログラム
CN113589546A (zh) 显示装置及其驱动方法

Legal Events

Date Code Title Description
A201 Request for examination