KR101973365B1 - 표시 장치 및 이를 이용한 입체 영상 표시 방법 - Google Patents

표시 장치 및 이를 이용한 입체 영상 표시 방법 Download PDF

Info

Publication number
KR101973365B1
KR101973365B1 KR1020120001011A KR20120001011A KR101973365B1 KR 101973365 B1 KR101973365 B1 KR 101973365B1 KR 1020120001011 A KR1020120001011 A KR 1020120001011A KR 20120001011 A KR20120001011 A KR 20120001011A KR 101973365 B1 KR101973365 B1 KR 101973365B1
Authority
KR
South Korea
Prior art keywords
data
sub
video signal
image
frame
Prior art date
Application number
KR1020120001011A
Other languages
English (en)
Other versions
KR20130080214A (ko
Inventor
김주영
김정택
박철우
임경호
정지웅
박근정
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to KR1020120001011A priority Critical patent/KR101973365B1/ko
Priority to US13/529,731 priority patent/US8982117B2/en
Publication of KR20130080214A publication Critical patent/KR20130080214A/ko
Application granted granted Critical
Publication of KR101973365B1 publication Critical patent/KR101973365B1/ko

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 입체 영상 표시 장치는, 복수의 픽셀들을 포함하고, 제2 영상 신호 및 제어 신호에 응답해서 다시점 영상을 표시하는 표시 패널과, 상기 표시 패널 상에 배치되어 상기 표시 패널에 표시되는 평면 영상을 입체 영상으로 변환하는 복수의 렌즈들을 포함하는 렌즈 플레이트와, 렌즈 제어 신호에 응답해서 상기 복수의 렌즈들을 제1 및 제2 서브 프레임들에 각각 대응하는 위치로 이동시키는 렌즈 구동부와, 외부로부터 제1 영상 신호를 수신해서 1프레임의 상기 제1 영상 신호를 상기 제1 및 제2 서브 프레임들에 각각 대응하는 제1 및 제2 서브 영상 신호로 변환하고, 상기 렌즈 제어 신호를 출력하는 영상 변환부, 그리고 상기 제1 및 제2 서브 영상 신호에 응답해서 상기 렌즈 제어 신호, 상기 제2 영상 신호 및 상기 제어 신호를 출력하는 표시 패널 구동부를 포함한다.

Description

표시 장치 및 이를 이용한 입체 영상 표시 방법 {DISPLAY APPARATUS AND METHOD OF DISPLAYING THREE DIMENSIONAL IMAGE USING THE SAME}
본 발명은 표시 장치 및 이를 이용한 입체 영상 표시 방법에 관한 것으로, 더욱 상세하게는 시분할 구동이 가능한 표시 장치 및 이를 이용한 입체 영상 표시 방법에 관한 것이다.
일반적으로 액정 표시 장치는 2차원 평면 영상을 표시한다. 최근 게임, 영화 등과 같은 분야에서 3차원 입체 영상에 대한 수요가 증가함에 따라, 액정 표시 장치를 이용하여 3차원 입체 영상을 표시한다.
일반적으로, 액정 표시 장치는 사람의 두 눈을 통한 양안시차(binocular parallax)의 원리를 이용하여 입체 영상을 표시한다. 사람의 두 눈은 일정 정도 떨어져 있기 때문에 각각의 눈으로 다른 각도에서 관찰한 영상들이 뇌에 입력된다. 사람의 뇌는 영상들을 혼합하여 입체 영상을 인식한다.
양안시차를 이용하는 방식으로는, 안경 방식(stereoscopic)과 비안경 방식(autostereoscopic)이 있다. 안경 방식은 양안에 각각 청색과 적색의 색안경을 쓰는 애너그러프(anaglyph) 방식과, 시분할되어 좌안 영상과 우안 영상을 주기적으로 표시하고, 이 주기에 동기된 좌안 셔터와 우안 셔터를 개폐하는 안경을 쓰는 셔터 안경(Shutter Glass) 방식 등이 있다.
비안경 방식은 렌티큘러 방식을 포함한다. 렌티큘러 방식은 복수의 시점(view point)들을 제공하는데, 시점 수의 증가에 따라서 3차원 영상의 해상도가 낮아지는 단점이 있다. 따라서 시점 수가 증가하더라도 3차원 영상의 표시 품질 저하를 최소화할 수 있는 기술이 요구된다.
또한 평면 영상을 입체 영상으로 변환하면, 액정 표시 장치의 해상도가 감소하여 표시 품질이 떨어지는 문제점이 있다. 최근에는 외부에서 제공된 2차원의 영상 데이터와 2차원의 영상 데이터에 대응하는 깊이 데이터(depth data)를 이용하여 다시점 3차원 영상 신호를 생성하는 기술에 대한 연구가 진행되고 있다.
본 발명의 목적은 시점 수가 증가하더라도 3차원 영상의 표시 품질 저하를 최소화할 수 있는 표시 장치 및 이를 이용한 입체 영상 표시 방법에 관한 것이다.
본 발명의 다른 목적은 2차원 영상 데이터 및 2차원 영상 데이터에 대응하는 깊이 데이터를 이용하여 입체 영상을 표시할 수 있는 표시 장치 및 이를 이용한 입체 영상 표시 방법에 관한 것이다.
이와 같은 목적을 달성하기 위한 본 발명의 일 특징에 의하면, 입체 영상 표시 장치는 표시 패널, 렌즈 플레이트, 렌즈 구동부, 영상 변환부 그리고 표시 패널 구동부를 포함한다. 표시 패널은 복수의 픽셀들을 포함하고, 제2 영상 신호 및 제어 신호에 응답해서 다시점 영상을 표시한다. 렌즈 플레이트는 상기 표시 패널 상에 배치되어 상기 표시 패널에 표시되는 평면 영상을 입체 영상으로 변환하는 복수의 렌즈들을 포함한다. 렌즈 구동부는 렌즈 제어 신호에 응답해서 상기 복수의 렌즈들을 제1 및 제2 서브 프레임들에 각각 대응하는 위치로 이동시킨다. 영상 변환부는 외부로부터 제1 영상 신호를 수신해서 1프레임의 상기 제1 영상 신호를 상기 제1 및 제2 서브 프레임들에 각각 대응하는 제1 및 제2 서브 영상 신호로 변환하고, 상기 렌즈 제어 신호를 출력하는 영상 변환부, 그리고 상기 제1 및 제2 서브 영상 신호에 응답해서 상기 렌즈 제어 신호, 상기 제2 영상 신호 및 상기 제어 신호를 출력하는 표시 패널 구동부를 포함한다.
이 실시예에 있어서, 상기 제1 영상 신호는, 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터를 포함한다.
이 실시예에 있어서, 상기 영상 변환부는, 상기 제1 서브 프레임 동안 제1 룩-업 테이블을 참조하여 상기 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하고, 그리고 상기 제2 서브 프레임 동안 제2 룩-업 테이블을 참조하여 상기 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력한다.
이 실시예에 있어서, 상기 영상 변환부는, 상기 제1 서브 프레임동안 상기 깊이 데이터 및 복수의 시점에 따른 이동 거리 정보를 상기 제1 룩-업 테이블로부터 독출하고, 상기 이동 거리 정보에 따라서 상기 영상 데이터를 상기 제2 영상 신호로 변환하고, 상기 제2 서브 프레임동안 상기 깊이 데이터 및 상기 복수의 시점에 따른 이동 거리 정보를 상기 제2 룩-업 테이블로부터 독출하고, 상기 이동 거리 정보에 따라서 상기 영상 데이터를 상기 제2 영상 신호로 변환한다.
이 실시예에 있어서, 상기 영상 변환부는, 상기 제1 서브 프레임동안 홀수 번째 시점에 대응하는 상기 제2 영상 신호를 출력하고, 그리고 상기 제2 서브 프레임동안 짝수 번째 시점에 대응하는 상기 제2 영상 신호를 출력한다.
이 실시예에 있어서, 상기 렌즈 구동부는, 상기 렌즈 제어 신호에 응답해서 상기 제1 서브 프레임 동안 상기 복수의 렌즈들을 제1 위치로 이동시키고, 상기 제2 서브 프레임 동안 상기 복수의 렌즈들을 제2 위치로 이동시킨다.
이 실시예에 있어서, 상기 복수의 렌즈들이 연장되는 방향은 상기 픽셀의 열의 방향과 평행하고, 상기 복수의 렌즈들의 이동 방향은 상기 렌즈가 연장되는 방향과 서로 수직이다.
이 실시예에 있어서, 상기 렌즈 플레이트는 액정 렌즈 패널이고, 상기 복수의 렌즈들은 상기 액정 렌즈 패널에 인가되는 전계에 의해 정의된다.
본 발명의 입체 영상 표시 방법은, 외부로부터 제1 영상 신호를 수신하고, 1프레임의 상기 제1 영상 신호를 N(N은 양의 정수)개의 서브 프레임들에 각각 대응하는 서브 영상 신호로 변환하되, 제1 서브 프레임 동안 제1 서브 영상 신호를 제공하고, 제2 서브 프레임 동안 제2 서브 영상 신호를 제공하고, 상기 제1 서브 프레임 동안 제1 룩-업 테이블을 참조하여 상기 제1 서브 영상 신호에 대한 렌더링을 수행하고 제2 영상 신호를 출력하고, 그리고 상기 제2 서브 프레임 동안 제2 룩-업 테이블을 참조하여 상기 제2 서브 영상 신호에 대한 렌더링을 수행하고, 상기 제2 영상 신호를 출력하는 것을 포함한다.
이 실시예에 있어서, 상기 제1 영상 신호는, 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터를 포함한다.
이 실시예에 있어서, 입체 영상 표시 방법은, 상기 제1 서브 프레임 동안 표시 패널 상의 복수의 렌즈들을 제1 위치로 이동시키고, 상기 제2 영상 신호에 응답해서 복수 시점의 영상을 상기 표시 패널에 표시하고, 그리고 상기 제2 서브 프레임 동안 상기 복수의 렌즈들을 제2 위치로 이동시키고, 상기 제2 영상 신호에 응답해서 복수 시점의 영상을 상기 표시 패널에 표시하는 것을 더 포함한다.
이 실시예에 있어서, 상기 제1 서브 영상 신호에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하는 것은, 상기 깊이 데이터 및 복수의 홀수 번째 시점에 따른 이동 거리 정보를 상기 제1 룩-업 테이블로부터 독출하고, 그리고 상기 이동 거리 정보에 따라서 상기 제1 서브 영상 신호를 상기 제2 영상 신호로 변환하는 것을 포함한다.
이 실시예에 있어서, 상기 제2 서브 영상 신호에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하는 것은 상기 깊이 데이터 및 복수의 짝수 번째 시점에 따른 이동 거리 정보를 상기 제2 룩-업 테이블로부터 독출하고, 그리고 상기 이동 거리 정보에 따라서 상기 제2 서브 영상 신호를 상기 제2 영상 신호로 변환하는 것을 포함한다.
이와 같은 본 발명의 표시 장치는 시분할 방식으로 구동되므로 시점 수가 증가하더라도 3차원 영상의 표시 품질 저하를 최소화할 수 있다. 더욱이, 본 발명의 시분할 다지점 방식으로 구동되는 표시 장치는 2차원 영상 데이터를 3차원 영상 신호로 렌더링시 깊이 데이터를 이용하므로 3차원 영상의 표시 품질이 향상된다.
도 1은 본 발명의 실시예에 따른 표시 장치를 보여주는 사시도이다.
도 2는 도 1에 도시된 표시 패널을 나타내는 평면도이다.
도 3은 도 1의 단위 픽셀을 나타내는 평면도이다.
도 4a는 제1 서브 프레임에서 도 1의 표시 패널, 렌즈 플레이트의 상대적인 위치를 나타내는 단면도이다.
도 4b는 제2 서브 프레임에서 도 1의 표시 패널, 렌즈 플레이트의 상대적인 위치를 나타내는 단면도이다.
도 5는 도 1에 도시된 표시 패널 구동부의 구체적인 구성을 보여주는 블록도이다.
도 6a는 도 5에 도시된 표시 장치로 입력되는 영상 신호에 의해서 표시되는 영상의 일 예를 도시한 도면이다.
도 6b는 도 6a의 영상 신호에 대응하는 깊이 데이터에 의해서 표시되는 영상을 도시한 것이다.
도 7은 도 5에 도시된 프레임 레이트 변환부의 블록도이다.
도 8은 도 7에 도시된 프레임 레이트 변환부의 동작을 보여주는 플로우차트이다.
도 9는 도 7의 프레임 레이트 변환부로 입력되는 제1 영상 신호에 포함된 2차원 영상 데이터 및 깊이 데이터를 이용하여 복수 시점의 영상을 갖는 제2 영상 신호를 생성하는 렌더링 방법을 설명하는 도면이다.
도 10a는 도 9의 제1 내지 제4 시점 중 어느 하나의 시점에서의 렌더링 방법을 구체적으로 설명하는 도면이다.
도 10b는 도 9의 제5 내지 제8 시점 중 어느 하나의 시점에서의 렌더링 방법을 구체적으로 설명하는 도면이다.
도 11은 도 6a의 2차원 영상 데이터를 도 6b의 깊이 데이터로 렌더링한 8개 시점의 영상을 보여준다.
도 12는 안티-얼라이어싱 처리된 깊이 데이터를 나타내는 도면이다.
도 13a는 도 6b의 깊이 데이터를 안티-얼라이어싱 처리하여 확대한 도면이고, 도 13b는 도 6a의 2차원 영상 데이터를 도 13a의 안티-얼라이어싱 처리된 깊이 데이터로 렌더링하여 확대한 도면이고, 도 13c는 도 8b의 3차원 영상 데이터를 홀 필링 방법에 의해 처리한 도면이다.
도 14는 본 발명의 일 실시예에 따른 깊이 데이터 처리 방법을 설명하는 도면이다.
도 15는 도 13a의 깊이 데이터를 맥스 필터링 방법으로 변환하고 변환된 깊이 데이터를 이용하여 도 6a의 2차원 영상 데이터를 3차원 영상 데이터로 변환한 도면이다.
도 16a 및 도 16b는 깊이 데이터를 맥스 필터링 방법으로 변환한 후 변환된 깊이 데이터를 이용하여 생성되는 다른 영상을 보여주는 도면이다.
도 17은 본 발명의 다른 실시예에 따른 깊이 데이터 처리 방법을 설명하는 도면이다.
도 18은 도 16a에 도시된 영상을 도 17의 깊이 데이터를 이용하여 렌더링한 영상을 나타내는 도면이다.
도 19는 도 17의 제1 표시면에 도시된 홀 필링 방법을 이용하여 생성된 3차원 영상을 나타내는 도면이다.
도 20은 도 17의 제2 표시면에 도시된 필링 방법을 이용하여 생성된 3차원 영상을 나타내는 도면이다.
이하 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 표시 장치를 보여주는 사시도이다. 도 2는 도 1에 도시된 표시 패널을 나타내는 평면도이다.
도 1 및 도 2를 참조하면, 표시 장치(10)는 표시 패널(100), 렌즈 플레이트(200), 표시 패널 구동부(300) 및 렌즈 구동부(400)를 포함한다.
표시 패널(100)은 영상을 표시한다. 표시 패널(100)은 복수의 단위 픽셀들(PX)을 포함한다. 단위 픽셀들(PX)은 매트릭스 형태로 배치될 수 있다. 단위 픽셀들(PX)은 제1 방향(D1)을 따라 픽셀 행을 형성한다. 단위 픽셀들(PX)은 제1 방향(D1)과 교차하는 제2 방향(D2)을 따라 픽셀 열을 형성한다. 제2 방향(D2)은 제1 방향(D1)과 수직일 수 있다.
제1 픽셀 행은 적색 픽셀(R)들을 포함하고, 제2 픽셀 행은 녹색 픽셀(G)들을 포함하고, 제3 픽셀 행은 청색 픽셀(B)들을 포함한다.
이와는 달리, 제1 내지 제3 픽셀 행들은 서로 교대로 배치되는 적색 픽셀(R), 녹색 픽셀(G), 청색 픽셀(B)들을 포함할 수 있다.
제1 내지 제4 픽셀 열(PC1, PC2, PC3, PC4)들은 서로 교대로 배치되는 적색 픽셀(R), 녹색 픽셀(G), 청색 픽셀(B)들을 포함한다.
이와는 달리, 제1 내지 제4 픽셀 열(PC1, PC2, PC3, PC4)들은 각각 단일 색의 컬러 픽셀들을 포함할 수 있다.
단위 픽셀(PX)의 장변은 제2 방향(D2)과 일치하고, 단위 픽셀(PX)의 단변은 제1 방향(D1)과 일치하는 것으로 도시하였으나, 이에 한정되지 않으며, 단위 픽셀(PX)의 장변은 제1 방향(D1)과 일치하고, 단위 픽셀(PX)의 단변은 제2 방향(D2)과 일치할 수 있다.
표시 패널(100)은 제1 기판(미도시), 제1 기판과 대향하는 제2 기판(미도시) 및 제1 및 제2 기판 사이에 배치되는 액정층(미도시)를 포함할 수 있다. 제1 기판은 픽셀 전극(미도시), 게이트 라인, 데이터 라인을 포함할 수 있다. 제2 기판은 공통 전극(미도시) 및 컬러 필터(미도시)를 포함할 수 있다.
렌즈 플레이트(200)는 표시 패널(100) 상에 배치된다. 렌즈 플레이트(200)는 복수의 렌즈들(L)을 포함한다. 렌즈들(L)은 표시 패널(100)에 표시되는 평면 영상을 입체 영상으로 변환한다.
렌즈들(L)은 제2 방향(D2)을 따라 길게 연장되고, 제1 방향(D1)으로 배치된다. 즉, 렌즈(L)가 연장되는 방향은 단위 픽셀의 열의 방향과 평행할 수 있다.
렌즈(L)의 제1 방향(D1)의 너비는 복수의 단위 픽셀들(PX)의 제1 방향(D1)의 너비와 대응할 수 있다. 예를 들어, 렌즈(L)의 제1 방향(D1)의 너비는 4개의 단위 픽셀들(PX)의 제1 방향(D1)의 너비와 동일할 수 있다. 이때, 입체 영상의 시점수는 4일 수 있다.
예를 들어, 렌즈(L)의 제1 방향(D1)의 너비는 8개의 단위 픽셀들(PX)의 제1 방향(D1)의 너비와 동일할 수 있다. 이때, 렌즈(L)의 시점수는 8일 수 있다.
렌즈들(L)은 상부를 향해 볼록한 형상을 가질 수 있다.
렌즈 플레이트(200)는 전압에 의해 구동되는 액정 렌즈 패널일 수 있다. 이때, 렌즈들(L)은 물리적으로 볼록한 형상을 갖지 않으며, 액정 렌즈 패널에 인가되는 전계에 의해 정의된다.
표시 패널 구동부(300)는 표시 패널(100)에 연결되어, 표시 패널(100)을 구동하기 위한 신호를 출력한다.
표시 패널 구동부(300)는 외부로부터 입력되는 1 프레임의 제1 영상 신호(RGB1)를 N개의 서브 프레임들로 시분할하여 표시 패널(100)을 구동한다. 여기서, N은 자연수이다.
예를 들어, N이 2일 때, 표시 패널 구동부(300)는 제1 영상 신호(RGB1)를 기초로 제1 서브 프레임에 대응하는 제1 서브 영상 신호(RGBO) 및 제2 서브 프레임에 대응하는 제2 서브 영상 신호(RGBE)를 생성한다. 표시 패널 구동부(300)는 제1 서브 프레임 동안 제1 서브 영상 신호(RGBO)가 표시 패널(100)에 표시되도록 제어한다. 표시 패널 구동부(300)는 제2 서브 프레임 동안 제2 서브 영상 신호(RGBE)가 표시 패널(100)에 표시되도록 제어한다. 여기서, 제1 서브 영상 신호(RGBO)는 좌안 영상 신호이고, 제2 서브 영상 신호(RGBE)는 우안 영상 신호일 수 있다.
렌즈(L)의 제1 방향(D1)의 너비가 4개의 단위 픽셀들(PX)의 제1 방향(D1)의 너비와 동일할 경우, 렌즈(L)에 의해 입체 영상의 시점수는 4가 되고, 시분할 구동에 의해 입체 영상의 시점수는 8이 된다.
표시 패널 구동부(300)는 렌즈 구동부(400)를 제어하기 위한 렌즈 제어 신호(LCS1)를 출력한다. 표시 패널 구동부(300)의 구체적인 구성 및 동작은 추후 상세히 설명한다.
렌즈 구동부(400)는 렌즈 플레이트(200)에 연결되어, 렌즈들(L)을 구동하기 위한 렌즈 구동 신호(LCS2)를 출력한다.
제1 서브 프레임에 렌즈 구동부(400)는 렌즈들(L)을 제1 위치에 배치시킨다. 제2 서브 프레임에 렌즈 구동부(400)는 렌즈들(L)을 제1 위치로부터 단위 픽셀(PX)의 너비의 1/N 만큼 이동된 제2 위치에 배치시킨다.
예를 들어, N이 2일 때, 렌즈 구동부(400)는 제2 서브 프레임에 렌즈들(L)을 단위 픽셀(PX)의 너비의 절반만큼 이동시킨다.
렌즈 구동부(400)는 렌즈 플레이트(200)를 물리적으로 이동시킬 수 있다.
렌즈 플레이트(200)가 전압에 의해 구동되는 액정 렌즈 패널일 경우, 렌즈 구동부(400)는 렌즈 플레이트(200)를 물리적으로 이동시키지는 않으며, 액정 렌즈 패널에 인가되는 전계를 조절하여 렌즈들(L)이 이동하는 것과 같이 구동한다.
도 3은 도 1의 단위 픽셀(PX)을 나타내는 평면도이다.
도 3을 참조하면, 단위 픽셀(PX)은 개구 영역(OP) 및 차단 영역(BP)을 포함한다. 차단 영역(OP)은 개구 영역(OP)과 제1 방향(D1)으로 이웃하게 배치될 수 있다.
개구 영역(OP)은 표시 패널(100)의 컬러 필터에 의해 정의되고, 차단 영역(BP)은 표시 패널(100)의 블랙 매트릭스에 의해 정의된다. 즉, 개구 영역(OP)에는 컬러 필터가 배치되고, 차단 영역(BP)에는 블랙 매트릭스가 배치된다.
개구 영역(OP)은 제1 방향(D1)으로 제1 너비(W1)를 갖고, 차단 영역(BP)은 제1 방향(D1)으로 제2 너비(W2)를 갖는다. 단위 픽셀(PX)의 제1 방향(D1)의 너비(W)는 제1 및 제2 너비의 합(W1+W2)과 실질적으로 동일하다.
단위 픽셀의 개구율은 단위 픽셀의 너비(W)에 대한 개구 영역(OP)의 제1 너비(W1)로 정의된다. 표시 패널(100)이 1 프레임을 N개의 서브 프레임들로 시분할하여 구동될 때, 단위 픽셀의 개구율은 1/N이 되도록 조절한다. 본 실시예에서, N은 2이므로, 개구율(W1/W)는 1/2이다. 즉, 개구 영역(OP)의 제1 너비(W1)와 차단 영역(BP)의 제2 너비(W2)의 비율은 1:1이다.
도 4a는 제1 서브 프레임에서 도 1의 표시 패널(100), 렌즈 플레이트(200)의 상대적인 위치를 나타내는 단면도이다. 도 4b는 제2 서브 프레임에서 도 1의 표시 패널(100), 렌즈 플레이트(200)의 상대적인 위치를 나타내는 단면도이다.
도 3, 4a 및 4b를 참조하면, 표시 패널(100)은 제1 내지 제4 픽셀들(P1, P2, P3, P4)을 포함한다. 제1 내지 제4 픽셀들(P1 내지 P4)의 너비는 각각 W이고, 개구율은 1/2이다.
렌즈 플레이트(200)는 표시 패널(100) 상에 배치된다. 렌즈 플레이트(200)의 하나의 렌즈는 4개의 픽셀의 너비에 대응하는 너비를 갖는다. 렌즈는 제1 내지 제4 픽셀들(P1 내지 P4)의 너비에 대응하는 너비를 갖는다.
도 4a를 참조하면, 제1 서브 프레임 동안 표시 패널 구동부(300)는 제1 서브 영상 신호(RGBO)를 표시 패널(100)에 제공한다. 제1 서브 영상 신호(RGBO)는 홀수 번째 시점, 즉, 제1 시점(VW1), 제3 시점(VW3), 제5 시점(VW5), 제7 시점(VW7)에 대응하는 영상 신호를 포함한다. 제1 픽셀(P1)은 제1 서브 영상 신호(RGBO)의 제1 시점(VW1)에 대응하는 영상을 표시하고, 제2 픽셀(P2)은 제3 시점(VW3)에 대응하는 영상을 표시하고, 제3 픽셀(P3)은 제5 시점(VW5)에 대응하는 영상을 표시하고, 제4 픽셀(P4)은 제7 시점(VW7)에 대응하는 영상을 표시한다. 이때, 렌즈 구동부(400)는 프레임 레이트 변환부(310)로부터의 렌즈 제어 신호(LCS1)에 응답해서 렌즈를 제1 픽셀(P1)의 경계 및 제4 픽셀(P4)의 경계에 대응하는 제1 위치에 배치하기 위한 렌즈 구동 신호(LCS2)를 렌즈 플레이트(200)로 출력한다.
도 4b를 참조하면, 제2 서브 프레임 동안 표시 패널 구동부(300)는 제2 서브 영상 신호(RGBE)가 표시 패널(100)에 표시되도록 제어한다. 제2 서브 영상 신호(RGBE)는 짝수 번째 시점 즉, 제2 시점(VW2), 제4 시점(VW4), 제6 시점(VW6), 제8 시점(VW8) 영상 신호를 포함한다. 제1 픽셀(P1)은 제2 시점(VW2)에 대응하는 영상을 표시하고, 제2 픽셀(P2)은 제4 시점(VW4)에 대응하는 영상을 표시하고, 제3 픽셀(P3)은 제6 시점(VW6)에 대응하는 영상을 표시하고, 제4 픽셀(P4)은 제8 시점(VW8)에 대응하는 영상을 표시한다.
이때, 렌즈 구동부(400)는 프레임 레이트 변환부(310)로부터의 렌즈 제어 신호(LCS1)에 응답해서 렌즈를 제1 위치로부터 단위 픽셀의 너비의 절반(W/2)만큼 좌측으로 이동하여 제2 위치에 배치하기 위한 렌즈 구동 신호(LCS2)를 렌즈 플레이트(200)로 출력한다.
도 4a 및 도 4b를 참조하면, 예를 들어, 관찰자의 좌안이 제1 시점에 위치하고, 관찰자의 우안이 제2 시점에 위치하는 경우, 제1 프레임 동안 관찰자의 좌안에는 개구 영역을 통해 제1 서브 영상 신호(RGBO)의 제1 시점(VW1)의 영상이 인식되고, 관찰자의 우안에는 차단 영역으로 인해 블랙 영상이 인식된다. 제2 프레임 동안 관찰자의 우안에는 개구 영역을 통해 제2 서브 영상 신호(RGBE)의 제2 시점(VW2) 영상이 인식되고, 관찰자의 좌안에는 차단 영역으로 인해 블랙 영상이 인식된다. 결과적으로, 관찰자는 제1 프레임에서의 제1 시점(VW1)의 영상과 제2 프레임에서의 제2 시점(VW2)의 영상을 혼합하여 입체 영상을 시인할 수 있다.
예를 들어, 관찰자의 좌안이 제2 시점에 위치하고, 관찰자의 우안이 제3 시점에 위치하는 경우, 제1 프레임 동안 관찰자의 우안에는 개구 영역을 통해 제1 서브 영상 신호(RGBO)의 제3 시점(VW3)의 영상이 인식되고, 관찰자의 좌안에는 차단 영역으로 인해 블랙 영상이 인식된다. 제2 프레임 동안 관찰자의 좌안에는 개구 영역을 통해 제2 서브 영상 신호(RGBE)의 제2 시점(VW2)의 영상이 인식되고, 관찰자의 우안에는 차단 영역으로 인해 블랙 영상이 인식된다. 결과적으로, 관찰자는 제1 프레임에서의 제3 시점(VW3)의 영상과 제2 프레임에서의 제2 시점(VW2)의 영상을 혼합하여 입체 영상을 시인할 수 있다.
앞서, 단위 픽셀(PX) 내 개구 영역(OP)의 너비(W1) 및 차단 영역(BP)의 너비(W2)의 비율이 1:1이므로, 각 시점에서 밝은 영상 및 블랙 영상이 균일한 간격으로 반복적으로 표시된다. 따라서, 표시 장치(10)는 셔터 안경을 이용한 표시 장치와 유사한 효과를 내게 된다. 결과적으로 본 발명의 표시 장치(10)를 이용하면 좌안 영상이 우안으로 입력되거나, 우안 영상이 좌안으로 입력되는 크로스 토크 현상을 방지할 수 있다.
본 실시예에 따르면, 렌즈를 이용하여 P개의 시점수를 생성하고, 표시 패널을 시분할 구동하여 N개의 시점수를 생성하므로, 총 P*N개의 표시 장치의 시점수를 생성할 수 있다. 따라서, 표시 장치의 입체 영상 표시 품질 및 시야각을 향상시킬 수 있다.
또한, 시분할 구동에 따라, 단위 픽셀의 개구율을 조절하여 크로스 토크 현상 및 무아레 현상을 방지하여 입체 영상 표시 품질을 향상시킬 수 있다.
도 5는 도 1에 도시된 표시 패널 구동부의 구체적인 구성을 보여주는 블록도이다.
도 5를 참조하면, 표시 패널 구동부(300)는 프레임 레이트 변환부(310), 타이밍 컨트롤러(320), 게이트 드라이버(330) 및 데이터 드라이버(340)를 포함한다.
프레임 레이트 변환부(310)는 외부로부터 제1 영상 신호(RGB1) 및 제어 신호(CS1)를 입력받고, 제2 영상 신호(RGB2) 및 제2 제어 신호(CS2)를 타이밍 컨트롤러(320)로 출력한다. 제1 영상 신호(RGB1)는 2차원 영상을 표시할 수 있는 영상 데이터뿐만 아니라 깊이 데이터를 포함한다. 깊이 데이터는 2차원 영상 데이터를 이용하여 입체감을 표시하기 위해 2차원 영상 데이터가 표시장치(100)의 어느 정도 앞에 표시되어야 하는 지와 관련된 데이터로, 예를 들어, 256 그레이스케일(grayscale) 레벨의 데이터 값으로 구성될 수 있다. 프레임 레이트 변환부(310)는 제1 영상 신호(RGB1) 및 제어 신호(CS1)를 이용하여 3차원 영상을 표시할 수 있는 제2 영상 신호(RGB2) 및 제2 제어 신호(CS2)를 출력한다. 프레임 레이트 변환부(310)는 렌즈 구동부(400)를 제어하기 위한 렌즈 제어 신호(LCS1)를 출력한다. 프레임 레이트 변환부(310)의 구체적인 구성 및 동작은 추후 상세히 설명된다.
타이밍 컨트롤러(320)는 프레임 레이트 변환부(310)로부터 제2 영상 신호(RGB2) 및 제어 신호(CS2)를 수신하고, 게이트 드라이버(330)를 제어하기 위한 게이트 제어 신호(GCS) 및 데이터 드라이버(340)를 제어하기 위한 데이터 제어 신호(DCS) 및 제3 영상 신호(RGB3)를 출력한다. 게이트 드라이버(330)는 게이트 제어 신호(GCS)에 응답하여 게이트 신호를 생성하여 표시 패널(100)의 게이트 라인에 출력한다. 데이터 드라이버(340)는 타이밍 컨트롤러(320)로부터의 제3 영상 신호(RGB3)에 응답하여 데이터 전압을 생성하여 표시 패널(100)의 데이터 라인에 출력한다.
표시 패널(100)은 다수의 게이트 라인(GL1-GLn), 게이트 라인들(GL1-GLn)과 교차하는 다수의 데이터 라인(DL1-DLm), 및 복수의 화소(PX)를 포함한다.
도 5에서 화소들은 동일한 구성을 가질 수 있으므로, 설명의 편의를 위해 도 1에는 하나의 화소를 예로써 도시하였다. 도 5에 구체적으로 도시되지 않았지만, 각 화소(PX)는 박막 트랜지스터 및 화소 전극을 포함할 수 있다. 박막 트랜지스터의 게이트 전극은 게이트 라인들(GL1-GLn) 중 대응하는 게이트 라인에 연결되고, 소스 전극은 데이터 라인들(DL1-DLm) 중 대응하는 데이터 라인에 연결되며, 드레인 전극은 화소 전극에 연결된다.
게이트 드라이버(330)는 표시 패널(100)에 구비된 게이트 라인들(GL1 - Gn)과 전기적으로 연결되어 게이트 전압을 제공한다. 구체적으로, 게이트 드라이버(330)는 타이밍 컨트롤러(320)로부터 수신한 게이트 제어 신호(GCS)에 기초하여 게이트 라인들(GL1 - Gn)을 구동하기 위해 게이트 온 전압(VON)과 게이트 오프 전압(VOFF)을 포함하는 게이트 신호들(G1-Gn)을 생성한다. 게이트 드라이버(330)는 생성된 게이트 신호들(G1-Gn)을 게이트 라인들(GL1 - Gn)에 순차적으로 출력한다. 게이트 제어 신호(GCS)는 게이트 드라이버(330)의 동작을 개시하는 수직 개시 신호, 게이트 전압의 출력 시기를 결정하는 게이트 클럭 신호 및 게이트 전압의 온 펄스 폭을 결정하는 출력 인에이블 신호 등을 포함할 수 있다.
다른 실시예에서, 게이트 드라이버(330)는 별도의 집적 회로로 구성되는 대신 아모퍼스 실리콘 게이트(Amorphous Silicon Gate, ASG) 기술을 이용해 표시 패널(100) 상에 집적될 수 있다. 게이트 드라이버(330)를 비정질 실리콘 유리 기판 위에 구현하는 SOG(System On Glass)에 의하면 회로 면적과 부품 수를 줄일 수 있다.
데이터 드라이버(340)는 타이밍 컨트롤러(320)로부터의 출력 영상 신호(RGB) 및 데이터 제어 신호(DCS)를 수신한다. 데이터 드라이버(340)는 데이터 제어 신호(DCS)에 응답하여 출력 영상 신호(RGB)에 대응하는 데이터 전압으로 데이터 라인들(D1-Dm)을 구동한다. 데이터 제어 신호(DCS)는 데이터 드라이버(340)의 동작을 개시하는 수평 개시 신호, 좌안 및 우안 데이터 전압의 극성을 제어하는 반전 신호 및 데이터 드라이버(340)로부터 좌안 및 우안 데이터 전압의 출력 시기를 결정하는 로드 신호 등을 포함할 수 있다.
각 화소(PX)의 박막 트랜지스터는 대응하는 게이트 라인으로 공급되는 게이트 신호에 응답하여 턴-온되고, 대응하는 데이터 라인으로 공급된 데이터 전압은 턴-온된 박막 트랜지스터의 소스 전극을 통해 입력되어 드레인 전극으로 출력된다.
도시되지 않았지만, 표시장치(10)는 표시 패널(100)에 인접하게 배치되어 표시패널(100)로 광을 제공하는 백라이트 유닛을 더 포함할 수 있다.
도 6a는 도 5에 도시된 표시 장치로 입력되는 영상 신호에 의해서 표시되는 영상의 일 예를 도시한 것이고, 도 6b는 도 6a의 영상 신호에 대응하는 깊이 데이터에 의해서 표시되는 영상을 도시한 것이다.
도 6a 및 도 6b를 참고하면, 제1 영상 신호(RGB1)는 일반적인 표시 장치에서 표시되는 2차원 영상 데이터 및 2차원 영상 데이터와 함께 사용되어 3차원 영상을 표시할 수 있는 깊이 데이터를 포함한다. 도 2a에 도시된 영상은 2차원 영상 데이터에 대응하는 영상이고, 도 2b에 도시된 영상은 깊이 데이터에 대응하는 영상이다.
구체적으로, 도 6a에서 반으로 잘려진 골프공이 입체적으로 표현되기 위해서는 골프공이 배경, 즉 하늘과 바다에 비해 표시 장치(10)의 앞으로 나와있는 것처럼 표시되어야 한다. 따라서, 도 6b에서 골프공에 대응하는 깊이 데이터는 화이트 그레이스케일 레벨을 나타낸다. 반대로, 도 6a에서 하늘 및 바다는 골프공보다 뒤에 있는 것처럼 표시되어야 한다. 따라서, 도 6b에서 하늘 및 바다에 대응하는 깊이 데이터는 블랙 그레이스케일 레벨을 나타낸다.
도 6a 및 도 6b의 2차원 영상 데이터 및 깊이 데이터는 예로서 도시된 것으로, 이에 한정되는 것은 아니다.
도 7은 도 5에 도시된 프레임 레이트 변환부의 블록도이다.
도 7을 참조하면, 프레임 레이트 변환부(310)는 수신부(311), 필터링부(312), 깊이 데이터 변환부(313), 영상 신호 생성부(314), 출력부(315) 그리고 제1 및 제2 룩-업 테이블(316, 317)을 포함한다.
수신부(311)는 제1 영상 신호(RGB1) 및 제1 제어 신호(CS1)를 수신하여 N(N은 양의 정수)-배속 서브 영상 신호(IRGB)를 출력한다. 이 실시예에서, N은 2인 경우를 일 예로 설명하나, N은 다양하게 변경될 수 있다. 수신부(311)는 1프레임의 제1 영상 신호(RGB1)를 제1 서브 프레임에 대응하는 서브 영상 신호(IRGB) 및 제2 서브 프레임에 대응하는 서브 영상 신호(IRGB)를 순차적으로 출력한다. 제1 서브 프레임 및 제2 서브 프레임은 연속적으로 나타나는 시간 주기를 의미한다. 예컨대, 제1 영상 신호(RGB1)의 주파수가 60Hz이고, N이 2인 경우, 서브 영상 신호(IRGB)의 주파수는 120Hz이다. 만일 제1 영상 신호(RGB1)의 주파수가 60Hz이고, N이 4이면, 서브 영상 신호(IRGB)의 주파수는 240Hz이다. 수신부(311)는 제어 신호(CSI)를 출력부(315)로 제공한다.
필터링부(312)는 서브 영상 신호(IRGB)를 수신하여 필터링된 영상 신호(F_RGB)를 출력한다. 표시 패널(100)은 실질적으로 사각형 형태의 화소들을 포함하는데, 표시 패널(100)에서 곡선을 표현하는 경우 곡선이 계단 형태의 경계선으로 표시될 수 있다. 이러한 계단 형태의 경계선을 제거하고 부드러운 곡선을 표현하기 위해 제1 영상 신호(RGB1)를 안티-얼라이어싱 처리하는 것이 필요하다. 필터링부(312)로부터 출력되는 필터링된 영상 신호(F_RGB)는 안티-얼라이어싱 처리한 신호이다. 제1 영상 신호(RGB1)는 2차원 영상 데이터 및 깊이 데이터를 포함하며, 필터링부(312)는 2차원 영상 데이터 및 깊이 데이터 중 적어도 하나를 안티-얼라이어싱 처리할 수 있다.
본 발명의 실시예에 있어서, 프레임 레이트 변환부(310)는 필터링부(312)를 포함하는 것으로 도시하였으나, 제1 영상 신호(RGB1)가 안티-얼라이어싱 처리된 신호인 경우, 프레임 레이트 변환부(310)는 필터링부(312)를 포함하지 않을 수 있다.
깊이 데이터 변환부(313)는 필터링된 영상 신호(F_RGB) 중 필터링된 깊이 데이터를 변환하여 깊이 변환된 영상 신호(D_RGB)를 출력한다.
깊이 변환된 영상 신호(D_RGB)는 각 화소에 인접한 소정의 개수의 화소들에 제공되는 2차원 영상 데이터에 대응하는 깊이 데이터에 근거해서 생성된다. 이와 관련된 구체적인 내용은 이하 첨부된 도면을 참조하여 설명한다.
영상 신호 생성부(314)는 깊이 변환된 영상 신호(D_RGB)를 수신해서 제1 및 제2 룩-업 테이블(216, 317) 중 어느 하나를 참조하여여 출력 서브 영상 신호(O_RGB)를 출력한다. 출력 서브 영상 신호(O_RGB)는 깊이 변환된 영상 신호(D_RGB)를 바탕으로 3차원 영상을 구현할 수 있는 신호로 변환된 것이다. 다시 말해, 출력 서브 영상 신호(O_RGB)는 깊이 변환된 깊이 변환된 영상 신호(D_RGB)를 바탕으로 2차원 영상 데이터를 렌더링(rendering)하여 생성된 신호이다. 여기서, '렌더링'이란 깊이 데이터를 이용하여 2차원 영상 데이터를 3차원 영상 데이터로 변환하는 것을 말하고, 렌더링 방법에 대한 구체적인 내용은 이하 첨부된 도면을 참조하여 설명한다.
출력부(315)는 출력 서브 영상 신호(O_RGB) 및 제어 신호(CSI)를 수신하여 제2 영상 신호(RGB2) 및 제2 제어 신호(CS2)를 출력한다. 제2 제어 신호(CS2)는 제1 제어 신호(CS1)와 동일한 신호일 수 있고, 서브 영상 신호(IRGB)에 따라 제1 제어 신호(CS1)에서 변환된 신호일 수 있다.
도 8은 도 7에 도시된 프레임 레이트 변환부의 렌더링 동작을 보여주는 플로우차트이다.
도 7 및 도 8을 참조하면, 수신부(311)는 외부로부터 2차원 영상 데이터 및 깊이 데이터를 포함하는 제1 영상 신호(RGB1)를 수신한다(S100). 만일 사용자에 의해서 설정된 표시 모드가 3차원 표시 모드가 아닌 2차원 표시 모드이면(S110), 도 1에 도시된 렌즈 플레이트(200)가 동작하지 않도록 렌즈 제어 신호(LCS1)를 출력한다(S120). 2차원 표시 모드동안, 프레임 레이트 변환부(310) 내 필터링부(312), 깊이 데이터 변환부(313), 영상 데이터 생성부(314)는 2차원 영상 데이터를 포함하는 제1 영상 신호(RGB1)를 3차원 영상 데이터로 변환하지 않고, 그대로 출력부(315)로 전달한다. 출력부(315)는 제2 영상 신호(RGB2) 및 제2 제어 신호(CS2)를 출력한다(S130).
3차원 표시 모드일 때, 프레임 레이트 변환부(310)는 1프레임의 제1 영상 신호(RGB1)를 N(N은 양의 정수)-배속 서브 영상 신호(IRGB)로 출력한다(S140). 앞서 설명된 바와 같이, 수신부(311)는 1프레임의 제1 영상 신호(RGB1)를 제1 서브 프레임에 대응하는 서브 영상 신호(IRGB) 및 제2 서브 프레임에 대응하는 서브 영상 신호(IRGB)로 순차적으로 출력한다.
시분할 구동을 위하여 수신부(311)가 1프레임의 제1 영상 신호(RGB1)를 제1 서브 프레임에 대응하는 서브 영상 신호(IRGB) 및 제2 서브 프레임에 대응하는 서브 영상 신호(IRGB)로 순차적으로 출력할 때, 제1 서브 프레임에 대응하는 서브 영상 신호(IRGB)는 제1 서브 영상 신호(IRGBO)로 칭하고, 제2 서브 프레임에 대응하는 서브 영상 신호(IRGB)는 제2 서브 영상 신호(IRGB2)로 칭한다.
제1 서브 프레임 동안(S150) 도 7에 도시된 필터링부(312), 깊이 데이터 변환부(313) 및 영상 신호 생성부(314)는 제1 서브 영상 신호(IRGB1)에 대한 렌더링을 수행한다(S160). 출력부(315)는 렌더링된 출력 서브 영상 신호(O_RGB)를 제2 영상 신호(RGB2)로 출력하고, 제2 제어 신호(CS) 및 렌즈 제어 신호(LCS1)를 출력한다(S170). 렌즈 제어 신호(LSC1)는 도 1에 도시된 렌즈 플레이트(200)를 제1 위치로 이동시키기 위한 신호이다.
제2 서브 프레임 동안(S150) 도 7에 도시된 필터링부(312), 깊이 데이터 변환부(313) 및 영상 신호 생성부(314)는 제2 서브 영상 신호(IRGB2)에 대한 렌더링을 수행한다(S180). 출력부(315)는 렌더링된 출력 서브 영상 신호(O_RGB)를 제2 영상 신호(RGB2)로 출력하고, 제2 제어 신호(CS) 및 렌즈 제어 신호(LCS1)를 출력한다(S190). 렌즈 제어 신호(LSC1)는 도 1에 도시된 렌즈 플레이트(200)를 제2 위치로 이동시키기 위한 신호이다.
렌즈 플레이트(200)가 제1 위치 및 제2 위치 중 어느 하나로 이동된 후 도 1에 도시된 타이밍 컨트롤러(320)는 프레임 레이트 변환부(310)로부터의 제2 영상 신호(RGB2) 및 제2 제어 신호(CS2)에 응답해서 제1 및 제2 서브 프레임의 영상이 순차적으로 표시 패널(100)에 표시되도록 제어한다.
다시 도 7 및 도 8을 참조하면, 수신부(311)는 1프레임의 제1 영상 신호(RGB1) 중 마지막 서브 프레임에 대한 렌더링이 수행되었는 지를 판단한다. 예컨대, 1프레임의 제1 영상 신호(RGB1)가 2-배속 서브 영상 신호로 변환된 경우, 제1 서브 영상 신호(IRGBO)에 대한 렌더링(S160) 및 제2 영상 신호(RGB2)에 대한 출력(S170)이 완료된 후 제2 서브 영상 신호(IRGBE)에 대한 렌더링(S180) 및 제2 영상 신호(RGB2)에 대한 출력(S190)이 수행될 수 있도록 단계 S150으로 제어는 피드백되어야 한다(S200).
만일 마지막 서브 프레임인 제2 서브 프레임의 제2 서브 영상 신호(IRGBE)에 대한 렌더링(S180) 및 제2 영상 신호(RGB2)에 대한 출력(S190)이 완료되었으면 1프레임의 제1 영상 신호(RGB1)에 대한 프레임 레이트 변환 동작이 종료된다.
도 9는 도 7의 프레임 레이트 변환부로 입력되는 제1 영상 신호에 포함된 2차원 영상 데이터 및 깊이 데이터를 이용하여 복수 시점의 영상을 갖는 제2 영상 신호를 생성하는 방법, 즉 렌더링 방법을 설명하는 도면이다.
도 9를 참고하면, 표시 장치(10)의 표시면(Im_Plane)과 깊이 데이터의 바텀 레벨(Bt_DMap), 예를 들어, 0(zero) 그레이스케일 레벨을 선으로 표시하였다. 또한, 2차원 영상 데이터 및 깊이 데이터를 이용하여 8개 시점(VW1-VW8)의 영상을 생성하는 것을 예로써 도시하였다. 8개 시점(VW1-VW8)의 영상은 표시 장치(10)에 구비된, 예를 들어, 렌티큘러 렌즈 또는 액정 렌즈 등을 이용하여 시청자에 제공될 수 있다.
제1 시점(VW1)은 사용자가 표시 장치(10)를 바라볼 때 가장 우측에 위치하고, 제1 시점(VW1)에서부터 좌측으로 제2 내지 제8 시점(VW2-VW8)이 위치한다. 제8 시점(VW8)은 사용자가 표시 장치(10)를 바라볼 때 가장 좌측에 위치한다.
도 8에서, 제1 데이터(DA)와 제2 데이터(DB)는 표시면(Im_Plane)의 중심 위치(C)에 표시되는 데이터이다. 다만, 제1 데이터(DA)에 대응하는 깊이 데이터는 h1 그레이스케일 레벨을 갖고, 제2 데이터(DB)에 대응하는 깊이 데이터는 0 그레이스케일 레벨을 갖는다. 따라서, 도 8에서 제2 데이터(DB)는 0 그레이스케일 레벨에 표시하였고, 제1 데이터(DA)는 h1 그레이스케일 레벨만큼 표시장치(100)의 전방에 표시하였다.
제1 시점(VW1)에서 볼 때, 제1 데이터(DA)는 표시면(Im_Plane) 상에서 제1 입체 데이터(DA')로 표시되어야 하고, 제2 데이터(DB)는 표시면(Im_Plane) 상에서 제2 입체 데이터(DB')로 표시되어야 한다. 다시 말해, 제1 시점(VW1)에서 볼 때, 제1 데이터(DA)는 제2 데이터(DB)보다 더 왼쪽으로 이동하여 표시되어야 한다. 반대로, 제8 시점(VW8)에서 보면, 제1 데이터(DA)는 제2 데이터(DB)보다 더 오른쪽으로 이동하여 표시되어야 한다. 즉, 제1 내지 제4 시점(VW1-VW4)의 제1 데이터(DA)는 제2 데이터(DB)보다 더 왼쪽으로 이동하여 표시되어야 하고, 제5 내지 제8 시점(VW5-VW8)의 제1 데이터(DA)는 제2 데이터(DB)보다 더 오른쪽으로 이동하여 표시되어야 한다.
이러한 방식으로, 제1 영상 신호(RGB1)에 포함된 2차원 영상 데이터와 깊이 데이터를 이용하여 복수의 시점에서의 영상을 포함하는 제2 영상 신호(RGB2)를 생성할 수 있다. 다만, 도 8에서 깊이 데이터의 바텀 레벨(Bt_DMap)과 표시면(Im_Plane)의 위치 관계는 임의로 나타낸 것으로, 예를 들어 깊이 데이터의 바텀 레벨(Bt_DMap)을 나타내는 라인과 표시면(Im_Plane)을 나타내는 라인은 서로 일치할 수 있다.
이 실시예에서 표시 장치(10)는 시분할 구동된다. 그러므로 제1 서브 프레임 동안 제1, 제3, 제5 및 제7 시점(VW1, VW3, VW5, VW7)의 제2 영상 신호(RGB2)가 표시 장치(10)에 표시된 후 제2 서브 프레임 동안 제2, 제4, 제6 및 제8 시점(VW2, VW4, VW6, VW8)의 제2 영상 신호(RGB2)가 표시 장치(10)에 표시된다.
한편, 데이터의 이동 거리를 계산하는 방법은 다음과 같다. 제1 시점(VW1)의 제1 데이터(DA)가 제1 입체 데이터(DA')로 이동한 거리를 x라고 정의한다. 또한 표시면(Im_Plane)의 중심 위치(C)와 수직하는 직선과 제1 시점(VW1) 사이의 거리를 D라 정의하고, 표시면(Im_Plane)으로부터 제1 데이터(DA)까지의 높이를 h라고 정의하고, 그리고 표시면(Im_Plane)으로부터 제1 시점(VW1)까지의 높이를 H라 정의할 때 제1 데이터(DA)가 제1 입체 데이터(DA')로 이동한 거리 x는 수학식 1에 의해서 계산될 수 있다.
Figure 112012000942552-pat00001
표시면(Im_Plane)으로부터 제1 데이터(DA)까지의 높이 h는 h1+h2이고, 표시면(Im_Plane)과 바텀 레벨(Bt_DMap) 사이의 높이 h2는 고정되어 있다. 그러므로 바텀 레벨(Bt_DMap)과 제1 데이터(DA)까지의 높이 즉, 제1 데이터(DA)의 그레이스케일 레벨 h1에 따라서 이동 거리 x가 계산될 수 있다.
제1 데이터(DA)가 제1 입체 데이터(DA')로 이동한 거리(x)는 픽셀 단위이다. 제1 내지 제8 시점(VW1-VW8) 각각에서 제1 데이터(DA)가 제1 입체 데이터(DA')로 이동한 거리(x)에 대한 정보는 도 7에 도시된 제1 및 제2 룩-업 테이블들(316, 317)에 저장된다. 특히, 제1 룩-업 테이블(316)은 제1 서브 프레임에서 제1, 제3, 제5 및 제7 시점(VW1, VW3, VW5, VW7) 각각에서 영상 데이터를 3차원 입체 데이터로 변환하기 위한 이동 거리 정보(XO)를 저장하고, 제2 룩-업 테이블(317)은 제2 서브 프레임에서 제2, 제4, 제6 및 제8 시점(VW2, VW4, VW6, VW8) 각각에서 영상 데이터를 3차원 입체 데이터로 변환하기 위한 이동 거리 정보(XE)를 저장한다. 제1 및 제2 룩-업 테이블들(316, 317) 각각은 메모리로 구성된다. 영상 신호 생성부(314)는 제1 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XO)를 제1 룩-업 테이블(316)로부터 독출하고, 제2 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XE)를 제2 룩-업 테이블(317)로부터 독출한다.
이와 같이, 제1 서브 프레임과 제2 서브 프레임 각각에서 서로 다른 룩-업 테이블이 사용되는 이유는 앞서 도 4a 내지 도 4b에서 설명된 바와 같이, 제1 서브 프레임과 제2 서브 프레임 각각에서 렌즈 플레이트(200)의 이동에 의해서 렌즈의 위치가 변경되기 때문이다. 렌즈가 이동함에 따라서 제1 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XO) 그리고 제2 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XE)가 다른 값을 갖는다.
다른 실시예에서 두 개의 룩-업 테이블들(316, 317)은 서로 다른 메모리로 구성되거나 또는 하나의 메모리로 구성될 수 있다. 이 경우에도 제1 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XO) 그리고 제2 서브 프레임동안 깊이 데이터(h1) 및 시점에 따른 이동 거리 정보(XE)는 다른 값을 갖는다.
도 10a는 도 9의 제1 내지 제4 시점 중 어느 하나의 시점에서의 렌더링 방법을 구체적으로 설명하는 도면이고, 도 10b는 도 9의 제5 내지 제8 시점 중 어느 하나의 시점에서의 렌더링 방법을 구체적으로 설명하는 도면이다.
도 10a를 참조하면, 깊이 데이터가 0 그레이스케일 레벨인 제1 데이터(TW1) 및 제2 데이터(TW2)와 깊이 데이터가 0 그레이스케일 레벨이 아닌 제3 데이터(TW3)를 예로써 도시하였다. 제1 내지 제4 시점(VW1-VW4) 중 어느 하나의 시점에서 볼 때, 우측에서 좌측으로 진행하는 방향(Dscan1)으로 제1 내지 제3 데이터(TW1-TW3)를 렌더링하면, 제1 내지 제3 데이터(TW1-TW3)가 입체적으로 표시되기 위해 제1 내지 제3 데이터(TW1-TW3)는 표시면(Im_Plane)에서 좌측으로 이동하여 각각 제1 입체 데이터 내지 제3 입체 데이터(TH1-TH3)로 변환되어야 한다. 특히, 0 그레이스케일 레벨을 갖지 않는 제3 데이터(TW3)는 제1 및 제2 데이터(TW1, TW2)보다 더 좌측으로 이동하여, 제3 입체 데이터(TH3)로 변환된다.
도 10a에서와 같이, 제3 데이터(TW3)의 위치가 제3 입체 데이터(TH3)로 위치로 변경됨에 따라, 제1 데이터(TW1)의 일부는 입체 영상에서 표시되지 않는다. 또한, 제1 내지 제3 데이터(TW1-TW3)의 위치가 제1 내지 제3 입체 데이터(TH1-TH3)변경되어 표시됨으로써, 표시면(Im_Plane)의 일부의 화소들에는 대응하여 입력될 데이터가 없는 블랭크 데이터 구간(BLK)이 나타난다.
도 10b를 참조하면, 깊이 데이터가 0 그레이스케일 레벨인 제1 데이터(TW1) 및 제2 데이터(TW2)와 깊이 데이터가 0 그레이스케일 레벨이 아닌 제3 데이터(TW3)를 도시하였다. 제5 내지 제8 시점(VW5-VW8) 중 어느 하나의 시점에서 볼 때, 좌측에서 우측으로 진행하는 방향(Dscan2)으로 제1 내지 제3 데이터(TW1-TW3)를 렌더링하면, 제1 내지 제3 데이터(TW1-TW3)가 입체적으로 표시되기 위해 제1 내지 제3 데이터(TW1-TW3)는 표시면(Im_Plane)에서 우측으로 이동되어 각각 제1 입체 데이터 내지 제3 입체 데이터(TH1-TH3)로 변환되어야 한다. 특히, 0 그레이스케일 레벨을 갖지 않는 제3 데이터(TW3)는 제1 및 제2 데이터(TW1, TW2)보다 더 우측으로 이동하여, 제3 입체 데이터(TH3)로 변환된다.
도 10b에서와 같이, 제3 데이터(TW3)가 제3 입체 데이터(TH3)로 위치가 변경됨에 따라, 제2 데이터(TW2)의 일부는 입체영상에서 표시되지 않는다. 또한, 제1 내지 제3 데이터(TW1-TW3)의 위치가 변경되어 표시됨으로써, 표시면(Im_Plane)의 일부의 화소들에는 대응하여 입력될 데이터가 없는 블랭크 데이터 구간(BLK)이 나타난다.
도 10a 및 도 10b에서 블랭크 데이터 구간(BLK)에 속하는 화소들에 데이터를 입력하지 않으면 블랭크 데이터 구간(BLK)에 대응하여 블랙 영상이 표시된다. 따라서, 블랭크 데이터 구간(BLK)에 속하는 화소들에는 이에 인접한 화소들에 대응하는 데이터에 근거하여 적당한 데이터를 생성하여 제공할 수 있다. 이를 이른바, 홀 필링(hole filling) 방법이라 하는데, 이에 관한 구체적인 내용은 이하 첨부된 도면을 사용하여 설명한다.
도 11은 도 6a의 2차원 영상 데이터를 도 6b의 깊이 데이터로 렌더링한 8개 시점의 영상을 보여준다.
도 11을 참조하면, 제1 내지 제8 영상(IM1-IM8)은 도 9에 도시된 제1 내지 제8 시점(VW1-VW8) 각각에서 보여지는 영상이다. 표시 장치(10)가 이러한 8개 시점(VW1-VW8) 각각의 영상(IM1-IM3)을 표시함으로써, 시청자는 영상을 입체적으로 인식할 수 있다. 도 11에서는 도면의 이해를 돕기 위하여 표시 장치(10)의 좌측에 표시되는 제8 영상(IM8)부터 표시 장치(10)의 우측에 표시되는 제1 영상(IM1) 순으로 도시하였다.
제8 시점(VW8)에 대응하는 제8 영상(IM8)이나 제1 시점(VW1)에 대응하는 제1 영상(IM1)에서는 반으로 잘려진 탁구공이 좌측 또는 우측으로 각각 이동되어 표시된 것을 볼 수 있다. 또한, 반으로 잘려진 탁구공의 이동량은 제1 영상(IM1) 및 제8 영상(IM8)에서 가장 크다.
반으로 잘려진 탁구공이 좌측 또는 우측으로 이동되어 표시됨에 따라, 반으로 잘려진 탁구공이 원래 위치하던 영역의 일부에 블랙 영상이 나타나는 것을 볼 수 있다. 블랙 영상은 도 10a 또는 도 10b에 도시된 블랭크 데이터 구간(BLK)에 대응하는 것으로, 블랭크 데이터 구간(BLK)에 속하는 화소들에 데이터 전압이 입력되지 않았기 때문이다.
도 12는 안티-얼라이어싱 처리된 깊이 데이터를 나타내는 도면이다.
도 12를 참고하면, 깊이 데이터가 0 그레이스케일 레벨인 제1 데이터(TW1) 및 제2 데이터(TW2), 깊이 데이터가 0 그레이스케일 레벨이 아닌 제3 데이터(TW3), 및 깊이 데이터가 0 그레이스케일보다 크고 제3 데이터(TW3)의 그레이스케일보다 작은 제4 데이터(TW4) 및 제5 데이터(TW5)를 예로써 도시하였다.
도 7에 도시된 필터링부(312)는 수신부(311)로부터 출력되는 서브 영상 데이터(IRGB)에 대한 안티-얼라이어싱 처리를 수행한다. 도 12의 제4 및 제5 데이터(TW4, TW5)는 제1 내지 제3 데이터(TW1-TW3)에 대한 안티-얼라이어싱 처리에 의해 생성된 데이터이다.
도 12에서, 제1 내지 제5 데이터(TW1-TW5)를 제5 내지 제8 시점(VW5-VW8)을 기준으로 렌더링하여 3차원 영상 데이터를 생성하면, 제1 내지 제5 데이터(TW1-TW5)는 제1 내지 제5 입체 데이터(TH1-TH5)로 각각 변환된다. 제5 내지 제8 시점(VW5-VW8)을 기준으로 제1 내지 제5 데이터(TW1-TW5)를 렌더링했을 때 제1 입체 데이터(TH1)와 제4 입체 데이터(TH4) 사이 및 제3 입체 데이터(TH3) 및 제4 입체 데이터(TH4) 사이에는 블랭크 데이터 구간(BLK)이 나타난다.
블랭크 데이터 구간(BLK)에 대응하는 부분이 블랙 영상으로 표시되는 것을 방지하기 위해, 도 12에는 블랭크 데이터 구간(BLK)의 데이터를 블랭크 데이터 구간(BLK)의 좌측에 인접한 화소의 데이터와 동일한 데이터로 채우는 홀 필링 처리를 예로써 도시하였다. 수정된 표시면(Im_Plane')에서 블랭크 데이터 구간(BLK)의 데이터는 렌더링이 진행되는 방향(Dscan2)과 동일한 방향으로 순차적으로 필링되어 좌측에 인접한 데이터와 동일한 데이터로 생성되는 것을 예로써 도시하였다. 이와 같은 홀 필링 방법을 이용하면, 블랭크 데이터 구간(BLK)에 대응하여 블랙 영상이 표시되는 것을 방지할 수 있다.
도 13a는 도 6b의 깊이 데이터를 안티-얼라이어싱 처리하여 확대한 도면이고, 도 13b는 도 6a의 2차원 영상 데이터를 도 13a의 안티-얼라이어싱 처리된 깊이 데이터로 렌더링하여 확대한 도면이고, 도 13c는 도 8b의 3차원 영상 데이터를 홀 필링 방법에 의해 처리한 도면이다.
도 6b 및 도 13a를 참고하면, 도 6b의 깊이 데이터에서 상대적으로 높은 그레이스케일 레벨 영역(즉, 반으로 잘려진 골프공 영역)과 상대적으로 낮은 그레이스케일 레벨 영역(즉, 하늘 또는 땅 영역)의 경계가 곡선으로 표현될 때, 사각형 형태의 화소들로 인해 계단 형태의 경계선이 시인되는 것을 방지하기 위해, 깊이 데이터는 안티-얼라이어싱 처리된다. 따라서, 도 13a에서 경계 부분의 그레이스케일 레벨이 점진적으로 변하는 것을 볼 수 있다.
도 6a 및 도 13b를 참고하면, 도 13a의 안티-얼라이어싱 처리된 깊이 데이터로 도 6a의 2차원 영상 데이터를 렌더링하여 3차원 영상 데이터를 생성하면, 안티-얼라이어싱 처리된 데이터 및 블랭크 데이터에 대응하여 줄무늬가 있는 블랙 영상이 나타난다. 즉, 도 13b에서 반으로 잘려진 골프공에 검은색 테두리 모양이 표시된다.
도 11 및 도 13c를 참고하면, 도 13b에서와 같이 블랙 영상이 표시되는 부분을 제거하기 위해, 도 11에 도시된 홀 필링 방법으로 3차원 영상 데이터를 처리하면, 도 13c와 같은 영상을 얻을 수 있다. 이러한 방식으로, 블랙 영상이 제거될 수 있다.
다만, 도 13c의 반으로 잘려진 골프공의 테두리에서 물결 무늬와 같은 선들이 연장되어 표시되는데, 물결 무늬는 블랭크 데이터 구간(BLK)에 대응하는 화소들에 인접한 화소들에 입력되는 데이터와 동일한 데이터를 입력하는 것에 기인한다. 이와 같이, 홀 필링 방법에 의해 물결 무늬가 나타날 수 있는데, 이를 '테일링 현상'이라 한다. 이러한 테일링 현상의 발생은 3차원 입체 영상의 화질을 악화시키므로, 이러한 현상의 발생을 방지하는 것이 필요하다.
도 14는 본 발명의 일 실시예에 따른 깊이 데이터 처리 방법을 설명하는 도면이다.
도 14에는, 도 13c의 테일링 현상의 발생을 방지하기 위해 도 12에 도시된 깊이 데이터를 필터링하여 생성한 변환된 깊이 데이터를 도시하였다. 도 14의 깊이 데이터 처리 방법을 설명하면 다음과 같다.
안티-얼라이어싱 처리된 깊이 데이터에 의해 발생하는 테일링 현상을 방지하기 위해, 도 14에서 각 데이터의 깊이 데이터를 각 데이터에 인접한 소정 개수의 데이터들 중 최고값을 갖는 깊이 데이터로 변환할 수 있다. 이러한 깊이 데이터 변환 방법을 '맥스 필터링 방법(max filtering method)'이라 한다.
구체적으로, 현재 화소(CP)의 2차원 영상 데이터에 대응하는 깊이 데이터를 현재 화소(CP)에 인접한, 예를 들어, 26개의 화소들의 2차원 영상 데이터에 대응하는 깊이 데이터 중 최고값으로 변환할 수 있다.
아래 표 1을 참조하면, 현재 화소(CP)를 중심으로 3행 9열의 화소 그룹을 설정하고, 화소 그룹 내 26 개의 주변 화소들로 제공될 2차원 영상 데이터에 대응하는 깊이 데이터 중 최고값을 갖는 깊이 데이터를 현재 화소(CP)의 2차원 영상 데이터에 대응하는 깊이 데이터로 변환할 수 있다.
표 1에는 현재 화소(CP)에 인접한 26개의 주변 화소들(LU1-LU4, CU1, RU1-RU4, LC1-LC4, RC1-RC4, LL1-LL4, CL1, RL1-RL4)을 예로써 보여주고 있다. 예를 들어, 현재 화소(CP)의 좌측에 인접하여 배치된 네 개의 화소들을 LC1 내지 LC4로 표시하였고, 현재 화소(CP)의 우측에 인접하여 배치된 네 개의 화소들을 RC1 내지 RC4로 표시하였다.
다만, 표 1의 화소 그룹은 예로써 정의된 것으로, 화소 그룹에 포함되는 화소들의 수 및 화소 그룹의 설정 방법은 실시 형태에 따라 변할 수 있다.
LU1 LU2 LU3 LU4 CU1 RU4 RU3 RU2 RU1
LC1 LC2 LC3 LC4 CP RC4 RC3 RC2 RC1
LL1 LL2 LL3 LL4 CL1 RL4 RL3 RL2 RL1
구체적으로, 표 1의 방법에 의해 깊이 데이터를 변환하면, 도 14에서와 같이, 제1 데이터 및 제2 데이터의 일부(TW1' TW2')와 안티-얼라이어싱 처리에 의해 생성된 제4 데이터(TW4) 및 제5 데이터(TW5)의 깊이 데이터는 제3 데이터(TW3)의 깊이 데이터의 그레이스케일 레벨과 동일한 레벨을 갖는다.
도 14의 변환된 깊이 데이터를 기준으로 제1 내지 제5 데이터(TW1-TW5)를 3차원 영상 데이터로 렌더링하면, 제1 내지 제5 데이터(TW1-TW5)는 표시면(Im_Plane)에서 제1 내지 제5 입체데이터(TH1-TH5)로 각각 변환된다. 또한, 표시면(Im_Plane)의 제1 내지 제5 입체데이터(TH1-TH5)를 홀 필링 방법으로 처리하면 수정된 표시면(Im_Plane')에 도시된 바와 같은 데이터로 변환된다.
도 12과 도 14에서 수정된 표시면(Im_Plane')에 변환된 입체 데이터들을 비교해 보면, 도 12에서보다 도 14에서 수정된 표시면(Im_Plane')의 제4 입체 데이터(TH4)의 폭이 좁게 나타나는 것을 볼 수 있다. 따라서, 제1 입체 데이터(TH1)와 제3 입체 데이터(TH3)의 경계에서 나타나는 테일링 현상의 발생을 감소시킬 수 있다.
도 15는 도 13a의 깊이 데이터를 맥스 필터링 방법으로 변환하고 변환된 깊이 데이터를 이용하여 도 6a의 2차원 영상 데이터를 3차원 영상 데이터로 변환한 도면이다.
도 13c와 도 15을 비교해 보면, 도 13c에서 나타나는 테일링 현상이 도 15에서 거의 나타나지 않는 것을 볼 수 있다.
도 16a 및 도 16b는 깊이 데이터를 맥스 필터링 방법으로 변환한 후 변환된 깊이 데이터를 이용하여 생성되는 다른 영상을 보여주는 도면이다.
다시 도 14를 참조하면, 표시면(Im_Plane)에서 제2 데이터의 일부(TW2') 및 제5 데이터(TW5)가 제3 데이터(TW3)의 깊이 데이터의 그레이스케일 레벨과 동일한 레벨을 가지므로, 제2 데이터의 일부(TW2') 및 제5 데이터(TW5)는 제3 입체 데이터(TH3)의 우측에 인접한 위치에서 제2 입체 데이터의 일부(TH2') 및 제5 입체 데이터(TH5)로 렌더링된다. 따라서, 제2 입체 데이터의 일부(TH2') 및 제5 입체 데이터(TH5)는 제3 입체 데이터(TH3)의 테두리를 형성한다.
도 16a에서 피노키오의 코 부근의 A1 영역에서 피노키오의 코 테두리가 두껍게 나타나는 것을 볼 수 있다. 또한, 도 16b에서 흰 물체의 좌측 영역, 즉 A2 영역에서 흰 물체의 테두리가 두껍게 표시되는 것을 볼 수 있다. 도 16a 및 도 16b에서와 같이, 물체의 테두리가 두껍게 표시되면, 3차원 입체 영상의 표시품질을 떨어뜨린다. 이러한 현상을 제거하기 위해 다음과 같은 방법을 생각할 수 있다.
도 17은 본 발명의 다른 실시예에 따른 깊이 데이터 처리 방법을 설명하는 도면이다.
도 17에는, 도 13c의 테일링 현상의 발생을 방지하고 도 16a 및 도 16b에서와 같이 물체의 테두리가 두껍게 표현되는 현상을 방지하기 위해 도 12의 깊이 데이터를 필터링하여 생성한 변환된 깊이 데이터를 도시하였다. 도 17의 깊이 데이터 처리 방법을 설명하면 다음과 같다.
도 17에서 각 영상 데이터에 대응하는 깊이 데이터를 영상 데이터에 인접한 소정 개수의 영상 데이터의 깊이 데이터 중 최고값으로 변환할 수 있다. 다만, 도 14에서와 달리, 도 17에서 소정 개수의 데이터의 범위를 다르게 설정한다.
구체적으로, 아래 표 2는 제1 내지 제4 시점 중 어느 하나의 시점의 3차원 영상 데이터를 생성할 때 깊이 데이터에 적용되는 맥스 필터링 방법을 나타내고, 아래 표 3은 제5 내지 제8 시점 중 어느 하나의 시점의 3차원 영상 데이터를 생성할 때 깊이 데이터에 적용되는 맥스 필터링 방법을 나타낸다.
표 2 및 표 3을 참고하면, 현재 화소(CP)의 2차원 영상 데이터에 대응하는 깊이 데이터를 현재 화소(CP)에 인접한, 예를 들어, 14개의 화소들의 2차원 영상 데이터에 대응하는 깊이 데이터 중 최고값으로 변환할 수 있다.
더 구체적으로, 표 2를 참고하면, 현재 화소(CP)를 포함하는 3행 5열의 화소 그룹을 설정하고, 화소 그룹 내 현재 화소(CP)를 제외한 주변 화소들의 2차원 영상 데이터에 대응하는 깊이 데이터 중 최고값을 현재 화소(CP)의 2차원 영상 데이터에 대응하는 깊이 데이터로 변환할 수 있다.
표 2에는 현재 화소(CP)에 인접한 14개 주변 화소의 일 예를 보여주고 있다. 예를 들어, 현재 화소(CP)의 좌측에 인접하여 배치된 네 개의 화소들을 LC1 내지 LC4로 표시하고, 화소들(LC1-CL4)의 상측에 배열된 화소들을 LU1-LU4로 표시하고, 화소들(LC1-CL4)의 하측에 배열된 화소들을 LL1-LL4로 표시하고, 현재 화소(CP)의 상측에 위치한 화소를 CU1 그리고 현재 화소(CP)의 하측에 위치한 화소를 CL1로 표시한다. 표 2에서, 현재 화소(CP)의 우측에 인접한 화소들은 3행 5열의 화소 그룹에 포함되지 않는다.
또한, 표 3을 참고하면, 현재 화소(CP)를 포함하는 2행 1열의 화소 그룹을 설정하고, 화소 그룹 내 현재 회로(CP)를 제외한 주변 화소들의 2차원 영상 데이터에 대응하는 깊이 데이터 중 최고값을 현재 화소(CP)의 2차원 영상 데이터에 대응하는 깊이 데이터로 변환할 수 있다.
표 3에서, 현재 화소(CP)에 인접한 14개의 주변 화소의 일 예를 보여주고 있다. 예를 들어, 현재 화소(CP)의 우측에 인접하여 배치된 네 개의 화소들을 RC1 내지 RC4로 표시하고, 화소들(RC1-RL4)의 상측에 배열된 화소들을 RU1-RU4로 표시하고, 화소들(RC1-RL4)의 하측에 배열된 화소들을 RL1-RL4로 표시하고, 현재 화소(CP)의 상측에 위치한 화소를 CU1 그리고 현재 화소(CP)의 하측에 위치한 화소를 CL1로 표시한다. 표 3에서, 현재 화소(CP)의 좌측에 인접한 화소들은 3행 5열의 화소 그룹에 포함되지 않는다.
LU1 LU2 LU3 LU4 CU1
LC1 LC2 LC3 LC4 CP
LL1 LL2 LL3 LL4 CL1
CU1 RU4 RU3 RU2 RU1
CP RC4 RC3 RC2 RC1
CL1 RL4 RL3 RL2 RL1
도 17은 제5 내지 제8 시점(VW5-VW8) 중 어느 하나의 시점에서의 렌더링 방법을 나타내므로, 도 17에는 표 3의 맥스 필터링 방법을 이용하여 깊이 데이터를 변환하는 방법을 도시하였다.
도 17 및 표 3을 참조하면, 표 3에서 각 영상 데이터에 대응하는 깊이 데이터는 각 영상 데이터의 우측에 위치한 데이터의 깊이 데이터에 영향을 받으므로, 제4 데이터(TW4)의 깊이 데이터는 제4 데이터(TW4)의 우측에 위치한 제3 데이터(TW3)의 깊이 데이터의 영향을 받는다. 따라서, 제4 데이터(TW4)는 제3 데이터(TW3)의 깊이 데이터의 그레이스케일 레벨과 동일한 레벨의 깊이 데이터를 갖는다. 제5 데이터(TW5)의 깊이 데이터는 제5 데이터(TW5)의 우측에 위치한 제2 데이터(TW2)의 영향을 받지만, 제5 데이터(TW5)의 우측에 위치한 제2 데이터(TW2)의 깊이 데이터는 제5 데이터(TW5)의 깊이 데이터보다 낮은값을 가지므로, 제5 데이터(TW5)의 깊이 데이터는 원래 값을 유지한다. 따라서, 표 3의 맥스 필터링 방법을 이용하여 도 12의 깊이 데이터를 변환하면, 도 17와 같은 깊이 데이터를 얻을 수 있다.
도 17에서 변환된 깊이 데이터를 이용하여 2차원 영상 데이터를 3차원 영상 데이터로 렌더링하면, 안티-얼라이어싱 처리에 의해 생성된 제5 데이터(TW5)가 표시면(Im_Plane) 상에 나타나지 않으므로, 안티-얼라이어싱 처리에 의한 표시품질의 약화를 방지할 수 있다.
도 18은 도 16a에 도시된 영상을 도 17의 깊이 데이터를 이용하여 렌더링한 영상을 나타내는 도면이다.
도 16a와 도 18을 비교하면, 도 16a에서보다 도 18에서 A1 영역에 표시된 피노키오의 코의 테두리 두께가 더 얇고 선명하게 표시된 것을 볼 수 있다. 따라서, 도 17에 도시된 깊이 데이터 변환 방법을 이용하면, 3차원 영상 데이터 구현시 물체의 테두리가 비정상적으로 두껍게 표시되는 것을 방지할 수 있다.
다시 도 17에서, 2차원 영상 데이터 및 변환된 깊이 데이터를 이용하여 표시면(Im_Plane)에 렌더링된 3차원 영상 데이터에서 블랭크 데이터 구간(BLK)을 홀 필링 방법으로 처리한 3차원 영상 데이터를 제1 표시면(Im_Plane') 및 제2 표시면(Im_Plane'')에 도시하였다.
제1 표시면(Im_Plane')에서 홀 필링 처리는 렌더링 방향(Dscan2)과 동일한 방향(Df1)으로 진행되고, 제1 표시면(Im_Plane')의 블랭크 데이터 구간(BLK)에는 블랭크 데이터 구간(BLK)의 좌측에 인접한 데이터, 즉 제1 입체 데이터(TH1)와 동일한 데이터가 생성된다. 따라서, 블랭크 데이터 구간(BLK)은 제1 입체 데이터(TH1)로 채워진다.
반대로, 제2 표시면(Im_Plane'')에서 홀 필링 처리는 렌더링 방향(Dscan2)과 반대 방향(Df2)으로 진행되고, 제2 표시면(Im_Plane'')에서 블랭크 데이터 구간(BLK)에는 블랭크 데이터 구간(BLK)의 우측에 인접한 데이터, 즉 제1 입체 데이터의 일부(TH1')의 데이터와 동일한 데이터가 생성된다. 따라서, 블랭크 데이터 구간(BLK)은 제3 입체 데이터의 일부(TH1')의 데이터로 채워진다.
제1 표시면(Im_Plane') 및 제2 표시면(Im_Plane'')에 표시된 영상의 차이는 아래 도 19 및 도 20을 참고하여 설명한다.
도 19는 도 17의 제1 표시면에 도시된 홀 필링 방법을 이용하여 생성된 3차원 영상을 나타내는 도면이다.
도 19를 참조하면, 제3 영역(A3)에 'Packard'라고 표시된 영상에서 글자 사이에 빗살 무늬 같은 무늬가 나타나는 것을 볼 수 있다. 이러한 현상은, 깊이 데이터가 높은 그레이스케일 레벨을 갖는 글자들이 서로 인접하게 배치되는 경우, 인접한 글자의 데이터와 동일한 데이터로 블랭크 데이터 구간(BLK)의 데이터가 생성되기 때문에 나타난다.
예를 들어, 도 17에서 제1 입체 데이터(TH1)의 깊이 데이터가 높은 그레이스케일 레벨을 갖는 인접한 데이터인 경우, 블랭크 데이터 구간(BLK)이 제1 입체 데이터(TH1)로 채워지므로, 도 19에서와 같은 물결 무늬가 나타날 수 있다.
도 20은 도 17의 제2 표시면에 도시된 필링 방법을 이용하여 생성된 3차원 영상을 나타내는 도면이다.
도 19 및 도 20을 비교하면, 도 20에서 제3 영역(A3)의 'Packard'라고 표시된 영상에서 글자 사이에 빗살 무늬 같은 무늬가 사라진 것을 볼 수 있다. 도 17의 상기 제2 표시면(Im_Plane'')을 보면 제1 표시면(Im_Plane')에서와 반대 방향(Df2)으로 홀 필링 처리를 함으로써, 글자와 같이 이동한 배경 데이터, 즉 제1 입체 데이터의 일부(TH1')와 동일한 데이터를 블랭크 데이터 구간(BLK)의 입체 데이터로 생성할 수 있다. 따라서, 렌더링 방향과 반대 방향으로 홀 필링 처리를 하면, 도 19에서와 같은 빗살 무늬가 나타나는 것을 방지할 수 있다.
도 10a 내지 도 20의 설명에서는 제1 서브 프레임 및 제2 서브 프레임에 대한 구별없이 영상 데이터를 입체 데이터로 변환하기 위한 렌더링 방법을 설명하였다. 도 7에 도시된 프레임 레이트 변환부(310) 내 수신부(311)는 1프레임의 제1 영상 신호(RGB1)를 제1 서브 프레임의 제1 서브 영상 신호(RGBO) 및 제2 서브 영상 신호(RGBE)로 순차적으로 출력한다. 제1 서브 프레임 동안 필터링부(312), 깊이 데이터 변환부(313), 영상 신호 생성부(314) 및 출력부(315)는 수신부(311)로부터 출력되는 제1 서브 영상 신호(RGBO)에 대한 랜더링을 수행한 후 제2 영상 신호(RGB2)를 출력한다. 제2 서브 프레임 동안 필터링부(312), 깊이 데이터 변환부(313), 영상 신호 생성부(314) 및 출력부(315)는 수신부(311)로부터 출력되는 제2 서브 영상 신호(RGBE)에 대한 랜더링을 수행한 후 제2 영상 신호(RGB2)를 출력한다. 그러므로 1프레임의 제1 영상 신호(RGB1)는 제1 서브 프레임과 제2 서브 프레임 각각에서 제2 영상 신호(RGB2)로 변환될 수 있다. 따라서, 다시점 표시 장치(10)는 시분할 구동될 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 또한 본 발명에 개시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니고, 하기의 특허 청구의 범위 및 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 표시장치 100: 표시패널
200: 렌즈 플레이트 300: 표시 패널 구동부
400:렌즈 구동부 310: 프레임 레이트 변환부
320: 타이밍 컨트롤러 330: 게이트 드라이버
340: 데이터 드라이버 311: 수신부
312: 필터링부 313: 깊이 데이터 변환부
314: 영상 신호 생성부 315: 출력부

Claims (13)

  1. 복수의 픽셀들을 포함하고, 제2 영상 신호 및 제어 신호에 응답해서 다시점 영상을 표시하는 표시 패널과;
    상기 표시 패널 상에 배치되어 상기 표시 패널에 표시되는 평면 영상을 입체 영상으로 변환하는 복수의 렌즈들을 포함하는 렌즈 플레이트와;
    렌즈 제어 신호에 응답해서 상기 복수의 렌즈들을 제1 및 제2 서브 프레임들에 각각 대응하는 위치로 이동시키는 렌즈 구동부와;
    외부로부터 제1 영상 신호를 수신해서 1프레임의 상기 제1 영상 신호를 상기 제1 및 제2 서브 프레임들에 각각 대응하는 제1 및 제2 서브 영상 신호로 변환하고, 상기 렌즈 제어 신호를 출력하는 영상 변환부; 그리고
    상기 제1 및 제2 서브 영상 신호에 응답해서 상기 렌즈 제어 신호, 상기 제2 영상 신호 및 상기 제어 신호를 출력하는 표시 패널 구동부를 포함하되,
    상기 제1 영상 신호는 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터를 포함하고,
    상기 영상 변환부는,
    상기 제1 서브 프레임 동안 제1 룩-업 테이블을 참조하여 상기 영상 데이터 및 상기 영상 데이터에 대응하는 상기 깊이 데이터에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하고, 그리고
    상기 제2 서브 프레임 동안 제2 룩-업 테이블을 참조하여 상기 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하는 것을 특징으로 하는 입체 영상 표시 장치.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 영상 변환부는,
    상기 제1 서브 프레임동안 상기 깊이 데이터 및 복수의 시점에 따른 이동 거리 정보를 상기 제1 룩-업 테이블로부터 독출하고, 상기 이동 거리 정보에 따라서 상기 영상 데이터를 상기 제2 영상 신호로 변환하고,
    상기 제2 서브 프레임동안 상기 깊이 데이터 및 상기 복수의 시점에 따른 이동 거리 정보를 상기 제2 룩-업 테이블로부터 독출하고, 상기 이동 거리 정보에 따라서 상기 영상 데이터를 상기 제2 영상 신호로 변환하는 것을 특징으로 하는 입체 영상 표시 장치.
  5. 제 4 항에 있어서,
    상기 영상 변환부는,
    상기 제1 서브 프레임동안 홀수 번째 시점에 대응하는 상기 제2 영상 신호를 출력하고, 그리고
    상기 제2 서브 프레임동안 짝수 번째 시점에 대응하는 상기 제2 영상 신호를 출력하는 것을 특징으로 하는 입체 영상 표시 장치.
  6. 제 1 항에 있어서,
    상기 렌즈 구동부는,
    상기 렌즈 제어 신호에 응답해서 상기 제1 서브 프레임 동안 상기 복수의 렌즈들을 제1 위치로 이동시키고, 상기 제2 서브 프레임 동안 상기 복수의 렌즈들을 제2 위치로 이동시키는 것을 특징으로 하는 입체 영상 표시 장치.
  7. 제 6 항에 있어서,
    상기 복수의 렌즈들이 연장되는 방향은 상기 픽셀의 열의 방향과 평행하고, 상기 복수의 렌즈들의 이동 방향은 상기 렌즈가 연장되는 방향과 서로 수직인 것을 특징으로 하는 입체 영상 표시 장치.
  8. 제 7 항에 있어서,
    상기 렌즈 플레이트는 액정 렌즈 패널이고,
    상기 복수의 렌즈들은 상기 액정 렌즈 패널에 인가되는 전계에 의해 정의되는 것을 특징으로 하는 입체 영상 표시 장치.
  9. 외부로부터 제1 영상 신호를 수신하는 단계와;
    1프레임의 상기 제1 영상 신호를 N(N은 양의 정수)개의 서브 프레임들에 각각 대응하는 서브 영상 신호로 변환하되, 제1 서브 프레임 동안 제1 서브 영상 신호를 제공하고, 제2 서브 프레임 동안 제2 서브 영상 신호를 제공하는 단계와;
    상기 제1 서브 프레임 동안 제1 룩-업 테이블을 참조하여 상기 제1 서브 영상 신호에 대한 렌더링을 수행하고 제2 영상 신호를 출력하는 단계; 그리고
    상기 제2 서브 프레임 동안 제2 룩-업 테이블을 참조하여 상기 제2 서브 영상 신호에 대한 렌더링을 수행하고, 상기 제2 영상 신호를 출력하는 단계를 포함하는 것을 특징으로 하는 입체 영상 표시 방법.
  10. 제 9 항에 있어서,
    상기 제1 영상 신호는, 영상 데이터 및 상기 영상 데이터에 대응하는 깊이 데이터를 포함하는 것을 특징으로 하는 입체 영상 표시 방법.
  11. 제 10 항에 있어서,
    상기 제1 서브 프레임 동안 표시 패널 상의 복수의 렌즈들을 제1 위치로 이동시키고, 상기 제2 영상 신호에 응답해서 복수 시점의 영상을 상기 표시 패널에 표시하는 단계; 그리고
    상기 제2 서브 프레임 동안 상기 복수의 렌즈들을 제2 위치로 이동시키고, 상기 제2 영상 신호에 응답해서 복수 시점의 영상을 상기 표시 패널에 표시하는 단계를 더 포함하는 것을 특징으로 하는 입체 영상 표시 방법.
  12. 제 11 항에 있어서,
    상기 제1 서브 영상 신호에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하는 단계는,
    상기 깊이 데이터 및 복수의 홀수 번째 시점에 따른 이동 거리 정보를 상기 제1 룩-업 테이블로부터 독출하는 단계; 및
    상기 이동 거리 정보에 따라서 상기 제1 서브 영상 신호를 상기 제2 영상 신호로 변환하는 단계를 포함하는 것을 특징으로 하는 입체 영상 표시 방법.
  13. 제 11 항에 있어서,
    상기 제2 서브 영상 신호에 대한 렌더링을 수행하고 상기 제2 영상 신호를 출력하는 단계는,
    상기 깊이 데이터 및 복수의 짝수 번째 시점에 따른 이동 거리 정보를 상기 제2 룩-업 테이블로부터 독출하는 단계; 및
    상기 이동 거리 정보에 따라서 상기 제2 서브 영상 신호를 상기 제2 영상 신호로 변환하는 단계를 포함하는 것을 특징으로 하는 입체 영상 표시 방법.
KR1020120001011A 2011-06-22 2012-01-04 표시 장치 및 이를 이용한 입체 영상 표시 방법 KR101973365B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120001011A KR101973365B1 (ko) 2012-01-04 2012-01-04 표시 장치 및 이를 이용한 입체 영상 표시 방법
US13/529,731 US8982117B2 (en) 2011-06-22 2012-06-21 Display apparatus and method of displaying three-dimensional image using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120001011A KR101973365B1 (ko) 2012-01-04 2012-01-04 표시 장치 및 이를 이용한 입체 영상 표시 방법

Publications (2)

Publication Number Publication Date
KR20130080214A KR20130080214A (ko) 2013-07-12
KR101973365B1 true KR101973365B1 (ko) 2019-04-30

Family

ID=48992399

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120001011A KR101973365B1 (ko) 2011-06-22 2012-01-04 표시 장치 및 이를 이용한 입체 영상 표시 방법

Country Status (1)

Country Link
KR (1) KR101973365B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5176718B2 (ja) * 2008-06-25 2013-04-03 ソニー株式会社 空間像表示装置

Also Published As

Publication number Publication date
KR20130080214A (ko) 2013-07-12

Similar Documents

Publication Publication Date Title
TWI512366B (zh) 二維/三維可切換式顯示模組及其驅動方法
US9253479B2 (en) Method and apparatus for displaying partial 3D image in 2D image display area
CN105744253B (zh) 自动立体三维显示设备
KR101236519B1 (ko) 입체 영상 표시장치와 그 구동 방법
CN105719592B (zh) 显示装置及其驱动方法
CN104539935B (zh) 图像亮度的调节方法及调节装置、显示装置
CN105182553B (zh) 一种显示装置
US8982117B2 (en) Display apparatus and method of displaying three-dimensional image using same
JP2016110115A (ja) 表示装置およびその駆動方法
CN102752617B (zh) 一种3d显示方法及显示装置
KR102218777B1 (ko) 무안경 입체영상표시장치
CN102801999A (zh) 基于裸眼3d显示技术的合成算法
US9734793B2 (en) Display apparatus and method for enabling perception of three-dimensional images
CN103424874A (zh) 3d显示驱动方法
KR20150121386A (ko) 입체 영상 표시 장치 및 영상 처리 방법
US20180217391A1 (en) 3D Display Device and Driving Method Thereof
US20110175857A1 (en) Method for displaying stereo-scopic image and display apparatus for performing the same
KR20120103101A (ko) 표시 장치 및 이를 이용한 입체 영상 표시 방법
CN102724539B (zh) 一种3d显示方法及显示装置
KR102233116B1 (ko) 입체 영상 디스플레이 장치와 이의 구동 방법
KR101973365B1 (ko) 표시 장치 및 이를 이용한 입체 영상 표시 방법
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR20160024283A (ko) 렌티큘러 렌즈 방식의 입체영상표시장치
KR101863140B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant