KR20120088467A - 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 - Google Patents

2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 Download PDF

Info

Publication number
KR20120088467A
KR20120088467A KR1020110009829A KR20110009829A KR20120088467A KR 20120088467 A KR20120088467 A KR 20120088467A KR 1020110009829 A KR1020110009829 A KR 1020110009829A KR 20110009829 A KR20110009829 A KR 20110009829A KR 20120088467 A KR20120088467 A KR 20120088467A
Authority
KR
South Korea
Prior art keywords
image
data
input
area
partial
Prior art date
Application number
KR1020110009829A
Other languages
English (en)
Inventor
윤해영
민웅규
김명환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110009829A priority Critical patent/KR20120088467A/ko
Priority to US13/209,139 priority patent/US9253479B2/en
Priority to JP2011225279A priority patent/JP6066547B2/ja
Priority to CN201110329398.XA priority patent/CN102625114B/zh
Publication of KR20120088467A publication Critical patent/KR20120088467A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

본 발명은 2차원 영상 표시 영역 내에 적어도 하나의 부분 3차원 영상을 디스플레이 하기 위하여 상기 2차원 영상 표시 영역과 상기 적어도 하나의 부분 3차원 영상을 디스플레이 하는 3차원 영상 표시영역을 구분하고, 상기 2차원 영상 표시 영역과 상기 3차원 영상 표시 영역에 각각 2차원 및 3차원 영상들을 디스플레이하기 위한 방법 및 장치를 제공하고 그것에 의해 디스플레이의 해상도를 향상한다.

Description

2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 {METHOD AND APPARATUS FOR DISPLAYING PARTIAL 3D IMAGE IN 2D IMAGE DISAPLY AREA}
본 발명은 2차원 영상 표시 영역 내에 적어도 하나의 3차원 영상을 표시하기 위한 방법 및 장치에 관한 것으로, 2차원 영상 표시 영역 내의 3차원 영상 표시 영역을 분리하는 방법 및 장치를 배제하지 않는다.
물체의 입체감은 양안 시차라 부르는 보는 사람 또는 관찰자의 좌측과 우측 눈들의 망막들을 통해 서로 다른 방향에서 동시에 그 물체를 보고 두뇌에 의한 인식에 의해 얻어질 수 있다. 따라서 3차원 (이하 "3D" 라 함) 영상을 디스플레이 하기 위하여 양안 시차의 원리를 이용하여 관찰자의 좌측과 우측 눈들이 서로 다른 영상들을 보고, 그 결과 관찰자는 3D 영상을 인식할 수 있다.
3D 디스플레이 기술은 3D 입체 영상을 볼 수 있게 하기 위하여 관찰자에게 셔터 안경과 같은 특별한 안경을 착용하는 것을 요구하는 기술, 소위 안경식 (stereoscopic) 디스플레이 기술과, 안경의 사용을 요구하지 않는 기술, 소위 무안경식 (auto-stereoscopic) 디스플레이 기술로 구분된다. 안경식 디스플레이 기술은 우측 눈 액정과 좌측 눈 액정이 교대로 미리 결정된 주기에서 각각 빛을 통과하고 통과하지 않는 액정 셔터 안경과 그러한 셔터 안경 구동 장치를 요구한다. 그러므로, 좌측 눈 영상과 우측 눈 영상을 다르게 분리하고 제공하는 것에 의해 입체 영상이 인식되게 된다. 그러한 종래 기술은 2003년 3월 4일 발행된 Tserkovnyuk 등의 미국 특허번호 6,529,175와 2004년 9월 14일 발행된 Okada 등의 미국 특허번호 6,791,599에 개시되어 있다. 그러나 안경식 디스플레이 기술은 그러한 액정 셔터 안경과 그것의 구동 장치와 같은 추가의 장치들을 필요로 한다는 점에서 결점들을 갖는다.
한편, 무 안경식 디스플레이 기술은 그러한 셔터 안경의 착용의 불편함 없이 3D 영상을 디스플레이 할 수 있는 이점을 갖는다. 무 안경식 디스플레이 기술은 패럴랙스 배리어 3D 디스플레이 장치와 렌티큘러 3D 디스플레이 장치를 포함할 수 있다. 패럴랙스 배리어 3D 디스플레이 장치는 행들과 열들의 매트릭스 형상으로 배열된 화소들을 가지는 디스플레이 패널 앞에 설치된 세로 격자 형상의 개구들을 가지는 패럴랙스 배리어를 갖는다. 그러면, 패럴랙스 배리어는 관찰자의 우측 눈과 좌측 눈에 대한 우측 영상과 좌측 영상을 분리하고 디스플레이 패널 상의 서로 다른 영상들의 양안 시차를 발생한다. 한편, 렌티큘러 3D 디스플레이 장치 또는 렌티큘러 장치는 세로 격자 형상의 패럴랙스 배리어 대신에 반 원통형 렌즈들의 열 방향 배열을 가지는 렌티큘러 렌즈 시트와, 렌티큘러 렌즈 시트와 마주보는 평탄한 표면화 된 판과, 렌티큘러 렌즈 시트와 평탄한 표면화 된 판 사이에 충전된 액정과, 렌티큘러 렌즈 시트와 평탄한 표면화 된 판의 내측들 상에 형성된 전극들을 포함한다. 그러한 렌티큘러 장치는 디스플레이 패널 앞에 설치되고 전극들 사이에 인가되는 전압의 온 또는 오프에 의해 2D와 3D 디스플레이 모드들 사이의 스위칭을 할 수 있다. 2D 모드에서, 액정 물질을 가로질러 인가되는 전압의 유·무에 따라 보는 방향에서 액정의 굴절률이 상기 시트에 대해 사용되는 물질의 굴절률과 실질적으로 동일하게 되게 하는 것에 의해 렌티큘러 장치의 렌즈 작용은 제거되고 렌티큘러 장치는 디스플레이 패널로부터 나오는 빛의 통로의 영향 없이 디스플레이 패널상의 빛 투과 판과 같이 작용을 한다. 그 반면, 3D 모드에서, 액정 물질을 가로질러 인가되는 전압의 유·무로 액정 물질의 배향에 따라 액정의 굴절률이 상기 시트에 사용되는 물질의 굴절률과 달리하는 것에 의해 렌티큘러 장치는 렌즈 작용을 할 수 있고 그것에 의해 관찰자에게 좌측과 우측 눈에 다른 영상을 제공하고 입체 영상을 보게 할 수 있다. 그러한 종래 기술은 2000년 5월 30일 발행된 Battersby의 미국 특허번호 6,069,650와 2010년 7월 20일 발행된 Sergey Shestak 등의 미국 특허번호 7,760,430에 개시되어 있다.
무 안경식 3D 장치는 관측자가 3D 영상을 볼 수 있는 시점이 고정될 수 있기 때문에 다수 시점으로 증가시키는 것이 중요하다. 따라서 3D 영상을 다수 시점에서 볼 수 있게 하기 위하여, 디스플레이 장치는 적절한 입력 데이터를 공급 받지 않으면 안 된다. 적절한 입력 데이터로서, 중앙 시점에 대한 입력 영상들의 시퀀스와 이것에 대응하는 깊이 맵들의 시퀀스가 사용된다. 입력 영상들에 대응하는 깊이 맵들로 화소들을 시프트하고, 시점수에 대응하는 출력 영상들의 집합이 발생된다. 출력 영상들의 집합으로부터 렌티큘러 장치를 사용하는 액정 디스플레이 패널을 구동하는 무 안경식 입체 영상 신호 또는 합성 입체 영상 신호가 생성된다. 이러한 무 안경식 3D 영상 데이터를 발생하는 장치와 방법은 2000년 5월 16일자로 발행된 미국 특허번호 6,064,424와 2009년 5월 7일 공개된 미국 공개 특허번호 2009/0115780에 개시되어 있다. 복수의 시점들과 각 깊이 데이터에 근거된 화소 쉬프트 데이터의 룩-업 테이블이 메모리에 저장되고, 화소 쉬프트 데이터에 근거된 쉬프트된 이미지 데이터에 의해 디스플레이 장치가 3D 영상 데이터를 디스플레이 한다. 그러한 룩-업 테이블을 계산하는 방법과 3D 영상 데이터를 디스플레이 하는 방법은 2010년 1월 14일 공개된 미국 공개 특허번호 2010/0007661에 개시되어 있다.
그러나, 3D 영상 디스플레이 시에 시점들의 수가 증가할 때, 해상도는 시점들의 수에 반비례한다. 2D 영상 표시 영역 내에 3D 영상이 디스플레이 되고, 2D 영상 표시 영역내에 2D 영역 디스플레이가 전술된 기술에 의해 3D 영상 디스플레이로 처리되는 경우, 2D 영상을 포함하는 전체 영상 디스플레이의 해상도는 시점들의 수의 증가시 감소된다. 그러므로, 2D 영상 디스플레이의 해상도를 증가시키는 것이 요구된다. 2D 영상표시 영역에서 해상도를 향상시키기 위해서, 2D 영상 표시 영역과 3D 영상 표시 영역은 분리되고, 2D 영상 표시 영역에 표시되는 2D 영상은 3D 영상 처리와 무관하게 디스플레이 하는 것이 요망된다.
본 발명의 목적은 디스플레이 해상도를 향상하기 위하여 2D 영상 표시 영역 내에 적어도 하나의 부분 3D 영상을 디스플레이 할 수 있는 방법을 제공하는 것이다.
본 발명의 다른 목적은 디스플레이 해상도를 향상하기 위하여 2D 영상 표시 영역 내에 적어도 하나의 부분 3D 영상을 디스플레이 할 수 있는 장치를 제공하는 것이다.
본 발명의 또 다른 목적은 디스플레이 해상도를 향상하기 위하여 2D 영상 표시 영역 내의 3D 영상 표시 영역을 구분하는 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 디스플레이 해상도를 향상하기 위하여 2D 영상 표시 영역 내의 3D 영상 표시 영역을 구분하는 회로를 제공하는 것이다.
상기와 같은 본 발명의 목적들 중 적어도 하나는 하기의 구성요소들에 의해 달성될 수 있다.
본 발명의 방법은 이차원(2D) 영상 표시 영역 내에 위치된 적어도 하나의 부분 3차원 (3D) 영상 영역 내의 부분 3D 영상을 제1시점에서 입력 데이터로서 2D 입력 영상 데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 디스플레이 패널 상에 무 안경식 디스플레이 하는 방법에 있어서,상기 제1 시점과 다른 복수의 주어진 시점들 중에 각 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 기준 값과 다른 상기 입력 깊이 데이터의 데이터 값들에 근거하여 각 3D 시프트 영상 영역을 상기 2D 입력 영상 영역에서 구분하는 과정을 포함함을 특징으로 한다.
본 발명의 상기 방법에서, 상기 기준 값은 상기 2D 입력 영상을 나타내는 깊이 데이터 값임을 특징으로 한다.
본 발명의 상기 방법은 상기 입력 데이터는 상기 2D 입력 영상 데이터에 대응하는 배경 입력 데이터를 더 포함하고, 상기 주어진 시점들에 대한 상기 각 3D 시프트 영상 영역들의 합에 대응하는 3D 합 영역을 가지며, 상기 3D 합 영역을 제외한 2D 영역에 배경 입력 영상 데이터에 근거하여 나머지 2D 영상을 발생하는 과정을 더 포함함을 특징으로 한다.
본 발명의 상기 방법은 상기 3D 합 영역 내의 화소들에게 미리 결정된 계조 값을 할당하는 과정을 더 포함함을 특징으로 한다.
본 발명의 상기 방법은 상기 부분 3D 영상 영역에 대응하는 상기 입력 깊이 데이터에 근거하여 상기 각 3D 시프트 영상 영역 내의 3D 영상을 발생하는 과정을 더 포함함을 특징으로 한다.
본 발명의 상기 방법은 상기 각 3D 시프트 영상 영역을 제외한 상기 2D 영상 영역 내의 화소들에게 미리 결정된 계조값을 할당하는 과정을 포함함을 특징으로 한다.
본 발명의 장치는 2D 영상 표시 영역 내에 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 디스플레이 상에 무 안경식 디스플레이 장치에 있어서,
상기 제1시점과 다른 복수의 주어진 시점들 중에 각 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 기준값과 다른 상기 입력 깊이 데이터에 근거하여 각 시프트 3D 영상 영역을 상기 2D 영상 영역에서 발생하는 3D 영역 구분회로를 포함함을 특징으로 한다.
본 발명은 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 2D 영상 표시 영역 내에 위치된 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 구분하는 방법에 있어서,
상기 제1시점과 다른 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 2D 입력 영상 데이터에 대응하는 입력 깊이 데이터를 기준 데이터와 비교하여 시프트 3D 영상 영역을 상기 2D 영상 영역에서 구분하는 과정을 포함함을 특징으로 한다.
본 발명의 상기 방법은 상기 기준 데이터는 상기 2D 영상 표시 영역 내의 2D 영상들을 나타내는 깊이 데이터 임을 특징으로 한다.
본 발명은 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 2D 영상 표시 영역 내에 위치된 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 구분하는 장치에 있어서,
상기 제1시점과 다른 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 2D 입력 영상 데이터에 대응하는 입력 깊이 데이터를 기준 데이터와 비교하여 시프트 3D 영상 영역을 상기 2D 영상 영역에서 구분회로를 포함함을 특징으로 한다.
본 발명에서 상기 방법은 상기 기준 데이터는 상기 2D 영상 표시 영역 내의 2D 영상들을 나타내는 깊이 데이터 임을 특징으로 한다.
도 2에 도시된 입력 영상이 무 안경식 입체 디스플레이 되는 경우, 2D 영역과 3D 영역을 구분하고 2D 영역은 도 2의 LU영역을 4배로 확대하기 때문에 1/4의 해상도를 갖지만, 종래기술에 따라 2D 영역과 3D 영역이 함께 3D 영상 디스플레이를 위해 처리된다면 해상도는 시점수에 반비례하여 전체 화면에 디스플레이 되므로 시점수가 증가하면 종래 기술에 따른 해상도는 2D 영역을 구분하여 2D 영상을 발생하는 해상도보다 감소한다.
도 1은 본 발명에 따른 구동부와 디스플레이부를 나타낸 개략적 블록도
도 2은 본 발명에서 사용되는 입력 영상을 나타낸 도면
도 3은 본 발명의 동작을 나타내는 개략적 타이밍도
도 4a 내지 4d도는 본 발명에 따른 구동 방법을 나타낸 개략적 흐름도
도 5는 종래 기술에 깊이 데이터에 따라 영상 데이터를 시프트하는 일례를 보여주는 개념도
본 발명에 따라 2D 영상 표시 영역 내에 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 무안경 디스플레이를 할 수 있는 방법 및 장치에 대한 상세한 설명이 이루어진다. 본 명세서의 실시예들에서 여러 수치들이 개시되고 있지만, 그러한 수치들은 청구 범위들에 기재되어 있지 않는 경우, 그러한 수치들은 그 청구범위들을 한정하지 않는다는 것을 유의하여야 한다.
도 1을 참조하면, 하나의 화면에 2D 영상과 2D 영상 내에 3D 영상을 무 안경식 디스플레이 할 수 있는 개략적 장치가 도시되어 있다. 그 장치는 디스플레이부(100)와 구동부(200)를 가진다. 디스플레이부(100)는 통상의 장치이지만, 간단한 설명이 이루어질 것이다. 디스플레이부(100)는 액정 디스플레이 패널과 같은 디스플레이 패널(120)과, 그 뒤에 위치된 백라이트 소스(110)와, 디스플레이 패널(120) 앞에 위치된 렌티큘러장치(130)를 포함한다. 디스플레이 패널(120)은 행들과 열들의 매트릭스 형식으로 배열된 화소들(도시되지 않았음)을 포함하고, 화소들은 게이트들, 소스들과 드레인들이 각각 행 라인들(또는 게이트 라인들), 열 라인들(또는 데이터 라인들)과 화소 전극들에 접속된 박막 트랜지스터들을 포함한다. 디스플레이 패널(120)은 행 및 열 라인들과 박막 트랜지스터들과 화소전극들이 형성된 제1기판과, 화소 전극들과 마주보는 공통 전극을 가지는 제2기판과, 제1 및 제2기판들 사이에 충전된 액정과 제1 및 제2 기판들 또는 이들 중 어느 하나의 외측에 위치된 편광판 또는 편광판들을 포함한다. 디스플레이 패널(120)은 게이트 라인들을 구동하기 위한 게이트 구동장치와 데이터 라인들을 구동하기위한 데이터 구동장치를 포함할 수 있다. 백라이트소스(110)는 디스플레이 패널(120)의 뒤 면에서 조사광을 발생하고, 화소 전극들과 공통 전극 사이에 인가되는 전압에 의해 발생되는 액정의 배향들의 변경들, 즉 액정의 굴절률들의 변경들은 상기 조사광의 투과를 변조하고 그것에 의해 영상을 발생할 수 있다. 렌티큘러 장치(130)는 전술된 바와 같이 디스플레이 패널 상의 2D 영상 또는 3D 영상을 스위치할 수 있는 통상의 장치이다.
구동부(200)는 본 발명에 따라 2D 영상 영역 내에 적어도 하나의 부분 3D 영상을 표현하는 렌더링(Rendering) 장치를 나타낸다.
구동부(200)는 입력 신호를 디코딩하기 위한 수신부(210)와, 메모리(230)에 저장된 프로그램을 수행하는 제어부(220)와, 제어부(220)의 제어에 따라 정면 시점에서 본 2D 영상 영역 내에 부분 3D 영상들을 나타내는 2D 입력 영상 데이터와 이에 대응하는 입력 깊이 데이터로부터 복수의 주어진 시점들의 각 시점에 대해 각 3D 시프트 영상 영역을 발생하는 3D 영역 구분회로(240)와, 각 시점에 대해 각 3D 시프트 영상 영역을 제외한 각 2D 영상 영역에 있는 2D 영상들의 화소 데이터을 발생하고 각 3D 시프트 영상 영역 내의 화소들에게 미리 결정된 계조값을 할당하는 2D 영상 발생회로(250)와, 상기 부분 3D 영상 영역 내의 데이터의 상기 입력 깊이 데이터에 근거하여 각 3D 시프트 영상 영역 내의 3D 영상의 화소데이터를 발생하고 상기 각 3D 시프트 영상 영역을 제외한 각 2D 영상 영역 내의 화소들에게 미리 결정된 계조값들을 할당하는 3D 영상 발생회로(260)와, 상기 2D 입력 영상 데이터와 이에 대응하는 입력 데이터의 한 프레임 주기보다 더 짧은 제1기간 과 그 뒤의 제2기간에 2D 영상 발생회로(250)로부터 발생된 각 시점에서 영상 데이터들과 3D 영상 발생회로(250)로부터 발생된 각 시점에 대한 영상 데이터들에 의해 디스플레이 패널(120)이 디스플레이 할 수 있도록 타이밍을 제공하는 타이밍 제어기(TCON)(280)와, 상기 제1 기간과 제2 기간에 백라이트 소스(110)가 조사광을 방사하도록 제어하는 백라이트 소스 제어기(290)와, 상기 제2 기간에 3D 영상을 발생하도록 렌티큘러 장치(130)에 전원을 제공하는 렌티큘러 제어기(270)를 포함한다.
수신부(210)에 의해 디코딩된 입력 영상신호의 열은 제어부(220)의 제어하에 메모리(230)에 저장될 수 있다. 수신부(210)는 디지털 모뎀을 포함할 수 있고 제어부(220)는 마이크로 프로세서 또는 중앙처리 장치가 될 수 있다.
수신부(210)에서 디코딩된 영상 신호의 데이터는 도2에 도시된 데이터가될 수 있다.
도 2를 참조하면, FHD (Full High Definition), 즉 1920 x 1080의 고해상도를 가지는 화소들에 대한 영상 데이터를 나타내는 개략적 도면이 도시되어 있다. 1080개의 행들과 1920개의 열들은 라인들 L1과 L2에 대해 4등분된다. 좌측 상부 영역(LU), 우측 상부 영역(RU), 좌측 하부 영역(LL), 및 우측 하부영역(RL)은 각각 940 x 540의 해상도를 갖는다. 라인 L1의 좌측 영역들, 즉 영역들 LU와 LL은 칼라, 즉 적색(R), 녹색(G) 및 청색(B)의 정보를 나타내고 라인 L1의 우측 영역들, 즉, 영역들 RU와 RL은 깊이 정보를 나타낸다. 라인 L2의 상부 영역들, 즉 영역들 LU와 RU는 정면에서 본 정면 정보를 나타내고 라인 L2의 하부 영역들, 즉, 영역들 LL과 RL은 배면에서 본 배면 정보를 나타낸다. 따라서, LU 영역의 화소들은 중앙 시점, 예를 들어 화면 앞의 9개의 시점들을 가정하면, 5번째 시점에서 보는 2D 입력 영상 데이터를 가지는 화소들이고, RU 영역의 화소들은 LU 영역 내의 2D 입력 영상 데이터에 대응하는 깊이 데이터를 나타내는 화소들이다. 마찬가지 방법으로, 영역 LL은 영역 LU에서 2D 입력 영상의 배면 영상 데이터, 즉 입력 배경 영상 데이터를 나타내는 영역이고 영역 RL은 영역 LL에서 입력 배경 영상 데이터의 깊이 데이터를 나타내는 영역이다.
도 2에 도시된 바와 같이, 영역 LU은 2D 입력 영상 영역(204) 내에 있는 부분 3D 입력 영역(202)을 가지며, 영역 RU는 상기 부분 3D 입력영역(202)에 대응하는 부분 3D 입력 깊이 데이터 영역(206)을 갖는다. 영역 LU 내의 화소들은 영역 RU 내의 화소들과 1 : 1 대응관계를 갖고, 영역 LL 내의 화소들은 영역 RL 내의 화소들과 1 : 1 대응관계를 갖는다. 즉, 영역 LU 내의 i번째 행과 j번째 열에 있는 화소는 영역들 RU, LL, 및 RL의 각각에서 i번째 행과 j번째 열에 있는 화소에 대응한다. 따라서, 동일한 행과 열에 있는 화소들로부터 색 정보, 깊이 정보, 배경 정보, 및 배경 깊이 정보가 취득될 수 있다.
2D 입력 영상 영역(204) 내에 위치된 부분 3D 입력 영역(202) 내의 부분 3D 입력 영상을 무 안경식 입체 디스플레이를 하기 위해, 복수의 시점들의 각 시점들에서 부분 3D 입력 영상의 경계 상의 화소들의 깊이 값들의 변화들을 검출하고 그 검출에 의해 시프트 되는 화소들에 의해 이동된 3D영역과 이동되지 않는 2D 영역을 구분하는 것이 요구된다.
본 발명에서 사용되는 깊이 값들은 계조 값들이 된다. 계조 값들, 즉 깊이 값들 에 의해 각 시점들에서 이동되는 화소 시프트 데이터는 전술된 미국 공개 특허 번호 2010/0007661에 개시되어 있다. 본 발명의 이해를 돕기 위하여, 상기 공개특허의 도 5는 본 명세서에 개시 된다.
도 5을 참조하면, 9개의 시점들이 화면 앞에 위치한다. 칼라의 경우 적색(R), 녹색(G), 및 청색(B)의 부화소들의 각각으로 화소는 정의된다. 각 화소, 즉 각 부화소는 8비트의 데이터를 갖는다 가정한다. 그러면 256개의 계조값을 각 화소는 갖는다. 화면의 계조값, 즉 기준값이 128이라 가정하면 화면 전면의 화소들의 계조 값들은 129에서 256의 계조 값들을 가질 것이고, 화면 후면의 화소들의 계조 값들은 1에서 127의 계조값들을 가질 것이다. 화면 상에 수직하고 중앙시점 5 방향에 높이 h를 가지는 A점이 가장 높은 점이라면, 즉 A점이 최대 높이의 점이라면 A점에 대한 계조 값은 256이다. 이와 같이, 최대 높이 값이 주어지면, 최대 높이 이하의 높이들에 대한 계조 값들, 즉 깊이 값들이 결정될 수 있다. 또한 가장 낮은 높이는 1의 계조 값을 갖는다. 따라서 가장 높은 높이와 가장 낮은 높이가 주어지면 높이들의 계조 값들이 결정된다. A점의 높이 h가 주어진다면 그것의 계조 값은 결정된다. A점에 대한 각 시점에서의 화소 시프트 데어터가 계산될 수 있다. 첫 번째 시점 1에서 볼 때, 화면 상에서 A점에서 A" 점으로 화소 쉬프트 데이터는 화소 단위들로 하기 수학식 (1)로 표현될 수 있다.
화소 시프트 데이터 = (h * D)/{q * (H-h)} … (1)
여기에서 H는 시점 1에서 화면까지의 거리이고 h는 A점의 높이이고, D는 중앙 시점 라인에서 첫 번째 시점까지의 거리를 나타낸다. 높이 값 h가 주어지면 그것의 계조 값 즉 깊이 값이 결정되고 각 시점에서 화소 시프트 데이터가 식 (1)에 근거하여 계산될 수 있다. 따라서 계조 값, 즉 깊이 값이 주어지면, 그 깊이 값에 대한 9개의 시점들의 각각에 대한 화소 시프트 데이터가 계산될 수 있고, 256개의 계조 값들과 9개의 시점들에 대한 화소 시프트 데이터의 룩 업 테이블이 만들어질 수 있고, 룩 업 테이블을 메모리(230)에 저장할 수 있다. 각 시점에 대한 화소 시프트 데이터는 상기 식 (1)에 근거하여 계산할 수 있을 뿐만 아니라 룩 업 테이블의 참조에 의해 결정할 수 있다.
본 발명은 화면의 계조 값이 128이라 가정하여 설명될 것이지만 화면의 계조값, 즉 기준 깊이 값은 설계 안에 따라 적절한 값을 선택할 수 있다.
도 3을 참조하면, 도 2에 도시된 입력 영상이 본 발명에 적용하는 경우, 본 발명의 동작 타이밍도가 도시되어 있다. 도 2에 도시된 입력 영상은 FHD 해상도, 즉 1920 x 1080의 해상도를 갖기 때문에, 1080개의 수평 주기들의 각 수평주기(1H)에 1920개의 화소 데이터를 갖는 데이터 인에이블 신호로 제공될 수 있다. 데이터 인에이블 신호와 함께 수직 동기 신호 (VS) 정보 에 의해 수직 동기 신호 (VS)를 만들 수 있고 한 프레임(1F) 내에 1080개의 수평 주기를 갖는 데이터 인에이블신호(DE)가 입력 인에이블 신호로부터 생성될 수 있다. 한 프레임 내의 입력 영상 데이터, 즉, 한 프레임 내의 도 2에 도시된 입력 영상 데이터는 메모리(230)에 저장된다. 그러므로, 도 3에 도시된 현재의 프레임 (300) 이전의 프레임에서 메모리(230)에 저장된 입력 영상 데이터는 도 3의 현재의 프레임 (300)에서 출력 영상을 발생한다. 즉 기간 T1에서 이전 프레임 내의 입력 영상 데이터에 대해 흑색 계조 값을 할당한 출력 영상을 출력한다. 따라서 이전 프레임에서 공급된 입력 영상 데이터를 갖는 전체 화소들의 화소 데이터 값들은 흑색 계조 값을 갖도록 출력영상이 액정 디스플레이 패널(120)로 공급된다.
T2기간에서, 모든 시점들에 대한 구분된 부분 3D 시프트 영역들의 합에 대응하는 3D 합 영역 내의 화소들의 화소값들은 미리 결정된 계조 값으로 할당된다. 3D 합 영역을 제외한 2D 영역에 도 2의 영역 LL 내의 배경 입력 영상 데이터에 근거하여 나머지 2D 영상을 발생한다. 미리 결정된 계조 값을 갖는 3D 합 영역과 나머지 2D 영상을 가지는 2D 합 영상신호를 발생하고 T2 기간에 2D 합 영상신호가 액정 디스플레이 패널로 공급된다. 백라이트 소스(110)는 T2기간에서 턴온된다. 그 반면 렌티큘러 장치는 턴오프된다.
T3 기간에서, T1기간과 마찬가지 방식으로, 이전 프레임에서 공급된 입력 영상 데이터를 갖는 전체 화소들의 화소 데이터 값들은 흑색 계조 값을 갖도록 출력 영상이 액정 디스플레이 패널로 공급된다. T1과 T3 기간에서 렌티큘러장치(130)와 백라이트 소스(110)의 양자는 턴오프된다.
T4기간에서, 각 시점에 대해 부분 3D 영상 영역에 대응하는 입력 데이터에 근거하여 각 3D 시프트 영상 여역에 3D 영상이 발생되고 각 3D 시프트 영상 영역을 제외한 나머지 2D 영상 영역 내의 화소들은 미리 결정된 계조 값으로 할당된다. 각 시점에 대한 3D 영상을 갖는 각 3D 시프트 영상 영역과 미리 결정된 계조 값을 갖는 나머지 2D 영상 영역을 가지는 각 3D 합 영상이 생성된다. 9개의 시점들에 대응하는 9개의 3D 합 영상들의 각 해상도가 디스플레이 패널(120)의 해상도와 일치하도록 각 3D 합 영상들의 화소들을 확대하고 배열한 합성 3D 영상신호가 액정 디스플레이 패널(120)로 제공된다. 이 기간에서, 렌티큘러장치(130)는 턴온되고 백라이트 소스는 T2기간에서 조사 광보다 더 높은 조사광을 방사하도록 더 높은 전압이 백라이트 소스로 인가된다.
따라서, T1~T4의 기간들의 각각이 1 프레임 기간의 사분의 1이라 가정한다면 액정 디스플레이 패널(120)과 렌티큘러장치(130)에서 사용되는 액정들은 고속으로 응답할 수 있는 액정이 사용될 필요가 있다. 그러한 액정으로서 Merck회사의 제품 코드명 MAT-10-238 네마틱 액정이 사용될 수 있다.
도4a 내지 도4d를 참조하면, 본 발명을 실행하는 개략적 플로차트들이 도시되어 있다.
도4a를 참조하면, 과정(402)은 시작 과정이다. 과정(404)에서, 초기화가 행해진다. 즉 n은 0으로 설정된다. 과정 (406)에서 n은 1로 설정된다. 과정(408)에서, F1 프레임, 즉 첫 번째 프레임 내의 입력 영상 데이터를 메모리(203)에 저장한다. 즉 첫 번째 프레임에 있는 도2에 나타낸 바와 같이 960 x 540의 해상도를 가지는 영역 LU에 있는 2D 입력 영상(또는 화소) 데이터와 동일한 해상도를 가지는 영역 RU에 있는 상기 2D 입력 영상(또는 화소)데이터에 대응하는 입력 깊이 데이터와, 동일한 해상도를 가지는 영역 LL에 있는 상기 2D 입력 영상(또는 화소) 데이터에 대응하는 입력 배경 데이터와, 동일한 해상도를 가지는 영역 RL에 있는 상기 입력 배경 데이터에 대응하는 입력 배경 깊이 데이터가 메모리에 저장된다.
과정(410)에서, 상기 메모리에 저장된 입력 영상 데이터로부터 헤더를 읽는다. 헤더는 입력 영상 데이터가 3D, 2D 또는 부분 3D 영상을 나타내는 데이터인지를 판단할 수 있는 정보를 제공한다. 헤더는 960 x 540의 해상도의 첫 번째 행에 배열된 화소 데이터로부터 읽을 수 있다. 각 행에 배열된 화소들은 전술된 바와 같이 R, G, 및 B의 부화소들이고 각 화소는 8비트의 데이터를 갖기 때문에 적절한 화소 또는 화소들의 MSB의 비트들 값에 의해 헤더가 정의될 수 있다.
과정(412)에서, 읽혀진 헤더가 3D 영상을 나타내는지를 판단한다. 3D 영상이 아닌 경우, 과정들 414와 415에서 F1프레임 내의 입력 영상 데이터는 2D 영상을 나타내기 때문에 영역 LU 내의 2D 입력 영상 데이터를 통상의 방법에 따라 2D 출력 영상이 발생된다. 그 후의 연속하는 프레임들에서 2D 출력 영상들이 과정들 406~415의 반복에 의해 발생된다. 읽어진 헤더가 3D 영상을 나타내지만 부분 3D 영상을 나타내지 않는다면, 과정들(418과 419)에서 2D 입력 영상데이터와 이에 대응하는 깊이 데이터로 3D 출력 영상이 통상의 방법에 의해 예컨데 전술된 바와 같이 미국공개 특허 번호 2009/0115780의 개시에 의해 발생될 수 있다. 그 후, 연속하는 프레임들에서 3D 출력 영상들은 과정들 406 내지 412와 과정들 416 내지 419의 반복에 의해 발행된다. 과정 416에서, 읽어진 헤더가 부분 3D 영상을 나타낸다면, 과정 420이 행해진다.
과정(420)및 과정 (420) 이후의 과정들은 본 발명의 특징에 따라 3D 영상 영역을 2D 영상 영역 내에 갖는 경우 행해진다. 과정(420)은 본 발명의 특징에 따라 부분 3D 시프트 영역과 부분 3D 시프트 영역을 제외한 나머지 2D 영역을 구분한다. 9개의 시점들이 있다고 가정하고 입력 영상 데이터는 도2에 도시한 바와 같이 2D 입력 영상(또는 화소) 데이터가 2D 입력 영상영역(204) 내에 부분 3D 입력 영역(202)을 갖는 경우를 나타낸다는 것이 가정될 것이다. 그러면 2D 입력 영상영역(204) 내의 부분 3D 입력영역(202)을 제외한 나머지 영역의 화소 데이터에 대응하는 제1 영역(206)에서 입력 깊이 데이터는 상기 나머지 영역은 2D 영상을 갖기 때문에 전술된 바와 같이 128의 기준값을 갖는다. 그러나, 부분 3D 입력 영역(202)에 부분 3D 입력 영상은 3D 영상을 갖기 때문에 부분 3D 입력 영역(202)에 대응하는 제2영역(208)에서 입력 깊이 데이터는 기준값이 아닌 깊이 값들을 갖는다. 따라서 부분 3D 입력영역(202)의 경계에 대응하는 제2영역(208)의 경계의 이웃에 있는 화소들의 깊이 값들은 128의 기준값과 비교되고 3D영상을 나타내는 128이 아닌 타의 깊이 값들을 가지는 경우 타의 깊이 값들에 의해 메모리(230) 내에 저장된 룩 업 테이블을 참조하여 9개 시점들의 각 시점에 대한 부분 3D 입력 영역의 시프트가 결정되고 시프트 된 부분 3D입력 영역에 의해 2D 영역에서 부분 3D 입력 영역이 각 시점에 대해 구분된다. 즉, 영역 RU 내의 각 라인들을 순차로 스캔하는 것에 의해 기준 값이 아닌 깊이 데이터 값을 가지는 시작점들과 마지막 점들을 검출하는 것에 의해 부분 3D 입력 영역(202)의 경계가 결정된다. 그러면 경계를 나타내는 시작점들과 마지막 점들의 깊이 데이터 값들로 수학식(1)에 의해 계산하거나 메모리(230)에 저장된 룩 업 테이블을 참조하는 것에 의해 각 시점에 대한 각 부분 3D 시프트 영역과 2D 영역이 구분된다. 달리 말한다면 부분 3D 입력 영역(202)의 에지에서 화소들의 깊이 데이터는 기준 값과 비교되고, 에지에서 기준 값과 다른 깊이 데이터에 근거하여 각 시점에 대한 부분 3D 시프트 영역이 2D 영역과 구분된다.
도 4d를 참조하면, 과정 (420)의 개략적 서브루틴이 도시되어 있다. 과정 (502)에서, 2D 입력 영상 데이터에 대응하는 입력 깊이 데이터가 2도의 영역 RU 내의 행라인을 순차로 스캔하는 것에 의해 읽혀진다. 과정 (504)에서 읽은 깊이 데이터가 기준값인지를 판단한다. 기준값인 경우 그 다음 입력 깊이 데이터가 읽혀지고 읽혀진 깊이 데이터가 기준값이 아닌 경우까지 계속 진행한다. 과정 (504)의 판단에 의해 행라인들의 스캔에 의해 각 행라인 스캔에 의해 검출된 기준값이 아닌 시작과 마지막 깊이 데이터 값들의 집합은 부분 3D 입력 영역의 경계 또는 에지가 된다. 상기 경계 또는 에지에서 깊이 데이터 값들과 이들의 위치 또는 기준 값이 아닌 깊이 데이터 값을 갖는 영역이 메모리(230)에 저장될 수 있다. 상기 경계 또는 에지에서 깊이 데이터 값들로 수학식(1)에 의해 계산하거나 메모리(230)에 저장된 룩 업 테이블을 참조하는 것에 의해 각 시점들에서 화소시프트 값들이 결정된다(과정(506)). 과정들 (502) 내지 (506)은 영역 RU의 마지막 행을 스캔하는 것에 의한 읽기의 종료까지 행해진다. 과정 (508)에서 읽기가 종료되면, (509)과정에서 각 주어진 시점들에서 부분 3D 시프트 영역과 2D 영역이 구분되고 결정된다.
도 4d로 돌아가면, 도 3에 도시된 타이밍도가 실행된다. 과정 (422)에서 T1기간 인지를 판단한다. T1기간이면 이전 프레임 F1 내의 영상데이터가 흑색의 계조 값을 갖도록 과정 424에서 출력 영상을 발생한다. 과정 426에서 이전 프레임 F1 내의 모든 영상 데이터에 대해 흑색 계조 값의 영상출력이 행해졌는지를 판단하고 T1 기간 내에서 F1 내의 모든 영상 데이터에 대한 흑색 디스플레이 신호가 액정 디스플레이 패널(120)로 제공된다. (과정(428))
T1기간의 경과에 의해 과정 (430)이 시작된다. 과정(432)에서, 모든 시점에 대한 구분된 부분 3D 시프트 영역들의 합에 대응하는 3D 합 영역 내의 화소들의 화소값들은 백 또는 흑을 포함하는 임의의 계조값, 즉 미리 결정된 계조 값으로 할당된다. 과정(434)에서, 3D 합 영역을 제외한 2D 영역에 도 2의 영역 LL 내의 배경 2D 데이터 및/또는 영역 LU 내의 2D 입력 영상 데이터에 근거하여 배경 화소들이 할당된 나머지 2D 영상을 생성한다. 과정 (436)에서, 미리 결정된 계조값을 갖는 3D 합 영역과 나머지 2D 영상을 가지는 2D 합 영상 신호가 생성되고 2D 합 영상 신호는 디스플레이 패널(120)로 제공된다. T2기간에서, 백라이트 소스는 턴온되고, 2D 영상들 만이 디스플레이 되기 때문에 렌티큘러 장치는 오프된다.
T2 기간이 경과되면 T3기간이 시작되기 때문에 과정들(440 내지 444)이 행해진다. 과정들(440 내지 444)는 T1 기간에서 행해지는 과정들(424 내지 428)과 동일하다. 따라서 T12 기간에서 F1 프레임에서 모든 화소들은 흑색 계조 값을 가지도록 디스플레이 신호가 발생되고 T3기간과 T1기간에서 액정 디스플레이 패널(120)은 흑색을 나타낸다.
T3기간이 경과되면 T4기간이 시작되고 과정(446)의 판단 과정에 의해 과정들(448 내지 452)이 행해진다. 과정(448)에서 각 시점에 대해 부분 3D 영상 영역에 대응하는 입력 깊이 데이터에 근거하여 각 3D 시프트 영상 영역 내에 3D 영상이 발생된다. 과정 (450)에서 각 시점에 대해 각 3D 시프트 영상 영역을 제외한 나머지 2D 영상 영역 내의 화소들에게 미리 결정된 계조 값이 할당된다. 과정 (452)에서, 각 시점에 대해 3D 영상을 갖는 각 3D 시프트 영상 영역과 미리 결정된 계조 값을 갖는 나머지 2D 영상 영역을 가지는 각 3D 합 영상이 생성된다. 그러므로, 9시점에 대해 9개의 3D 합 영상들의 각각은 전술된 바와 같이 960 x 540의 해상도를 갖는다. 각 3D 합 영상들은 1920 x 1080의 해상도로 규격화 되고, 9개의 규격화된 3D 합 영상들을 무 안경식 입체 영상이 되도록 매핑하는 것에 의해 발생된 화소들의 배열에 의해 생성된 합성 3D 영상이 디스플레이 패널(120)에 제공된다. F1프레임의 데이터 처리가 종료되면 과정 (406)으로 가고 F2 프레임의 데이터 처리가 행해진다.
전술된 부분 3D영상을 무 안경식 입체 디스플레이하는 방법은 프로세서에 의한 프로그램에 의해 행해질 수 있다.
100 : 디스플레이부
200 : 구동부
110 : 백라이트 소스
120 : 액정 디스플레이 패널
130 : 렌티큘러 장치
210 : 수신부
220 : 제어부
230 : 메모리
240 : 3D 영역 구분회로
250 : 2D 영상 발생회로
260 : 3D 영상 발생회로
270 : 렌티큘러 제어기
280 : 타이밍 제어기(TCON)
290 : 백라이트 소스 제어기
L1, L2 : 라인들
202 : 부분 3D 입력 영역
204 : 2D 입력 영상영역
206 : 3D 입력 깊이 데이터 영역
208 : 제2영역

Claims (11)

  1. 이차원(2D) 영상 표시 영역 내에 위치된 적어도 하나의 부분 3차원 (3D) 영상 영역 내의 부분 3D 영상을 제1시점에서 입력 데이터로서 2D 입력 영상 데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 디스플레이 패널 상에 무 안경식 디스플레이 하는 방법에 있어서,
    상기 제1 시점과 다른 복수의 주어진 시점들 중에 각 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 기준 값과 다른 상기 입력 깊이 데이터의 데이터 값들에 근거하여 각 3D 시프트 영상 영역을 상기 2D 입력 영상 영역에서 구분하는 과정을 포함함을 특징으로 하는 상기 방법.
  2. 제1항에 있어서, 상기 기준 값은 상기 2D 입력 영상을 나타내는 깊이 데이터 값임을 특징으로 하는 상기 방법.
  3. 제1항에 있어서, 상기 입력 데이터는 상기 2D 입력 영상 데이터에 대응하는 배경 입력 데이터를 더 포함하고, 상기 주어진 시점들에 대한 상기 각 3D 시프트 영상 영역들의 합에 대응하는 3D 합 영역을 제외한 2D 영역에 배경 입력 영상 데이터에 근거하여 나머지 2D 영상을 발생하는 과정을 더 포함함을 특징으로 하는 상기 방법.
  4. 제3항에 있어서, 상기 3D 합 영역 내의 화소들에게 미리 결정된 계조 값을 할당하는 과정을 더 포함함을 특징으로 하는 상기 방법.
  5. 제4항에 있어서, 상기 부분 3D 영상 영역에 대응하는 상기 입력 깊이 데이터에 근거하여 상기 각 3D 시프트 영상 영역 내의 3D 영상을 발생하는 과정을 더 포함함을 특징으로 하는 상기 방법.
  6. 제5항에 있어서, 상기 각 3D 시프트 영상 영역을 제외한 상기 2D 영상 영역 내의 화소들에게 미리 결정된 계조값을 할당하는 과정을 포함함을 특징으로 하는 상기 방법.
  7. 2D 영상 표시 영역 내에 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 디스플레이 상에 무 안경식 디스플레이 장치에 있어서,
    상기 제1시점과 다른 복수의 주어진 시점들 중에 각 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 기준값과 다른 상기 입력 깊이 데이터에 근거하여 각 시프트 3D 영상 영역을 상기 2D 영상 영역에서 발생하는 3D 영역 구분회로를 포함함을 특징으로 하는 상기 장치.
  8. 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 2D 영상 표시 영역 내에 위치된 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 구분하는 방법에 있어서,
    상기 제1시점과 다른 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 2D 입력 영상 데이터에 대응하는 입력 깊이 데이터를 기준 데이터와 비교하여 시프트 3D 영상 영역을 상기 2D 영상 영역에서 구분하는 과정을 포함함을 특징으로 하는 상기 방법.
  9. 제 8항에 있어서, 상기 기준 데이터는 상기 2D 영상 표시 영역 내의 2D 영상들을 나타내는 깊이 데이터 임을 특징으로 하는 상기 방법.
  10. 제1시점에서 입력 데이터로서 2D 입력 영상데이터와 이에 대응하는 입력 깊이 데이터에 근거하여 2D 영상 표시 영역 내에 위치된 적어도 하나의 부분 3D 영상 영역 내의 3D 영상을 구분하는 장치에 있어서,
    상기 제1시점과 다른 주어진 시점에서 상기 부분 3D 영상 영역의 경계에서 2D 입력 영상 데이터에 대응하는 입력 깊이 데이터를 기준 데이터와 비교하여 시프트 3D 영상 영역을 상기 2D 영상 영역에서 구분회로를 포함함을 특징으로 하는 상기 장치.
  11. 제 10항에 있어서, 상기 기준 데이터는 상기 2D 영상 표시 영역 내의 2D 영상들을 나타내는 깊이 데이터 임을 특징으로 하는 상기 장치.
KR1020110009829A 2011-01-31 2011-01-31 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치 KR20120088467A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020110009829A KR20120088467A (ko) 2011-01-31 2011-01-31 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치
US13/209,139 US9253479B2 (en) 2011-01-31 2011-08-12 Method and apparatus for displaying partial 3D image in 2D image display area
JP2011225279A JP6066547B2 (ja) 2011-01-31 2011-10-12 2次元映像表示領域内に部分3次元映像を表示する方法及び装置
CN201110329398.XA CN102625114B (zh) 2011-01-31 2011-10-24 显示3d图像的方法和设备以及区分3d图像的设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110009829A KR20120088467A (ko) 2011-01-31 2011-01-31 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20120088467A true KR20120088467A (ko) 2012-08-08

Family

ID=46564775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110009829A KR20120088467A (ko) 2011-01-31 2011-01-31 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치

Country Status (4)

Country Link
US (1) US9253479B2 (ko)
JP (1) JP6066547B2 (ko)
KR (1) KR20120088467A (ko)
CN (1) CN102625114B (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122106B2 (en) 2012-10-17 2015-09-01 Samsung Display Co., Ltd. Display apparatus
KR20150121386A (ko) * 2014-04-18 2015-10-29 삼성디스플레이 주식회사 입체 영상 표시 장치 및 영상 처리 방법
US9420267B2 (en) 2013-12-13 2016-08-16 Samsung Display Co., Ltd. Display device and liquid crystal lens panel device for the same
US10162225B2 (en) 2013-12-24 2018-12-25 Samsung Display Co., Ltd. Image controlling panel for display device displaying one of two dimensional image and three dimensional stereoscopic image

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120088467A (ko) * 2011-01-31 2012-08-08 삼성전자주식회사 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치
US20130050415A1 (en) * 2011-08-30 2013-02-28 Himax Technologies Limited System and Method of Handling Data Frames for Stereoscopic Display
JP2013134279A (ja) * 2011-12-26 2013-07-08 Jvc Kenwood Corp 裸眼立体ディスプレイ装置
CN103369338B (zh) * 2013-06-25 2016-01-20 四川虹视显示技术有限公司 基于fpga的近眼双目成像系统的图像处理系统及方法
US20160203624A1 (en) * 2014-03-05 2016-07-14 Google Inc. System and Method for Providing Combined Multi-Dimensional Map Views
GB2540377A (en) 2015-07-14 2017-01-18 Sharp Kk Parallax barrier with independently controllable regions
GB2540376A (en) * 2015-07-14 2017-01-18 Sharp Kk Parallax barrier with independently controllable regions
KR102427854B1 (ko) * 2017-09-25 2022-08-01 삼성전자주식회사 영상 렌더링 방법 및 장치
US10999573B2 (en) * 2018-04-25 2021-05-04 Raxium, Inc. Partial light field display architecture
CN109144393B (zh) * 2018-08-28 2020-08-07 维沃移动通信有限公司 一种图像显示方法及移动终端
CN112584124A (zh) * 2019-09-30 2021-03-30 北京芯海视界三维科技有限公司 实现3d显示的方法及装置、3d显示终端

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907174A (en) * 1988-06-02 1990-03-06 Sun Microsystems, Inc. Z-buffer allocated for window identification
JPH0345994A (ja) * 1989-07-13 1991-02-27 Seiko Instr Inc 画像表示装置
GB9513658D0 (en) 1995-07-05 1995-09-06 Philips Electronics Uk Ltd Autostereoscopic display apparatus
US6157424A (en) * 1998-03-30 2000-12-05 Dimension Technologies, Inc. 2D/3D imaging display
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
US6891240B2 (en) 2002-04-30 2005-05-10 Xerox Corporation Electrode design and positioning for controlled movement of a moveable electrode and associated support structure
KR100487309B1 (ko) * 2002-05-17 2005-05-03 엘지전자 주식회사 Lcd 프로젝션 티브이의 감마 & 화이트 밸런스조정장치 및 그 방법
WO2004030377A1 (ja) 2002-09-27 2004-04-08 Sharp Kabushiki Kaisha 立体画像表示装置、記録方法、及び伝送方法
JP2004294477A (ja) 2003-03-25 2004-10-21 Dhs Ltd 三次元画像計算方法、三次元画像作成方法及び三次元画像表示装置
GB0326005D0 (en) * 2003-11-07 2003-12-10 Koninkl Philips Electronics Nv Waveguide for autostereoscopic display
JP2005164916A (ja) * 2003-12-02 2005-06-23 Canon Inc 立体表示装置
GB0328005D0 (en) * 2003-12-03 2004-01-07 Koninkl Philips Electronics Nv 2D/3D Displays
ATE397833T1 (de) * 2004-08-17 2008-06-15 Koninkl Philips Electronics Nv Ansichtsmoduserkennung
JP2006186768A (ja) 2004-12-28 2006-07-13 Seiko Epson Corp 画像表示装置及び方法
TWI261099B (en) * 2005-02-17 2006-09-01 Au Optronics Corp Backlight modules
US8279272B2 (en) * 2005-04-08 2012-10-02 Reald Inc. Autostereoscopic display with planar pass-through
ES2602091T3 (es) * 2005-06-23 2017-02-17 Koninklijke Philips N.V. Intercambio combinado de datos de imagen y relacionados
WO2007036816A2 (en) * 2005-09-28 2007-04-05 Koninklijke Philips Electronics N.V. 2d/3d switchable display device
CN1971340A (zh) 2005-11-21 2007-05-30 耿征 真三维高清晰度显示方法和装置
RU2442198C2 (ru) * 2006-03-03 2012-02-10 Конинклейке Филипс Электроникс Н.В. Автостереоскопическое устройство отображения, использующее матрицы управляемых жидкокристаллических линз для переключения режимов 3d/2d
KR100839429B1 (ko) 2007-04-17 2008-06-19 삼성에스디아이 주식회사 전자 영상 기기 및 그 구동방법
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
KR20100033067A (ko) * 2008-09-19 2010-03-29 삼성전자주식회사 2차원과 3차원 겸용 영상 표시 장치 및 방법
KR101260613B1 (ko) * 2008-12-26 2013-05-03 닛뽕빅터 가부시키가이샤 화상 부호화 장치, 화상 부호화 방법 및 그 프로그램 및 화상 복호화 장치, 화상 복호화 방법 및 그 프로그램
JP5185145B2 (ja) 2009-01-16 2013-04-17 株式会社東芝 立体画像表示装置、立体画像表示方法
KR20110113186A (ko) * 2009-01-20 2011-10-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 비디오 인터페이스를 통해 송신하고 3d 비디오 및 3d 오버레이들을 합성하기 위한 방법 및 시스템
EP2416583A4 (en) * 2009-03-30 2013-12-25 Nec Corp PICTURE DISPLAY DEVICE, PICTURE GENERATING DEVICE, PICTURE DISPLAY METHOD, PICTURE PRODUCTION METHOD, AND NON-TRANSITORY COMPUTER-READABLE MEDIUM WITH A PROGRAM STORED THEREFOR
WO2011049519A1 (en) * 2009-10-20 2011-04-28 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for multi-view video compression
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
US20120050483A1 (en) * 2010-08-27 2012-03-01 Chris Boross Method and system for utilizing an image sensor pipeline (isp) for 3d imaging processing utilizing z-depth information
TW201209791A (en) * 2010-08-30 2012-03-01 Ind Tech Res Inst Two mode image displaying apparatus and adjustment method of image brightness
TWI433529B (zh) * 2010-09-21 2014-04-01 Huper Lab Co Ltd 增強辨識3d物件的方法
KR20120088467A (ko) * 2011-01-31 2012-08-08 삼성전자주식회사 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치
JP2012186653A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 画像表示装置、方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122106B2 (en) 2012-10-17 2015-09-01 Samsung Display Co., Ltd. Display apparatus
US9420267B2 (en) 2013-12-13 2016-08-16 Samsung Display Co., Ltd. Display device and liquid crystal lens panel device for the same
US10162225B2 (en) 2013-12-24 2018-12-25 Samsung Display Co., Ltd. Image controlling panel for display device displaying one of two dimensional image and three dimensional stereoscopic image
KR20150121386A (ko) * 2014-04-18 2015-10-29 삼성디스플레이 주식회사 입체 영상 표시 장치 및 영상 처리 방법
US9509984B2 (en) 2014-04-18 2016-11-29 Samsung Display Co., Ltd Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas

Also Published As

Publication number Publication date
US20120194509A1 (en) 2012-08-02
JP6066547B2 (ja) 2017-01-25
CN102625114A (zh) 2012-08-01
CN102625114B (zh) 2015-12-02
US9253479B2 (en) 2016-02-02
JP2012161067A (ja) 2012-08-23

Similar Documents

Publication Publication Date Title
US9253479B2 (en) Method and apparatus for displaying partial 3D image in 2D image display area
US8633967B2 (en) Method and device for the creation of pseudo-holographic images
US8970582B2 (en) Stereoscopic image display device and method for driving the same
KR101236519B1 (ko) 입체 영상 표시장치와 그 구동 방법
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101966152B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
KR102218777B1 (ko) 무안경 입체영상표시장치
US9509984B2 (en) Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas
US10939092B2 (en) Multiview image display apparatus and multiview image display method thereof
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
KR102233116B1 (ko) 입체 영상 디스플레이 장치와 이의 구동 방법
KR20170036476A (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
KR20140146486A (ko) 복수 시청자용 무안경 입체 표시 장치
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR20160024283A (ko) 렌티큘러 렌즈 방식의 입체영상표시장치
KR102293837B1 (ko) 입체영상표시장치 및 이의 동작방법
KR101863140B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
KR102022527B1 (ko) 입체영상 표시장치 및 그의 디스패러티 산출방법
KR101957975B1 (ko) 디스패러티 산출방법과 이를 이용한 입체영상 표시장치
KR102232462B1 (ko) 무안경 입체영상표시장치
KR102045563B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20180049294A (ko) 뷰 맵 데이터 생성방법 및 장치
KR20150062412A (ko) 영상 데이터 처리 방법과 이를 이용한 멀티 뷰 무안경 입체 영상 표시장치

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right