KR101961943B1 - 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치 - Google Patents

3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치 Download PDF

Info

Publication number
KR101961943B1
KR101961943B1 KR1020120147737A KR20120147737A KR101961943B1 KR 101961943 B1 KR101961943 B1 KR 101961943B1 KR 1020120147737 A KR1020120147737 A KR 1020120147737A KR 20120147737 A KR20120147737 A KR 20120147737A KR 101961943 B1 KR101961943 B1 KR 101961943B1
Authority
KR
South Korea
Prior art keywords
data
depth data
image
depth
image data
Prior art date
Application number
KR1020120147737A
Other languages
English (en)
Other versions
KR20140078408A (ko
Inventor
김도형
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020120147737A priority Critical patent/KR101961943B1/ko
Publication of KR20140078408A publication Critical patent/KR20140078408A/ko
Application granted granted Critical
Publication of KR101961943B1 publication Critical patent/KR101961943B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 3D 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치에 관한 것이다. 본 발명의 실시 예에 따른 3D 영상 데이터 생성방법은 2D 영상 데이터로부터 뎁스 데이터를 생성하는 제1 단계; 2D 영상의 에지 범위 내에 포함된 상기 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터를 산출하는 제2 단계; 상기 보정 뎁스 데이터로부터 디스패러티를 산출하는 제3 단계; 및 상기 디스패러티를 이용하여 상기 2D 영상 데이터를 쉬프트하여 3D 영상 데이터를 생성하는 제4 단계를 포함한다.

Description

3D 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치{3D IMAGE DATA FORMATION METHOD AND STEREOSCOPIC IMAGE DISPLAY DEVICE USING THE SAME}
본 발명은 3D 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치에 관한 것이다.
입체영상 표시장치는 양안시차방식(stereoscopic technique)과 복합시차지각방식(autostereoscopic technique)으로 나뉘어진다. 양안시차방식은 입체 효과가 큰 좌우 눈의 시차 영상을 이용하며, 안경방식과 무안경방식이 있고 두 방식 모두 실용화되고 있다. 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상의 편광 방향을 바꿔서 표시하고 편광 안경을 사용하여 입체영상을 구현하는 패턴 리타더 방식이 있다. 또한, 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상을 시분할하여 표시하고 액정셔터안경을 사용하여 입체영상을 구현하는 셔터안경 방식이 있다. 무안경 방식은 일반적으로 패럴렉스 베리어, 렌티큘러 렌즈 등의 광학판을 사용하여 좌우시차 영상의 광축을 분리하여 입체영상을 구현한다.
일반적으로 입체영상 표시장치는 입체영상을 구현하기 위해 외부로부터 3D 영상 데이터를 입력받는다. 이 경우, 입체영상 표시장치는 3D 영상 데이터를 위에서 설명한 입체영상 방식에 해당하는 3D 포맷으로 변환함으로써 입체영상을 표시한다. 하지만, 입체영상 표시장치는 외부로부터 2D 영상 데이터를 입력받은 경우에도 입체영상을 구현할 수 있다. 이 경우, 입체영상 표시장치는 입력받은 2D 영상 데이터로부터 3D 영상 데이터를 생성하고, 3D 영상 데이터를 입체영상 방식에 해당하는 3D 포맷으로 변환함으로써 입체영상을 표시한다.
구체적으로, 입체영상 표시장치는 2D 영상 데이터와 2D 영상 데이터로부터 산출된 뎁스 맵(depth map)을 이용하여 3D 영상 데이터를 생성할 수 있다. 뎁스 맵은 1 프레임 기간의 2D 영상 데이터를 분석하여 산출된 뎁스 데이터로 작성된 맵을 의미한다. 뎁스 데이터는 2D 영상 데이터의 깊이 정보를 나타내는 값으로, 2D 영상 데이터의 깊이가 깊을수록 뎁스 데이터는 작은 값을 갖고, 2D 영상 데이터의 깊이가 얕을수록 뎁스 데이터는 큰 값을 가질 수 있다. 예를 들어, 어느 한 객체(object)의 깊이가 깊은 경우, 사용자는 3D 영상 시청시 그 객체가 멀리 떨어져 있다고 느끼게 된다. 뎁스 맵은 글로벌 뎁스 맵(global depth map)과 로컬 뎁스 맵(local depth map)을 이용하여 산출될 수 있다. 글로벌 뎁스 맵은 2D 영상 데이터의 에지(edge)를 분석하여 산출되는 뎁스 맵이고, 로컬 뎁스 맵은 2D 영상 데이터의 휘도 및 컬러를 분석하여 산출되는 뎁스 맵이다. 에지는 2D 영상의 객체들 각각의 윤곽(outline)을 의미한다.
도 1a는 2D 영상의 일 예, 도 1b는 뎁스 맵의 일 예, 도 1c는 2D 영상을 워핑한 영상의 일 예, 도 1d는 2D 영상을 워핑한 영상의 또 다른 예를 보여주는 도면들이다. 뎁스 데이터는 도 1b와 같이 계조값(gray level value)으로 표현될 수 있다. 도 1c의 2D 영상을 워핑(warping)한 영상은 뎁스 맵으로부터 산출된 디스패러티 맵(disparity map)을 이용하여 2D 영상을 쉬프트한 영상이다. 도 1d의 2D 영상을 워핑한 영상은 뎁스 맵에 가우시안 필터(gaussian filter)를 적용한 후 산출된 디스패러티 맵을 이용하여 2D 영상을 쉬프트한 영상이다. 디스패러티 맵은 디스패러티(disparity)로부터 작성된 맵을 의미하며, 디스패러티는 입체감을 형성하기 위해 2D 영상 데이터를 쉬프트시키기 위한 값을 의미한다.
한편, 뎁스 데이터는 객체와 객체 사이에서 서로 다른 값을 갖기 때문에, 뎁스 데이터는 에지 근처에서 변화된다. 이로 인해, 뎁스 데이터는 도 1b와 같이 "t", "h", 및 "e" 각각의 에지 주변에서 변화된다. 뎁스 데이터는 에지 주변에서 서로 다른 값을 갖기 때문에, 뎁스 맵으로부터 산출된 디스패러티 맵을 이용하여 2D 영상을 쉬프트하는 경우, 도 1c와 같이 2D 영상을 워핑한 영상의 에지 근처에는 홀(hole)이 나타난다. 도 1c에서 홀은 블랙 계조로 표현되어 있다. 홀은 어떠한 정보도 갖고 있지 않은 데이터를 의미한다. 홀들은 홀 필링(hole filling) 방법을 이용하여 채워질 수 있다. 하지만, 홀의 개수가 많을수록 홀 필링 방법에 의한 연산량이 늘어나므로, 홀의 개수를 줄일 필요가 있다. 또한, 도 1d와 같이 뎁스 맵에 가우시안 필터를 적용한 후 산출된 디스패러티 맵을 이용하여 2D 영상을 쉬프트하는 경우, 도 1d와 같이 2D 영상을 워핑한 영상의 에지 근처에서 홀(hole)의 개수는 줄어들지만, 입체감이 감소할 뿐만 아니라 연산량이 늘어나는 단점이 있다.
본 발명은 홀의 발생을 최소화할 수 있는 3D 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치를 제공한다.
본 발명의 실시 예에 따른 3D 영상 데이터 생성방법은 2D 영상 데이터로부터 뎁스 데이터를 생성하는 제1 단계; 2D 영상의 에지 범위 내에 포함된 상기 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터를 산출하는 제2 단계; 상기 보정 뎁스 데이터로부터 디스패러티를 산출하는 제3 단계; 및 상기 디스패러티를 이용하여 상기 2D 영상 데이터를 쉬프트하여 3D 영상 데이터를 생성하는 제4 단계를 포함한다.
본 발명의 실시 예에 따른 입체영상 표시장치는 데이터 라인들과 게이트 라인들을 포함하는 표시패널; 3D 모드에서 3D 영상 데이터를 생성하는 3D 영상 데이터 생성부; 상기 3D 영상 데이터를 데이터 전압들로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동회로; 및 상기 데이터 전압들에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동회로를 구비하고, 상기 3D 영상 데이터 생성부는, 2D 영상 데이터로부터 뎁스 데이터를 생성하는 뎁스 데이터 생성부; 2D 영상의 에지 범위 내에 포함된 상기 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터를 산출하는 뎁스 데이터 보정부; 상기 보정 뎁스 데이터로부터 디스패러티를 산출하는 디스패러티 산출부; 및 상기 디스패러티를 이용하여 상기 2D 영상 데이터를 쉬프트하여 상기 3D 영상 데이터를 생성하는 입체영상 생성부를 포함하는 것을 특징으로 한다.
본 발명은 제j 라인의 제i 뎁스 데이터를 기준으로 서치 범위를 정의하고, 서치 범위 내에 문턱 값 이상의 뎁스 데이터가 존재하는 경우, 서치 범위 내 최대값을 갖는 뎁스 데이터를 제j 라인의 제i 보정 뎁스 데이터로 산출한다. 그 결과, 보정 뎁스 데이터는 뎁스 데이터에 비해 그레이 계조로 표현되는 범위가 넓어지며, 이로 인해 에지 범위에서 대부분의 보정 뎁스 데이터는 동일한 값을 갖는다. 따라서, 보정 뎁스 데이터로부터 산출된 디스패러티를 이용하여 2D 영상 데이터를 쉬프트하는 경우, 에지 범위에서 대부분의 디스패러티가 동일한 값을 가지므로, 에지 범위에서 홀의 발생 빈도가 낮아진다. 즉, 본 발명은 홀의 발생을 최소화할 수 있으며, 이로 인해 홀 필링 방법에 의해 홀을 채우더라도, 연산량에 대한 부담이 적으므로, 연산 속도를 크게 높일 수 있다.
도 1a는 2D 영상의 일 예, 도 1b는 뎁스 맵의 일 예, 도 1c는 2D 영상을 워핑한 영상의 일 예, 도 1d는 2D 영상을 워핑한 영상의 또 다른 예를 보여주는 도면들이다.
도 2는 본 발명의 실시 예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도.
도 3은 도 2의 3D 영상 데이터 생성부를 상세히 보여주는 블록도.
도 4는 3D 영상 데이터 생성부의 3D 영상 데이터 생성방법을 상세히 보여주는 흐름도.
도 5는 도 3의 뎁스 데이터 보정부의 뎁스 데이터 보정방법을 상세히 보여주는 흐름도.
도 6a 및 도 6b는 2D 영상과 뎁스 맵을 보여주는 예시도면들.
도 7은 도 6a의 Ⅰ-Ⅰ' 영역의 2D 영상 데이터와 도 6b의 Ⅱ-Ⅱ' 영역의 뎁스 데이터를 보여주는 일 예시도면.
도 8a 및 도 8b는 종래 뎁스 맵과 그로부터 산출된 디스패러티 맵을 이용하여 얻어진 2D 영상을 워핑한 영상을 보여주는 예시도면들.
도 9a 및 도 9b는 본 발명의 실시 예에 따른 뎁스 데이터 보정방법에 의해 보정된 뎁스 맵과 그로부터 산출된 디스패러티 맵을 이용하여 얻어진 2D 영상을 워핑한 영상을 보여주는 예시도면들.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. 이하의 설명에서 사용되는 구성요소 명칭은 명세서 작성의 용이함을 고려하여 선택된 것일 수 있는 것으로서, 실제 제품의 부품 명칭과는 상이할 수 있다.
도 2는 본 발명의 실시 예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도이다. 도 2를 참조하면, 본 발명의 실시 예에 따른 입체영상 표시장치는 표시패널(10), 게이트 구동회로(110), 데이터 구동회로(120), 타이밍 콘트롤러(130), 3D 영상 데이터 생성부(140), 및 호스트 시스템(150) 등을 구비한다. 본 발명의 실시 예에 따른 입체영상 표시장치의 표시패널(10)은 액정표시소자(Liquid Crystal Display, LCD), 전계 방출 표시소자(Field Emission Display, FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시 예에서 표시패널(10)이 액정표시소자로 구현된 것을 중심으로 예시하였지만, 이에 한정되지 않는 것에 주의하여야 한다. 또한, 본 발명의 입체영상 표시장치는 셔터안경(Shutter Glass) 방식, 패턴 리타더(Pattern Retarder) 방식, 액티브 리타더(Active Retarder) 방식 등의 양안시차에 의해 입체영상을 구현하는 안경방식이나, 패럴렉스 베리어, 렌티큘러 렌즈 등의 광학판을 사용하여 양안시차에 의해 입체영상을 구현하는 무안경 방식으로 구현될 수 있다.
표시패널(10)은 액정층을 사이에 두고 대향하는 상부기판과 하부기판을 포함한다. 표시패널(10)에는 데이터 라인(D)들과 게이트 라인(G)들(또는 스캔 라인들)의 교차 구조에 의해 매트릭스 형태로 배열되는 픽셀들을 포함하는 픽셀 어레이가 형성된다. 픽셀 어레이의 픽셀들 각각은 TFT(Thin Film Transistor)를 통해 데이터 전압이 충전되는 화소 전극과 공통전압이 인가되는 공통전극의 전압 차에 의해 액정층의 액정을 구동시켜 빛의 투과량을 조정함으로써 화상을 표시한다. 표시패널(10)의 상부기판상에는 블랙매트릭스와 컬러필터가 형성된다. 공통전극은 TN(Twisted Nematic) 모드와 VA(Vertical Alignment) 모드와 같은 수직전계 구동방식의 경우에 상부기판상에 형성되며, IPS(In-Plane Switching) 모드와 FFS(Fringe Field Switching) 모드와 같은 수평전계 구동방식의 경우에 화소전극과 함께 하부기판상에 형성될 수 있다. 표시패널(10)의 액정모드는 TN 모드, VA 모드, IPS 모드, FFS 모드뿐 아니라 어떠한 액정모드로도 구현될 수 있다. 액정표시패널의 상부기판과 하부기판 각각에는 편광판이 부착되고 액정의 프리틸트각(pre-tilt angle)을 설정하기 위한 배향막이 형성된다. 표시패널(10)의 상부기판과 하부기판 사이에는 액정층의 셀갭(cell gap)을 유지하기 위한 스페이서(spacer)가 형성된다.
표시패널(10)은 투과형 액정표시패널, 반투과형 액정표시패널, 반사형 액정표시패널 등 어떠한 형태로도 구현될 수 있다. 투과형 액정표시패널과 반투과형 액정표시패널에서는 백라이트 유닛이 필요하다. 백라이트 유닛은 직하형(direct type) 백라이트 유닛 또는 에지형(edge type) 백라이트 유닛으로 구현될 수 있다.
데이터 구동회로(120)는 다수의 소스 드라이브 집적회로(Integrated Circuit, 이하 'IC'라 칭함)들을 포함한다. 소스 드라이브 IC들은 타이밍 콘트롤러(130)의 제어 하에 2D 영상 데이터(RGB2D) 또는 3D 영상 데이터(RGB3D)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터 전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터 전압들은 표시패널(10)의 데이터 라인(D)들에 공급된다.
게이트 구동회로(110)는 타이밍 콘트롤러(130)의 제어 하에 데이터 전압들과 동기되도록 표시패널(10)의 게이트 라인(G)들에 게이트 펄스들(또는 스캔 펄스들)을 순차적으로 공급한다. 게이트 구동부(110)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정셀의 TFT 구동에 적합한 스윙폭으로 변환하기 위한 레벨 쉬프터, 및 출력 버퍼 등을 각각 포함하는 다수의 게이트 드라이브 집적회로들로 구성될 수 있다.
타이밍 콘트롤러(130)는 3D 영상 데이터 생성부(140)로부터 2D 영상 데이터(RGB2D) 또는 3D 영상 데이터(RGB3D)와 타이밍 신호들과 모드 신호(MODE) 등을 입력받는다. 타이밍 신호들은 수직동기신호(vertical synchronization signal), 수평동기신호(horizontal synchronization signal), 데이터 인에이블 신호(data enable signal), 및 클럭 신호(clock signal) 등을 포함할 수 있다. 타이밍 콘트롤러(130)는 타이밍 신호들에 기초하여 게이트 구동회로(110)를 제어하기 위한 게이트 제어신호(GCS)를 생성하고, 데이터 구동회로(120)를 제어하기 위한 데이터 제어신호(DCS)를 생성한다. 타이밍 콘트롤러(130)는 게이트 제어신호(GCS)를 게이트 구동회로(110)에 공급한다. 타이밍 콘트롤러(130)는 2D 모드에서 2D 영상 데이터(RGB2D)와 데이터 제어신호(DCS)를 데이터 구동회로(120)로 공급하고, 3D 모드에서 3D 영상 데이터(RGB3D)와 데이터 제어신호(DCS)를 데이터 구동회로(120)로 공급한다.
호스트 시스템(150)은 외부 비디오 소스 기기로부터 입력되는 2D 영상 데이터(RGB2D)를 표시패널(10)에 표시하기에 적합한 해상도의 데이터 포맷으로 변환하기 위해 스케일러(scaler)가 내장된 시스템 온 칩(System on Chip)을 포함할 수 있다. 호스트 시스템(150)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 2D 영상 데이터(RGB2D)와 타이밍 신호들을 3D 영상 데이터 생성부(140)에 공급한다. 또한, 호스트 시스템(150)은 2D 모드와 3D 모드를 구별할 수 있는 모드 신호(MODE)를 3D 영상 데이터 생성부(140)에 공급한다.
3D 영상 데이터 생성부(140)는 2D 모드에서 2D 영상 데이터(RGB2D)를 변환하지 않고 그대로 타이밍 콘트롤러(130)로 출력한다. 3D 영상 데이터 생성부(140)는 3D 모드에서 2D 영상 데이터(RGB2D)로부터 3D 영상 데이터(RGB3D)를 생성하여 타이밍 콘트롤러(130)로 출력한다. 3D 영상 데이터(RGB3D)는 좌안 영상 데이터와 우안 영상 데이터를 포함할 수 있다. 또는, 3D 영상 데이터(RGB3D)는 적어도 2 개의 뷰 영상 데이터를 포함하는 멀티뷰 영상 데이터로 구현될 수 있다. 결국, 본 발명의 실시 예에 따른 입체영상 표시장치는 2D 영상 데이터(RGB2D)가 입력되더라도, 3D 영상 데이터 생성부(140)를 이용하여 3D 영상 데이터(RGB3D)를 생성함으로써 입체영상을 구현할 수 있다.
도 3은 도 2의 3D 영상 데이터 생성부를 상세히 보여주는 블록도이다. 도 4는 3D 영상 데이터 생성부의 3D 영상 데이터 생성방법을 상세히 보여주는 흐름도이다. 도 3을 참조하면, 3D 영상 데이터 생성부(140)는 뎁스 데이터 생성부(200), 뎁스 데이터 보정부(300), 디스패러티 산출부(400), 및 입체영상 생성부(500)를 포함한다. 이하에서, 도 3 및 도 4를 결부하여 3D 영상 데이터 생성부(140)의 3D 영상 데이터 생성방법에 대하여 상세히 설명한다.
첫 번째로, 뎁스 데이터 생성부(200)는 호스트 시스템(150)으로부터 2D 영상 데이터(RGB2D)를 입력받는다. 뎁스 데이터 생성부(200)는 2D 영상 데이터(RGB2D)의 에지(edge)를 분석하여 글로벌 뎁스 데이터를 산출한다. 구체적으로, 뎁스 데이터 생성부(200)는 2D 영상 데이터(RGB2D)를 분석하여 2D 영상의 에지(edge)들을 산출한 후, 2D 영상의 에지들을 이용하여 글로벌 뎁스 데이터를 산출할 수 있다. 에지는 2D 영상의 객체들 각각의 윤곽(outline)을 의미한다. 예를 들어, 뎁스 데이터 생성부(200)는 제j 라인에서 2D 영상의 에지의 개수가 많을수록 제j 라인의 글로벌 뎁스 데이터를 크게 산출하고, 제j 라인에서 2D 영상의 에지의 개수가 적을수록 제j 라인의 글로벌 뎁스 데이터를 작게 산출할 수 있다.
또한, 뎁스 데이터 생성부(200)는 2D 영상 데이터(RGB2D)의 휘도 및 컬러를 분석하여 로컬 뎁스 데이터를 산출한다. 구체적으로, 뎁스 데이터 생성부(200)는 2D 영상 데이터(RGB2D)를 분석하여 2D 영상의 휘도 및 컬러를 산출하고, 2D 영상의 휘도 및 컬러를 이용하여 로컬 뎁스 데이터를 산출할 수 있다. 예를 들어, 뎁스 데이터 생성부(200)는 2D 영상의 객체(object)의 휘도가 높을수록 그 객체의 로컬 뎁스 데이터를 더 크게 산출하고, 2D 영상의 객체의 휘도가 낮을수록 그 객체의 로컬 뎁스 데이터를 더 작게 산출할 수 있다. 또한, 뎁스 데이터 생성부(200)는 2D 영상 데이터(RGB2D)가 적색에 가까울수록 로컬 뎁스 데이터를 더 크게 산출하고, 2D 영상 데이터(RGB2D)가 청색에 가까울수록 로컬 뎁스 데이터를 더 작게 산출할 수 있다.
그리고 나서, 뎁스 데이터 생성부(200)는 글로벌 뎁스 데이터에 제1 가중치를 적용하고, 로컬 뎁스 데이터에 제2 가중치를 적용하여 뎁스 데이터(DD)를 산출한다. 이때, 제1 가중치와 제2 가중치의 합은 "1"일 수 있다. (S101)
두 번째로, 뎁스 데이터 보정부(300)는 뎁스 데이터 생성부(200)로부터 뎁스 데이터(DD)를 입력받는다. 뎁스 데이터 보정부(300)는 2D 영상의 에지 범위 내에 포함된 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터(DD')를 산출한다. 뎁스 데이터 보정부(300)의 뎁스 데이터 보정방법에 대한 자세한 설명은 도 5를 결부하여 후술한다. (S102)
세 번째로, 디스패러티 산출부(400)는 호스트 시스템(150)으로부터 2D 영상 데이터(RGB2D)를 입력받고, 뎁스 데이터 보정부(300)로부터 보정 뎁스 데이터(DD')를 입력받는다. 3D 영상 데이터 생성부(400)는 보정 뎁스 데이터(DD'), 컨버전스(convergence), 및 최대 디스패러티(max disparity)를 이용하여 디스패러티(disparity)를 산출한다. 디스패러티는 입체감을 형성하기 위해 2D 영상 데이터를 쉬프트시키기 위한 값을 의미한다. 컨버전스는 초점이 형성되는 위치를 의미하며, 입체감은 컨버전스를 조절함으로써 표시패널 대비 앞쪽 또는 뒤쪽으로 조절될 수 있다. 최대 디스패러티는 디스패러티의 최대값을 의미한다. 컨버전스와 최대 디스패러티는 사전 실험을 통해 미리 결정될 수 있다.
구체적으로, 디스패러티 산출부(400)는 수학식 1과 같이 (i,j)(i는 1≤i≤p를 만족하는 자연수, p는 자연수)(j는 1≤j≤q를 만족하는 자연수, q는 자연수) 좌표에서의 보정 뎁스 데이터(DD'(i,j)), 컨버전스(C), 최대 디스패러티(MD)를 이용하여 (i,j) 좌표에서의 디스패러티(Dis(i,j))를 산출할 수 있다. 1 프레임 기간의 보정 뎁스 데이터(DD')는 p×q 개의 보정 뎁스 데이터(DD')를 포함하므로, 보정 뎁스 데이터(DD')의 위치는 (i,j) 좌표로 표현될 수 있다. 이 경우, (i,j) 좌표에서의 보정 뎁스 데이터(DD'(i,j))는 제j 라인의 제i 보정 뎁스 데이터를 의미한다. 수학식 1에서, MG는 (i,j) 좌표에서의 보정 뎁스 데이터(DD'(i,j))의 최대 계조 값을 의미한다. (i,j) 좌표에서의 보정 뎁스 데이터(DD'(i,j))가 8 비트 데이터인 경우, MG는 "255"일 것이다.
Figure 112012104996545-pat00001
네 번째로, 입체영상 생성부(500)는 디스패러티를 이용하여 2D 영상 데이터(RGB2D)를 쉬프트시켜 3D 영상 데이터(RGB3D)를 생성한다. 3D 영상 데이터(RGB3D)는 좌안 영상 데이터와 우안 영상 데이터를 포함할 수 있다. 또는, 3D 영상 데이터(RGB3D)는 적어도 2 개의 뷰 영상 데이터를 포함하는 멀티뷰 영상 데이터로 구현될 수 있다. 예를 들어, 입체영상 생성부(500)는 (i,j) 좌표에서의 2D 영상 데이터(RGB2D(i,j))를 (i,j) 좌표에서의 디스패러티(Dis(i,j))만큼 제1 수평 방향으로 쉬프트시켜 (i,j) 좌표에서의 좌안 영상 데이터(RGBL(i,j))를 생성하고, (i,j) 좌표에서의 2D 영상 데이터(RGB2D(i,j))를 (i,j) 좌표에서의 디스패러티(Dis(i,j))만큼 제2 수평 방향으로 쉬프트시켜 (i,j) 좌표에서의 우안 영상 데이터(RGBR(i,j))를 생성하는 방식으로, 3D 영상 데이터(RGB3D)를 생성할 수 있다. 또한, 입체영상 생성부(500)는 (i,j) 좌표에서의 좌안 영상 데이터(RGBL(i,j))와 (i,j) 좌표에서의 우안 영상 데이터(RGBR(i,j)) 사이에 적어도 하나 이상의 (i,j) 좌표에서의 뷰 영상 데이터를 생성하는 방식으로, 3 개 이상의 뷰 영상 데이터를 포함하는 멀티뷰 영상 데이터를 생성할 수 있다.
본 발명의 실시 예에 따른 입체영상 표시장치는 셔터안경(Shutter Glass) 방식, 패턴 리타더(Pattern Retarder) 방식, 액티브 리타더(Active Retarder) 방식 등의 양안시차에 의해 입체영상을 구현하는 안경방식이나, 패럴렉스 베리어, 렌티큘러 렌즈 등의 광학판을 사용하여 양안시차에 의해 입체영상을 구현하는 무안경 방식으로 구현될 수 있다. 따라서, 입체영상 생성부(500)는 3D 영상 데이터(RGB3D)를 상기 입체영상 방식에 해당하는 3D 포맷으로 변환하여 타이밍 콘트롤러(130)로 출력한다. (S104)
도 5는 도 3의 뎁스 데이터 보정부의 뎁스 데이터 보정방법을 상세히 보여주는 흐름도이다. 도 5를 참조하면, 뎁스 데이터 보정부(300)는 S201 내지 S203 단계들을 수행한다.
첫 번째로, 뎁스 데이터 보정부(300)는 뎁스 데이터 생성부(200)로부터 제j 라인의 뎁스 데이터를 입력받고, 제j 라인의 뎁스 데이터를 라인 메모리(line memory)에 저장할 수 있다. 뎁스 데이터 보정부(300)는 제j 라인의 제i-n(n은 자연수) 내지 제i+n 뎁스 데이터(DD(i-n,j)~DD(i+n,j)) 중 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는지를 판단한다. 1 프레임 기간의 뎁스 데이터(DD)는 p×q 개의 뎁스 데이터(DD)를 포함하므로, 뎁스 데이터(DD)의 위치는 (i,j) 좌표로 표현될 수 있다. 이 경우, (i,j) 좌표에서의 뎁스 데이터(DD(i,j))는 제j 라인의 제i 보정 뎁스 데이터를 의미한다.
한편, 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는지를 검색하는 검색 범위(search range)는 n에 의해 정의된다. n이 클수록 검색 범위는 넓어지나 연산량이 많아지며, n이 작을수록 검색 범위는 좁아지나 연산량이 감소한다. n은 사전 실험을 통해 미리 결정될 수 있다. (S201)
두 번째로, 뎁스 데이터 보정부(300)는 제j 라인의 제i-n 내지 제i+n 뎁스 데이터(DD(i-n,j)~DD(i+n,j)) 중 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는 경우, 제i-n 내지 제i+n 뎁스 데이터(DD(i-n,j)~DD(i+n,j))의 최대값을 제j 라인의 제i 보정 뎁스 데이터(DD'(i,j))로 산출한다. (S202)
세 번째로, 뎁스 데이터 보정부(300)는 뎁스 데이터 보정부(300)는 제j 라인의 제i-n 내지 제i+n 뎁스 데이터(DD(i-n,j)~DD(i+n,j)) 중 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하지 않는 경우, 제j 라인의 제i 뎁스 데이터(DD(i,j))를 제j 라인의 제i 보정 뎁스 데이터(DD'(i,j))로 산출한다. (S203)
도 6a 및 도 6b는 2D 영상과 뎁스 맵을 보여주는 예시도면들이다. 도 7은 도 6a의 Ⅰ-Ⅰ' 영역의 2D 영상 데이터와 도 6b의 Ⅱ-Ⅱ' 영역의 뎁스 데이터를 보여주는 일 예시도면이다.
도 6a에는 2D 영상의 숫자 "3"의 일부가 나타나 있다. 도 6a에서, 숫자 "3"은 피크 화이트 계조(peak white gray level)로 표현되고, 나머지 배경 영역은 피크 블랙 계조(peak black gray level)로 표현되었다. 도 6b에는 뎁스 데이터에 의해 작성된 뎁스 맵이 나타나 있다. 도 6b를 참조하면, 2D 영상에서 피크 화이트 계조로 표현된 숫자 "3" 영역은 그레이 계조로 표현되고, 2D 영상에서 피크 블랙 계조로 표현된 배경 영역은 피크 블랙 계조로 표현된다. 뎁스 데이터는 2D 영상 데이터의 깊이 정보를 나타내는 값으로, 2D 영상 데이터의 깊이가 깊을수록 뎁스 데이터는 작은 값을 갖고, 2D 영상 데이터의 깊이가 얕을수록 뎁스 데이터는 큰 값을 가질 수 있다. 예를 들어, 어느 한 객체(object)의 깊이가 깊은 경우, 사용자는 3D 영상 시청시 그 객체가 멀리 떨어져 있다고 느끼게 된다.
도 7을 참조하면, 2D 영상 데이터(RGB2D)의 값들이 변화하는 위치는 객체의 윤곽에 해당하는 에지 주변에 해당한다. 본 발명의 실시 예에서는 2D 영상 데이터(RGB2D)의 값들이 변화하는 위치인 에지 주변을 에지 범위(edge range, ER)로 정의한다. 2D 영상 데이터(RGB2D)와 뎁스 데이터(DD)는 동일한 위치에서 그들의 값들이 변화한다. 뎁스 데이터가 도 7과 같이 에지 범위(ER)에서 서로 다른 값을 갖기 때문에, 뎁스 데이터로부터 산출된 디스패러티를 이용하여 2D 영상 데이터(RGB2D)를 쉬프트하는 경우, 에지 범위(ER)에서 대다수의 디스패러티가 서로 다른 값을 가지므로, 에지 범위(ER)에서 홀(hole)의 발생 빈도가 높아진다. 홀은 어떠한 정보도 갖고 있지 않은 데이터를 의미한다.
하지만, 본 발명의 실시 예에 따른 뎁스 데이터 보정부(300)는 도 7과 같이 제j 라인의 제i 뎁스 데이터(DD(i,j))를 기준으로 서치 범위(SR)를 정의하고, 서치 범위(SR) 내에 문턱 값 이상의 뎁스 데이터가 존재하는 경우, 서치 범위(SR) 내 최대값을 갖는 뎁스 데이터를 제j 라인의 제i 보정 뎁스 데이터(DD'(i,j))로 산출한다. 그 결과, 보정 뎁스 데이터(DD')는 뎁스 데이터(DD)에 비해 그레이 계조로 표현되는 범위가 넓어지며, 이로 인해 에지 범위(ER)에서 대부분의 뎁스 데이터(DD)들은 동일한 값을 갖는다. 따라서, 보정 뎁스 데이터(DD')들로부터 산출된 디스패러티들을 이용하여 2D 영상 데이터(RGB2D)들을 쉬프트하는 경우, 에지 범위(ER)에서 대부분의 디스패러티들이 동일한 값을 가지므로, 에지 범위(ER)에서 홀의 발생 빈도가 낮아진다. 즉, 본 발명은 홀의 발생을 최소화할 수 있다. 따라서, 본 발명은 홀 필링(hole filling) 방법에 의해 홀을 채우더라도, 연산량에 대한 부담이 적으므로, 연산 속도를 크게 높일 수 있다.
도 8a 및 도 8b는 종래 뎁스 맵과 그로부터 산출된 디스패러티 맵을 이용하여 2D 영상을 워핑한 영상을 보여주는 예시도면들이다. 도 9a 및 도 9b는 본 발명의 실시 예에 따른 보정 뎁스 맵과 그로부터 산출된 디스패러티 맵을 이용하여 2D 영상을 워핑한 영상을 보여주는 예시도면들이다.
도 8a 및 도 9a를 참조하면, 본 발명의 실시 예에 따른 보정 뎁스 맵이 종래 뎁스 맵에 비해 그레이 계조로 표현되는 범위가 넓다. 또한, 도 8b 및 도 9b를 참조하면, 본 발명의 실시 예에 따른 보정 뎁스 맵으로부터 산출된 디스패러티 맵(disparity map)을 이용하여 2D 영상을 워핑(warping)한 영상은 종래 뎁스 맵으로부터 산출된 디스패러티 맵을 이용하여 2D 영상을 워핑한 영상보다 홀의 개수가 확연히 적다. 2D 영상을 워핑한 영상은 뎁스 맵으로부터 산출된 디스패러티 맵을 이용하여 2D 영상을 쉬프트한 영상을 의미한다. 디스패러티 맵은 1 프레임 기간의 디스패러티들로부터 작성된 맵을 의미한다.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 보정 뎁스 맵의 보정 뎁스 데이터로부터 산출된 디스패러티를 이용하여 2D 영상 데이터를 쉬프트하는 경우, 홀의 발생을 최소화할 수 있다. 따라서, 본 발명은 홀 필링(hole filling) 방법에 의해 홀을 채우더라도, 연산량에 대한 부담이 적으므로, 연산 속도를 크게 높일 수 있다.
이상, 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.
10: 표시패널 110: 게이트 구동회로
120: 데이터 구동회로 130: 타이밍 콘트롤러
140: 3D 영상 데이터 생성부 150: 호스트 시스템
200: 뎁스 데이터 생성부 300: 뎁스 데이터 보정부
400: 디스패러티 산출부 500: 입체영상 생성부

Claims (11)

  1. 2D 영상 데이터로부터 뎁스 데이터를 생성하는 제1 단계;
    2D 영상의 에지 범위 내에 포함된 상기 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터를 산출하는 제2 단계;
    상기 보정 뎁스 데이터로부터 디스패러티를 산출하는 제3 단계; 및
    상기 디스패러티를 이용하여 상기 2D 영상 데이터를 쉬프트하여 3D 영상 데이터를 생성하는 제4 단계를 포함하고,
    상기 제2 단계는, 제j(j는 자연수) 라인의 제i-n(i, n은 자연수) 내지 제i+n 뎁스 데이터를 서치 범위로 설정하고, 상기 서치 범위 내에서 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는 경우, 상기 제i-n 내지 제i+n 뎁스 데이터의 최대값을 제j 라인의 제i 보정 뎁스 데이터로 산출하는 단계를 포함하는 3D 영상 데이터 생성방법.
  2. 제 1 항에 있어서,
    상기 제1 단계는,
    상기 2D 영상 데이터의 에지를 분석하여 글로벌 뎁스 데이터를 생성하고, 상기 2D 영상 데이터의 휘도 및 컬러를 분석하여 로컬 뎁스 데이터를 생성하며, 상기 글로벌 뎁스 데이터에 제1 가중치를 적용하고, 상기 로컬 뎁스 데이터에 제2 가중치를 적용하여 상기 뎁스 데이터를 산출하는 것을 특징으로 하는 3D 영상 데이터 생성방법.
  3. 제 1 항에 있어서,
    상기 제2 단계는,
    상기 제j(j는 자연수) 라인의 제i-n(i, n은 자연수) 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는지 판단하는 단계; 및
    상기 제j 라인의 제i-n 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는 경우, 상기 제i-n 내지 제i+n 뎁스 데이터의 최대값을 제j 라인의 제i 보정 뎁스 데이터로 산출하는 단계를 포함하는 것을 특징으로 하는 3D 영상 데이터 생성방법.
  4. 제 3 항에 있어서,
    상기 제2 단계는,
    상기 제j 라인의 제i-n 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하지 않는 경우, 상기 제j 라인의 제i 뎁스 데이터를 상기 제j 라인의 제i 보정 뎁스 데이터로 산출하는 단계를 더 포함하는 것을 특징으로 하는 3D 영상 데이터 생성방법.
  5. 제 1 항에 있어서,
    상기 제3 단계는,
    상기 보정 뎁스 데이터, 컨버전스, 및 최대 디스패러티를 이용하여 상기 디스패러티를 산출하는 것을 특징으로 하는 3D 영상 데이터 생성방법.
  6. 데이터 라인들과 게이트 라인들을 포함하는 표시패널;
    3D 모드에서 3D 영상 데이터를 생성하는 3D 영상 데이터 생성부;
    상기 3D 영상 데이터를 데이터 전압들로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동회로; 및
    상기 데이터 전압들에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동회로를 구비하고,
    상기 3D 영상 데이터 생성부는,
    2D 영상 데이터로부터 뎁스 데이터를 생성하는 뎁스 데이터 생성부;
    2D 영상의 에지 범위 내에 포함된 상기 뎁스 데이터를 그 주변의 뎁스 데이터 중 최대값으로 보정하여 보정 뎁스 데이터를 산출하는 뎁스 데이터 보정부;
    상기 보정 뎁스 데이터로부터 디스패러티를 산출하는 디스패러티 산출부; 및
    상기 디스패러티를 이용하여 상기 2D 영상 데이터를 쉬프트하여 상기 3D 영상 데이터를 생성하는 입체영상 생성부를 포함하고,
    상기 뎁스 데이터 보정부는, 제j(j는 자연수) 라인의 제i-n(i, n은 자연수) 내지 제i+n 뎁스 데이터를 서치 범위로 설정하고, 상기 서치 범위 내에서 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는 경우, 상기 제i-n 내지 제i+n 뎁스 데이터의 최대값을 제j 라인의 제i 보정 뎁스 데이터로 산출하는 것을 특징으로 하는 입체영상 표시장치.
  7. 제 6 항에 있어서,
    상기 뎁스 데이터 생성부는,
    상기 2D 영상 데이터의 에지를 분석하여 글로벌 뎁스 데이터를 생성하고, 상기 2D 영상 데이터의 휘도 및 컬러를 분석하여 로컬 뎁스 데이터를 생성하며, 상기 글로벌 뎁스 데이터에 제1 가중치를 적용하고, 상기 로컬 뎁스 데이터에 제2 가중치를 적용하여 상기 뎁스 데이터를 산출하는 것을 특징으로 하는 입체영상 표시장치.
  8. 제 6 항에 있어서,
    상기 뎁스 데이터 보정부는,
    상기 제j(j는 자연수) 라인의 제i-n(i, n은 자연수) 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는지 판단하고,
    상기 제j 라인의 제i-n 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하는 경우, 상기 제i-n 내지 제i+n 뎁스 데이터의 최대값을 제j 라인의 제i 보정 뎁스 데이터로 산출하는 것을 특징으로 하는 입체영상 표시장치.
  9. 제 8 항에 있어서,
    상기 뎁스 데이터 보정부는,
    상기 제j 라인의 제i-n 내지 제i+n 뎁스 데이터 중 상기 문턱 값 이상의 값을 갖는 뎁스 데이터가 존재하지 않는 경우, 상기 제j 라인의 제i 뎁스 데이터를 상기 제j 라인의 제i 보정 뎁스 데이터로 산출하는 것을 특징으로 하는 입체영상 표시장치.
  10. 제 9 항에 있어서,
    상기 뎁스 데이터 보정부는,
    상기 제j 라인의 뎁스 데이터를 저장하는 라인 메모리를 포함하는 것을 특징으로 하는 입체영상 표시장치.
  11. 제 6 항에 있어서,
    상기 디스패러티 산출부는,
    상기 보정 뎁스 데이터, 컨버전스, 및 최대 디스패러티를 이용하여 상기 디스패러티를 산출하는 것을 특징으로 하는 입체영상 표시장치.
KR1020120147737A 2012-12-17 2012-12-17 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치 KR101961943B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120147737A KR101961943B1 (ko) 2012-12-17 2012-12-17 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120147737A KR101961943B1 (ko) 2012-12-17 2012-12-17 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치

Publications (2)

Publication Number Publication Date
KR20140078408A KR20140078408A (ko) 2014-06-25
KR101961943B1 true KR101961943B1 (ko) 2019-03-26

Family

ID=51130030

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120147737A KR101961943B1 (ko) 2012-12-17 2012-12-17 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치

Country Status (1)

Country Link
KR (1) KR101961943B1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2184713A1 (en) * 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
KR101302431B1 (ko) * 2012-06-20 2013-09-02 이광호 2차원 영상을 스테레오 영상으로 변환하는 방법

Also Published As

Publication number Publication date
KR20140078408A (ko) 2014-06-25

Similar Documents

Publication Publication Date Title
US8878842B2 (en) Stereoscopic image display device and method for driving the same
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20130027214A (ko) 입체영상 표시장치와 그 구동방법
KR20140118393A (ko) 입체영상 표시장치와 그 구동방법
KR101992163B1 (ko) 입체영상 표시장치와 그 구동방법
KR101963385B1 (ko) 디스패러티 산출방법과 이를 이용한 입체영상 표시장치
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
KR101929042B1 (ko) 디스패러티 산출부와 이를 포함한 입체영상 표시장치, 및 디스패러티 산출방법
KR101990334B1 (ko) 입체영상 표시장치와 그 구동방법
US9626935B2 (en) Stereoscopic image display device and method for driving the same
KR101961943B1 (ko) 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치
KR101798236B1 (ko) 입체 영상 표시장치와 그 휘도 조절 방법
KR102022527B1 (ko) 입체영상 표시장치 및 그의 디스패러티 산출방법
KR102293837B1 (ko) 입체영상표시장치 및 이의 동작방법
KR101829466B1 (ko) 입체영상 표시장치
KR101843198B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101983369B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20120015006A (ko) 입체영상표시장치와 이의 구동방법
KR102126530B1 (ko) 3d 변환방법과 이를 이용한 입체영상 표시장치
KR101870233B1 (ko) 3d 화질개선방법과 이를 이용한 입체영상 표시장치
KR20130061287A (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR20140073814A (ko) 디스패러티 산출방법과 이를 이용한 입체영상 표시장치
KR101996657B1 (ko) 글로벌 뎁스 맵 생성방법과 이를 이용한 입체영상 표시장치
KR101957975B1 (ko) 디스패러티 산출방법과 이를 이용한 입체영상 표시장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant