KR101888672B1 - 입체영상 표시장치와 그 구동방법 - Google Patents

입체영상 표시장치와 그 구동방법 Download PDF

Info

Publication number
KR101888672B1
KR101888672B1 KR1020110074476A KR20110074476A KR101888672B1 KR 101888672 B1 KR101888672 B1 KR 101888672B1 KR 1020110074476 A KR1020110074476 A KR 1020110074476A KR 20110074476 A KR20110074476 A KR 20110074476A KR 101888672 B1 KR101888672 B1 KR 101888672B1
Authority
KR
South Korea
Prior art keywords
image data
disparity
horizontal position
data
gain value
Prior art date
Application number
KR1020110074476A
Other languages
English (en)
Other versions
KR20130013071A (ko
Inventor
김수형
김성균
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020110074476A priority Critical patent/KR101888672B1/ko
Priority to US13/480,054 priority patent/US8878842B2/en
Priority to CN201210166773.8A priority patent/CN102905153B/zh
Publication of KR20130013071A publication Critical patent/KR20130013071A/ko
Application granted granted Critical
Publication of KR101888672B1 publication Critical patent/KR101888672B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

본 발명은 2D 영상 데이터를 3D 영상 데이터로 변환하여 표시할 수 있는 입체영상 표시장치와 그 구동방법에 관한 것이다. 본 발명의 입체영상 표시장치는 데이터 라인들과 게이트 라인들이 교차되고, 상기 데이터 라인들과 게이트 라인들의 교차에 의해 정의되는 셀 영역에 형성된 다수의 픽셀을 포함하는 표시패널; 입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 게인 값을 적용한 후, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 영상 변환부; 상기 영상 변환부에 의해 변환된 3D 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동부; 및 상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동부를 구비한다.

Description

입체영상 표시장치와 그 구동방법{STREOSCOPIC IMAGE DISPLAY DEVICE AND METHOD FOR DRIVING THEREOF}
본 발명은 2D 영상 데이터를 3D 영상 데이터로 변환하여 표시할 수 있는 입체영상 표시장치와 그 구동방법에 관한 것이다.
입체영상 표시장치는 양안시차방식(stereoscopic technique)과 복합시차지각방식(autostereoscopic technique)으로 나뉘어진다. 양안시차방식은 입체 효과가 큰 좌우 눈의 시차 영상을 이용하며, 안경방식과 무안경방식이 있고 두 방식 모두 실용화되고 있다. 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상의 편광 방향을 바꿔서 표시하고 편광 안경을 사용하여 입체영상을 구현하는 패턴 리타더 방식이 있다. 또한, 안경방식은 직시형 표시소자나 프로젝터에 좌우 시차 영상을 시분할하여 표시하고 액정셔터안경을 사용하여 입체영상을 구현하는 셔터안경 방식이 있다. 무안경 방식은 일반적으로 패럴렉스 베리어, 렌티큘러 렌즈 등의 광학판을 사용하여 좌우시차 영상의 광축을 분리하여 입체영상을 구현한다.
입체영상 표시장치는 일반적으로 입체영상을 구현하기 위해 외부로부터 3D 영상 데이터를 입력받는다. 입체영상 표시장치는 입력받은 3D 영상 데이터를 위에서 설명한 입체영상 방식에 따라 3D 포맷으로 변환함으로써 입체영상을 표시한다. 하지만, 입체영상 표시장치는 외부로부터 2D 영상 데이터를 입력받은 경우에도 입체영상을 구현할 수 있다. 이 경우, 입체영상 표시장치는 입력받은 2D 영상 데이터를 3D 영상 데이터로 변환하는 알고리즘을 이용하여 2D 영상 데이터를 3D 영상 데이터로 변환해야 한다. 입체영상 표시장치는 변환된 3D 영상 데이터를 입체영상 방식에 따라 3D 포맷으로 변환함으로써 입체영상을 표시한다.
도 1 및 도 2는 종래에 2D 영상 데이터를 3D 영상 데이터로 변환하는 알고리즘을 적용한 입체영상 표시장치의 입체영상을 보여주는 도면이다. 도 1을 참조하면, 입체영상의 좌우측 끝 부분(A)에서 영상 왜곡이 발생하는 것을 알 수 있다. 이는 2D 영상 데이터를 3D 영상 데이터로 변환하는 알고리즘을 적용하는 과정에서, 좌안 영상 데이터의 일측 끝 부분의 데이터가 손실되고, 우안 영상 데이터의 타측 끝 부분의 데이터가 손실되기 때문이다.
도 1과 같이 데이터 손실로 인한 영상 왜곡을 방지하기 위해 도 2와 같이 데이터가 손실되는 부분을 블랙 데이터로 처리하는 방법이 제안되었다. 블랙 데이터 처리 방법은 도 2와 같이 블랙 데이터 처리로 인해 좌우측 끝 부분(A)에서 발생했던 영상의 왜곡을 방지할 수 있지만, 원본 영상 데이터의 좌우측 끝 부분의 영상이 아예 없어지는 문제가 발생한다.
본 발명은 입체영상의 좌우측 끝 부분에서 원본 영상 데이터의 손실 없이 영상 왜곡을 방지할 수 있는 입체영상 표시장치와 그 구동방법을 제공한다.
본 발명의 입체영상 표시장치는 데이터 라인들과 게이트 라인들이 교차되고, 상기 데이터 라인들과 게이트 라인들의 교차에 의해 정의되는 셀 영역에 형성된 다수의 픽셀을 포함하는 표시패널; 입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 게인 값을 적용한 후, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 영상 변환부; 상기 영상 변환부에 의해 변환된 3D 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동부; 및 상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동부를 구비한다.
본 발명의 입체영상 표시장치의 구동방법은 데이터 라인들과 게이트 라인들이 교차되고, 상기 데이터 라인들과 게이트 라인들의 교차에 의해 정의되는 셀 영역에 형성된 다수의 픽셀을 포함하는 표시패널을 구비하는 입체영상 표시장치에 있어서, 입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 게인 값을 적용한 후, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계; 변환된 3D 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 단계; 및 상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 단계를 포함한다.
본 발명은 2D 영상 데이터로부터 추출한 뎁스 맵으로부터 디스패러티를 계산하고, 픽셀 수평위치에 따라 디스패러티에 게인 값을 다르게 적용한 후, 게인 값이 적용된 디스패러티를 이용하여 좌안 영상 데이터와 우안 영상 데이터를 생성한다. 그 결과, 본 발명은 입체영상의 좌우측 끝 부분에서 원본 영상 데이터의 손실 없이 영상 왜곡을 방지할 수 있다.
도 1 및 도 2는 종래에 2D 영상 데이터를 3D 영상 데이터로 변환하는 알고리즘을 적용한 입체영상 표시장치의 입체영상을 보여주는 도면이다.
도 3은 본 발명의 실시예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도이다.
도 4는 도 3의 영상 변환부를 상세히 보여주는 블록도이다.
도 5는 본 발명의 실시예에 따른 영상 변환부의 영상변환방법을 보여주는 흐름도이다.
도 6a 및 도 6b는 영상 변환부에 입력되는 2D 영상과 뎁스 맵 영상을 보여주는 도면들이다.
도 7은 픽셀의 수평 위치에 따른 게인 값의 변화를 보여주는 그래프이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 실질적으로 동일한 구성요소들을 의미한다. 이하의 설명에서, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다. 이하의 설명에서 사용되는 구성요소 명칭은 명세서 작성의 용이함을 고려하여 선택된 것일 수 있는 것으로서, 실제 제품의 부품 명칭과는 상이할 수 있다.
도 3은 본 발명의 실시예에 따른 입체영상 표시장치를 개략적으로 보여주는 블록도이다. 본 발명의 입체영상 표시장치는 액정표시소자(Liquid Crystal Display, LCD), 전계 방출 표시소자(Field Emission Display, FED), 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 유기발광다이오드 소자(Organic Light Emitting Diode, OLED) 등의 평판 표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 액정표시소자를 중심으로 예시하였지만, 액정표시소자에 한정되지 않는 것에 주의하여야 한다. 또한, 본 발명의 입체영상 표시장치는 셔터안경(Shutter Glass) 방식, 패턴 리타더(Pattern Retarder) 방식, 및 액티브 리타더(Active Retarder) 방식 등의 양안시차를 이용한 안경방식으로 구현될 수 있고, 무안경방식으로도 구현될 수 있다.
도 3을 참조하면, 본 발명의 입체영상 표시장치는 표시패널(10), 게이트 구동부(110), 데이터 구동부(120), 타이밍 콘트롤러(130), 영상 변환부(140), 및 호스트 시스템(150) 등을 포함한다.
표시패널(10)은 타이밍 콘트롤러(130)의 제어 하에 영상을 표시한다. 표시패널(10)은 두 장의 유리기판 사이에 액정층이 형성된다. 표시패널(10)의 하부 유리기판상에는 데이터 라인(D)들과 게이트 라인(G)들(또는 스캔 라인들)이 상호 교차되도록 형성되고, 데이터 라인(D)들과 게이트 라인(G)들에 의해 정의된 셀영역들에 픽셀들이 매트릭스 형태로 배치된 TFT 어레이가 형성된다. 표시패널(10)의 픽셀들 각각은 박막 트랜지스터에 접속되어 화소전극과 공통전극 사이의 전계에 의해 구동된다.
표시패널(10)의 상부 유리기판상에는 블랙매트릭스, 컬러필터, 공통전극 등을 포함하는 컬러필터 어레이가 형성된다. 공통전극은 TN(Twisted Nematic) 모드와 VA(Vertical Alignment) 모드와 같은 수직전계 구동방식에서 상부 유리기판상에 형성되며, IPS(In Plane Switching) 모드와 FFS(Fringe Field Switching) 모드와 같은 수평전계 구동방식에서 화소전극과 함께 하부 유리기판상에 형성된다. 표시패널(10)의 액정모드는 전술한 TN 모드, VA 모드, IPS 모드, FFS 모드뿐 아니라 어떠한 액정모드로도 구현될 수 있다.
표시패널(10)의 상부 유리기판에는 상부 편광판이 부착되고, 하부 유리기판에는 하부 편광판이 부착된다. 상부 편광판의 광투과축과 하부 편광판의 광투과축은 직교된다. 또한, 상부 유리기판과 하부 유리기판에는 액정의 프리틸트각(pre-tilt angle)을 설정하기 위한 배향막이 형성된다. 표시패널(10)의 상부 유리기판과 하부 유리기판 사이에는 액정층의 셀갭(cell gap)을 유지하기 위한 스페이서가 형성된다.
표시패널(10)은 대표적으로 백라이트 유닛으로부터의 빛을 변조하는 투과형 액정표시패널이 선택될 수 있다. 백라이트 유닛은 백라이트 유닛 구동부로부터 공급되는 구동전류에 따라 점등하는 광원, 도광판(또는 확산판), 다수의 광학시트 등을 포함한다. 백라이트 유닛은 직하형(direct type) 백라이트 유닛, 또는 에지형(edge type) 백라이트 유닛으로 구현될 수 있다. 백라이트 유닛의 광원들은 HCFL(Hot Cathode Fluorescent Lamp), CCFL(Cold Cathode Fluorescent Lamp), EEFL(External Electrode Fluorescent Lamp), LED(Light Emitting Diode) 중 어느 하나의 광원 또는 두 종류 이상의 광원들을 포함할 수 있다.
백라이트 유닛 구동부는 백라이트 유닛의 광원들을 점등시키기 위한 구동전류를 발생한다. 백라이트 유닛 구동부는 백라이트 제어부의 제어 하에 광원들에 공급되는 구동전류를 온/오프(ON/OFF)한다. 백라이트 제어부는 호스트 시스템으로부터 입력되는 글로벌/로컬 디밍신호(DIM)에 따라 백라이트 휘도와 점등 타이밍을 조정한 백라이트 제어 데이터를 SPI(Serial Pheripheral Interface) 데이터 포맷으로 백라이트 유닛 구동부에 출력한다.
데이터 구동부(120)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 콘트롤러(130)로부터 입력되는 2D/3D 영상 데이터(RGB2D/RGB3D)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 표시패널(10)의 데이터 라인(D)들에 공급된다.
게이트 구동부(110)는 타이밍 콘트롤러(130)의 제어 하에 데이터전압에 동기되는 게이트 펄스를 표시패널(10)의 게이트 라인(G)들에 순차적으로 공급한다. 게이트 구동부(110)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정셀의 TFT 구동에 적합한 스윙폭으로 변환하기 위한 레벨 쉬프터, 및 출력 버퍼 등을 각각 포함하는 다수의 게이트 드라이브 집적회로들로 구성될 수 있다. 또는, 게이트 구동부(110)는 GIP(Gate Drive IC in Panel) 방식으로 표시패널(10)의 하부 기판상에 직접 형성될 수도 있다. GIP 방식의 경우, 레벨 쉬프터는 PCB(Printed Circuit Board)상에 실장되고, 쉬프트 레지스터는 표시패널(10)의 하부 기판상에 형성될 수 있다.
타이밍 콘트롤러(130)는 영상 변환부(140)로부터 출력된 2D/3D 영상 데이터(RGB2D/RGB3D)와 타이밍 신호들(Vsync, Hsync, DE, CLK)에 기초하여 게이트 구동부 제어신호를 게이트 구동부(110)로 출력하고, 데이터 구동부 제어신호를 데이터 구동부(120)로 출력한다. 게이트 구동부 제어신호는 게이트 스타트 펄스(Gate Start Pulse, GSP), 게이트 쉬프트 클럭(Gate Shift Clock, GSC), 및 게이트 출력 인에이블신호(Gate Output Enable, GOE) 등을 포함한다. 게이트 스타트 펄스(GSP)는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭(GSC)은 게이트 스타트 펄스(GSP)를 쉬프트시키기 위한 클럭신호이다. 게이트 출력 인에이블신호(GOE)는 게이트 구동부(110)의 출력 타이밍을 제어한다.
데이터 구동부 제어신호는 소스 스타트 펄스(Source Start Pulse, SSP), 소스 샘플링 클럭(Source Sampling Clock, SSC), 소스 출력 인에이블신호(Source Output Enable, SOE), 극성제어신호(POL) 등을 포함한다. 소스 스타트 펄스(SSP)는 데이터 구동부(120)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준하여 데이터 구동부(120)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(120)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스(SSP)와 소스 샘플링 클럭(SSC)은 생략될 수 있다. 극성제어신호(POL)는 데이터 구동부(120)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블신호(SOE)는 데이터 구동부(120)의 출력 타이밍을 제어한다.
호스트 시스템(150)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 2D/3D 영상 데이터(RGB2D/RGB3D)를 영상 변환부(140)에 공급한다. 또한, 호스트 시스템(150)은 타이밍신호들(Vsync, Hsync, DE, CLK)과 모드신호(MODE) 등을 영상 변환부(140)에 공급한다.
영상 변환부(140)는 호스트 시스템(150)으로부터 입력되는 모드 신호(MODE)에 따라 2D 모드와 3D 모드를 구분할 수 있다. 영상 변환부(140)는 2D 모드에서 호스트 시스템(150)으로부터 입력된 2D 영상 데이터(RGB2D)를 그대로 타이밍 콘트롤러(130)로 출력한다. 영상 변환부(140)는 3D 모드에서 호스트 시스템(150)으로부터 입력된 2D 영상 데이터(RGB2D)를 3D 영상 데이터(RGB3D)로 변환한 후 타이밍 콘트롤러(130)로 출력한다. 영상 변환부(140)는 3D 모드에서 입력된 2D 영상 데이터(RGB2D)로부터 뎁스 맵(Depth map)을 추출하고, 뎁스 맵을 이용하여 디스패러티를 계산하며, 픽셀 수평위치에 따라 디스패러티에 게인 값을 적용하고, 게인 값이 적용된 디스패러티를 이용하여 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 생성한다. 영상 변환부(140)는 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 3D 포맷으로 변환하여 3D 영상 데이터(RGB3D)를 생성한다. 영상 변환부(140)와 그의 영상변환방법에 대한 자세한 설명은 도 4 및 도 5를 결부하여 후술한다.
도 4는 도 3의 영상 변환부를 상세히 보여주는 블록도이다. 도 5는 본 발명의 실시예에 따른 영상 변환부의 영상변환방법을 보여주는 흐름도이다. 도 4를 참조하면, 영상 변환부(140)는 뎁스 맵 추출부(141), 디스패러티 계산부(142), 게인 값 적용부(143), 및 디스패러티 적용부(144)를 포함한다. 이하에서, 도 4 및 도 5를 결부하여 영상 변환부(140)의 2D 영상 데이터(RGB2D)를 3D 영상 데이터(RGB3D)로 변환하는 방법에 대하여 상세히 설명한다.
첫 번째로, 뎁스 맵 추출부(141)는 입력된 2D 영상 데이터(RGB2D)로부터 영상의 입체감을 나타내는 뎁스(Depth)를 추출한다. 뎁스 맵 추출부(141)는 뎁스를 추출하기 위해 객체 감지(Object Detection)을 통해 객체(Object)를 찾아내고, 객체에 따라 뎁스에 차이를 준다. 이때, 뎁스 맵 추출부(141)는 다양한 뎁스 큐(Depth cues)를 이용하여 뎁스를 추출할 수 있다. 뎁스 큐는 영상의 뎁스를 알 수 있는 여러 종류의 정보를 의미하며, 중첩(겹쳐 있는 물체간의 전후 뎁스 판단), 직선 원근법 영상(소실점을 감지하고, 소실점 위치를 백 뎁스(Back Depth) 처리하여 원근감을 표현), 그림자 분석(음영을 구분하여 밝은 부분을 깊게 표현), 움직임 시차 영상(모션(Motion)을 감지하여 움직임의 상대성으로 뎁스 판단), 대기 원근법(윤곽의 선명성에 따른 상대적 뎁스 판단), 상대적 크기 영상(사물간 상대 크기로 뎁스 판단) 등을 포함할 수 있다.
도 6a에는 뎁스 맵 추출부(141)에 입력되는 2D 영상이 나타나 있고, 도 6b에는 뎁스 맵 추출부(141)에 의해 추출된 뎁스 맵이 나타나 있다. 2D 영상 데이터(RGB2D)의 픽셀별 뎁스(Depth)가 뎁스 맵에 나타나 있으며, 뎁스(Depth)는 도 6b와 같이 8비트의 0 내지 255의 그레이 레벨(Gray level)로 표현될 수 있다. 뎁스(Depth)는 도 6b와 같이 블랙에 가까울수록 깊고, 화이트에 가까울수록 깊지 않도록 표현될 수 있다. (S101)
두 번째로, 디스패러티 계산부(142)는 컨버전스(Convergence)와, 최대 디스패러티(Max Disparity)와, 뎁스 맵 추출부(141)에 의해 추출된 뎁스 맵을 이용하여 디스패러티(Disparity)를 계산한다. 디스패러티(Disparity)는 입체감을 형성하기 위해 2D 영상 데이터를 왼쪽 또는 오른쪽으로 쉬프트시키는 픽셀의 개수를 의미한다. 컨버전스(Convergence)는 초점이 형성되는 위치를 의미하고, 컨버전스를 조절함으로써 입체감을 표시패널 대비 앞쪽 또는 뒤쪽으로 조절할 수 있다. 최대 디스패러티(Max Disparity)는 2D 영상 데이터를 왼쪽 또는 오른쪽으로 쉬프트시킬 수 있는 최대 픽셀의 개수를 의미한다.
디스패러티 계산부(142)는 수학식 1과 같이 (x, y)(x는 1≤x≤n을 만족하는 자연수, n은 표시패널(10)의 가로 해상도)(y는 1≤y≤m을 만족하는 자연수, m은 표시패널(10)의 세로 해상도) 좌표의 뎁스(Depth(x, y)), 컨버전스(Convergence), 및 최대 디스패러티(Max Disparity)를 이용하여 (x, y) 좌표의 디스패러티(Disparity(x, y))를 계산한다. 예를 들어, 디스패러티 계산부(142)는 1920×1080 해상도의 경우, (1, 1) 내지 (1920, 1080) 좌표의 디스패러티를 모두 계산한다.
Figure 112011058013193-pat00001
수학식 1에서, 뎁스(Depth(x, y))는 뎁스 맵에서 (x, y) 좌표의 그레이 레벨을 의미한다. 뎁스 맵에서 뎁스(Depth)는 그레이 레벨로 표현되기 때문이다. 컨버전스(Convergence)와 최대 디스패러티(Max Disparity)는 사용자에 의해 임의로 설정되며, 이는 사전 실험을 통해 적절한 값으로 설정될 수 있다. (S102)
세 번째로, 게인 값 적용부(143)는 디스패러티 계산부(142)에 의해 계산된 디스패러티(Disparity)에 픽셀 수평위치에 따라 게인 값(Gain)을 적용한다. 도 7에는 픽셀 수평위치인 x 좌표에 따른 게인 값(Gain)의 변화를 나타내는 게인 함수가 나타나 있다. 도 7을 참조하면, 픽셀 수평위치인 x 좌표가 '0'부터 '최대 디스패러티(Max Disparity)'까지의 구간에서 게인 값(Gain)은 '0'에서 '1'로 선형으로 x 좌표에 비례하여 증가한다. 픽셀 수평위치인 x 좌표가 '최대 디스패러티(Max Disparity)'부터 'n-최대 디스패러티(Max Disparity)'인 구간에서 게인 값(Gain)은 '1'이다. x 좌표가 'n-최대 디스패러티(Max Disparity)'부터 'n'까지의 구간에서 게인 값(Gain)은 '1'에서 '0'으로 선형으로 x 좌표에 비례하여 감소한다. 픽셀 수평위치인 x 좌표가 '0'부터 '최대 디스패러티(Max Disparity)'까지의 구간과 'n-최대 디스패러티(Max Disparity)'부터 'n'까지의 구간에서의 게인 값(Gain)은 최대 디스패러티(Max Disparity)에 따라 달라지며, 이는 사전 실험을 통해 결정될 수 있다.
게인 값 적용부(143)는 게인 함수에 따라 픽셀 수평위치인 x 좌표에서 게인 값(Gain)을 다르게 적용한다. 게인 값 적용부(143)는 픽셀 수평위치인 x 좌표에 따라 게인 값이 적용된 룩-업 테이블을 포함한다. 게인 값 적용부(143)는 (1, y) 내지 (Max Disparity, y) 좌표의 디스패러티에는 해당 x 좌표의 게인 값(Gain)을 곱한다. 게인 값 적용부(143)는 (Max Disparity, y) 내지 (1920-Max Disparity, y) 좌표의 디스패러티에는 게인 값 '1'을 곱한다. 게인 값 적용부(143)는 (1920-Max Disparity, y) 내지 (1920, y) 좌표의 디스패러티에는 해당 x 좌표의 게인 값(Gain)을 곱한다. (S103)
네 번째로, 디스패러티 적용부(144)는 게인 값(Gain)이 적용된 디스패러티(Disparity)를 2D 영상 데이터(RGB2D)에 적용하여 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 생성한다. 디스패러티 적용부(144)는 (x, y) 좌표의 2D 영상 데이터를 왼쪽으로 디스패러티(Disparity) 만큼 이동하여 좌안 영상 데이터(RGBL)를 생성하고, (x, y) 좌표의 2D 영상 데이터를 오른쪽으로 디스패러티(Disparity) 만큼 이동하여 우안 영상 데이터(RGBR)를 생성한다. 디스패러티 적용부(144)는 입력되는 (x, y) 좌표의 2D 영상 데이터(RGB2D)의 x 좌표에 (x, y) 좌표의 디스패러티(Disparity)를 적용하여 변환한 후, 변환된 좌표값의 2D 영상 데이터(RGB2D)를 (x, y) 좌표의 좌안 영상 데이터(RGBL) 또는 우안 영상 데이터(RGBR)에 적용한다. 즉, 디스패러티 적용부(144)는 수학식 2와 같이 (x, y) 좌표의 2D 영상 데이터(RGB2D)의 수평위치인 x 좌표에서 (x, y) 좌표의 디스패러티(Disparity)를 감산한 (x-Disparity(x, y), y) 좌표의 2D 영상 데이터(RGB2D)를 (x, y) 좌표의 좌안 영상 데이터(RGBL)로 생성한다. 디스패러티 적용부(144)는 수학식 2와 같이 (x, y) 좌표의 2D 영상 데이터(RGB2D)의 수평위치인 x 좌표에서 (x, y) 좌표의 디스패러티(Disparity)를 가산한 (x+Disparity(x, y), y) 좌표의 2D 영상 데이터(RGB2D)를 (x, y) 좌표의 우안 영상 데이터(RGBR)로 생성한다.
Figure 112011058013193-pat00002
Figure 112011058013193-pat00003
수학식 2에서, L(x, y)는 (x, y) 좌표의 좌안 영상 데이터(RGBL), R(x, y)는 (x, y) 좌표의 우안 영상 데이터(RGBR), 2D(x-Disparity(x, y), y)는 (x-Disparity(x, y), y) 좌표의 2D 영상 데이터(RGB2D)를 의미한다. (S104)
영상 변환부(140)는 3D 포맷터(도시하지 않음)를 포함할 수 있다. 3D 포맷터는 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 입력받고, 입체영상 표시장치의 입체영상 방법에 따라 좌안 영상 데이터(RGBL)와 우안 영상 데이터(RGBR)를 해당 입체영상 방법에 맞는 3D 포맷으로 변환한다.
이상에서 살펴본 바와 같이, 영상 변환부(140)의 게인 값 적용부(143)는 픽셀 수평위치에 따라 디스패러티(Disparity)에 게인 값(Gain)을 다르게 적용한다. 특히, 게인 값 적용부(143)는 종래 문제되었던 영상의 좌우측 끝 부분에서 영상의 왜곡을 방지하기 위해, 영상의 좌우측 끝 부분에서 게인 값을 '0' 내지 '1' 사이의 값으로 적용한다. 이로 인해, 영상의 좌우측 끝 부분에서 디스패러티(Disparity) 적용으로 인해 발생했던 좌안 영상 데이터와 우안 영상 데이터의 손실을 없앨 수 있다. 즉, 본 발명은 입체영상의 좌우측 끝 부분에서 원본 영상 데이터의 손실 없이 영상 왜곡을 방지할 수 있다.
이상, 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.
10: 표시패널 110: 게이트 구동부
120: 데이터 구동부 130: 타이밍 콘트롤러
140: 영상 변환부 141: 뎁스 맵 추출부
142: 디스패러티 계산부 143: 게인 값 적용부
144: 디스패러티 적용부 150: 호스트 시스템

Claims (11)

  1. 데이터 라인들과 게이트 라인들이 교차되고, 상기 데이터 라인들과 게이트 라인들의 교차에 의해 정의되는 셀 영역에 형성된 다수의 픽셀을 포함하는 표시패널;
    입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 픽셀 수평위치에 따라 게인 값을 다르게 적용하고, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 영상 변환부;
    상기 영상 변환부에 의해 변환된 3D 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 데이터 구동부; 및
    상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 게이트 구동부를 구비하는 입체영상 표시장치.
  2. 제 1 항에 있어서,
    상기 영상 변환부는,
    상기 2D 영상 데이터로부터 상기 뎁스를 추출하는 뎁스 맵 추출부;
    상기 뎁스, 컨버전스, 및 최대 디스패러티를 이용하여 상기 디스패러티를 계산하는 디스패러티 계산부;
    상기 디스패러티 계산부에 의해 계산된 디스패러티에 상기 픽셀 수평위치에 따라 상기 게인 값을 다르게 적용하는 게인 값 적용부; 및
    상기 게인 값이 적용된 디스패러티를 이용하여 상기 2D 영상 데이터의 수평위치를 이동하여 상기 좌안 영상 데이터와 우안 영상 데이터를 생성하는 디스패러티 적용부를 포함하는 것을 특징으로 하는 입체영상 표시장치.
  3. 제 2 항에 있어서,
    상기 최대 디스패러티를 'Max disparity'라 할 때,
    상기 게인 값은,
    상기 픽셀 수평위치가 '0' 내지 'Max disparity'인 제1 구간의 경우 상기 제1 구간의 픽셀 수평위치에 비례하여 '0'에서 '1'까지 선형으로 증가하고,
    상기 픽셀 수평위치가 'Max disparity' 내지 'n-Max disparity(n은 표시패널의 가로 해상도)'인 제2 구간의 경우 '1'을 유지하며,
    상기 픽셀 수평위치가 'n-Max disparity' 내지 'n'인 제3 구간인 경우 상기 제3 구간의 픽셀 수평위치에 비례하여 '1'에서 '0'까지 선형으로 감소하는 것을 특징으로 하는 입체영상 표시장치.
  4. 제 3 항에 있어서,
    상기 게인 값 적용부는,
    상기 픽셀 수평위치에 따른 게인 값이 적용된 룩-업 테이블을 포함하는 것을 특징으로 하는 입체영상 표시장치.
  5. 제 2 항에 있어서,
    상기 디스패러티 적용부는,
    상기 2D 영상 데이터의 수평위치에서 상기 게인 값이 적용된 디스패러티를 감산하여 상기 2D 영상 데이터의 수평위치를 이동한 후, 이동한 수평위치의 2D 영상 데이터를 상기 좌안 영상 데이터로 생성하고, 상기 2D 영상 데이터의 수평위치에서 상기 게인 값이 적용된 디스패러티를 가산하여 상기 2D 영상 데이터의 수평위치를 이동한 후, 이동한 수평위치의 2D 영상 데이터를 상기 우안 영상 데이터로 생성하는 것을 특징으로 하는 입체영상 표시장치.
  6. 제 2 항에 있어서,
    상기 영상 변환부는,
    상기 좌안 영상 데이터와 상기 우안 영상 데이터를 3D 포맷으로 변환하는 3D 포맷터를 더 포함하는 것을 특징으로 하는 입체영상 표시장치.
  7. 데이터 라인들과 게이트 라인들이 교차되고, 상기 데이터 라인들과 게이트 라인들의 교차에 의해 정의되는 셀 영역에 형성된 다수의 픽셀을 포함하는 표시패널을 구비하는 입체영상 표시장치에 있어서,
    입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 픽셀 수평위치에 따라 게인 값을 다르게 적용하고, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계;
    변환된 3D 영상 데이터를 데이터전압으로 변환하여 상기 데이터 라인들로 출력하는 단계; 및
    상기 데이터전압에 동기되는 게이트 펄스를 상기 게이트 라인들로 순차적으로 출력하는 단계를 포함하는 입체영상 표시장치의 구동방법.
  8. 제 7 항에 있어서,
    상기 입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 픽셀 수평위치에 따라 게인 값을 다르게 적용하고, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계는,
    상기 2D 영상 데이터로부터 상기 뎁스를 추출하는 단계;
    상기 뎁스, 컨버전스, 및 최대 디스패러티를 이용하여 상기 디스패러티를 계산하는 단계;
    계산된 디스패러티에 상기 픽셀 수평위치에 따라 상기 게인 값을 다르게 적용하는 단계; 및
    상기 게인 값이 적용된 디스패러티를 이용하여 상기 2D 영상 데이터의 수평위치를 이동하여 상기 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 입체영상 표시장치의 구동방법.
  9. 제 8 항에 있어서,
    상기 최대 디스패러티를 'Max disparity'라 할 때,
    상기 게인 값은,
    상기 픽셀 수평위치가 '0' 내지 'Max disparity'인 제1 구간의 경우 상기 제1 구간의 픽셀 수평위치에 비례하여 '0'에서 '1'까지 선형으로 증가하고,
    상기 픽셀 수평위치가 'Max disparity' 내지 'n-Max disparity(n은 표시패널의 가로 해상도)'인 제2 구간의 경우 '1'을 유지하며,
    상기 픽셀 수평위치가 'n-Max disparity' 내지 'n'인 제3 구간인 경우 상기 제3 구간의 픽셀 수평위치에 비례하여 '1'에서 '0'까지 선형으로 감소하는 것을 특징으로 하는 입체영상 표시장치의 구동방법.
  10. 제 8 항에 있어서,
    상기 게인 값이 적용된 디스패러티를 이용하여 상기 2D 영상 데이터의 수평위치를 이동하여 상기 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계는,
    상기 2D 영상 데이터의 수평위치에서 상기 게인 값이 적용된 디스패러티를 감산하여 상기 2D 영상 데이터의 수평위치를 이동한 후, 이동한 수평위치의 2D 영상 데이터를 상기 좌안 영상 데이터로 생성하고, 상기 2D 영상 데이터의 수평위치에서 상기 게인 값이 적용된 디스패러티를 가산하여 상기 2D 영상 데이터의 수평위치를 이동한 후, 이동한 수평위치의 2D 영상 데이터를 상기 우안 영상 데이터로 생성하는 것을 특징으로 하는 입체영상 표시장치의 구동방법.
  11. 제 8 항에 있어서,
    상기 입력되는 2D 영상 데이터로부터 뎁스 맵을 추출하고, 상기 뎁스 맵에서 입체감을 나타내는 뎁스를 이용하여 디스패러티를 계산하며, 상기 디스패러티에 픽셀 수평위치에 따라 게인 값을 다르게 적용하고, 상기 게인 값이 적용된 디스패러티를 상기 2D 영상 데이터에 적용하여 좌안 영상 데이터와 우안 영상 데이터를 생성하는 단계는,
    상기 좌안 영상 데이터와 상기 우안 영상 데이터를 3D 포맷으로 변환하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 표시장치의 구동방법.
KR1020110074476A 2011-07-27 2011-07-27 입체영상 표시장치와 그 구동방법 KR101888672B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020110074476A KR101888672B1 (ko) 2011-07-27 2011-07-27 입체영상 표시장치와 그 구동방법
US13/480,054 US8878842B2 (en) 2011-07-27 2012-05-24 Stereoscopic image display device and method for driving the same
CN201210166773.8A CN102905153B (zh) 2011-07-27 2012-05-25 立体图像显示装置及其驱动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110074476A KR101888672B1 (ko) 2011-07-27 2011-07-27 입체영상 표시장치와 그 구동방법

Publications (2)

Publication Number Publication Date
KR20130013071A KR20130013071A (ko) 2013-02-06
KR101888672B1 true KR101888672B1 (ko) 2018-08-16

Family

ID=47577164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110074476A KR101888672B1 (ko) 2011-07-27 2011-07-27 입체영상 표시장치와 그 구동방법

Country Status (3)

Country Link
US (1) US8878842B2 (ko)
KR (1) KR101888672B1 (ko)
CN (1) CN102905153B (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101779423B1 (ko) * 2011-06-10 2017-10-10 엘지전자 주식회사 영상처리방법 및 영상처리장치
KR20140050361A (ko) * 2012-10-19 2014-04-29 삼성디스플레이 주식회사 화소, 이를 이용한 입체 영상 표시 장치 및 그의 구동 방법
KR102045563B1 (ko) * 2013-06-27 2019-12-02 엘지디스플레이 주식회사 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
US10484661B2 (en) * 2013-08-06 2019-11-19 Sony Interactive Entertainment Inc. Three-dimensional image generating device, three-dimensional image generating method, program, and information storage medium
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
CN104363442A (zh) * 2014-12-04 2015-02-18 成都中远信电子科技有限公司 一种3d游戏显示器专用的高清图像增益放大器
WO2017083509A1 (en) * 2015-11-13 2017-05-18 Craig Peterson Three dimensional system
US10284837B2 (en) 2015-11-13 2019-05-07 Vefxi Corporation 3D system including lens modeling
US10121280B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including rendering with three dimensional transformation
US10225542B2 (en) 2015-11-13 2019-03-05 Vefxi Corporation 3D system including rendering with angular compensation
US10277877B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including a neural network
US20170142395A1 (en) * 2015-11-13 2017-05-18 Craig Peterson 3d system including pop out adjustment
US10148933B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including rendering with shifted compensation
US10277880B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with variable displacement
US10242448B2 (en) 2015-11-13 2019-03-26 Vefxi Corporation 3D system including queue management
US10148932B2 (en) 2015-11-13 2018-12-04 Vefxi Corporation 3D system including object separation
US10277879B2 (en) 2015-11-13 2019-04-30 Vefxi Corporation 3D system including rendering with eye displacement
US10122987B2 (en) 2015-11-13 2018-11-06 Vefxi Corporation 3D system including additional 2D to 3D conversion
US10154244B2 (en) 2016-02-18 2018-12-11 Vefxi Corporation 3D system including a marker mode
WO2019061064A1 (zh) * 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 图像处理方法和设备
KR20210079612A (ko) * 2019-12-20 2021-06-30 엘지디스플레이 주식회사 표시장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
US20100091097A1 (en) * 2006-09-25 2010-04-15 Lachlan Pockett Supporting A 3D Presentation

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JP3619063B2 (ja) * 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
DE60014420T2 (de) * 1999-11-26 2005-10-13 Sanyo Electric Co., Ltd., Moriguchi Verfahren zur 2d/3d videoumwandlung
JP3428550B2 (ja) * 2000-02-04 2003-07-22 日本電気株式会社 液晶表示装置
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR100523052B1 (ko) * 2002-08-30 2005-10-24 한국전자통신연구원 다중 디스플레이 방식을 지원하는 다시점 동영상의 객체 기반 부호화 장치 및 그 방법과 그를 이용한 객체 기반 송수신 시스템 및 그 방법
KR100649523B1 (ko) * 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
KR101232163B1 (ko) * 2006-06-26 2013-02-12 엘지디스플레이 주식회사 액정 표시장치의 구동장치 및 구동방법
US8970680B2 (en) * 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
FR2917845B1 (fr) * 2007-06-19 2011-08-19 Christophe Brossier Procede de visualisation d'une sequence d'images produisant une sensation de relief
JP4561794B2 (ja) * 2007-08-22 2010-10-13 ソニー株式会社 空間像表示装置
US8228327B2 (en) * 2008-02-29 2012-07-24 Disney Enterprises, Inc. Non-linear depth rendering of stereoscopic animated images
US8787654B2 (en) * 2008-05-12 2014-07-22 Thomson Licensing System and method for measuring potential eyestrain of stereoscopic motion pictures
KR101500324B1 (ko) * 2008-08-05 2015-03-10 삼성디스플레이 주식회사 표시 장치
JP5347717B2 (ja) * 2008-08-06 2013-11-20 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9251621B2 (en) * 2008-08-14 2016-02-02 Reald Inc. Point reposition depth mapping
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
JP2011095369A (ja) * 2009-10-28 2011-05-12 Sony Corp 立体画像表示装置及びその駆動方法
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
KR101325302B1 (ko) 2009-11-30 2013-11-08 엘지디스플레이 주식회사 입체 영상 표시장치와 그 구동방법
KR101676878B1 (ko) * 2010-06-07 2016-11-17 삼성디스플레이 주식회사 입체 영상 디스플레이를 위한 디더 패턴 발생 방법 및 장치
JP5610933B2 (ja) * 2010-09-03 2014-10-22 キヤノン株式会社 再生装置及びその制御方法
KR101279129B1 (ko) * 2010-12-09 2013-06-26 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
US20100091097A1 (en) * 2006-09-25 2010-04-15 Lachlan Pockett Supporting A 3D Presentation

Also Published As

Publication number Publication date
US8878842B2 (en) 2014-11-04
CN102905153B (zh) 2015-03-11
CN102905153A (zh) 2013-01-30
KR20130013071A (ko) 2013-02-06
US20130027390A1 (en) 2013-01-31

Similar Documents

Publication Publication Date Title
KR101888672B1 (ko) 입체영상 표시장치와 그 구동방법
KR101831652B1 (ko) 입체영상 표시장치와 그 구동방법
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR101869872B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101981530B1 (ko) 입체영상 표시장치와 그 구동방법
KR101829459B1 (ko) 영상처리방법과 이를 이용한 입체영상 표시장치
KR101840876B1 (ko) 입체영상 표시장치와 그 구동방법
KR101296902B1 (ko) 영상처리부와 이를 이용한 입체영상 표시장치, 및 영상처리방법
KR101793283B1 (ko) 재깅 개선방법과 이를 이용한 입체영상 표시장치
US20140146143A1 (en) Stereoscopic image display device and method for driving the same
KR102126532B1 (ko) 멀티뷰 영상 생성 방법과 이를 이용한 입체 영상 표시 장치
KR101773616B1 (ko) 영상처리방법과 이를 이용한 입체영상 표시장치
KR101894090B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101929042B1 (ko) 디스패러티 산출부와 이를 포함한 입체영상 표시장치, 및 디스패러티 산출방법
KR101843197B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101870233B1 (ko) 3d 화질개선방법과 이를 이용한 입체영상 표시장치
KR101838752B1 (ko) 입체영상 표시장치와 그 구동방법
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR101843198B1 (ko) 멀티뷰 영상 생성방법과 이를 이용한 입체영상 표시장치
KR101829466B1 (ko) 입체영상 표시장치
KR20130012672A (ko) 입체영상 표시장치와 그 구동방법
KR20130028363A (ko) 입체영상 표시장치의 크로스토크 평가방법 및 그 시스템
KR101961943B1 (ko) 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치
KR101996657B1 (ko) 글로벌 뎁스 맵 생성방법과 이를 이용한 입체영상 표시장치
KR20130028345A (ko) 재깅 검출방법과 이를 이용한 입체영상 표시장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant