KR101227518B1 - 전자 장치 및 입체영상 디스플레이 방법 - Google Patents

전자 장치 및 입체영상 디스플레이 방법 Download PDF

Info

Publication number
KR101227518B1
KR101227518B1 KR1020110024825A KR20110024825A KR101227518B1 KR 101227518 B1 KR101227518 B1 KR 101227518B1 KR 1020110024825 A KR1020110024825 A KR 1020110024825A KR 20110024825 A KR20110024825 A KR 20110024825A KR 101227518 B1 KR101227518 B1 KR 101227518B1
Authority
KR
South Korea
Prior art keywords
eye view
view image
image
left eye
shutter
Prior art date
Application number
KR1020110024825A
Other languages
English (en)
Other versions
KR20120107246A (ko
Inventor
김태호
문성학
이준학
나중민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110024825A priority Critical patent/KR101227518B1/ko
Publication of KR20120107246A publication Critical patent/KR20120107246A/ko
Application granted granted Critical
Publication of KR101227518B1 publication Critical patent/KR101227518B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 장치 및 입체영상 디스플레이 방법이 개시된다. 표시패널은 수직동기신호(Vsync)에 따라 좌안 시점 영상 및 우안 시점 영상을 교대로 디스플레이한다. 액티브 필터는 표시패널이 디스플레이한 좌안 시점 영상 및 우안 시점 영상을 차단하는 셔터를 포함한다. 제어부는 액티브 필터의 셔터의 활성화를 제어한다.

Description

전자 장치 및 입체영상 디스플레이 방법{ELECTRONIC DEVICE AND METHOD FOR DISPLAYING A 3-DIMENSIONAL IMAGE}
본 발명은 전자 장치 및 입체영상 디스플레이 방법에 관한 것으로, 보다 상세하게는, 적어도 하나의 좌안 시점 영상 및 적어도 하나의 우안 시점 영상을 포함하는 입체영상을 처리하는 위한 전자 장치 및 입체영상 디스플레이 방법에 관한 것이다.
현재에는 아날로그 방송에서 디지털 방송으로 방송환경이 급속히 전환되고 있다. 그에 따라 디지털 방송을 위한 컨텐츠의 양이 급속히 증가하고 있다. 또한, 디지털 방송을 위한 컨텐츠로는 2차원(2-dimensions: 2D) 영상 신호를 2차원 이미지로 디스플레이하는 컨텐츠 이외에도 3차원(3 dimensions: 3D) 영상 신호를 3차원 이미지로 디스플레이하는 컨텐츠가 제작 및 기획되고 있다.
3 차원 영상을 디스플레이하는 기술은 양안의 시차로 관찰자가 입체감을 느끼게 되는 양안 시차의 원리를 이용하는 것으로, 안경 방식(shutter glass method), 무안경 방식, 완전 3차원 방식 등으로 구분된다. 안경 방식은 입체영상을 관람하기 위하여 시청자가 특수한 기능의 안경을 착용하는 방식을 말한다. 안경 방식을 크게 구분하여, 좌우가 번갈아 개폐되는 셔터글라스 방식과 좌우안의 안경렌즈 부분에 서로 반대 방향의 원편광판을 장착하는 편광 방식으로 분류할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 입체영상을 디스플레이하는 중에 발생하는 크로스톡(crosstalk)을 개선하기 위한 전자 장치 및 입체영상 디스플레이 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는 수직동기신호(Vsync)에 따라 좌안 시점 영상 및 우안 시점 영상을 교대로 디스플레이하는 표시패널, 상기 디스플레이된 좌안 시점 영상 및 상기 디스플레이된 우안 시점 영상을 차단하는 셔터를 포함하는 액티브 필터, 및 상기 셔터의 활성화를 제어하는 제어부를 포함할 수 있다. 상기 액티브 필터는 상기 표시패널의 전면에 배치될 수 있다.
상기 셔터는 픽셀 단위로 활성화될 수 있다. 여기서, 상기 셔터에서 활성화되는 픽셀들은 상기 좌안 시점 영상 및 상기 우안 시점 영상 중 상기 셔터가 활성화되기 직전에 디스플레이되는 영상을 기초로 결정될 수 있다. 또한 상기 셔터에서 활성화되는 픽셀들은 각각 상기 디스플레이되는 영상의 픽셀 중 대응하는 픽셀의 회색도(Gray Level)를 기초로 결정될 수 있다.
상기 셔터는 상기 좌안 시점 영상 및 상기 우안 시점 영상 중 상기 셔터가 활성화되기 직전에 디스플레이되는 영상의 회색도(Gray Level)가 사전에 설정된 값이 이상인 경우에 활성화될 수 있다.
상기 셔터는 상기 좌안 시점 영상 및 상기 우안 시점 영상이 교대하는 디스플레이 시점을 기준으로 활성화될 수 있다.
상기 셔터의 활성화 시점은 상기 수직동기신호 및 상기 좌안 시점 영상의 프레임 레이트 중 적어도 하나를 기초로 결정될 수 있다.
상기 액티브 필터는 액정으로 형성될 수 있다. 여기서, 상기 액정에 전압이 인가되면 상기 셔터가 활성화될 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 디스플레이 장치는 수직동기신호(Vsync)에 따라 좌안 시점 영상을 디스플레이하는 단계, 상기 디스플레이된 좌안 시점 영상이 디스플레이된 후 제1 시점부터 제1 기간 동안 상기 좌안 시점 영상을 차단하는 단계, 상기 수직동기신호(Vsync)에 따라 우안 시점 영상을 디스플레이하는 단계 및 상기 디스플레이된 우안 시점 영상이 디스플레이된 후 제2 시점부터 제2 기간 동안 상기 우안 시점 영상을 차단하는 단계를 포함할 수 있다.
상기 좌안 시점 영상 및 상기 우안 시점 영상은 픽셀 단위로 차단될 수 있다. 또한 상기 입체영상 디스플레이 방법은 상기 차단되는 픽셀들을 결정하는 단계를 더 포함할 수 있다. 여기서, 상기 차단되는 픽셀들은 각각 회색도(Gray Level)를 기초로 결정될 수 있다.
상기 입체영상 디스플레이 방법은 상기 디스플레이된 좌안 시점 영상의 회색도(Gray Level)가 사전에 설정된 값 이상인지 여부를 확인하는 단계를 더 포함할 수 있고, 상기 회색도가 사전에 설정된 값 이상인 경우에, 상기 좌안 시점 영상을 차단하는 단계를 수행할 수 있다.
상기 입체영상 디스플레이 방법은 상기 디스플레이된 우안 시점 영상의 회색도(Gray Level)가 사전에 설정된 값 이상인지 여부를 확인하는 단계를 더 포함할 수 있고, 상기 회색도가 사전에 설정된 값 이상인 경우에, 상기 우안 시점 영상을 차단하는 단계를 수행할 수 있다.
상기 제1 시점은 상기 수직동기신호 및 상기 좌안 시점 영상의 프레임 레이트 중 적어도 하나를 기초로 결정될 수 있다.
상기 제1 기간은 상기 좌안 시점 영상의 디스플레이에서 상기 우안 시점 영상의 디스플레이로의 교대 시점을 포함할 수 있다.
상기 좌안 시점 영상을 차단하는 단계는, 활성화 필터의 액정에 전압인가를 제어하는 단계를 포함할 수 있다.
상기 입체영상 디스플레이 방법은 상기 좌안 시점 영상 및 상기 우안 시점 영상을 디스플레이하기 위한 입체영상 데이터를 수신하는 단계, 상기 수신된 입체영상 데이터의 프레임 레이트를 변환하는 단계, 및 상기 프레임 레이트가 변환된 입체영상 데이터를 이용하여 상기 좌안 시점 영상의 영상 프레임 및 상기 우안 시점 영상의 영상 프레임을 샘플링하고, 상기 수직동기신호(Vsync)를 생성하는 단계를 더 포함할 수 있다.
본 발명에 따른 전자 장치 및 입체영상 디스플레이 방법에 의하면, 입체영상 프레임의 디스플레이 시에 이전 영상 프레임을 디스플레이하는 광에 의해 발생하는 고스트를 디스플레이 패널 상에서 원천적으로 차단하므로, 입체영상을 디스플레이 과정에서 발생되는 크로스톡을 줄일 수 있다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 양안시차 방식을 도시한 도면,
도 3은 본 발명에 따른 입체영상의 싱글 비디오 스트림 포맷의 예들을 도시한 도면,
도 4는 본 발명에 따른 입체영상의 멀티 비디오 스트림 포맷의 예들을 도시한 도면,
도 5a는 LCD 디스플레이 장치와 크로스톡의 상관관계를 설명하기 위한 도면,
도 5b은 PDP/DLP 디스플레이 장치와 크로스톡의 상관관계를 설명하기 위한 도면,
도 6은 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 7은 FRC부에서 입력 영상 데이터의 처리 과정을 설명하기 위한 도면,
도 8은 포맷터에서 샘플링한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 일예를 도시한 도면,
도 9는 디스플레이에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 10은 액티브 필터의 물리적 배치를 도시한 도면,
도 11은 액티브 필터의 셔터가 활성화되는 시점 및 기간을 설명하기 위한 도면,
도 12는 고스트 발생을 검출하는 방법을 설명하기 위한 도면,
도 13은 좌안 시점 이미지 및 우안 시점 이미지의 일예를 도시한 도면,
도 14는 액티브 필터에 의해 고스트가 차단되는 방법을 설명하기 위한 도면, 그리고,
도 15는 본 발명에 따른 입체영상 디스플레이 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 전자 장치(100)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.
수신부(101)는 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터, 프로그램 코드를 수신할 수 있다. 여기서 영상 데이터는 양안시차 방식의 입체영상 데이터일 수 있다. 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷을 가질 수 있다.
도 2는 양안시차 방식을 도시한 도면이다.
도 2를 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 좌안 시점 영상(201) 및 우안 시점 영상(202)을 시청자의 양 눈(211, 212)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(201) 및 우안 시점 영상(202)의 양안 시차에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라질 수 있다.
좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 좁을수록, 좌안(211) 및 우안(212)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 또한 좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 넓을수록, 좌안(211) 및 우안(212)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.
도 3은 본 발명에 따른 입체영상의 싱글 비디오 스트림 포맷의 예들을 도시한 도면이다.
도 3을 참조하면, 싱글 비디오 스트림 포맷은 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 및 인터레이스드(Interlaced) 포맷을 포함할 수 있다.
사이드 바이 사이드(side by side) 포맷(310)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(311)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(312)가 사람의 좌안과 우안에 각각 서로 직교하도록 나란히 입력되는 포맷이다. 사이드 바이 사이드 포맷의 영상 프레임(310)에는 하나의 좌안 시점 영상 프레임(311) 및 하나의 우안 시점 영상 프레임(312)이 나란히 배치된다.
탑 앤 바텀(top and bottom) 포맷(320)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(321)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(322)가 상하로 입력되는 포맷이다. 탑 앤 바텀 포맷의 영상 프레임(320)에는 하나의 좌안 시점 영상 프레임(321) 및 하나의 우안 시점 영상 프레임(322)이 상하로 배치된다.
체커 보드(checker board) 포맷(330)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(331)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(332)가 체스판 모양으로 시간적으로 번갈아 입력되는 포맷이다. 즉 체커 보드 포맷의 영상 프레임(330)에는 좌안 시점 영상(201)의 화소 데이터와 우안 시점 영상(202)의 화소 데이터가 체스판 모양으로 시간적으로 번갈아 배치된다.
프레임 시퀀셜(Frame sequential) 포맷(340)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(341) 및 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(342)가 시간차를 두어 입력되는 방식이다. 프레임 시퀀셜 포맷에서 하나의 좌안 시점 영상 프레임(341) 및 하나의 우안 시점 영상 프레임(342)이 하나의 독립된 영상 프레임으로 수신된다.
인터레이스드(Interlaced) 포맷에는 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(351)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(352)를 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌안 시점 영상 데이터(351)와 우안 시점 영상 데이터(352)가 라인마다 교대로 위치하는 포맷(350)이 있다. 또한 인터레이스드(Interlaced) 포맷에는 좌안 시점 영상 (201)을 디스플레이하는 좌안 시점 영상 데이터(356)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(357)를 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌안 시점 영상 데이터(356)와 우안 시점 영상 데이터(357)가 라인마다 교대로 위치하는 포맷(355)이 있다.
도 4는 본 발명에 따른 입체영상의 멀티 비디오 스트림 포맷의 예들을 도시한 도면이다.
도 4를 참조하면, 멀티 비디오 스트림 포맷은 풀 좌/우(Full left/right)(410), 풀 좌/하프 우(Full left/Half right)(420) 및 2D 비디오/깊이(2D video/depth)(430)를 포함할 수 있다.
풀 좌/우(410)는 좌안 시점 영상(411) 및 우안 시점 영상(415)을 각각 전송하는 멀티 비디오 스트림 포맷이고, 풀 좌/하프 우(420)는 좌안 시점 영상(421)은 그대로 전송하고, 우안 시점 영상은 수직(422) 또는 수평(423) 방향으로 1/2 서브 샘플링하여 전송하는 멀티 비디오 스트림 포맷이며, 2D 비디오/깊이 포맷(430)은 하나의 시점 영상(431)과 다른 하나의 시점 영상을 만들어내기 위한 깊이 정보(435)를 함께 전송하는 멀티 비디오 스트림 포맷이다.
수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우에는, 복조부(120)는 8-VSB(8-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다.
또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다.
이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호를 디스플레이할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.
또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있다. 촬영 장치(90)는 사람의 손 영역을 인식하여 손 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 여기서 촬상된 손 모양은 공간 제스처로 인식될 수 있다. 즉 제어부(190)는 촬상된 손 모양을 공간 제스처로 인식하고 인식된 공간 제스처와 연관된 동작들을 수행하는 명령어들을 실행할 수 있다. 여기서 공간 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 촬영 장치(90)로부터 수신되는 영상 프레임 또는 영상으로부터 인식되는 제스처로 정의될 수 있다.
일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 포함할 수 있다.
신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)로 영상(152)을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다.
신호 처리부(140)는 수신부(101)로부터 수신된 입체영상 데이터를 기초로 디스플레이(150)로 출력한 영상 프레임을 구성할 수 있다. 일부 실시예로, 신호 처리부(140)는 상기 입체영상 데이터를 기초로 복수의 영상 프레임을 샘플링할 수 있다.
신호 처리부(140)는 샘플링한 영상 프레임들을 디스플레이(150)로 출력할 수 있다. 여기서 상기 샘플링된 영상 프레임들은 좌안 시점 영상 프레임 및 우안 시점 영상 프레임일 수 있다. 또한 신호 처리부(140)는 수직/수평 동기신호(Vsync,Hsync), 데이터 인에이블(Data Enable), 클럭신호(CLK), 타입 신호(Type)등의 타이밍신호를 생성하고, 디스플레이(150)로 출력할 수 있다.
디스플레이(150)는 영상 데이터(RGB) 및 타이밍 신호를 신호 처리부(140)로부터 수신할 수 있다. 그리고 디스플레이(150)는 타이밍 신호를 기초로 영상 데이터(RGB)를 디스플레이할 수 있다. 여기서 디스플레이(150)는 셔터글라스 방식으로 입체영상을 디스플레이할 수 있다. 또한 디스플레이(150)는 타이밍 신호에 따라 영상 데이터(RGB)에 포함된 영상 프레임을 스캔할 수 있고, 수직 주파수에 맞추어 상기 영상 프레임을 스캔할 수 있다.
또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다. GUI(153)는 프로그램, 파일, 및 동작 옵션들을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도우, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서 및 스크롤바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 제기하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도우의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 가동시키는 아이콘을 선택할 수 있다.
음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.
입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린 또는 터치패드일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려 놓을 수 있다. 터치패드에서는, 이것과 같은 일대일 관계가 없다. 터치패드는 디스플레이(150)로부터 떨어져 일반적으로 다른 평면에 놓여 있을 수 있다.
저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.
제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.
제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.
제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다.
제스처는 터치 제스처와 공간 제스처를 포함할 수 있다. 터치 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 입력장치(170)와의 양식화된 상호작용으로서 정의될 수 있다. 터치 제스처는 여러 가지 손을 통해, 보다 상세하게는 손가락 움직임을 통해 행해질 수 있다. 다른 대안으로서 또는 그에 부가하여, 제스처는 스타일러스로 행해질 수 있다.
입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.
사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 전자 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다. 예로서, 이들 명령은 줌잉, 패닝, 스크롤링, 페이지 넘김, 회전, 크기조정, 영상 채널 변경, 컨텐츠 수신, 인터넷 접속 등과 연관되어 있을 수 있다. 추가의 예로서, 명령은 또한 특정의 프로그램을 기동시키는 것, 파일 또는 문서를 여는 것, 메뉴를 보는 것, 선택을 하는 것, 명령어를 실행하는 것, 인터넷 사이트 시스템에 로그온하는 것, 인가된 개인에게 컴퓨터 시스템의 제한된 영역에의 액세스를 허용하는 것, 바탕화면의 사용자 선호 배열과 연관된 사용자 프로파일을 로드하는 것, 및/또는 기타 등등과 연관되어 있을 수 있다.
일부 실시예들에서, 손가락과 터치 스크린 디스플레이 간의 파라미터(예를 들어, 커패시턴스)의 크기에 따라, 이 파라미터가 미리 정해진 문턱값을 넘을 때, 다운 이벤트가 일어나고, 이 파라미터가 미리 정해진 문턱값을 넘고 있는 동안에 손가락의 대응하는 커서 위치가 위치 A로부터 위치 B로 이동할 때, 드래깅 이벤트가 일어나며, 이 파라미터가 문턱값 레벨 아래로 떨어질 때 업 이벤트가 일어난다.
도 5a는 LCD 디스플레이 장치와 크로스톡의 상관관계를 설명하기 위한 도면이다.
도 5a를 참조하면, 점선 박스(510, 520)는 디스플레이 패널에서 디스플레이되는 하나의 화면을 나타내고, x축은 시간 축을 의미하고, y축은 화면의 수직 방향 포지션(position)을 의미한다. 또한 'T'는 디스플레이 패널에서 영상 프레임이 y축을 기준으로 위에서부터 스캔될 때 픽셀에 빛이 지속되는 시간을 나타낸다.
x축과 y축을 기준으로 점선 박스(510, 520)의 좌측 상단부분으로부터 좌안 시점 영상 프레임의 화소 데이터 또는 우안 시점 영상 프레임의 화소 데이터가 디스플레이된다. 그러나 'T'가 존재하여 다음 시점 영상 프레임의 화소 데이터가 화면 상단에서 디스플레이되기 시작할 때, 화면 화단에서 이전 영상 프레임의 화소 데이터가 지속하여 디스플레이된다. 따라서 셔터 안경의 각 셔터 오픈 기준 시점을 각 프레임 시작과 동일하게 오픈하는 경우(510), 화면의 많은 부분에서 이전 시점 영상 프레임의 화소 데이터가 지속적으로 디스플레이되어 좌안 시점 영상과 우안 시점 영상이 섞이는 크로스톡 현상이 많이 발생한다.
여기서, 셔터 오픈 기준 시점을 변경하면 크로스톡 현상을 개선시킬 수 있다. 예를 들어, 점선 박스(520)가 위치하는 시점에서 셔터 안경을 오픈시키면 점선 박스(510)에서 보다 크로스톡 현상을 줄일 수 있다. 그러나 점선 박스(520)에서도 시점(521)을 제외한 시점에서 여전히 크로스톡 현상이 존재하고 있음을 알 수 있다. 즉 LCD(Liquid Crystal Display)의 동작 원리상 크로스톡이 많이 발생하여 셔터 안경을 이용한 프레임 시퀀셜(Frame sequential) 방식의 입체영상 재현에는 큰 어려움이 있다. 이는 기본적으로 LCD 디스플레이 장치의 'T'가 매우 길기 때문이다.
도 5b은 PDP/DLP 디스플레이 장치와 크로스톡의 상관관계를 설명하기 위한 도면이다.
도 5b을 참조하면, PDP(Plasma Display Panel)나 DLP(Digital Light Processing)의 경우에는 동작 원리상 도시된 바와 같이, 화면 전체에 한 프레임(530)이 동시에 디스플레이된다. 따라서, 셔터 안경을 사용하여 입체3D 영상이 재현되는 경우 좌우 안의 영상이 섞이는 크로스톡 현상이 이론적으로는 거의 발생하지 않는다. 다만, PDP의 경우 실제 구현상으로는 형광체의 붕괴 시간(decay time)이 긴 경우에는 이전 프레임의 일부가 다음 프레임까지 지속되어 크로스톡이 발생한다.
도 6은 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 6을 참조하면, 신호 처리부(140)는 역다중화부(610), 오디오 디코더(620), 비디오 디코더(630), 스케일러(640), 믹서(650), FRC(Frame Rate Converter)(660), 포맷터(670) 및 영상 인터페이스부(680)를 포함할 수 있다.
역다중화부(610)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(610)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 정보 데이터로 역다중화하여 각각 비디오 디코더(630), 오디오 디코더(620) 및 제어부(190)로 출력할 수 있다.
오디오 디코더(620)는 역다중화부(610)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(640) 또는 음성 출력부(160)로 출력할 수 있다.
비디오 디코더(630)는 역다중화부(610)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하고 복원한 영상 데이터를 스케일러(640)에 출력한다. 여기서 영상 데이터는 입체영상 데이터를 포함할 수 있다.
스케일러(640)는 비디오 디코더(630), 제어부(190) 및 오디오 디코더(620)에서 처리된 영상 데이터 및 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(640)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 포맷, 1280x720 포맷, 1280x768 포맷, 1280x800 포맷, 1920x540 포맷 및 1920x1080 포맷 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(640)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.
또한, 스케일러(640)는 디스플레이되는 컨텐츠의 종류 또는 사용자 설정 등에 따라서, 입체영상의 화면비(aspect ratio)를 조절하여 출력한다. 화면비 값은 16:9, 4:3, 또는 3:2 등의 값이 될 수 있으며, 스케일러(640)는 가로 방향의 화면 길이 비와 세로 방향의 화면 길이 비가 특정 비율이 되도록 조절할 수도 있다.
믹서(650)는 스케일러(640) 및 제어부(190)의 출력을 믹싱하여 출력한다.
FRC(660)는 스케일러(640) 또는 믹서(650)가 출력한 영상 데이터를 디스플레이(150)의 수직 주파수에 대응되도록 처리한다. 예를 들어, 비디오 디코더(630)가 출력하는 영상 데이터의 수직 주파수가 60Hz이고, 디스플레이(150)의 수직 주파수가 120Hz 또는 240Hz라면, FRC(660)는 상기 영상 데이터(60Hz)를 디스플레이(150)의 수직 주파수인 120Hz 또는 240Hz에 대응되도록 기 정의된 방식으로 처리한다. 여기서, 상기 기 정의된 방식에는 예를 들어, 입력되는 영상 데이터를 템퍼럴 인터폴레이션(temporal interpolation) 하는 방법과 입력되는 영상 데이터에 포함된 영상 프레임을 단순 반복하는 방법이 있다. 전술한 각 방법은 입력되는 입체영상의 포맷에 따라 적절하게 선택되어 FRC(660)에서 수행될 수 있다.
이하에서는 설명의 편의를 위해 비디오 디코더(630)가 출력하는 영상 데이터의 수직 주파수는 60Hz이고, 디스플레이 수직 주파수를 240Hz로 하여 설명한다. 다만, 본 발명은 상기 주파수들에 한정되는 것은 아니다. 여기서 디스플레이 수직 주파수라 함은 포맷터(670)에서 구성된 영상 프레임을 디스플레이(150)에서 디스플레이 또는 출력하는 수직 주사주파수이다. 포맷터(670)는 디스플레이 수직 주파수에 따라 생성한 수직동기신호(Vsync)를 디스플레이(150)로 출력할 수 있다. 또한 포맷터(670)는 상기 디스플레이 수직 주파수와 대응하는 동기신호(3D Sync)를 셔터 안경으로 전송하고, 상기 셔터 안경은 상기 동기신호(3D Sync)에 동기를 맞추어 셔터의 개폐를 조절할 수 있다.
상기 템퍼럴 인터폴레이션 방법은, 입력되는 60Hz의 영상 신호를 4등분(0, 0.25, 0.5, 0.75) 함으로써 240Hz의 영상 신호가 되도록 처리하는 방법이다. 그리고 상기 프레임을 단순 반복하는 방법은, 입력되는 60Hz의 영상 신호의 각 프레임을 4번 반복함으로써 각 프레임의 주파수가 240Hz가 되도록 처리한다.
도 7은 FRC에서 입체영상 데이터의 처리 과정을 설명하기 위한 도면이다.
도 7을 참조하면, 도 7(a)는 FRC(660)로 입력되는 특정 주파수(예를 들어, 60Hz)의 영상 데이터이고, 도 7(b)는 FRC(660)를 거쳐 디스플레이 수직 주파수(예를 들어, 240Hz)를 근거로 처리된 영상 데이터이다. 여기서 입체영상 데이터는 설명의 편의를 위해 탑/다운 방식의 영상 데이터를 일 예로 하여 설명하나 이에 한정되는 것은 아니며, 전술한 도 3 내지 4에 기술된 방식 모두에 적용 가능함을 미리 밝혀둔다.
도 7(a)를 참조하면, FRC(660)로 입력되는 60Hz의 탑/다운 방식의 영상 데이터는, 탑/다운으로 L1/R1, L2/R2, L3/R3, 및 L4/R4 4개의 프레임이 존재한다. 그리고 도 7(b)를 참조하면, 상기 탑/다운 방식의 영상 데이터는 FRC(660)에서 디스플레이 수직 주파수를 근거로 처리됨으로써, 240Hz의 탑/다운 방식의 영상 데이터가 된다. 즉, 도 7(b)에서는 각 L1/R1, L2/R2, L3/R3, 및 L4/R4 프레임이 4개씩 존재한다. 여기서, 상기 도 7(b)는 전술한 변환 방법들 중 어느 하나의 방법을 이용하더라도 동일하다.
포맷터(670)는 입체영상을 구현하기 위하여 FRC(660)가 출력한 영상 데이터를 디스플레이(150)로 출력하고, 출력되는 입체영상 신호에 동기 신호(3D Sync)를 생성하여 셔터 안경(미도시)으로 전송할 수 있다. 포맷터(670)는 동기 신호의 전송을 위해 적외선 출력부(미도시) 또는 RF 모듈을 포함할 수 있다. 여기서, 동기 신호(3D Sync)는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(미도시)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.
도 8은 포맷터에서 샘플링한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 일예를 도시한 도면이다.
도 8을 참조하면, 포맷터(670)는 FRC(660)를 통해 디스플레이 수직 주파수에 대응되도록 처리된 입체영상 데이터를 이용하여, 영상 인터페이스부(680)로 출력하기 위한 영상 프레임을 샘플링할 수 있다. 포맷터(670)는 하나의 입체영상 프레임을 형성하는 좌안 시점 영상 데이터(L1 내지 L8) 및 우안 시점 영상 데이터(R1 내지 R8)를 이용하여, 상기 좌안 시점 영상 데이터(L1 내지 L8)를 포함하는 좌안 시점 영상 프레임(810) 및 상기 우안 시점 영상 데이터(R1 내지 R8)를 포함하는 우안 시점 영상 프레임(820)을 샘플링할 수 있다. 그리고 포맷터(670)는 상기 샘플링된 좌안 시점 영상 프레임(810) 및 상기 샘플링된 우안 시점 영상 프레임(820) 순으로 영상 프레임들을 배열할 수 있다. 그리고 포맷터(670)는 배열 순서에 맞추어 상기 영상 프레임들을 영상 인터페이스부(680)로 출력할 수 있다. 여기서 포맷터(670)는 하나의 영상 프레임을 샘플링하고 샘플링한 영상 프레임을 배치한 후 다음 영상 프레임을 구성하고 배치할 수 있고, 상기 두 개의 영상 프레임들을 샘플링한 후에 상기 샘플링된 영상 프레임들의 배열할 수 있다.
영상 인터페이스부(680)는 포맷터(670)가 출력한 좌안 시점 영상 프레임(810) 및 우안 시점 영상 프레임(820)을 디스플레이(150)로 출력할 수 있다. 여기서 영상 인터페이스부(680)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다.
FRC(660)와 포맷터(670)를 각각 다른 모듈로 구성되는 것을 예로 하여 설명하였으나, 다른 실시예로 수신 시스템에 따라서는 하나의 모듈로 구성할 수도 있다.
도 9는 디스플레이에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 9를 참조하면, 디스플레이(150)는 표시패널(910), 액티브 필터(915), 데이터 구동부(920), 게이트 구동부(930), 감마기준전압 발생부(940), 백라이트 어셈블리(950), 인버터(960), 공통전압 발생부(970), 게이트구동전압 발생부(980) 및 타이밍 컨버터(990)를 포함할 수 있다.
표시패널(910)은 영상 데이터(RGB)를 스캔한다. 여기서 영상 데이터(RGB)는 좌안 시점 영상 프레임의 영상 데이터일 수 있고, 우안 시점 영상 프레임의 영상 데이터일 수 있다. 또한 표시패널(910)은 액정표시패널 또는 PDP표시패널일 수 있다.
액정표시패널(910)에는 데이터라인(DL1 내지 DLm)과 게이트라인(GL1 내지 GLn)이 교차되며 그 교차부에 액정셀(Clc)을 구동하기 위한 박막트랜지스터(TFT : Thin Film Transistor)가 형성된다.
액정표시패널(910)은 두 장의 유리기판 사이에 액정이 주입된다. 액정표시패널(910)의 하부 유리기판 상에는 데이터라인들(DL1 내지 DLm)과 게이트라인들(GL1 내지 GLn)이 직교된다. 데이터라인들(DL1 내지 DLm)과 게이트라인들(GL1 내지 GLn)의 교차부에는 TFT가 형성된다. TFT는 스캔펄스에 응답하여 데이터라인들(DL1 내지 DLm)상의 데이터를 액정셀(Clc)에 공급하게 된다. TFT의 게이트전극은 게이트라인(GL1 내지 GLn)에 접속되며, TFT의 소스전극은 데이터라인(DL1 내지 DLm)에 접속된다. 그리고 TFT의 드레인전극은 액정셀(Clc)의 화소전극과 스토리지 캐패시터(Cst)에 접속된다.
TFT는 게이트라인(GL1 내지 GLn)을 경유하여 게이트단자에 공급되는 스캔펄스에 응답하여 턴-온된다. TFT의 턴-온시 데이터라인(DL1 내지 DLm) 상의 영상 데이터는 액정셀(Clc)의 화소전극에 공급된다.
액티브 필터(915)는 표시패널(910)이 디스플레이한 영상을 차단하는 셔터를 포함한다. 상기 셔터가 활성화되면 표시패널(910)이 디스플레이한 영상은 차단되고, 상기 셔터가 비활성화되면 표시패널(910)이 디스플레이한 영상은 액티브 필터(915)를 투과한다. 상기 셔터는 픽셀 단위로 활성화될 수 있다. 액티브 필터(915)는 상기 셔터의 특정 픽셀들을 활성화하여, 활성화된 픽셀과 연관된 영상 부분을 차단할 수 있다. 즉 액티브 필터(915)는 표시패널(910)이 디스플레이한 영상을 부분적으로 차단할 수 있다.
액티브 필터(915)는 액정으로 형성될 수 있다. 액티브 필터(915)는 노멀리 화이트 모드(normally white mode) 및 노멀리 블랙 모드(normally black mode) 중 하나일 수 있다. 노멀리 화이트 모드인 경우에, 액티브 필터(915)에 전원이 인가되면, 셔터가 활성화되고, 이에 따라 표시패널(910)이 디스플레이한 영상은 액티브 필터(915)에 의해 차단된다. 이때 액티브 필터(915)의 특정 부분에 전원을 인가하면 상기 특정 부분의 셔터가 활성화될 수 있다.
노멀리 블랙 모드인 경우에, 액티브 필터(915)에 전원이 중단되면, 셔터가 활성화되고, 이에 따라 표시패널(910)이 디스플레이한 영상은 액티브 필터(915)에 차단된다. 이때 액티브 필터(915)의 특정 부분에 전원 인가를 중단하며 상기 특정 부분의 셔터가 활성화될 수 있다.
데이터 구동부(920)는 표시패널(910)의 데이터라인들(DL1 내지 DLm)에 데이터를 공급한다. 데이터 구동부(920)는 타이밍 컨트롤러(990)로부터 공급되는 데이터 타이밍 제어신호에 응답하여 데이터를 데이터라인들(DL1 내지 DLm)에 공급하며, 그리고 타이밍 컨트롤러(990)로부터 공급되는 영상 데이터(RGB)를 샘플링하여 래치한 다음 감마기준전압 발생부(940)로부터 공급되는 감마기준전압을 기준으로 액정표시패널(910)의 액정셀(Clc)에서 계조를 표현할 수 있는 아날로그 데이터 전압으로 변환시켜 데이터라인들(DL1 내지 DLm)들에 공급한다.
게이트 구동부(930)는 표시패널(910)의 게이트라인(GL1 내지 GLn)에 스캔펄스를 공급한다. 게이트 구동부(930)는 타이밍 컨트롤러(990)로부터 공급되는 게이트 타이밍 제어신호에 응답하여 스캔펄스 즉, 게이트펄스를 순차적으로 발생하여 게이트라인(GL1 내지 GLn)들에 공급한다. 이때, 게이트 구동부(930)는 게이트구동전압 발생부(980)로부터 공급되는 게이트 하이전압(VGH)과 게이트 로우전압(VGL)에 따라 각각 스캔펄스의 하이레벨전압과 로우레벨전압을 결정한다.
감마기준전압 발생부(940)는 감마기준전압을 발생하여 데이터 구동부(920)에 발생된 감마기준전압을 공급한다. 감마기준전압 발생부(940)는 액정표시패널(910)로 공급되는 전원전압 중에 가장 높은 고전위 전원전압(VDD)을 공급받아 정극성 감마기준전압과 부극성 감마기준전압을 발생하여 데이터 구동부(920)로 출력한다.
백라이트 어셈블리(950)는 표시패널(910)에 광을 조사한다. 백라이트 어셈블리(950)는 액정표시패널(910)의 후면에 배치되며, 인버터(960)로부터 공급되는 교류 전압과 전류에 의해 발광되어 광을 액정표시패널(910)의 각 픽셀로 조사한다. 여기서 백라이트 어셈블리(950)는 발광다이오드(Light Emitting Diode : LED)로 구성될 수 있다.
인버터(960)는 백라이트 어셈블리(950)에 교류 전압 및 전류를 인가한다. 인버터(960)는 내부에 발생되는 구형파신호를 삼각파신호로 변화시킨 후 삼각파신호와 상기 시스템으로부터 공급되는 직류 전원전압(VCC)을 비교하여 비교결과에 비례하는 버스트디밍(Burst Dimming)신호를 발생한다. 이렇게 내부의 구형파신호에 따라 결정되는 버스트디밍신호가 발생되면, 인버터(960) 내에서 교류 전압과 전류의 발생을 제어하는 구동 IC(미도시)는 버스트디밍신호에 따라 백라이트 어셈블리(950)에 공급되는 교류 전압과 전류의 발생을 제어한다.
공통전압 발생부(970)는 공통전압(Vcom)을 발생하여 표시패널(910)의 액정셀(Clc)의 공통전극에 발생된 공통전압(Vcom)을 공급한다. 공통전압 발생부(970)는 고전위 전원전압(VDD)을 공급받아 공통전압(Vcom)을 발생하여 액정표시패널(910)의 각 픽셀에 구비된 액정셀(Clc)들의 공통전극에 공급한다.
게이트구동전압 발생부(980)는 게이트 하이전압(VGH)과 게이트 로우전압(VGL)을 발생하여 게이트 구동부(930)에 발생된 게이트 하이전압(VGH)과 게이트 로우전압(VGL)을 공급한다. 게이트구동전압 발생부(980)는 액정표시패널(910)의 각 픽셀에 구비된 TFT의 문턱전압 이상이 되는 게이트 하이전압(VGH)을 발생하고 TFT의 문턱전압 미만이 되는 게이트 로우전압(VGL)을 발생한다. 이렇게 발생된 게이트 하이전압(VGH)과 게이트 로우전압(VGL)은 각각 게이트 구동부(930)에 의해 발생되는 스캔펄스의 하이레벨전압과 로우레벨전압을 결정하는데 이용된다.
타이밍 컨트롤러(990)는 데이터 구동부(920) 및 게이트 구동부(930)를 제어한다. 타이밍 컨트롤러(990)는 영상 인터페이스부(680)부터 영상 데이터(RGB), 수직/수평 동기신호(Vsync,Hsync), 데이터 인에이블(Data Enable), 클럭신호(CLK), 타입 신호(Type)등의 타이밍신호를 수신할 수 있다. 그리고 타이밍 컨트롤러(990)는 영상 데이터(RGB)를 데이터 구동부(920)에 공급하고, 또한 클럭신호(CLK)에 따라 수직/수평 동기신호(Vsync,Hsync)를 이용하여 데이터 구동부(920)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호와, 게이트 구동부(930)의 동작 타이밍을 제어하기 위한 게이트 타이밍 제어신호들을 발생할 수 있다. 또한 타이밍 컨트롤러(990)는 영상 프레임 종류에 따라 수직 주파수가 조절되도록 동작 타이밍 제어신호 및 게이트 타이밍 제어신호를 다르게 발생시킬 수 있다.
데이터 타이밍 제어신호들은 소스 스타트 펄스(Source Start Pulse : SSP), 소스 샘플링 클럭신호(Source Sampling Clock : SSC), 소스 출력 인에이블신호(Source Output Enable : SOE), 극성제어신호(Polarity : POL)를 포함한다. 소스 스타트 펄스(SSP)는 데이터가 표시될 1 수평라인에서 시작 화소를 지시한다. 소스 샘플링 클럭신호(SSC)는 라이징(Rising) 또는 폴링(Falling) 에지에 기준하여 데이터 구동부(920) 내에서 데이터의 래치동작을 지시한다. 소스 출력 인에이블신호(Source Output Enable : SOE)는 데이터 구동부(920)의 출력을 지시한다. 극성제어신호(POL)는 1 라인 스캔타임 또는 2 라인 스캔타임 주기로 논리가 반전되고 매 프레임기간마다 위상이 반전된다. 이 극성제어신호(POL)는 액정표시패널(910)의 액정셀들(Clc)에 공급될 데이터전압의 극성을 지시한다.
게이트 타이밍 제어신호들은 게이트 스타트 펄스(Gate Start Pulse : GSP), 게이트 쉬프트 클럭신호(Gate ShiftClock : GSC), 게이트 출력 인에이블신호(Gate Output Enable : GOE), 업/다운신호(UP/DOWN) 등을 포함한다. 게이트 스타트 펄스(GSP)는 한 화면이 표시되는 1 수직기간 중에서 스캔이 시작되는 시작 수평라인을 지시한다. 게이트 쉬프트 클럭신호(GSC)는 게이트 구동부(930) 내의 쉬프트 레지스터에 입력되어 게이트 스타트 펄스(GSP)를 순차적으로 쉬프트시키기 위한 타이밍 제어신호로써 TFT의 온(ON) 기간에 대응하는 펄스폭으로 발생된다. 게이트 출력 인에이블신호(GOE)는 게이트 구동부(930)의 출력을 지시한다. 업/다운신호(UP/DOWN)는 스캔펄스들의 출력 순서를 지시하는 제어신호이다.
타입 신호는 타이밍 컨트롤러(990)가 수신한 영상 데이터(RGB)가 2차원 영상인지 입체영상인지를 지시하는 정보를 포함한다.
타이밍 컨트롤러(990)는 타입 신호를 기초로 수직 주파수를 가변적으로 조절할 것인지를 결정할 수 있다. 타입 신호가 입체영상을 지시하는 경우에는, 타이밍 컨트롤러(990)는 수직 주파수를 가변적으로 조절할 수 있고, 타입 신호가 2차원 영상을 지시하는 경우에는, 타이밍 컨트롤러(990)는 수직 주파수를 고정할 수 있다. 또한 타입 신호가 수직 주파수 조절을 지시하는 경우에, 타이밍 컨트롤러(990)는 수직 주파수를 가변적으로 조절할 수 있다. 여기서 타이밍 컨트롤러(990)는 수직 주파수를 가변적으로 조절하기 위해 데이터 타이밍 제어신호 및 게이트 타이밍 제어신호의 발생을 조절할 수 있다.
타이밍 컨트롤러(990)는 수직동기신호(Vsync)에 동기를 맞추어 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이 디스플레이되도록 제어한다. 또한 타이밍 컨트롤러(990)는 액티브 필터(915)의 셔터의 활성화 및 활성화를 제어할 수 있다.
도 10은 액티브 필터의 물리적 배치를 도시한 도면이다.
도 10을 참조하면, 액티브 필터(915)는 표시패널(915)의 전면에 배치될 수 있다. 여기서 표시패널(915)의 전면은 표시패널(915)이 광(1001)을 조사하는 방향에 있는 면을 의미한다.
도 11은 액티브 필터의 셔터가 활성화되는 시점 및 기간을 설명하기 위한 도면이다.
도 11을 참조하면, 액티브 필터의 셔터는 수직동기신호(1120)에 동기를 맞추어 활성화될 수 있다. 수직동기신호(1120)의 현재 발생시점(1121)에서 다음 발생시점(1122) 사이의 구간인 필드(Field)(1130)의 크기는 프레임 레이트에 비례한다. 프레임 레이트가 60Hz일 때, 필드(1130)의 크기는 1/60Hz(약 16.67ms)가 된다. 또한 프레임 레이트가 120Hz일 때, 필드(1130)의 크기는 1/120Hz(약 8.33ms)가 된다. 여기서 디스플레이되는 영상이 입체영상인 경우에는, 필드(1130) 동안에 하나의 좌안 시점 영상 프레임(1141) 및 하나의 우안 시점 영상 프레임(1142)이 교대로 디스플레이될 수 있다.
필드(1130) 동안에 셔터는 2회 활성화(1111, 1115)될 수 있다. 제1 활성화 구간(1111)은 필드(1130)의 시작 시점에서 시작될 수 있고, 딜레이 구간(1131)의 기간을 가질 수 있다. 여기서 딜레이 구간(1131)은 표시패널(910)이 좌안 시점 영상 프레임(1141)을 디스플레이하기 위해 요구되는 처리 시간이다.
제2 활성화 구간(1115)은 좌안 시점 영상 프레임(1141)의 디스플레이를 중지하고 우안 시점 영상 프레임(1142)의 디스플레이를 시작하는 사이의 구간에 위치할 수 있다. 즉 제2 활성화 구간(1115)은 좌안 시점 영상 프레임(1141) 및 우안 시점 영상 프레임(1142)이 교대하는 디스플레이 시점을 기준으로 정해질 수 있다. 또한 제2 활성화 구간(1115)은 딜레이 구간(1133)을 포함할 수 있다. 딜레이 구간(1133)은 표시패널(910)이 우안 시점 영상 프레임(1142)을 디스플레이하기 위해 요구되는 처리 시간이다. 딜레이 구간(1133)은 좌안 시점 영상 프레임(1141)의 디스플레이 구간(1132) 및 우안 시점 영상 프레임(1134)의 디스플레이 구간(1134) 사이에 위치할 수 있다.
액티브 필터(915)는 액티브 필터 제어 신호(1110)를 수신하고, 수신한 액티브 제어 신호(1110)를 기초로 셔터를 구동할 수 있다. 액티브 필터 제어 신호(110)는 셔터 활성화 신호 및 셔터 비활성화 신호를 포함할 수 있다. 액티브 필터(915)는 셔터 활성화 신호를 수신하면 셔터를 활성화시키고, 셔터 비활성화 신호를 수신하면, 셔터를 비활성화시킬 수 있다.
셔터 활성화 신호는 시점(a) 및 시점(c)에서 발생될 수 있다. 셔터 활성화 신호의 발생 시점(a, b)은 수직동기신호(1120), 영상의 프레임 레이트 및 딜레이 구간(1133) 중 적어도 하나를 기초로 결정될 수 있다.
셔터 비활성화 신호는 시점(b) 및 시점 (d)에서 발생될 수 있다. 셔터 비활성화 신호의 발생 시점(b, d)은 수직동기신호(1120), 영상의 프레임 레이트 및 딜레이 구간(1133) 중 적어도 하나를 기초로 결정될 수 있다.
일부 실시예로, 셔터 비활성화 신호는 발생하지 않고, 사전에 설정된 시간 동안 활성화 구간(1111, 1115)이 지속되도록 설정될 수 있다. 여기서, 사전에 설정된 시간은 딜레이 구간(1131, 1133)의 기간을 기초로 설정될 수 있다.
타이밍 컨트롤러(990) 또는 포맷터(670)가 액티브 필터(915)의 셔터의 활성화를 제어할 수 있다. 또는 디스플레이(150)가 별도의 액티브 필터 제어부(미도시)를 포함하고, 상기 액티브 필터 제어부(미도시)가 셔터의 활성화를 제어할 수 있다. 즉 타이밍 컨트롤러(990), 포맷터(670) 및 액티브 필터 제어부는 액티브 필터(915)를 제어하기 위해 액티브 필터 제어 신호를 생성할 수 있다.
도 12는 고스트 발생을 검출하는 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 이미지(An -1)로부터 넘어오는 광량(Crosstalk(An -1))이 사전에 설정된 설정값을 초과하면, 액티브 필터(915)의 셔터가 활성화될 수 있다. 이미지(An -1)의 광량은 도 5a에서 전술된 'T' 또는 도 5b에서 전술된 붕괴 시간에 의해 이미지(An)로 넘어올 수 있다. 여기서 상기 광량은 회색도(Gray Level(R, G, B))에 의해 정량화될 수 있다. 즉 Crosstalk(An -1)는 이전 이미지의 픽셀 데이터(Gray Level)에 따라 넘어오는 광량으로 정의될 수 있고, 물리적으로 고스트 발생 영역을 의미하며, 크로스톡(Crosstalk)을 일으키는 원인이 될 수 있다. 또한 Crosstalk(An -1)가 지시하는 영역을 고스트 발생 영역으로 명명한다. 상기 사전에 설정된 설정값은 표시패널에 따라 실험적으로 측정된 값으로 설정될 수 있다.
액티브 필터(915)의 셔터는 부분적으로 활성화될 수 있다. 액티브 필터(915)의 셔터에서 활성화되는 부분의 픽셀들은 각각 이미지(An -1)의 픽셀 중 대응하는 픽셀의 회색도(Gray Level(R, G, B))를 기초로 결정될 수 있다. 상기 픽셀의 회색도(Gray Level(R, G, B))가 사전에 설정된 설정값 이상인 경우에는, 상기 픽셀과 연관된 셔터의 픽셀이 활성화될 수 있다.
타이밍 컨트롤러(990), 포맷터(670) 및 액티브 필터 제어부는 Crosstalk(An -1)를 산출하고, 산출된 Crosstalk(An -1)를 기초로 액티브 필터(915)의 셔터의 활성화 여부 및 활성화 영역(또는 픽셀)을 결정할 수 있다.
도 13은 좌안 시점 이미지 및 우안 시점 이미지의 일예를 도시한 도면이고, 도 14는 도 13에 도시된 이미지의 고스트를 차단하는 방법을 설명하기 위한 도면이다.
도 13 및 도 14를 참조하면, 표시패널(910)이 좌안 시점 이미지(1310)를 디스플레이하고 우안 시점 이미지(1320)를 디스플레이할 때, 좌안 시점 이미지(1310)의 광량이 넘어와 우안 시점 이미지(1320)가 디스플레이된 화면(1400) 상에 고스트 발생 영역(1410)이 발생할 수 있다.
제어부(타이밍 컨트롤러(990), 포맷터(670) 및 액티브 필터 제어부 중의 하나)는 도 12에 전술된 방식으로 고스트 발생 영역(1410)을 검출할 수 있다.
상기 제어부는 고스트 발생 영역(1410)을 지시하는 정보를 포함하는 셔터 활성화 신호를 생성하고, 생성한 셔터 활성화 신호를 액티브 필터(915)로 출력할 수 있다.
액티브 필터(915)는 셔터 활성화 신호에 동기를 맞추어 셔터 활성화 신호가 지시하는 영역에 해당하는 셔터 부분을 활성화시킬 수 있다. 여기서 셔터 활성화 기간은 도 11에 도시된 활성화 기간(1115)이 될 수 있다.
화면(1400)에 디스플레이된 픽셀 중에서 활성화된 셔터 부분에 해당하는 픽셀(1421)들은 액티브 필터(915)에 의해 차단되고 나머지 픽셀(1422)들은 액티브 필터(915)를 투과한다. 이에 따라 고스트 발생 영역(1410)의 영상은 원 영상(1440)으로 회복된다. 즉 좌안 시점 이미지(1310)의 광량이 사라짐에 따라 고스트 발생 영역(1410)은 일정 시점 이후에 사라지고, 셔터가 비활성화되면 고스트 발생 영역(1410)이 사라진 영상(1400)이 액티브 필터(915)를 투과하므로, 고스트 발생 영역(1410)은 원 영상(1440)으로 회복될 수 있다.
액티브 필터(915)를 투과한 영상(1450)은 도 2에 도시된 우안(212)에 입사될 수 있다. 여기서 영상(1450)은 고스트가 차단된 영상이므로, 본 발명에 따른 전자 장치는 고스트에 의한 크로스톡 발생을 원천적으로 방지할 수 있다.
도 15는 본 발명에 따른 입체영상 디스플레이 방법에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.
도 15를 참조하면, 수신부(101)는 입체영상 데이터를 수신한다(S100). 여기서 입체영상 데이터의 포맷은 도 3 및 도 4에 도시된 포맷 중 하나일 수 있다.
비디오 디코더(630)는 수신된 영상 데이터를 복원한다(S105).
스케일러(640)는 복원된 영상 데이터를 디스플레이(150)를 통하여 출력하기 위한 적절한 크기의 신호로 스케일링한다(S110).
FRC(660)는 스케일링된 영상 데이터를 디스플레이 수직 주파수에 대응되도록 영상 데이터의 프레임 레이트를 변환한다(S115). 여기서 FRC(660)는 도 7에 도시된 방식으로 프레임 레이트를 변환할 수 있다.
포맷터(670)는 프레임 레이트가 변환된 입체영상 데이터를 이용하여 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 샘플링한다(S120). 여기서 상기 샘플링된 좌안 시점 영상 프레임 및 상기 샘플링된 우안 시점 영상 프레임은 도 8에 도시된 좌안 시점 영상 프레임(810) 및 우안 시점 영상 프레임(820)일 수 있다. 또한 포맷터(670)는 상기 샘플링된 영상 프레임들을 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 순으로 교대로 배열할 수 있다.
포맷터(670)는 수직/수평 동기신호(Vsync,Hsync), 데이터 인에이블(Data Enable), 클럭신호(CLK) 및 타입 신호(Type)등의 타이밍신호를 생성한다(S125).
포맷터(670)가 배열한 영상 프레임 및 생성한 수직/수평 동기신호(Vsync,Hsync), 데이터 인에이블(Data Enable), 클럭신호(CLK), 타입 신호(Type)등의 타이밍신호는 인터페이스부(680)를 통해 디스플레이(150)로 출력된다. 또한 포맷터(670)가 생성한 동기신호(3D Sync)는 셔터 안경으로 전송될 수 있다.
표시패널(910)은 좌안 시점 영상 프레임을 스캔하여 좌안 시점 영상을 디스플레이한다(S130). 여기서 표시패널(910)은 수직동기신호에 동기를 맞추어 좌안 시점 영상 프레임을 스캔할 수 있다.
타이밍 컨트롤러(990)는 표시패널(910)이 디스플레이한 좌안 시점 영상의 광량을 산출한다(S135). 여기서 광량은 회색도(Gray Level(R, G, B))에 의해 정량화될 수 있다. 다른 실시예로, 타이밍 컨트롤러(990) 대신에 포맷터(670) 및 액티브 필터 제어부 중 하나가 상기 광량을 산출할 수 있다.
타이밍 컨트롤러(990)는 산출한 광량을 기초로 액티브 필터(915)의 셔터 활성화 여부를 결정한다(S140). 여기서 상기 광량이 사전에 설정된 설정값 이상인 경우에, 타이밍 컨트롤러(990)는 셔터 활성화하는 것으로 결정할 수 있다. 또한 타이밍 컨트롤러(990)는 좌안 시점 영상의 각 픽셀별로 셔터 활성화 여부를 결정할 수 있다. 각 픽셀의 광량이 사전에 설정된 설정값 이상인 경우에, 타이밍 컨트롤러(990)는 해당 픽셀과 연관된 부분에서 셔터 활성화하는 것으로 결정할 수 있다. 다른 실시예로 타이밍 컨트롤러(990) 대신에 포맷터(670) 및 액티브 필터 제어부 중 하나가 상기 셔터 활성화 여부를 결정할 수 있다.
셔터 활성화로 결정된 경우에는, 액티브 필터(915)는 좌안 시점 영상이 디스플레이된 후 제1 시점부터 제1 기간 동안 좌안 시점 영상을 차단한다(S145). 여기서 셔터는 전체가 활성화될 수 있고, 셔터의 특정 부분이 활성화될 수 있다. 또한 제1 시점 및 제1 기간은 수직동기신호 및 프레임 레이트를 기초로 결정될 수 있다. 여기서 프레임 레이트는 입체영상 데이터의 프레임 레이트일 수 있고, 좌안 시점 영상의 프레임 레이트일 수 있다. 또한 제1 기간은 좌안 시점 영상의 디스플레이에서 우안 시점 영상의 디스플레이로의 교대 시점을 포함할 수 있다. 그리고 제1 시점 및 제1 기간은 도 11에 전술된 방식으로 결정될 수 있다. 즉 제1 시점은 셔터 활성화 신호(b)가 발생한 시점일 수 있고 제1 기간은 제2 활성화 구간(1115)일 수 있다.
단계(S145)에서 액티브 필터(915)의 액정에 전압인가가 제어될 수 있다.
표시패널(910)은 우안 시점 영상 프레임을 스캔하여 우안 시점 영상을 디스플레이한다(S150). 여기서 표시패널(910)은 좌안 시점 영상 프레임의 스캔을 중지하고 우안 시점 영상 프레임을 스캔한다. 도 11에서 전술된 것처럼, 우안 시점 영상 프레임을 스캔하기 위해 요구되는 처리 시간인 딜레이 구간(1133)이 발생할 수 있다.
타이밍 컨트롤러(990)는 표시패널(910)이 디스플레이한 우안 시점 영상의 광량을 산출한다(S155). 여기서 광량은 회색도(Gray Level(R, G, B))에 의해 정량화될 수 있다. 다른 실시예로, 타이밍 컨트롤러(990) 대신에 포맷터(670) 및 액티브 필터 제어부 중 하나가 상기 광량을 산출할 수 있다.
타이밍 컨트롤러(990)는 산출한 광량을 기초로 액티브 필터(915)의 셔터 활성화 여부를 결정한다(S160). 여기서 상기 광량이 사전에 설정된 설정값 이상인 경우에, 타이밍 컨트롤러(990)는 셔터 활성화하는 것으로 결정할 수 있다. 또한 타이밍 컨트롤러(990)는 우안 시점 영상의 각 픽셀별로 셔터 활성화 여부를 결정할 수 있다. 각 픽셀의 광량이 사전에 설정된 설정값 이상인 경우에, 타이밍 컨트롤러(990)는 해당 픽셀과 연관된 부분에서 셔터 활성화하는 것으로 결정할 수 있다. 다른 실시예로 타이밍 컨트롤러(990) 대신에 포맷터(670) 및 액티브 필터 제어부 중 하나가 상기 셔터 활성화 여부를 결정할 수 있다.
셔터 활성화로 결정된 경우에는, 액티브 필터(915)는 우안 시점 영상이 디스플레이된 후 제2 시점부터 제2 기간 동안 우안 시점 영상을 차단한다(S165). 여기서 셔터는 전체가 활성화될 수 있고, 셔터의 특정 부분이 활성화될 수 있다. 또한 제2 시점 및 제2 기간은 수직동기신호 및 프레임 레이트를 기초로 결정될 수 있다. 여기서 프레임 레이트는 입체영상 데이터의 프레임 레이트일 수 있고, 좌안 시점 영상의 프레임 레이트일 수 있다. 또한 제2 기간은 우안 시점 영상의 디스플레이에서 좌안 시점 영상의 디스플레이로의 교대 시점을 포함할 수 있다. 그리고 제2 시점 및 제2 기간은 도 11에 전술된 방식으로 결정될 수 있다. 즉 제2 시점은 셔터 활성화 신호(a)가 발생한 시점일 수 있고 제2 기간은 제1 활성화 구간(1111)일 수 있다.
단계(S165)에서 액티브 필터(915)의 액정에 전압인가가 제어될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (20)

  1. 수직동기신호(Vsync)에 따라 좌안 시점 영상 및 우안 시점 영상을 교대로 디스플레이하는 표시패널;
    상기 표시패널의 일측에 위치하여, 상기 디스플레이된 좌안 시점 영상 및 상기 디스플레이된 우안 시점 영상을 차단하는 셔터를 포함하는 액티브 필터; 및
    상기 셔터의 활성화를 제어하는 제어부를 포함하고,
    상기 셔터의 활성화 시점은 상기 수직동기신호 및 상기 좌안 시점 영상의 프레임 레이트 중 적어도 하나를 기초로 결정되는 것을 특징으로 하는 전자 장치.
  2. 제 1항에 있어서,
    상기 일측은 상기 표시패널이 광을 조사하는 방향에 있는 것을 특징으로 하는 전자 장치.
  3. 제 1항에 있어서,
    상기 셔터는 픽셀 단위로 활성화되는 것을 특징으로 하는 전자 장치.
  4. 제 3항에 있어서,
    상기 셔터에서 활성화되는 픽셀들은 상기 좌안 시점 영상 및 상기 우안 시점 영상 중 상기 셔터가 활성화되기 직전에 디스플레이되는 영상을 기초로 결정되는 것을 특징으로 하는 전자 장치.
  5. 제 4항에 있어서,
    상기 셔터에서 활성화되는 픽셀들은 각각 상기 디스플레이되는 영상의 픽셀 중 대응하는 픽셀의 회색도(Gray Level)를 기초로 결정되는 것을 특징으로 하는 전자 장치.
  6. 제 1항에 있어서,
    상기 셔터는 상기 좌안 시점 영상 및 상기 우안 시점 영상 중 상기 셔터가 활성화되기 직전에 디스플레이되는 영상의 회색도(Gray Level)가 사전에 설정된 값이 이상인 경우에 활성화되는 것을 특징으로 하는 전자 장치.
  7. 제 1항에 있어서,
    상기 셔터는 상기 좌안 시점 영상 및 상기 우안 시점 영상이 교대하는 디스플레이 시점을 기준으로 활성화되는 것을 특징으로 하는 전자 장치.
  8. 삭제
  9. 제 1항에 있어서,
    상기 액티브 필터는 액정으로 형성되는 것을 특징으로 하는 전자 장치.
  10. 제 9항에 있어서,
    상기 액정에 전압이 인가되면 상기 셔터가 활성화되는 것을 특징으로 하는 전자 장치.
  11. 수직동기신호(Vsync)에 따라 좌안 시점 영상을 디스플레이하는 단계;
    상기 디스플레이된 좌안 시점 영상이 디스플레이된 후 제1 시점부터 제1 기간 동안 상기 좌안 시점 영상을 차단하는 단계;
    상기 수직동기신호(Vsync)에 따라 우안 시점 영상을 디스플레이하는 단계; 및
    상기 디스플레이된 우안 시점 영상이 디스플레이된 후 제2 시점부터 제2 기간 동안 상기 우안 시점 영상을 차단하는 단계를 포함하고,
    상기 제1 시점은 상기 수직동기신호 및 상기 좌안 시점 영상의 프레임 레이트 중 적어도 하나를 기초로 결정되는 것을 특징으로 하는 입체영상 디스플레이 방법.
  12. 제 11항에 있어서,
    상기 좌안 시점 영상 및 상기 우안 시점 영상은 픽셀 단위로 차단되는 것을 특징으로 하는 입체영상 디스플레이 방법.
  13. 제 12항에 있어서,
    상기 차단되는 픽셀들을 결정하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 디스플레이 방법.
  14. 제 13항에 있어서,
    상기 차단되는 픽셀들은 각각 회색도(Gray Level)를 기초로 결정되는 것을 특징으로 하는 입체영상 디스플레이 방법.
  15. 제 11항에 있어서,
    상기 디스플레이된 좌안 시점 영상의 회색도(Gray Level)가 사전에 설정된 값 이상인지 여부를 확인하는 단계를 더 포함하고,
    상기 회색도가 사전에 설정된 값 이상인 경우에, 상기 좌안 시점 영상을 차단하는 단계를 수행하는 것을 특징으로 하는 입체영상 디스플레이 방법.
  16. 제 11항에 있어서,
    상기 디스플레이된 우안 시점 영상의 회색도(Gray Level)가 사전에 설정된 값 이상인지 여부를 확인하는 단계를 더 포함하고,
    상기 회색도가 사전에 설정된 값 이상인 경우에, 상기 우안 시점 영상을 차단하는 단계를 수행하는 것을 특징으로 하는 입체영상 디스플레이 방법.
  17. 삭제
  18. 제 11항에 있어서,
    상기 제1 기간은 상기 좌안 시점 영상의 디스플레이에서 상기 우안 시점 영상의 디스플레이로의 교대 시점을 포함하는 것을 특징으로 하는 입체영상 디스플레이 방법.
  19. 제 11항에 있어서,
    상기 좌안 시점 영상을 차단하는 단계는,
    활성화 필터의 액정에 전압인가를 제어하는 단계를 포함하는 것을 특징으로 하는 입체영상 디스플레이 방법.
  20. 제 11항에 있어서,
    상기 좌안 시점 영상 및 상기 우안 시점 영상을 디스플레이하기 위한 입체영상 데이터를 수신하는 단계;
    상기 수신된 입체영상 데이터의 프레임 레이트를 변환하는 단계; 및
    상기 프레임 레이트가 변환된 입체영상 데이터를 이용하여 상기 좌안 시점 영상의 영상 프레임 및 상기 우안 시점 영상의 영상 프레임을 샘플링하고, 상기 수직동기신호(Vsync)를 생성하는 단계를 더 포함하는 것을 특징으로 하는 입체영상 디스플레이 방법.
KR1020110024825A 2011-03-21 2011-03-21 전자 장치 및 입체영상 디스플레이 방법 KR101227518B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110024825A KR101227518B1 (ko) 2011-03-21 2011-03-21 전자 장치 및 입체영상 디스플레이 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110024825A KR101227518B1 (ko) 2011-03-21 2011-03-21 전자 장치 및 입체영상 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20120107246A KR20120107246A (ko) 2012-10-02
KR101227518B1 true KR101227518B1 (ko) 2013-01-31

Family

ID=47279270

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110024825A KR101227518B1 (ko) 2011-03-21 2011-03-21 전자 장치 및 입체영상 디스플레이 방법

Country Status (1)

Country Link
KR (1) KR101227518B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100922348B1 (ko) * 2005-08-29 2009-10-21 삼성모바일디스플레이주식회사 입체 영상 표시장치
KR20100035775A (ko) * 2008-09-29 2010-04-07 엘지전자 주식회사 입체 영상 투사 표시 장치
KR20100129413A (ko) * 2009-06-01 2010-12-09 삼성전자주식회사 3차원 영상 표시 방법 및 이를 수행하기 위한 표시 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100922348B1 (ko) * 2005-08-29 2009-10-21 삼성모바일디스플레이주식회사 입체 영상 표시장치
KR20100035775A (ko) * 2008-09-29 2010-04-07 엘지전자 주식회사 입체 영상 투사 표시 장치
KR20100129413A (ko) * 2009-06-01 2010-12-09 삼성전자주식회사 3차원 영상 표시 방법 및 이를 수행하기 위한 표시 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:정보통신기술협회(2010) *

Also Published As

Publication number Publication date
KR20120107246A (ko) 2012-10-02

Similar Documents

Publication Publication Date Title
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
US9380283B2 (en) Display apparatus and three-dimensional video signal displaying method thereof
CN102844696B (zh) 电子装置和再现三维图像的方法
US8587643B2 (en) System for displaying multivideo
EP2448281B1 (en) 3D Image display apparatus and method for operating the same
RU2598989C2 (ru) Устройство отображения трехмерного изображения и способ отображения для такового
US20100302352A1 (en) Video data signal, system and method for controlling shutter glasses
EP2642760A1 (en) Three-dimensional image processing apparatus and method for adjusting location of sweet spot for displaying multi-view image
US9118903B2 (en) Device and method for 2D to 3D conversion
EP2688038A1 (en) Image data scaling method and image display apparatus
US9047797B2 (en) Image display apparatus and method for operating the same
KR102192986B1 (ko) 영상 디스플레이 장치 및 영상 디스플레이 방법
US20120224035A1 (en) Electronic apparatus and image processing method
US20110085029A1 (en) Video display apparatus and video display method
EP2930712A1 (en) Image display apparatus and operation method thereof
KR101227518B1 (ko) 전자 장치 및 입체영상 디스플레이 방법
US20120268454A1 (en) Information processor, information processing method and computer program product
JP5052683B1 (ja) 電子機器および映像表示方法
KR20120087739A (ko) 입체영상 재생 장치 및 방법
KR101702967B1 (ko) 영상표시장치 및 그 동작방법
US20120268456A1 (en) Information processor, information processing method, and computer program product
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
KR20140145862A (ko) 해상도를 증가시킬 수 있는 무안경 방식의 영상표시장치
US20120162205A1 (en) Information processing apparatus and information processing method
KR20240011525A (ko) 영상표시장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161223

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171222

Year of fee payment: 6