KR101647722B1 - 영상표시장치 및 그 동작방법 - Google Patents

영상표시장치 및 그 동작방법 Download PDF

Info

Publication number
KR101647722B1
KR101647722B1 KR1020090109431A KR20090109431A KR101647722B1 KR 101647722 B1 KR101647722 B1 KR 101647722B1 KR 1020090109431 A KR1020090109431 A KR 1020090109431A KR 20090109431 A KR20090109431 A KR 20090109431A KR 101647722 B1 KR101647722 B1 KR 101647722B1
Authority
KR
South Korea
Prior art keywords
signal
user
image
reference point
video
Prior art date
Application number
KR1020090109431A
Other languages
English (en)
Other versions
KR20110052771A (ko
Inventor
이형남
김운영
구상준
장세훈
유경희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090109431A priority Critical patent/KR101647722B1/ko
Priority to US12/905,814 priority patent/US8593510B2/en
Priority to CN2010800514715A priority patent/CN102598679A/zh
Priority to PCT/KR2010/007998 priority patent/WO2011059261A2/en
Priority to EP10830193.8A priority patent/EP2499834A4/en
Publication of KR20110052771A publication Critical patent/KR20110052771A/ko
Application granted granted Critical
Publication of KR101647722B1 publication Critical patent/KR101647722B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information

Abstract

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 의한 영상표시장치는 영상표시장치를 시청하는 사용자의 위치를 판별하고, 판별한 사용자의 위치에 대응하는 3D 오브젝트를 표시한다. 사용자가 영상표시장치에 표시되는 화면을 시청하는 도중 눈 또는 손의 위치가 변경되면 그에 대응하도록 3D 오브젝트 표시위치도 변경된다.
영상표시장치, 기준점, 3D 오브젝트

Description

영상표시장치 및 그 동작방법 {Image Display Device and Operating Method for the Same}
본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명은 더욱 상세하게는 사용자가 입체감을 느낄 수 있도록 입체효과가 적용된 화면을 표시할 수 있는 영상표시장치 및 그 동작방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 오부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그 래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. 또한 상술한 디지털 방송에서도 입체 영상을 송신할 수 있으며, 이를 재생하기 위한 장치에 대한 개발 역시 진행 중에 있다.
따라서, 본 발명의 목적은 사용자가 입체감을 느낄 수 있도록 입체효과가 적용된 영상을 표시할 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다. 본 발명의 또 다른 목적은 입체효과 영상을 표시하는 영상표시장치를 사용자가 편리하게 사용할 수 있도록 입체효과 영상을 표시하는 영상표시장치에 적용될 수 있는 유저 인터페이스를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, 기준점의 위치를 판별할 수 있는 신호를 수신하는 단계; 상기 수신한 신호로부터 기준점의 위치를 판별하는 단계; 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 단계; 및 상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 단계를 포함하는 것을 특징으로 한다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서, 기준점의 위치를 판별할 수 있는 신호를 수신하고, 상기 수신한 신호로부터 기준점의 위치를 판별하고, 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 제어부; 및 상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 디스플레이를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 영상표시장치는 사용자가 시청 시 입체감을 느낄 수 있도록 입체효과가 적용된 영상을 표시할 수 있다. 또한, 영상표시장치는 사용자의 위치를 센서 등을 사용하여 판별하고 사용자 위치에 대응하도록 3D 오브젝트를 표시할 수 있다. 사용자는 사용자 위치에 대응하도록 표시된 3D 오브젝트를 소정 손 동작 등을 통하여 선택할 수 있다. 영상표시장치는 사용자가 3D 오브젝트를 손 동작 등을 통하여 선택하면 그에 대응하는 동작을 수행한다. 따라서, 영상표시장치의 사용자는 간단한 손 동작 등을 통하여 영상표시장치를 제어할 수 있다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부신호입출력부(130), 저장부(140), 인터페이스부(150), 센싱부(미도시), 제어부(170), 디스플레이(180), 음향출력부(185)를 포함할 수 있다.
튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다.
예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)는 신호처리부(180)로 직접 입력될 수 있다.
또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다.
한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. 이는, 디스플레이(180)에 방송 채널에 해당하는 복수의 썸네일 영상을 포함하는 썸네일 리스트를 도시하기 위한 것이다. 이에 따라, 튜너(110)는, 선택 채널 또는 기저장된 모든 채널의 RF 방송 신호를 순차적/주기적으로 수신하는 것이 가능 하다.
복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(8-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload) 를 포함할 수 있다.
한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.
복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화 및 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 음향출력부(185)로 음성을 출력한다.
외부신호입출력부(130)는 외부 장치와 영상표시장치(100)을 연결할 수 있다. 이를 위해, 외부신호입출력부(130)는, A/V 입출력부 또는 무선 통신부를 포함할 수 있다.
외부신호입출력부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 연결된다. 외부신호입출력부(130)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, 이더넷(Ethernet)단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는 무선 인터넷 접속을 수행할 수 있다. 영상표시장치(100)는 무선 통신부를 통해 무선 인터넷 접속될 수 있다. 무선 인터넷 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
또한, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부신호입출력부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
예를 들어, 셋탑 박스가 IP(internet Protocol) TV용 셋탑 박스인 경우, 양방향 통신이 가능하도록, IP TV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IP TV용 셋탑 박스로 전달할 수 있다.
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.
또한, 외부신호입출력부(130)는 영상 또는 음성 통화를 할 수 있는 통신망과 연결될 수 있다. 통신망은 LAN을 통하여 연결되는 방송형 통신망, 공중전화망, 이동통신망 등을 포함하는 의미일 수 있다.
저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수도 있다.
또한, 저장부(140)는 외부신호입출력부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다.
저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.
도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다.
인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. 예를 들어, 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. 센싱부(미도시)는, 원격제어장치(200)를 사용하지 않는 사용자가 영상표시장치(100)로 사용자 명령을 입력할 수 있도록 한다. 센싱부(미도시)의 구체적인 구성은 후술한다.
제어부(170)는, 튜너(110)와 복조부(120) 또는 외부신호입출력부(130)를 통하여 입력되는 스트림을 역다중화하고 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. 그 외 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 제어부(170)는 인터페이스부(150) 또는 센싱부(미도시)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다.
도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부, 음성처리부 등을 포함할 수 있다.
제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다.
제어부(170)는 수신되는 스트림 신호, 일예로 MPEG-2 TS를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 제어부(170)에 입력되는 스트림 신호는 튜너(110), 복조부(120) 또는 외부신호입출력부(130)에서 출력되는 스트림 신호일 수 있다.
또한, 제어부(170)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 예를 들어, 역다중화된 영상 신호가 부호화된 영상 신호인 경우, 영상 복호화를 수행할 수 있다. 특히, 영상 복호화시, 역다중화된 영상 신호가, 2D 영상 및 3D 영상이 혼합된 신호인 경우, 또는 2D 영상 신호 또는 3D 영상 신호만으로 이루어진 경우, 이 해당 코덱(codec)에 따라 2D 영상 복호화 또는 3D 영상 복호화를 수행할 수 있다. 제어부(170)의 2D 영상 또는 3D 영상의 신호 처리 동작에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코 더에 의해 복호화될 수 있다.
또한, 제어부(170)는 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다.
제어부(170)에서 처리된 음성 신호는 음향출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부신호입출력부(130)를 통하여 외부 출력장치로 입력될 수 있다.
또한, 제어부(170)는 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, TSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(4 byte)에 포함되는 정보일 수 있다.
또한, 제어부(170)는 OSD(On Screen Display) 처리를 수행할 수 있다. 구체적으로 제어부(170)는, 영상 처리된 영상 신호와, 데이터 처리된 데이터 신호 중 적어도 하나 또는 원격제어장치(200)를 통하여 입력되는 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성된 OSD 신호는 영상 처리된 영상 신호 및 데이터 처리된 데이터 신호와 함께, 디스플레이(180)에 입력될 수 있다.
상술한, 그래픽 또는 텍스트 디스플레이를 위하여 생성된 신호는 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다.
한편, 제어부(170)는, OSD 신호 생성시, 해당 OSD 신호를 2D 영상 신호 또는 3D 영상 신호로 구현할수 있다. 이에 대해서는 이하의 도 3을 참조하여 상세히 설명하기로 한다.
또한, 제어부(170)는, 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)를 입력받아, 신호 처리를 수행한다. 여기서, 제어부(170)에 입력되는 아날로그 베이스 밴드 영상/음성신호(CVBS/SIF)는 튜너(110) 또는 외부신호입출력부(130)에서 출력된 아날로그 베이스 밴드 영상/음성신호일 수 있다. 신호 처리된 영상 신호는 디스플레이(180)로 입력되어 영상 표시되며, 신호 처리된 음성 신호는 음향출력부(185), 예를 들어 스피커로 입력되어 음성 출력되게 된다.
한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성한는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부신호입출력부(130)에서 출력한 스트림 신호 등을 입력 받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스 플레이(180)에 표시할 수 있다.
제어부(170)는 인터페이스부(150)를 통하여 원격제어장치(200)가 전송한 신호를 수신할 수 있다. 제어부(170)는 수신한 신호를 통하여 사용자가 원격제어장치(200)로 입력한 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어한다. 일예로, 사용자가 소정 채널 선택명령을 입력하면, 제어부(170)는 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 또한, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 음향출력부(185)를 통하여 출력될 수 있도록 한다.
또 다른 예로, 사용자는 원격제어장치(200)를 통하여 다른 종류의 영상 또는 음성 출력 명령을 입력할 수 있다. 사용자는 방송 신호 대신 외부신호입출력부(130)를 통하여 입력되는 카메라 또는 캠코더 영상 신호를 시청하기를 원할 수 있다. 이 경우 제어부(170)는 외부신호입출력부(130)를 통하여 입력되는 영상 신호 또는 음성 신호가 디스플레이(180) 또는 음향출력부(185)를 통해 출력되도록 할 수 있다.
제어부(170)는 영상표시장치(100) 내에 구비되는 센싱부(미도시) 중 하나인 로컬 키(미도시)로 입력된 사용자 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어할 수 있다. 일예로, 사용자는 로컬 키를 통하여 영상표시장치(100) 온/오프 명령, 채널 변경 명령, 볼륨 변경 명령 등을 입력할 수 있다. 로컬 키는 영상표시장치(100)에 형성된 버튼이나 키로 이루어질 수 있다. 제어부(170)는 로컬 키의 조작 여부를 판별하고 그에 따라 영상표시장치(100)를 제어할 수 있다.
디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부신호입출력부(130)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성한다.
디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다.
이를 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.
단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다.
한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 추가 디스플레이를 사용하여 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입, 셔터 글래스(ShutterGlass) 타입, 스펙트럼 필터 타입 등이 적용될 수 있다.
한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
음향출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레 오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
원격제어장치(200)는, 사용자 입력을 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.
한편, 도면에서는 도시하지 않았지만, 본 발명의 실시에에 따른 영상표시장치(100)는, 센싱부(미도시)를 더 포함할 수 있다. 센싱부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서 등을 포함할 수 있다.
터치 센서는 디스플레이(180)를 구성하는 터치스크린일 수 있다. 터치 센서는 사용자가 터치스크린을 터치하는 위치 또는 세기 등을 센싱할 수 있다. 음성 센서는 사용자 음성 또는 사용자가 발생시키는 다양한 소리를 센싱할 수 있다. 위치 센서는 사용자의 위치를 센싱할 수 있다. 동작 센서는 사용자의 제스처 동작 등을 센싱할 수 있다. 위치 센서 또는 동작 센서는 적외선 감지 센서 또는 카메라로 구성될 수 있으며, 영상표시장치(100)와 사용자 사이의 거리, 사용자의 움직임 유무, 사용자의 손동작 등을 센싱할 수 있다.
상술한 각 센서는 사용자의 음성, 터치, 위치, 동작들을 센싱한 결과를 별도의 센싱신호 처리부(미도시)로 전달하거나, 또는 센싱 결과를 1차적으로 해석하고 그에 상응하는 센싱 신호를 생성하여 제어부(170)로 입력할 수 있다.
센싱신호 처리부(미도시)는 센싱부(미도시)에서 생성된 신호를 처리하여, 제어부(170)로 전달할 수 있다.
상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.
한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.
한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다. 도시된 바와 같이, 본 발명에 의한 영상표시장치(100)는 외부신호입출력부(130)를 통하여 외부 장치와 유/무선으로 접속될 수 있다.
본 실시예에서 영상표시장치(100)와 연결될 수 있는 외부 장치는, 예를 들어, 카메라(211), 스크린형 원격제어장치(212), 셋톱박스(213), 게임기기(214), 컴퓨터(215), 이동통신 단말기(216) 등이 있을 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치의 그래픽 유저 인터페이스 화면을 디스플레이(180)에 표시할 수 있다. 사용자는 외부 장치와 영상표시장치(100)를 접속하고, 외부 장치에서 재생 중인 영상 또는 저장된 영상을 영상표시장치(100)를 통하여 시청할 수 있다.
또한, 영상표시장치(100)는 외부신호입출력부(130)를 통하여 연결된 외부 장치에서 재생 중인 음성 또는 저장된 음성을 음향출력부(185)를 통하여 출력할 수 있다.
영상표시장치(100)와 외부신호입출력부(130)를 통하여 연결된 외부 장치의 데이터, 예를 들어, 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일은, 영상표시장치(100) 내부의 저장부(140)에 저장될 수 있다.
영상표시장치(100)는 저장부(140)에 저장된 정지 영상 파일, 동영상 파일, 음악 파일 또는 텍스트 파일을 외부 장치와의 연결이 해제된 뒤에도 디스플레이(180)에 표시하거나, 음향출력부(185)를 통해 출력할 수 있다.
영상표시장치(100)는 외부신호입출력부(130)를 통하여 이동통신 단말기(216) 혹은 통신망과 연결되면, 영상 또는 음성통화를 위한 화면을 디스플레이(180)에 표시할 수 있다. 또한 영상표시장치(100)는 영상 또는 음성통화를 위한 음성을 음향출력부(185)를 통해 출력할 수 있다. 사용자는 이동통신 단말기(216) 혹은 통신망과 연결된 영상표시장치(100)를 이용하여 영상 또는 음성 통화를 할 수 있다.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이며, 도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이고, 도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이고, 도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다.
본 발명의 일실시예에 의한 제어부(170)는, 영상처리부(310), 포맷터(320), OSD 생성부 (330), 및 믹서(340)를 포함할 수 있다.
먼저, 도 3(a)에 도시된 바와 같이, 제어부(170)는, 영상처리부(310)에서 복호화된 영상 신호에 기초하여 포맷터(320)에서 복수 시점의 영상으로 분리하여 처리할 수 있으며, 믹서(340)는 OSD 생성부 (330)에서 별도로 생성된 복수 시점 영상 신호와, 포맷터(320)에서 출력되는 복수 시점의 영상 신호를 믹싱할 수 있다.
영상 처리부(310)는, 튜너(110)와 복조부(120)를 거친 방송 신호 또는 외부 신호입출력부(130)를 거친 외부입력신호 중 영상 신호를 처리할 수 있다.
한편, 영상 처리부(310)에 입력되는 신호는 상술한 바와 같이, 스트림 신호가 역다중화된 신호일수 있다.
예를 들어, 역다중화된 영상 신호가 MPEG-2 규격의 부호화된 2D 영상 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 2D 영상 신호가, DMB(Digital Multimedia Broadcasting) 방식 또는 DVB-H에 따른 H.264 규격의 부호화된 영상 신호인 경우, H.264 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가, MPEC-C part 3 의 깊이(depth) 영상인 경우, MPEC-C 디코더에 의해 복호화될 수 있다. 또한, 시차(disparity) 정보가 복호화될 수도 있다.
또한, 예를 들어, 역다중화된 영상 신호가 MVC (Multi-view Video Coding)에 따른 멀티 시점 영상인 경우 MVC 디코더에 의해 복호화될 수 있다.
또한, 예를 들어, 역다중화된 영상 신호가 FTV(Free-viewpoint TV)에 따른 자유 시점 영상인 경우, FTV 디코더에 의해 복호화될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다.
한편, 영상 처리부(310)에서 복호화된 영상 신호는, 상술한 바와 같이, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다.
여기서, 3D 영상 신호의 포맷은, 도 5와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 5a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 5b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 5c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 5d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 5e) 등일 수 있다.
한편, 영상 처리부(310)는, 복호화된 영상 신호에 캡션 또는 데이터 방송 등과 관련된 영상 신호가 포함된 경우, 이를 분리하여, OSD 생성부(330)로 출력할 수 있다. 캡션 또는 데이터 방송 등과 관련된 영상 신호는, OSD 생성부(330)에서 3D 오브젝트로 생성될 수 있다.
포맷터(320)는, 복호화된 영상 신호를 입력 받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다. 그리고, 3D 영상 신호를 복수 시점의 영상 신호로 분리할 수 있다. 예를 들어, 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
복호화된 영상 신호가 2D 영상 신호인지 또는 3D 영상 신호인지 여부는, 해당 영상 신호가 3D 영상임을 나타내는 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여 판단할 수 있다.
이러한 3D 영상 플래그, 3D 영상 메타 데이터는, 또는 3D 영상의 포맷 정보는, 3D 영상 정보 외에, 3D 영상의 위치 정보, 영역 정보 또는 크기 정보를 포함할 수도 있다.
한편, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보는, 스트림 역다중화시에 복호화되어 포맷터(320)에 입력될 수 있다.
포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보를 이용하여, 복호화된 영상 신호로부터 3D 영상 신호를 분리할 수 있다.
그리고, 포맷터(320)는, 3D 영상의 포맷 정보를 기반으로, 소정 포맷의 3D 영상 신호를 재조합하여, 복수 시점의 3D 영상 신호를 생성할 수 있다. 예를 들어, 좌완 영상 신호와 우안 영상 신호로 분리할 수 있다.
도 4는, 영상처리부(310)에서 수신되는 복호화된 영상 신호로부터 2D 영상 신호와 3D 영상 신호가 분리되고, 포맷터(320)에서 3D 영상 신호가 재조합되어 좌완 영상 신호와 우안 영상 신호로로 분리되는 것을 보여준다.
먼저 도 4(a)와 같이, 제1 영상 신호(410)가 2D 영상 신호이고, 제2 영상 신호(420)가 3D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)와 제2 영상 신호(420)를 분리하며, 다시 제2 영상 신호를 좌안 영상 신호(423)와 우안 영상 신호(426)로 분리할 수 있다. 한편, 제1 영상 신호(410)는, 디스플레이(180)에 표시되는 메인 영상에 대응할 수 있으며, 제2 영상 신호(420)는, 디스플레이(180)에 표시되는 PIP 영상에 대응할 수 있다.
다음, 도 4(b)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 3D 영상 신호인 경우, 포맷터(320)는 이를 각각 분리하고, 제1 영상 신호(410) 및 제2 영상 신호(420) 각각을 좌안 영상 신호(413,423)와 우안 영상 신호(416,426)로 분리할 수 있다.
다음, 도 4(c)와 같이, 제1 영상 신호(410)가 3D 영상 신호이고, 제2 영상 신호(420)가 2D 영상 신호인 경우, 포맷터(320)는 제1 영상 신호(410)을 좌안 영상 신호(413)와 우안 영상 신호(416)로 분리할 수 있다.
다음, 도 4(d) 및 도 4(e)와 같이, 제1 영상 신호(410) 및 제2 영상 신호(420) 중 어느 하나가 3D 영상 신호이고, 다른 하나가 2D 영상 신호인 경우, 2D 영상 신호는 3D 영상 신호로 전환될 수 있다. 이러한 전환은 사용자의 입력에 따라 수행될 수 있다.
예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서 에지(edge)를 검출하고, 검출된 에지(edge)에 따른 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 또한, 예를 들어, 3D 영상 생성 알고리즘에 따라 2D 영상 신호 내에서, 선택 가능한 오브젝트를 검출하고, 해당 오브젝트를 3D 영상 신호로 분리하여 생성하는 것도 가능하다. 이때, 생성된 3D 영상 신호는 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리될 수 있다. 한편, 2D 영상 신호 중 3D 영상 신호로 생성된 오브젝트 영역을 제외한 부분은 새로운 2D 영상 신호로 출력될 수 있다.
한편, 제1 영상 신호(410) 및 제2 영상 신호(420) 모두가 2D 영상 신호인 경 우, 도 4(f)와 같이 어느 하나의 2D 영상 신호만 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수 있다. 또는 도 4(g)와 같이 모든 2D 영상 신호가 3D 영상 생성 알고리즘에 따라 3D 영상 신호로 전환될 수도 있다.
한편, 포맷터(320)는, 3D 영상 플래그, 3D 영상 메타 데이터 또는 3D 영상의 포맷 정보가 있는 경우, 이를 이용하여 3D 영상 신호 인지 등을 판별하며, 3D 영상 플래그, 3D 영상 메타 데이터 및 3D 영상의 포맷 정보가 없는 경우, 상술한 바와 같이 3D 영상 생성 알고리즘을 이용하여 3D 영상 신호 인지 등을 판별할 수 있다.
한편, 포맷터(320)에서 출력되는 3D 영상 신호는 좌안 영상 신호(413 또는 423)와 우안 영상(416 또는 426) 신호로 분리되고, 도 5에 예시된 포맷 중 어느 하나의 포맷으로 출력될 수 있다. 이때, 2D 영상 신호는, 포맷터(320)에서 별도의 신호처리 없이 그대로 출력되거나 또는 3D 영상 신호의 포맷에 따라 해당 포맷으로 변형되어 출력될 수도 있다.
도 5는 본 실시예의 포맷터(320)를 통하여 생성될 수 있는 3D 영상 신호 포맷에 관한 설명에 참조되는 도이다. 본 실시예의 포맷터(320)는 좌안 영상 신호(L)과 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(e) 등 다양한 포맷의 3D 영상 신 호를 출력할 수 있다.
한편, 사용자는 도 5에 예시된 포맷 중 어느 하나를 출력 포맷으로 선택할 수도 있다. 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, 포맷터(320)는 입력되는 다른 포맷, 예를 들어 사이드 바이 사이드(Side by Side) 포맷의 3D 영상 신호를 재조합하여, 좌안 영상 신호와 우안 영상 신호로 분리한 후, 탑 다운(Top / Down) 포맷으로 변형하여 출력할 수 있다.
한편, 포맷터(320)에 입력되는 3D 영상 신호는 방송 영상 신호 또는 외부 입력 신호일수 있으며, 그 자체로 소정 깊이(depth)를 갖는 3D 영상 신호일 수 있다. 이에 따라, 포맷터(320)는, 해당 깊이를 갖는 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
한편, 서로 다른 깊이를 가지는 3D 영상 신호는 깊이 차이로 인하여 서로 다른 좌안 영상 신호와 우안 영상 신호로 분리될 수 있다. 즉, 3D 영상 신호의 깊이에 따라 좌안 영상 신호와 우안 영상 신호는 변경될 수 있다.
한편, 사용자의 입력 또는 설정에 따라, 3D 영상 신호의 깊이를 변경하는 경우, 포맷터(320)는, 변경된 깊이에 따라 각각 해당하는 좌안 영상 신호와 우안 영상 신호로 분리할 수 있다.
또한, 포맷터(320)는, 3D 영상 신호를 스케일링할 수 있다. 구체적으로는 3D 영상 신호 내의 3D 오브젝트를 스케일링할 수 있다.
도 6을 참조하면, 포맷터(320)는 3D 영상 신호를 다양한 방식으로 스케일링 할 수 있다.
도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트를 일정 비율로 전체적으로 확대 또는 축소할 수 있으며, 또한 도 6(b)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형태)할 수도 있다. 또한, 도 6(c)와 같이, 3D 오브젝트를 적어도 일부를 회전(평행 사변형 형태)시킬 수도 있다. 이러한 스케일링을 통해, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트에 입체감 즉, 3D 효과(effect)를 강조할 수 있게 된다.
한편, 도 6의 3D 영상 신호는 도 4(a)의 제2 영상 신호에 대응하는 좌안 영상 신호 또는 우안 영상 신호일 수 있다. 즉, PIP 영상에 대응하는 좌안 영상 신호또는 우안 영상 신호일 수 있다.
결국, 포맷터(320)는, 복호화된 영상 신호를 수신하여, 2D 영상 신호 또는 3D 영상 신호를 분리하며, 3D 영상 신호를 좌안 영상 신호와 우안 영상 신호으로 다시 분리할 수 있다. 그리고, 좌안 영상 신호와 우안 영상 신호를 스케일링하여, 도 5와 같은 소정 포맷으로 출력할 수 있다. 한편, 스케일링은 출력 포맷 형성 후 수행되는 것도 가능하다.
OSD 생성부(330)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 생성되는 OSD 신호는, 2D OSD 오브젝트 또는 3D OSD 오브젝트를 포함할 수 있다.
2D OSD 오브젝트 또는 3D OSD 오브젝트 인지 여부는, 사용자 입력에 따라 또는 오브젝트의 크기 또는 선택 가능한 오브젝트인지 여부 등에 따라 결정될 수 있 다.
OSD 생성부(330)는, 복호화된 영상 신호를 입력받아 처리하는 포맷터(320)와 달리, 바로 2D OSD 오브젝트 또는 3D OSD 오브젝트를 생성하여 출력할 수 있다. 한편, 3D OSD 오브젝트는 도 6과 같이, 다양한 방식으로 스케일링되어 출력될 수 있다. 또한, 깊이에 따라 출력되는 3D OSD 오브젝트는 가변할 수 있다.
출력시의 포맷은, 도 5에 도시된 바와 같이, 좌안용과 우안용이 결합된 다양한 포맷 중 어느 하나일 수 있다. 이때 출력 포맷은 포맷터(320)의 출력 포맷과 동일하게 된다. 예를 들어, 사용자가 탑 다운(Top / Down) 포맷을 포맷터(320)의 출력 포맷으로 선택한 경우, OSD 생성부(330)의 출력 포맷은 탑 다운(Top / Down) 포맷으로 결정된다.
한편, OSD 생성부(330)는, 영상 처리부(310)로부터, 캡션 또는 데이터 방송 등과 관련된 영상 신호를 입력받아, 캡션 또는 데이터 방송 등과 관련된 OSD 신호를 출력할 수도 있다. 이때의 OSD 신호는, 상술한 바와 같이, 2D OSD 오브젝트 또는 3D OSD 오브젝트일 수 있다.
믹서(340)는, 포맷터(340)에서 출력되는 영상 신호와 OSD 생성부에서 출력되는 OSD 신호를 믹싱하여 출력한다. 출력되는 영상 신호는 디스플레이(180)에 입력된다.
한편, 제어부(170) 내부의 내부 블록도는 도 3(b)와 같이 구성될 수도 있다. 도 3(b)의 영상처리부(310), 포맷터(320), 및 OSD 생성부(330), 및 믹서(340)는 도 3(a)와 유사하며, 이하에서는 그 차이점을 기술한다.
일단, 믹서(340)는, 영상처리부(310)로부터의 복호화된 영상 신호와 OSD 생성부(330)에서 생성된 OSD 신호를 믹싱한다. 믹서(340)의 출력을 포맷터(320)에서 입력 받아 처리하므로, 3D 오브젝트 자체를 생성하고 해당 포맷에 맞게 출력하는 도 3(a)의 OSD 생성부(330)와 달리, 도 3(b)의 OSD 생성부(330)는 3D 오브젝트에 대응하는 OSD 신호를 생성하면 충분하다.
포맷터(320)는, 이러한 OSD 신호와 복호화된 영상 신호를 입력받아, 상술한 바와 같이, 3D 영상 신호를 분리하고, 3D 영상 신호를 복수 시점 영상 신호로 분리한다. 예를 들어, 3D 영상 신호는 좌안 영상 신호와 우안 영상 신호로 분리될 수 있으며, 분리된 좌안 영상 신호와 우안 영상 신호는 도 6과 같이 스케일링 처리되어 도 5에 도시된 소정 포맷으로 출력될 수 있다.
한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다.
도면을 참조하면, 영상표시장치(100)는 도 5에 도시된 3D 영상 포맷 중 탑 다운 방식에 적합하도록 3D 영상을 표시할 수 있다. 도 7a는, 영상표시장치(100)에서 영상 재생이 중단된 경우, 디스플레이(180)에 표시되는 영상을 도시한다. 탑 다운 포맷은 도시된 바와 같이 상하로 복수시점 영상을 배열한다. 따라서, 영상 재생이 중단된 경우, 도 7a에 도시된 바와 같이, 상하가 분리된 영상(351, 352)이 디스플레이(180)에 표시된다.
한편, 예를 들어, 편광 안경 등 추가 디스플레이 방식에 의하여 3D 영상 등을 표시하는 경우, 사용자가 편광 안경 등을 착용하지 아니하면, 시청하는 영상의 초점이 맞지 아니한다. 즉, 도 7b에 도시된 바와 같이, 편광 안경 등을 착용하지 않고 시청하는 경우, 3D 오브젝트(353a, 353b, 353c)의 초점이 맞지 아니할 수 있다. 디스플레이(180)에 표시되는 영상(353)도 그러할 수 있다.
도 7c는 도 7b에 도시된 영상표시장치(100)의 화면을 편광 안경 등을 착용하고 시청하는 경우, 사용자에게 보여지는 영상(354) 및 3D 오브젝트(354a, 354b, 354c)의 초점이 맞는 것을 보여준다. 이때, 3D 오브젝트(354a, 354b, 354c)는 사용자를 향하여 돌출되도록 보이게 된다.
한편, 단독 디스플레이 방식에 따라 3D 영상을 표시하는 영상표시장치의 경우, 사용자가 편광 안경 등을 착용하지 않아도 사용자에게 보여지는 영상 및 3D 오브젝트는 도 7c와 같을 수 있다.
한편, 본 명세서에서의 오브젝트는, 오브젝트는 영상표시장치(100)의 음성 출력 레벨, 채널 정보, 현재 시간 등 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 나타내는 이미지 또는 텍스트 를 포함할 수 있다.
일예로, 오브젝트는 영상표시장치(100)의 디스플레이(180)에 표시되는 볼륨 조절 버튼, 채널 조절 버튼, 영상표시장치 제어 메뉴, 아이콘, 네비게이션 탭, 스크롤 바, 프로그래시브 바, 텍스트 박스, 윈도우 중 하나일 수 있다.
이러한 오브젝트를 통해, 사용자는 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 인지할 수 있다. 또한 영상표시장치(100)에 표시된 오브젝트를 통하여 영상표시장치(100)로 명령을 입력할 수 있다.
한편, 본 명세서에서는 사용자 방향으로 돌출되는 3D 오브젝트의 깊이(depth)는 + 로 설정하며, 디스플레이(180) 또는 디스플레이(180)에 표시되는 2D 영상 또는 3D 영상의 깊이(depth)는 0 으로 설정한다. 그 외 디스플레이(180) 내로 오목하게 표현되는 3D 오브젝트의 깊이(depth)는 - 로 설정한다. 결국, 그 시청자 방향으로 돌출될수록 그 깊이(depth)는 더 커지는 것으로 한다.
한편, 본 명세서에서의 3D 오브젝트는, 입체감을 가지도록 처리된 오브젝트로서, 도 6에서 예시된 스케일링에 의해 입체감을 갖는 오브젝트 또는 깊이를 달리 갖는 오브젝트를 포함한다.
한편, 도 7c에서는 3D 오브젝트의 예로, PIP 영상 등을 예시하나, 이에 한정되지 않으며, 방송 프로그램 정보를 나타내는 EPG, 영상표시장치의 다양한 메뉴, 위젯, 아이콘 등이 될 수 있다.
도 8은 본 발명의 제1실시예에 의한 영상표시장치의 동작방법의 설명에 참조되는 순서도이다. 본 실시예에서 영상표시장치(100)는 3D 오브젝트를 표시해야 하는 이벤트가 발생하면, 기준점의 위치를 판별한다. 3D 오브젝트 표시 이벤트는 사용자가 소정 3D 오브젝트 표시명령을 영상표시장치(100)로 입력하는 경우 발생할 수 있다. 또한, 3D 오브젝트 표시 이벤트는 영상표시장치(100)로 소정 신호가 입력되거나, 예약 시청 시간이 도달한 경우 등에 발생할 수 있다.
본 실시예에서 기준점은 영상표시장치(100)를 시청하고 있는 사용자이다. 영상표시장치(100)는 판별한 사용자의 위치에 대응하도록 3D 오브젝트를 표시한다. 또 다른 예로, 기준점은 사용자의 손 등 신체의 일부이거나, 사용자의 신체의 일부에 장착 가능한 센서 수단일 수 있다. 영상표시장치(100)는 센서부를 통하여 사용자의 신체의 일부나 해당 신체의 일부의 동작 등을 판별할 수 있다. 또한 영상표시장치(100)는 사용자의 신체의 일부에 장착된 센서 수단을 통하여 사용자의 신체의 일부나 해당 신체의 일부의 동작 등을 판별할 수 있다. 사용자의 신체의 일부네 장착된 센서 수단은 펜 또는 원격제어장치 등을 포함할 수 있다. 영상표시장치(100)는 사용자의 신체의 일부 또는 신체의 일부의 동작 등을 판별하여 상기 기준점의 위치를 판별할 수 있다.
영상표시장치(100)의 제어부(170)는 3D 오브젝트 표시 이벤트 발생여부를 판별한다(S10). 본 실시예의 3D 오브젝트는 영상표시장치(100)에서 표시될 수 있는 정보를 나타내는 오브젝트일 수 있다. 일예로 영상표시장치(100)에 오늘의 날씨에 관련된 정보를 표시해야 하는 이벤트가 발생할 수 있다. 이 경우 영상표시장 치(100)는 오늘의 날씨에 관련된 정보를 입체효과가 적용된 텍스트 또는 이미지를 사용하여 표시할 수 있다. 또한, 사용자가 입체감을 느낄 수 있도록 사용자를 향하여 돌출되는 입체효과가 적용된 팝업 윈도우를 사용하여 표시할 수 있다. 상기 입체효과가 적용된 텍스트 또는 이미지 또는 사용자를 향하여 돌출된 팝업 윈도우는 본 실시예의 3D 오브젝트에 포함될 수 있다.
또한, 3D 오브젝트 표시 이벤트는 사용자의 입력명령에 대응하여 발생하거나 스케줄러에 설정된 시간이 도달하는 경우 발생할 수 있다. 일예로 사용자는 원격표시장치를 이용하여 영상표시장치(100)로 날씨 표시명령을 입력할 수 있다. 이 경우 영상표시장치(100)에서는 날씨 관련 정보를 나타내는 3D 오브젝트 표시 이벤트가 발생할 수 있다. 또 다른 예로, 스케줄러에 설정된 시간이 도달하면 영상표시장치(100)에서는 날씨 관련 정보를 나타내는 3D 오브젝트 표시 이벤트가 발생할 수 있다.
영상표시장치(100)의 제어부(170)는 센서부의 위치 센서를 통하여 사용자 위치를 판별할 수 있다(S15). 본 실시예에서 위치 센서는 사용자 위치를 판별할 수 있는 모든 종류의 수단을 포함할 수 있다. 일예로 사용자 위치를 센싱할 수 있는 적외선 센서 또는 사용자 위치를 소정 알고리즘을 통하여 산출할 수 있도록 영상을 획득하는 카메라는 본 실시예의 위치 센서에 포함될 수 있다. 제어부(170)는 위치 센서를 통하여 센싱된 정보를 바탕으로 영상표시장치(100)와 사용자 사이의 거리 등을 판별할 수 있다.
제어부(170)는 판별한 사용자 위치에 대응하도록 3D 오브젝트를 표시한 다(S20). 사용자는 영상표시장치(100)로부터 소정 거리에 위치할 수 있다. 제어부(170)는 사용자와의 거리를 판별하고 각 사용자 앞에 3D 오브젝트를 표시할 수 있다. 또한 제어부(170)는 사용자의 눈의 위치 또는 키 높이 등을 판별할 수 있다. 제어부(170)는 사용자의 키 또는 눈 높이에 대응하도록 3D 오브젝트를 표시할 수 있다.
제어부(170)는 3D 오브젝트를 표시한 후 사용자의 손 동작을 판별할 수 있다(S25). 제어부(170)는 사용자의 손 동작을 동작 센서를 통하여 판별할 수 있다. 동작 센서는 사용자의 신체의 일부 중 손을 감지하고 손 동작을 촬영하는 카메라를 포함할 수 있다.
제어부(170)는 사용자의 손 동작이 설정된 손 동작에 대응하는지 여부를 판별할 수 있다(S30). 영상표시장치(100)의 저장부(140)에는 3D 오브젝트의 소정 영역 선택 명령에 대응하는 손 동작에 관한 정보가 저장되어 있을 수 있다. 제어부(170)는 동작 센서를 통하여 감지한 사용자의 손 동작이 저장부(140)에 저장된 설정 손 동작에 대응하는지 여부를 판별할 수 있다.
만일 사용자 손 동작이 설정된 손 동작에 대응하면, 제어부(170)는 설정된 손 동작에 대응하는 명령에 따라 영상표시장치(100)를 제어할 수 있다(S35). 일예로, 사용자 손 동작은 3D 오브젝트 중 소정 영역에 표시된 버튼을 선택하는 명령에 대응할 수 있다. 이 경우 제어부(170)는 선택된 버튼에 대응하는 명령(ex)볼륨 조절, 화면 조정 등)에 따라 영상표시장치(100)의 볼륨을 조절하거나 표시되고 있는 화면을 변경할 수 있다. 또 다른 예로, 사용자 손 동작은 3D 오브젝트 중 소정 영 역에 표시된 '3D 오브젝트 지우기 버튼'을 선택하는 명령에 대응할 수 있다. 이 경우 제어부(170)는 선택된 버튼에 대응하는 명령에 따라 3D 오브젝트를 지울 수 있다.
도 9는 본 발명의 제2실시예에 의한 영상표시장치의 설명에 참조되는 도이다.
도 9a에 도시된 바와 같이, 사용자가 메인으로 시청하고자 하는 메인 영상으로 이루어지거나 크기가 기준치 이상인 메인 화면(1301)이 디스플레이 표시될 수 있다. 3D 오브젝트(1302)는 메인 화면(1301)보다 사용자에게 더 가깝게 느껴지도록 표시된다. 본 실시예에서는 3D 오브젝트(1302)는 사용자를 향하여 돌출되어 보이도록 영상 신호 처리되었다. 3D 오브젝트(1302)와 메인 화면(1301)은 다른 깊이를 가진다.
영상표시장치(100)의 위치 센서 또는 동작 센서의 일실시예인 카메라(1303)는 영상표시장치(100)의 전면에 설치될 수 있다. 카메라(1303)를 통하여 촬영된 사용자(1304) 영상을 통하여 제어부(170)는 사용자의 위치(본 실시예에서는 영상표시장치(100)와 사용자(1304) 사이의 거리 및 사용자(1304)의 눈 위치)를 판별할 수 있다. 사용자 위치를 판별한 영상표시장치(100)의 제어부(170)는 사용자 눈 위치에 대응하도록 3D 오브젝트(1302)를 표시할 수 있다.
도 9a의 3D 오브젝트(1302)는 영상표시장치(100)에서 표시할 수 있는 정보를 나타내는 오브젝트이다 따라서 제어부(170)는 사용자(1304)의 눈 위치와 대응하는 높이에 3D 오브젝트(1302)가 표시되도록 영상 신호를 처리한다. 사용자(1304)가 영상표시장치(100)를 시청할 때, 도 9a에 도시된 바와 같이, 3D 오브젝트(1302)가 사용자(1304)를 향하여 돌출된 것처럼 보이게 된다.
도 9b에 도시된 바와 같이, 제어부(170)는 영상표시장치(100)로 명령을 입력할 수 있는 3D 오브젝트(1305)를 표시할 수 있다. 도 7B에 도시된 3D 오브젝트(1305)는 영상표시장치(100)로 입력될 수 있는 명령에 대응하는 버튼이나 아이콘으로 이루어지는 팝업 윈도우일 수 있다.
본 실시예에서 제어부(170)는 사용자의 손 위치에 대응하는 높이에 3D 오브젝트(1305)를 표시한다. 이는 사용자가 손을 이용하여 3D 오브젝트(1305)에 표시된 버튼이나 아이콘을 선택할 수 있도록 하기 위함이다. 제어부(170)는 3D 오브젝트(1305)에 표시된 버튼이나 아이콘이 선택된 것을 판별하면, 해당 버튼이나 아이콘에 대응하는 명령에 따라 영상표시장치(100)를 제어한다.
제어부(170)는 사용자의 손 동작을 판별하여 3D 오브젝트(1305) 중 어떤 버튼이나 아이콘이 선택되었는지 판별할 수 있다.
도 10은 본 발명의 제3실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 도 10에 도시된 바와 같이, 사용자는 3D 오브젝트(1305)의 소정 영역(1306)을 소정 손 동작을 통하여 선택할 수 있다.
제어부(170)는 카메라(1303)를 통하여 촬영한 사용자의 손 동작이 3D 오브젝트(1305)의 소정 영역(1306) 선택명령에 대응하도록 설정된 손 동작에 해당하는지 여부를 판별한다. 만일 사용자 손 동작이 설정된 손 동작에 대응하면, 제어부(170)는 카메라(1303)를 통하여 촬영된 손의 위치 등을 판별하여 사용자가 선택한 3D 오브젝트(1305)의 소정 영역(1306)을 판별할 수 있다.
3D 오브젝트(1305)의 소정 영역(1306)에는 영상표시장치(100)로 입력할 수 있는 명령에 대응하는 버튼이나 아이콘이 표시될 수 있다. 제어부(170)는 사용자가 선택한 소정 영역(1306)에 표시된 버튼이나 아이콘에 대응하는 명령에 따라 영상표시장치(100)를 제어할 수 있다.
사용자가 3D 오브젝트를 선택할 수 있도록 설정된 손 동작에 관한 정보는 저장부(140)에 저장될 수 있다. 제어부(170)는 사용자의 손 동작을 센서부를 통해 판별하고, 판별한 손 동작이 저장부(140)에 저장된 손 동작에 대응하는지 여부를 판별한다. 판별한 손 동작이 저장부(140)에 저장된 손 동작에 대응하면, 제어부(170)는 3D 오브젝트 선택명령이 입력된 것으로 판별할 수 있다.
도 11은 본 발명의 제4실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 본 실시예에서 제어부(170)는 사용자가 3D 오브젝트를 통하여 입력한 명령에 대응하도록 영상표시장치(100)를 제어할 수 있다. 본 실시예는 사용자가 입력한 명령에 대응하여 사용자의 눈 높이에 대응하도록 표시된 3D 오브젝트의 표시상태를 변경한다.
도 11a에 도시된 바와 같이, 날씨정보 표시명령 입력에 대응하는 이벤트가 발생하거나 날씨정보를 표시하라는 예약시간 도달 이벤트가 영상표시장치(100)에서 발생할 수 있다.
이 경우, 영상표시장치(100)의 제어부(170)는 위치 센서를 통하여 사용자(1314)의 위치를 판별한다. 본 실시예에서 영상표시장치(100)의 제어부(170)는 사용자(1314)와 영상표시장치(100)와 사이의 거리, 사용자의 눈 높이를 포함하는 눈 위치, 손 높이를 포함하는 손 위치에 관한 정보를 판별한다.
영상표시장치(100)의 제어부(170)는 사용자(1314) 눈 높이와 대응하는 높이에 날씨 정보를 나타내는 3D 오브젝트(1311)을 표시한다. 3D 오브젝트(1311)은 날씨 정보에 대응하는 이미지로 이루어진다. 본 실시예에서 영상표시장치(100)를 통하여 사용자(1314)에게 제공되는 날씨에 관한 정보는 흐린 날씨에 관한 정보이다. 따라서 사용자(1314)의 눈 높이와 대응하는 높이에 표시되는 3D 오브젝트(1311)는, 도시된 바와 같이, 구름을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트이다.
또한, 영상표시장치(100)의 제어부(170)는 판별한 손 높이와 대응하는 높이에 영상표시장치(100)로 명령을 입력할 수 있는 팝업 윈도우로 이루어진 3D 오브젝트(1312)를 표시한다. 본 실시예에서 팝업 윈도우는 날씨 정보를 제공받을 수 있는 날짜를 선택할 수 있는 명령을 영상표시장치(100)로 입력할 수 있는 팝업 윈도우이다. 따라서 사용자(315)는 3D 오브젝트(1312)에 표시된 날짜 중 날씨 정보를 제공받기를 원하는 날짜를 선택할 수 있다. 제어부(170)는 카메라(1313)를 통하여 촬영된 손 동작 및 손 위치를 통하여 사용자가 3D 오브젝트(1312)에 표시된 날짜 중 어떤 날짜를 선택하였는지 판별할 수 있다.
본 실시예에서 사용자(1314)는 Sunday에 해당하는 날짜의 날씨정보 표시명령 을 영상표시장치(100)로 입력하였다.
영상표시장치(100)의 제어부(170)는 사용자가 선택한 날짜의 날씨정보를 표시한다. 도 9b는 도 9a에서 사용자가 선택한 명령에 대응하여 영상표시장치(100)의 제어부(170)가 표시하는 3D 오브젝트(1315)를 표시한다.
사용자가 날씨정보를 제공받기를 원하는 Sunday에 해당하는 날짜의 날씨는 밝은 날씨이다. 따라서 제어부(170)는 태양을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트(1315)를 표시한다. 제어부(170)는, 도 11b에 도시된 바와 같이, 사용자(1314)가 본인의 눈 높이와 대응하는 높이에서 3D 오브젝트(1315)를 볼 수 있도록 영상 신호를 처리한다.
도 12은 본 발명의 제5실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 영상표시장치(100)를 시청중인 사용자는 적어도 2명일 수 있다. 본 실시예에서 영상표시장치(100)의 사용자는, 도시된 바와 같이, 3명(1321, 1322, 1323)이다.
영상표시장치(100)의 위치 센서는 영상표시장치(100)를 시청중인 사용자의 위치를 각각 센싱할 수 있다. 제어부(170)는 위치 센서를 통하여 센싱된 바에 따라 영상표시장치(100)를 시청중인 사용자의 수와 각 사용자와 영상표시장치(100) 사이의 거리를 판별할 수 있다.
제어부(170)는 3D 오브젝트 발생 이벤트가 발생할 경우, 위치 센서를 통하여 파악한 사용자 수에 해당하는 숫자의 3D 오브젝트를 각 사용자 앞에 표시할 수 있다. 제어부(170)는, 도 12a에 도시된 바와 같이, 사용자(1321, 1322, 1323)가 각 각 본인의 앞에 3D 오브젝트(1324, 1325, 1326)가 위치하는 것처럼 3D 오브젝트를 볼 수 있도록 영상 신호를 처리한다.
제어부(170)는 각 사용자(1321, 1322, 1333)와 영상표시장치(100)와의 거리를 판별한다. 제어부(170)는 판별한 거리를 바탕으로 각 사용자 앞에 3D 오브젝트(1324, 1325, 1326)를 표시할 수 있다.
또한, 제어부(170)는 각 사용자(1321, 1322, 1333)의 눈 높이 또는 손 높이를 판별한다. 제어부(170)는 판별한 높이를 바탕으로 각 사용자 앞에 표시할 3D 오브젝트(1324, 1325, 1326)의 높이를 정할 수 있다.
일예로, 사용자가 영상표시장치(100)로 명령을 입력할 수 있는 버튼 또는 아이콘을 포함하는 팝업 윈도우로 이루어진 3D 오브젝트(1324, 1325)는 대응하는 사용자의 손 높이에 대응하는 높이에 표시된다. 이는 사용자가 편리하게 3D 오브젝트(1324, 1325)에 표시된 버튼이나 아이콘을 선택할 수 있도록 하기 위함이다.
또한, 영상표시장치(100)에서 표시될 수 있는 정보를 나타내는 3D 오브젝트(1326)의 경우 대응하는 사용자의 눈 높이에 대응하는 높이에 표시된다. 이는 사용자가 본인의 눈 앞에 3D 오브젝트가 존재하는 것처럼 3D 오브젝트(1326)를 볼 수 있도록 하기 위함이다.
도 12b는 기준점이 적어도 2개인 경우, 기준점의 순위를 판별하고, 소정 순위를 가지는 기준점에 대응하도록 3D 오브젝트를 표시하는 예가 도시된 도이다.
본 실시예에서, 영상표시장치(100)는 3D 오브젝트를 표시해야 하는 이벤트가 발생하면, 기준점을 판별하기 위한 신호를 수신한다. 기준점을 판별하기 위한 신 호는 센서부를 통하여 센싱한 사용자의 위치 정보가 포함된 신호일 수 있다. 본 실시예에서 영상표시장치(100)는 적어도 3명의 기준점의 위치를 판별할 수 있다.
영상표시장치(100)는 위치를 판별한 기준점과의 거리를 통하여 위치를 판별한 기준점의 우선순위를 설정할 수 있다. 본 실시예에서 영상표시장치(100)와 가장 가까운 기준점은 1322 사용자이다. 영상표시장치(100)는, 도 12에 도시된 바와 같이, 3D 오브젝트(325)가 기준점인 사용자(1322) 앞에 위치하는 것처럼 보이도록 표시한다.
또 다른 실시예에서, 기준점이 적어도 2개인 경우, 영상표시장치(100)는 기준점의 순위에 따라 순차적으로 3D 오브젝트를 표시할 수 있다. 즉, 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시한 후, 제1순위 기준점이 사라지면 제2순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시할 수 있다.
또한, 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시한 후, 제1순위 기준점의 위치가 변경하면, 변경된 제1순위 기준점의 위치에 대응하도록 3D 오브젝트를 표시할 수 있다.
도 13은 본 발명의 제6실시예에 의한 영상표시장치의 설명에 참조되는 도이다. 본 실시예에서 영상표시장치(100)는 2명의 사용자의 위치에 대응하는 3D 오브젝트를 표시한다. 사용자는 본인의 앞에 위치하는 것처럼 보이는 3D 오브젝트를 통하여 영상표시장치를 개별적으로 제어할 수 있다.
도 13a에 도시된 바와 같이, 영상표시장치(100)로 날씨정보 표시명령이 입력 되거나 날씨정보 표시 예약시간이 도달하면 제어부(170)는 날씨정보를 나타내는 3D 오브젝트를 표시해야 한다.
제어부(170)는 위치 센서를 통하여 사용자(1331, 1332)의 수와 각 사용자(1331, 1332)의 위치를 판별한다. 제어부(170)는 판별한 각 사용자의 앞에 위치하도록 3D 오브젝트(1333, 1334, 1335, 1336)를 표시한다.
도 13a에 도시된 바와 같이, 제어부(170)는 각 사용자의 눈 높이에 대응하는 높이에 날씨정보를 나타내는 이미지로 이루어진 3D 오브젝트(1333, 1335)를 표시한다. 또한, 제어부(170)는 각 사용자의 손 높이에 대응하는 높이에 날씨정보를 제공받기를 원하는 날짜를 선택할 수 있는 명령을 입력할 수 있는 3D 오브젝트(1334, 1336)를 표시한다. 본 실시예에서 사용자가 날짜를 선택할 수 있는 명령을 입력할 수 있는 3D 오브젝트(1334, 1336)는 팝업 윈도우로 표시된다.
또한, 제어부(170)는 사용자가 시청하는 메인 화면을 도 11a에 도시된 바와 같이 분할하여 표시할 수 있다. 본 실시예에서 제어부(170)는 2명의 사용자가 시청하기 편리하도록 각 사용자와 대응하는 디스플레이 영역에 날씨정보를 나타내는 영상으로 이루어진 화면(1337, 1338)을 표시한다. 제1사용자(1331)에 대응하는 디스플레이 영역에는 제1화면(1337)이 표시된다. 제2사용자(1332)에 대응하는 디스플레이 영역에는 제2화면(1338)이 표시된다.
제2사용자(1332)는 본인의 앞에 표시된 3D 오브젝트(1336)를 통하여 날씨정보를 확인하기를 원하는 날짜를 선택할 수 있다. 사용자는 3D 오브젝트(1336) 중 날씨정보를 확인하기를 원하는 날짜를 손 동작을 통하여 선택할 수 있다. 제어 부(170)는 사용자의 손 동작 또는 손 위치를 통하여 사용자가 날씨정보를 확인하기를 원하는 날짜를 판별할 수 있다.
제어부(170)는 제2사용자(1332)가 입력한 명령에 대응하도록 영상표시장치(100)를 제어하는 동작을 수행한다. 본 실시예에서, 제어부(170)는 제2사용자(1332)가 입력한 명령에 대응하도록 영상표시장치(100)에 표시되는 3D 오브젝트 또는 화면의 표시상태를 변경한다.
도 13b는 제어부(170)가 제2사용자(1332)가 입력한 명령에 대응하도록 표시상태를 변경한 3D 오브젝트(1341) 및 제2화면(1342)을 표시한다. 본 실시예에서, 제2사용자(1332)가 날씨정보를 확인하고자 하는 날짜인 Sunday의 날씨는 밝은 날씨이다. 따라서 제어부(170)는 제2사용자(1332)의 눈 높이에 대응하는 높이에 태양을 입체적으로 표시한 이미지로 이루어진 3D 오브젝트(1341)를 표시한다.
또한, 제어부(170)는 밝은 날씨정보를 나타내는 영상으로 이루어진 제2화면(1342)을 제2사용자(1332)에 대응하는 디스플레이 영역에 표시한다. 본 실시예에서 영상표시장치(100)는 각 사용자 앞에 대응하는 3D 오브젝트 또는 화면을 개별적으로 변경할 수 있다.
날씨 정보를 표시하는 영상표시장치(100)는 유선 또는 무선을 통하여 연결된 외부 장치를 통하여 날씨 정보를 수신하고 그에 대응하도록 화면 또는 3D 오브젝트를 변경할 수 있다.
도 14는 본 발명의 제7실시예에 의한 영상표시장치의 설명에 참조되는 도이 다. 본 실시예와 같이 영상표시장치(100)에 게임 컨텐츠가 표시되고 있는 경우, 제어부(170)는, 도 14와 같이, 게임 관련 명령을 입력할 수 있는 3D 오브젝트가 각 사용자 앞에 위치하는 것처럼 보이도록 표시할 수 있다.
본 실시예와 같이 자동차 경주 게임 컨텐츠가 실행되면, 영상표시장치(100)의 제어부(170)는 사용자(1351, 1352)의 위치를 위치 센서 또는 동작 센서를 통하여 판별한다. 본 실시예에서 영상표시장치(100)는 사용자(1351, 1352)의 키와 손 높이를 판별한다.
영상표시장치(100)의 제어부(170)는 실행되고 있는 게임 컨텐츠 관련 명령을 입력할 수 있는 3D 오브젝트(1353, 1354)를 사용자(1351, 1352)의 각 위치에 대응하도록 표시한다. 제어부(170)는 제1사용자(1351)의 손 높이에 대응하는 높이에 제1 3D 오브젝트(1353)을 표시한다. 또한, 제어부(170)는 제2사용자(1352)의 손 높이에 대응하는 높이에 제2 3D 오브젝트(1354)를 표시한다.
제어부(170)는 동작 센서를 통하여 각 사용자(1351, 1352)의 손 동작을 판별할 수 있다. 본 실시예에서 각 사용자(1351, 1352) 앞에 표시되는 3D 오브젝트(1353, 1354)는 입체적으로 표시된 자동차 핸들의 이미지이다. 영상표시장치(100)의 제어부(170)는 동작 센서를 통하여 판별한 사용자(1351, 1352)의 손 동작에 대응하도록 영상표시장치(100)를 제어한다.
일예로, 제어부(170)는 사용자(1351, 1352)의 손 모양이 3D 오브젝트(1353, 1354)를 홀딩하는 모양에 대응하는지 여부를 판별한다. 사용자(1351, 1352)의 손 모양이 본인 앞에 위치하는 것처럼 보이는 3D 오브젝트(1353, 1354)를 홀딩하는 손 모양에 대응하면 제어부(170)는 사용자가 3D 오브젝트(1353, 1354)를 홀딩하였다고 판별한다.
또한, 제어부(170)는 사용자(1351, 1352)의 손 모양이 3D 오브젝트(1353, 1354)를 회전하는 모양에 대응하는지 여부를 판별한다. 사용자(1351, 1352)의 손 모양이 본인 앞에 표시된 3D 오브젝트(1353, 1354)를 회전하는 손 동작에 대응하면 제어부(170)는 사용자가 3D 오브젝트(1353, 1354)를 회전하였다고 판별한다.
즉, 본 실시예의 제어부(170)는 사용자(1351, 1352)의 손 높이, 모양 또는 동작에 따라 3D 오브젝트(1353, 1354)의 어느 영역이 선택되었는지 판별하고 그에 따라 영상표시장치(100)에 표시되는 화면(1355, 1356)을 변경할 수 있다.
제1사용자(1351)에 대응하는 디스플레이 영역에 표시된 제1화면(1355)는 제1사용자(1351)의 손 높이, 모양 또는 동작에 따라 변경된다. 즉, 제어부(170)는 제1사용자(1351)의 손 높이, 모양 또는 동작을 위치 센서 또는 동작 센서를 통하여 판별하고 그에 대응하여 3D 오브젝트(1353)의 어느 영역이 선택되었는지 여부를 판별한다. 제어부(170)는 3D 오브젝트(1353)의 선택 영역에 대응하는 명령에 따라 제1사용자(1351)에 대응하도록 표시된 제1화면(1355)을 변경한다.
제1사용자(1351)는 제1화면(1355)에 표시된 자동차(1357)가 오른쪽으로 회전하도록 제1 3D 오브젝트(1353)를 홀딩한 후 시계방향으로 회전할 수 있다. 제어부(170)는 사용자의 손 동작에 대응하여 선택된 제1 3D 오브젝트(1353)의 영역이 시계방향으로 이동하면 사용자가 제1 3D 오브젝트(1353)를 홀딩한 후 시계방향으로 회전한 것으로 판별한다. 제어부(170)는 사용자의 손 동작에 대응하도록 제1화 면(1355)에 표시되고 있는 자동차(1357)의 진행방향을 변경한다.
본 실시예에서, 영상표시장치(100)의 제어부(170)는 제1,2 사용자(1351, 1352)의 손 높이, 모양 또는 동작을 판별하고, 그에 대응하는 제1,2 3D 오브젝트(1353, 1354)의 선택 영역을 판별하고, 그에 따라 제1,2 화면(1355, 1356)의 표시상태를 개별적으로 변경할 수 있다.
도 15는 도 14에서 각 사용자에 대응하도록 표시된 메인 영상을 표시하는 또 다른 예를 도시한다. 도시한 바와 같이, 영상표시장치(100)는 각 사용자(1351. 1352)의 손 동작에 따라 각 사용자(1351, 1352)에 대응하는 메인 영상(1355, 1345)의 표시상태를 변경한다. 본 실시예에서 영상표시장치(100)는 영상표시장치(100)에 표시되는 메인 영상이 시청 방향에 따라 다르게 보이도록 표시할 수 있다.
즉, 제1사용자(1351)가 영상표시장치(100)를 볼 경우, 제1사용자(1351)은 제1화면(1355)을 보게 된다. 또한, 제2사용자(1352)가 영상표시장치(100)를 볼 경우, 제2사용자(1352)는 제2화면(1356)을 보게 된다. 제1,2화면(1355, 1356)은 제1,2화면(1355,1356)을 바라보는 사용자의 게임 진행 상황에 대응하도록 변경된다.
도 16은 사용자의 손 동작에 대응하여 3D 오브젝트의 표시상태를 변경하는 예를 도시한다. 도 16a에 도시된 바와 같이, 영상표시장치(100)는 카메라(1363)를 이용하여 사용자(1364)의 위치를 판별하고, 사용자(1364)의 앞에 위치하는 것처럼 보이도록 3D 오브젝트(1361, 1362)를 표시할 수 있다.
본 실시예에서, 사용자는 3D 오브젝트(1361, 1362) 표시상태 변경명령을 손 동작을 이용하여 영상표시장치(100)로 입력할 수 있다. 도 16a에 도시된 바와 같이, 영상표시장치(100)는 카메라(1363)를 통하여 사용자의 손 동작을 촬영한다. 영상표시장치(100)는 카메라(1363)을 통하여 촬영한 사용자(1364)의 손 동작이 3D 오브젝트(1361, 1362) 근접 표시명령에 대응하는 것으로 판별한다.
영상표시장치(100)는 사용자의 근접 표시명령에 따라 3D 오브젝트(1361, 1362)가 사용자에게 좀 더 가깝게 위치하는 것처럼 보이도록 영상 신호를 처리할 수 있다. 영상표시장치(100)에서 처리된 영상 신호에 따라 사용자에게 보여지는 3D 오브젝트(1361, 1362)는 도 16b에 도시된 바와 같다. 제어부(170)는 3D 오브젝트의 깊이를 포맷터(320)를 통하여 처리되는 좌안 영상 및 우안 영상의 간격을 조절하여 변경할 수 있다. 제어부(170)는 사용자 입력 명령에 대응하여 3D 오브젝트의 깊이가 변경될 수 있도록 영상 신호를 처리한다.
사용자는 3D 오브젝트 관련 명령을 손 동작 등을 통하여 영상표시장치(100)로 입력할 수 있다. 이 경우 영상표시장치(100)는 센서부를 통하여 사용자의 손 동작이나 사용자의 신체의 일부에 장착된 센서 수단을 통하여 사용자의 손 동작 등을 판별할 수 있다. 또한 사용자는 원격제어장치(200) 등을 통하여 3D 오브젝트 관련 명령을 영상표시장치(100)로 입력할 수 있다.
그리고, 본 발명에 따른 영상표시장치 및 그 동작 또는 제어방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2는 도 1의 영상표시장치에 접속 가능한 외부장치의 일예를 도시한 도면이다.
도 3은 도 1의 제어부의 내부 블록도의 일예를 도시한 도면이다.
도 4는 도 3의 포맷터에서 2D 영상 신호와 3D 영상 신호의 분리를 보여주는 도면이다.
도 5는 도 3의 포맷터에서 출력되는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 6은 도 3의 포맷터에서 출력되는 3D 영상의 스케일링을 설명하기 위해 참조되는 도면이다.
도 7은 도 1의 영상표시장치에 표시되는 영상의 일예를 도시한 도면이다.
도 8 내지 16은 본 발명의 일 실시예에 따른 영상표시장치의 설명에 참조되는 도면이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 영상표시장치 110 : 튜너부
120 : 외부신호입출력부 150 : 인터페이스부
170 : 제어부 180 : 디스플레이
185 : 음향출력부

Claims (21)

  1. 3D 오브젝트를 표시할 수 있는 영상표시장치의 동작방법에 있어서,
    3D 오브젝트 표시 이벤트 발생여부를 판별하는 단계;
    3D 오브젝트 표시 이벤트가 발생한 경우에, 기준점의 위치를 판별할 수 있는 신호를 수신하는 단계;
    상기 수신한 신호로부터 기준점의 위치를 판별하는 단계;
    상기 기준점의 순위를 판별하는 단계;
    상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 단계; 및
    상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 단계;를 포함하며;
    상기 3D 오브젝트 표시단계는 상기 위치를 판별한 기준점 중 높은 순위를 가지는 기준점의 위치에 대응하도록 상기 3D 오브젝트를 표시하고,
    상기 기준점이 사용자인 경우;
    상기 사용자의 제스처를 판별할 수 있는 신호를 수신하는 단계;
    상기 수신한 신호를 통하여 상기 사용자의 제스처를 판별하는 단계;
    상기 판별한 사용자 제스처가 상기 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하는 단계;
    상기 사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법.
  2. 제1항에 있어서,
    상기 수신단계에서 수신하는 신호는 상기 기준점의 위치를 센싱하는 센서에서 출력되는 신호인 것을 특징으로 하는 영상표시장치의 동작방법.
  3. 제1항에 있어서,
    상기 기준점은 상기 영상표시장치 사용자의 신체의 일부 또는 상기 영상표시장치가 상기 기준점 위치를 판별할 수 있도록 상기 신체의 일부에 접촉(탈부착) 가능한 수단인 것을 특징으로 하는 영상표시장치의 동작방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 3D 오브젝트는 상기 영상표시장치에 표시되는 영상 또는 다른 오브젝트와 깊이가 다르도록 영상 신호가 처리된 이미지인 것을 특징으로 하는 영상표시장치 동작방법.
  6. 제1항에 있어서,
    상기 3D 오브젝트는 다시점 영상으로 분리되어 제작된 영상인 것을 특징으로 하는 영상표시장치 동작방법.
  7. 제1항에 있어서,
    상기 3D 오브젝트는 소정 정보를 나타내거나 상기 영상표시장치로 명령을 입력할 수 있는 오브젝트인 것을 특징으로 하는 영상표시장치 동작방법.
  8. 제7항에 있어서,
    상기 3D 오브젝트는 상기 영상표시장치에서 표시되는 컨텐츠와 관련된 명령 을 입력할 수 있는 오브젝트인 것을 특징으로 하는 영상표시장치 동작방법.
  9. 삭제
  10. 제1항에 있어서,
    상기 사용자 제스처 판별신호 수신단계에서 수신하는 신호는 상기 사용자 제스처를 센싱하는 센서에서 출력되는 신호인 것을 특징으로 하는 영상표시장치 동작방법.
  11. 삭제
  12. 제1항에 있어서,
    상기 기준점 위치 판별단계에서 적어도 2개의 기준점 위치를 판별한 경우,
    상기 3D 오브젝트 표시단계는 상기 판별한 기준점 위치에 각각 대응하는 적어도 2개의 3D 오브젝트를 표시하는 것을 특징으로 하는 영상표시장치 동작방법.
  13. 제12항에 있어서,
    상기 기준점 중 제1기준점에서 출력된 명령을 판별할 수 있는 신호를 수신하는 단계;
    상기 수신한 신호에 대응하는 명령을 판별하는 단계; 및
    상기 판별한 명령에 대응하는 동작을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법.
  14. 제12항에 있어서,
    상기 기준점 중 제1기준점이 상기 영상표시장치의 제1사용자인 경우,
    상기 제1사용자의 제스처를 판별할 수 있는 신호를 수신하는 단계;
    상기 수신한 신호를 통하여 상기 제1사용자의 제스처를 판별하는 단계;
    상기 판별한 제1사용자의 제스처가 상기 제1사용자에 대응되도록 표시한 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하는 단계;
    상기 제1사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경 우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법.
  15. 제14항에 있어서,
    상기 제1사용자에 대응하는 화면을 상기 수행 동작에 대응하도록 변경하는 단계를 더 포함하는 것을 특징으로 하는 영상표시장치 동작방법.
  16. 3D 오브젝트를 표시할 수 있는 영상표시장치에 있어서,
    3D 오브젝트 표시 이벤트가 발생한 경우에, 기준점의 위치를 판별할 수 있는 신호를 수신하고, 상기 수신한 신호로부터 기준점의 위치를 판별하고, 상기 기준점의 순위를 판별하며, 상기 판별한 기준점의 위치에 대응하도록 3D 오브젝트 영상 신호를 처리하는 제어부; 및
    상기 처리된 영상 신호에 기초하여 3D 오브젝트를 표시하는 디스플레이;를 포함하며,
    상기 제어부는, 상기 위치를 판별한 기준점 중 높은 순위를 가지는 기준점의 위치에 대응하도록 상기 3D 오브젝트를 표시하고,
    상기 기준점이 사용자인 경우;
    상기 제어부는 상기 사용자의 제스처를 판별할 수 있는 신호를 수신하고,
    상기 수신한 신호를 통하여 상기 사용자의 제스처를 판별하고,
    상기 판별한 사용자 제스처가 상기 3D 오브젝트의 소정 영역을 선택하도록 설정된 제스처에 대응하는지 여부를 판별하고,
    상기 사용자 제스처가 상기 설정된 제스처에 대응하는 것으로 판별한 경우, 상기 선택된 소정 영역에 대응하는 명령에 따라 동작을 수행하는 것을 특징으로 하는 영상표시장치.
  17. 제16항에 있어서,
    상기 기준점의 위치를 센싱하는 센서부를 더 포함하는 것을 특징으로 하는 영상표시장치.
  18. 제16항에 있어서,
    상기 기준점은 상기 영상표시장치 사용자의 신체의 일부 또는 상기 영상표시 장치가 상기 기준점 위치를 판별할 수 있도록 상기 신체의 일부에 탈부착 가능한 수단인 것을 특징으로 하는 영상표시장치.
  19. 제16항에 있어서,
    상기 3D 오브젝트는 상기 영상표시장치에 표시되는 영상 또는 다른 오브젝트와 깊이가 다르도록 영상 신호가 처리된 이미지인 것을 특징으로 하는 영상표시장치.
  20. 제16항에 있어서,
    상기 3D 오브젝트는 다시점 영상으로 분리되어 제작된 영상인 것을 특징으로 하는 영상표시장치.
  21. 삭제
KR1020090109431A 2009-11-13 2009-11-13 영상표시장치 및 그 동작방법 KR101647722B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020090109431A KR101647722B1 (ko) 2009-11-13 2009-11-13 영상표시장치 및 그 동작방법
US12/905,814 US8593510B2 (en) 2009-11-13 2010-10-15 Image display apparatus and operating method thereof
CN2010800514715A CN102598679A (zh) 2009-11-13 2010-11-12 图像显示装置及其操作方法
PCT/KR2010/007998 WO2011059261A2 (en) 2009-11-13 2010-11-12 Image display apparatus and operating method thereof
EP10830193.8A EP2499834A4 (en) 2009-11-13 2010-11-12 IMAGE DISPLAY DEVICE AND OPERATING METHOD THEREFOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090109431A KR101647722B1 (ko) 2009-11-13 2009-11-13 영상표시장치 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20110052771A KR20110052771A (ko) 2011-05-19
KR101647722B1 true KR101647722B1 (ko) 2016-08-23

Family

ID=43992236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090109431A KR101647722B1 (ko) 2009-11-13 2009-11-13 영상표시장치 및 그 동작방법

Country Status (5)

Country Link
US (1) US8593510B2 (ko)
EP (1) EP2499834A4 (ko)
KR (1) KR101647722B1 (ko)
CN (1) CN102598679A (ko)
WO (1) WO2011059261A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200121513A (ko) * 2019-04-16 2020-10-26 경북대학교 산학협력단 동작 인식 기반 조작 장치 및 방법

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113190B2 (en) 2010-06-04 2015-08-18 Microsoft Technology Licensing, Llc Controlling power levels of electronic devices through user interaction
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
US20120226981A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
US8964008B2 (en) * 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
JP5915651B2 (ja) * 2011-07-04 2016-05-11 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
KR20130013248A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 3d 영상 재생 기기 및 그 3d 영상 제어 방법
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
KR101507206B1 (ko) * 2012-02-13 2015-03-30 엘지디스플레이 주식회사 유연한 표시장치
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
CN104321730B (zh) * 2012-06-30 2019-02-19 英特尔公司 3d图形用户接口
US8781237B2 (en) * 2012-08-14 2014-07-15 Sintai Optical (Shenzhen) Co., Ltd. 3D image processing methods and systems that decompose 3D image into left and right images and add information thereto
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
WO2014042299A1 (en) * 2012-09-14 2014-03-20 Lg Electronics Inc. Method and apparatus of controlling a content on 3-dimensional display
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN103530061B (zh) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 显示装置及控制方法
CN103530060B (zh) * 2013-10-31 2016-06-22 京东方科技集团股份有限公司 显示装置及其控制方法、手势识别方法
EP3284039A4 (en) * 2015-04-17 2019-07-24 Tulip Interfaces Inc. CONTAINERIZED COMMUNICATION GATEWAY
KR20160138806A (ko) * 2015-05-26 2016-12-06 엘지전자 주식회사 글래스타입 단말기 및 그 제어방법
US11609427B2 (en) 2015-10-16 2023-03-21 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (AR/VR) near-eye wearable displays
CA3002369A1 (en) * 2015-10-20 2017-04-27 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10345594B2 (en) 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof
US10353203B2 (en) 2016-04-05 2019-07-16 Ostendo Technologies, Inc. Augmented/virtual reality near-eye displays with edge imaging lens comprising a plurality of display devices
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation
EP3494458B1 (en) * 2016-12-14 2021-12-01 Samsung Electronics Co., Ltd. Display apparatus and method for controlling the display apparatus
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
CN107632708B (zh) * 2017-09-22 2021-08-17 京东方科技集团股份有限公司 一种屏幕可视角度的控制方法、控制装置及柔性显示装置
JP6463826B1 (ja) * 2017-11-27 2019-02-06 株式会社ドワンゴ 動画配信サーバ、動画配信方法及び動画配信プログラム
US20190253751A1 (en) * 2018-02-13 2019-08-15 Perfect Corp. Systems and Methods for Providing Product Information During a Live Broadcast

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736622T2 (de) * 1996-07-03 2007-09-13 Hitachi, Ltd. System zur Bewegungserkennung
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
AUPR080600A0 (en) * 2000-10-17 2000-11-09 Aristocrat Technologies Australia Pty Limited Game feature for a gaming machine
US6950123B2 (en) * 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
EP1477924B1 (en) * 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20070075968A1 (en) * 2005-09-30 2007-04-05 Hall Bernard J System and method for sensing the position of a pointing object
WO2007079425A2 (en) * 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
WO2008153599A1 (en) * 2006-12-07 2008-12-18 Adapx, Inc. Systems and methods for data annotation, recordation, and communication
US20090237492A1 (en) 2008-03-18 2009-09-24 Invism, Inc. Enhanced stereoscopic immersive video recording and viewing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200121513A (ko) * 2019-04-16 2020-10-26 경북대학교 산학협력단 동작 인식 기반 조작 장치 및 방법
KR102192051B1 (ko) * 2019-04-16 2020-12-16 경북대학교 산학협력단 동작 인식 기반 조작 장치 및 방법

Also Published As

Publication number Publication date
US8593510B2 (en) 2013-11-26
CN102598679A (zh) 2012-07-18
US20110115887A1 (en) 2011-05-19
WO2011059261A2 (en) 2011-05-19
EP2499834A4 (en) 2013-09-11
KR20110052771A (ko) 2011-05-19
EP2499834A2 (en) 2012-09-19
WO2011059261A3 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
KR101647722B1 (ko) 영상표시장치 및 그 동작방법
KR101631451B1 (ko) 영상표시장치 및 그 동작방법
KR101627214B1 (ko) 영상표시장치 및 그 동작방법
KR101735610B1 (ko) 영상표시장치의 동작 방법
US8896672B2 (en) Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same
KR101611263B1 (ko) 영상표시장치 및 그 동작방법
KR101349276B1 (ko) 영상표시장치 및 그 동작방법
EP2424264A2 (en) Method for operating image display apparatus
KR101635567B1 (ko) 영상표시장치 및 그 동작방법
KR20110082380A (ko) 영상표시장치 및 그 동작방법
US20130291017A1 (en) Image display apparatus and method for operating the same
KR20110090640A (ko) 영상표시장치 및 그 동작방법
KR101699740B1 (ko) 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법
KR20120062428A (ko) 영상표시장치 및 그 동작방법
KR101638536B1 (ko) 영상표시장치 및 그 제어방법
KR101691795B1 (ko) 영상표시장치 및 그 동작 방법
KR101737367B1 (ko) 영상표시장치 및 그 동작방법
KR101176500B1 (ko) 영상표시장치 및 그 동작방법
KR101626304B1 (ko) 영상표시장치 및 그 제어방법
KR101716144B1 (ko) 영상표시장치 및 그 동작방법
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법
KR101730423B1 (ko) 영상표시장치 및 그 동작 방법
KR20110134087A (ko) 영상표시장치 및 그 동작방법
KR20120034995A (ko) 영상표시장치 및 그 동작방법
KR20110093447A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190724

Year of fee payment: 4