KR20110116525A - 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법 - Google Patents

3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법 Download PDF

Info

Publication number
KR20110116525A
KR20110116525A KR1020100035986A KR20100035986A KR20110116525A KR 20110116525 A KR20110116525 A KR 20110116525A KR 1020100035986 A KR1020100035986 A KR 1020100035986A KR 20100035986 A KR20100035986 A KR 20100035986A KR 20110116525 A KR20110116525 A KR 20110116525A
Authority
KR
South Korea
Prior art keywords
image display
image
signal
display device
user
Prior art date
Application number
KR1020100035986A
Other languages
English (en)
Inventor
강민구
박종순
박준호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100035986A priority Critical patent/KR20110116525A/ko
Priority to EP11163014.1A priority patent/EP2381692A3/en
Priority to CN201110156218.2A priority patent/CN102223555B/zh
Priority to US13/090,008 priority patent/US20110254837A1/en
Publication of KR20110116525A publication Critical patent/KR20110116525A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 3D 오브젝트를 포함하는 채널 편집윈도루를 제공하는 영상표시장치및 그 동작 제어방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치는 채널 스캐닝을 통하여 검색된 채널에 대응하는 영상을 포함하는 3D 오브젝트를 제공한다. 또한 본 발명의 실시예에 따른 영상표시장치는 채널 스캐닝을 진행하면서 스캐닝을 통하여 검색된 채널 관련 명령을 영상표시장치로 입력할 수 있는 채널 편집윈도우를 표시할 수 있다.

Description

3D 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법{Image Display Device and Operating Method for the Same}
본 발명은 3D 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법에 관한 것이다. 본 발명은 더욱 상세하게는 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 제공하고, 3D 오브젝트의 표시상태가 타 영상표시장치 사용자의 동작정보에 대응하도록 변경되는 영상표시장치, 그 시스템 및 그 동작 제어방법에 관련된다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환되고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 오부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한 최근에는 입체 영상 및 입체 영상을 통해 제공 가능한 다양한 컨텐츠 들에 대한 연구가 활발히 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다. 또한 상술한 디지털 방송에서도 입체 영상을 송신할 수 있으며, 이를 재생하기 위한 장치에 대한 개발 역시 진행 중에 있다.
따라서, 본 발명의 목적은 입체 영상을 제공할 수 있는 영상표시장치, 그 시스템 및 그 동작 제어방법을 제공함에 있다. 본 발명의 또 다른 목적은 3D 오브젝트를 통하여 타 영상표시장치 사용자의 움직임을 판별할 수 있는 영상표시장치, 그 시스템 및 그 동작 제어방법을 제공함에 있다. 본 발명의 또 다른 목적은 다른 영상표시장치와 네트워크를 통하여 연결될 수 있는 영상표시장치, 그 시스템 및 그 제어방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 제어방법은, 사용자의 움직임에 관한 정보를 포함하는 동적정보를 생성하는 단계; 상기 동적정보를 적어도 2개 이상의 영상표시장치에서 전송한 동적정보를 합성하는 서버로 전송하는 단계; 상기 서버에서 전송한 타 영상표시장치의 사용자의 움직임에 대한 동적정보를 포함하는 신호를 수신하는 단계; 및 상기 수신된 신호에 기초하여 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 단계를 포함하는 것을 특징으로 한다.
또한 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 타 영상표시 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 디스플레이부; 적어도 2개 이상의 영상표시장치에서 전송한 동적정보를 합성하는 서버에서 전송한 타 영상표시장치 사용자의 동적정보를 포함하는 신호를 수신하는 네트워크 인터페이스 부; 및 상기 수신된 신호에 기초하여 적어도 2개의 복수시점 영상을 표시하도록 상기 디스플레이부로 영상신호를 출력하는 제어부를 포함하는 것을 특징으로 한다.
또한 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치 시스템의 동작 제어방법은, 적어도 2개의 영상표시장치; 및 상기 적어도 2개의 영상표시장치와 연결되는 서버를 포함하는 영상표시장치 네트워크 시스템에 있어서, 제 1 영상표시장치가 제 1 영상표시장치의 사용자의 움직임에 관한 정보를 포함하는 동적정보를 생성하는 단계; 상기 제 1 영상표시장치가 상기 서버로 상기 생성한 동적정보를 전송하는 단계; 상기 서버는 제 2 영상표시장치 사용자의 움직임에 관한 정보를 포함하는 동적정보를 상기 제 1 영상표시장치로 전송하는 단계; 제 1 영상표시장치는 상기 서버에서 전송한 상기 제 2 영상표시장치의 사용자의 움직임에 관한 정보를 포함하는 동적정보를 수신하는 단계; 상기 제 1 영상표시장치는 상기 수신된 신호에 기초하여 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 실시예에 따르면, 영상표시장치는 현재 네트워크와 연결된 타 영상표시장치 사용자의 움직임 정보를 3D 오브젝트를 이용하여 나타낼 수 있다. 또한 영상표시장치는 영상표시장치의 사용자의 움직임 정보를 타 영상표시장치로 전송할 수 있다. 영상표시장치와 타 영상표시장치는 네트워크 서버를 통하여 연결될 수 있다. 네트워크 서버는 네트워크 서버로 움직임 정보를 포함한 신호를 전송하는 영상표시장치를 판별할 수 있다. 또한 네트워크 서버는 배경 영상에 관한 정보를 포함하는 신호를 영상표시장치로 전송할 수 있다. 영상표시장치는 네트워크 서버를 통하여 타 영상표시장치의 사용자 정보 또는 배경 영상에 관한 정보를 수신할 수 있다. 영상표시장치는 수신한 정보에 기초한 3D 오브젝트를 구성하는 복수시점 영상 또는 배경 영상을 표시할 수 있다.
도 1은 본 발명의 일실시예에 따른 영상표시장치 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도,
도 3은 본 발명의 일 실시예에 따른 영상표시장치 중 제어부(170)의 내부 블록도,
도 4는 3D 영상을 구현할 수 있는 3D 영상신호 포맷의 예를 도시하는 도면,
도 5는 본 발명의 실시예에 따른 3D 영상신호의 다양한 스케일링 방식을 나타낸 도면,
도 6 및 도 7은 본 발명의 실시예에 따른 3D 영상 또는 3D 오브젝트의 깊이가 가변되는 모습을 나타난 도면,
도 8 및 9는 본 발명의 일실시예에 의한 영상표시장치의 동작 제어방법의 설명에 참조되는 순서도,
도 10 내지 도 14는 본 발명의 일실시예에 의한 영상표시장치에서 표시되는 화면을 설명하는데 참조되는 도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
<도 1 설명>
도 1은 본 발명의 일실시예에 따른 영상표시장치 시스템을 도시한 도이다.
본 발명의 일실시예에 의한 영상표시장치(100)는 방송국(210), 네트워크 서버(220) 또는 외부장치(230)와 통신할 수 있다.
영상표시장치(100)는 방송국(210)에서 전송하는 영상신호를 포함하는 방송신호를 수신할 수 있다. 영상표시장치(100)는 방송신호에 포함되는 영상신호 및 음성신호 또는 데이터신호를 영상표시장치(100)에서 출력하기에 적합하도록 처리(process)할 수 있다. 영상표시장치(100)는 처리한 영상신호에 기초하는 영상 또는 음향을 출력할 수 있다.
영상표시장치(100)는 네트워크 서버(220)와 통신할 수 있다. 네트워크 서버(220)는 임의의 네트워크를 통하여 영상표시장치(100)와 신호를 송수신할 수 있는 장치이다. 일예로 네트워크 서버(220)는 유선 또는 무선 기지국을 통하여 영상표시장치(100)와 연결될 수 있는 휴대전화 단말기일 수 있다. 또한, 네트워크 서버(220)는 인터넷 네트워크를 통하여 영상표시장치(100)로 컨텐츠를 제공할 수 있는 장치일 수 있다. 컨텐츠 제공자는 네트워크 서버를 이용하여 영상표시장치(100)로 컨텐츠를 제공할 수 있다.
영상표시장치(100)는 외부장치(230)와 통신할 수 있다. 외부장치(230)는 유선 또는 무선으로 영상표시장치(100)와 직접 신호를 송수신할 수 있는 장치이다. 일예로 외부장치(230)는 사용자가 사용하는 미디어 저장장치 또는 재생장치일 수 있다. 즉, 외부장치(230)는 카메라, DVD 또는 블루레이 플레이어, 퍼스널 컴퓨터 등일 수 있다.
방송국(210), 네트워크 서버(220), 외부장치(230)는 영상표시장치(100)로 영상신호를 포함하는 신호를 전송할 수 있다. 영상표시장치(100)는 입력되는 신호에 포함되는 영상신호에 기초하는 영상을 표시할 수 있다. 또한 영상표시장치(100)는 방송국(210), 네트워크 서버(220)에서 영상표시장치(100)로 전송하는 신호를 외부장치(230)로 전송할 수 있다. 또한, 외부장치(230)에서 영상표시장치(100)로 전송하는 신호를 방송국(210) 또는 네트워크 서버(220)로 전송할 수 있다. 즉, 영상표시장치(100)는 방송국(210), 네트워크 서버(220) 및 외부장치(230)에서 전송하는 신호에 포함되는 컨텐츠를 영상표시장치(100)에서 직접 재생하는 외에도 전달할 수 있다.
<도 2 설명>
도 2는 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2를 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 방송신호 수신부(110), 네트워크 인터페이스부(120), 외부장치 입출력부(130), 원격제어장치 인터페이스부(140), 저장부(150), 제어부(170), 디스플레이(180), 음향 출력부(185)를 포함할 수 있다.
방송신호 수신부(110)는 방송국(도 1의 210 참조) 등으로부터 안테나를 통해 수신되는 RF(Radio Frequency) 방송신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송신호를 수신할 수 있다. 방송신호 수신부(110)는 수신된 RF 방송신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환하여 제어부(170)로 출력할 수 있다.
또한, 방송신호 수신부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송신호를 수신할 수 있다. 방송신호 수신부(110)는 수신되는 RF 방송신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환할 수 있다. 이는, 디스플레이부(180)에 방송 채널에 해당하는 복수의 썸네일 영상을 포함하는 썸네일 목록을 도시하기 위한 것이다. 따라서 방송신호 수신부(110)는 선택 채널 또는 기저장된 모든 채널의 RF 방송 신호를 순차적/주기적으로 수신하는 것이 가능하다.
네트워크 인터페이스부(120)는 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크 또는 그 네트워크 서버(도 1의 220 참조)와 연결하기 위한 인터페이스를 제공한다.
네트워크 인터페이스부(120)는 영상표시장치(100)를 무선으로 인터넷에 접속할 수 있는 무선 통신부를 포함할 수 있다. 무선 인터넷 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(120)는 네트워크를 통해 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자로부터 제공되는 방송, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다.
또한, 네트워크 인터페이스부(120)는 영상 또는 음성 통화를 할 수 있는 통신망과 연결될 수 있다. 통신망은 LAN을 통하여 연결되는 방송형 통신망, 공중전화망, 이동통신망 등을 포함하는 의미일 수 있다.
외부장치 입출력부(130)는 외부장치(도 1의 230 참조)와 영상표시장치(100)를 연결할 수 있다. 이를 위해, 외부장치 입출력부(130)는, A/V 입출력부 또는 무선 통신부를 포함할 수 있다.
외부장치 입출력부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부장치와 유/무선으로 연결된다. 외부장치 입출력부(130)는 연결된 외부장치를 통하여 외부에서 입력되는 영상신호, 음성신호 또는 데이터신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상신호, 음성신호 또는 데이터신호를 연결된 외부 장치로 출력할 수 있다.
A/V 입출력부는, 외부장치의 영상신호 및 음성신호가 영상표시장치(100)로 입력될 수 있도록 하는 모듈로서, 이더넷(Ethernet)단자, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 중 하나 이상일 수 있다.
또한, 무선 통신부는, 다른 외부장치와 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 통신 규격에 따라 다른 외부장치와 네트워크 연결될 수 있다.
또한, 외부장치 입출력부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
예를 들어, 셋탑 박스가 IP(internet Protocol) TV용 셋탑 박스인 경우, 외부장치 입출력부(130)는 양방향 통신이 가능하도록, IP TV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터신호를 제어부(170)로 전달할 수 있다. 또한, 제어부(170)에서 처리된 신호들을 IP TV용 셋탑 박스로 전달할 수 있다.
한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.
원격제어장치 인터페이스부(140)는 원격제어장치(200)와 무선으로 신호를 송수신할 수 있는 무선 통신부와, 원격제어장치(200)의 움직임에 대응하는 포인터의 좌표를 산출할 수 있는 좌표산출부를 구비할 수 있다. 원격제어장치 인터페이스부(140)는 RF 모듈을 통하여 원격제어장치(200)와 무선으로 신호를 송수신할 수 있다. 또한 IR 모듈을 통하여 원격제어장치(200)가 IR 통신규격에 따라 전송한 신호를 수신할 수 있다.
원격제어장치 인터페이스부(140)부의 좌표산출부는 원격제어장치 인터페이스부(140)의 무선 통신부를 통하여 수신된 원격제어장치(200)의 움직임에 대응하는 신호로부터 손떨림이나 오차를 수정할 수 있다. 좌표산출부는 손떨림이나 오차를 수정한 후 영상표시장치(100)의 디스플레이에 표시할 포인터의 좌표를 산출할 수 있다.
원격제어장치 인터페이스부(140)를 통하여 영상표시장치(100)로 입력된 원격제어장치 전송 신호는 영상표시장치(100)의 제어부(170)로 출력된다. 제어부(170)는 원격제어장치(200)가 전송한 신호로부터 원격제어장치(200)의 움직임 또는 키 조작에 관한 정보를 판별하고, 그에 대응하여 영상표시장치(100)의 동작을 제어하기 위한 각종 제어 신호를 생성 및 출력할 수 있다.
또 다른 예로, 원격제어장치(200)는 원격제어장치(200)의 움직임에 대응하는 포인터 좌표를 산출하여 원격제어장치 인터페이스부(140)로 출력할 수 있다. 이 경우, 원격제어장치 인터페이스부(140)는 별도의 손떨림이나 오차 등에 대한 수정 과정 없이 수신된 포인터 좌표에 관한 정보를 제어부(170)로 전송할 수 있다.
저장부(150)는 영상표시장치(100)로 입력되는 영상신호 및 영상신호와 관련된 음성신호, 데이터신호를 저장할 수 있다. 일예로, 방송신호에 기초한 동영상을 재생중인 영상표시장치(100)로 동영상 저장명령이 입력될 수 있다. 영상표시장치(100)는 입력된 동영상 저장명령에 대응하여 저장부(150)에 재생중인 동영상의 적어도 일부를 저장할 수 있다. 영상표시장치(100)는 저장된 동영상 재생명령이 입력될 경우, 저장부(150)에 저장된 영상신호 및 영상신호와 관련된 음성신호, 데이터신호를 참조할 수 있다. 영상표시장치(100)는 참조한 신호에 기초한 동영상을 재생할 수 있다.
제어부(170)는 영상표시장치(100) 내의 전반적인 동작을 제어한다. 제어부(170)는 원격제어장치(200) 또는 다른 종류의 제어명령 입력수단이 전송한 신호를 수신할 수 있다. 또한, 영상표시장치(100)에 구비된 로컬키를 통하여 명령을 입력받을 수 있다. 제어부(170)는 수신한 신호에 포함된 명령 또는 로컬키 조작에 대응하는 명령을 판별하고 그에 대응하도록 영상표시장치(100)를 제어한다.
일예로, 사용자가 소정 채널 선택명령을 입력하면, 제어부(170)는 선택한 채널에서 제공되는 방송신호가 방송신호 수신부(110)를 통하여 입력되도록 방송신호 수신부(110)를 제어한다. 또한, 선택한 채널의 영상신호 및 음성신호를 처리하여 디스플레이부(180) 또는 음향 출력부(185)로 출력할 수 있다. 또한, 사용자가 선택한 채널 정보 등이 영상신호 및 음성신호와 함께 디스플레이부(180) 또는 음성출력부(185)를 통하여 출력될 수 있도록 할 수 있다.
제어부(170)는 영상신호 또는 음성신호와 함께 수신되는 데이터신호에 포함된 정보에 기초하여 영상신호 또는 음성신호를 처리할 수 있다. 예컨대, 제어부(170)는 영상표시장치(100)로 입력되는 영상신호와 관련된 데이터신호를 이용하여 해당 영상신호의 포맷 등을 판별하고, 그 포맷에 따라 영상표시장치(100)로 입력되는 영상신호를 처리할 수 있다.
제어부(170)는 영상신호와 관련된 데이터신호로부터 해당 영상신호를 기초로 생성되는 영상과 관련되는 OSD(On Screen Display)를 표시할 수 있는 OSD 신호를 생성할 수 있다. 또한, 사용자가 영상표시장치(100)에 관련 정보를 확인할 수 있거나 영상표시장치(100)로 영상표시장치 제어명령을 입력할 수 있도록 그래픽 유저 인터페이스를 생성할 수 있다.
사용자는 원격제어장치(200) 또는 다른 종류의 제어명령 입력수단을 통하여 다른 종류의 영상 또는 음성 출력명령을 입력할 수 있다. 일예로, 사용자는 방송신호 대신 외부장치 입출력부(130)를 통하여 입력되는 카메라 또는 캠코더 영상신호를 시청하기를 원할 수 있다. 이 경우 제어부(170)는 외부장치 입출력부(130)의 USB 입력부 등을 통하여 입력되는 영상신호 또는 음성신호가 디스플레이부(180) 또는 음성출력부(185)를 통해 출력되도록 영상표시장치(100)로 입력되는 영상신호 또는 음성신호를 처리할 수 있다.
본 실시예의 제어부(170)는 외부에서 입력되는 2D 또는 3D 영상신호가 디스플레이부(180)에 표시될 수 있도록 영상신호를 처리할 수 있다. 또한, 제어부(170)는 생성된 그래픽 유저 인터페이스가 디스플레이부(180)에서 입체적으로 표시되도록 영상신호를 처리할 수 있다. 제어부(170)의 상세한 설명은 도 3에서 후술한다.
디스플레이부(180)는, 제어부(170)에서 처리된 영상신호, 데이터신호, OSD 신호 또는 외부장치 입출력부(130)를 통해 수신되는 영상신호, 데이터신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다. 디스플레이부(180)는 생성된 구동 신호에 따라 화면을 표시할 수 있다. 디스플레이부(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하다. 또한 본 발명의 실시예에 따른 영상표시장치(100) 및 디스플레이부(180)는 3D 디스플레이(3D display)를 수행할 수 있다.
3D 디스플레이는, 3D 영상을 사용자가 인식하는 방식에 따라 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.
단독 디스플레이 방식은, 별도의 보조 장치 없이 디스플레이에서 단독으로 3D 영상이 구현될 수 있는 방식이다. 단독 디스플레이 방식을 사용하는 디스플레이를 시청하는 사용자는 추가 장치(ex)편광안경)가 없어도 3D 영상을 시청할 수 있다. 단독 디스플레이 방식으로는 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등이 있을 수 있다.
추가 디스플레이 방식은, 보조 장치를 사용하여 3D 영상을 구현하는 방식이다. 추가 디스플레이 방식으로는 헤드 마운트 디스플레이(HMD) 방식, 안경 방식 등이 있을 수 있다. 또한, 안경 방식에서 사용되는 안경으로는 편광 안경, 셔터 글래스, 스펙트럼 필터 등이 적용될 수 있다.
한편, 디스플레이부(180)는, 터치 스크린으로 구성됨으로써 출력 장치는 물론 입력 장치로도 기능할 수 있다.
음향출력부(185)는, 영상/음성 처리부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력받아 음성으로 출력한다. 음향출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.
<도 3 설명>
도 3은 본 발명의 일 실시예에 따른 영상표시장치 중 제어부(170)의 내부 블록도이다.
제어부(170)는 복조부(171), 역다중화부(172), 디코더부(173), OSD 생성부(174), 포맷터(175)를 포함하여 구성될 수 있다. 복조부(171)는 방송신호 수신부(110)에서 수신된 방송신호를 복조하는 동작을 수행할 수 있다.
일예로 복조부(171)는 방송신호 수신부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행할 수 있다. 또한 복조부(171)는 채널 복호화를 수행할 수 있다. 이를 위해 복조부(171)는 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(171)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 스트림 신호는 영상신호, 음성신호 또는 데이터신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상신호, 돌비(Dolby) AC-3 규격의 음성신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(171)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비될 수 있다. 복조부(171)에서 출력한 스트림 신호는 역다중화부(172)로 입력될 수 있다.
역다중화부(172)는 수신되는 스트림 신호, 일예로 MPEG-2 TS를 역다중화하여 영상신호, 음성신호 및 데이터신호로 분리할 수 있다. 역다중화부(172)로 입력되는 스트림 신호는 복조부(171), 네트워크 인터페이스부(120), 외부장치 입출력부(130)에서 출력되는 스트림 신호일 수 있다.
역다중화된 데이터신호는 부호화된 데이터 신호일 수 있다. 부호화된 데이터 신호는 각 채널에서 방영되는 방송프로그램의 명칭, 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보를 포함할 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, TSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다.
디코더부(173)는 역다중화된 신호를 복호화할 수 있다. 본 실시예의 디코더부(173)는 역다중화된 영상신호를 복호화하는 비디오 디코더(173a)와 복호화된 영상신호의 해상도가 영상표시장치(100)에서 출력될 수 있도록 조절하는 스케일러(173b)를 포함할 수 있다.
OSD 생성부(174)는 디스플레이부(180)에 오브젝트가 OSD로 표시되도록 OSD 신호를 생성할 수 있다. OSD는 디스플레이부(180)에 표시되는 영상과 관련된 정보를 나타낼 수 있다. 또한, OSD는 영상표시장치(100)의 동작을 제어할 수 있는 제어 신호 또는 사용자 명령 등을 입력받기 위한 유저 인터페이스를 포함할 수 있다.
본 발명의 실시예에 따른 OSD 생성부(174)는 영상표시장치(100)에서 재생되고 있거나 재생할 수 있는 컨텐츠의 재생시점에 대응하는 썸네일 영상을 추출할 수 있다. OSD 생성부(174)는 추출한 썸네일 영상을 포함하는 3D 오브젝트가 사용자에게 인식될 수 있도록 OSD 신호를 생성하여 포맷터(175)로 출력할 수 있다.
포맷터(175)는 입력되는 영상신호의 포맷을 영상신호와 관련된 데이터신호를 참조하여 판별할 수 있다. 포맷터(175)는 입력되는 영상신호를 디스플레이부(180)에 적합한 포맷으로 변환하여 디스플레이부(180)로 출력할 수 있다.
본 실시예의 영상표시장치(100)는 디스플레이부(180)에 3D 영상을 표시할 수 있다. 이 경우, 포맷터(175)는 입력되는 영상신호를 디스플레이부(180)에 표시하기에 적합한 소정 포맷에 따른 3D 영상신호를 생성할 수 있다. 본 발명의 실시예에서, 3D 영상신호는 좌안 영상신호 및/또는 우안 영상신호를 포함할 수 있다. 앞서 설명한 바와 같이 본 발명의 실시예에서 3D 영상을 구현하기 위해 좌안 영상과 우안 영상이 사용될 수 있는데, 좌안 영상 신호는 좌안 영상을, 우안 영상 신호는 우안 영상을 표시하기 위한 영상신호일 수 있다. 포맷터(175)는 생성한 3D 영상신호를 디스플레이부(180)로 출력한다. 디스플레이부(180)는 생성한 3D 영상신호에 기초한 3D 영상을 표시한다.
본 실시예에서 영상표시장치(100)는 OSD 생성부(174)에서 생성한 OSD 신호에 따라 OSD를 3D 오브젝트로 표시할 수 있다. 포맷터(175)는 3D 오브젝트를 구성하는 복수시점 영상, 일예로 3D 오브젝트를 구성하는 좌안 영상과 우안 영상이 디스플레이부(180)에 표시되도록 OSD 생성부(173)에서 생성한 OSD 신호를 디스플레이부(180)에 표시될 수 있는 포맷의 3D 영상신호로 변환하여 디스플레이부(180)로 출력할 수 있다.
별도로 유저 인터페이스 생성부를 구비하고 있는 영상표시장치(100)는 디코더부(173) 및 OSD 생성부(174)에서 출력되는 영상신호를 유저 인터페이스 생성부에서 출력되는 유저 인터페이스 영상신호와 믹싱할 수 있는 믹서를 더 포함할 수 있다. 믹서는 디코더부(173)와 OSD 생성부(174)에서 출력되는 영상신호를 믹싱하기 위하여 포맷터(175) 내부에 구비될 수 있다.
<도 4 설명>
도 4는 3D 영상을 구현할 수 있는 3D 영상신호 포맷의 예를 도시하는 도이다. 3D 영상신호 포맷은 3D 영상을 구현하기 위하여 생성된 좌안 영상과 우안 영상을 배치하는 방법에 따라 결정될 수 있다.
3D 영상은 복수시점 영상으로 이루어질 수 있다. 사용자는 복수시점 영상을 좌안과 우안을 통하여 볼 수 있다. 사용자는 좌안과 우안을 통하여 감지되는 영상의 차이를 통하여 3D 영상의 입체감을 느낄 수 있다. 3D 영상을 구현하기 위한 복수시점 영상은 본 발명의 일 실시예에 따르면, 사용자가 좌안을 통하여 인식할 수 있는 좌안 영상 및 우안을 통하여 인식할 수 있는 우안 영상으로 이루어진다.
도 4a에 도시된 바와 같이, 좌안 영상과 우안 영상이 좌,우로 배치되는 방식은 사이드 바이 사이드(Side by Side) 포맷이라 지칭된다. 도 4b에 도시된 바와 같이, 좌안 영상과 우안 영상을 상,하로 배치하는 방식은 탑 다운(Top / Down) 포맷이라 칭한다. 도 4c에 도시된 바와 같이, 좌안 영상과 우안 영상을 시분할로 배치하는 방식은 프레임 시퀀셜(Frame Sequential) 포맷이라 칭한다. 도 4d에 도시된 바와 같이, 좌안 영상과 우안 영상을 라인 별로 혼합하는 방식을 인터레이스 (Interlaced) 포맷이라 칭한다. 도 4e에 도시된 바와 같이, 좌안 영상과 우안 영상을 박스별로 혼합하는 방식을 체커 박스(Checker Box) 포맷이라 칭한다.
외부에서 영상표시장치(100)로 입력된 신호에 포함된 영상신호가 3D 영상을 구현할 수 있는 3D 영상신호일 수 있다. 또한, 영상표시장치(100) 관련 정보를 나타내거나 영상표시장치(100) 관련 명령을 입력할 수 있도록 생성되는 그래픽 유저 인터페이스 영상신호는 3D 영상신호일 수 있다. 포맷터(175)는 외부에서 영상표시장치(100)로 입력된 신호에 포함된 3D 영상신호와 그래픽 유저 인터페이스 3D 영상신호를 믹싱하여 디스플레이부(180)로 출력할 수 있다.
포맷터(175)는 믹싱된 3D 영상신호의 포맷을 관련된 데이터신호를 참조하여 판별할 수 있다. 포맷터(175)는 판별한 포맷에 적합하도록 3D 영상신호를 처리하여 디스플레이부(180)에 출력할 수 있다. 또한, 디스플레이부(180)에서 출력될 수 있는 3D 영상신호 포맷이 제한되어 있는 경우, 포맷터(175)는 수신한 3D 영상신호를 디스플레이부(180)에서 출력될 수 있는 3D 영상신호 포맷에 적합하도록 변환하여 디스플레이부(180)에 출력할 수 있다.
OSD 생성부(174)는 OSD(On Screen Display) 신호를 생성할 수 있다. 구체적으로 OSD 생성부(174)는 영상신호와 데이터신호 중 적어도 하나 또는 원격제어장치나 다른 종류의 제어명령 입력수단을 통하여 입력되는 사용자 입력 신호에 기초하여, 디스플레이부(180)의 화면에 각종 정보를 그래픽이나 텍스트로 표시하기 위한 신호를 생성할 수 있다. 또한, OSD 생성부(174)는 영상표시장치(100)로 제어명령을 입력할 수 있는 그래픽이나 텍스트를 표시하기 위한 신호를 생성할 수 있다. 생성된 OSD 신호는 영상 처리된 영상신호 및 데이터 처리된 데이터신호와 함께, 디스플레이부(180)로 출력될 수 있다.
OSD 신호는 그래픽 또는 텍스트 디스플레이를 위하여 생성된 신호로서 디스플레이부(180)가 표시할 수 있는 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등에 관한 정보를 포함할 수 있다. OSD 생성부(174)는 OSD 신호를 2D 영상신호 또는 3D 영상신호로 생성할 수 있다. OSD 생성부(174)에서 생성한 OSD 신호는 포맷터(175)에서 다른 영상신호와 믹싱되는 그래픽 유저 인터페이스 3D 영상신호를 포함할 수 있다.
디스플레이부(180)는 OSD 생성부(174)에서 생성한 OSD 신호에 따라 오브젝트를 표시할 수 있다. 본 실시예의 오브젝트는 볼륨 조절 버튼, 채널 조절 버튼, 영상표시장치 제어메뉴, 아이콘, 네비게이션 탭, 스크롤 바, 프로그래시브 바, 텍스트 박스, 윈도우 중 하나일 수 있다.
디스플레이부(180)가 표시한 오브젝트를 통해, 사용자는 영상표시장치(100)에 관한 정보 또는 영상표시장치(100)에서 표시하고 있는 영상에 관한 정보를 인지할 수 있다. 또한 영상표시장치(100)에 표시된 오브젝트를 통하여 영상표시장치(100)로 명령을 입력할 수 있다. 한편, 본 명세서에서의 3D 오브젝트는, 입체감을 가지도록 입체효과가 적용된 오브젝트이다. 3D 오브젝트는 PIP 영상, 방송 프로그램 정보를 나타내는 EPG, 영상표시장치의 다양한 메뉴, 위젯, 아이콘 등이 될 수 있다.
<도 5 설명>
도 5는 본 발명의 실시예에 따른 3D 영상신호에 기초한 영상의 다양한 스케일링 방식 또는 해당 영상이 가질 수 있는 다양한 형상을 나타낸 도면이다. 3D 오브젝트의 크기 조절 또는 기울기 조절에 대해서는 도 5를 참조한다.
제어부(170)에 포함된 스케일러 등 영상신호 처리를 위하여 구비된 모듈은 도 5의 (a)와 같이, 3D 영상 또는 3D 오브젝트(510)를 일정 비율로 전체적으로 확대 또는 축소(513)할 수 있다.
또한 제어부(170)는 일정 각도로 회전되거나 일정 방향으로 기울어진 영상을 표현하기 위해 3D 영상 또는 3D 오브젝트를 사다리꼴 또는 평행사변형 등의 다각형의 형상으로 생성하거나 변형할 수 있다. 제어부(170)는 방송국(도 1의 210 참조), 네트워크 서버(도 1의 220 참조) 또는 외부입력장치(도 1의 230 참조)에서 출력한 영상신호에 기초하여 일정 각도로 회전되거나 일정 방향으로 기울어진 영상을 표현할 수 있다. 또한, 제어부(170)는 제어부(170) 내에서 생성한 영상신호에 기초하여 일정 각도로 회전되거나 일정 방향으로 기울어진 영상을 표현할 수 있다. 이를 위하여 제어부(170)에 포함된 스케일러 등 영상신호 처리를 위하여 구비된 모듈은 3D 영상 또는 3D 오브젝트를 도 5의 (b)에 도시된 바와 같이 사다리꼴(516) 형상 또는 도 5의 (c)에 도시된 바와 같이 평행사변형(519) 형상으로 생성할 수 있다.
제어부(170)는 디스플레이부(180)를 통하여 사용자에게 인식되는 3D 영상 또는 3D 오브젝트의 스케일링(크기 조절) 또는 기울기 조절을 통해, 3D 영상신호에 기초한 3D 영상 또는 3D 오브젝트의 입체감 즉, 3D 효과(3-dimensional effect)를 강조할 수 있게 된다.
한편, 3D 영상 또는 3D 오브젝트의 스케일 조정은 앞서 설명한 제어부(170)의 포맷터(175)에 의해 수행될 수 있다. 도 5의 3D 영상신호는 좌안 영상신호, 우안 영상신호 또는 좌안 영상신호와 우안 영상신호가 합쳐진 신호일 수 있다. 포맷터(175)는, 복호화된 영상신호를 수신하여, 2D 영상신호 또는 3D 영상신호를 분리하며, 3D 영상신호를 좌안 영상신호와 우안 영상신호로 다시 분리할 수 있다. 그리고, 좌안 영상신호와 우안 영상신호를 도 5에 도시된 다양한 예들 중 하나 이상의 형태로 스케일링하여, 도 4와 같은 소정 포맷으로 출력할 수 있다. 한편, 스케일링은 출력 포맷이 형성되기 전 또는 그 후에 수행될 수 있다.
또한 포맷터(175)는, OSD 생성부(174)의 OSD 신호 또는 복호화된 영상신호와 믹싱된 OSD 신호를 입력받아, 3D 영상신호를 분리하고, 3D 영상신호를 복수 시점 영상신호로 분리할 수 있다. 예를 들어, 3D 영상신호는 좌안 영상신호와 우안 영상신호로 분리될 수 있으며, 분리된 좌안 영상신호와 우안 영상신호는 도 5과 같이 스케일링 처리되어 도 4에 도시된 소정 포맷으로 출력될 수 있다.
한편 OSD 생성부(174)는 출력하는 OSD 신호에 기초하여 생성되는 3D 영상 또는 3D 오브젝트를 스케일링할 수 있다. OSD 생성부(174)가 OSD에 대한 스케일링을 직접 수행하는 경우에는, 포맷터(175)는 OSD에 대한 스케일링을 수행할 필요가 없다. 이 경우 OSD 생성부(174)는 OSD 신호를 생성하는 것에 그치지 않고, OSD의 깊이나 기울기에 따라 OSD 신호를 스케일링하고, 더 나아가 적합한 포맷으로 OSD 신호를 출력한다. 이때 OSD 생성부(174)에서 출력되는 OSD 신호의 포맷은, 도 4에 도시된 바와 같이, 좌안 영상신호와 우안 영상 신호, 또는 좌안 영상과 우안 영상의 다양한 결합 포맷 중 어느 하나일 수 있다. 이때 출력 포맷은 포맷터(175)의 출력 포맷과 동일하게 된다.
<도 6 설명>
도 6은 본 발명의 실시예에 따른 3D 영상 또는 3D 오브젝트의 깊이가 가변되는 모습을 나타난 도면이다.
앞서 설명한 본 발명의 일 실시예에 따르면, 3D 영상은 다시점 영상으로 구성되고, 여기서 다시점 영상은 좌안 영상과 우안 영상으로 예시될 수 있다. 이 경우, 좌안 영상과 우안 영상 간의 간격에 의해 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지는 모습이 도 6에 도시되어 있다. 도 6을 참조하여 좌안 영상과 우안 영상의 간격 또는 시차에 따라 사용자에게 느껴지는 영상의 입체감 또는 원근감을 설명하도록 한다.
도 6에서는 각기 다른 깊이감을 가지는 복수의 영상 또는 복수의 오브젝트들이 도시된다. 이들 오브젝트를 제1 오브젝트(615), 제2 오브젝트(625), 제3 오브젝트(635), 제4 오브젝트(645)라 지칭하도록 한다.
즉, 제1 오브젝트(615)는 제1 좌안 영상신호에 기초하는 제1좌안 영상과 제1 우안 영상신호에 기초하는 제1 우안 영상으로 구성된다. 즉, 제1 오브젝트를 표시하기 위한 영상신호는 제1 좌안 영상신호와 제1 우안 영상신호로 구성된다. 도 6은 제1 좌안 영상신호에 기초하는 제1 좌안 영상과 제1 우안 영상신호에 기초하는 제1 우안 영상이 디스플레이부(180)의 어느 위치에 표시되는지를 나타낸다. 또한 도 6은 디스플레이부(180)에 표시되는 제1 좌안 영상과 제1 우안 영상 간의 간격을 나타낸다. 상기 제1 오브젝트의 설명은 제2 내지 제4 오브젝트에 적용될 수 있다. 이하에서는 설명의 편의상, 하나의 오브젝트를 위해 디스플레이부(180) 상에 표시되는 좌안 영상과 우안 영상, 그리고 두 영상 간에 설정된 간격 및 해당 오브젝트의 일련번호를 통일하여 설명하기로 한다.
제1 오브젝트(615)는 제1 우안 영상(613, 도 6에 R1으로 표시됨)과 제1 좌안 영상(611, 도 6에 L1으로 표시됨)으로 구성된다. 제1 우안 영상(613)과 제1 좌안 영상(611) 사이의 간격은 d1으로 설정되어 있다. 사용자는 좌안(601)과 제1 좌안 영상(611)을 연결하는 연장성 및 우안(603)과 제1 우안 영상(603)을 연결하는 연장선이 교차되는 지점에 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(615)가 디스플레이부(180)보다 뒤에 위치하는 것처럼 인식한다. 사용자에게 인식되는 디스플레이부(180)와 제1 오브젝트(615) 사이의 거리는 깊이로 표현될 수 있다. 본 실시예에서 디스플레이부(180)보다 뒤쪽에 위치하고 있는 것처럼 사용자에게 인식되는 3D 오브젝트가 가지는 깊이는 음의 값(-)을 가진다. 따라서, 제1 오브젝트(615)가 가지는 깊이는 음의 값을 가진다.
제2 오브젝트(625)는 제2 우안 영상(623, R2로 표시됨)과 제2 좌안 영상(621, L2로 표시됨)으로 구성된다. 본 실시예에 따르면 제2 우안 영상(623)과 제2 좌안 영상(621)은 디스플레이부(180)에서 동일한 위치에 표시된다. 제2 우안 영상(623)과 제2 좌안 영상(621) 사이의 간격은 0이다. 사용자는 좌안(601)과 제2 좌안 영상(621)을 연결하는 연장선 및 사용자의 우안(603)과 제2 우안 영상(623)을 연결하는 연장선이 교차되는 지점에 상이 것처럼 인식한다. 따라서 사용자는 제2 오브젝트(625)가 디스플레이부(180)에 표시된 것처럼 인식한다. 이 경우 제2 오브젝트(625)는 2D 오브젝트라 지칭될 수 있으며, 3D 오브젝트라 지칭될 수 있다. 제2 오브젝트(625)는 디스플레이부(180)와 동일한 깊이를 가지는 오브젝트로서, 제2 오브젝트(625)가 가지는 깊이는 0이 된다.
제3 오브젝트(635)와 제4 오브젝트(645)는 디스플레이부(180)에서 사용자를 향하여 돌출되어 위치하고 있는 것처럼 인식되는 3D 오브젝트들을 설명하기 위한 예들이다. 더 나아가, 좌안 영상과 우안 영상 간의 간격의 변화에 따라 사용자에게 인지되는 원근감이나 입체감의 정도가 달라짐을 제3 오브젝트(635)와 제4 오브젝트(645)의 예를 참조하여 설명할 수 있다.
제3 오브젝트(635)는 제3 우안 영상(633, R3로 표시됨)과 제3 좌안 영상(631, L3로 표시됨)으로 구성된다. 제3 우안 영상(633)과 제3 좌안 영상(631) 사이의 간격은 d3으로 설정되어 있다. 사용자는 좌안(601)과 제3 좌안 영상(631)을 연결하는 연장선 및 우안(603)과 제3 우안 영상(633)의 연장선이 교차되는 지점에 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제3 오브젝트(625)가 디스플레이부(180)보다 앞쪽, 즉 사용자에게 가까운 쪽에 위치하고 있는 것처럼 인식한다. 즉 제3 오브젝트(635)는 디스플레이부(180)에서 사용자를 향하여 돌출되어 위치하고 있는 것처럼 사용자에게 인식된다. 본 실시예에서 디스플레이부(180)보다 앞쪽에 위치하고 있는 것처럼 사용자에게 인식되는 3D 오브젝트가 가지는 깊이는 양의 값(+)을 가진다. 따라서, 제3 오브젝트(635)의 깊이는 양의 값을 가진다.
제4 오브젝트(645)는 제4 우안 영상(643, R4로 표시됨)과 제4 좌안 영상(641, L4로 표시됨)으로 구성된다. 제4 우안 영상(643)과 제4 좌안 영상(641) 사이의 간격은 d4으로 설정되어 있다. 여기서 d3와 d4 간에는 'd3<d4'의 부등식이 성립된다. 사용자는 좌안(601)과 제4 좌안 영상(641)을 연결하는 연장선 및 우안(603)과 제4 우안 영상(643)의 연장선이 교차되는 지점에 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제4 오브젝트(645)는 디스플레이부(180)보다 앞쪽, 즉 사용자에게 가까운 쪽에 위치하는 것은 물론, 제3 오브젝트(635)보다도 사용자에게 더 가깝에 위치하는 것으로 인식한다. 즉 제4 오브젝트(645)는 디스플레이부(180) 및 제3오브젝트(635)보다 사용자를 향하여 돌출되어 위치하고 있는 것처럼 사용자에게 인식된다. 제4 오브젝트(645)가 가지는 깊이 양의 값을 가지게 된다.
영상표시장치(100)는 디스플레이부(180)에 표시되는 좌안 영상과 우안 영상의 위치를 조절함으로써 좌안 영상과 우안 영상으로 구성되는 오브젝트가 디스플레이부(180)보다 뒤에 위치하는 것처럼 사용자에게 인식되거나 앞에 위치하는 것처럼 사용자에게 인식되도록 할 수 있다. 또한, 영상표시장치(100)는 디스플레이부(180)에 표시되는 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 오브젝트의 깊이감을 조절할 수 있다.
즉 도 6을 참조한 설명에 따르면, 좌안 영상과 우안 영상의 좌우 표시위치에 따라 좌안 영상과 우안 영상으로 구성되는 오브젝트의 깊이가 양의 값(+)을 가지는지 혹은 음의 값(-)을 가지는지 결정되는 것을 알 수 있다. 앞서 설명한 바와 같이 깊이가 양의 값(+)을 가지는 오브젝트는 디스플레이부(180)보다 돌출되어 위치하고 있는 것처럼 사용자에게 인식되는 오브젝트이다. 또한, 깊이가 음의 값(-)을 가지는 오브젝트는 디스플레이부(180)보다 후퇴하여 위치하고 있는 것처럼 사용자에게 인식되는 오브젝트이다.
또한, 도 6을 참조하면, 좌안 영상과 우안 영상 간의 간격의 절대값에 따라 오브젝트의 깊이감, 즉 3D 영상이 위치하고 있는 것처럼 사용자에게 인식되는 지점과 디스플레이부(180) 사이의 거리가 달라짐을 설명할 수 있다.
<도 7 설명>
도 7은 본 발명의 일 실시예에 따라 영상의 깊이가 제어되는 모습을 도시한 도면이다. 도 7을 참조하면 디스플레이부(180) 상에 표시되는 좌안 영상(701)과 우안 영상(702) 간의 간격에 따라 동일한 영상 또는 동일한 3D 오브젝트의 깊이감이 달라지는 것을 볼 수 있다. 본 실시예에서 디스플레이부(180)의 깊이는 0으로 설정한다. 디스플레이부(180)보다 돌출되어 위치하고 있는 것처럼 인식되는 영상의 깊이는 양의 값을 가지는 것으로 설정한다.
도 7의 (a)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격은 a이다. 도 7의 (b)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격은 b이다. 여기서 aa보다 b가 크다. 즉, 도 7의 (a)에 도시된 예보다 도 7의 (b)에 도시된 예에서 좌안 영상(701)과 우안 영상(702) 간의 간격이 더 넓다.
이 경우, 도 6을 참조하여 설명한 바와 같이, 도 7의 (a)에 도시된 3D 영상 또는 3D 오브젝트의 깊이감보다 도 7의 (b)에 도시된 3D 영상 또는 3D 오브젝트의 깊이감이 더 크다. 각각의 경우 깊이감을 수치화하고, 이를 각각 a', b'라 표시하는 경우, a<b의 관계에 따라 a'<b'의 관계도 성립하게 됨을 알 수 있다. 즉 돌출되어 보이는 3D 영상을 구현하고자 하는 경우, 좌안 영상(701)과 우안 영상(702) 간의 간격을 넓히거나 좁힘에 따라, 표현되는 깊이감이 더 커지거나 작아질 수 있다.
<도 8 설명>
도 8은 본 발명의 일실시예에 의한 영상표시장치 시스템의 동작 제어방법의 설명에 참조되는 도이다.
본 실시예의 일실시예에 의한 제1영상표시장치(301)는 네트워크 서버(320)를 통하여 제2영상표시장치(302)가 전송한 제2영상표시장치(302)의 사용자 움직임 정보를 수신할 수 있다. 네트워크 서버(320)는 제1영상표시장치(301)와 인터넷 등의 네트워크를 통하여 연결될 수 있도록 구축된 서버이다. 제1영상표시장치(301)는 네트워크 서버(320)와 무선 또는 유선으로 신호를 송수신할 수 있다.
제2영상표시장치(302)는 제2영상표시장치(302)를 사용하는 사용자의 움직임을 판별한다(S801). 본 실시예에 의한 제2영상표시장치(302)는 사용자의 움직임을 판별할 수 있는 모션센서를 구비할 수 있다. 즉 제2영상표시장치(302)는 제2영상표시장치(302)의 사용자가 조작하고 있는 원격제어장치 등에 부착된 모션센서 등을 센싱된 신호를 통하여 제2영상표시장치(302) 사용자의 움직임을 판별할 수 있다.
또한, 제2영상표시장치(302)는 카메라를 구비할 수 있다. 제2영상표시장치(302)는 제2영상표시장치(302)를 사용하는 사용자의 움직임을 카메라를 통하여 촬영하고 촬영한 사용자의 움직임 정보가 포함된 영상신호를 생성할 수 있다.
제2영상표시장치(302)는 판별한 사용자의 움직임 정보가 포함된 신호를 네트워크 서버(320)로 전송한다(S802). 제2영상표시장치(302)는 네트워크 서버(320)와 유선 또는 무선으로 신호를 송수신할 수 있다. 본 실시예에서 제2영상표시장치(302)는 인터넷을 통하여 네트워크 서버(320)로 판별한 사용자 움직임 정보가 포함된 신호를 전송한다. 또한 제2영상표시장치(302)는 네트워크 서버로 제2영상표시장치(302)의 식별정보를 함께 전송할 수 있다. 식별정보는 제2영상표시장치(302)로 부여된 IP주소, 또는 디바이스 시리얼 번호일 수 있다.
본 실시예에 의한 제1영상표시장치(301)는 제1영상표시장치(301)를 사용하는 사용자의 움직임 판별수단을 구비할 수 있다. 일예로, 제1영상표시장치(301)는 제2영상표시장치(302)와 같이 모션센서를 구비할 수 있다. 또한 제1영상표시장치(301)는 제2영상표시장치(302)와 같이 카메라를 구비할 수 있다. 제1영상표시장치(301)는 제1영상표시장치 사용자의 움직임을 판별하고, 판별한 사용자 움직임 정보가 포함된 신호를 네트워크 서버(320)로 전송할 수 있다(S803, S804).
네트워크 서버(320)는 제1,2 영상표시장치(301, 302)가 전송한 신호를 수신할 수 있다. 네트워크 서버(302)는 수신한 신호에 포함된 각 영상표시장치의 식별정보를 이용하여 각 영상표시장치를 사용하는 사용자의 움직임 정보를 구별할 수 있다(S805).
본 실시예의 네트워크 서버(320)는 제1영상표시장치(301)로 제2영상표시장치 사용자의 움직임 정보를 포함하는 신호를 전송한다(S806). 네트워크 서버(320)는 제1,2 영상표시장치가 전송한 신호에 포함된 각 영상표시장치의 식별정보에 기초하여 각 영상표시장치 사용자의 움직임 정보를 구별하고, 제1영상표시장치(301)로 제2영상표시장치 사용자의 움직임 정보를 포함하는 신호를 전송한다.
본 실시예에서, 네트워크 서버(320)는 소정 시간 간격으로 제1영상표시장치(301)로 제2영상표시장치 사용자의 움직임 정보를 포함한 신호를 전송할 수 있다. 또 다른 예에서, 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 제2영상표시장치(302) 사용자의 움직임 정보를 포함한 신호를 수신할 경우 제1영상표시장치(301)로 전송할 수 있다. 또 다른 예에서, 네트워크 서버(320)는 제1영상표시장치(301)가 제1영상표시장치 사용자 움직임 정보를 포함하는 신호를 네트워크 서버(320)로 전송할 경우, 그에 대응하여 제2영상표시장치 사용자 정보가 포함된 신호를 제1영상표시장치(301)로 전송할 수 있다. 또 다른 예에서, 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 움직임 정보의 변이를 판별하고, 변이가 소정 값 이상일 경우 제1영상표시장치(301)로 전송할 수 있다.
또 다른 예에서, 네트워크 서버(320)는 제1,2 영상표시장치가 아닌 다른 영상표시장치에서 전송한 사용자 움직임 정보가 포함된 신호를 수신할 수 있다. 일예로, 네트워크 서버(320)는 제1,2 영상표시장치 외에 제3영상표시장치가 전송한 제3영상표시장치 사용자 움직임 정보가 포함된 신호를 수신할 수 있다. 이 경우, 네트워크 서버(320)는 제1영상표시장치(301)로 제2영상표시장치가 전송한 사용자 움직임 정보 및 제3영상표시장치가 전송한 사용자 움직임 정보가 포함된 신호를 전송할 수 있다.
또 다른 예에서, 네트워크 서버(320)는 배경 영상에 관한 정보를 상기 제2영상표시장치 사용자 정보와 함께 전송할 수 있다. 본 실시예에에 의한 제1영상표시장치(301) 및 제2영상표시장치(302)는 게임 어플리케이션, 회의 어플리케이션, 전화통화 어플리케이션, 소셜 네트워크 어플리케이션 등 네트워크를 통하여 적어도 2개 이상의 영상표시장치의 사용자를 연결하는 어플리케이션을 실행할 수 있다. 네트워크 서버(320)는 영상표시장치에서 실행하고 있는 어플리케이션에 대응하는 배경 영상에 관한 정보가 포함된 신호를 제1영상표시장치(301)로 전송할 수 있다.
제1영상표시장치(301)는 네트워크 서버(320)가 전송한 신호를 수신하고 수신한 신호에 포함된 정보에 기초하여 영상을 표시한다(S807). 보다 구체적으로 제1영상표시장치(301)는 제2영상표시장치(302)를 사용하는 사용자의 움직임 정보에 기초한 3D 오브젝트를 구성하는 복수시점 영상을 표시할 수 있다. 본 실시예에서 제2영상표시장치(302)를 사용하는 사용자의 움직임 정보에 기초한 3D 오브젝트는 제2영상표시장치(302) 사용자를 입체적으로 구현한 3D 오브젝트일 수 있다. 본 실시예의 제1영상표시장치(301)의 사용자가 인식하는 3D 오브젝트는 제2영상표시장치(302)의 사용자 움직임 정보에 따라 변경되는 3D 오브젝트이다. 따라서 제1영상표시장치(301)의 사용자는 제2영상표시장치(302)의 사용자가 제1영상푯장치(301)의 사용자와 동일한 공간에 위치하는 것처럼 인식할 수 있다.
만일 네트워크 서버(320)가 배경 영상에 관한 정보를 전송한 경우, 제1영상표시장치(301)는 제2영상표시장치(302)의 사용자 정보와 함께 상기 배경 영상에 관한 정보를 수신한다. 제1영상표시장치(301)은 수신한 배경 영상에 관한 정보에 기초하여 배경 영상을 표시할 수 있다. 본 실시예에서 배경 영상은 디스플레이부(180) 평면에 위치하는 것처럼 사용자에게 인식되는 평면 영상일 수 있다. 또한 배경 영상은 디스플레이부(180) 평면보다 사용자를 향하여 돌출되어 위치하고 있는 것처럼 인식되는 입체 영상인 3D 영상일 수 있다.
<도 9 설명>
도 9는 본 발명의 일실시예에 의한 영상표시장치 시스템의 동작 제어방법의 설명에 참조되는 도이다.
본 실시예에 의한 제1영상표시장치(301)는 제1영상표시장치(301)에 표시할 배경 영상을 선택할 수 있다. 보다 구체적으로, 제1영상표시장치(301)는 네트워크 서버(320)가 전송할 수 있는 배경 영상에 관한 정보 중 하나를 선택하는 명령을 네트워크 서버(320)로 전송할 수 있다. 네트워크 서버(320)는 제1영상표시장치(301)가 선택한 명령에 대응하는 배경 영상을 제1영상표시장치(301)로 전송할 수 있다. 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 제2영상표시장치(302) 사용자 정보에 기초한 영상 및 네트워크 서버(320)가 전송한 영상 정보에 기초한 영상을 디스플레이부(180)에 함께 표시할 수 있다.
본 실시예에서 제2영상표시장치(302)는 네트워크 서버(320)로 제2영상표시장치 사용자의 움직임 정보를 포함하는 신호를 전송한다(S901). 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 신호에 포함된 제2영상표시장치(302)의 식별정보에 기초하여 제2영상표시장치 사용자의 움직임 정보를 구별할 수 있다.
제1영상표시장치(301)의 사용자는 제1영상표시장치(301)로 배경 선택명령을 입력한다(S902). 제1영상표시장치(301)의 사용자는 원격제어장치 등을 이용하여 제1영상표시장치(301)로 배경 선택명령을 입력할 수 있다. 제1영상표시장치(301)는 디스플레이부(180)에 사용자가 선택할 수 있는 배경 영상에 대응하는 썸네일, 아이콘 등을 표시할 수 있다. 사용자는 제1영상표시장치(301)에 표시된 썸네일, 아이콘 등을 선택하여 제1영상표시장치(301)로 배경 선택명령을 입력할 수 있다.
제1영상표시장치(301)은 사용자가 선택한 배경 선택명령이 포함된 신호를 네트워크 서버(320)로 전송한다(S903). 제1영상표시장치(301)는 인터넷을 이용하여 유선 또는 무선으로 네트워크 서버(320)로 배경 선택명령이 포함된 신호를 전송할 수 있다.
네트워크 서버(320)는 제1영상표시장치(301)가 전송한 배경 선택명령이 포함된 신호를 수신한다. 또한, 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 사용자의 움직임 정보가 포함된 신호를 수신한다. 네트워크 서버(320)는 수신한 신호들에 기초하여 제2영상표시장치 사용자의 움직임 정보 및 배경 선택명령에 대응하는 배경 정보를 포함하는 신호를 생성한다(S904).
네트워크 서버(320)는 움직임 정보 및 배경 정보가 포함된 신호를 제1영상표시장치(301)로 전송한다(S905). 네트워크 서버(320)는 제1영상표시장치(301)로 인터넷을 이용하여 신호를 전송할 수 있다. 네트워크 서버(320)는 제1영상표시장치(301)가 전송한 제1영상표시장치(301) 식별정보에 기초하여 제1영상표시장치(301)로 신호를 전송할 수 있다.
제1영상표시장치(301)는 네트워크 서버(320)가 전송한 신호를 수신하고 그에 기초한 영상을 디스플레이부에 표시한다(S906). 보다 구체적으로 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 신호에 포함된 배경 영상에 관한 정보에 기초하여 디스플레이부에 배경 영상을 표시할 수 있다. 또한, 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 신호에 포함된 제2영상표시장치 사용자 움직임 정보에 기초하여 디스플레이부에 제2영상표시장치(302)의 사용자에 대응하는 복수시점 영상을 표시할 수 있다. 사용자는 제1영상표시장치(301)의 디스플레이부에 표시된 복수시점 영상을 좌안 또는 우안을 통해 시청하면서 제2영상표시장치의 사용자에 대응하는 3D 오브젝트를 인식한다.
또 다른 실시예에서, 제1영상표시장치(301)은 제1영상표시장치(301)에 저장되어 있거나 제1영상표시장치(301)와 연결된 외부장치에서 제공된 영상신호에 기초한 배경 영상을 표시할 수 있다. 또한, 제1영상표시장치(301)은 제1영상표시장치(310)에 저장되어 있거나 제1영상표시장치(301)와 연결된 외부장치에서 제공된 영상신호를 네트워크 서버(320)로 전송할 수 있다. 네트워크 서버(320)는 제1영상표시장치(301)가 전송한 배경 영상을 구성하는 영상신호를 제2영상표시장치(302)로 전송할 수 있다. 제2영상표시장치(302)는 네트워크 서버(320)를 통하여 제1영상표시장치(301)가 전송한 영상신호를 수신하고 수신한 영상신호에 기초한 배경 영상을 표시할 수 있다.
또 다른 실시예에서, 제1영상표시장치(301)는 제1영상표시장치(301)와 연결된 외부장치에서 제공된 영상신호 또는 네트워크 서버(320)가 제1영상표시장치(301)로 전송한 영상신호를 저장할 수 있다. 제1영상표시장치(301)는 저장한 영상신호에 기초한 배경 영상을 표시할 수 있다. 제1영상표시장치(301)의 사용자는 제1영상표시장치(301)가 표시하는 배경 영상을 제1영상표시장치(301)에 저장된 영상신호 중 하나의 영상신호에 기초한 배경 영상으로 변경할 수 있다.
<도 10 설명>
도 10은 본 발명의 일실시예에 의한 영상표시장치에 포함된 제1영상표시장치(301)의 동작 제어방법의 설명에 참조되는 도이다.
도 10에 도시된 제1영상표시장치(301)는 네트워크 서버(320)를 통하여 수신한 신호에 기초한 영상을 디스플레이부에 표시한다. 제1영상표시장치(301)의 사용자는 제1영상표시장치(301)의 디스플레이부에 표시된 화면을 시청한다. 제1영상표시장치(301)는, 디스플레이부 평면(D1)보다 사용자를 향하여 돌출되어 위치하고 있는 것처럼 인식될 수 있는 제1,2 3D 오브젝트(1001, 1002)를 구성하는 복수시점 영상을 디스플레이부 평면(D1)에 표시할 수 있다.
사용자는 제1영상표시장치(301)가 디스플레이부 평면(D1)에 표시한 복수시점 영상을 좌안과 우안을 통하여 시청할 수 있다. 사용자는 복수시점 영상을, 사용자를 향하여 디스플레이부 평면(D1)에서 각각 a 및 b만큼 돌출되어 위치하고 있는 3D 오브젝트(1001, 1002)로 인식하게 된다.
본 실시예에서 사용자에게 인식되는 3D 오브젝트(1001, 1002)는 제1영상표시장치(301)와 네트워크 서버(320)를 통하여 연결된 제2영상표시장치(302) 및 제3영상표시장치가 전송한 사용자 정보에 대응하는 3D 오브젝트이다. 보다 구체적으로, 제2영상표시장치(302)가 전송한 제2영상표시장치 사용자 정보에 대응하는 제1 3D 오브젝트(1001)의 모양은 제2영상표시장치(302)의 사용자의 움직임에 대응하도록 변경될 수 있다. 또한, 제3영상표시장치가 전송한 제3영상표시장치 사용자 정보에 대응하는 제2 3D 오브젝트(1002)의 모양은 제3영상표시장치의 사용자의 움직임에 대응하도록 변경될 수 있다.
본 실시예에서, 제2영상표시장치(302)는 제2영상표시장치를 사용하는 사용자의 움직임을 카메라를 통하여 촬영한다. 보다 구체적으로, 제2영상표시장치(302)는 제2영상표시장치를 사용하는 사용자의 움직임을 적어도 2개의 카메라를 통하여 촬영한다. 제2영상표시장치(302)는 적어도 2개의 카메라를 통하여 촬영한 사용자의 움직임 영상을 기초로 3D 영상신호를 생성한다. 제2영상표시장치(302)는 생성한 3D 영상신호를 네트워크 서버(320)로 전송한다.
본 실시예에서, 제3영상표시장치는 제3영상표시장치를 사용하는 사용자의 움직임을 카메라를 통하여 촬영한다. 보다 구체적으로, 제3영상표시장치는 제3영상표시장치를 사용하는 사용자의 움직임을 적어도 2개의 카메라를 통하여 촬영한다. 제3영상표시장치는 적어도 2개의 카메라를 통하여 촬영한 사용자의 움직임 영상을 기초로 3D 영상신호를 생성한다. 제3영상표시장치는 생성한 3D 영상신호를 네트워크 서버(320)로 전송한다.
네트워크 서버(320)는 제2영상표시장치(302) 및 제3영상표시장치가 전송한 3D 영상신호를 수신한다. 네트워크 서버(320)는 수신한 3D 영상신호를 합성하여 하나의 화면을 통하여 인식될 수 있는 제1 3D 오브젝트(1001) 및 제2 3D 오브젝트(1002)를 포함하는 3D 영상신호를 생성한다. 네트워크 서버(320)는 생성한 3D 영상신호를 제1영상표시장치(301)로 전송한다. 제1영상표시장치(301)는 수신한 3D 영상신호에 기초한 복수시점 영상을 디스플레이부 평면(D1)에 표시한다.
또 다른 예에서, 네트워크 서버(320)는 제2영상표시장치(302) 및 제3영상표시장치가 전송한 3D 영상신호를 제1영상표시장치(301)로 포워딩할 수 있다. 제1영상표시장치(301)는 수신한 3D 영상신호를 합성하여 하나의 화면을 통하여 인식될 수 있는 제1 3D 오브젝트(1001) 및 제2 3D 오브젝트(1002)를 포함하는 3D 영상신호로 변환할 수 있다. 제1영상표시장치(301)는 변환한 3D 영상신호에 기초한 복수시점 영상을 디스플레이부 평면(D1)에 표시한다.
제1영상표시장치(301)의 사용자(1003)는 제1 3D 오브젝트(1001) 및 제2 3D 오브젝트(1002)를 통하여 각각 제2영상표시장치(302) 사용자의 움직임 및 제3영상표시장치 사용자의 움직임을 판별할 수 있다. 제1영상표시장치(301)의 사용자(1003)는 제1 3D 오브젝트(1001) 및 제2 3D 오브젝트(1002)의 표시위치를 조절할 수 있다. 일예로, 제1영상표시장치(301)의 사용자(1003)는 제1 오브젝트(1001)와 제2 3D 오브젝트(1002)의 표시위치를 바꿀 수 있다. 또한, 제1영상표시장치(301)의 사용자는 제1 오브젝트(1001)와 제2 3D 오브젝트(1002)의 깊이, 크기 등을 변경할 수 있다.
<도 11 설명>
도 11은 본 발명의 일실시예에 의한 영상표시장치 및 네트워크 서버를 포함하는 영상표시장치 시스템의 설명에 참조되는 도이다.
도 11에 도시된 바와 같이, 본 발명의 일실시예에 의한 영상표시장치 시스템은 네트워크 서버(320) 및 상기 네트워크 서버(320)를 통하여 3D 영상신호 포함하는 신호를 송수신할 수 있는 적어도 2개의 영상표시장치(301, 302, 303, 304)를 포함한다. 본 실시예에 의한 영상표시장치(301, 302, 303, 304)는 네트워크 서버(320)로 각 영상표시장치 사용자의 움직임 정보를 포함하는 신호를 전송할 수 있다.
네트워크 서버(320)는 연결된 영상표시장치(301, 302, 303, 304)에서 전송한 신호를 타 영상표시장치로 전송할 수 있다. 일실시예에서, 네트워크 서버(320)는 제2,3,4 영상표시장치(302, 303, 304)에서 전송한 신호 중 각 영상표시장치의 사용자 움직임 정보를 포함하는 3D 영상신호를 제1영상표시장치(301)로 포워딩할 수 있다.
또 다른 실시예에서, 네트워크 서버(320)는 제2,3,4 영상표시장치(302, 303, 304)에서 전송한 신호에 포함된 각 영상표시장치의 사용자 움직임 정보를 기초로 하는 3D 영상신호를 생성하여 제1영상표시장치(301)로 전송할 수 있다. 보다 구체적으로, 네트워크 서버(320)는 제2,3,4 영상표시장치(302, 303, 304)의 사용자에 대응하는 3D 오브젝트를 포함하는 화면을 구성하는 3D 영상신호를 생성하여 제1영상표시장치(301)로 전송할 수 있다.
본 실시예에 의한 영상표시장치 시스템에 포함되는 영상표시장치는 게임 어플리케이션 등 타 영상표시장치의 사용자와 해당 영상표시장치의 사용자를 연결하는 네트워크 어플리케이션을 실행할 수 있다. 네트워크 어플리케이션의 실행화면은 네트워크 어플리케이션을 실행하는 각 영상표시장치에 동일하게 표시될 수 있다. 즉, 네트워크 서버(320)에 연결된 영상표시장치(301, 302, 303, 304)는 동일한 배경 영상을 표시할 수 있다.
또 다른 예에서, 네트워크 어플리케이션의 실행화면은 네트워크 어플리케이션을 실행하는 각 영상표시장치별로 상이하게 표시될 수 있다. 즉, 네트워크 서버(320)에 연결된 영상표시장치(301, 302, 303, 304)는 동일한 공간을 각각 다른 시점에서 보고 있는 것처럼 각 영상표시장치의 사용자가 인식하도록 배경 영상을 표시할 수 있다.
네트워크 서버(320)는 연결된 영상표시장치(301, 302, 303, 304)로 배경 영상을 구성하는 영상신호를 전송할 수 있다. 영상표시장치(301, 302, 303, 304)는 네트워크 서버(320)가 전송한 영상신호를 수신하여 배경 영상을 표시할 수 있다. 또 다른 실시예에서 영상표시장치(301, 302, 303, 304)는 각 영상표시장치에 저장된 영상신호 또는 각 영상표시장치와 연결된 외부장치에서 해당 영상표시장치로 제공하는 영상신호에 기초하여 배경 영상을 표시할 수 있다.
영상표시장치(301, 302, 303, 304)는 네트워크 서버(320)에서 전송할 수 있는 배경 영상을 구성하는 영상신호를 선택할 수 있다. 네트워크 서버(320)는 각 영상표시장치(301, 302, 303, 304)로 각 영상표시장치가 선택한 명령에 대응하는 영상신호를 전송할 수 있다.
<도 12 설명>
도 12는 본 발명의 일실시예에 의한 영상표시장치에 포함된 제1영상표시장치(301)의 동작 제어방법의 설명에 참조되는 도이다.
본 발명의 일실시예에 의한 제1영상표시장치(301)는 디스플레이부 평면에 배경 영상을 표시할 수 있다. 보다 구체적으로 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 영상신호에 기초하여 배경 영상을 표시할 수 있다. 네트워크 서버(320)가 전송한 영상신호는 사용자가 선택한 배경 영상에 대응하는 영상신호일 수 있다.
또한, 제1영상표시장치(301)는 제1영상표시장치(301)에 저장된 영상신호 또는 외부장치를 통하여 제1영상표시장치(301)로 제공되는 영상신호에 기초하여 배경 영상을 표시할 수 있다. 사용자는 제1영상표시장치(301)에 저장된 영상신호 또는 외부장치를 통하여 제1영상표시장치(301)로 제공되는 영상신호 중 디스플레이부에 표시하고 싶은 배경 영상에 대응하는 영상신호를 선택하는 명령을 제1영상표시장치(301)로 입력할 수 있다.
제1영상표시장치(301)는 사용자(1003)가 입력한 선택명령에 대응하도록 디스플레이부 평면에 표시하는 배경 영상을 변경할 수 있다. 보다 구체적으로, 제1영상표시장치(301)은, 도 12a에 도시된 바와 같이, 디스플레이부 평면(D2)에 표시되고 있는 배경 영상을, 도 12b에 도시된 바와 같이, 디스플레이부 평면(D3)에 표시되고 있는 배경 영상으로 변경할 수 있다.
또 다른 실시예에서, 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 영상신호에 대응하도록 디스플레이부 평면에 표시되고 있는 배경 영상을 변경할 수 있다. 일예로, 제2영상표시장치(302)가 네트워크 서버(320)로 소정 배경 영상을 구성하는 영상신호를 전송할 경우, 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 영상신호를 수신한다. 네트워크 서버(320)는 제2영상표시장치(302)가 전송한 영상신호를 제1영상표시장치(301)로 포워딩할 수 있다. 제1영상표시장치(301)는 네트워크 서버(320)가 포워딩한 영상신호를 수신하고 수신한 신호에 기초한 배경 영상을 표시한다. 본 실시예에서 제1영상표시장치(301)가 수신한 영상신호는 제2영상표시장치(302)가 전송한 소정 배경 영상을 구성하는 영상신호이다. 따라서 제1영상표시장치(301)는 상기 소정 배경 영상을 제1영상표시장치(301)의 배경 영상으로 표시한다.
<도 13 설명>
도 13은 본 발명의 일실시예에 의한 영상표시장치에 포함된 제1영상표시장치(301)의 동작 제어방법의 설명에 참조되는 도이다.
본 실시예에서 제1영상표시장치(301)는 3D 오브젝트를 포함하는 배경 영상을 표시할 수 있다. 보다 구체적으로, 제1영상표시장치(301)는 디스플레이부 평면(D4)에서 사용자를 향하여 c만큼 돌출되어 위치하고 있는 것처럼 인식되는 제3 3D 오브젝트(1005)를 구성하는 복수시점 영상을 디스플레이부 평면(D4)에 표시한다. 사용자는 디스플레이부 평면(D4)에 표시된 제3 3D 오브젝트(1005)를 구성하는 복수시점 영상을 각각 좌안 및 우안을 통하여 시청하고 제3 3D 오브젝트(1005)를 인식한다.
보다 구체적으로, 제1영상표시장치(301)는 네트워크 서버(320)가 전송한 배경 영상을 구성하는 3D 영상신호에 기초하여 배경 영상을 디스플레이부 평면(D4)에 표시할 수 있다. 또한, 네트워크 서버(320)는 타 영상표시장치가 전송한 사용자에 대응하는 3D 오브젝트 및 배경 영상에 포함되는 3D 오브젝트가 한 화면에 포함될 수 있도록 3D 영상신호를 변환 또는 생성하여 제1영상표시장치(301)로 전송할 수 있다.
제1영상표시장치(301)의 사용자는 제1영상표시장치(301)를 통하여 인식할 수 있는 3D 오브젝트(1001, 1002, 1003)의 표시위치 등을 변경할 수 있다. 일예로, 제1영상표시장치(301)의 사용자는 제2영상표시장치(302) 사용자에 대응하는 제1 3D 오브젝트(1001)와 제3영상표시장치(303) 사용자에 대응하는 제2 3D 오브젝트(1002)의 표시위치를 바꿀 수 있다. 또한, 제1영상표시장치(301)의 사용자는 제3 3D 오브젝트(1005)의 깊이를 변경할 수 있다.
본 실시예에서, 배경 영상에 포함되는 3D 오브젝트는 제1영상표시장치(301)에서 실행하고 있는 어플리케이션의 실행 영상에 포함되는 3D 오브젝트일 수 있다. 만일, 제1영상표시장치(301)에서 실행하고 있는 어플리케이션이 카드 게임 어플리케이션일 경우, 배경 영상에 포함되는 3D 오브젝트는 카드 모양의 3D 오브젝트일 수 있다. 또한, 타 영상표시장치의 사용자에 대응하는 3D 오브젝트는 카드 게임에 동참하고 있는 사용자 모양일 수 있다. 따라서 타 영상표시장치의 사용자에 대응하는 3D 오브젝트 및 카드 모양의 3D 오브젝트를 인식하는 제1영상표시장치(301)의 사용자(1003)는 타 영상표시장치의 사용자와 카드 게임을 한 공간에서 하고 있는 것처럼 인식하게 된다.
<도 14 설명>
도 14는 본 발명의 일실시예에 의한 영상표시장치에 포함된 제1영상표시장치(301)의 동작 제어방법의 설명에 참조되는 도이다.
본 실시예에서, 제1영상표시장치(301)의 사용자는 제1영상표시장치(301)에서 표시하고 있는 3D 오브젝트를 사진 등의 평면 영상으로 저장할 수 있다. 즉, 제1영상표시장치(301)의 사용자는 제1영상표시장치(301)를 통하여 인식할 수 있는 3D 오브젝트를 사진으로 촬영한 것처럼 평면 영상으로 저장할 수 있다.
일예로, 도 13에 도시된 바와 같이 3D 오브젝트를 구성하는 복수시점 영상에 표시된 제1영상표시장치(301)로 제1영상표시장치(301)의 사용자가 사진저장 명령을 입력할 수 있다. 이 경우 제1영상표시장치(301)는, 도 14에 도시된 바와 같이, 제1영상표시장치(301)의 사용자에게 보여지고 있는 영상을 평면 영상으로 변환하여 저장할 수 있다. 평면 영상은, 도 13에 도시된 바와 같이 사용자에게 인식되는 제1,2,3 3D 오브젝트(1001, 1002, 1005)를 평면 오브젝트(1001b, 1002b, 1005b)로 변환한 영상이다.
또 다른 실시예에서, 제1영상표시장치(301)는 사용자(1003)에게 보여지고 있는 영상을 입체 정지영상을 저장할 수 있다. 입체 영상은, 도 13에 도시된 바와 같이 제1,2,3 3D 오브젝트(1001, 1002, 1005)를 포함하는 영상이다. 제1영상표시장치(301)의 사용자(1003)가 저장된 입체 영상 재생명령을 제1영상표시장치(301)로 입력한 경우, 제1영상표시장치(301)는 저장된 입체 영상을 재생한다. 제1영상표시장치(301)의 사용자(1003)는 타 영상표시장치의 사용자에 대응하는 3D 오브젝트(1001, 1002)를 및 배경 영상에 포함된 3D 오브젝트로 이루어진 입체 영상을 저장한 후에 재생할 수 있다.
본 발명에 따른 영상표시장치 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 영상표시장치
110 : 방송신호 수신부
120 : 네트워크 인터페이스부
130 : 외부장치 입출력부
140 : 원격제어장치 인터페이스부
150 : 저장부
170 : 제어부
180 : 디스플레이부
185 : 음향출력부
200 : 원격제어장치
210 : 방송국
220 : 네트워크 서버
230 : 외부장치

Claims (15)

  1. 사용자의 움직임에 관한 정보를 포함하는 동적정보를 생성하는 단계;
    상기 동적정보를 적어도 2개 이상의 영상표시장치에서 전송한 동적정보를 합성하는 서버로 전송하는 단계;
    상기 서버에서 전송한 타 영상표시장치의 사용자의 움직임에 대한 동적정보를 포함하는 신호를 수신하는 단계; 및
    상기 수신된 신호에 기초하여 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 단계를 포함하는 영상표시장치의 제어방법.
  2. 제 1항에 있어서,
    상기 신호 수신단계에서 수신한 신호는 상기 서버가 전송한 배경 영상신호에 관한 정보를 더 포함하며;
    상기 적어도 2개의 복수시점 영상을 표시하는 단계는 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 상기 배경 영상신호에 기초한 배경영상과 함께 표시하는 것을 특징으로 하는 영상표시장치 제어방법.
  3. 제 2항에 있어서,
    상기 서버가 전송할 수 있는 배경 영상신호를 선택할 수 있는 명령이 입력되는지 여부를 판별하는 단계;
    상기 판별단계에서 입력된 것으로 판별한 배경선택명령을 상기 서버로 전송하는 단계를 더 포함하며,
    상기 서버가 전송한 배경영상신호는 상기 배경선택명령에 대응하는 것을 특징으로 하는 영상표시장치 제어방법.
  4. 제 1항에 있어서,
    상기 신호 수신단계는,
    상기 동적정보의 수신요청명령이 입력되는지 여부를 판별하는 단계;
    상기 판별단계에서 입력된 것으로 판별한 상기 수신요청명령이 포함된 신호를 상기 서버로 전송하는 단계를 더 포함하며,
    상기 수신 신호는 상기 전송한 수신요청명령에 대응하여 상기 서버가 전송한 신호인 것을 특징으로 하는 영상표시장치 제어방법.
  5. 제 1항에 있어서,
    상기 서버로 상기 동적정보를 전송하는 단계는,
    상기 배경 영상신호를 상기 서버로 전송하라는 명령이 입력되는지 여부를 판별하는 단계;
    상기 판별단계에서 입력된 것으로 판별한 전송명령에 대응하는 배경 영상신호를 상기 서버로 전송하는 단계를 더 포함하며,
    상기 신호 수신단계에서 수신한 신호는 상기 서버에서 상기 배경 영상신호와 상기 타 영상표시장치 사용자의 동적정보를 합성한 신호이고,
    상기 적어도 2개의 복수시점 영상을 표시하는 단계는 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 상기 배경 영상신호에 기초한 배경영상과 함께 표시하는 것을 특징으로 하는 영상표시장치 제어방법.
  6. 제 1항에 있어서,
    상기 영상표시장치 제어방법은,
    상기 영상표시장치에 저장된 배경 영상신호를 선택하는 명령이 입력되는지 여부를 판별하는 단계;
    상기 판별단계에서 입력된 것으로 판별한 배경 선택명령에 따라 상기 영상표시장치에 저장된 배경 영상신호 중 적어도 하나를 선택하는 단계를 더 포함하며,
    상기 적어도 2개의 복수시점 영상을 표시하는 단계는 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 상기 선택된 배경 영상신호에 기초한 배경영상과 함께 표시하는 것을 특징으로 하는 영상표시장치 제어방법.
  7. 제 1항에 있어서,
    상기 영상표시장치 제어방법은,
    타 영상표시장치 선택명령이 입력되는지 여부를 판별하는 단계; 및
    상기 선택명령에 대응하는 타 영상표시장치 식별정보를 상기 서버로 전송하는 단계를 더 포함하며;
    상기 신호 수신단계에서 수신한 신호는 상기 식별정보에 대응하는 타 영상표시장치의 사용자의 동적정보를 포함하는 신호인 것을 특징으로 하는 영상표시장치 제어방법.
  8. 제 7항에 있어서,
    상기 영상표시장치 제어방법은 상기 서버로 상기 영상표시장치의 식별정보를 전송하는 단계를 더 포함하며;
    상기 영상표시장치의 식별정보 및 상기 타 영상표시장치의 식별정보는 상이한 것을 특징으로 하는 영상표시장치 제어방법.
  9. 타 영상표시 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 디스플레이부;
    적어도 2개 이상의 영상표시장치에서 전송한 동적정보를 합성하는 서버에서 전송한 타 영상표시장치 사용자의 동적정보를 포함하는 신호를 수신하는 네트워크 인터페이스 부; 및
    상기 수신된 신호에 기초하여 적어도 2개의 복수시점 영상을 표시하도록 상기 디스플레이부로 영상신호를 출력하는 제어부를 포함하는 영상표시장치.
  10. 제 9항에 있어서,
    상기 네트워크 인터페이스부에서 수신한 신호는 상기 서버에서 출력할 수 있는 배경영상신호에 관한 정보를 더 포함하며;
    상기 제어부는 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상과 상기 배경영상신호에 기초한 배경영상이 상기 디스플레이부에 함께 표시되도록 상기 디스플레이부로 영상신호를 출력하는 것을 특징으로 하는 영상표시장치.
  11. 제 10항에 있어서,
    상기 영상표시장치로 명령을 입력할 수 있는 사용자 입력부를 더 포함하며;
    상기 제어부는 상기 서버에서 출력할 수 있는 배경영상신호를 선택할 수 있는 명령이 상기 사용자 입력부를 통하여 입력되는지 여부를 판별하고, 입력된 것으로 판별한 배경선택명령을 상기 서버로 전송하며,
    상기 서버가 전송한 배경영상신호는 상기 배경선택명령에 대응하는 것을 특징으로 하는 영상표시장치.
  12. 제 10항에 있어서,
    상기 네트워크 인터페이스부를 통하여 상기 영상표시장치가 수신한 배경 영상신호를 저장할 수 있는 저장부를 더 포함하는 것을 특징으로 하는 영상표시장치.
  13. 제9항에 있어서,
    상기 제어부는 상기 영상표시장치 사용자 움직임에 대한 동적정보를 생성하고, 상기 생성한 동적정보가 상기 서버로 전송되도록 상기 네트워크 인터페이스부를 제어하며,
    상기 서버는 상기 영상표시장치가 전송한 동적정보를 타 영상표시장치로 전송하는 것을 특징으로 하는 영상표시장치.
  14. 적어도 2개의 영상표시장치; 및
    상기 적어도 2개의 영상표시장치와 연결되는 서버를 포함하는 영상표시장치 네트워크 시스템에 있어서,
    제 1 영상표시장치가 제 1 영상표시장치의 사용자의 움직임에 관한 정보를 포함하는 동적정보를 생성하는 단계;
    상기 제 1 영상표시장치가 상기 서버로 상기 생성한 동적정보를 전송하는 단계;
    상기 서버는 제 2 영상표시장치 사용자의 움직임에 관한 정보를 포함하는 동적정보를 상기 제 1 영상표시장치로 전송하는 단계;
    제 1 영상표시장치는 상기 서버에서 전송한 상기 제 2 영상표시장치의 사용자의 움직임에 관한 정보를 포함하는 동적정보를 수신하는 단계;
    상기 제 1 영상표시장치는 상기 수신된 신호에 기초하여 상기 타 영상표시장치 사용자에 대응하는 3D 오브젝트를 구성하는 적어도 2개의 복수시점 영상을 표시하는 단계를 포함하는 영상표시장치의 시스템의 제어방법.
  15. 제 14항에 있어서,
    상기 제 1 영상표시장치 및 상기 제 2 영상표시장치가 상기 서버로 각 영상표시장치의 식별정보를 전송하는 단계를 더 포함하며;
    상기 서버는 상기 식별정보에 기초하여 상기 제1 영상표시장치로 상기 제 2 영상표시장치의 사용자 움직임에 관한 정보를 포함하는 동적정보를 전송하는 것을 특징으로 하는 영상표시장치 시스템의 제어방법.
KR1020100035986A 2010-04-19 2010-04-19 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법 KR20110116525A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100035986A KR20110116525A (ko) 2010-04-19 2010-04-19 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
EP11163014.1A EP2381692A3 (en) 2010-04-19 2011-04-19 Image display apparatus and method for controlling the same
CN201110156218.2A CN102223555B (zh) 2010-04-19 2011-04-19 图像显示装置及其控制方法
US13/090,008 US20110254837A1 (en) 2010-04-19 2011-04-19 Image display apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100035986A KR20110116525A (ko) 2010-04-19 2010-04-19 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법

Publications (1)

Publication Number Publication Date
KR20110116525A true KR20110116525A (ko) 2011-10-26

Family

ID=44200389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100035986A KR20110116525A (ko) 2010-04-19 2010-04-19 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법

Country Status (4)

Country Link
US (1) US20110254837A1 (ko)
EP (1) EP2381692A3 (ko)
KR (1) KR20110116525A (ko)
CN (1) CN102223555B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142409A1 (ko) * 2013-03-12 2014-09-18 엘지전자 주식회사 영상 표시장치 및 그것의 비디오 스트림 제어방법
KR20160071835A (ko) * 2014-12-12 2016-06-22 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101594048B1 (ko) * 2009-11-09 2016-02-15 삼성전자주식회사 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치
US20130162523A1 (en) * 2011-12-27 2013-06-27 Advanced Micro Devices, Inc. Shared wireless computer user interface
WO2013111277A1 (ja) 2012-01-25 2013-08-01 三菱電機株式会社 駆動装置一体型回転電機
US9639959B2 (en) 2012-01-26 2017-05-02 Qualcomm Incorporated Mobile device configured to compute 3D models based on motion sensor data
JP2014042231A (ja) * 2012-07-26 2014-03-06 Brother Ind Ltd プログラム、通信方法、及び通信装置
US20140267222A1 (en) * 2013-03-12 2014-09-18 Nvidia Corporation Efficient autostereo support using display controller windows
US9613575B2 (en) * 2014-03-17 2017-04-04 Shenzhen China Star Optoelectronics Technology Co., Ltd Liquid crystal display device and method for driving the liquid crystal display device
KR20150137452A (ko) * 2014-05-29 2015-12-09 삼성전자주식회사 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치
CN104243955B (zh) * 2014-09-09 2017-05-03 武汉恩倍思科技有限公司 远程3d数据图像的控制方法
KR20170025400A (ko) * 2015-08-28 2017-03-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10653957B2 (en) 2017-12-06 2020-05-19 Universal City Studios Llc Interactive video game system
CN107959846B (zh) * 2017-12-06 2019-12-03 苏州佳世达电通有限公司 影像显示设备及影像显示方法
CN109785445B (zh) * 2019-01-22 2024-03-08 京东方科技集团股份有限公司 交互方法、装置、系统及计算机可读存储介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2656787B2 (ja) * 1988-03-31 1997-09-24 日本電信電話株式会社 3次元画像通信装置
US5588139A (en) * 1990-06-07 1996-12-24 Vpl Research, Inc. Method and system for generating objects for a multi-person virtual world using data flow networks
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JP3745802B2 (ja) * 1995-10-13 2006-02-15 株式会社日立製作所 画像生成/表示装置
US6308565B1 (en) * 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
JP3570813B2 (ja) * 1996-03-07 2004-09-29 株式会社ナムコ ゲーム装置
US20010055039A1 (en) * 1996-09-30 2001-12-27 Koichi Matsuda Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
JPH10341374A (ja) * 1997-04-07 1998-12-22 Sony Corp 画像処理方法及び画像処理装置
JP3817020B2 (ja) * 1997-05-23 2006-08-30 ▲舘▼ ▲すすむ▼ 仮想空間における画像生成方法及び装置並びに撮像装置
JP2001014282A (ja) * 1999-06-29 2001-01-19 Sony Corp 情報処理装置および方法、並びに媒体
US6798407B1 (en) * 2000-11-28 2004-09-28 William J. Benman System and method for providing a functional virtual environment with real time extracted and transplanted images
EP1371019A2 (en) * 2001-01-26 2003-12-17 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
JP3644502B2 (ja) * 2001-02-06 2005-04-27 ソニー株式会社 コンテンツ受信装置およびコンテンツ呈示制御方法
US6361173B1 (en) * 2001-02-16 2002-03-26 Imatte, Inc. Method and apparatus for inhibiting projection of selected areas of a projected image
JP4173440B2 (ja) * 2001-05-29 2008-10-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視覚通信信号
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
US6583808B2 (en) * 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
BR0309411A (pt) * 2002-04-22 2005-02-01 Nokia Corp Método para apresentar o conteúdo associado com o programa de radiofusão no terminal do usuário de um sistema de telecomunicação, sistema de mìdia, terminal do usuário, e, servidor
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
AU2002952874A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd 3D image synthesis from depth encoded source view
US7084876B1 (en) * 2002-12-07 2006-08-01 Digenetics, Inc. Method for presenting a virtual reality environment for an interaction
US8495678B2 (en) * 2002-12-10 2013-07-23 Ol2, Inc. System for reporting recorded video preceding system failures
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7787009B2 (en) * 2004-05-10 2010-08-31 University Of Southern California Three dimensional interaction with autostereoscopic displays
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
KR101424942B1 (ko) * 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
JP4670303B2 (ja) * 2004-10-06 2011-04-13 ソニー株式会社 画像処理方法及び画像処理装置
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
WO2008124820A1 (en) * 2007-04-10 2008-10-16 Reactrix Systems, Inc. Display using a three dimensional vision system
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
US8325214B2 (en) * 2007-09-24 2012-12-04 Qualcomm Incorporated Enhanced interface for voice and video communications
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US20090237564A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Interactive immersive virtual reality and simulation
US20090251466A1 (en) * 2008-04-07 2009-10-08 Cooper James W Methods and Apparatus for Displaying Three-Dimensional Images for Analysis
PL2299726T3 (pl) * 2008-06-17 2013-01-31 Huawei Device Co Ltd Sposób, urządzenie i system komunikacji wideo
CN101610421B (zh) * 2008-06-17 2011-12-21 华为终端有限公司 视频通讯方法、装置及系统
KR20100003913A (ko) * 2008-07-02 2010-01-12 삼성전자주식회사 3차원 영상 디스플레이를 이용한 커뮤니케이션 방법 및장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142409A1 (ko) * 2013-03-12 2014-09-18 엘지전자 주식회사 영상 표시장치 및 그것의 비디오 스트림 제어방법
KR20160071835A (ko) * 2014-12-12 2016-06-22 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법

Also Published As

Publication number Publication date
EP2381692A3 (en) 2014-04-16
US20110254837A1 (en) 2011-10-20
CN102223555A (zh) 2011-10-19
EP2381692A2 (en) 2011-10-26
CN102223555B (zh) 2015-03-18

Similar Documents

Publication Publication Date Title
KR20110116525A (ko) 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US8896672B2 (en) Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same
US8988498B2 (en) Method for controlling operations of image display apparatus and shutter glasses used for the image display apparatus
KR20110086415A (ko) 3d 영상의 화질을 설정할 수 있는 영상표시장치 및 그 동작 제어방법
KR101661956B1 (ko) 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
KR101655804B1 (ko) 3d 썸네일을 표시하는 영상표시장치 및 그 동작 제어방법
EP2574068A2 (en) Image display apparatus and method for operating the same
KR101699740B1 (ko) 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법
KR101626310B1 (ko) 영상표시장치 및 그 동작방법
KR101668245B1 (ko) 원격제어장치로 제어할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110092573A (ko) 영상표시장치 및 그 동작방법
KR101698787B1 (ko) 영상표시장치 및 그 동작방법
KR20110094740A (ko) 아날로그 시계 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
KR101657560B1 (ko) 3d 오브젝트를 포함하는 채널 편집윈도우를 제공하는 영상표시장치 및 그 동작방법
KR20110088952A (ko) 썸네일 영상을 포함하는 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
KR101716171B1 (ko) 영상표시장치 및 그 동작방법
KR20110076324A (ko) 영상표시장치 및 그 제어방법
KR20110128535A (ko) 영상표시장치 및 그 동작방법
KR101638541B1 (ko) 영상표시장치 및 그 동작방법
KR101626304B1 (ko) 영상표시장치 및 그 제어방법
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법
KR20110086414A (ko) 썸네일 영상을 포함하는 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110092077A (ko) 2d 영상신호에 기초하여 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110106705A (ko) 영상표시장치 및 그 동작방법
KR20110138676A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application