KR20110100119A - 영상 시스템에서 영상 제공 장치 및 방법 - Google Patents

영상 시스템에서 영상 제공 장치 및 방법 Download PDF

Info

Publication number
KR20110100119A
KR20110100119A KR1020100062565A KR20100062565A KR20110100119A KR 20110100119 A KR20110100119 A KR 20110100119A KR 1020100062565 A KR1020100062565 A KR 1020100062565A KR 20100062565 A KR20100062565 A KR 20100062565A KR 20110100119 A KR20110100119 A KR 20110100119A
Authority
KR
South Korea
Prior art keywords
image
user
images
multiplexed
time
Prior art date
Application number
KR1020100062565A
Other languages
English (en)
Other versions
KR101386031B1 (ko
Inventor
엄기문
이현
이광순
방건
허남호
이수인
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20110100119A publication Critical patent/KR20110100119A/ko
Application granted granted Critical
Publication of KR101386031B1 publication Critical patent/KR101386031B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은, 영상 시스템에서 다양한 형태의 영상들을 사용자들이 시청 가능하도록 각 영상을 생성하는 다중 소스(source)로부터 다중 영상을 디스플레이하는 다중 영상 제공 장치 및 방법에 관한 것으로, 복수의 사용자들에게 제공하고자 하는 다양한 형태의 영상을 동기화하여 각각 생성하고, 상기 각각 생성된 영상을 각각 시분할하고, 상기 각각 시분할된 영상을 다중화하고, 상기 다중화된 다중 영상을 동시에 다시점으로 디스플레이하며, 상기 복수의 사용자들에 대한 사용자 트래킹(tracking)을 통해 상기 다중 영상에서 각 사용자들이 제공받고자 하는 영상만을 상기 각 사용자들에게 제공한다.

Description

영상 시스템에서 영상 제공 장치 및 방법{Apparatus and method for providing image in an image system}
본 발명은 영상 시스템에 관한 것으로서, 특히 영상 시스템에서 다양한 형태의 영상들을 사용자들이 시청 가능하도록 각 영상을 생성하는 다중 소스(source)로부터 다중 영상을 디스플레이하는 영상 제공 장치 및 방법에 관한 것이다.
본 발명은 방송통신위원회의 IT원천기술개발의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: KI001932, 과제명: 차세대DTV핵심기술개발(표준화연계)-무안경개인형3D방송기술개발(계속)].
현재 영상 시스템에서는 3D 영상에 대한 관심이 증대되고 있으며, 다양한 형태의 2D 영상뿐만 아니라 3D 영상을 사용자들에게 제공하기 위한 연구가 활발하게 진행되고 있다. 특히, 다양한 형태의 2D 영상뿐만 아니라 3D 영상을 제공하기 위해, 각각의 영상들에 해당하는 복수의 소스들을 통해 다중 영상을 생성하며, 이렇게 생성된 다중 영상을 사용자들에게 디스플레이하여 제공하기 위한 방안이 필요하다.
한편, 3D 영상을 사용자들에게 제공하는 방안으로, 좌 시점 영상과 우 시점 영상을 시간적으로 교대로 디스플레이하고, 이때 동기화된 셔터링(shuttering) 안경을 통해 좌 시점 영상과 우 시점 영상을 각 사용자들의 좌측 눈과 우측 눈에 맺히게 함으로써, 3D 영상을 사용자에게 제공한다. 또한, 3D 영상을 사용자들에게 제공하는 방안으로 빛의 편광 특성을 이용하는 방안이 있으며, 이러한 방안은, 각 주사 라인에는 서로 다른 파장 특성의 필름을 도포하고, 좌 시점 영상과 우 시점 영상의 각 주사 라인을 서로 번갈아 디스플레이하며, 이때 사용자들은 좌 시점 영상의 디스플레이 및 우 시점 영상의 디스플레이와 각각 서로 일치하는 파장 특성을 갖는 편광 안경을 통해 3D 영상을 제공받는다.
하지만, 현재에 제안된 영상 제공 방안, 특히 2D 영상을 포함한 3D 영상을 제공하는 방안 하나의 2D 영상 또는 3D 영상을 제공하는 방안에 대해서만 제안되었을 뿐, 다중 또는 다시점 2D 영상 또는 3D 영상을 제공하는 구체적인 방안이 아직까지 제안되지 않고 있다. 특히, 다양한 형태의 2D 영상뿐만 아니라 3D 영상을 사용자들의 요구에 상응하여 다양한 형태의 2D 영상 및 3D 영상을 각각 제공하는 복수의 영상 제공자들로 다중 소스가 존재할 경우, 다중 소스에서 각각 생성되는 영상을 복수의 사용자들에게 제공하기 위한 구체적인 방안이 필요하다.
따라서, 본 발명의 목적은 영상 시스템에서 다중 영상을 디스플레이하는 영상 제공 장치 및 방법을 제공함에 있다.
또한, 본 발명의 다른 목적은, 영상 시스템에서 보다 다양한 형태의 영상들을 제공하는 영상 제공 장치 및 방법을 제공함에 있다.
그리고, 본 발명의 다른 목적은, 영상 시스템에서 복수의 2D 영상 또는 3D 영상을 생성하는 다중 소스로부터 다중 영상을 사용자들에게 제공하는 영상 제공 장치 및 방법을 제공함에 있다.
아울러, 본 발명의 또 다른 목적은, 영상 시스템에서 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 복수의 사용자들의 요구에 상응하여 각 사용자들이 요구하는 다중 영상을 동시에 다시점으로 제공하는 영상 제공 장치 및 방법을 제공함에 있다.
상기한 목적들을 달성하기 위한 본 발명의 장치는, 영상 시스템에서 영상 제공 장치에 있어서, 복수의 사용자들에게 제공하고자 하는 다양한 형태의 영상을 각각 생성하는 복수의 소스부들; 상기 각각 생성된 영상을 다중화하는 다중화부; 상기 다중화된 다중 영상을 디스플레이하는 디스플레이부; 상기 복수의 사용자들에 대한 사용자 트래킹(tracking)을 통해 각 사용자들이 제공받고자 하는 영상을 확인하는 트래킹부; 및 상기 각 사용자들에 대응되며, 상기 트래킹부의 확인 결과에 따라 상기 각 사용자들이 제공받고자 하는 영상만을 디스플레이하는 복수의 사용자 기기들;을 포함한다.
상기한 목적들을 달성하기 위한 본 발명의 방법은, 영상 시스템에서 영상 제공 방법에 있어서, 복수의 사용자들에게 제공하고자 하는 다양한 형태의 영상을 동기화하여 각각 생성하는 단계; 상기 각각 생성된 영상을 각각 시분할하는 단계; 상기 각각 시분할된 영상을 다중화하는 단계; 상기 다중화된 다중 영상을 동시에 다시점으로 디스플레이하는 단계; 및 상기 복수의 사용자들에 대한 사용자 트래킹(tracking)을 통해 상기 다중 영상에서 각 사용자들이 제공받고자 하는 영상만을 상기 각 사용자들에게 제공하는 단계;를 포함한다.
본 발명은, 영상 시스템에서 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 복수의 사용자들의 요구에 상응하여 다중 소스로부터 각각 생성된 영상을 다중화함으로써, 각 사용들이 요구하는 영상, 즉 각 사용자들이 제공받고자 하는 영상을 제공할 수 있다. 또한, 본 발명은, 다중 소스로부터 생성된 다중 영상을 다시점으로 동시에 복수의 사용자들에게 제공함으로써, 보다 많은 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 각 사용자들의 영상 서비스 요구를 만족시킬 수 있다. 특히, 본 발명은, 영상 시스템에서 단일 디스플레이 장치를 통해 각 사용자들이 요구하는 각각의 영상을 개별적으로 각 사용자들에게 제공하며, 그에 따라 각 사용자들은 자신이 제공받고자 하는 2D 영상 또는 3D 영상뿐만 아니라 다양한 형태의 영상 서비스를 원활하게 제공받을 수 있다.
도 1은 본 발명의 실시 예에 따른 영상 시스템의 구조를 개략적으로 도시한 도면.
도 2는 본 발명의 실시 예에 따른 영상 시스템에서 다중 소스로부터의 다중 영상 제공을 설명하기 위한 도면.
도 3은 본 발명의 실시 예에 따른 영상 시스템에서 각 사용자들의 위치에서 다중 영상 제공을 설명하기 위한 도면.
도 4는 본 발명의 실시 예에 따른 영상 시스템에서 다중 소스로부터의 2D 영상 및 3D 영상 제공을 설명하기 위한 도면.
도 5는 본 발명의 실시 예에 따른 영상 시스템에서 다중 영상의 다시점 제공을 설명하기 위한 도면.
도 6은 본 발명의 실시 예에 따른 영상 시스템에서 다중 영상 제공 과정을 개략적으로 도시한 도면.
이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설명되며 그 이외 부분의 설명은 본 발명의 요지를 흩뜨리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명은, 영상 시스템에서 영상을 제공하는 장치 및 방법은 제안한다. 여기서, 본 발명의 실시 예에서는, 다양한 형태의 2D 영상 또는 3D 영상을 복수의 사용자들에게 제공하기 위해, 다양한 형태의 2D 영상 또는 3D 영상을 각각 생성하는 다중 소스(source)로부터 다중 영상을 사용자들에게 디스플레이하며, 각 사용자들은 자신이 제공받고자 하는 영상을 선택하여 제공받는다. 이때, 본 발명의 실시 예에서는, 각 소스들에서 생성되는 다양한 형태의 2D 영상 또는 3D 영상을 다중화한 후 단일 디스플레이 장치를 통해 복수의 사용자들에게 동시에 다시점으로 제공하며, 각 사용자들은 자신이 제공받고자 하는 2D 영상 또는 3D 영상에 해당하는 영상 서비스를 선택하여 제공받는다.
또한, 본 발명의 실시 예에서는, 단일 디스플레이 장치를 통해 다중 소스가 각각 생성한 영상을 시분할 다중화하여 복수의 사용자들에게 다중 영상을 동시에 디스플레이하며, 사용자 트래킹(tracking)을 통해 동시에 디스플레이되는 다중 영상에서 각 사용자들이 제공받고자 하는 영상을 개별적으로 각 사용자들에게 제공된다. 여기서, 상기 각 사용자들은 사용자 기기, 예컨대 셔터링(shuttering) 방식 또는 편광 방식의 특수 안경을 통해 자신이 제공받고자 하는 영상, 예컨대 2D 영상 또는 3D 영상을 개별적으로 제공받는다. 후술할 본 발명의 실시 예에서는, 설명의 편의를 위해 사용자가 셔터링 방식의 특수 안경(이하, '셔터링 안경'이라고 칭하기로 함)을 통해 자신이 제공받고자 하는 영상을 제공받는 것을 중심으로 설명하지만, 본 발명에서 제안하는 편광 방식의 특수 안경(이하, '편광 안경'이라 칭하기로 함)뿐만 아니라 또 다른 방식의 특수 기기를 통해 사용자가 영상을 제공받는 경우에도 동일하게 적용될 수 있으며, 다양한 형태의 2D 영상 또는 3D 영상을 복수의 사용자들에게 제공하기 위해, 다양한 형태의 2D 영상 또는 3D 영상을 각각 생성하는 다중 소스로는 디지털 또는 아날로그 TV 프로그램, PC 화면, DVD, 상영 영화 등의 다양한 형태의 모든 영상이 해당될 수 있다. 그러므로, 본 발명의 실시 예에서는, 셔터링 방식 또는 편광 방식의 단일 디스플레이 장치를 통해 특수 안경(예컨대 셔터링 안경 또는 편광 안경 등)을 구비한 복수의 사용자들에게 개별적으로 2D 영상 또는 3D 영상의 서로 다른 영상 서비스를 제공하며, 각 사용자들은 단일 디스플레이 장치, 예컨대 하나의 3D TV를 통해 3D 영상뿐만 아니라 2D 영상을 개별적으로 자신이 제공받고자 하는 영상 서비스를 제공받는다. 그러면 여기서, 도 1을 참조하여 본 발명의 실시 예에 따른 영상 시스템을 보다 구체적으로 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 영상 시스템의 구조를 개략적으로 도시한 도면이다.
도 1을 참조하면, 상기 영상 시스템은, 다양한 형태의 2D 영상 또는 3D 영상을 복수의 사용자들에게 제공하기 위한 다중 소스로, 복수의 소스부들, 예컨대 소스부1(102), 소스부2(104), 및 소스부3(106), 상기 소스부들(102,104,106)에서 각각 생성된 영상을 시분할 다중화하는 다중화부(108), 상기 다중화부(108)에서 다중화된 모든 소스부들(102,104,106)의 영상을 디스플레이하는 디스플레이부(110), 상기 소스부들(102,104,106)에서 각각 생성된 영상의 음성을 사용자들의 사용기기들, 예컨대 복수의 셔터링 안경들(160,170,180)로 송신하는 송신부(114), 상기 소스부들(102,104,106)에서 각각 생성된 영상의 동기화를 위한 동기 신호를 생성하는 동기 신호 발생부(116), 상기 소스부들(102,104,106)에서 각각 생성된 영상의 다중 사용자 제공을 위한 사용자 인터페이스를 처리하는 인터페이스부(112), 상기 소스부들(102,104,106)에서 각각 생성된 영상의 다중 사용자 제공 시 사용자 트래킹을 수행하는 트래킹부(150), 및 상기 소스부들(102,104,106)에서 각각 생성된 영상을 각 사용자들에게 제공하는 셔터링 안경들, 예컨대 셔터링 안경1(160), 셔터링 안경2(170), 셔터링 안경3(180)을 포함한다.
여기서, 각 셔터링 안경들(160,170,180)은, 셔터링 안경1(160)과 같이 각 사용자가 제공받고자 하는 영상을 사용자의 좌측 눈과 우측 눈에 제공하는 셔터링 유리(166), 상기 각 사용자가 제공받고자 하는 영상의 음성을 제공하는 스피커(168), 상기 송신부(114)로부터 영상의 음성 신호를 수신하는 수신부(162), 셔터링 유리(166) 및 스피커(168)를 통한 각 사용자가 제공받고자 하는 영상 제공을 제어하는 제어부(164)를 각각 포함한다.
상기 소스부들(102,104,106)은, 단일 디스플레이 장치, 예컨대 하나의 디스플레이부(110)를 통해 다양한 형태의 2D 영상 또는 3D 영상을 제공하기 위해 각각의 영상을 생성하며, 각 사용자들이 요구하는 영상 서비스에 상응하여 영상을 각각 생성한다. 여기서, 상기 소스부들(102,104,106)은, 각 영상 서비스에 해당하는 영상 및 상기 영상의 음성으로, 영상 신호(예컨대 비디오 신호)와 음성 신호(예컨대 오디오 신호)를 생성한다. 이러한 복수의 소스부들(102,104,106)에 의한 다중 소스로는, 전술한 바와 같이 디지털 또는 아날로그 TV 프로그램, PC 화면, DVD, 상영 영화 등이 될 수 있다. 또한, 상기 소스부들(102,104,106)에서 각각 생성된 영상이 다중화부(108)에서 시분할 다중화되도록, 상기 소스부들(102,104,106)은, 상기 동기 신호 발생부(116)에서 생성된 동기 신호에 동기화되어 동일한 해상도를 갖는 영상을 각각 생성한다. 다시 말해, 상기 영상 시스템은, 상기 소스부들(102,104,106)에서 각각 생성된 영상이 동일한 해상도를 갖도록 상기 소스부들(102,104,106)을 제어하며, 또한 상기 소스부들(102,104,106)이 서로 동기화되어 각각의 영상을 생성하도록 제어한다.
상기 동기 신호 발생부(116)는, 서로 동기화되어 영상을 생성하는 상기 소스부들(102,104,106)에 상응하는 동기 신호, 예컨대 수직(vertical) 동기 신호 또는 수평(horizontal) 동기 신호를 생성한다. 다시 말해, 상기 소스부들(102,104,016)은 상기 동기 신호에 동기화되어 동일한 해상도를 갖는 영상을 생성하며, 이렇게 생성된 동기 신호에 상응하여 상기 생성된 영상의 제공, 즉 다중화부(108), 디스플레이부(110), 및 송신부(114)의 영상 제공 동작이 동기화된다.
상기 다중화부(108)는, 상기 소스부들(102,104,106)에서 각각 생성된 영상으로 영상 신호와 상기 동기 신호 발생부(116)에서 생성된 동기 신호를 입력받으며, 상기 동기 신호에 동기화되어 상기 생성된 영상을 시분할한 후, 순서대로 재배열하며, 그에 따라 상기 다중화부(108)는, 각 소스부들(102,104,106)에서 생성된 영상을 시분할 다중화하여 영상 프레임을 생성한다. 여기서, 상기 동기 신호에 동기화된 상기 다중화부(108)는, 필드(field) 단위, 프레임(frame) 단위, 또는 수평 라인(horizontal line) 단위 등으로 상기 각 소스부들(102,104,106)의 영상 신호를 다중화하며, 이하에서는 설명의 편의를 위해 상기 다중화부(108)가 상기 각 소스부들(102,104,1,6)의 영상 신호를 프레임 단위로 다중화하는 경우를 일 예로 하여 설명하기로 한다.
예를 들어, 상기 사용자들로 제공하고자 하는 영상을 각각 생성하는 소스들의 개수가 N개이고, N개의 각 소스들이 F의 프레임율(frame rate)로 영상을 생성할 경우, 상기 다중화부(108)는, 상기 동기 신호를 통해 상기 각 N개의 각 소스들에서 생성된 영상의 프레임을 동기화한 후, 상기 N개의 각 소스들이 생성한 영상을 1/(N×F)의 프레임 주기 단위로 각각 시분할한다. 여기서, 상기 N개의 각 소스들의 프레임율이 F임으로 각 소스들의 프레임 주기는 1/F이 되며, 그에 따라 상기 다중화부(108)는 각 소스들의 프레임 주기(1/F) 별로 상기 각각 시분할된 각 소스들의 영상을 순서대로 재배열, 예컨대 각 소스들의 첫번째 프레임 주기(1/F)에서 첫번째 소스(일 예로 소스1(102))의 1/(N×F)의 프레임 주기의 시분할된 영상부터 마지막 소스(일 예로 소스N의 1/(N×F)의 프레임 주기의 시분할된 영상까지 순서대로 재배열하고, 그런 다음 상기 각 소스들의 두번째 프레임 주기(2/F)에서 첫번째 소스(일 예로 소스1(102))의 2/(N×F)의 프레임 주기의 시분할된 영상부터 마지막 소스(일 예로 소스N의 2/(N×F)의 프레임 주기의 시분할된 영상까지 순서대로 재배열한다.
이러한 방식으로 상기 다중화부(108)는, 상기 각 소스들의 마지막 프레임 주기(F/F)까지 각각 시분할된 영상을 재배열하여 다중화된 영상 프레임을 생성하며, 이렇게 생성된 영상 프레임은 디스프플레이부(110)를 통해 재생한다. 여기서, 상기 다중화부(108)가 시분할 다중화하여 생성하는 영상 프레임의 프레임율은 N×F이 되며, 상기 디스플레이부(110)는, N×F의 프레임율로 증가된 속도로 다중화된 다중 영상을 재생한다.
상기 디스플레이부(110)는, 상기 동기 신호 발생부(116)에서 생성된 동기 신호를 입력받고, 상기 동기 신호에 동기화되어 상기 다중화부(108)에서 시분할 다중화된 다중 영상, 즉 상기 다중화된 영상 프레임을 입력받아 재생하는 단일 디스플레이며, 이때 상기 디스플레이부(110)에서 재생되는 각 소스들의 영상의 프레임들 간 간섭을 최소화하기 위해 도 2에 도시한 바와 같이 각 소스들의 프레임 주기에서 순서대로 배열되는 시분할된 영상의 프레임을 소정 간격으로 이격시켜 배열할 수 있으며, 이렇게 배열할 경우 상기 다중화부(108)가 시분할 다중화하여 생성하는 영상 프레임의 프레임율은 N×F보다 증가하게 된다.
상기 송신부(114)는, 상기 소스부들(102,104,106)에서 각각 생성된 영상의 음성 신호와 상기 동기 신호 발생부(116)에서 생성된 동기 신호를 입력받으며, 상기 동기 신호에 동기화되어 상기 소스부들(102,104,106)에서 각각 생성된 영상의 음성 신호와 상기 동기 신호를 각 사용자들에게 영상을 제공하는 사용자 기기들, 예컨대 셔터링 안경들(160,170,180)에 각각 포함된 수신부(162)로 송신한다. 여기서, 상기 송신부(114)는, 적외선 신호, RF(Radio Frequency) 신호, 또는 전기적 신호 등을 통해 셔터링 안경들(160,170,180)에게 셔터링을 위한 동기 신호를 송신하며, 이때 각 소스들의 음성 신호를 소정의 방식으로 다중화하여 동시에 송신한다.
상기 인터페이스부(112)는, 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 복수의 사용자들의 영상 서비스 요구에 상응한 사용자 인터페이스를 처리하며, 이러한 사용자들의 영상 서비스 요구에 상응한 영상 변경 및 전환을 제어하는 제어 신호를 생성한다. 여기서, 상기 제어 신호에 따라 영상 시스템의 복수의 사용자들로 다중 영상 제공 동작이 제어된다.
상기 트래킹부(150)는, 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 복수의 사용자들을 트래킹하여, 각 소스들(102,104,106)이 생성한 영상에서 각 사용자 별로 제공받고자 하는 영상을 확인한다. 그리고, 상기 트래킹부(150)는, 상기 확인 결과에 따라 각 사용자들 별로 각 소스들(102,104,106)이 생성한 영상에서 해당하는 영상의 선택 신호를 생성하며, 상기 생성한 선택 신호를 각 사용자들에 해당하는 사용자 기기, 즉 셔터링 안경으로 전송한다. 예컨대, 셔터링 안경1(160)을 사용하는 사용자가 소스1(102)에서 생성되는 영상을 제공받고자 할 경우, 상기 트래킹부(150)는 소스1(102)의 영상을 선택하는 선택 신호를 생성하여 셔터링 안경1(160)로 송신한다. 여기서, 상기 트래킹부(150)는, 각 사용자들의 위치를 검색하여 각 사용자들의 위치에 따라 제공받고자 하는 영상의 선택 신호를 생성할 수도 있다.
상기 셔터링 안경1(160)은, 상기 송신부(114)로부터 음성 신호와 동기 신호를 수신하고, 상기 동기 신호에 동기화되어 사용자로의 영상 제공 동작을 수행한다. 보다 구체적으로 설명하면, 상기 셔터링 안경1(160)의 제어부(164)는 상기 트래킹부(150)로부터 선택 신호를 입력받으면, 상기 선택 신호에 상응하여 상기 셔터링 안경1(160)의 사용자가 제공받고자 하는 영상의 제공 동작을 제어한다. 즉, 상기 제어부(164)는, 상기 디스플레이부(110)를 통해 다중화되어 동시에 디스플레이되는 다중 영상에서 상기 선택 신호에 상응한 영상만이 상기 셔터링 유리(166)에 디스플레이되도록 온/오프(on/off) 신호를 생성하여 출력한다. 그리고, 상기 제어부(164)는, 상기 송신부(114)로부터 수신부(162)가 수신한 음성 신호에서 상기 선택 신호에 상응한 영상의 음성만이 상기 스피커(168)를 통해 출력되도록 제어한다.
여기서, 상기 셔터링 유리(166)는, 사용자의 좌측 눈과 우측 눈에 해당하는 영상을 디스플레이하는 디스플레이 영역들로 분할, 예컨대 좌 영상 영역 및 우 영상 영역으로 분할되며, 상기 동기 신호에 동기화되어 상기 분할된 디스플레이 영역들은 상기 선택 신호에 상응한 제어부(164)의 온/오프 신호에 의해 해당 영상에 대한 빛을 투과/차폐한다. 상기 좌 영상 영역은 사용자의 좌측 눈에 2D 영상과 3D 영상의 좌 시점 영상을 디스플레이하고, 상기 우 영상 영역은 사용자의 우측 눈에 2D 영상과 3D 영상의 우 시점 영상을 디스플레이한다. 그리고, 상기 스피커(168)는, 상기 선택 신호에 상응한 영상의 음성 신호만을 선택하여 사용자에게 영상의 음성을 제공한다.
예컨대, 상기 셔터링 안경1(160)의 사용자가 소스1(102)에서 생성된 영상을 제공받고, 상기 셔터링 안경2(170)의 사용자가 소스2(104)에 생성된 영상을 제공받고자 할 경우, 상기 트래킹부(150)는, 각 셔터링 안경의 사용자들이 제공받고자 하는 영상에 상응하는 선택 신호를 각각 생성하여 각 셔터링 안경으로 전송하며, 상기 셔터링 안경들(160,170)은 상기 선택 신호에 상응하여 영상을 제공, 즉 셔터링 안경1(160)의 셔터링 유리(166)는 상기 디스플레이부(110)에서 동시에 디스플레이되는 다중 영상에서 소스1(102)에서 생성된 영상만을 디스플레이하고 셔터링 안경1(160)의 스피커(168)는 수신된 음성 신호에서 소스1(102)에서 생성된 영상의 음성만을 출력한다. 그리고, 상기 셔터링 안경2(170)의 셔터링 유리는 상기 디스플레이부(110)에서 동시에 디스플레이되는 다중 영상에서 소스2(104)에서 생성된 영상만을 디스플레이하고 셔터링 안경2(170)의 스피커는 수신된 음성 신호에서 소스2(102)에서 생성된 영상의 음성만을 출력한다.
이렇게 본 발명의 실시 예에 따른 영상 시스템에서는, 다중 소스로 복수의 소스들에서 각각 생성된 영상을 시분할 다중화하여 단일 디스플레이 장치를 통해 다중 영상을 디스플레이, 즉 모든 소스들의 영상을 디스플레이하고, 상기 단일 디스플레이 장치를 통해 디스플레이되는 다중 영상에서 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상만, 상기 다중 소스에서 소정 소스가 생성한 영상만을 각 사용자들에게 제공한다. 그러므로, 상기 영상 시스템에서는, 다중 소스가 생성한 영상에서 각각의 사용자들이 제공받고자 하는 영상을 선택하여 개별적으로 제공하며, 특히 각 사용자들 별로 서로 다른 영상을 동시에 다시점으로 제공한다. 그러면 여기서, 도 2를 참조하여 본 발명의 실시 예에 따른 영상 시스템에서 각 사용자들로의 영상 제공을 보다 구체적으로 설명하기로 한다.
도 2는 본 발명의 실시 예에 따른 영상 시스템에서 다중 소스로부터의 다중 영상 제공을 설명하기 위한 도면이다. 여기서, 도 2는, 도 1에서 설명한 바와 같이 다중 소스의 영상이 시분할되어 다중화된 영상으로 디스플레이될 경우, 선택 신호에 따라 각 사용자들의 셔터링 안경을 통해 제공되는 영상을 설명하기 위해, 온/오프 신호를 개략적으로 도시한 도면이다.
도 2를 참조하면, 단일 디스플레이 장치로 디스플레이부에 디스플레이되는 다중 영상, 예컨대 다중화된 비디오(200)는, 동기 신호에 의해 프레임 동기화되어, 전술한 바와 같이 N개의 소스들에서 생성된 영상, 예컨대 비디오를 상기 다중화부(108)에서 시분할 다중화된 다중 영상이다. 상기 다중화된 비디오(200)는, N개의 소스들에서 생성된 영상이 1/(N×F)의 프레임 주기 단위로 각각 시분할된 후, 각 소스들의 프레임 주기(1/F)(202) 별로 각각 시분할된 각 소스들의 영상이 재배열, 예컨대 첫번째 프레임 주기(1/F)에서 소스1(206), 소스2(208), 소스3(210) 등이 순차적으로 재배열되고, 두번째 프레임 주기(2/F)에서 소스1(212), 소스2(214) 등이 순차적으로 재배열된다. 여기서, 소스1(206,212), 소스2(208,214), 및 소스3(210) 등은 1/(N×F)의 프레임 주기 단위로 각각 시분할된 N개의 각 소스들의 영상, 즉 각각 시분할된 비디오를 의미한다. 즉, 상기 다중화된 비디오(200)는, N개의 각 소스들에서 생성된 비디오가 소정의 프레임 주기 단위로 시분할된 후, 각 소스들의 프레임 주기에서 재배열, 즉 순차적으로 다중화된다.
상기 다중화된 비디오(200)가 디스플레이부를 통해 디스플레이 재생 시간 동안 디스플레이될 경우, 전술한 바와 같이 사용자 트래킹을 통해 복수의 사용자들 별로 자신이 제공받고자 하는 비디오, 즉, 각각의 사용자들이 제공받고자 하는 비디오를 확인하고, 상기 확인 결과에 상응하는 선택 신호에 따라 각 사용자들의 셔터링 안경이 해당하는 비디오만을 디스플레이한다.
다시 말해, 셔터링 안경1(220)의 사용자가 소스1(206,212)을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경1(220)의 사용자가 제공받고자 하는 비디오가 소스1(206,212)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경1(220)에서 온/오프 신호는, 다중화된 비디오(200)의 각 소스들의 프레임 주기에서 소스1(206,212)의 구간(222,224)에만 셔터링 안경1(220)의 셔터링 유리에 비디오가 디스플레이되도록 하며, 그에 따라 셔터링 안경1(220)에는 소스1(206,212)만이 디스플레이된다. 또한, 셔터링 안경2(230)의 사용자가 소스2(208,214)를 제공받고자 할 경우, 선택 신호에 따라 셔터링 안경2(230)에서 온/오프 신호는, 다중화된 비디오(200)의 각 소스들의 프레임 주기에서 소스2(208,214)의 구간(232,234)에만 셔터링 안경2(230)의 셔터링 유리에 비디오가 디스플레이되도록 하며, 그에 따라 셔터링 안경2(230)에는 소스2(208,214)만이 디스플레이된다. 아울러, 셔터링 안경3(240)의 사용자가 소스3(210)을 제공받고자 할 경우, 선택 신호에 따라 셔터링 안경3(240)에서 온/오프 신호는, 다중화된 비디오(200)의 각 소스들의 프레임 주기에서 소스3(210)의 구간(242)에만 셔터링 안경3(240)의 셔터링 유리에 비디오가 디스플레이되도록 하며, 그에 따라 셔터링 안경3(240)에는 소스3(210)만이 디스플레이된다.
이렇게 본 발명의 실시 예에 따른 영상 시스템에서는, 다중 소스로 복수의 소스들에서 각각 생성된 영상을 소정의 프레임 주기 단위로 각각 시분할한 후, 각 소스들의 프레임 주기에서 순차적으로 다중화하여 단일 디스플레이 장치를 통해 다중 영상을 디스플레이하며, 그에 따라 단일 디스플레이 장치를 통해 모든 소스들의 영상이 디스플레이되며, 상기 디스플레이되는 모든 소스들의 영상에서 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상만, 상기 다중 소스에서 소정 소스가 생성한 영상만을 각 사용자들의 셔터링 안경에 디스플레이함으로 각 사용자들이 제공받고자 하는 영상만을 제공한다. 그러면 여기서, 도 3을 참조하여 본 발명의 실시 예에 따른 영상 시스템에서 각 사용자들의 위치에 따른 영상 제공에 대해 보다 구체적으로 설명하기로 한다.
도 3은 본 발명의 실시 예에 따른 영상 시스템에서 각 사용자들의 위치에서 다중 영상 제공을 설명하기 위한 도면이다. 여기서, 도 3은, 도 2에서 설명한 바와 같이 다중화된 영상이 디스플레이될 경우, 각 사용자들의 위치를 고려하여 각 사용자들이 제공받고자 하는 영상의 제공을 설명하기 위한 도면이다.
도 3을 참조하면, 전술한 바와 같이, 시분할 다중화된 다중 영상이 디스플레이부(300)를 통해 동시에 디스플레이될 경우, 각 사용자들은 자신이 제공받고자 하는 영상만을 셔터링 안경을 통해 제공받는다.
보다 구체적으로 설명하면, 상기 디스플레이부(300)를 통해 다중 영상이 디스플레이됨에 따라 다중 영상을 제공받을 수 있는 영역들, 예컨대 복수의 시청 영역들(310,320,330,340)이 존재하며, 이때 각 시청 영역들(310,320,330,340)에 위치하는 복수의 사용자들에 대한 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상을 확인하며, 상기 확인 결과에 상응한 선택 신호에 따라 각 사용자들은 해당하는 셔터링 안경을 통해 자신이 제공받고자 하는 영상만을 제공받는다.
예컨대, 사용자 트래킹을 통해 시청 영역1(310)에 위치하는 사용자A(302)가 제공받고자 하는 영상을 확인하며, 이때 사용자A(302)가 도 2에서 설명한 소스1(206,212)을 제공받고자 할 경우, 상기 사용자A(302)의 영상 전환은 소스1(206,212)로 설정되므로, 사용자A(302)가 제공받고자 하는 영상을 확인하게 된다. 상기 확인 결과에 따라 사용자A(302)의 셔터링 안경, 예컨대 셔터링 안경1로 선택 신호가 전송되고, 이러한 선택 신호에 의해 셔터링 안경1은 도 2에서 설명한 바와 같이 소스1(206,212)의 구간(222,224)에만 셔터링 안경1(220)의 셔터링 유리가 온(on)되어 소스1(206,212)만 디스플레이하며, 그 결과 사용자A(302)는 소스1(206,212)만을 제공받는다. 또한, 사용자 트래킹을 통해 시청 영역3(330)에 위치하는 사용자B(304)가 제공받고자 하는 영상을 확인하며, 이때 사용자B(304)가 도 2에서 설명한 소스2(208,214)을 제공받고자 할 경우, 상기 사용자B(304)의 영상 전환은 소스2(208,214)로 설정되므로, 사용자B(304)가 제공받고자 하는 영상을 확인하게 된다. 상기 확인 결과에 따라 사용자B(304)의 셔터링 안경, 예컨대 셔터링 안경2로 선택 신호가 전송되고, 이러한 선택 신호에 의해 셔터링 안경2는 도 2에서 설명한 바와 같이 소스2(208,214)의 구간(232,234)에만 셔터링 안경2(230)의 셔터링 유리가 온(on)되어 소스2(208,214)만 디스플레이하며, 그 결과 사용자B(304)는 소스2(208,214)만을 제공받는다.
즉, 본 발명의 실시 예에 따른 영상 시스템에서는, 사용자 트래킹 시 사용자의 위치 및 사용자가 제공받고자 하는 영상을 확인하며, 상기 확인 결과에 따른 선택 신호에 상응하여 각 사용자에게 제공받고자 하는 영상만을 해당 셔터링 안경을 통해 디스플레이하여 제공한다. 그러면 여기서, 도 4를 참조하여 본 발명의 실시 예에 따른 영상 시스템에서 2D 영상과 3D 영상을 시분할 다중화하여 각 사용자들로의 영상 제공을 보다 구체적으로 설명하기로 한다.
도 4는 본 발명의 실시 예에 따른 영상 시스템에서 다중 소스로부터의 2D 영상 및 3D 영상 제공을 설명하기 위한 도면이다. 여기서, 도 4는, 도 1에서 설명한 바와 같이 다중 소스의 2D 영상 및 3D 영상이 시분할되어 다중화된 영상으로 디스플레이될 경우, 선택 신호에 따라 각 사용자들의 셔터링 안경을 통해 제공되는 2D 영상 및 3D 영상을 설명하기 위해, 온/오프 신호를 개략적으로 도시한 도면이다.
도 4를 참조하면, 단일 디스플레이 장치로 디스플레이부에 디스플레이되는 다중 영상, 예컨대 다중화된 비디오(400)는, 동기 신호에 의해 프레임 동기화되어, 전술한 바와 같이 N개의 소스들에서 생성된 2D 영상 및 3D 영상, 예컨대 2D 및 3D 비디오를 상기 다중화부(108)에서 시분할 다중화된 다중 영상이다. 상기 다중화된 비디오(400)는, 복수의 소스들에서 생성된 2D 영상이 소정의 프레임 주기 단위로 각각 시분할된 후, 2D 영상을 디스플레이하는 2D 서비스 구간(410)의 각 소스들의 프레임 주기에서 각각 시분할된 각 소스들의 2D 영상이 재배열, 예컨대 프로그램1(412,416) 및 프로그램2(414,418) 등이 순차적으로 재배열된다. 여기서, 프로그램1(412,416) 및 프로그램2(414,418) 등은 소정의 프레임 주기 단위로 각각 시분할된 각 소스들의 2D 영상, 즉 각각 시분할된 2D 비디오를 의미하며, 상기 프로그램1(412,416)은 도 1의 소스부1(102)에서 생성된 2D 영상이고, 상기 프로그램2(414,418)는 도 1의 소스부2(104)에서 생성된 2D 영상인 것으로 가정하여 설명하기로 한다. 즉, 상기 다중화된 비디오(400)는, 2D 서비스 구간(410)에서 각 소스들에서 생성된 2D 비디오가 소정의 프레임 주기 단위로 시분할된 후, 각 소스들의 프레임 주기에서 재배열, 즉 순차적으로 다중화된다.
또한, 상기 다중화된 비디오(400)는, 복수의 소스들에서 생성된 3D 영상이 소정의 프레임 주기 단위로 각각 시분할, 다시 말해 상기 3D 영상을 구현하는 좌 시점 영상과 우 시점 영상이 각각 소정의 프레임 주기 단위로 시분할되며, 3D 영상을 디스플레이하는 3D 서비스 구간(420)의 각 소스들의 프레임 주기에서 각각 시분할된 각 소스들의 3D 영상이 재배열, 예컨대 좌 시점 영상인 좌 영상(422,426)과 우 시점 영상인 우 영상(424,428)이 순차적으로 재배열된다. 여기서, 좌 영상(422,426)과 우 영상(424,428)은, 소정의 프레임 주기 단위로 각각 시분할된 각 소스들의 3D 영상, 즉 각각 시분할된 3D 비디오를 의미하며, 상기 좌 영상(422,426)은 도 1의 소스부1(102)에서 생성된 영상이고, 상기 우 영상(424,428)은 도 1의 소스부2(104)에서 생성된 영상인 것으로 가정하여 설명하기로 한다. 즉, 상기 다중화된 비디오(400)는, 3D 서비스 구간(420)에서 각 소스들에서 생성된 3D 비디오가 소정의 프레임 주기 단위로 시분할된 후, 각 소스들의 프레임 주기에서 재배열, 즉 순차적으로 다중화된다.
상기 다중화된 비디오(400)가 디스플레이부를 통해 재생 시간 동안 디스플레이될 경우, 전술한 바와 같이 사용자 트래킹을 통해 복수의 사용자들 별로 자신이 제공받고자 하는 비디오, 즉, 각각의 사용자들이 제공받고자 하는 비디오를 확인하고, 상기 확인 결과에 상응하는 선택 신호에 따라 각 사용자들의 셔터링 안경이 해당하는 비디오만을 디스플레이한다.
다시 말해, 셔터링 안경1(430)의 사용자가 2D 서비스 구간(410)에서 소스부1(102)에서 생성되는 2D 영상을 제공받고, 또한 3D 서비스 구간(420)에서는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경1(430)의 사용자가 제공받고자 하는 비디오가 소스부1(102)에서 생성된 2D 영상, 프로그램1(412,416)이며, 또한 3D 영상, 즉 좌 영상(422,426) 및 우 영상(424,428)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경1(430)에서 온/오프 신호는, 다중화된 비디오(400)의 2D 서비스 구간(410)에서 프로그램1(412,416)의 구간(432,434)에만 셔터링 안경1(430)의 셔터링 유리에 2D 비디오가 디스플레이되도록 하며, 그에 따라 2D 서비스 구간(410)에서 셔터링 안경1(430)에는 프로그램1(412,416)만이 디스플레이된다. 아울러, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경1(430)에서 온/오프 신호는, 다중화된 비디오(400)의 3D 서비스 구간(420)에서, 좌 영상(422,426)의 구간(436,440)에는 셔터링 안경1(430)의 셔터링 유리에서 좌 영상 영역에만 좌 시점 영상이 디스플레이되도록 하고, 우 영상(424,428)의 구간(438,442)에는 셔터링 안경1(430)의 셔터링 유리에서 우 영상 영역에만 우 시점 영상이 디스플레이되도록 한다. 그에 따라, 3D 서비스 구간(420)에서 셔터링 안경1(430)에는 좌 영상(422,426)과 우 영상(424,428)이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
그리고, 셔터링 안경2(450)의 사용자가 2D 서비스 구간(410)에서 소스부2(104)에서 생성되는 2D 영상을 제공받고, 또한 3D 서비스 구간(420)에서는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경2(450)의 사용자가 제공받고자 하는 비디오가 소스부2(104)에서 생성된 2D 영상, 프로그램2(414,418)이며, 또한 3D 영상, 즉 좌 영상(422,426) 및 우 영상(424,428)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경2(450)에서 온/오프 신호는, 다중화된 비디오(400)의 2D 서비스 구간(410)에서 프로그램2(414,418)의 구간(452,454)에만 셔터링 안경2(450)의 셔터링 유리에 2D 비디오가 디스플레이되도록 하며, 그에 따라 2D 서비스 구간(410)에서 셔터링 안경2(450)에는 프로그램2(414,418)만이 디스플레이된다. 아울러, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경2(450)에서 온/오프 신호는, 다중화된 비디오(400)의 3D 서비스 구간(420)에서, 좌 영상(422,426)의 구간(456,460)에는 셔터링 안경2(450)의 셔터링 유리에서 좌 영상 영역에만 좌 시점 영상이 디스플레이되도록 하고, 우 영상(424,428)의 구간(458,462)에는 셔터링 안경2(450)의 셔터링 유리에서 우 영상 영역에만 우 시점 영상이 디스플레이되도록 한다. 그에 따라, 3D 서비스 구간(420)에서 셔터링 안경2(450)에는 좌 영상(422,426)과 우 영상(424,428)이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
여기서, 상기 다중화된 비디오(400)의 2D 서비스 구간(410)에서 동시에 디스플레이되는 프로그램1(412,416) 및 프로그램2(414,418)은, 2D 영상 서비스 및 3D 영상 서비스의 다중 모드 서비스(MMS: Multi Mode Service) 일 경우, 단일 튜너를 통해 제공되며, 이중 튜너를 통해 두개의 RF 채널의 서비스들 중에서 사용자가 선택한 것일 수 있다.
이렇게 본 발명의 실시 예에 따른 영상 시스템에서는, 다중 소스로 복수의 소스들에서 각각 생성된 2D 영상뿐만 아니라 3D 영상의 좌 시점 영상 및 우 시점 영상을 소정의 프레임 주기 단위로 각각 시분할한 후, 각 소스들의 프레임 주기에서 순차적으로 다중화하여 단일 디스플레이 장치를 통해 다중 영상을 디스플레이하며, 그에 따라 단일 디스플레이 장치를 통해 모든 소스들의 2D 영상 및 3D 영상이 디스플레이되며, 상기 디스플레이되는 모든 소스들의 2D 영상 및 3D 영상에서 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상만을 제공한다. 특히, 상기 영상 시스템에서는, 2D 영상의 프로그램 별로 각 사용자들에게 개별적으로 제공하며, 또한 2D 영상과 3D 영상을 각각 개별적으로 각 사용자들에게 제공한다. 그러면 여기서, 도 5를 참조하여 본 발명의 실시 예에 따른 영상 시스템에서 2D 영상 또는 3D 영상이 다중화된 다중 영상을 동시에 다시점으로의 제공에 대해 보다 구체적으로 설명하기로 한다.
도 5는 본 발명의 실시 예에 따른 영상 시스템에서 다중 영상의 다시점 제공을 설명하기 위한 도면이다. 여기서, 도 5는, 도 1에서 설명한 바와 같이 다중 소스의 2D 영상 또는 3D 영상이 시분할되어 다중화된 영상으로 동시에 디스플레이될 경우, 복수의 사용자들의 셔터링 안경들을 통해 다시점으로 제공되는 2D 영상 또는 3D 영상을 설명하기 위해, 온/오프 신호를 개략적으로 도시한 도면이다.
도 5를 참조하면, 단일 디스플레이 장치로 디스플레이부에 디스플레이되는 다중 영상, 예컨대 다중화된 비디오(500)는, 동기 신호에 의해 프레임 동기화되어, 전술한 바와 같이 N개의 소스들에서 생성된 2D 영상 또는 3D 영상, 예컨대 2D 또는 3D 비디오를 상기 다중화부(108)에서 시분할 다중화된 다중 영상이다. 상기 다중화된 비디오(500)는, N개의 소스들에서 생성된 2D 영상 또는 3D 영상이 소정의 프레임 주기 단위로 각각 시분할된 후, 다시점 서비스 구간의 각 소스들의 프레임 주기에서 각각 시분할된 2D 영상 또는 3D 영상이 순차적으로 다중화된다.
보다 구체적으로 설명하면, 상기 다중화된 비디오(500)는, N개의 소스들에서 생성된 2D 영상 또는 3D 영상이 소정의 프레임 주기 단위로 각각 시분할된 후, 2D 영상 또는 3D 영상이 다시점으로 제공되는 다시점 서비스 구간(510)의 각 소스들의 프레임 주기(1/F)에서 각각 시분할된 각 소스들의 2D 영상 또는 3D 영상을 재배열, 예컨대 시점1(512), 시점2(514), 시점3(516), 시점4(518), 시점N(520) 등을 순차적으로 재배열한다. 여기서, 시점1(512), 시점2(514), 시점3(516), 시점4(518), 시점N(520) 등은 소정의 프레임 주기 단위로 각각 시분할된 각 소스들의 2D 영상 또는 3D 영상, 즉 N개의 각 소스들에서 생성된 후 각각 시분할된 2D 또는 3D 비디오를 의미하며, 또한 도 3에서 설명한 바와 같이 각 사용자의 위치에 따라 시점이 가변되는 2D 또는 3D 영상을 의미한다. 그러므로, 상기 다중화된 비디오(500)는 다시점 서비스 구간(510)에서 N개의 각 소스들에서 생성된 2D 또는 3D 비디오가 소정의 프레임 주기 단위로 시분할된 후, 각 소스들의 프레임 주기에서 재배열, 즉 순차적으로 다중화된다.
상기 다중화된 비디오(500)가 디스플레이부를 통해 재생 시간 동안 디스플레이될 경우, 전술한 바와 같이 사용자 트래킹을 통해 복수의 사용자들의 위치 및 각 사용자들이 제공받고자 하는 비디오, 즉, 각각의 사용자들의 위치에 따른 시점 및 제공받고자 하는 비디오를 확인하고, 상기 확인 결과에 상응하는 선택 신호에 따라 각 사용자들의 셔터링 안경이 해당하는 비디오만을 디스플레이한다.
다시 말해, 셔터링 안경1(530)의 사용자가 다시점 서비스 구간(510)에서 N개의 소스들에서 소스1 및 소스2에서 생성되는 2D 영상 또는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경1(530)의 사용자 위치 및 상기 사용자가 제공받고자 하는 비디오가 소스1 및 소스2에서 생성된 2D 영상 또는 3D 영상, 즉 시점1(512) 및 시점2(514)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경1(530)에서 온/오프 신호는, 다중화된 비디오(500)의 다시점 서비스 구간(510)에서, 시점1(512)의 구간(532)에는 셔터링 안경1(530)의 셔터링 유리에서 좌 영상 영역에만 영상이 디스플레이되도록 하고, 시점2(514)의 구간(534)에는 셔터링 안경1(530)의 셔터링 유리에서 우 영상 영역에만 영상이 디스플레이되도록 한다. 그에 따라, 상기 다시점 서비스 구간(510)에서 셔터링 안경1(530)에는 시점1(512)의 영상과 시점2(514)의 영상이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
이렇게 상기 시점1(512)의 영상과 시점2(514)의 영상이 교대로 셔터링 안경1(530)에 디스플레이됨에 따라 셔터링 안경1(530)의 사용자는 3D 영상을 제공받는다. 여기서, 상기 셔터링 안경1(530)에서 온/오프 신호가 상기 시점1(512)의 구간(532) 또는 시점2(514)의 구간(534)에서 셔터링 안경1(530)의 셔터링 유리에서 좌 영상 영역 및 우 영상 영역에 영상이 디스플레이되도록 할 경우, 상기 시점1(512)의 구간(532) 또는 시점2(514)의 구간(534)에서 셔터링 안경1(530)을 통해 사용자는 2D 영상을 제공받는다.
또한, 셔터링 안경2(540)의 사용자가 다시점 서비스 구간(510)에서 N개의 소스들에서 소스2 및 소스3에서 생성되는 2D 영상 또는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경2(540)의 사용자 위치 및 상기 사용자가 제공받고자 하는 비디오가 소스2 및 소스3에서 생성된 2D 영상 또는 3D 영상, 즉 시점2(514) 및 시점3(516)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경2(540)에서 온/오프 신호는, 다중화된 비디오(500)의 다시점 서비스 구간(510)에서, 시점2(514)의 구간(542)에는 셔터링 안경2(530)의 셔터링 유리에서 좌 영상 영역에만 영상이 디스플레이되도록 하고, 시점3(516)의 구간(544)에는 셔터링 안경2(540)의 셔터링 유리에서 우 영상 영역에만 영상이 디스플레이되도록 한다. 그에 따라, 상기 다시점 서비스 구간(510)에서 셔터링 안경2(540)에는 시점2(514)의 영상과 시점3(516)의 영상이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
이렇게 상기 시점2(514)의 영상과 시점3(516)의 영상이 교대로 셔터링 안경2(540)에 디스플레이됨에 따라 셔터링 안경2(540)의 사용자는 3D 영상을 제공받는다. 여기서, 상기 셔터링 안경2(540)에서 온/오프 신호가 상기 시점2(514)의 구간(542) 또는 시점3(516)의 구간(544)에서 셔터링 안경2(540)의 셔터링 유리에서 좌 영상 영역 및 우 영상 영역에 영상이 디스플레이되도록 할 경우, 상기 시점2(514)의 구간(542) 또는 시점3(516)의 구간(544)에서 셔터링 안경2(540)를 통해 사용자는 2D 영상을 제공받는다.
아울러, 셔터링 안경3(550)의 사용자가 다시점 서비스 구간(510)에서 N개의 소스들에서 소스3 및 소스4에서 생성되는 2D 영상 또는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경3(550)의 사용자 위치 및 상기 사용자가 제공받고자 하는 비디오가 소스3 및 소스4에서 생성된 2D 영상 또는 3D 영상, 즉 시점3(516) 및 시점4(518)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경3(550)에서 온/오프 신호는, 다중화된 비디오(500)의 다시점 서비스 구간(510)에서, 시점3(516)의 구간(552)에는 셔터링 안경3(550)의 셔터링 유리에서 좌 영상 영역에만 영상이 디스플레이되도록 하고, 시점4(518)의 구간(554)에는 셔터링 안경3(550)의 셔터링 유리에서 우 영상 영역에만 영상이 디스플레이되도록 한다. 그에 따라, 상기 다시점 서비스 구간(510)에서 셔터링 안경3(550)에는 시점3(516)의 영상과 시점4(518)의 영상이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
이렇게 상기 시점3(516)의 영상과 시점4(518)의 영상이 교대로 셔터링 안경3(550)에 디스플레이됨에 따라 셔터링 안경3(550)의 사용자는 3D 영상을 제공받는다. 여기서, 상기 셔터링 안경3(550)에서 온/오프 신호가 상기 시점3(516)의 구간(552) 또는 시점4(518)의 구간(554)에서 셔터링 안경3(550)의 셔터링 유리에서 좌 영상 영역 및 우 영상 영역에 영상이 디스플레이되도록 할 경우, 상기 시점3(516)의 구간(552) 또는 시점4(518)의 구간(554)에서 셔터링 안경3(550)을 통해 사용자는 2D 영상을 제공받는다.
또한, 셔터링 안경N/2(560)의 사용자가 다시점 서비스 구간(510)에서 N개의 소스들에서 소스(N-1) 및 소스N에서 생성되는 2D 영상 또는 3D 영상을 제공받고자 할 경우, 상기 사용자 트래킹을 통해 셔터링 안경N/2(560)의 사용자 위치 및 상기 사용자가 제공받고자 하는 비디오가 소스(N-1) 및 소스N에서 생성된 2D 영상 또는 3D 영상, 즉 시점(N-1) 및 시점N(520)임을 확인한다. 그리고, 상기 확인 결과에 상응하는 선택 신호에 따라 셔터링 안경N/2(560)에서 온/오프 신호는, 다중화된 비디오(500)의 다시점 서비스 구간(510)에서, 시점(N-1)의 구간(562)에는 셔터링 안경N/2(560)의 셔터링 유리에서 좌 영상 영역에만 영상이 디스플레이되도록 하고, 시점N(520)의 구간(564)에는 셔터링 안경N/2(560)의 셔터링 유리에서 우 영상 영역에만 영상이 디스플레이되도록 한다. 그에 따라, 상기 다시점 서비스 구간(510)에서 셔터링 안경N/2(560)에는 시점(N-1)의 영상과 시점N(520)의 영상이 교대로 사용자의 좌측 눈과 우측 눈에만 디스플레이된다.
이렇게 상기 시점(N-1)의 영상과 시점N(520)의 영상이 교대로 셔터링 안경N/2(560)에 디스플레이됨에 따라 셔터링 안경N/2(560)의 사용자는 3D 영상을 제공받는다. 여기서, 상기 셔터링 안경N/2(560)에서 온/오프 신호가 상기 시점(N-1)의 구간(562) 또는 시점N(520)의 구간(564)에서 셔터링 안경N/2(560)의 셔터링 유리에서 좌 영상 영역 및 우 영상 모드에 영상이 디스플레이되도록 할 경우, 상기 시점(N-1)의 구간(562) 또는 시점N(520)의 구간(564)에서 셔터링 안경N/2(560)를 통해 사용자는 2D 영상을 제공받는다.
여기서, 상기 다중화된 비디오(500)가 단일 디스플레이 장치를 통해 디스플레이될 경우, 도 3에서 설명한 바와 같이, 다중 영상을 제공받을 수 있는 복수의 시청 영역들이 존재하며, 각 사용자들의 위치에 따라, 다시 말해 각 시청 영역들에 따라 디스플레이 되는 다중화된 비디오(500)의 시점, 즉 2D 영상 또는 3D 영상의 시점이 가변한다. 그러므로, 전술한 바와 같이 본 발명의 실시 예에 따른 영상 시스템에서는, 사용자 트래킹을 통해 각 사용자들의 위치 및 상기 각 사용자들의 제공받고자 하는 영상을 확인한다. 이때, 각 사용자들의 서비스 요구에 상응한 사용자 인터페이스를 처리하여 총 사용자들의 수 및 2D 영상 또는 3D 영상을 제공받고자 하는 사용자들의 수를 확인하며, 이러한 사용자들의 수에 상응하여 다중 소스에서 생성된 2D 영상 또는 3D 영상을 시분할하여 다중화한다.
예컨대, 총 사용자들 수가 P이고 3D 영상을 제공받고자 하는 사용자들의 수가 Q일 경우, 각 소스들의 프레임 주기에서 순차적으로 다중화되는 영상은 최대 P+Q개의 시분할된 영상이 순서대로 재배열된다. 즉, 단일 디스플레이 장치는, 각 소스들의 프레임 주기 별로 최대 P+Q개의 시분할된 영상을 순서대로 디스플레이 한다. 여기서, 총 사용자들, 2D 영상 또는 3D 영상을 제공받고자 하는 사용자들, 및 소정 시청 영역에 위치하는 사용자들의 수가 임계값 이상이 될 경우, 사용자 트래킹을 통해 동일 영상을 제공받고자 하는 사용자 및 동일 시청 영역에 위치하는 사용자에게는 각 소스들의 프레임 주기에서 동일한 시구간에 영상(예컨대 동일 시점의 영상)을 제공받도록 제어한다.
이렇게 본 발명의 실시 예에 따른 영상 시스템에서는, 다중 소스로 복수의 소스들에서 각각 생성된 2D 영상 또는 3D 영상을 소정의 프레임 주기 단위로 각각 시분할한 후, 각 소스들의 프레임 주기에서 순차적으로 다중화하여 단일 디스플레이 장치를 통해 다중 영상을 디스플레이하며, 이때 단일 디스플레이 장치를 통해 모든 소스들의 2D 영상 또는 3D 영상이 사용자 트래킹을 통해 각 사용자들의 위치에 따라 가변하는 시점에 의해 다시점으로 동시에 디스플레이됨에 따라, 각 사용자들의 위치를 고려하여 각 사용자들이 제공받고자 하는 영상만을 제공한다. 특히, 다중 영상이 다시점으로 동시에 디스플레이됨에 따라, 다양한 형태의 영상을 제공받고자 하는 복수의 사용자들에서 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상만을 고품질로 원활하게 제공한다. 또한, 사용자 트래킹을 통해 임의의 사용자가 제공받고자 하는 영상이 2D 영상에 3D 영상으로 전환될 경우, 전술한 바와 같이 사용자 인터페이스를 처리하여, 현재 다중화된 영상의 디스플레이 구간, 즉 현재 다중화된 영상의 프레임 주기가 종료된 후, 영상 전환 제어에 의해 제공받고자 하는 3D 영상을 시분할 다중화하여 디스플레이한다. 그러면 여기서, 도 6을 참조하여 본 발명의 실시 예에 따른 영상 시스템에서 다중 영상의 제공 동작을 보다 구체적으로 설명하기로 한다.
도 6은 본 발명의 실시 예에 따른 영상 시스템에서 다중 영상 제공 과정을 개략적으로 도시한 도면이다.
도 6을 참조하면, 610단계에서, 상기 영상 시스템은, 다중 소스, 예컨대 복수의 소스들로부터 각각의 2D 영상 또는 3D 영상을 생성한다. 여기서, 상기 다중 소스로부터 생성되는 각각의 2D 영상 또는 3D 영상은 동기화, 예컨대 프레임 동기화되어 생성된다.
그런 다음, 620단계에서, 상기 영상 시스템은, 상기 각 소스들에서 생성된 2D 영상 또는 3D 영상을 소정의 프레임 주기 단위로 시분할한 후, 상기 각각 시분할된 2D 영상 또는 3D 영상을 각 소스들의 프레임 주기, 다시 말해 상기 각 소스들에서 생성된 2D 영상 또는 3D 영상의 프레임 주기에서 재배열, 즉 순차적으로 다중화한다. 여기서, 상기 각 소스들에서 생성된 영상의 시분할 다중화에 대해서는 앞서 구체적으로 설명하였음으로, 여기서는 그에 관한 구체적인 설명을 생략하기로 한다.
그리고, 630단계에서, 상기 영상 시스템은, 상기 시분할 다중화된 영상, 즉 다중 영상을 단일 디스플레이 장치를 통해 디스플레이한다. 여기서, 상기 단일 디스플에이 장치는, 사용자 트래킹을 통한 각 사용자들의 위치 및 각 사용자들이 제공받고자 하는 영상에 상응하여, 상기 각 소스들에서 생성된 2D 영상 또는 3D 영상을 동시에 다시점으로 디스플레이하게 된다. 다시 말해, 상기 단일 디스플에이 장치는, 2D 영상 서비스 구간, 3D 서비스 영상 서비스 구간, 또는 다시점 서비스 구간에 상응하여 시분할 다중화된 다중 영상을 디스플레이함으로써, 상기 각 소스들에서 생성된 2D 영상 또는 3D 영상을 동시에 다시점으로 디스플레이하게 된다.
다음으로, 640단계에서, 상기 영상 시스템은, 다양한 형태의 2D 영상 또는 3D 영상을 제공받고자 하는 복수의 사용자들에 대한 사용자 트래킹을 통해 각 사용자들이 제공받고자 하는 영상을 확인하고, 상기 확인 결과에 따라 각 사용자들의 셔터링 안경을 통해 각 사용자들이 제공받고자 하는 영상만을 제공한다. 여기서, 상기 각 사용자들의 셔터링 안경은, 상기 디스플레이되는 다중 영상에서, 해당 사용자가 제공받고자 하는 영상이 디스플레이되는 구간에서만 영상을 디스플레이함으로써, 각 사용자들이 제공받고자 하는 영상만을 제공한다.
이렇게 본 발명의 실시 예에 따른 영상 시스템에서는, 각 사용자들에게 셔터링 안경을 통해 각 사용자들이 제공받고자 하는 영상만을 제공하도록 다중 소스에서 각각 생성되는 영상을 프레임 단위로 각각 생성된 영상을 시분할 다중화하여 디스플레이한다. 또한, 본 발명의 다른 실시 예에 따라 상기 영상 시스템은, 각 사용자들에게 편광 안경을 통해 각 사용자들이 제공받고자 하는 영상만을 제공하도록 다중 소스에서 각각 생성되는 영상을 수평 라인 단위로 시분할하여 다중화하고, 이렇게 다중화된 다중 영상을 디스플레이부가 수평 라인마다 서로 다른 편광 특성을 갖는 필터를 통해 디스플레이하며, 각 사용자들은 서로 다른 편광 특성을 갖는 평광 안경을 통해 자신이 제공받고자 하는 영상만을 제공받는다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 영상 시스템에서 영상 제공 장치에 있어서,
    복수의 사용자들에게 제공하고자 하는 다양한 형태의 영상을 각각 생성하는 복수의 소스부들;
    상기 각각 생성된 영상을 다중화하는 다중화부;
    상기 다중화된 다중 영상을 디스플레이하는 디스플레이부;
    상기 복수의 사용자들에 대한 사용자 트래킹(tracking)을 통해 각 사용자들이 제공받고자 하는 영상을 확인하는 트래킹부; 및
    상기 각 사용자들에 대응되며, 상기 트래킹부의 확인 결과에 따라 상기 각 사용자들이 제공받고자 하는 영상만을 디스플레이하는 복수의 사용자 기기들;을 포함하는 것을 특징으로 하는 영상 제공 장치.
  2. 제1항에 있어서,
    상기 다중화부는, 상기 각각 생성된 영상을 소정의 프레임 단위로 각각 시분할하고, 상기 각각 시분할된 영상을 각 소스부들의 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 장치.
  3. 제2항에 있어서,
    상기 다중화부는, 상기 각각 생성된 영상이 2D 영상 및 3D 영상일 경우, 상기 2D 영상 및 3D 영상을 각각 시분할하고, 상기 각각 시분할된 2D 영상 및 3D 영상을 해당 영상 서비스 구간의 상기 각 소스부들의 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 장치.
  4. 제2항에 있어서,
    상기 다중화부는, 상기 각 사용자들의 위치에 따라 가변하는 시점에 상응하여 상기 각각 시분할된 영상을 다시점 서비스 구간의 상기 각 소스부들의 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 장치.
  5. 제2항에 있어서,
    상기 사용자 기기들은, 상기 각 소스부들의 프레임 주기에서, 대응된 사용자가 제공받고자 하는 영상이 다중화된 구간에서만 상기 다중 영상을 디스플레이하는 것을 특징으로 하는 영상 제공 장치.
  6. 제5항에 있어서,
    상기 사용자 기기들은, 상기 각 사용자들이 제공받고자 하는 영상만을 디스플레이하는 제1영역 및 제2영역을 포함하며,
    상기 대응된 사용자가 제공받고자 하는 영상이 2D 영상일 경우, 상기 제1영역 및 제2영역은 상기 다중화된 구간에서 동시에 상기 대응된 사용자가 제공받고자 하는 영상만을 디스플레이하는 것을 특징으로 하는 영상 제공 장치.
  7. 제6항에 있어서,
    상기 대응된 사용자가 제공받고자 하는 영상이 3D 영상일 경우, 상기 제1영역 및 제2영역은 상기 다중화된 구간마다 교대로 상기 대응된 사용자가 제공받고자 하는 영상만을 디스플레이하는 것을 특징으로 하는 영상 제공 장치.
  8. 제6항에 있어서,
    상기 트래킹부는, 상기 확인 결과에 따라 선택 신호를 상기 사용자 기기들로 출력하며, 상기 제1영역 및 제2영역은 상기 선택 신호에 상응하여 빛을 투과 및 차폐하는 것을 특징으로 하는 영상 제공 장치.
  9. 제1항에 있어서,
    상기 각각 생성된 영상의 음성을 다중화하여 상기 사용자 기기들로 송신하는 송신부;를 포함하는 것을 특징으로 하는 영상 제공 장치.
  10. 제9항에 있어서,
    상기 각각 생성된 영상의 동기화를 위한 동기 신호를 생성하는 동기 신호 발생부;를 포함하며,
    상기 동기 신호는, 상기 다중화부, 상기 디스플레이부, 상기 송신부, 및 상기 사용자 기기들로 송신되는 것을 특징으로 하는 영상 제공 장치.
  11. 제9항에 있어서,
    상기 사용자 기기들은, 상기 송신부로부터 수신한 다중화된 음성에서 상기 각 사용자들이 제공받고자 하는 영상의 음성만을 출력하는 스피커;를 포함하는 것을 특징으로 하는 영상 제공 장치.
  12. 제1항에 있어서,
    상기 디스플레이부는, 상기 다중 영상을 상기 사용자 기기들에게 동시에 다시점으로 디스플레이하는 것을 특징으로 하는 영상 제공 장치.
  13. 제1항에 있어서,
    상기 다중화부는, 필드(field) 단위, 프레임(frame) 단위, 및 수평 라인(horizontal line) 단위 중 하나의 단위로 상기 각각 생성된 영상을 다중화하는 것을 특징으로 하는 영상 제공 장치.
  14. 영상 시스템에서 영상 제공 방법에 있어서,
    복수의 사용자들에게 제공하고자 하는 다양한 형태의 영상을 동기화하여 각각 생성하는 단계;
    상기 각각 생성된 영상을 각각 시분할하는 단계;
    상기 각각 시분할된 영상을 다중화하는 단계;
    상기 다중화된 다중 영상을 동시에 다시점으로 디스플레이하는 단계; 및
    상기 복수의 사용자들에 대한 사용자 트래킹(tracking)을 통해 상기 다중 영상에서 각 사용자들이 제공받고자 하는 영상만을 상기 각 사용자들에게 제공하는 단계;를 포함하는 것을 특징으로 하는 영상 제공 방법.
  15. 제14항에 있어서,
    상기 시분할하는 단계는, 상기 각각 생성된 영상을 소정의 프레임 단위로 각각 시분할하고;
    상기 다중화하는 단계는, 상기 각각 시분할된 영상을 상기 각각 생성된 영상의 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 방법.
  16. 제15항에 있어서,
    상기 다중화하는 단계는, 상기 각각 생성된 영상이 2D 영상 및 3D 영상일 경우, 각각 시분할된 2D 영상 및 3D 영상을 해당 영상 서비스 구간의 상기 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 방법.
  17. 제15항에 있어서,
    상기 다중화하는 단계는, 상기 각 사용자들의 위치에 따라 가변하는 시점에 상응하여 상기 각각 시분할된 영상을 다시점 서비스 구간의 상기 프레임 주기에서 순차적으로 다중화하는 것을 특징으로 하는 영상 제공 방법.
  18. 제15항에 있어서,
    상기 제공하는 단계는, 상기 프레임 주기에서, 상기 각 사용자들이 제공받고자 하는 영상이 다중화된 구간에서만 상기 다중 영상을 디스플레이하는 것을 특징으로 하는 영상 제공 방법.
  19. 제18항에 있어서,
    상기 제공하는 단계는, 상기 각 사용자들이 제공받고자 하는 영상이 2D 영상일 경우, 상기 각 사용자들이 제공받고자 하는 영상만을 상기 다중화된 구간에서 동시에 상기 각 사용자들의 좌측 눈과 우측 눈에 디스플레이하는 것을 특징으로 하는 영상 제공 방법.
  20. 제18항에 있어서,
    상기 제공하는 단계는, 상기 각 사용자들이 제공받고자 하는 영상이 3D 영상일 경우, 상기 각 사용자들이 제공받고자 하는 영상만을 상기 다중화된 구간마다 교대로 상기 각 사용자들의 좌측 눈과 우측 눈에 디스플레이하는 것을 것을 특징으로 하는 영상 제공 방법.
KR1020100062565A 2010-03-03 2010-06-30 영상 시스템에서 영상 제공 장치 및 방법 KR101386031B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100019133 2010-03-03
KR1020100019133 2010-03-03

Publications (2)

Publication Number Publication Date
KR20110100119A true KR20110100119A (ko) 2011-09-09
KR101386031B1 KR101386031B1 (ko) 2014-04-17

Family

ID=44952736

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100062565A KR101386031B1 (ko) 2010-03-03 2010-06-30 영상 시스템에서 영상 제공 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101386031B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014088359A1 (en) * 2012-12-06 2014-06-12 Samsung Electronics Co., Ltd. Display apparatus and display method
KR20160006016A (ko) * 2014-07-08 2016-01-18 대우조선해양 주식회사 다중 영상정보 송수신 시스템 및 그 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133255A (ja) * 1992-10-20 1994-05-13 Matsushita Electric Ind Co Ltd 表示装置
JP3579585B2 (ja) * 1998-05-26 2004-10-20 日本電信電話株式会社 多視点同時観察型水平配置立体画像表示システム
KR100667823B1 (ko) * 2005-10-13 2007-01-11 삼성전자주식회사 멀티 채널 영상 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014088359A1 (en) * 2012-12-06 2014-06-12 Samsung Electronics Co., Ltd. Display apparatus and display method
KR20160006016A (ko) * 2014-07-08 2016-01-18 대우조선해양 주식회사 다중 영상정보 송수신 시스템 및 그 방법

Also Published As

Publication number Publication date
KR101386031B1 (ko) 2014-04-17

Similar Documents

Publication Publication Date Title
KR101391761B1 (ko) 무선 오디오 신호 제어 방법
KR101370927B1 (ko) 이미지 디스플레이 방법 및 장치
US20100238274A1 (en) Method of displaying three-dimensional image data and an apparatus of processing three-dimensional image data
US9438895B2 (en) Receiving apparatus, transmitting apparatus, communication system, control method of the receiving apparatus and program
US9743075B2 (en) Image display method and apparatus
KR20110115806A (ko) 디스플레이 장치 및 3d 안경, 그리고 이를 포함하는 디스플레이 시스템
US20130169878A1 (en) Apparatus and method for displaying
US20110199457A1 (en) Three-dimensional image processing device, television receiver, and three-dimensional image processing method
KR101994322B1 (ko) 디스패리티 설정 방법 및 대응하는 디바이스
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20140015941A1 (en) Image display apparatus, method for displaying image and glasses apparatus
JP2011259317A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR101386031B1 (ko) 영상 시스템에서 영상 제공 장치 및 방법
KR101885215B1 (ko) 디스플레이 장치 및 그 디스플레이 방법
US20140002600A1 (en) Method and System for Reproducing and Watching a Video
EP2312860A2 (en) Stereoscopic image providing method, apparatus and system
CN202121715U (zh) 3d播放系统、3d显示设备以及3d眼镜
CN104885474A (zh) 用于内容呈现的方法和装置
CN211406156U (zh) 一种同屏显示观看多通道3d视频的装置
KR20110037068A (ko) 입체 영상 기기 및 화질 조절 방법
KR101112085B1 (ko) 3d tv용 역 다중화 장치 및 방법
KR20120004673A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 동작 방법 및 그 방법을 채용한 디스플레이 기기
JP5335022B2 (ja) 映像再生装置
KR20150056966A (ko) 다중영상 표시장치
KR20080064429A (ko) 이동 기기를 이용한 입체 영상 생성 방법 및 이동 기기용 입체 영상 생성 칩

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170406

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180410

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190430

Year of fee payment: 6