KR20160092362A - 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치 - Google Patents

3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치 Download PDF

Info

Publication number
KR20160092362A
KR20160092362A KR1020150012898A KR20150012898A KR20160092362A KR 20160092362 A KR20160092362 A KR 20160092362A KR 1020150012898 A KR1020150012898 A KR 1020150012898A KR 20150012898 A KR20150012898 A KR 20150012898A KR 20160092362 A KR20160092362 A KR 20160092362A
Authority
KR
South Korea
Prior art keywords
service
broadcast
video
image
broadcasting
Prior art date
Application number
KR1020150012898A
Other languages
English (en)
Inventor
이주영
김성훈
최진수
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020150012898A priority Critical patent/KR20160092362A/ko
Priority to EP15193660.6A priority patent/EP3051813A1/en
Publication of KR20160092362A publication Critical patent/KR20160092362A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

3D 방송 서비스 제공 방법 및 상기 방법을 수행하는 3D 방송 제공 장치에 관한 것이다.
3D 방송 서비스 제공 방법은 3D 방송 서비스를 제공하기 위해, i) 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 PMT에 3D 서비스 정보를 추가하거나, ii) 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스와 구분된 3D 방송 서비스의 PMT에 3D 방송 서비스를 추가하여 3D 방송 수신 장치에 전송할 수 있다.

Description

3D 방송 서비스 제공 방법 및 상기 방법을 수행하는 3D 방송 제공 장치{3D BROADCASTING SERVICE PROVIDER METHOD AND 3D BROADCASTING PROVIDER APPARATUS FOR PERFORMING THE METHOD}
아래의 발명은 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법에 관한 것으로, 구체적으로는 독립적으로 존재하는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스를 활용하여 3D 방송 서비스를 제공할 수 있는 3D 방송 서비스 제공 방법에 관한 것이다.
3D 방송 제공 장치는 영상을 송출하기 위한 전송 스트림을 이용하여 양안식 3D 콘텐츠를 구성하는 좌안 영상에 해당하는 메인 영상과 우안 영상에 해당하는 부가 영상을 송출한다. 여기서, 메인 영상과 부가 영상은 전송 스트림에 따라 좌안 영상과 우안 영상이 변경될 수 있으며, 전송 스트림을 통해 각각의 영상이 송출된다.
또한, 3D 방송 제공 장치는 메인 영상과 부가 영상을 송출함에 있어서, 프레임 호환 방식과 서비스 호환 방식 중 하나의 방식을 통해 영상을 송출한다. 프레임 호환 방식은 하나의 영상 프레임을 분할하여 좌안 영상에 해당하는 메인 영상과 우안 영상에 해당하는 부가 영상으로 구성한다. 이후, 프레임 호환 방식은 메인 영상과 부가 영상을 2D 방송 서비스를 제공하기 위한 방송망을 통해 송출함으로써, 방송망과 관련된 시스템 간의 호환성을 확보하는 방식이나. 2D 방송 수신 장치와의 호환성을 보장하지 않는다.
반면, 서비스 호환 방식은 2D 방송 수신 장치에 대한 호환성을 보장하는 방식이다. 이에 최근에는 2D 방송 서비스를 제공하는 2D 방송 수신 장치의 호환성을 보장하기 위해, 서비스 호환 방식을 통해 3D 방송 서비스를 제공하기 위한 연구가 활발하게 진행 중에 있다.
구체적으로, 서비스 호환 방식은 양안식 3D 콘텐츠를 구성하는 메인 영상과 부가 영상을 서로 다른 전송 스트림을 통해 송출한다. 즉, 서비스 호환 방식은 메인 영상과 부가 영상을 송출함에 있어, 전송 효율성을 향상시키기 위해, 메인 영상과 부가 영상 중 어느 하나의 영상을 2D 방송 서비스로 대체하여 송출한다. 서비스 호환 방식은 메인 영상과 부가 영상 중 어느 하나의 영상을 2D 방송 서비스를 제공하는 2D 방송 수신 장치에서 사용할 수 있도록 하여 2D 방송 수신 장치에 대한 호환성을 보장하는 방식이다.
그러나, 서비스 호환 방식은 상술한 바와 같이 메인 영상과 부가 영상 중 어느 하나의 영상을 2D 방송 서비스로 대체하고, 나머지 하나의 영상을 3D 방송 서비스로 송출됨에 따라 나머지 하나의 영상에 대하여 방송 대역폭의 일부를 활용하게 된다. 결국, 서비스 호환 방식은 주파수 효율성이 떨어지는 문제점이 있다.
따라서, 서비스 호한 방식을 기반으로 주파수의 효율성을 극대화 하는 3D 방송 서비스 제공 방법이 필요하다.
본 발명은 3D 방송 서비스를 제공하기 위해 독립적으로 존재하는 2D 방송 서비스에 대하여 메인 영상과 부가 영상으로 활용하는 3D 방송 서비스 제공 방법을 제공할 수 있다.
일실시예에 따른 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법은 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계; 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계를 포함할 수 있다.
일실시예에 따른 상기 3D 서비스 정보는 상기 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함하고, 상기 3D 서비스 정보는 상기 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
일실시예에 따른 식별 정보는 상기 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하고, 상기 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 3D 서비스 정보는 3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 3D 방송 서비스 제공 방법은 상기 메인 영상의 2D 방송 서비스와 상기 부가 영상의 2D 방송 서비스는, 동일한 전송 스트림 또는 다른 전송 스트림에 포함될 수 있다.
다른 실시예에 따른 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법은 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계; 및 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계를 포함하고, 상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유할 수 있다.
일실시예에 따른 3D 서비스 정보는 상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함하고, 3D 서비스 정보는 상기 3D 방송 서비스가 부가 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
일실시예에 따른 식별 정보는 상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하고, 식별 정보는 상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 3D 서비스 정보는 3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 3D 방송 서비스 제공 방법은 상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 메인 영상의 2D 방송 서비스인 경우, 메인 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되고, 3D 방송 서비스 제공 방법은 상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 부가 영상의 2D 방송 서비스인 경우, 부가 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함될 수 있다.
또 다른 실시예에 따른 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법은 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계; 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계를 포함하고 상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스와 비디오 또는 오디오를 공유하지 않을 수 있다.
일실시예에 따른 3D 서비스 정보는, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함하는 메인 영상의 2D 방송 서비스에 대한 식별 정보 및 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
일실시예에 따른 3D 서비스 정보는 3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
일실시예에 따른 3D 방송 서비스 제공 방법은 상기 메인 영상의 2D 방송 서비스, 상기 부가 영상의 2D 방송 서비스 및 3D 방송 서비스는, 동일한 전송 스트림 또는 다른 전송 스트림에 포함될 수 있다.
일실시예에 따른 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부; 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부를 포함할 수 있다.
일실시예에 따른 메인 영상의 2D 방송 서비스와 상기 부가 영상의 2D 방송 서비스는, 동일한 전송 스트림 또는 다른 전송 스트림에 포함될 수 있다.
일실시예에 따른 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부; 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부를 포함하고, 상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유할 수 있다.
일실시예에 따른 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스는, 상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 메인 영상의 2D 방송 서비스인 경우, 메인 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되고, 상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 부가 영상의 2D 방송 서비스인 경우, 부가 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함될 수 있다.
일실시예에 따른 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부; 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부를 포함하고, 상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스와 비디오 또는 오디오를 공유하지 않을 수 있다.
일실시예에 따른 메인 영상의 2D 방송 서비스, 상기 부가 영상의 2D 방송 서비스 및 3D 방송 서비스는, 동일한 전송 스트림 또는 다른 전송 스트림에 포함될 수 있다.
본 발명의 일실시예에 따르면 3D 방송 서비스 제공 방법은 3D 방송 서비스를 제공하기 위해 독립적으로 존재하는 2D 방송 서비스에 대하여 메인 영상과 부가 영상으로 활용함으로써, 주파수의 효율성을 극대화할 수 있다.
도 1은 일실시예에 따른 3D 방송 제공 장치와 3D 방송 수신 장치 간의 구성도를 도시한 도면이다.
도 2는 일실시예에 따른 3D 방송 서비스를 제공하기 위해 2D 방송 서비스 와 3D 방송 서비스를 구성하는 방식을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 4는 다른 실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 5는 또 다른 실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 3D 방송 제공 장치가 3D 방송 수신 장치로 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스를 전송하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스를 동기화하는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 3D 방송 서비스 제공 방법에 대한 흐름도이다.
도 9는 다른 실시예에 따른 3D 방송 서비스 제공 방법에 대한 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일실시예에 따른 3D 방송 제공 장치와 3D 방송 수신 장치 간의 구성도를 도시한 도면이다.
도 1을 참고하면, 3D 방송 제공 장치(101)는 3D 방송 서비스를 제공하기 위해 메인 영상(103)과 부가 영상(104)을 3D 방송 수신 장치(102)에 전송할 수 있다. 여기서, 메인 영상(103)과 부가 영상(104)은 독립적으로 존재하는 2D 방송 서비스에 의해 생성된 영상일 수 있다. 또한, 메인 영상(103)과 부가 영상(104)은 3D 방송 수신 장치(102)로 전송되는 전송 스트림에 따라 좌안 영상 또는 우안 영상으로 구분되어 나타날 수 있다.
3D 방송 제공 장치(101)는 3D 방송 서비스로 제공하기 위해 3D 서비스 정보를 포함할 수 있다. 여기서, 3D 서비스 정보는 메인 영상(103)의 2D 방송 서비스와 부가 영상(104)의 2D 방송 서비스를 3D 방송 서비스로 제공하기 위해 제공되는 정보일 수 있다.
구체적으로, 3D 서비스 정보는 미리 정의된 디스크립터에 의해 시그널링 될 수 있다. 여기서, 디스크립터는 3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상(103) 및 부가 영상(104)의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상(103) 및 부가 영상(104) 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
서비스 타입은 3D 방송 수신 장치에서 제공되고 있는 콘텐츠의 타입이 2D 방송 서비스 인지 또는 3D 방송 서비스 인지를 나타낼 수 있다. 플래그는 메인 영상(103)과 부가 영상(104)에 대하여 좌안 영상인지 또는 우안 영상인지를 나타내는 정보일 수 있다. 일례로, 플래그는 leftview_flag로 표현되며, '1'의 값을 나타내는 경우, 상기 플래그를 포함하는 메인 영상(103) 또는 부가 영상(104)이 좌안 영상으로 표현되고, 반대로 '0'의 값을 나타내는 경우, 플래그를 포함하는 메인 영상(103) 또는 부가 영상(104)이 우안 영상으로 표현될 수 있다.
그리고, 동기화 정보는 메인 영상(103)의 2D 방송 서비스에 대한 출력 타임 스탬프와 부가 영상(104)의 2D 방송 서비스에 대한 출력 타임 스탬프를 이용하여 메인 영상(103)과 부가 영상(104) 간의 매칭되는 프레임을 식별하기 위한 정보일 수 있다.
또한, 3D 방송 제공 장치(101)는 2D 방송 서비스 또는 3D 방송 서비스에 포함된 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가할 수 있다. 3D 서비스 정보를 추가하는 자세한 구성은 도 2 내지 도 5를 통해 설명하도록 한다.
이후, 3D 방송 제공 장치(101)는 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치(102)에 전송할 수 있다. 그리고, 3D 방송 수신 장치(102)는 3D 방송 제공 장치(103)로부터 수신한 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스를 이용하여 3D 방송 서비스를 사용자에게 제공할 수 있다.
3D 방송 수신 장치(102)는 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스, 또는 별도의 3D 전용 서비스에 포함된 프로그램 맵 테이블에 추가된 3D 서비스 정보를 기반으로 3D 방송 서비스를 제공하기 위해 3D 방송 서비스의 좌우영상을 구성하는 두 개의 2D 방송 서비스에 대한 동시 수신/합성/재생을 수행할 수 있다. 이 때, 3D 방송 수신 장치(102)는 메인 영상(103)의 2D 방송 서비스와 부가 영상(104)의 2D 방송 서비스가 각각 3D 영상의 좌우영상인 동시 방송(Simulcasting) 구간에서 메인 영상(103)과 부가 영상(104)을 이용한 3D 방송 서비스를 사용자에게 제공할 수 있다. 즉, 3D 방송 수신 장치(102)는 3D 방송 제공 장치(101)로부터 메인 영상(103) 및 부가 영상(104)을 수신하고, 동시 방송 구간에서 수신한 메인 영상(103) 및 부가 영상(104)을 합성함으로써, 3D 방송 서비스를 사용자에게 제공할 수 있다.
여기서, 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스는 DVB(Digital Video Broadcasting) 규격 기반의 서비스 제공 방식으로 이용될 수 있다. 일례로, 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스는 DVB 규격을 기반으로 DVB-T, DVB-T2, DVB-S, DVB-S2, DVB-C, DVB-C2 등의 서비스 제공 방식으로 이용될 수 있다.
또한, 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스는 DVB-T2의 서비스 제공 방식에서 활용될 수 있다. 여기서, DVB-T2의 서비스 제공 방식은 동일한 프로그램을 단일 채널 내 강인성이 다른 두 개의 서비스 형태로 제공할 수 있다.
결국, 3D 방송 수신 장치(102)는 독립적으로 존재하는 메인 영상(103)의 2D 방송 서비스, 부가 영상(104)의 2D 방송 서비스를 동시에 수신/재생/합성함으로써, 3D 방송 서비스를 위한 별도의 대역폭을 할당하지 않고, 3D 방송 서비스를 제공할 수 있다.
따라서, 3D 방송 제공 장치(101)는 3D 방송 서비스를 위한 메인 영상(103)과 부가 영상(104)에 대하여 2D 방송 서비스를 이용함으로써, 주파수에 대한 효율성을 향상시키고, 기존의 2D 방송 서비스를 제공하던 수신 장치를 3D 방송 수신 장치(102)로 활용이 가능한 3D 방송 서비스 제공 방법을 제공할 수 있다.
도 2는 일실시예에 따른 3D 방송 서비스를 제공하기 위해 2D 방송 서비스 와 3D 방송 서비스를 구성하는 방식을 설명하기 위한 도면이다.
도 2를 참고하면, 3D 방송 제공 장치는 3D 방송 서비스를 제공하기 위한 방송 서비스 구성에 따라 3D 서비스 정보를 프로그램 맵 테이블에 추가할 수 있다.
여기서, 방송 서비스 구성은 3D 서비스 정보를 추가하는 프로그램 맵 테이블을 포함하는 방송 서비스에 따라 구분될 수 있다. 다시 말해, 방송 서비스 구성은 다음과 같이 두 가지로 구분될 수 있다.
제1 실시예에 따르면, 3D 방송 제공 장치는 2D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다.
구체적으로, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다. 그리고, 3D 서비스 정보는 3D 서비스 정보가 추가되지 않은 프로그램 맵 테이블을 포함하는 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다. 이에 대한 자세한 구성은 도 3을 통해 설명하도록 한다.
일례로, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다. 그리고, 3D 서비스 정보는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
제2 실시예에 따르면 3D 방송 제공 장치는 별도로 존재하는 3D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다.
상세하게, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스와 구분되는 3D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다. 여기서, 3D 방송 서비스는 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유하는 형태 또는 공유하지 않는 형태로 구분될 수 있다.
그리고, 3D 서비스 정보는 3D 방송 서비스의 형태에 따라 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나에 대한 식별 정보를 포함하거나 또는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 대한 각각의 식별 정보를 포함할 수 있다. 이에 대한 자세한 구성은 도 4 내지 도 5를 통해 설명하도록 한다.
도 3은 일실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 3을 참고하면, 메인 영상의 2D 방송 서비스(301)와 부가 영상의 2D 방송 서비스(304)는 서로 다른 채널에 포함된 전송 스트림 내에 존재할 수 있다. 이 때, 메인 영상의 2D 방송 서비스(301)와 부가 영상의 2D 방송 서비스(304)는 경우에 따라 동일한 채널 내 전송 스트림에 존재할 수 있다. 이는 위에서 상술한 바와 같이 DVB-T2의 서비스 제공 방식을 이용함에 따라 단일 채널 내 메인 영상의 2D 방송 서비스(301)와 부가 영상의 2D 방송 서비스(304)가 존재할 수 있다.
일례로, 메인 영상의 2D 방송 서비스(301)은 DVB-T2의 방송 환경에 따른 PLP-1 채널에 포함될 수 있으며, 부가 영상의 2D 방송 서비스(304)는 DVB-T2의 방송 환경에 따른 PLP-2 채널에 포함될 수 있다. 그리고, 메인 영상의 2D 방송 서비스(301)와 부가 영상의 2D 방송 서비스(304)는 DVB-T2의 방송 환경에 따라 도3에 도시된 것과 상이하게 하나의 PLP 채널 내 전송 스트림에 포함될 수 있다.
그리고, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(301)와 부가 영상의 2D 방송 서비스(304) 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보를 추가할 수 있다. 이하에서는 보다 정확한 설명을 위해 3D 서비스 정보(302)가 메인 영상의 2D 방송 서비스(301)의 프로그램 맵 테이블에 추가된 것으로 가정하고, 이를 기준으로 본원발명을 설명하도록 한다.
구체적으로, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(301)에 포함된 프로그램 맵 테이블(302)에 3D 서비스 정보(303)을 추가할 수 있다. 다시 말해, 3D 방송 제공 장치는 채널 변경 없이 메인 영상의 2D 방송 서비스(301)에서 3D 방송 서비스로 서비스 형태를 변환하기 위해 3D 서비스 정보에 대한 시그널링 정보를 메인 영상의 2D 방송 서비스(301)에 추가할 수 있다.
시그널링 정보는 프로그램 맵 테이블 외에 서비스 세부 테이블(SDT: Service Description Table)과 이벤트 정보 테이블(EIT: Event Information Table)을 포함할 수 있다. 여기서, 서비스 세부 테이블은 메인 영상 또는 부가 영상에 대하여 2D 방송 서비스 인지 또는 3D 방송 서비스 인지를 구분하기 위한 세부 정보를 포함할 수 있다. 또한, 서비스 세부 테이블은 2D 방송 수신 장치에 대한 호환성을 유지하지 위해 2D 방송 서비스와 동일한 서비스 타입(service_type)과 컴포넌트 타입(component_type)을 이용할 수 있다. 그리고, 서비스 타입과 컴포넌트 타입은 다음과 같이 정의될 수 있다.
서비스 타입은 서비스 세부 테이블 내에 service_descriptor()의 구성필드일 수 있다. 일례로, 서비스 타입은 2D 방송 서비스를 위한 “MPEG-2 HD digital television service” (type 0x11) 또는 "advanced codec HD services" (types 0x19, 0x1A, and 0x1B)를 사용할 수 있다. 그리고, 서비스 타입은 추후 DVB에 의해 UHD 및 HEVC를 위한 service_type이 정해지면 이용 가능할 수 있다.
컴포넌트 타입은 서비스 세부 테이블 내에 component_descriptor()의 구성필드일 수 있다. 일례로, 컴포넌트 타입은 2D 방송 서비스를 위한 “MPEG-2 high definition video” type (0x01-0x0A, 0x01-0x0B, 0x01-0x0E 또는 0x01-0x0F) 또는 “H.264/AVC high definition video” type (0x05-0x0B 또는 0x05-0x0F)을 사용할 수 있다. 그리고, 컴포넌트 타입은 추후 DVB에 의해 UHD 및 HEVC를 위한 component_type이 정해지면 이용 가능할 수 있다.
또한, 이벤트 정보 테이블은 서비스 세부 테이블과 동일한 방식으로 컴포넌트 타입을 시그널링할 수 있다.
프로그램 맵 테이블(302)은 3D 서비스 정보를 추가하기 위한 디스크립터가 정의될 수 있다. 그리고, 3D 방송 제공 장치는 프로그램 맵 테이블에 정의된 디스크립터에 따라 디스크립터 형식의 3D 서비스 정보를 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블(302)에 추가할 수 있다.
3D 서비스 정보는 3D 방송 수신 장치에 제공되는 서비스 타입, 식별 정보, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
서비스 타입은 3D 방송 수신 장치에서 제공되고 있는 프로그램의 타입을 나타내는 것으로써, 이에 따라 2D 방송 서비스 또는 3D 방송 서비스에 타입을 알릴 수 있다.
식별 정보는 3D 서비스 정보(303)가 추가된 2D 방송 서비스의 영상에 따라 서로 다른 식별 정보를 포함할 수 있다. 구체적으로, 식별 정보는 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다. 또한, 식별 정보는 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다.
플래그는 '1'의 값을 나타내는 경우, 상기 플래그를 포함하는 메인 영상 또는 부가 영상이 좌안 영상으로 표현되고, 반대로 '0'의 값을 나타내는 경우, 플래그를 포함하는 메인 영상 또는 부가 영상이 우안 영상으로 표현될 수 있다. 즉, 플래그는 3D 방송 제공 장치에서 제공되는 메인 영상과 부가 영상에 대응하여 좌영상인지 또는 우영상인지에 대한 판단 기준을 나타낼 수 있다.
동기화 정보는 메인 영상의 2D 방송 서비스에 대한 출력 타임 스탬프와 부가 영상의 2D 방송 서비스에 대한 출력 타임 스탬프를 이용하여 메인 영상과 부가 영상 간의 매칭되는 프레임을 식별하기 위한 정보일 수 있다.
상술한 프로그램 맵 테이블에 정의된 디스크립터는 표 1과 표현될 수 있다.
Syntax No. of Bits Format
hybrid_stereoscopic_service_descriptor() {
descriptor_tag
descriptor_length
Reserved
stereoscopic_service_type
If (stereoscopic_service_type == ‘001’ ) {
counterpart_transport_stream_id
counterpart_original_network_id
counterpart_service_id
Reserved
leftview_flag
offset_sign_bit
timestamp_offset
}
}

8
8
5
3

16
16
16
6
1
1
32

uimsbf
uimsbf
'11111'
bslbf

uimsbf
uimsbf
uimsbf
'111111'
bslbf
bslbf
uimsbf
표 1을 살펴보면, stereoscopic_service_type은 서비스 타입을 나타내며, 3비트로 구성된 필드를 통해 현재 3D 방송 수신 장치에서 제공되는 프로그램의 타입을 나타낼 수 있다.
counterpart_transport_stream_id, counterpart_original_network_id, counterpart_service_id은 식별 정보를 나타낼 수 있다. 그리고, 메인 영상의 2D 방송 서비스를 기준으로 counterpart_transport_stream_id는 부가 영상의 2D 방송 서비스(304)의 전송 스트림 ID를 나타내고, counterpart_original_network_id는 부가 영상의 2D 방송 서비스(304)의 original network ID를 나타내며, counterpart_service_id는 부가 영상의 2D 방송 서비스(304)에 대한 service ID로써, PMT의 program_number와 동일한 형식으로 표현될 수 있다.
leftview_flag는 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스에 대한 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그를 나타낼 수 있다.
offset_sign_bit, timestamp_offset는 동기화 정보를 나타내며, offset_sign_bit는 1비트로 구성된 본 필드로써, timestamp_offset의 부호를 의미할 수 있다. 그리고, 필드의 값이 ‘0’인 경우 timestamp_offset이 양의 부호임을 의미하며, ‘1’인 경우 timestamp_offset이 음의 부호임을 의미할 수 있다. 또한, timestamp_offset이 0인 경우 본 필드는 무시할 수 있다. 그리고, timestamp_offset는 33비트로 구성된 본 필드는 좌우 스트림의 PTS 값 간의 차이의 절대값을 나타낼 수 있다.
따라서, 3D 방송 제공 장치는 별도의 주파수 대역을 할당하지 않고 2D 방송 서비스에 3D 서비스 정보를 추가할 수 있다. 그리고, 3D 방송 제공 장치는 기존에 사용하던 2D 방송 서비스에 포함된 프로그램 맵 테이블에 3D 서비스 정보를 추가함에 따라 3D 서비스 정보에 대한 시그널링 구조가 간단할 수 있다.
도 4는 다른 실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 4를 참고하면, 메인 영상의 2D 방송 서비스(402)와 부가 영상의 2D 방송 서비스(406)는 서로 다른 채널에 포함된 전송 스트림 내에 존재할 수 있다. 이 때, 메인 영상의 2D 방송 서비스(402)와 부가 영상의 2D 방송 서비스(406)는 경우에 따라 동일한 채널 내 전송 스트림에 존재할 수 있다. 그리고, 메인 영상의 2D 방송 서비스(402)와 부가 영상의 2D 방송 서비스(406) 중 어느 하나의 2D 방송 서비스는 3D 방송 서비스(401)와 2D 방송 서비스의 오디오 또는 비디오를 공유할 수 있다. 이 때, 3D 방송 서비스(401)는 메인 영상의 2D 방송 서비스(402)와 부가 영상의 2D 방송 서비스(406)와 구분되는 별도의 서비스 일 수 있다. 그리고, 비디오(403) 또는 오디오(404)를 공유하는 메인 영상의 2D 방송 서비스(402) 및 3D 방송 서비스(401)는 동일한 채널 내 전송 스트림에 포함될 수 있다.
3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(402)의 비디오(403) 또는 오디오(404)를 공유하는 3D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보(405)를 추가할 수 있다. 다시 말해, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(402)의 비디오(403) 또는 오디오(404)를 ES 형태로 3D 방송 서비스에 포함시키고, 3D 방송 서비스의 프로그램 맵 테이블에 3D 서비스 정보(405)에 대한 시그널링 정보를 추가할 수 있다.
시그널링 정보는 서비스 세부 테이블과 이벤트 정보 테이블을 포함할 수 있다. 여기서, 서비스 세부 테이블은 3D 방송 서비스만을 위한 정보를 포함할 수 있으며, 이를 위해 서비스 타입과 컴포넌트 타입을 이용할 수 있다. 그리고, 서비스 타입과 컴포넌트 타입은 다음과 같이 정의될 수 있다.
서비스 타입은 서비스 세부 테이블 내에 service_descriptor()의 구성필드일 수 있다. 일례로, 서비스 타입은 2D 방송 수신 장치에서 해석이 불가능하도록 3D 방송 서비스에 한정된 서비스 타입에 대한 정보로써, 융합형 3DTV 서비스를 위해 새로 정의한 “Hybrid 3DTV service” (type 0x1F) 사용할 수 있다. 또는 서비스 타입은 2D 방송 서비스를 위한 “MPEG-2 HD digital television service” (type 0x11) 또는 "advanced codec HD services" (types 0x19, 0x1A, and 0x1B)를 사용할 수 있다.
컴포넌트 타입은 서비스 세부 테이블 내에 component_descriptor()의 구성필드일 수 있다. 일례로, 컴포넌트 타입은 2D 방송 서비스를 위한 “MPEG-2 high definition video” type (0x01-0x0A, 0x01-0x0B, 0x01-0x0E 또는 0x01-0x0F) 또는 “H.264/AVC high definition video” type (0x05-0x0B 또는 0x05-0x0F)을 사용할 수 있다. 그리고, 컴포넌트 타입은 추후 DVB에 의해 UHD 및 HEVC를 위한 component_type이 정해지면 이용 가능할 수 있다.
또한, 이벤트 정보 테이블은 서비스 세부 테이블과 동일한 방식으로 컴포넌트 타입을 시그널링할 수 있다.
프로그램 맵 테이블은 3D 서비스 정보를 추가하기 위한 디스크립터가 정의될 수 있다. 그리고, 3D 방송 제공 장치는 프로그램 맵 테이블에 정의된 디스크립터에 따라 디스크립터 형식의 3D 서비스 정보를 3D 방송 서비스(401)의 프로그램 맵 테이블에 추가할 수 있다. 이에 대한 세부 구성은 도 3에 상술한 바와 동일한 구성임에 따라 생략하도록 한다.
결국, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(402)의 비디오(403) 또는 오디오(404)를 3D 방송 서비스와 공유할 뿐, 메인 영상의 2D 방송 서비스(402)의 프로그램 맵 테이블을 수정하지 않음으로써, 기존 2D 방송 수신 장치와의 역호환성 문제를 완화시킬 수 있다. 다시 말해, 3D 방송 제공 장치는 3D 방송 서비스를 제공하더라도 기존에 사용자가 사용하던 2D 수신 기기를 통한 정상적인 2D 서비스의 시청을 보장할 수 있다. 이는 3D 방송 제공 장치가 메인 영상의 2D 방송 서비스(402)의 프로그램 맵 테이블을 수정하지 않음에 따라 메인 영상에 포함된 기존의 2D 방송 서비스에 대한 시그널링 정보가 유지되기 때문일 수 있다.
도 5는 또 다른 실시예에 따른 PMT에 3D 서비스 정보를 추가하는 방법을 설명하기 위한 도면이다.
도 5를 참고하면 메인 영상의 2D 방송 서비스(501)와 부가 영상의 2D 방송 서비스(502) 및 3D 방송 서비스(503)는 서로 다른 채널에 포함된 전송 스트림 내에 존재하거나, 동일한 채널 내 전송 스트림에 존재할 수 있다. 여기서, 3D 방송 서비스(503)는 메인 영상의 2D 방송 서비스(501)와 부가 영상의 2D 방송 서비스(502)와 구분되는 별도의 서비스 일 수 있다.
구체적으로, 3D 방송 서비스(503)는 메인 영상의 2D 방송 서비스(501) 및 부가 영상의 2D 방송 서비스(502)와 별도로 프로그램 맵 테이블 및 시그널링 정보를 포함할 수 있다. 그리고, 3D 방송 서비스(503)의 프로그램 맵 테이블은 3D 서비스 정보(504)가 추가될 수 있다.
시그널링 정보는 서비스 세부 테이블과 이벤트 정보 테이블을 포함할 수 있다. 여기서, 서비스 세부 테이블은 3D 방송 서비스만을 위한 정보를 포함할 수 있으며, 이를 위해 서비스 타입과 컴포넌트 타입을 이용할 수 있다. 그리고, 서비스 타입과 컴포넌트 타입은 다음과 같이 정의될 수 있다.
서비스 타입은 서비스 세부 테이블 내에 service_descriptor()의 구성필드일 수 있다. 일례로, 서비스 타입은 2D 방송 수신 장치에서 해석이 불가능하도록 3D 방송 서비스에 한정된 서비스 타입에 대한 정보로써, 융합형 3DTV 서비스를 위해 새로 정의한 “Hybrid 3DTV service” (type 0x1F) 사용할 수 있다. 또는 서비스 타입은 2D 방송 서비스를 위한 “MPEG-2 HD digital television service” (type 0x11) 또는 "advanced codec HD services" (types 0x19, 0x1A, and 0x1B)를 사용할 수 있다.
컴포넌트 타입은 서비스 세부 테이블 내에 component_descriptor()의 구성필드일 수 있다. 일례로, 컴포넌트 타입은 2D 방송 서비스를 위한 “MPEG-2 high definition video” type (0x01-0x0A, 0x01-0x0B, 0x01-0x0E 또는 0x01-0x0F) 또는 “H.264/AVC high definition video” type (0x05-0x0B 또는 0x05-0x0F)을 사용할 수 있다. 그리고, 컴포넌트 타입은 추후 DVB에 의해 UHD 및 HEVC를 위한 component_type이 정해지면 이용 가능할 수 있다.
또한, 이벤트 정보 테이블은 서비스 세부 테이블과 동일한 방식으로 컴포넌트 타입을 시그널링할 수 있다.
여기서, 3D 서비스 정보(504)는 메인 영상의 2D 방송 서비스(501)와 부가 영상의 2D 방송 서비스(502)에 대한 각각의 식별 정보를 포함할 수 있다. 구체적으로, 3D 서비스 정보(504)는 메인 영상의 2D 방송 서비스에 대한 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나의 식별 정보를 포함할 수 있다. 3D 서비스 정보(504)는 부가 영상의 2D 방송 서비스에 대한 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나의 식별 정보를 포함할 수 있다.
즉, 3D 방송 서비스의 프로그램 맵 테이블에 추가된 3D 서비스 정보(504)는 3D 방송 수신 장치가 3D 방송 서비스를 제공할 때, 메인 영상과 부가 영상을 동시에 수신/합성/재생할 수 있도록 각각의 식별 정보를 포함할 수 있다.
또한, 3D 방송 서비스의 프로그램 맵 테이블에 추가된 3D 서비스 정보(504)는 메인 영상의 2D 방송 서비스의 식별 정보 및 부가 영상의 2D 방송 서비스의 식별 정보를 포함함에 따라 디스크립터에 대한 일부 구성에 대하여 표 2와 같이 표현될 수 있다.
Syntax No. of Bits Format
hybrid_stereoscopic_service_descriptor() {
descriptor_tag
descriptor_length
Reserved
stereoscopic_service_type
If (stereoscopic_service_type == ‘001’ ) {
mainview_transport_stream_id
mainview_original_network_id
mainview_service_id
additionalview_transport_stream_id
additional_original_network_id
additionalview_service_id
Reserved
leftview_flag
offset_sign_bit
timestamp_offset
}
}

8
8
5
3

16
16
16
16
16
16
6
1
1
32

uimsbf
uimsbf
'11111'
bslbf

uimsbf
uimsbf
uimsbf
uimsbf
uimsbf
uimsbf
'111111'
bslbf
bslbf
uimsbf
표 2를 살펴보면, mainview_transport_stream_id, mainview_original_network_id 및 mainview_service_id는 식별 정보를 나타낼 수 있다.
mainview_transport_stream_id는 메인 영상의 2D 방송 서비스의 전송 스트림 ID를 나타내고, mainview_original_network_id는 메인 영상의 2D 방송 서비스의 original network ID를 나타내며, mainview_service_id는 부가 영상의 2D 방송 서비스에 대한 service ID를 나타낼 수 있다. 반대로, “additionalview”로 시작하는 필드는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 나타낼 수 있다.
결국, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(501)와 부가 영상의 2D 방송 서비스(502) 각각의 프로그램 맵 테이블을 수정하지 않음으로써, 기존 2D 방송 수신 장치와의 역호환성 문제를 완화시킬 수 있다.
또한, 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스(501) 및 부가 영상의 2D 방송 서비스(502)와 3D 방송 서비스를 분리함으로써, 2D 방송 서비스(501), (502)를 이용한 3D 방송 서비스에 대한 유연성을 제공할 수 있다.
도 6은 일실시예에 따른 3D 방송 제공 장치가 3D 방송 수신 장치로 메인 영상 및 부가 영상을 전송하는 과정을 설명하기 위한 도면이다.
도 6을 참고하면, 3D 방송 제공 장치(601)는 3D 방송 수신 장치(605)로 메인 영상(602) 및 부가 영상(604) 전송할 수 있다. 이 때, 3D 방송 제공 장치(601)는 메인 영상(602)의 비디오 프레임 헤더 정보를 이용하여 프로그램 맵 테이블에 정의된 디스크립터를 3D 방송 수신 장치(605)에 전송할 수 있다.
구체적으로, 3D 방송 제공 장치(601)는 메인 영상(602)의 비디오 프레임 헤더 정보로 프로그램 맵 테이블에 정의된 디스크립터를 삽입하고, 디스크립터가 삽입된 메인 영상(602)의 비디오 프레임 헤더 정보를 3D 방송 수신 장치(605)에 전송할 수 있다. 이 때, 디스크립터가 삽입된 메인 영상(602)의 비디오 프레임 헤더 정보는 3D 방송 수신 장치(605)에서 제공할 수 있는 프로그램에 대한 방송 서비스의 경계 정보를 나타낼 수 있다. 다시 말해, 디스크립터가 삽입된 메인 영상(602)의 비디오 프레임 헤더 정보는 삽입된 디스크립터가 나타내는 값에 따라 2D 방송 서비스에서 3D 방송 서비스로 전환되는 시점을 나타내거나, 3D 방송 서비스에서 2D 방송 서비스로 전환되는 시점을 나타낼 수 있다.
그리고, 3D 방송 제공 장치(601)는 3D 방송 수신 장치(605)가 수행하는 서비스 전환 시점을 고려하여 디스크립터(603)가 삽입된 메인 영상(602)의 비디오 프레임 헤더 정보를 전송할 수 있다.
제1 실시예에 따르면, 3D 방송 제공 장치(601)는 3D 방송 수신 장치(605)가 실제적으로 3D 방송 서비스를 제공한 이후 현재 제공된 서비스가 3D 방송 서비스 임을 나타내는 디스크립터(603)를 3D 방송 수신 장치(605)에 전송할 수 있다.
구체적으로, 3D 방송 수신 장치(605)가 프로그램 맵 테이블의 디스크립터에 기초하여 영상에 대한 서비스 형태를 전환하는 경우, 3D 방송 제공 장치(601)는 3D 방송 서비스를 제공한 시점 이후에 3D 방송 서비스를 나타내는 디스크립터(603)를 3D 방송 수신 장치(605)에 전송할 수 있다. 다시 말해, 3D 방송 서비스를 나타내는 디스크립터(603)는 실제로 3D 방송 서비스를 제공한 이후에 시그널링되어야 한다.
이는 3D 방송 수신 장치(605)가 3D 방송 서비스를 제공하기 위해, 메인 영상(602)과 부가 영상(604)을 동시에 수신/합성/재생함에 따라 연관성이 없는 메인 영상과 부가 영상을 3D 방송 서비스로 합성하는 것을 방지하기 위함일 수 있다.
제2 실시예에 따르면, 3D 방송 제공 장치(601)는 3D 방송 수신 장치(605)가 실제적으로 3D 방송 서비스를 제공하기 이전에 다음 프레임에 대하여 3D 방송 서비스가 시작되는 구간이라는 것을 나타내는 디스크립터(603)를 3D 방송 수신 장치(605)에 전송할 수 있다.
상세하게, 3D 방송 수신 장치(605)가 메인 영상(602)의 비디오 프레임 헤더 정보에 기초하여 영상에 대한 서비스 형태를 전환하는 경우, 3D 방송 제공 장치(601)는 3D 방송 서비스를 제공하기 이전에 '3D 방송 서비스를 나타내는 디스크립터(603)를 3D 방송 수신 장치(605)에 전송할 수 있다. 다시 말해, 3D 방송 서비스를 나타내는 디스크립터(603)는 실제로 3D 방송 서비스를 제공하기 이전에 시그널링되어야 한다.
일례로, 3D 방송 수신 장치(605)가 메인 영상(602)의 비디오 프레임 헤더 정보와 디스크립터를 선택적으로 이용할 수 있는 경우, 3D 방송 수신 장치(605)는 프로그램 맵 테이블의 디스크립터만을 이용하여 서비스 형태를 파악할 수 있다.
여기서, 3D 방송 수신 장치(605)는 실제적으로 3D 방송 서비스를 제공하는 구간 이전에 3D 방송 서비스를 나타내는 디스크립터를 수신하는 경우, 상이한 메인 영상(606)과 부가 영상(607)을 합성할 수 있다. 따라서, 부정확한 메인 영상(606)과 부가 영상(607) 간의 합성을 방지하기 위해 3D 방송 제공 장치(601)는 프로그램 맵 테이블의 current_next_indicator 필드 값을 '0'으로 설정함으로써, 해당 3D 서비스 정보가 현재 적용 가능한 정보가 아닌 다음에 이어질 3D 방송 서비스에 대한 정보임을 알릴 수 있다.
또한, 3D 방송 제공 장치(601)는 current_next_indicator 필드 값을 '1'으로 설정함으로써, 실제적으로 3D 방송 서비스를 제공하는 구간이라는 정보를 알릴 수 있다.
이 때, 3D 방송 제공 장치(601)는 메인 영상(602)의 비디오 프레임 헤더 정보를 이용하는 경우, 비디오 프레임에 따라 AVC/HEVC Video와 MPEG-2 Video로 구분될 수 있으며, 각각은 아래와 같은 필드를 이용할 수 있다.
구체적으로, AVC/HEVC Video는 비디오 프레임 헤더의 Frame packing arrangement SEI message를 이용하여 해당 프레임이 2D 방송 서비스 인지 또는 3D 방송 서비스 인지를 시그널링할 수 있다. 일례로, 비디오 프레임 헤더가 2D 방송 서비스인 경우, AVC/HEVC Video는 Frame packing arrangement SEI message 내 frame_packing_arrangement_cancel_flag 를 '1’로 세팅하여 3D 방송 수신 장치에 전송할 수 있다. 비디오 프레임 헤더가 3D 방송 서비스인 경우, AVC/HEVC Video는 Frame packing arrangement SEI message를 포함하지 않고 전송할 수 있다.
또한, MPEG-2 Video는 프레임 헤더의 frame_packing_arrangement_data를 이용하여 해당 프레임이 2D 방송 서비스 인지 또는 3D 방송 서비스 인지를 시그널링할 수 있다. 일례로, 비디오 프레임 헤더가 2D 방송 서비스인 경우, MPEG-2 Video는 arrangement_type 필드의 값을 ‘0001000’ (2D video)로 세팅하여 전송할 수 있다. 비디오 프레임 헤더가 3D 방송 서비스인 경우, MPEG-2 Video는 frame_packing_arrangement_data를 포함하지 않고 전송할 수 있다.
여기서, 특정 프레임이 3D임을 시그널링하기 위해 packing arrangement SEI message 또는 frame_packing_arrangement_data를 포함하지 않고 전송하는 것은, 비디오 프레임 유형을 시그널링하기 위해 전송하는 Frame packing arrangement SEI message(AVC/HEVC)와 frame_packing_arrangement_data(MPEG-2)의 본래 목적을 유지하기 위함일 수 있다. 다시 말해, 이는 Frame packing arrangement SEI message(AVC/HEVC)와 frame_packing_arrangement_data(MPEG-2)의 목적으로써, 하나의 영상에 좌우 영상을 모두 포함하는 프레임 호환 방식의 영상에 대한 배치 구성을 시그널링하기 위함이기 때문일 수 있다. 그러므로 본 발명에서는 2D 프레임에 한해 기존의 프레임 호환 방식을 위한 규격을 이용하여 해당 프레임이 2D 영상임을 시그널링 함으로써 새로운 시그널링 규격에 대한 정의 없이 기존 규격을 위배하지 않고 2D-3D 경계 정보를 전송할 수 있다.
도 7은 일실시예에 따른 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스를 동기화하는 과정을 설명하기 위한 도면이다.
도 7을 참고하면, 3D 방송 수신 장치(605)는 2D 방송 서비스를 3D 방송 서비스로 제공하기 위하여 메인 영상의 2D 방송 서비스(701) 및 부가 영상의 2D 방송 서비스(702)에 대한 동기화를 수행할 수 있다.
구체적으로, 3D 방송 수신 장치(605)는 3D 방송 제공 장치로부터 전달되는 프로그램 맵 테이블의 디스크립터를 기반으로 서비스 전환 시점을 판단할 수 있다. 그리고, 3D 방송 수신 장치(605)는 서비스 전환 시점에 대응하여 메인 영상의 2D 방송 서비스(701) 및 부가 영상의 2D 방송 서비스(702)를 동기화함으로써, 3D 방송 서비스를 제공할 수 있다.
이 때, 3D 방송 수신 장치(605)는 메인 영상의 2D 방송 서비스(701)의 출력 타임 스탬프 및 부가 영상의 2D 방송 서비스(702)의 출력 타임 스탬프를 이용하여 2D 방송 서비스를 동기화할 수 있다. 여기서, 메인 영상의 2D 방송 서비스(701)의 출력 타임 스탬프 및 부가 영상의 2D 방송 서비스(702)의 출력 타임 스탬프는 독립적으로 존재하는 메인 영상과 부가 영상에 의해 서로 상이한 정보를 포함할 수 있다.
따라서, 3D 방송 수신 장치(605)는 상이한 정보를 나타내는 메인 영상의 2D 방송 서비스(701)의 출력 타임 스탬프 및 부가 영상의 2D 방송 서비스(702)의 출력 타임 스탬프를 식별함으로써, 메인 영상과 부가 영상 간의 프레임을 매칭할 수 있다.
본원발명에서 제안하는 3D 방송 수신 장치(605)는 메인 영상과 부가 영상을 동시 수신/합성/재생하여 3D 방송 서비스를 제공함에 따라 메인 영상의 2D 방송 서비스(701)의 출력 타임 스탬프 및 부가 영상의 2D 방송 서비스(702)의 출력 타임 스탬프의 클럭 갱신 속도(clock rate)는 동일하게 나타낼 수 있다.
결국, 3D 방송 수신 장치(605)는 메인 영상과 부가 영상에 대하여 동시 수신/합성/재생을 수행하기 위해 메인 영상의 2D 방송 서비스(701)의 출력 타임 스탬프 및 부가 영상의 2D 방송 서비스(702)의 출력 타임 스탬프 간의 오프셋을 메인 영상과 부가 영상의 동기 정보로 이용할 수 있다.
여기서, 메인 영상과 부가 영상의 동기 정보는 오프셋 정보와 타임스탬프 정보로 구분될 수 있다. 그리고, 오프셋 정보는 offset_sign_bit 필드로 정의되며, 1bit로 구성될 수 있다. 오프셋 정보는 필드는 timestamp_offset의 부호를 의미할 수 있다. 일례로, 오프셋 정보는 ‘0’의 경우 timestamp_offset이 양의 부호임을 의미하며, ‘1’의 경우 timestamp_offset이 음의 부호임을 의미할 수 있으며, 또한, timestamp_offset이 0인 경우 본 필드는 무시할 수 있다.
또한, 타임스탬프 정보는 timestamp_offset 필등로 정의되면 33bits로 구성될 수 있다. 일례로, 타임스탬프 정보는 좌우 스트림의 PTS 값 간의 차이의 절대값을 나타낼 수 있다.
여기서, 메인 영상과 부가 영상의 동기 정보는 3D 서비스 정보로써, 프로그램 맵 테이블의 디스크립터에 포함된 형태로 3D 방송 수신 장치(605)에 전달될 수 있다.
일례로, 3D 방송 수신 장치(605)는 다음과 같은 동작을 통해 메인 영상과 부가 영상을 매칭할 수 있다. 상세하게, 3D 방송 수신 장치(605)는 3D 서비스 정보를 포함하는 전송 스트림을 좌안 영상의 메인 영상으로 3D 서비스 정보를 포함하지 않는 전송 스트림을 우안 영상의 부가 영상으로 가정할 수 있다. 그리고, 메인 영상의 전송 스트림을 PTS로 지칭하고, 부가 영상의 전송 스트림을 PTS'로 지칭할 수 있다.
여기서, PTS'는 수학식 1과 같이 timestamp_offset에 기반하여 메인 영상의 전송 스트림에 해당하는 PTS와 동일한 기준 클럭을 이용하도록 형태를 변환할 수 있다.
Figure pat00001
그리고, 변환된 PTS'의 출력 타임 스탬프의 값을 CT라 할 때, 3D 방송 수신 장치(605)는 메인 영상과 메인 영상의 PTS 값과 동일한 CT 값을 갖는 부가 영상을 3D 영상으로 포맷을 합성함으로써, 3D 방송 서비스를 제공할 수 있다.
다시 말해, offset_sign_bit (OSB)가 1이고 timestamp_offset (TO)이 100이라 가정할 경우, 메인 영상의 전송 스트림의 RAU1의 PTS인 RPTS1은 1000의 값을 가질 수 있다. 이 때, RPTS1에 대한 1000의 값은 수학식 1에 대응시킴에 따라 출력 타임 스탬프(CT)에 대한 900값을 도출할 수 있다. 따라서, 3D 방송 수신 장치(605)는 메인 영상의 전송 스트림의 RAU1에 대응하는 부가 영상의 전송 스트림으로 LPTS의 값이 900을 나타내는 LAU1(704)과 매칭되는 영상임을 확인할 수 있다.
또한, 연속되는 프레임 간 timestamp 값 차이를 미리 알고 있는 경우, 3D 방송 수신 장치(605)는 모든 프레임에 대해 수학식 1에 기초한 출력타임스탬프 변환과정을 수행할 필요 없이 초기 1회의 계산을 통해 서비스 전반의 영상 동기화를 수행할 수 있다. 즉, 3D 방송 수신 장치(605)는 연속되는 프레임 간 출력 타임 스탬프에 대한 값의 차이가 300임을 알고 있는 경우, 900의 LPTS와 1000의 RPTS에 이어지는 LPTS, RPTS 값은 각각 1200과 1300임을 확인하고, 이에 따라 영상의 매칭을 수행할 수 있다.
도 8은 일실시예에 따른 3D 방송 서비스 제공 방법에 대한 흐름도이다.
단계(801)에서 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가할 수 있다. 여기서, 3D 서비스 정보는 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다. 또한, 3D 서비스 정보는 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
추가적으로, 3D 서비스 정보는 3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함할 수 있다.
또한, 식별 정보는 상기 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다. 또한, 식별 정보는 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다.
이 때, 메인 영상의 2D 방송 서비스와 상기 부가 영상의 2D 방송 서비스는, 동일한 전송 스트림 또는 다른 전송 스트림에 포함할 수 있다.
단계(802)에서 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송할 수 있다.
도 9는 다른 실시예에 따른 3D 방송 서비스 제공 방법에 대한 흐름도이다.
단계(901)에서 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가할 수 있다.
제1 실시예에 따르면, 3D 방송 서비스는 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유할 수 있다.
그리고, 3D 서비스 정보는 상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다. 또한, 3D 서비스 정보는 3D 방송 서비스가 부가 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
여기서, 식별 정보는 상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다. 또한, 식별 정보는 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함할 수 있다.
이 때, 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스는 상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 메인 영상의 2D 방송 서비스인 경우, 메인 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함할 수 있다. 또한, 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스는 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 부가 영상의 2D 방송 서비스인 경우, 부가 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함할 수 있다.
제1 실시예에 따르면, 3D 방송 서비스는 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스와 비디오 또는 오디오를 공유하지 않을 수 있다.
그리고, 3D 방송 서비스는 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함하는 메인 영상의 2D 방송 서비스에 대한 식별 정보 및 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함할 수 있다.
또한, 상기 메인 영상의 2D 방송 서비스, 상기 부가 영상의 2D 방송 서비스 및 3D 방송 서비스는 동일한 전송 스트림 또는 다른 전송 스트림에 포함할 수 있다.
단계(902)에서 3D 방송 제공 장치는 메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송할 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
101: 3D 방송 제공 장치
102: 3D 방송 수신 장치
103: 메인 영상
104: 부가 영상

Claims (20)

  1. 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법에 있어서,
    메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계
    를 포함하는 3D 방송 서비스 제공 방법.
  2. 제1항에 있어서,
    상기 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 상기 3D 서비스 정보는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함하고,
    상기 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 상기 3D 서비스 정보는 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함하는 3D 방송 서비스 제공 방법.
  3. 제2항에 있어서,
    상기 식별 정보는,
    상기 3D 서비스 정보가 메인 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하고,
    상기 3D 서비스 정보가 부가 영상의 2D 방송 서비스의 프로그램 맵 테이블에 추가된 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함하는 3D 방송 서비스 제공 방법.
  4. 제1항에 있어서,
    상기 3D 서비스 정보는,
    3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함하는 3D 방송 서비스 제공 방법.
  5. 제1항에 있어서,
    상기 메인 영상의 2D 방송 서비스와 상기 부가 영상의 2D 방송 서비스는,
    동일한 전송 스트림 또는 다른 전송 스트림에 포함되는 3D 방송 서비스 제공 방법.
  6. 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법에 있어서,
    메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계
    를 포함하고,
    상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유하는 3D 방송 서비스 제공 방법.
  7. 제6항에 있어서,
    상기 3D 서비스 정보는
    상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함하고,
    상기 3D 방송 서비스가 부가 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 2D 방송 서비스에 대한 식별 정보를 포함하는 3D 방송 서비스 제공 방법.
  8. 제7항에 있어서,
    상기 식별 정보는,
    상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하고,
    상기 3D 방송 서비스가 메인 영상의 2D 방송 서비스의 비디오 또는 오디오를 공유하는 경우, 메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함하는 3D 방송 서비스 제공 방법.
  9. 제6항에 있어서,
    상기 3D 서비스 정보는,
    3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함하는 3D 방송 서비스 제공 방법.
  10. 제6항에 있어서,
    상기 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스는,
    상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 메인 영상의 2D 방송 서비스인 경우, 메인 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되고,
    상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 부가 영상의 2D 방송 서비스인 경우, 부가 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되는 3D 방송 서비스 제공 방법.
  11. 3D 방송 제공 장치에 의해 수행되는 3D 방송 서비스 제공 방법에 있어서,
    메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 단계;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 단계
    를 포함하고,
    상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스와 비디오 또는 오디오를 공유하지 않는 3D 방송 서비스 제공 방법.
  12. 제11항에 있어서,
    상기 3D 서비스 정보는,
    메인 영상의 전송 스트림 ID, 메인 영상의 네트워크 ID 및 메인 영상의 서비스 ID 중 적어도 하나를 포함하는 메인 영상의 2D 방송 서비스에 대한 식별 정보 및
    부가 영상의 전송 스트림 ID, 부가 영상의 네트워크 ID 및 부가 영상의 서비스 ID 중 적어도 하나를 포함하는 부가 영상의 2D 방송 서비스에 대한 식별 정보를 포함하는 3D 방송 서비스 제공 방법.
  13. 제11항에 있어서,
    상기 3D 서비스 정보는,
    3D 방송 수신 장치에 제공되는 서비스 타입, 메인 영상 및 부가 영상의 좌우 배치를 구분하기 위한 플래그, 또는 메인 영상 및 부가 영상 간의 동기화 정보 중 적어도 하나를 포함하는 3D 방송 서비스 제공 방법.
  14. 제11항에 있어서,
    상기 메인 영상의 2D 방송 서비스, 상기 부가 영상의 2D 방송 서비스 및 3D 방송 서비스는,
    동일한 전송 스트림 또는 다른 전송 스트림에 포함되는 3D 방송 서비스 제공 방법.
  15. 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부
    를 포함하는 3D 방송 제공 장치.
  16. 제15항에 있어서,
    상기 메인 영상의 2D 방송 서비스와 상기 부가 영상의 2D 방송 서비스는,
    동일한 전송 스트림 또는 다른 전송 스트림에 포함되는 3D 방송 서비스 제공 방법.
  17. 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부
    를 포함하고,
    상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 또는 부가 영상의 2D 방송 서비스 중 어느 하나의 2D 방송 서비스와 비디오 또는 오디오를 공유하는 3D 방송 제공 장치.
  18. 제17항에 있어서,
    상기 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스는,
    상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 메인 영상의 2D 방송 서비스인 경우, 메인 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되고,
    상기 3D 방송 서비스와 비디오와 오디오를 공유하는 2D 방송 서비스가 부가 영상의 2D 방송 서비스인 경우, 부가 영상의 2D 방송 서비스와 3D 방송 서비스가 동일한 전송 스트림에 포함되는 3D 방송 제공 장치.
  19. 메인 영상의 2D 방송 서비스와 부가 영상의 2D 방송 서비스에 구분되는 3D 방송 서비스의 프로그램 맵 테이블(PMT)에 3D 서비스 정보를 추가하는 추가부;
    메인 영상의 2D 방송 서비스, 부가 영상의 2D 방송 서비스, 3D 방송 서비스 및 프로그램 맵 테이블을 3D 방송 수신 장치에 전송하는 전송부
    를 포함하고,
    상기 3D 방송 서비스는, 메인 영상의 2D 방송 서비스 및 부가 영상의 2D 방송 서비스와 비디오 또는 오디오를 공유하지 않는 3D 방송 제공 장치.
  20. 제19항에 있어서,
    상기 메인 영상의 2D 방송 서비스, 상기 부가 영상의 2D 방송 서비스 및 3D 방송 서비스는,
    동일한 전송 스트림 또는 다른 전송 스트림에 포함되는 3D 방송 제공 장치.
KR1020150012898A 2015-01-27 2015-01-27 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치 KR20160092362A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150012898A KR20160092362A (ko) 2015-01-27 2015-01-27 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치
EP15193660.6A EP3051813A1 (en) 2015-01-27 2015-11-09 Three-dimensional (3d) broadcast service providing method and 3d broadcast providing apparatus performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150012898A KR20160092362A (ko) 2015-01-27 2015-01-27 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치

Publications (1)

Publication Number Publication Date
KR20160092362A true KR20160092362A (ko) 2016-08-04

Family

ID=54477944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150012898A KR20160092362A (ko) 2015-01-27 2015-01-27 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치

Country Status (2)

Country Link
EP (1) EP3051813A1 (ko)
KR (1) KR20160092362A (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
EP2373042A4 (en) * 2008-12-30 2012-09-12 Lg Electronics Inc DIGITAL RADIO RECEPTION PROCEDURE WITH 2D AND 3D IMAGE INTEGRATION SERVICE AND DIGITAL RADIO RECEPTION DEVICE THEREWITH
US9900578B2 (en) * 2012-06-05 2018-02-20 Lg Electronics Inc. Method and apparatus for processing broadcast signals for 3D broadcast service

Also Published As

Publication number Publication date
EP3051813A1 (en) 2016-08-03

Similar Documents

Publication Publication Date Title
US8289998B2 (en) Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
US8917314B2 (en) Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
US9392256B2 (en) Method and apparatus for generating 3-dimensional image datastream including additional information for reproducing 3-dimensional image, and method and apparatus for receiving the 3-dimensional image datastream
US20120293618A1 (en) Image data transmission apparatus, image data transmission method and image data reception apparatus
US20120075421A1 (en) Image data transmission device, image data transmission method, and image data receiving device
MX2013000348A (es) Datos auxiliares en radiodifusion de video de tres dimensiones.
US8982186B2 (en) Method for providing and recognizing transmission mode in digital broadcasting
TW201210315A (en) Apparatus and method of transmitting stereoscopic image data and apparatus and method of receiving stereoscopic image data
WO2012081874A2 (ko) 스테레오스코픽 비디오 서비스 위한 시그널링 방법 및 이러한 방법을 사용하는 장치
KR101965385B1 (ko) 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법
US20140157342A1 (en) Reception device, transmission device, reception method, and transmission method
US8953019B2 (en) Method and apparatus for generating stream and method and apparatus for processing stream
JP2013066075A (ja) 送信装置、送信方法および受信装置
US9270972B2 (en) Method for 3DTV multiplexing and apparatus thereof
US20130188016A1 (en) Transmission device, transmission method, and reception device
KR101651232B1 (ko) 스테레오스코픽 영상 정보의 전송 방법 및 장치
US9237328B2 (en) 3D image processing apparatus and method thereof using connection status and glass type selection icons
KR20140029982A (ko) 디스플레이 장치, 셋톱박스 및 입체 영상 콘텐트 판단 방법
KR20160092362A (ko) 3d 방송 서비스 제공 방법 및 상기 방법을 수행하는 3d 방송 제공 장치
US20130250059A1 (en) Method and apparatus for transmitting stereoscopic video information
KR20110068821A (ko) 송, 수신 장치 및 송, 수신 방법
KR20120060771A (ko) 스테레오스코픽 영상 정보의 전송 방법 및 장치
KR20130046404A (ko) 디지털 단말에서의 2d 모드 재생을 위한 송신 장치, 디지털 단말에서의 2d 모드 재생 장치 및 그 방법들
KR20120056190A (ko) Hdtv 방송 서비스와 호환할 수 있는 스테레오스코픽 3dtv 방송 서비스 제공 방법 및 장치
KR20140053938A (ko) 신호 송신 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination