KR20150133620A - 비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치 - Google Patents

비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치 Download PDF

Info

Publication number
KR20150133620A
KR20150133620A KR1020140110935A KR20140110935A KR20150133620A KR 20150133620 A KR20150133620 A KR 20150133620A KR 1020140110935 A KR1020140110935 A KR 1020140110935A KR 20140110935 A KR20140110935 A KR 20140110935A KR 20150133620 A KR20150133620 A KR 20150133620A
Authority
KR
South Korea
Prior art keywords
stream
image
reference image
additional
broadcast
Prior art date
Application number
KR1020140110935A
Other languages
English (en)
Other versions
KR102204830B1 (ko
Inventor
윤국진
이진영
정원식
이광순
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/470,202 priority Critical patent/US9838756B2/en
Publication of KR20150133620A publication Critical patent/KR20150133620A/ko
Application granted granted Critical
Publication of KR102204830B1 publication Critical patent/KR102204830B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving
    • H04H40/27Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
    • H04H40/36Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

방송 수신기에서 부가 영상을 기준 영상과 독립적으로 출력하기 위한 방법 및 장치가 제공된다. 부가 영상을 독립적으로 출력하기 위해 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함할 수 있다.

Description

비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING THREE-DIMENSIONAL TERRITORIAL BRORDCASTING BASED ON NON REAL TIME SERVICE}
기술 분야는 3차원 방송을 제공하는 기술에 관한 것으로, 특히, 비-실시간 서비스에 기반하여 3차원 방송을 제공하는 장치 및 방법에 관한 것이다.
사람은 양안 시차(binocular parallax)를 통하여 사물이 가깝거나 먼 것을 느낄 수 있다. 3차원 영상은 시각에 의한 입체감을 인식하는 원리에 의하여 시청자의 양안에 입체 효과를 제공한다.
3차원 영상은 복수의 2차원 영상들을 이용하여 제공될 수 있다. 예를 들어, 시청자의 좌안에 해당하는 2차원 영상 및 우안에 해당하는 2차원 영상을 이용하여 3차원 영상이 생성될 수 있다.
기존의 방송 환경은 2차원 영상을 전송하기에 적합할 수 있다. 기존의 방송 환경에서의 2차원 영상은 3차원 영상의 기준 영상일 수 있다. 부가 영상이 기준 영상과 함께 제공된다면 3차원 영상이 시청자에게 제공될 수 있다.
일 실시예는 비-실시간 서비스에 기반하여 3차원 영상을 전송하는 장치 및 방법을 제공할 수 있다.
일 실시예는 3차원 영상을 수신하는 장치 및 방법을 제공할 수 있다.
일 측면에 따른, 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.
상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신할 수 있다.
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있다.
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.
상기 방송 수신기는 상기 부가 영상의 스트림을 저장하는 저장부를 더 포함할 수 있다.
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함할 수 있다.
상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고, 상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청할 수 있다.
상기 정보는 실시간 방송의 스트림에 포함될 수 있다.
다른 일 측면에 따른, 방송 서버는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신기로 전송하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 상기 수신기로 전송하는 통신부 및 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부를 포함하고, 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있다.
상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송할 수 있다.
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함할 수 있다.
상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신할 수 있다.
상기 정보는 실시간 방송의 스트림에 포함될 수 있다.
상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고, 상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널일 수 있다.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.
또 다른 일 측면에 따른, 방송 수신 방법은 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하는 단계, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.
일 실시예 따른 방송 수신기 및 방송 수신 방법은 비-실시간으로 부가 영상을 수신하고, 실시간으로 기준 영상을 수신하고, 부가 영상을 독립적으로 시청자에게 제공할 수 있다.
도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.
도 2는 일 실시예에 따른 방송 서버의 구성도이다.
도 3은 일 실시예에 따른 방송 수신기의 구성도이다.
도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.
도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.
도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.
도 8은 일 예에 따른 방송 서버의 구성도이다.
도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.
3차원(dimension; D) 방송 프로그램(이하에서, 3D 방송 프로그램은 3D 방송으로 약술된다)은 3D 영상, 오디오 및 보조 데이터를 포함할 수 있다. 3D 영상은 좌영상 및 우영상을 포함할 수 있다.
3D 영상은 기준 영상(base view video) 및 부가 영상(additional view video)에 기반하여 제공될 수 있다. 기준 영상은 기존의 2D 영상일 수 있다. 부가 영상은 3D 영상을 제공하기 위해 기준 영상에 부가되는 영상일 수 있다. 부가 영상의 시점은 기준 영상의 시점과 상이할 수 있다.
예를 들어, 기준 영상은 좌영상일 수 있고, 부가 영상은 우영상일 수 있다. 좌영상은 시청자의 좌측 눈을 위한 영상일 수 있다. 우영상은 시청자의 우측 눈을 위한 영상일 수 있다.
3D 영상이 복수 개의 압축된 영상들로 구성되는 경우, 복수 개의 영상들 중 적어도 하나가 제작 해상도와 동일한 해상도를 갖는 기존의 2D 영상인 방송 서비스일 수 있다. 복수 개의 영상들은 기준 영상 및 부가 영상을 포함할 수 있다.
방송 서버(100)는 기준 영상 및 부가 영상을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 방송 서버(100)는 기준 영상 및 부가 영상을 전송 스트림(Transport Stream; TS)(이하에서, TS는 스트림으로 약술된다)으로 변환하여 방송 수신기(110)로 전송할 수 있다.
일 측면에 따르면, 방송 서버(100)는 부가 영상을 비-실시간(Non-Real-Time)으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC NRT(Advanced Television System Committee Non Real Time) 서비스를 이용하여 부가 영상을 비-실시간으로 전송할 수 있다.
방송 서버(100)는 기준 영상을 실시간으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC 지상파 서비스를 이용하여 기준 영상을 실시간으로 전송할 수 있다.
보조 데이터는 3D 방송의 자막 정보를 포함할 수 있다. 보조 데이터는 채널 시그널링(signaling) 섹션 데이터를 더 포함할 수 있다. 보조 데이터는 기준 영상과 다중화 되어 기준 영상의 스트림에 포함될 수 있다.
일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 3D 영상을 생성하는데 이용될 수 있다.
다른 일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 기준 영상과는 독립적으로 방송 수신기(110)에서 출력될 수 있다. 예를 들어, 방송 서버(100)가 부가 영상에 채널을 할당함으로써 부가 영상이 기준 영상과는 독립적인 영상으로써 방송 수신기(110)에서 출력될 수 있다.
부가 영상을 독립적으로 출력하는 방법에 대해 하기에서, 도 2 내지 도 12를 참조하여 상세히 설명된다.
도 2는 일 실시예에 따른 방송 서버의 구성도이다.
방송 서버(100)는 통신부(210), 처리부(220) 및 저장부(230)를 포함할 수 있다.
통신부(210)는 다른 서버 및 단말 등과 연결될 수 있다.
처리부(220)는 통신부(210)가 수신한 정보 및 저장부(230)에 저장된 정보를 처리할 수 있다.
저장부(230)는 통신부(210)가 수신한 정보 및 처리부(220)가 처리한 정보를 저장할 수 있다.
통신부(210), 처리부(220) 및 저장부(230)에 대해, 하기에서 도 4 내지 도 8을 참조하여 상세히 설명된다.
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 3은 일 실시예에 따른 방송 수신기의 구성도이다.
방송 수신기(110)는 통신부(310), 처리부(320) 및 저장부(330)를 포함할 수 있다.
통신부(310)는 서버 및 단말 등과 연결될 수 있다.
처리부(320)는 통신부(310)가 수신한 정보 및 저장부(330)에 저장된 정보를 처리할 수 있다.
저장부(330)는 통신부(310)가 수신한 정보 및 처리부(320)가 처리한 정보를 저장할 수 있다.
통신부(310), 처리부(320) 및 저장부(330)에 대해, 하기에서 도 4 내지 도 12를 참조하여 상세히 설명된다.
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.
단계(405)에서, 처리부(220)는 실시간 방송 또는 라이브 방송의 스트림을 생성할 수 있다. 실시간 방송은 방송 서버(100)를 운영하는 방송국의 방송 스케쥴에 의한 방송일 수 있다.
실시간 방송의 스트림은 NRT 서비스에 대한 정보를 포함할 수 있다. 특정 방송이 3D 방송인지 여부는 NRT 서비스에 대한 정보에 표시될 수 있다. 특정 방송은 실시간으로 방송 수신기(110)로 전송될 방송일 수 있다. 예를 들어, NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)일 수 있다.
단계(410)에서, 통신부(210)는 실시간 방송의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 실시간 방송의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.
통신부(310)는 실시간 방송의 스트림을 방송 서버(100)로부터 수신할 수 있다.
단계(415)에서, 처리부(320)는 실시간 방송의 스트림을 파싱할 수 있다.
실시간 방송의 스트림은 비-실시간으로 제공되는 콘텐츠에 대한 정보를 포함할 수 있다.
처리부(320)는 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득할 수 있다. 예를 들어, 처리부(320)는 실시간 방송의 스트림을 파싱함으로써 NRT 서비스에 대한 정보를 방송 수신기(110)의 사용자 또는 시청자에게 제공할 수 있다.
단계(420)에서, 통신부(310)는 사용자로부터 특정 방송의 부가 영상의 요청을 수신할 수 있다. 예를 들어, 특정 방송은 3D 방송일 수 있다.
단계(425)에서, 통신부(310)는 비-실시간으로 제공되는 콘텐츠에 대한 정보에 기반하여 부가 영상의 스트림의 요청을 방송 서버(100)로 전송할 수 있다. 예를 들어, 부가 영상의 요청은 ATSC NRT 서비스를 통해 전송될 수 있다.
통신부(210)는 부가 영상의 요청을 방송 수신기(110)로부터 수신할 수 있다.
단계(430)에서, 처리부(220)는 부가 영상의 스트림을 생성할 수 있다.
도 4에서, 단계(430)는 단계(425)가 수행된 후 수행되는 것으로 도시되었으나, 단계(430)는 단계(425)가 수행되기 전에도 수행될 수 있다. 즉, 처리부(220)는 미리 부가 영상의 스트림을 생성할 수 있다. 저장부(230)는 생성된 부가 영상의 스트림을 저장할 수 있다.
부가 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 5를 참조하여 상세히 설명된다.
단계(435)에서, 통신부(210)는 부가 영상의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 통신부(210)는 부가 영상의 스트림을 비-실시간으로 방송 수신기(110)로 전송할 수 있다.
통신부(310)는 부가 영상의 스트림을 방송 서버(100)로부터 비-실시간으로 수신할 수 있다.
통신부(310)는 기준 영상의 스트림이 수신되기 전에 부가 영상의 스트림을 수신할 수 있다.
처리부(320)는 부가 영상의 스트림을 저장부(330)에 저장할 수 있다.
단계(445)에서, 처리부(220)는 특정 방송의 기준 영상의 스트림을 생성할 수 있다.
단계(445)는 방송국 스케쥴링에 따른 특정 방송에 대해 수행될 수 있다.
기준 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 6을 참조하여 상세히 설명된다.
단계(450)에서, 통신부(210)는 기준 영상의 스트림을 실시간으로 방송 수신기(110)로 전송할 수 있다. 예를 들어, 기준 영상의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.
통신부(310)는 기준 영상의 스트림을 실시간으로 방송 서버(100)로부터 수신할 수 있다.
단계(455)에서, 처리부(320)는 부가 영상의 스트림 및 기준 영상의 스트림을 이용하여 3D 영상을 생성할 수 있다.
단계(460)에서, 처리부(320)는 3D 영상을 사용자에게 출력할 수 있다.
단계(465)에서, 처리부(320)는 부가 영상을 사용자에게 출력할 수 있다. 부가 영상은 기준 영상과 독립적으로 출력될 수 있다. 다시 말하자면, 부가 영상은 기준 영상이 수신 되지 않는 경우에도 기준 영상과 무관하게 출력될 수 있다.
예를 들어, 부가 영상이 3D 영상의 우영상인 경우, 처리부(320)는 우영상만을 사용자에게 출력할 수 있다.
앞서 도 1 내지 도 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.
전술된 단계(430)는 하기의 단계들(510 내지 530)을 포함할 수 있다.
단계(510)에서, 통신부(210)는 부가 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 부가 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 부가 영상을 제공하는 다른 서버로부터 부가 영상을 수신할 수 있다.
단계(520)에서, 처리부(220)는 부가 영상을 부호화(encoding)할 수 있다. 부가 영상의 부호화는 부가 영상의 압축일 수 있다.
예를 들어, 처리부(220)는 부가 영상을 부호화함으로써 MPEG(Moving Picture Experts Group)-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.
부호화된 부가 영상의 부호화 형식은 하기의 [표 1]의 형식들 중 하나일 수 있다.
주사선 수 화소 수 화면 종횡비 화면 재생률(Hz)
1080 1920 16:9 60I, 30P, 24P
720 1280 16:9 60P, 30P, 24P
[표 1]의 화면 재생률에서 P는 순차 주사, I는 격행 주사를 의미한다.
부가 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.
이하에서 설명되는 부호화 및 복호화 방식은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.
단계(530)에서, 처리부(220)는 부가 영상의 스트림을 채널 다중화(channel multiplexing)할 수 있다. 예를 들어, 처리부(220)는 부가 영상의 스트림을 시그널링함으로써 부가 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 부가 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.
프로그램 지정 정보(Program Specific Information; PSI)에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)을 준수할 수 있다.
부가 영상의 스트림의 시그널링에 대한 사항은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준을 준수할 수 있다.
NRT 서비스를 위한 부가 영상의 스트림의 시그널링은 SSC(Service Signaling Channel)을 통해 수행될 수 있다. SSC로 전달되는 정보 중 SMT(Service Map Table)는 NRT 서비스에 대한 정보를 제공할 수 있다. SSC로 전달되는 정보 중 NRT-IT(Information Table)는 NRT 서비스를 구성하는 콘텐츠 아이템에 대한 정보를 제공할 수 있다. SMT 및 NRT-IT는 SSC(Service Signaling channel(Doc.A/103:2012)) 표준을 준수할 수 있다.
부가 영상은 3D 방송을 위해 사용될 수 있는 영상 또는 별도의 2D 방송으로 재생될 수 있는 영상일 수 있다.
예를 들어, 처리부(220)가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당함으로써 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있다.
처리부(220)는 부가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 부가 영상의 스트림 및 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.
PMT를 이용하여 시그널링하는 방법에 대해, 하기에서 도 7을 참조하여 상세히 설명된다.
부가 영상이 3D 방송을 위해 사용될 수 있는 영상인지 또는 2D 방송으로 재생될 수 있는 영상인지를 구분하기 위해 가능성 서술자(capabilities_descriptor)가 사용될 수 있다. 다시 말하자면, 부가 영상이 기준 영상과 독립적으로 출력될 수 있는지 여부는 부가 영상의 스트림 내에 포함되는 capabilities_descriptor에 표시될 수 있다.
capabilities_descriptor는 ATSC의 "Non-Real-Time Content Delivery(Doc. A/103:2012)" 표준을 준수할 수 있다.
capabilities_descriptor 내의 capability_codes는 하기의 [표 2]와 같이 확장될 수 있다.
capability_code 내용
0x52 호환 가능한 3D 영상의 부가 영상(독립적인 2D 영상으로 이용 불가)
0x53 호환 가능한 3D 영상의 부가 영상(독립적인 2D 영상으로 이용 가능)
부가 영상을 독립적인 2D 영상으로 이용하기 위한 방법이 하기에서 도 7을 참조하여 상세히 설명된다.
앞서 도 1 내지 도 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.
전술된 단계(445)는 하기의 단계들(610 내지 640)을 포함할 수 있다.
단계(610)에서, 통신부(210)는 기준 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 기준 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 기준 영상을 제공하는 다른 서버로부터 기준 영상을 수신할 수 있다.
단계(620)에서, 처리부(220)는 기준 영상을 부호화할 수 있다. 기준 영상의 부호화는 기준 영상의 압축일 수 있다. 기준 영상의 부호화는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.
부호화된 기준 영상의 부호화 형식은 하기의 [표 3]의 형식들 중 하나일 수 있다.
주사선 수 화소 수 화면 종횡비 화면 재생률(Hz)
1080 1920 16:9 60I, 30P, 24P
720 1280 16:9 60P, 30P, 24P
처리부(220)는 기준 영상을 부호화할 때, 보조 데이터(ancillary data)를 이용하여 기준 영상을 부호화할 수 있다. 예를 들어, 보조 데이터는 자막 방송(Closed captioning) 데이터 일 수 있다.
부호화된 기준 영상의 형식은 기초 스트림(Elementary Stream; ES)일 수 있다.
단계(630)에서, 처리부(220)는 부호화된 기준 영상을 프로그램 다중화(program multiplexing)할 수 있다.
처리부(220)는 부호화된 기준 영상, 부호화된 오디오 신호 및 부가 영상을 위한 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다.
일 측면에 따르면, 프로그램 다중화가 수행되어 생성된 기준 영상의 스트림은 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.
메타데이터는 PSI(Program Specific Information)를 포함할 수 있다.
PSI는 채널 내의 프로그램 정보 목록을 유지하는 PAT(Program Association Table), 스크램블링(scrambling)과 같은 접근 제어 정보를 포함하는 CAT(Conditional Access Table), 프로그램 내의 영상 스트림 및 오디오 스트림에 대한 정보를 포함하는 PMT 및 MPEG 정보를 전송하기 위해 사용되는 네트워크에 대한 정보를 포함하는 NIT(Network Information Table) 중 적어도 하나를 포함할 수 있다.
PMT는 program_number 및 스트림에 존재하는 각 프로그램에 대한 정보를 제공할 수 있다. PMT는 MPEG-2 프로그램을 구성하는 기초 스트림을 나열할 수 있다. PMT는 각 기초 스트림을 위한 선택적 서술자뿐만 아니라 완전한 MPEG-2 스트림을 서술하는 선택적 서술자를 위한 위치 정보도 제공할 수 있다. 각 기초 스트림은 stream_type 값으로 식별될 수 있다.
일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 프로그램 다중화를 수행할 수 있다.
기준 영상을 이용하여 제공할 수 있는 방송은 2D 방송 또는 3D 방송일 수 있다. 처리부(220)는 각각의 PMT를 통해 방송이 2D 방송인지 또는 3D 방송인지를 나타낼 수 있다.
예를 들어, 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당할 수 있다. 두 개의 지상파 채널들은 각각 기준 영상을 2D 방송에 이용하는 지상파 채널 및 기준 영상을 3D 방송에 이용하는 채널일 수 있다. 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 기준 영상의 스트림을 두 개의 지상파 채널에 각각 대응하는 PMT를 이용하여 시그널링할 수 있다.
예를 들어, 처리부(220)는 제1 PMT에는 제공되는 방송이 2D 방송이라는 코드를 부여할 수 있다. 2D 방송 코드는 program_number = 0x001 일 수 있다. 제1 PMT는 기준 영상 및 오디오 신호가 연관될 수 있다.
처리부(220)는 제2 PMT에는 제공되는 방송이 3D 방송이라는 코드를 부여할 수 있다. 3D 방송 코드는 program_number = 0x002 일 수 있다. 제2 PMT는 기준 영상, 오디오 신호, 부가 영상의 전달을 위한 NRT 서비스에 대한 정보 및 부가 영상을 위한 메타데이터와 연관될 수 있다.
일 측면에 따르면, 처리부(220)는 기준 영상을 프로그램 다중화함으로써 MPEG-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.
메타데이터는 기준 영상 및 부가 영을 동기화 하기 위한 동기화 정보를 포함할 수 있다.
동기화 정보는 media_pairing_information()에 기술될 수 있다. 동기화 정보는 "지상파 3DTV 방송 송수신 정합-제3부: 하이브리드(TTAK.KO-07.0122)" 표준을 준수할 수 있다.
기준 영상의 프로그램 다중화는 "지상파 디지털 TV 방송 송수신 정합(TTAK.KO-07.0014/R3)" 표준 및 "ISO/IEC 13818-1:2013"를 준수할 수 있다.
기준 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.
메타데이터의 스트림 타입은 "ISO/IEC 13818-1:2013" 에서 정의된 0x06(프라이빗 데이터(private data))일 수 있다.
NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)을 이용할 수 있다.
PMT는 스테레오스코픽 프로그램 정보 서술자(stereoscopic_program_info_descriptor()) 및 스테레오스코픽 비디오 정보 서술자(stereoscopic_video_info_descriptor())를 포함할 수 있다.
stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 각각 준수할 수 있다.
단계(640)에서, 처리부(220)는 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 기준 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.
예를 들어, 처리부(220)는 기준 영상의 스트림을 시그널링함으로써 기준 영상의 스트림을 채널 다중화할 수 있다.
PSI에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)"을 준수할 수 있다.
일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화에 대해, 하기에도 도 7을 참조하여 상세히 설명된다.
앞서 도 1 내지 도 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.
3D 방송은 기준 영상, 오디오, PSI/PSIP, 프라이빗 데이터 및 부가 영상으로 구성될 수 있다.
처리부(220)는 기준 영상을 이용하는 방송이 2D 방송인지 또는 3D 방송인지에 따라서 기준 영상의 스트림에 복수의 지상파 채널들을 할당할 수 있다. 예를 들어, 처리부(220)는 제1 PMT를 이용하는 방송에 '채널 1'을 할당할 수 있다. 처리부(220)는 제2 PMT를 이용하는 방송에 '채널 2'를 할당할 수 있다.
처리부(220)는 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있도록 부가 영상의 스트림에 기준 영상의 스트림과는 상이한 지상파 채널을 부여할 수 있다. 예를 들어, 부가 영상의 스트림에 제3 PMT가 연관된 경우, 처리부(220)는 제3 PMT를 이용하는 방송에 '채널 3'을 할당할 수 있다.
채널은 가상 채널(virtual channel)일 수 있다.
처리부(220)는 지상파 가상 채널 테이블(TVCT)을 이용하여 2D 방송에 대해서는 기존에 서비스되던 채널 시그널링을 사용하고, 3D 방송에 대해서는 2D 방송과 상이한 채널 번호를 할당할 수 있다.
처리부(220)는 TVCT를 이용하여 부가 영상의 스트림에 대해서 다른 채널 번호들과 상이한 채널 번호를 할당할 수 있다.
처리부(220)는 서비스 위치 서술자(service_location_descriptor)를 이용하여 하이브리드 3DTV 방송을 구성하는 기초 스트림의 PID 값을 시그널링할 수 있다.
ATSC NRT 서비스 기반의 채널은 service_type 0x09(Extended Parameterized Service)를 이용하여 식별될 수 있다.
처리부(220)는 parimeterzied_service_descriptor(PSD)를 이용하여 3D 방송인지 여부 및 어떠한 종류의 3D 방송인지를 시그널링할 수 있다.
부가 영상의 스트림을 전송하는 채널은 service_type(ATSC NRT Service)를 이용할 수 있다.
PSD는 service_type 0x09인 TVCT에 포함될 수 있다.
PSD는 방송 서비스에 대한 상세한 설명을 제공할 수 있다.
처리부(220)는 PSD를 이용하여 해당 방송 서비스가 방송 수신기(110)에서 지원 가능한지 여부를 시그널링할 수 있다.
PSD에 대해 하기의 [표 4]에서 설명된다.
구문(Syntax) 비트의 수 형식
parameterized_service_descriptor(){
descriptor_tag
descriptor_length
application_tag
application_data()
}

8
8
8
var

uimsbf
uimsbf
bslbf

application_tag: 바로 다음에 오는 application_data()가 무엇인지를 나타낼 수 있다. 3D 방송인 경우 application_tag의 값은 0x01일 수 있다.
application_data(): 연동된 application_tag의 값에 따라 구문이 정의될 수 있다. application_tag의 값이 0x01인 경우 application_data()의 구문은 하기의 [표 5]와 같을 수 있다.
구문(Syntax) 비트의 수 형식
application_data(0x01){
reserved
3D_channel_type
for (i=0; i<N; i++){
reserved
}
}

3
5

8


uimsbf
uimsbf

bslbf

3D_channel_type: 3D 방송의 타입 정보를 나타낼 수 있다. ATSC NRT 기반 3D 방송은 0x05로 설정될 수 있다.
3D_channel_type의 값에 대해 하기의 [표 6]을 참조하여 상세히 설명된다.
설명
0x00 - 0x03 보류됨
0x04 IP(Internet Protocol) 하이브리드 3DTV 서비스
0x05 ATSC NRT 기반 지상파 3DTV 서비스
0x06 - 0x1F ATSC 보류됨
ATSC NRT 기반의 3D 방송에 대한 가이드 정보를 제공하기 위하여 stereoscopic_program_info_descriptor()가 프로그램 및 시스템 정보 프로토콜(Program and System Information Protocol; PSIP)의 이벤트 정보 테이블(Event Information Table; EIT)에 추가될 수 있다. stereoscopic_program_info_descriptor()는 EIT의 이벤트를 기술하는 서술자 루프에 위치할 수 있다.
앞서 도 1 내지 도 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 8은 일 예에 따른 방송 서버의 구성도이다.
방송 서버(100)는 3D 콘텐츠 서버, 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기, 채널 다중화부 및 지상파 채널 전송부를 포함할 수 있다.
저장부(230)는 3D 콘텐츠 서버를 포함할 수 있다.
처리부(220)는 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기 및 채널 다중화부를 포함할 수 있다.
통신부(210)는 지상파 채널 전송부를 포함할 수 있다.
3D 콘텐츠 서버는 부가 영상, 기준 영상 및 오디오 신호를 저장할 수 있다.
오디오 신호 부호화기는 오디오 신호를 부호화할 수 있다.
기준 영상 부호화기는 기준 영상을 부호화할 수 있다. 기준 영상 부호화기는 전술된 단계(620)를 수행할 수 있다.
프로그램 다중화부는 기준 영상, 오디오 신호 및 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다. 프로그램 다중화부는 전술된 단계(630)를 수행할 수 있다.
채널 다중화부는 기준 신호 스트림 및 부가 영상 스트림을 각각 채널 다중화할 수 있다. 채널 다중화부는 전술된 단계(640)를 수행할 수 있다.
부가 영상 부호화기는 부가 영상을 부호화할 수 있다. 부가 영상 부호화기는 전술된 단계(520)를 수행할 수 있다.
NRT 부호화기는 부가 영상의 스트림을 NRT 서비스에 맞도록 부호화할 수 있다. NRT 부호화기는 전술된 단계(520)를 수행할 수 있다.
지상파 채널 전송부는 채널 다중화된 부가 영상의 스트림 및 기준 영상의 스트림을 전송할 수 있다.
앞서 도 1 내지 도 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.
도 9 내지 도 12의 하기의 단계들(902 내지 1206)은 수신한 기준 영상의 스트림 및 부가 영상의 스트림을 이용하여 방송 수신기(110)가 3D 영상을 생성하는 방법일 수 있다.
단계들(902 내지 1006)은 기준 영상의 스트림에 대해 수행되는 단계들 일 수 있다.
단계(902)에서, 처리부(320)는 PSI 파서(parser)를 이용하여 기준 영상의 스트림에 포함된 PAT를 획득할 수 있다. 수신기는 PAT를 파싱함으로써 PMT_ID를 획득할 수 있다.
단계(904)에서, 처리부(320)는 PSI 파서를 이용하여 PID=PMT_PID를 갖는 테이블을 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()가 제공하는 방송 서비스 타입의 정보를 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 동기화 정보(0x05 - referenced_media_information() 및 0x06 - media_pairing_information())을 싣는 테이블들의 PID(906)를 획득할 수 있다.
도 10에서 처리부(320)는 PSIP 파서를 이용하여 TVCT 및 EIT를 획득할 수 있다.
단계(1002)에서, 처리부(320)는 TVCT를 파싱함으로써 기준 스트림의 방송 타입을 식별할 수 있다. 예를 들어, 3D_channel_type = 0x05인 경우, 기준 스트림은 3D 방송을 제공할 수 있다.
처리부(320)는 TVCT를 파싱함으로써 service_location_descriptor 및 parameterized_serive_descriptor(PSD)를 제공할 수 있다.
service_location_descriptor로부터 PID(1004)가 획득될 수 있다.
단계(1014)에서, 처리부(320)는 EIT를 파싱함으로써 stereoscopic_program_info_descriptor를 획득할 수 있다.
하기의 단계들(1102 내지 1108)은 부가 영상의 스트림에 대해 수행되는 단계들일 수 있다.
단계(1102) 및 단계(1104)에서, 처리부(320)는 부가 영상의 스트림에 대한 정보를 획득하기 위해 PAT 및 PMT를 파싱함으로써 각각 분석할 수 있다.
단계(1106)에서, 처리부(320)는 부가 영상의 스트림을 복호화(decoding)할 수 있다. 예를 들어, 부가 영상의 스트림은 AVC 복호화기를 통해 복호화될 수 있다.
단계(1108)에서, 처리부(320)는 부가 영상을 3D 영상 생성기(formatter)로 제공할 수 있다.
도 12에서 처리부(320)의 TS 필터는 PID(906) 및 PID(1004)를 수신할 수 있다.
단계(1202)에서, 처리부(320)는 TS 필터를 이용하여 각 PID를 처리할 수 있다. 처리부(320)는 기준 영상을 위해 PID=PID_V1으로 TS를 필터링할 수 있다. 처리부(320)는 동기화 정보를 위해 PID=PID_PD로 TS를 필터링할 수 있다. 처리부(320)는 오디오 정보를 위해 PID=PID_A로 TS를 필터링할 수 있다.
단계(1204)에서, 처리부(320)는 복호화기를 통해 기준 영상을 복호화할 수 있다.
단계(1206)에서, 처리부(320)는 복호화된 기준 영상 및 복호화된 부가 영상을 3D 영상 생성기를 이용하여 3D 영상을 생성할 수 있다.
앞서 도 1 내지 도 11을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
100: 방송 서버
110: 방송 수신기
210: 통신부
220: 처리부
230: 저장부

Claims (20)

  1. 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부; 및
    상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부
    를 포함하고,
    상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
  2. 제1항에 있어서,
    상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신하는, 방송 수신기.
  3. 제1항에 있어서,
    상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
  4. 제1항에 있어서,
    상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 수신기.
  5. 제1항에 있어서,
    상기 부가 영상의 스트림을 저장하는 저장부
    를 더 포함하는, 방송 수신기.
  6. 제1항에 있어서,
    상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 수신기.
  7. 제6항에 있어서,
    상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함하는, 방송 수신기.
  8. 제1항에 있어서,
    상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고,
    상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청하는, 방송 수신기.
  9. 제8항에 있어서,
    상기 정보는 실시간 방송의 스트림에 포함되는, 방송 수신기.
  10. 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신기로 전송하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 상기 수신기로 전송하는 통신부; 및
    상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부
    를 포함하고,
    상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 서버.
  11. 제10항에 있어서,
    상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송하는, 방송 서버.
  12. 제10항에 있어서,
    상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 서버.
  13. 제10항에 있어서,
    상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 서버.
  14. 제13항에 있어서,
    상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함하는, 방송 서버.
  15. 제10항에 있어서,
    상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 실시간 방송의 스트림을 이용하여 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신하는, 방송 서버.
  16. 제15항에 있어서,
    상기 정보는 실시간 방송의 스트림에 포함되는, 방송 서버.
  17. 제10항에 있어서,
    상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
  18. 제10항에 있어서,
    상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고,
    상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널인, 방송 서버.
  19. 제18항에 있어서,
    상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
  20. 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하는 단계;
    상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계; 및
    상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계
    를 포함하고,
    상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신 방법.
KR1020140110935A 2014-05-20 2014-08-25 비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치 KR102204830B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/470,202 US9838756B2 (en) 2014-05-20 2014-08-27 Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140060453 2014-05-20
KR1020140060453 2014-05-20

Publications (2)

Publication Number Publication Date
KR20150133620A true KR20150133620A (ko) 2015-11-30
KR102204830B1 KR102204830B1 (ko) 2021-01-19

Family

ID=54868053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140110935A KR102204830B1 (ko) 2014-05-20 2014-08-25 비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102204830B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157309A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content
US20110254920A1 (en) * 2008-11-04 2011-10-20 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
KR20120086661A (ko) * 2011-01-26 2012-08-03 한국전자통신연구원 실시간 방송 프로그램의 기준 영상과 부가 영상간의 동기화 방법 및 이를 수행하는 송수신 시스템
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110254920A1 (en) * 2008-11-04 2011-10-20 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법
US20110157309A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content
KR20120086661A (ko) * 2011-01-26 2012-08-03 한국전자통신연구원 실시간 방송 프로그램의 기준 영상과 부가 영상간의 동기화 방법 및 이를 수행하는 송수신 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EN 300 468 v 1.3.1, "DVB specification for SI in VB systems, (1998-02)* *

Also Published As

Publication number Publication date
KR102204830B1 (ko) 2021-01-19

Similar Documents

Publication Publication Date Title
US9554198B2 (en) Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same
US9578302B2 (en) Broadcast transmitter, broadcast receiver and 3D video data processing method thereof
US9712803B2 (en) Receiving system and method of processing data
US9036700B2 (en) Simulcast of stereoviews for 3D TV
US20120320168A1 (en) Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services
US20130002819A1 (en) Receiving system and method of processing data
CN102388620B (zh) 广播接收机和三维视频数据处理方法
EP2744214A2 (en) Transmitting device, receiving device, and transceiving method thereof
KR101653319B1 (ko) 3d 영상을 위한 영상 컴포넌트 송수신 처리 방법 및 장치
KR20120013974A (ko) 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법
KR20120095865A (ko) 방송 수신기 및 3d 비디오 데이터 처리 방법
US20140157342A1 (en) Reception device, transmission device, reception method, and transmission method
KR20120097372A (ko) 방송 수신기 및 3d 방송 데이터 처리 방법
US20140049606A1 (en) Image data transmission device, image data transmission method, image data reception device, and image data reception method
US9838756B2 (en) Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service
KR102204830B1 (ko) 비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치
US20150163513A1 (en) Method and apparatus for transmitting and receiving high-definition contents
KR20150006340A (ko) 3차원 영상 제공 방법 및 방송 장치
Kwon et al. Program associated 3D non-real-time service on terrestrial DTV
US20130120526A1 (en) Association of mvc stereoscopic views to left or right eye display for 3dtv
EP2648407A2 (en) Method and apparatus for transmitting stereoscopic video information
KR20120036255A (ko) 디지털 방송에 있어서 3차원 비디오 서비스 관련 정보 전송 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant