KR102204830B1 - Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service - Google Patents

Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service Download PDF

Info

Publication number
KR102204830B1
KR102204830B1 KR1020140110935A KR20140110935A KR102204830B1 KR 102204830 B1 KR102204830 B1 KR 102204830B1 KR 1020140110935 A KR1020140110935 A KR 1020140110935A KR 20140110935 A KR20140110935 A KR 20140110935A KR 102204830 B1 KR102204830 B1 KR 102204830B1
Authority
KR
South Korea
Prior art keywords
stream
video
broadcast
additional
additional video
Prior art date
Application number
KR1020140110935A
Other languages
Korean (ko)
Other versions
KR20150133620A (en
Inventor
윤국진
이진영
정원식
이광순
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/470,202 priority Critical patent/US9838756B2/en
Publication of KR20150133620A publication Critical patent/KR20150133620A/en
Application granted granted Critical
Publication of KR102204830B1 publication Critical patent/KR102204830B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving
    • H04H40/27Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
    • H04H40/36Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

방송 수신기에서 부가 영상을 기준 영상과 독립적으로 출력하기 위한 방법 및 장치가 제공된다. 부가 영상을 독립적으로 출력하기 위해 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함할 수 있다.A method and an apparatus for outputting an additional video independently from a reference video in a broadcast receiver are provided. In order to independently output the additional video, the broadcast receiver receives a stream of the additional video of a three-dimensional (D) broadcast in non-real time, and a communication unit that receives the stream of the reference video of the 3D broadcast in real time, and the reference video It may include a processing unit that generates a 3D image of the 3D broadcast using the stream of and the additional video stream.

Description

비-실시간 서비스 기반 지상파 3차원 방송 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING THREE-DIMENSIONAL TERRITORIAL BRORDCASTING BASED ON NON REAL TIME SERVICE}Method and apparatus for providing terrestrial 3D broadcasting based on non-real-time service {METHOD AND APPARATUS FOR PROVIDING THREE-DIMENSIONAL TERRITORIAL BRORDCASTING BASED ON NON REAL TIME SERVICE}

기술 분야는 3차원 방송을 제공하는 기술에 관한 것으로, 특히, 비-실시간 서비스에 기반하여 3차원 방송을 제공하는 장치 및 방법에 관한 것이다.
The technical field relates to a technology for providing 3D broadcasting, and more particularly, to an apparatus and method for providing 3D broadcasting based on a non-real-time service.

사람은 양안 시차(binocular parallax)를 통하여 사물이 가깝거나 먼 것을 느낄 수 있다. 3차원 영상은 시각에 의한 입체감을 인식하는 원리에 의하여 시청자의 양안에 입체 효과를 제공한다.Humans can feel that things are near or far through binocular parallax. The three-dimensional image provides a three-dimensional effect to both eyes of the viewer based on the principle of recognizing a three-dimensional effect by sight.

3차원 영상은 복수의 2차원 영상들을 이용하여 제공될 수 있다. 예를 들어, 시청자의 좌안에 해당하는 2차원 영상 및 우안에 해당하는 2차원 영상을 이용하여 3차원 영상이 생성될 수 있다.The 3D image may be provided using a plurality of 2D images. For example, a 3D image may be generated using a 2D image corresponding to the viewer's left eye and a 2D image corresponding to the right eye.

기존의 방송 환경은 2차원 영상을 전송하기에 적합할 수 있다. 기존의 방송 환경에서의 2차원 영상은 3차원 영상의 기준 영상일 수 있다. 부가 영상이 기준 영상과 함께 제공된다면 3차원 영상이 시청자에게 제공될 수 있다.
The existing broadcasting environment may be suitable for transmitting 2D images. A 2D image in an existing broadcasting environment may be a reference image of a 3D image. If the additional video is provided together with the reference video, the 3D video may be provided to the viewer.

일 실시예는 비-실시간 서비스에 기반하여 3차원 영상을 전송하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for transmitting a 3D image based on a non-real-time service.

일 실시예는 3차원 영상을 수신하는 장치 및 방법을 제공할 수 있다.
An embodiment may provide an apparatus and method for receiving a 3D image.

일 측면에 따른, 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.According to an aspect, a broadcast receiver receives a stream of an additional video of a three-dimensional (D) broadcast in non-real time and receives a stream of a reference video of the 3D broadcast in real time, and a stream of the reference video and And a processing unit that generates a 3D image of the 3D broadcasting by using the stream of the additional image, and the additional image may be output independently from the reference image.

상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신할 수 있다.The communication unit may receive the stream of the additional video before the stream of the reference video is received.

상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있다.Different terrestrial channels are allocated to the stream of the additional video and the stream of the reference video, so that the additional video may be output independently from the reference video.

상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.Whether the supplementary video can be output independently from the reference video may be indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video.

상기 방송 수신기는 상기 부가 영상의 스트림을 저장하는 저장부를 더 포함할 수 있다.The broadcast receiver may further include a storage unit for storing the stream of the additional video.

상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.The stream of the reference image may include metadata for generating the 3D image.

상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함할 수 있다.The metadata may include synchronization information for synchronizing the reference video and the additional video.

상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고, 상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청할 수 있다.The processing unit may obtain information on content provided in non-real time by parsing the stream of the real-time broadcast, and the communication unit may request a stream of the additional video based on the information.

상기 정보는 실시간 방송의 스트림에 포함될 수 있다.The information may be included in a stream of real-time broadcasting.

다른 일 측면에 따른, 방송 서버는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신기로 전송하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 상기 수신기로 전송하는 통신부 및 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부를 포함하고, 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있다.According to another aspect, a broadcast server transmits a stream of an additional video of a three-dimensional (D) broadcast to a receiver in non-real time, and a communication unit that transmits a stream of the reference video of the 3D broadcast to the receiver in real time, and And a processor for allocating different terrestrial channels to the stream of the additional video and the stream of the reference video, and different terrestrial channels are assigned to the stream of the additional video and the stream of the reference video, so that the additional video is The receiver may output independently of the reference image.

상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송할 수 있다.The communication unit may transmit the additional video stream before the base video stream is transmitted.

상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.Whether the supplementary video can be output independently from the reference video may be indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video.

상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.The stream of the reference image may include metadata for generating the 3D image.

상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함할 수 있다.The metadata may include information for synchronizing the reference video and the additional video.

상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신할 수 있다.The communication unit may transmit information on the content provided in non-real time to the receiver, and may receive a request for the stream of the additional video based on the information from the receiver.

상기 정보는 실시간 방송의 스트림에 포함될 수 있다.The information may be included in a stream of real-time broadcasting.

상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The processing unit uses a program map table (PMT) for the additional video stream and the reference video stream to allocate different terrestrial channels to the additional video stream and the reference video stream. Can be signaled.

상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고, 상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널일 수 있다.The processing unit allocates two terrestrial channels to the stream of the reference image, and the two terrestrial channels may be a terrestrial channel using the reference image for 2D broadcasting and a channel using the reference image for 3D broadcasting.

상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The processing unit may signal the stream of the reference video using a Program Map Table (PMT) corresponding to each of the two terrestrial channels in order to allocate two terrestrial channels to the stream of the reference video. .

또 다른 일 측면에 따른, 방송 수신 방법은 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하는 단계, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.
According to another aspect, a broadcast reception method includes receiving a stream of an additional video of a three-dimensional (D) broadcast in non-real time, receiving a stream of a reference video of the 3D broadcast in real time, and the reference And generating a 3D video of the 3D broadcast by using the video stream and the additional video stream, and the additional video may be output independently from the reference video.

일 실시예 따른 방송 수신기 및 방송 수신 방법은 비-실시간으로 부가 영상을 수신하고, 실시간으로 기준 영상을 수신하고, 부가 영상을 독립적으로 시청자에게 제공할 수 있다.
The broadcast receiver and broadcast reception method according to an embodiment may receive an additional video in non-real time, receive a reference video in real time, and independently provide the additional video to a viewer.

도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.
도 2는 일 실시예에 따른 방송 서버의 구성도이다.
도 3은 일 실시예에 따른 방송 수신기의 구성도이다.
도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.
도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.
도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.
도 8은 일 예에 따른 방송 서버의 구성도이다.
도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.
1 illustrates a broadcast system providing a 3D image according to an example.
2 is a block diagram of a broadcast server according to an embodiment.
3 is a block diagram of a broadcast receiver according to an embodiment.
4 is a signal flow diagram of a broadcast providing method according to an exemplary embodiment.
5 is a flowchart of a method of generating an additional video stream according to an example.
6 is a flowchart of a method of generating a stream of a reference video according to an example.
7 illustrates a method of allocating different terrestrial channels to a stream of a reference video and a stream of an additional video according to an example.
8 is a configuration diagram of a broadcast server according to an example.
9 to 12 are flowcharts of a method for generating a 3D image by a broadcast receiver.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various changes may be made to the embodiments described below. The embodiments described below are not intended to be limited to the embodiments, and should be understood to include all changes, equivalents, and substitutes thereto.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to describe specific embodiments, and are not intended to limit the embodiments. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.1 illustrates a broadcast system providing a 3D image according to an example.

3차원(dimension; D) 방송 프로그램(이하에서, 3D 방송 프로그램은 3D 방송으로 약술된다)은 3D 영상, 오디오 및 보조 데이터를 포함할 수 있다. 3D 영상은 좌영상 및 우영상을 포함할 수 있다.A 3D (dimension) broadcast program (hereinafter, a 3D broadcast program will be abbreviated as 3D broadcast) may include 3D video, audio, and auxiliary data. The 3D image may include a left image and a right image.

3D 영상은 기준 영상(base view video) 및 부가 영상(additional view video)에 기반하여 제공될 수 있다. 기준 영상은 기존의 2D 영상일 수 있다. 부가 영상은 3D 영상을 제공하기 위해 기준 영상에 부가되는 영상일 수 있다. 부가 영상의 시점은 기준 영상의 시점과 상이할 수 있다.The 3D image may be provided based on a base view video and an additional view video. The reference image may be an existing 2D image. The additional video may be an video added to the base video to provide a 3D video. The viewpoint of the additional video may be different from the viewpoint of the reference video.

예를 들어, 기준 영상은 좌영상일 수 있고, 부가 영상은 우영상일 수 있다. 좌영상은 시청자의 좌측 눈을 위한 영상일 수 있다. 우영상은 시청자의 우측 눈을 위한 영상일 수 있다.For example, the reference image may be a left image, and the additional image may be a right image. The left image may be an image for the viewer's left eye. The right image may be an image for the viewer's right eye.

3D 영상이 복수 개의 압축된 영상들로 구성되는 경우, 복수 개의 영상들 중 적어도 하나가 제작 해상도와 동일한 해상도를 갖는 기존의 2D 영상인 방송 서비스일 수 있다. 복수 개의 영상들은 기준 영상 및 부가 영상을 포함할 수 있다.When a 3D image is composed of a plurality of compressed images, at least one of the plurality of images may be a broadcast service, which is an existing 2D image having a resolution equal to the production resolution. The plurality of images may include a base image and an additional image.

방송 서버(100)는 기준 영상 및 부가 영상을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 방송 서버(100)는 기준 영상 및 부가 영상을 전송 스트림(Transport Stream; TS)(이하에서, TS는 스트림으로 약술된다)으로 변환하여 방송 수신기(110)로 전송할 수 있다. The broadcast server 100 may transmit a reference video and an additional video to the broadcast receiver 110. For example, the broadcast server 100 may convert the base video and the additional video into a transport stream (TS) (hereinafter, TS will be abbreviated as a stream) and transmit the converted video to the broadcast receiver 110.

일 측면에 따르면, 방송 서버(100)는 부가 영상을 비-실시간(Non-Real-Time)으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC NRT(Advanced Television System Committee Non Real Time) 서비스를 이용하여 부가 영상을 비-실시간으로 전송할 수 있다.According to an aspect, the broadcast server 100 may transmit the additional video in Non-Real-Time. For example, the broadcast server 100 may transmit the additional video in non-real time using an ATSC Advanced Television System Committee Non Real Time (NRT) service.

방송 서버(100)는 기준 영상을 실시간으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC 지상파 서비스를 이용하여 기준 영상을 실시간으로 전송할 수 있다.The broadcast server 100 may transmit the reference image in real time. For example, the broadcast server 100 may transmit a reference image in real time using an ATSC terrestrial service.

보조 데이터는 3D 방송의 자막 정보를 포함할 수 있다. 보조 데이터는 채널 시그널링(signaling) 섹션 데이터를 더 포함할 수 있다. 보조 데이터는 기준 영상과 다중화 되어 기준 영상의 스트림에 포함될 수 있다.The auxiliary data may include caption information of 3D broadcasting. The auxiliary data may further include channel signaling section data. The auxiliary data may be multiplexed with the reference video and included in the stream of the reference video.

일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 3D 영상을 생성하는데 이용될 수 있다.According to an aspect, the additional video transmitted to the broadcast receiver 110 may be used to generate a 3D video.

다른 일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 기준 영상과는 독립적으로 방송 수신기(110)에서 출력될 수 있다. 예를 들어, 방송 서버(100)가 부가 영상에 채널을 할당함으로써 부가 영상이 기준 영상과는 독립적인 영상으로써 방송 수신기(110)에서 출력될 수 있다.According to another aspect, the additional video transmitted to the broadcast receiver 110 may be output from the broadcast receiver 110 independently of the reference video. For example, as the broadcast server 100 allocates a channel to the additional video, the additional video may be output from the broadcast receiver 110 as an independent video from the reference video.

부가 영상을 독립적으로 출력하는 방법에 대해 하기에서, 도 2 내지 도 12를 참조하여 상세히 설명된다.
A method of independently outputting an additional video will be described in detail below with reference to FIGS. 2 to 12.

도 2는 일 실시예에 따른 방송 서버의 구성도이다.2 is a block diagram of a broadcast server according to an embodiment.

방송 서버(100)는 통신부(210), 처리부(220) 및 저장부(230)를 포함할 수 있다.The broadcast server 100 may include a communication unit 210, a processing unit 220, and a storage unit 230.

통신부(210)는 다른 서버 및 단말 등과 연결될 수 있다.The communication unit 210 may be connected to other servers and terminals.

처리부(220)는 통신부(210)가 수신한 정보 및 저장부(230)에 저장된 정보를 처리할 수 있다.The processing unit 220 may process information received by the communication unit 210 and information stored in the storage unit 230.

저장부(230)는 통신부(210)가 수신한 정보 및 처리부(220)가 처리한 정보를 저장할 수 있다.The storage unit 230 may store information received by the communication unit 210 and information processed by the processing unit 220.

통신부(210), 처리부(220) 및 저장부(230)에 대해, 하기에서 도 4 내지 도 8을 참조하여 상세히 설명된다.The communication unit 210, the processing unit 220, and the storage unit 230 will be described in detail below with reference to FIGS. 4 to 8.

앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIG. 1 may be applied as they are, a more detailed description will be omitted below.

도 3은 일 실시예에 따른 방송 수신기의 구성도이다.3 is a block diagram of a broadcast receiver according to an embodiment.

방송 수신기(110)는 통신부(310), 처리부(320) 및 저장부(330)를 포함할 수 있다.The broadcast receiver 110 may include a communication unit 310, a processing unit 320, and a storage unit 330.

통신부(310)는 서버 및 단말 등과 연결될 수 있다.The communication unit 310 may be connected to a server and a terminal.

처리부(320)는 통신부(310)가 수신한 정보 및 저장부(330)에 저장된 정보를 처리할 수 있다.The processing unit 320 may process information received by the communication unit 310 and information stored in the storage unit 330.

저장부(330)는 통신부(310)가 수신한 정보 및 처리부(320)가 처리한 정보를 저장할 수 있다.The storage unit 330 may store information received by the communication unit 310 and information processed by the processing unit 320.

통신부(310), 처리부(320) 및 저장부(330)에 대해, 하기에서 도 4 내지 도 12를 참조하여 상세히 설명된다.The communication unit 310, the processing unit 320, and the storage unit 330 will be described in detail below with reference to FIGS. 4 to 12.

앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIG. 1 may be applied as they are, a more detailed description will be omitted below.

도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.4 is a signal flow diagram of a broadcast providing method according to an exemplary embodiment.

단계(405)에서, 처리부(220)는 실시간 방송 또는 라이브 방송의 스트림을 생성할 수 있다. 실시간 방송은 방송 서버(100)를 운영하는 방송국의 방송 스케쥴에 의한 방송일 수 있다.In step 405, the processing unit 220 may generate a real-time broadcast or a live broadcast stream. The real-time broadcasting may be broadcasting according to a broadcasting schedule of a broadcasting station operating the broadcasting server 100.

실시간 방송의 스트림은 NRT 서비스에 대한 정보를 포함할 수 있다. 특정 방송이 3D 방송인지 여부는 NRT 서비스에 대한 정보에 표시될 수 있다. 특정 방송은 실시간으로 방송 수신기(110)로 전송될 방송일 수 있다. 예를 들어, NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)일 수 있다.The stream of real-time broadcasting may include information on NRT service. Whether a specific broadcast is a 3D broadcast may be indicated in the information on the NRT service. The specific broadcast may be a broadcast to be transmitted to the broadcast receiver 110 in real time. For example, the stream type of information on the NRT service may be 0x0D (DSMCC-Addressable Section) defined in the "ATSC Non-Real-Time Content Delivery (A/103:2012)" standard.

단계(410)에서, 통신부(210)는 실시간 방송의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 실시간 방송의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.In step 410, the communication unit 210 may transmit a real-time broadcast stream to the broadcast receiver 110. For example, a stream of real-time broadcasting may be transmitted through an ATSC terrestrial service.

통신부(310)는 실시간 방송의 스트림을 방송 서버(100)로부터 수신할 수 있다.The communication unit 310 may receive a stream of real-time broadcasting from the broadcasting server 100.

단계(415)에서, 처리부(320)는 실시간 방송의 스트림을 파싱할 수 있다.In step 415, the processing unit 320 may parse the stream of real-time broadcasting.

실시간 방송의 스트림은 비-실시간으로 제공되는 콘텐츠에 대한 정보를 포함할 수 있다.The stream of real-time broadcasting may include information on content provided in non-real time.

처리부(320)는 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득할 수 있다. 예를 들어, 처리부(320)는 실시간 방송의 스트림을 파싱함으로써 NRT 서비스에 대한 정보를 방송 수신기(110)의 사용자 또는 시청자에게 제공할 수 있다.The processing unit 320 may obtain information on content provided in non-real time by parsing the stream of real-time broadcasting. For example, the processing unit 320 may provide information on an NRT service to a user or viewer of the broadcast receiver 110 by parsing a stream of real-time broadcasting.

단계(420)에서, 통신부(310)는 사용자로부터 특정 방송의 부가 영상의 요청을 수신할 수 있다. 예를 들어, 특정 방송은 3D 방송일 수 있다.In step 420, the communication unit 310 may receive a request for an additional video of a specific broadcast from a user. For example, a specific broadcast may be a 3D broadcast.

단계(425)에서, 통신부(310)는 비-실시간으로 제공되는 콘텐츠에 대한 정보에 기반하여 부가 영상의 스트림의 요청을 방송 서버(100)로 전송할 수 있다. 예를 들어, 부가 영상의 요청은 ATSC NRT 서비스를 통해 전송될 수 있다.In step 425, the communication unit 310 may transmit a request for a stream of an additional video to the broadcast server 100 based on information on content provided in non-real time. For example, a request for an additional video may be transmitted through an ATSC NRT service.

통신부(210)는 부가 영상의 요청을 방송 수신기(110)로부터 수신할 수 있다.The communication unit 210 may receive a request for an additional video from the broadcast receiver 110.

단계(430)에서, 처리부(220)는 부가 영상의 스트림을 생성할 수 있다.In step 430, the processor 220 may generate a stream of the additional video.

도 4에서, 단계(430)는 단계(425)가 수행된 후 수행되는 것으로 도시되었으나, 단계(430)는 단계(425)가 수행되기 전에도 수행될 수 있다. 즉, 처리부(220)는 미리 부가 영상의 스트림을 생성할 수 있다. 저장부(230)는 생성된 부가 영상의 스트림을 저장할 수 있다.In FIG. 4, step 430 is shown to be performed after step 425 is performed, but step 430 may be performed even before step 425 is performed. That is, the processor 220 may generate a stream of the additional video in advance. The storage unit 230 may store a stream of the generated additional video.

부가 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 5를 참조하여 상세히 설명된다.A method of generating an additional video stream will be described in detail below with reference to FIG. 5.

단계(435)에서, 통신부(210)는 부가 영상의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 통신부(210)는 부가 영상의 스트림을 비-실시간으로 방송 수신기(110)로 전송할 수 있다.In step 435, the communication unit 210 may transmit the stream of the additional video to the broadcast receiver 110. For example, the communication unit 210 may transmit a stream of the additional video to the broadcast receiver 110 in non-real time.

통신부(310)는 부가 영상의 스트림을 방송 서버(100)로부터 비-실시간으로 수신할 수 있다.The communication unit 310 may receive the stream of the additional video from the broadcast server 100 in non-real time.

통신부(310)는 기준 영상의 스트림이 수신되기 전에 부가 영상의 스트림을 수신할 수 있다.The communication unit 310 may receive a stream of an additional video before the stream of the reference video is received.

처리부(320)는 부가 영상의 스트림을 저장부(330)에 저장할 수 있다.The processing unit 320 may store the stream of the additional video in the storage unit 330.

단계(445)에서, 처리부(220)는 특정 방송의 기준 영상의 스트림을 생성할 수 있다.In step 445, the processing unit 220 may generate a stream of a reference video of a specific broadcast.

단계(445)는 방송국 스케쥴링에 따른 특정 방송에 대해 수행될 수 있다.Step 445 may be performed for a specific broadcast according to broadcasting station scheduling.

기준 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 6을 참조하여 상세히 설명된다.A method of generating a stream of a reference video will be described in detail below with reference to FIG. 6.

단계(450)에서, 통신부(210)는 기준 영상의 스트림을 실시간으로 방송 수신기(110)로 전송할 수 있다. 예를 들어, 기준 영상의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.In step 450, the communication unit 210 may transmit the stream of the reference image to the broadcast receiver 110 in real time. For example, the stream of the reference video may be transmitted through an ATSC terrestrial service.

통신부(310)는 기준 영상의 스트림을 실시간으로 방송 서버(100)로부터 수신할 수 있다.The communication unit 310 may receive a stream of the reference video from the broadcast server 100 in real time.

단계(455)에서, 처리부(320)는 부가 영상의 스트림 및 기준 영상의 스트림을 이용하여 3D 영상을 생성할 수 있다.In step 455, the processor 320 may generate a 3D image by using the stream of the additional video and the stream of the reference video.

단계(460)에서, 처리부(320)는 3D 영상을 사용자에게 출력할 수 있다.In step 460, the processing unit 320 may output a 3D image to the user.

단계(465)에서, 처리부(320)는 부가 영상을 사용자에게 출력할 수 있다. 부가 영상은 기준 영상과 독립적으로 출력될 수 있다. 다시 말하자면, 부가 영상은 기준 영상이 수신 되지 않는 경우에도 기준 영상과 무관하게 출력될 수 있다.In step 465, the processing unit 320 may output the additional video to the user. The additional video may be output independently from the reference video. In other words, the additional video may be output regardless of the reference video even when the reference video is not received.

예를 들어, 부가 영상이 3D 영상의 우영상인 경우, 처리부(320)는 우영상만을 사용자에게 출력할 수 있다.For example, when the additional video is a right video of a 3D video, the processing unit 320 may output only the right video to the user.

앞서 도 1 내지 도 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 3 may be applied as they are, a more detailed description will be omitted below.

도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.5 is a flowchart of a method of generating an additional video stream according to an example.

전술된 단계(430)는 하기의 단계들(510 내지 530)을 포함할 수 있다.The above-described step 430 may include the following steps 510 to 530.

단계(510)에서, 통신부(210)는 부가 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 부가 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 부가 영상을 제공하는 다른 서버로부터 부가 영상을 수신할 수 있다.In step 510, the communication unit 210 may receive an additional video. For example, the communication unit 210 may receive an additional video from the storage unit 230. As another example, the communication unit 210 may receive the additional video from another server that provides the additional video.

단계(520)에서, 처리부(220)는 부가 영상을 부호화(encoding)할 수 있다. 부가 영상의 부호화는 부가 영상의 압축일 수 있다.In step 520, the processor 220 may encode the additional video. The encoding of the additional video may be compression of the additional video.

예를 들어, 처리부(220)는 부가 영상을 부호화함으로써 MPEG(Moving Picture Experts Group)-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.For example, the processor 220 may generate a Moving Picture Experts Group (MPEG)-2 stream by encoding the additional video. The MPEG-2 stream may comply with the standard "Information technology-Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)".

부호화된 부가 영상의 부호화 형식은 하기의 [표 1]의 형식들 중 하나일 수 있다.The encoding format of the encoded additional video may be one of the formats shown in Table 1 below.

주사선 수Number of scan lines 화소 수Number of pixels 화면 종횡비Screen aspect ratio 화면 재생률(Hz)Screen refresh rate (Hz) 10801080 19201920 16:916:9 60I, 30P, 24P60I, 30P, 24P 720720 12801280 16:916:9 60P, 30P, 24P60P, 30P, 24P

[표 1]의 화면 재생률에서 P는 순차 주사, I는 격행 주사를 의미한다.In the screen refresh rate of [Table 1], P denotes sequential scanning and I denotes alternate scanning.

부가 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The stream type of the additional video may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)" standard.

이하에서 설명되는 부호화 및 복호화 방식은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The encoding and decoding scheme described below may comply with the standard "Terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)".

단계(530)에서, 처리부(220)는 부가 영상의 스트림을 채널 다중화(channel multiplexing)할 수 있다. 예를 들어, 처리부(220)는 부가 영상의 스트림을 시그널링함으로써 부가 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 부가 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.In step 530, the processor 220 may channel multiplex the stream of the additional video. For example, the processor 220 may channel multiplex the stream of the additional video by signaling the stream of the additional video. Channel multiplexing may be assignment of a channel number to a stream of an additional video.

프로그램 지정 정보(Program Specific Information; PSI)에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)을 준수할 수 있다.Matters on Program Specific Information (PSI) can comply with "Terrain Digital TV Broadcasting Transmission/Receiving Matching (TTAK.KO-07.0014/R3).

부가 영상의 스트림의 시그널링에 대한 사항은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준을 준수할 수 있다.Matters on signaling of the additional video stream may comply with the "ATSC Non-Real-Time Content Delivery (A/103:2012)" standard.

NRT 서비스를 위한 부가 영상의 스트림의 시그널링은 SSC(Service Signaling Channel)을 통해 수행될 수 있다. SSC로 전달되는 정보 중 SMT(Service Map Table)는 NRT 서비스에 대한 정보를 제공할 수 있다. SSC로 전달되는 정보 중 NRT-IT(Information Table)는 NRT 서비스를 구성하는 콘텐츠 아이템에 대한 정보를 제공할 수 있다. SMT 및 NRT-IT는 SSC(Service Signaling channel(Doc.A/103:2012)) 표준을 준수할 수 있다.Signaling of the stream of the additional video for the NRT service may be performed through a Service Signaling Channel (SSC). Among the information transmitted to the SSC, the Service Map Table (SMT) may provide information on the NRT service. Among the information delivered to the SSC, the NRT-IT (Information Table) may provide information on content items constituting the NRT service. SMT and NRT-IT may comply with the SSC (Service Signaling Channel (Doc.A/103:2012)) standard.

부가 영상은 3D 방송을 위해 사용될 수 있는 영상 또는 별도의 2D 방송으로 재생될 수 있는 영상일 수 있다.The additional video may be a video that can be used for 3D broadcasting or a video that can be reproduced by a separate 2D broadcasting.

예를 들어, 처리부(220)가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당함으로써 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있다.For example, the processing unit 220 allocates different terrestrial channels to the stream of the video and the stream of the reference video, so that the additional video may be output from the broadcast receiver 110 independently of the reference video.

처리부(220)는 부가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 부가 영상의 스트림 및 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The processor 220 signals a stream of an additional video and a stream of a reference video using respective Program Map Tables (PMTs) in order to allocate different terrestrial channels to the stream of the additional video and the stream of the reference video, respectively. can do.

PMT를 이용하여 시그널링하는 방법에 대해, 하기에서 도 7을 참조하여 상세히 설명된다.A method of signaling using the PMT will be described in detail below with reference to FIG. 7.

부가 영상이 3D 방송을 위해 사용될 수 있는 영상인지 또는 2D 방송으로 재생될 수 있는 영상인지를 구분하기 위해 가능성 서술자(capabilities_descriptor)가 사용될 수 있다. 다시 말하자면, 부가 영상이 기준 영상과 독립적으로 출력될 수 있는지 여부는 부가 영상의 스트림 내에 포함되는 capabilities_descriptor에 표시될 수 있다.A possibility descriptor (capabilities_descriptor) may be used to distinguish whether the additional video is a video that can be used for 3D broadcasting or a video that can be reproduced by 2D broadcasting. In other words, whether or not the additional video can be output independently from the base video may be indicated in capabilities_descriptor included in the stream of the additional video.

capabilities_descriptor는 ATSC의 "Non-Real-Time Content Delivery(Doc. A/103:2012)" 표준을 준수할 수 있다.capabilities_descriptor may comply with ATSC's "Non-Real-Time Content Delivery (Doc. A/103:2012)" standard.

capabilities_descriptor 내의 capability_codes는 하기의 [표 2]와 같이 확장될 수 있다.Capability_codes in capabilities_descriptor can be extended as shown in [Table 2] below.

capability_codecapability_code 내용Contents 0x520x52 호환 가능한 3D 영상의 부가 영상(독립적인 2D 영상으로 이용 불가)Additional video of compatible 3D video (not available as independent 2D video) 0x530x53 호환 가능한 3D 영상의 부가 영상(독립적인 2D 영상으로 이용 가능)Additional video of compatible 3D video (available as independent 2D video)

부가 영상을 독립적인 2D 영상으로 이용하기 위한 방법이 하기에서 도 7을 참조하여 상세히 설명된다.A method for using the additional video as an independent 2D video will be described in detail below with reference to FIG. 7.

앞서 도 1 내지 도 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 4 may be applied as they are, a more detailed description will be omitted below.

도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.6 is a flowchart of a method of generating a stream of a reference video according to an example.

전술된 단계(445)는 하기의 단계들(610 내지 640)을 포함할 수 있다.The above-described step 445 may include the following steps 610 to 640.

단계(610)에서, 통신부(210)는 기준 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 기준 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 기준 영상을 제공하는 다른 서버로부터 기준 영상을 수신할 수 있다.In step 610, the communication unit 210 may receive a reference image. For example, the communication unit 210 may receive a reference image from the storage unit 230. As another example, the communication unit 210 may receive the reference image from another server that provides the reference image.

단계(620)에서, 처리부(220)는 기준 영상을 부호화할 수 있다. 기준 영상의 부호화는 기준 영상의 압축일 수 있다. 기준 영상의 부호화는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.In step 620, the processing unit 220 may encode the reference image. The encoding of the reference image may be compression of the reference image. The encoding of the reference video may comply with the standard "Terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)".

부호화된 기준 영상의 부호화 형식은 하기의 [표 3]의 형식들 중 하나일 수 있다.The encoding format of the encoded reference image may be one of the formats shown in Table 3 below.

주사선 수Number of scan lines 화소 수Number of pixels 화면 종횡비Screen aspect ratio 화면 재생률(Hz)Screen refresh rate (Hz) 10801080 19201920 16:916:9 60I, 30P, 24P60I, 30P, 24P 720720 12801280 16:916:9 60P, 30P, 24P60P, 30P, 24P

처리부(220)는 기준 영상을 부호화할 때, 보조 데이터(ancillary data)를 이용하여 기준 영상을 부호화할 수 있다. 예를 들어, 보조 데이터는 자막 방송(Closed captioning) 데이터 일 수 있다.When encoding the reference image, the processor 220 may encode the reference image using ancillary data. For example, the auxiliary data may be closed captioning data.

부호화된 기준 영상의 형식은 기초 스트림(Elementary Stream; ES)일 수 있다.The format of the encoded reference image may be an elementary stream (ES).

단계(630)에서, 처리부(220)는 부호화된 기준 영상을 프로그램 다중화(program multiplexing)할 수 있다.In step 630, the processor 220 may program multiplex the encoded reference image.

처리부(220)는 부호화된 기준 영상, 부호화된 오디오 신호 및 부가 영상을 위한 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다.The processor 220 may perform program multiplexing by using the encoded reference image, the encoded audio signal, and metadata for the additional video.

일 측면에 따르면, 프로그램 다중화가 수행되어 생성된 기준 영상의 스트림은 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.According to an aspect, a stream of a reference image generated by performing program multiplexing may include metadata for generating a 3D image.

메타데이터는 PSI(Program Specific Information)를 포함할 수 있다.The metadata may include Program Specific Information (PSI).

PSI는 채널 내의 프로그램 정보 목록을 유지하는 PAT(Program Association Table), 스크램블링(scrambling)과 같은 접근 제어 정보를 포함하는 CAT(Conditional Access Table), 프로그램 내의 영상 스트림 및 오디오 스트림에 대한 정보를 포함하는 PMT 및 MPEG 정보를 전송하기 위해 사용되는 네트워크에 대한 정보를 포함하는 NIT(Network Information Table) 중 적어도 하나를 포함할 수 있다.PSI is a PAT (Program Association Table) that maintains a list of program information in a channel, a CAT (Conditional Access Table) that includes access control information such as scrambling, and a PMT that includes information about video and audio streams in the program. And at least one of a Network Information Table (NIT) including information on a network used to transmit MPEG information.

PMT는 program_number 및 스트림에 존재하는 각 프로그램에 대한 정보를 제공할 수 있다. PMT는 MPEG-2 프로그램을 구성하는 기초 스트림을 나열할 수 있다. PMT는 각 기초 스트림을 위한 선택적 서술자뿐만 아니라 완전한 MPEG-2 스트림을 서술하는 선택적 서술자를 위한 위치 정보도 제공할 수 있다. 각 기초 스트림은 stream_type 값으로 식별될 수 있다.The PMT may provide program_number and information on each program existing in the stream. The PMT can list elementary streams constituting the MPEG-2 program. The PMT may provide not only an optional descriptor for each elementary stream, but also position information for an optional descriptor describing a complete MPEG-2 stream. Each elementary stream can be identified by a stream_type value.

일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 프로그램 다중화를 수행할 수 있다.According to an aspect, the processing unit 220 may perform program multiplexing using at least one PMT.

기준 영상을 이용하여 제공할 수 있는 방송은 2D 방송 또는 3D 방송일 수 있다. 처리부(220)는 각각의 PMT를 통해 방송이 2D 방송인지 또는 3D 방송인지를 나타낼 수 있다.Broadcasts that can be provided using the reference image may be 2D broadcasting or 3D broadcasting. The processing unit 220 may indicate whether a broadcast is a 2D broadcast or a 3D broadcast through each PMT.

예를 들어, 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당할 수 있다. 두 개의 지상파 채널들은 각각 기준 영상을 2D 방송에 이용하는 지상파 채널 및 기준 영상을 3D 방송에 이용하는 채널일 수 있다. 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 기준 영상의 스트림을 두 개의 지상파 채널에 각각 대응하는 PMT를 이용하여 시그널링할 수 있다.For example, the processor 220 may allocate two terrestrial channels to the stream of the reference video. The two terrestrial channels may be a terrestrial channel using a reference image for 2D broadcasting and a channel using a reference image for 3D broadcasting, respectively. The processor 220 may signal the stream of the reference video using PMTs respectively corresponding to the two terrestrial channels in order to allocate two terrestrial channels to the stream of the reference video.

예를 들어, 처리부(220)는 제1 PMT에는 제공되는 방송이 2D 방송이라는 코드를 부여할 수 있다. 2D 방송 코드는 program_number = 0x001 일 수 있다. 제1 PMT는 기준 영상 및 오디오 신호가 연관될 수 있다.For example, the processor 220 may give the first PMT a code that the broadcast to be provided is 2D broadcast. The 2D broadcast code may be program_number = 0x001. A reference image and an audio signal may be associated with the first PMT.

처리부(220)는 제2 PMT에는 제공되는 방송이 3D 방송이라는 코드를 부여할 수 있다. 3D 방송 코드는 program_number = 0x002 일 수 있다. 제2 PMT는 기준 영상, 오디오 신호, 부가 영상의 전달을 위한 NRT 서비스에 대한 정보 및 부가 영상을 위한 메타데이터와 연관될 수 있다.The processing unit 220 may assign a code that the broadcast to be provided is a 3D broadcast to the second PMT. The 3D broadcast code may be program_number = 0x002. The second PMT may be associated with information on an NRT service for delivery of a reference video, an audio signal, and an additional video, and metadata for the additional video.

일 측면에 따르면, 처리부(220)는 기준 영상을 프로그램 다중화함으로써 MPEG-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.According to an aspect, the processor 220 may generate an MPEG-2 stream by program multiplexing a reference image. The MPEG-2 stream may comply with the standard "Information technology-Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)".

메타데이터는 기준 영상 및 부가 영을 동기화 하기 위한 동기화 정보를 포함할 수 있다.The metadata may include synchronization information for synchronizing the base video and the additional video.

동기화 정보는 media_pairing_information()에 기술될 수 있다. 동기화 정보는 "지상파 3DTV 방송 송수신 정합-제3부: 하이브리드(TTAK.KO-07.0122)" 표준을 준수할 수 있다.Synchronization information may be described in media_pairing_information(). The synchronization information may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 3: Hybrid (TTAK.KO-07.0122)" standard.

기준 영상의 프로그램 다중화는 "지상파 디지털 TV 방송 송수신 정합(TTAK.KO-07.0014/R3)" 표준 및 "ISO/IEC 13818-1:2013"를 준수할 수 있다.The program multiplexing of the reference video may comply with the “terrestrial digital TV broadcast transmission/reception matching (TTAK.KO-07.0014/R3)” standard and “ISO/IEC 13818-1:2013”.

기준 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The stream type of the reference video may comply with the “terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)” standard.

메타데이터의 스트림 타입은 "ISO/IEC 13818-1:2013" 에서 정의된 0x06(프라이빗 데이터(private data))일 수 있다.The stream type of metadata may be 0x06 (private data) defined in "ISO/IEC 13818-1:2013".

NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)을 이용할 수 있다.The stream type of information on the NRT service may use 0x0D (DSMCC-Addressable Section) defined in the "ATSC Non-Real-Time Content Delivery (A/103:2012)" standard.

PMT는 스테레오스코픽 프로그램 정보 서술자(stereoscopic_program_info_descriptor()) 및 스테레오스코픽 비디오 정보 서술자(stereoscopic_video_info_descriptor())를 포함할 수 있다.The PMT may include a stereoscopic program information descriptor (stereoscopic_program_info_descriptor()) and a stereoscopic video information descriptor (stereoscopic_video_info_descriptor()).

stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 각각 준수할 수 있다.The stereoscopic_program_info_descriptor() and stereoscopic_video_info_descriptor() may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)" standards, respectively.

단계(640)에서, 처리부(220)는 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 기준 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.In step 640, the processing unit 220 may channel multiplex the stream of the reference image. Channel multiplexing may be assigning a channel number to a stream of a reference video.

예를 들어, 처리부(220)는 기준 영상의 스트림을 시그널링함으로써 기준 영상의 스트림을 채널 다중화할 수 있다.For example, the processing unit 220 may channel multiplex the stream of the reference video by signaling the stream of the reference video.

PSI에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)"을 준수할 수 있다.Matters on PSI can comply with "Terrain Digital TV Broadcasting Transmission and Reception Matching (TTAK.KO-07.0014/R3)".

일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화에 대해, 하기에도 도 7을 참조하여 상세히 설명된다.According to an aspect, the processor 220 may channel multiplex the stream of the reference image using at least one PMT. The channel multiplexing will be described in detail below with reference to FIG. 7 as well.

앞서 도 1 내지 도 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 5 may be applied as they are, a more detailed description will be omitted below.

도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.7 illustrates a method of allocating different terrestrial channels to a stream of a reference video and a stream of an additional video according to an example.

3D 방송은 기준 영상, 오디오, PSI/PSIP, 프라이빗 데이터 및 부가 영상으로 구성될 수 있다.3D broadcasting may be composed of a reference video, audio, PSI/PSIP, private data, and additional video.

처리부(220)는 기준 영상을 이용하는 방송이 2D 방송인지 또는 3D 방송인지에 따라서 기준 영상의 스트림에 복수의 지상파 채널들을 할당할 수 있다. 예를 들어, 처리부(220)는 제1 PMT를 이용하는 방송에 '채널 1'을 할당할 수 있다. 처리부(220)는 제2 PMT를 이용하는 방송에 '채널 2'를 할당할 수 있다.The processing unit 220 may allocate a plurality of terrestrial channels to the stream of the reference video according to whether the broadcast using the reference video is 2D broadcast or 3D broadcast. For example, the processor 220 may allocate'channel 1'to a broadcast using the first PMT. The processing unit 220 may allocate'channel 2'to a broadcast using the second PMT.

처리부(220)는 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있도록 부가 영상의 스트림에 기준 영상의 스트림과는 상이한 지상파 채널을 부여할 수 있다. 예를 들어, 부가 영상의 스트림에 제3 PMT가 연관된 경우, 처리부(220)는 제3 PMT를 이용하는 방송에 '채널 3'을 할당할 수 있다.The processing unit 220 may assign a terrestrial channel different from the stream of the reference video to the stream of the additional video so that the additional video can be output from the broadcast receiver 110 independently of the reference video. For example, when a third PMT is associated with a stream of an additional video, the processor 220 may allocate'channel 3'to a broadcast using the third PMT.

채널은 가상 채널(virtual channel)일 수 있다.The channel may be a virtual channel.

처리부(220)는 지상파 가상 채널 테이블(TVCT)을 이용하여 2D 방송에 대해서는 기존에 서비스되던 채널 시그널링을 사용하고, 3D 방송에 대해서는 2D 방송과 상이한 채널 번호를 할당할 수 있다.The processing unit 220 may use channel signaling that has been previously serviced for 2D broadcasting using a terrestrial virtual channel table (TVCT), and may allocate a channel number different from that of 2D broadcasting for 3D broadcasting.

처리부(220)는 TVCT를 이용하여 부가 영상의 스트림에 대해서 다른 채널 번호들과 상이한 채널 번호를 할당할 수 있다.The processor 220 may allocate a channel number different from other channel numbers to the stream of the additional video using the TVCT.

처리부(220)는 서비스 위치 서술자(service_location_descriptor)를 이용하여 하이브리드 3DTV 방송을 구성하는 기초 스트림의 PID 값을 시그널링할 수 있다.The processing unit 220 may signal a PID value of an elementary stream constituting a hybrid 3DTV broadcast using a service location descriptor (service_location_descriptor).

ATSC NRT 서비스 기반의 채널은 service_type 0x09(Extended Parameterized Service)를 이용하여 식별될 수 있다.The ATSC NRT service-based channel may be identified using service_type 0x09 (Extended Parameterized Service).

처리부(220)는 parimeterzied_service_descriptor(PSD)를 이용하여 3D 방송인지 여부 및 어떠한 종류의 3D 방송인지를 시그널링할 수 있다.The processing unit 220 may signal whether a 3D broadcasting is performed and what kind of 3D broadcasting is performed using a parimeterzied_service_descriptor (PSD).

부가 영상의 스트림을 전송하는 채널은 service_type(ATSC NRT Service)를 이용할 수 있다.A channel for transmitting an additional video stream may use service_type (ATSC NRT Service).

PSD는 service_type 0x09인 TVCT에 포함될 수 있다.PSD may be included in TVCT of service_type 0x09.

PSD는 방송 서비스에 대한 상세한 설명을 제공할 수 있다.The PSD may provide detailed descriptions of broadcast services.

처리부(220)는 PSD를 이용하여 해당 방송 서비스가 방송 수신기(110)에서 지원 가능한지 여부를 시그널링할 수 있다.The processing unit 220 may signal whether a corresponding broadcast service is supported by the broadcast receiver 110 by using the PSD.

PSD에 대해 하기의 [표 4]에서 설명된다.The PSD is described in Table 4 below.

구문(Syntax)Syntax 비트의 수Number of bits 형식form parameterized_service_descriptor(){
descriptor_tag
descriptor_length
application_tag
application_data()
}
parameterized_service_descriptor(){
descriptor_tag
descriptor_length
application_tag
application_data()
}

8
8
8
var

8
8
8
var

uimsbf
uimsbf
bslbf


uimsbf
uimsbf
bslbf

application_tag: 바로 다음에 오는 application_data()가 무엇인지를 나타낼 수 있다. 3D 방송인 경우 application_tag의 값은 0x01일 수 있다.application_tag: Can indicate what application_data() immediately follows. In the case of 3D broadcasting, the value of application_tag may be 0x01.

application_data(): 연동된 application_tag의 값에 따라 구문이 정의될 수 있다. application_tag의 값이 0x01인 경우 application_data()의 구문은 하기의 [표 5]와 같을 수 있다.application_data(): The syntax can be defined according to the value of the linked application_tag. When the value of application_tag is 0x01, the syntax of application_data() may be as shown in [Table 5] below.

구문(Syntax)Syntax 비트의 수Number of bits 형식form application_data(0x01){
reserved
3D_channel_type
for (i=0; i<N; i++){
reserved
}
}
application_data(0x01){
reserved
3D_channel_type
for (i=0; i<N; i++){
reserved
}
}

3
5

8


3
5

8


uimsbf
uimsbf

bslbf


uimsbf
uimsbf

bslbf

3D_channel_type: 3D 방송의 타입 정보를 나타낼 수 있다. ATSC NRT 기반 3D 방송은 0x05로 설정될 수 있다.3D_channel_type: Can indicate type information of 3D broadcasting. ATSC NRT-based 3D broadcast may be set to 0x05.

3D_channel_type의 값에 대해 하기의 [표 6]을 참조하여 상세히 설명된다.The value of 3D_channel_type will be described in detail with reference to Table 6 below.

value 설명Explanation 0x00 - 0x030x00-0x03 보류됨Held 0x040x04 IP(Internet Protocol) 하이브리드 3DTV 서비스IP (Internet Protocol) hybrid 3DTV service 0x050x05 ATSC NRT 기반 지상파 3DTV 서비스ATSC NRT-based terrestrial 3DTV service 0x06 - 0x1F0x06-0x1F ATSC 보류됨ATSC held

ATSC NRT 기반의 3D 방송에 대한 가이드 정보를 제공하기 위하여 stereoscopic_program_info_descriptor()가 프로그램 및 시스템 정보 프로토콜(Program and System Information Protocol; PSIP)의 이벤트 정보 테이블(Event Information Table; EIT)에 추가될 수 있다. stereoscopic_program_info_descriptor()는 EIT의 이벤트를 기술하는 서술자 루프에 위치할 수 있다.In order to provide guide information for ATSC NRT-based 3D broadcasting, stereoscopic_program_info_descriptor() may be added to an event information table (EIT) of a program and system information protocol (PSIP). stereoscopic_program_info_descriptor() may be located in a descriptor loop describing an event of an EIT.

앞서 도 1 내지 도 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 6 may be applied as they are, a more detailed description will be omitted below.

도 8은 일 예에 따른 방송 서버의 구성도이다.8 is a configuration diagram of a broadcast server according to an example.

방송 서버(100)는 3D 콘텐츠 서버, 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기, 채널 다중화부 및 지상파 채널 전송부를 포함할 수 있다.The broadcast server 100 may include a 3D content server, an audio signal encoder, a reference video encoder, a program multiplexer, an additional video encoder, an NRT encoder, a channel multiplexer, and a terrestrial channel transmitter.

저장부(230)는 3D 콘텐츠 서버를 포함할 수 있다.The storage unit 230 may include a 3D content server.

처리부(220)는 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기 및 채널 다중화부를 포함할 수 있다.The processing unit 220 may include an audio signal encoder, a reference video encoder, a program multiplexer, an additional video encoder, an NRT encoder, and a channel multiplexer.

통신부(210)는 지상파 채널 전송부를 포함할 수 있다.The communication unit 210 may include a terrestrial channel transmission unit.

3D 콘텐츠 서버는 부가 영상, 기준 영상 및 오디오 신호를 저장할 수 있다.The 3D content server may store an additional video, a reference video, and an audio signal.

오디오 신호 부호화기는 오디오 신호를 부호화할 수 있다.The audio signal encoder may encode an audio signal.

기준 영상 부호화기는 기준 영상을 부호화할 수 있다. 기준 영상 부호화기는 전술된 단계(620)를 수행할 수 있다.The reference image encoder may encode the reference image. The reference image encoder may perform step 620 described above.

프로그램 다중화부는 기준 영상, 오디오 신호 및 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다. 프로그램 다중화부는 전술된 단계(630)를 수행할 수 있다.The program multiplexer may perform program multiplexing using a reference image, an audio signal, and metadata. The program multiplexer may perform the above-described step 630.

채널 다중화부는 기준 신호 스트림 및 부가 영상 스트림을 각각 채널 다중화할 수 있다. 채널 다중화부는 전술된 단계(640)를 수행할 수 있다.The channel multiplexer may channel multiplex the reference signal stream and the additional video stream, respectively. The channel multiplexer may perform step 640 described above.

부가 영상 부호화기는 부가 영상을 부호화할 수 있다. 부가 영상 부호화기는 전술된 단계(520)를 수행할 수 있다.The additional video encoder may encode the additional video. The additional video encoder may perform step 520 described above.

NRT 부호화기는 부가 영상의 스트림을 NRT 서비스에 맞도록 부호화할 수 있다. NRT 부호화기는 전술된 단계(520)를 수행할 수 있다.The NRT encoder may encode the stream of the additional video to fit the NRT service. The NRT encoder may perform the above-described step 520.

지상파 채널 전송부는 채널 다중화된 부가 영상의 스트림 및 기준 영상의 스트림을 전송할 수 있다.The terrestrial channel transmitter may transmit a stream of a channel multiplexed additional video and a stream of a reference video.

앞서 도 1 내지 도 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 7 may be applied as they are, a more detailed description will be omitted below.

도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.9 to 12 are flowcharts of a method for generating a 3D image by a broadcast receiver.

도 9 내지 도 12의 하기의 단계들(902 내지 1206)은 수신한 기준 영상의 스트림 및 부가 영상의 스트림을 이용하여 방송 수신기(110)가 3D 영상을 생성하는 방법일 수 있다.The following steps 902 to 1206 of FIGS. 9 to 12 may be a method in which the broadcast receiver 110 generates a 3D image by using the received stream of the reference video and the stream of the additional video.

단계들(902 내지 1006)은 기준 영상의 스트림에 대해 수행되는 단계들 일 수 있다.Steps 902 to 1006 may be steps performed on the stream of the reference video.

단계(902)에서, 처리부(320)는 PSI 파서(parser)를 이용하여 기준 영상의 스트림에 포함된 PAT를 획득할 수 있다. 수신기는 PAT를 파싱함으로써 PMT_ID를 획득할 수 있다.In step 902, the processor 320 may acquire the PAT included in the stream of the reference image using a PSI parser. The receiver can obtain the PMT_ID by parsing the PAT.

단계(904)에서, 처리부(320)는 PSI 파서를 이용하여 PID=PMT_PID를 갖는 테이블을 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()가 제공하는 방송 서비스 타입의 정보를 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 동기화 정보(0x05 - referenced_media_information() 및 0x06 - media_pairing_information())을 싣는 테이블들의 PID(906)를 획득할 수 있다.In step 904, the processing unit 320 may acquire a table having PID=PMT_PID using the PSI parser. The processing unit 320 may obtain information on a broadcast service type provided by stereoscopic_program_info_descriptor() and stereoscopic_video_info_descriptor() by parsing the PMT. The processor 320 may obtain the PIDs 906 of tables carrying synchronization information (0x05-referenced_media_information() and 0x06-media_pairing_information()) by parsing the PMT.

도 10에서 처리부(320)는 PSIP 파서를 이용하여 TVCT 및 EIT를 획득할 수 있다.In FIG. 10, the processing unit 320 may acquire TVCT and EIT using a PSIP parser.

단계(1002)에서, 처리부(320)는 TVCT를 파싱함으로써 기준 스트림의 방송 타입을 식별할 수 있다. 예를 들어, 3D_channel_type = 0x05인 경우, 기준 스트림은 3D 방송을 제공할 수 있다.In step 1002, the processing unit 320 may identify the broadcast type of the reference stream by parsing the TVCT. For example, when 3D_channel_type = 0x05, the reference stream may provide 3D broadcasting.

처리부(320)는 TVCT를 파싱함으로써 service_location_descriptor 및 parameterized_serive_descriptor(PSD)를 제공할 수 있다.The processing unit 320 may provide a service_location_descriptor and a parameterized_serive_descriptor (PSD) by parsing the TVCT.

service_location_descriptor로부터 PID(1004)가 획득될 수 있다.The PID 1004 may be obtained from service_location_descriptor.

단계(1014)에서, 처리부(320)는 EIT를 파싱함으로써 stereoscopic_program_info_descriptor를 획득할 수 있다.In step 1014, the processing unit 320 may obtain a stereoscopic_program_info_descriptor by parsing the EIT.

하기의 단계들(1102 내지 1108)은 부가 영상의 스트림에 대해 수행되는 단계들일 수 있다.The following steps 1102 to 1108 may be steps performed on a stream of an additional video.

단계(1102) 및 단계(1104)에서, 처리부(320)는 부가 영상의 스트림에 대한 정보를 획득하기 위해 PAT 및 PMT를 파싱함으로써 각각 분석할 수 있다.In steps 1102 and 1104, the processing unit 320 may analyze each of the PAT and PMT by parsing the PAT and PMT to obtain information on the stream of the additional video.

단계(1106)에서, 처리부(320)는 부가 영상의 스트림을 복호화(decoding)할 수 있다. 예를 들어, 부가 영상의 스트림은 AVC 복호화기를 통해 복호화될 수 있다.In step 1106, the processor 320 may decode the stream of the additional video. For example, a stream of the additional video may be decoded through an AVC decoder.

단계(1108)에서, 처리부(320)는 부가 영상을 3D 영상 생성기(formatter)로 제공할 수 있다.In step 1108, the processing unit 320 may provide the additional image to a 3D image formatter.

도 12에서 처리부(320)의 TS 필터는 PID(906) 및 PID(1004)를 수신할 수 있다.In FIG. 12, the TS filter of the processing unit 320 may receive a PID 906 and a PID 1004.

단계(1202)에서, 처리부(320)는 TS 필터를 이용하여 각 PID를 처리할 수 있다. 처리부(320)는 기준 영상을 위해 PID=PID_V1으로 TS를 필터링할 수 있다. 처리부(320)는 동기화 정보를 위해 PID=PID_PD로 TS를 필터링할 수 있다. 처리부(320)는 오디오 정보를 위해 PID=PID_A로 TS를 필터링할 수 있다.In step 1202, the processing unit 320 may process each PID using a TS filter. The processing unit 320 may filter the TS with PID=PID_V1 for the reference image. The processing unit 320 may filter the TS with PID=PID_PD for synchronization information. The processing unit 320 may filter the TS with PID=PID_A for audio information.

단계(1204)에서, 처리부(320)는 복호화기를 통해 기준 영상을 복호화할 수 있다.In step 1204, the processor 320 may decode the reference image through a decoder.

단계(1206)에서, 처리부(320)는 복호화된 기준 영상 및 복호화된 부가 영상을 3D 영상 생성기를 이용하여 3D 영상을 생성할 수 있다.In step 1206, the processor 320 may generate a 3D image using a 3D image generator from the decoded reference image and the decoded additional image.

앞서 도 1 내지 도 11을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 11 may be applied as they are, a more detailed description will be omitted below.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

100: 방송 서버
110: 방송 수신기
210: 통신부
220: 처리부
230: 저장부
100: broadcast server
110: broadcast receiver
210: communication department
220: processing unit
230: storage unit

Claims (20)

3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부; 및
상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부
를 포함하고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되고,
상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
A communication unit for receiving a stream of an additional video of a 3D broadcast in non-real time and receiving a stream of a reference video of the 3D broadcast in real time; And
A processing unit that generates a 3D image of the 3D broadcast by using the stream of the reference video and the stream of the additional video
Including,
Whether the supplementary video can be output independently from the reference video is indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video,
The broadcast receiver, wherein the additional video may be output independently from the reference video.
제1항에 있어서,
상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신하는, 방송 수신기.
The method of claim 1,
The communication unit receives the stream of the additional video before the stream of the reference video is received.
제1항에 있어서,
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
The method of claim 1,
The broadcast receiver capable of outputting the additional video independently from the reference video by assigning different terrestrial channels to the stream of the additional video and the stream of the reference video.
삭제delete 제1항에 있어서,
상기 부가 영상의 스트림을 저장하는 저장부
를 더 포함하는, 방송 수신기.
The method of claim 1,
A storage unit that stores the stream of the additional video
Further comprising a broadcast receiver.
제1항에 있어서,
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 수신기.
The method of claim 1,
The broadcast receiver, wherein the stream of the reference video includes metadata for generating the 3D video.
제6항에 있어서,
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함하는, 방송 수신기.
The method of claim 6,
The metadata includes synchronization information for synchronizing the reference video and the additional video.
제1항에 있어서,
상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고,
상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청하는, 방송 수신기.
The method of claim 1,
The processing unit obtains information on content provided in non-real time by parsing the stream of the real-time broadcast,
The communication unit, the broadcast receiver for requesting the stream of the additional video based on the information.
제8항에 있어서,
상기 정보는 실시간 방송의 스트림에 포함되는, 방송 수신기.
The method of claim 8,
The information is included in a stream of real-time broadcasting.
3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신기로 전송하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 상기 수신기로 전송하는 통신부; 및
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부
를 포함하고,
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 서버.
A communication unit that transmits a stream of an additional video of a 3D broadcast to a receiver in non-real time and transmits a stream of a reference video of the 3D broadcast to the receiver in real time; And
A processing unit that allocates different terrestrial channels to the stream of the additional video and the stream of the reference video
Including,
Different terrestrial channels are allocated to the stream of the additional video and the stream of the reference video, so that the additional video can be output independently from the reference video in the receiver,
Whether or not the additional video can be output independently from the reference video is displayed in a capability descriptor (capabilities_descriptor) included in the stream of the additional video.
제10항에 있어서,
상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송하는, 방송 서버.
The method of claim 10,
The communication unit transmitting the stream of the additional video before the stream of the reference video is transmitted.
삭제delete 제10항에 있어서,
상기 기준 영상의 스트림은 상기 3D 방송의 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 서버.
The method of claim 10,
The broadcast server, wherein the stream of the reference video includes metadata for generating a 3D video of the 3D broadcast.
제13항에 있어서,
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함하는, 방송 서버.
The method of claim 13,
The metadata includes information for synchronizing the reference video and the additional video.
제10항에 있어서,
상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 실시간 방송의 스트림을 이용하여 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신하는, 방송 서버.
The method of claim 10,
The communication unit transmits information on the content provided in non-real time to the receiver using the stream of the real-time broadcast, and receives a request for the stream of the additional video based on the information from the receiver.
제15항에 있어서,
상기 정보는 실시간 방송의 스트림에 포함되는, 방송 서버.
The method of claim 15,
The information is included in a stream of real-time broadcasting.
제10항에 있어서,
상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
The method of claim 10,
The processing unit uses a program map table (PMT) for the additional video stream and the reference video stream to allocate different terrestrial channels to the additional video stream and the reference video stream. And signaling, broadcast server.
제10항에 있어서,
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고,
상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널인, 방송 서버.
The method of claim 10,
The processing unit allocates two terrestrial channels to the stream of the reference video,
The two terrestrial channels are respectively a terrestrial channel using the reference image for 2D broadcasting and a channel using the reference image for 3D broadcasting.
제18항에 있어서,
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
The method of claim 18,
The processing unit signals the stream of the reference video using a Program Map Table (PMT) corresponding to each of the two terrestrial channels to allocate two terrestrial channels to the stream of the reference video. server.
3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하는 단계;
상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계; 및
상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계
를 포함하고,
상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 수신 방법.
Receiving a stream of additional video of a three-dimensional (D) broadcast in non-real time;
Receiving a stream of the reference video of the 3D broadcast in real time; And
Generating a 3D video of the 3D broadcast using the stream of the base video and the stream of the additional video
Including,
The additional video may be output independently from the reference video,
Whether the additional video can be output independently from the reference video is indicated in a capability descriptor included in the stream of the additional video (capabilities_descriptor).
KR1020140110935A 2014-05-20 2014-08-25 Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service KR102204830B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/470,202 US9838756B2 (en) 2014-05-20 2014-08-27 Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140060453 2014-05-20
KR20140060453 2014-05-20

Publications (2)

Publication Number Publication Date
KR20150133620A KR20150133620A (en) 2015-11-30
KR102204830B1 true KR102204830B1 (en) 2021-01-19

Family

ID=54868053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140110935A KR102204830B1 (en) 2014-05-20 2014-08-25 Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service

Country Status (1)

Country Link
KR (1) KR102204830B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110157309A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content
US20110254920A1 (en) * 2008-11-04 2011-10-20 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
KR101372376B1 (en) 2009-07-07 2014-03-14 경희대학교 산학협력단 Method for receiving stereoscopic video in digital broadcasting system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101869103B1 (en) * 2011-01-26 2018-06-19 한국전자통신연구원 Methods of Synchronizing reference image with additional-image of real-time broadcasting program And transceiver system performing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110254920A1 (en) * 2008-11-04 2011-10-20 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
KR101372376B1 (en) 2009-07-07 2014-03-14 경희대학교 산학협력단 Method for receiving stereoscopic video in digital broadcasting system
US20110157309A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EN 300 468 v 1.3.1, "DVB specification for SI in VB systems, (1998-02)*

Also Published As

Publication number Publication date
KR20150133620A (en) 2015-11-30

Similar Documents

Publication Publication Date Title
US9554198B2 (en) Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same
US9578302B2 (en) Broadcast transmitter, broadcast receiver and 3D video data processing method thereof
US9036700B2 (en) Simulcast of stereoviews for 3D TV
US20120320168A1 (en) Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services
EP2744214A2 (en) Transmitting device, receiving device, and transceiving method thereof
KR101653319B1 (en) Method and apparatus for transceiving image component for 3d image
KR20120026026A (en) Broadcast receiver and 3d video data processing method thereof
US9516086B2 (en) Transmitting device, receiving device, and transceiving method thereof
KR20120013974A (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
KR20120095865A (en) Broadcast receiver and 3d video data processing method thereof
CN102388620A (en) Broadcast receiver and 3d video data processing method
US20140157342A1 (en) Reception device, transmission device, reception method, and transmission method
US20150281668A1 (en) Broadcast receiver and 3d video data processing method thereof
US20140049606A1 (en) Image data transmission device, image data transmission method, image data reception device, and image data reception method
KR20140000136A (en) Image data transmitter, image data transmission method, image data receiver, and image data reception method
US9866814B2 (en) Method of synchronizing reference image with additional image of real-time broadcasting program, and transceiver system for performing same
KR102204830B1 (en) Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service
US9838756B2 (en) Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service
US20150163513A1 (en) Method and apparatus for transmitting and receiving high-definition contents
US20130250059A1 (en) Method and apparatus for transmitting stereoscopic video information
Kwon et al. Program associated 3D non-real-time service on terrestrial DTV
KR20150006340A (en) Method and apparatus for providing three-dimensional video
KR20120060771A (en) Mehtod and apparatus for transmitting stereoscopic image information
KR20120036255A (en) Method for transmitting information relating 3d video service in digital broadcast

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant