KR102204830B1 - Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service - Google Patents
Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service Download PDFInfo
- Publication number
- KR102204830B1 KR102204830B1 KR1020140110935A KR20140110935A KR102204830B1 KR 102204830 B1 KR102204830 B1 KR 102204830B1 KR 1020140110935 A KR1020140110935 A KR 1020140110935A KR 20140110935 A KR20140110935 A KR 20140110935A KR 102204830 B1 KR102204830 B1 KR 102204830B1
- Authority
- KR
- South Korea
- Prior art keywords
- stream
- video
- broadcast
- additional
- additional video
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004891 communication Methods 0.000 claims abstract description 41
- 230000011664 signaling Effects 0.000 claims description 10
- 108091006146 Channels Proteins 0.000 description 61
- 238000001824 photoionisation detection Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H40/00—Arrangements specially adapted for receiving broadcast information
- H04H40/18—Arrangements characterised by circuits or components specially adapted for receiving
- H04H40/27—Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
- H04H40/36—Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
방송 수신기에서 부가 영상을 기준 영상과 독립적으로 출력하기 위한 방법 및 장치가 제공된다. 부가 영상을 독립적으로 출력하기 위해 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함할 수 있다.A method and an apparatus for outputting an additional video independently from a reference video in a broadcast receiver are provided. In order to independently output the additional video, the broadcast receiver receives a stream of the additional video of a three-dimensional (D) broadcast in non-real time, and a communication unit that receives the stream of the reference video of the 3D broadcast in real time, and the reference video It may include a processing unit that generates a 3D image of the 3D broadcast using the stream of and the additional video stream.
Description
기술 분야는 3차원 방송을 제공하는 기술에 관한 것으로, 특히, 비-실시간 서비스에 기반하여 3차원 방송을 제공하는 장치 및 방법에 관한 것이다.
The technical field relates to a technology for providing 3D broadcasting, and more particularly, to an apparatus and method for providing 3D broadcasting based on a non-real-time service.
사람은 양안 시차(binocular parallax)를 통하여 사물이 가깝거나 먼 것을 느낄 수 있다. 3차원 영상은 시각에 의한 입체감을 인식하는 원리에 의하여 시청자의 양안에 입체 효과를 제공한다.Humans can feel that things are near or far through binocular parallax. The three-dimensional image provides a three-dimensional effect to both eyes of the viewer based on the principle of recognizing a three-dimensional effect by sight.
3차원 영상은 복수의 2차원 영상들을 이용하여 제공될 수 있다. 예를 들어, 시청자의 좌안에 해당하는 2차원 영상 및 우안에 해당하는 2차원 영상을 이용하여 3차원 영상이 생성될 수 있다.The 3D image may be provided using a plurality of 2D images. For example, a 3D image may be generated using a 2D image corresponding to the viewer's left eye and a 2D image corresponding to the right eye.
기존의 방송 환경은 2차원 영상을 전송하기에 적합할 수 있다. 기존의 방송 환경에서의 2차원 영상은 3차원 영상의 기준 영상일 수 있다. 부가 영상이 기준 영상과 함께 제공된다면 3차원 영상이 시청자에게 제공될 수 있다.
The existing broadcasting environment may be suitable for transmitting 2D images. A 2D image in an existing broadcasting environment may be a reference image of a 3D image. If the additional video is provided together with the reference video, the 3D video may be provided to the viewer.
일 실시예는 비-실시간 서비스에 기반하여 3차원 영상을 전송하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for transmitting a 3D image based on a non-real-time service.
일 실시예는 3차원 영상을 수신하는 장치 및 방법을 제공할 수 있다.
An embodiment may provide an apparatus and method for receiving a 3D image.
일 측면에 따른, 방송 수신기는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 통신부 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.According to an aspect, a broadcast receiver receives a stream of an additional video of a three-dimensional (D) broadcast in non-real time and receives a stream of a reference video of the 3D broadcast in real time, and a stream of the reference video and And a processing unit that generates a 3D image of the 3D broadcasting by using the stream of the additional image, and the additional image may be output independently from the reference image.
상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신할 수 있다.The communication unit may receive the stream of the additional video before the stream of the reference video is received.
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있다.Different terrestrial channels are allocated to the stream of the additional video and the stream of the reference video, so that the additional video may be output independently from the reference video.
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.Whether the supplementary video can be output independently from the reference video may be indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video.
상기 방송 수신기는 상기 부가 영상의 스트림을 저장하는 저장부를 더 포함할 수 있다.The broadcast receiver may further include a storage unit for storing the stream of the additional video.
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.The stream of the reference image may include metadata for generating the 3D image.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함할 수 있다.The metadata may include synchronization information for synchronizing the reference video and the additional video.
상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고, 상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청할 수 있다.The processing unit may obtain information on content provided in non-real time by parsing the stream of the real-time broadcast, and the communication unit may request a stream of the additional video based on the information.
상기 정보는 실시간 방송의 스트림에 포함될 수 있다.The information may be included in a stream of real-time broadcasting.
다른 일 측면에 따른, 방송 서버는 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신기로 전송하고, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 상기 수신기로 전송하는 통신부 및 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부를 포함하고, 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있다.According to another aspect, a broadcast server transmits a stream of an additional video of a three-dimensional (D) broadcast to a receiver in non-real time, and a communication unit that transmits a stream of the reference video of the 3D broadcast to the receiver in real time, and And a processor for allocating different terrestrial channels to the stream of the additional video and the stream of the reference video, and different terrestrial channels are assigned to the stream of the additional video and the stream of the reference video, so that the additional video is The receiver may output independently of the reference image.
상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송할 수 있다.The communication unit may transmit the additional video stream before the base video stream is transmitted.
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시될 수 있다.Whether the supplementary video can be output independently from the reference video may be indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video.
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.The stream of the reference image may include metadata for generating the 3D image.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함할 수 있다.The metadata may include information for synchronizing the reference video and the additional video.
상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신할 수 있다.The communication unit may transmit information on the content provided in non-real time to the receiver, and may receive a request for the stream of the additional video based on the information from the receiver.
상기 정보는 실시간 방송의 스트림에 포함될 수 있다.The information may be included in a stream of real-time broadcasting.
상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The processing unit uses a program map table (PMT) for the additional video stream and the reference video stream to allocate different terrestrial channels to the additional video stream and the reference video stream. Can be signaled.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고, 상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널일 수 있다.The processing unit allocates two terrestrial channels to the stream of the reference image, and the two terrestrial channels may be a terrestrial channel using the reference image for 2D broadcasting and a channel using the reference image for 3D broadcasting.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The processing unit may signal the stream of the reference video using a Program Map Table (PMT) corresponding to each of the two terrestrial channels in order to allocate two terrestrial channels to the stream of the reference video. .
또 다른 일 측면에 따른, 방송 수신 방법은 3차원(dimension; D) 방송의 부가 영상의 스트림을 비-실시간으로 수신하는 단계, 상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계 및 상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계를 포함하고, 상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있다.
According to another aspect, a broadcast reception method includes receiving a stream of an additional video of a three-dimensional (D) broadcast in non-real time, receiving a stream of a reference video of the 3D broadcast in real time, and the reference And generating a 3D video of the 3D broadcast by using the video stream and the additional video stream, and the additional video may be output independently from the reference video.
일 실시예 따른 방송 수신기 및 방송 수신 방법은 비-실시간으로 부가 영상을 수신하고, 실시간으로 기준 영상을 수신하고, 부가 영상을 독립적으로 시청자에게 제공할 수 있다.
The broadcast receiver and broadcast reception method according to an embodiment may receive an additional video in non-real time, receive a reference video in real time, and independently provide the additional video to a viewer.
도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.
도 2는 일 실시예에 따른 방송 서버의 구성도이다.
도 3은 일 실시예에 따른 방송 수신기의 구성도이다.
도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.
도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.
도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.
도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.
도 8은 일 예에 따른 방송 서버의 구성도이다.
도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.1 illustrates a broadcast system providing a 3D image according to an example.
2 is a block diagram of a broadcast server according to an embodiment.
3 is a block diagram of a broadcast receiver according to an embodiment.
4 is a signal flow diagram of a broadcast providing method according to an exemplary embodiment.
5 is a flowchart of a method of generating an additional video stream according to an example.
6 is a flowchart of a method of generating a stream of a reference video according to an example.
7 illustrates a method of allocating different terrestrial channels to a stream of a reference video and a stream of an additional video according to an example.
8 is a configuration diagram of a broadcast server according to an example.
9 to 12 are flowcharts of a method for generating a 3D image by a broadcast receiver.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various changes may be made to the embodiments described below. The embodiments described below are not intended to be limited to the embodiments, and should be understood to include all changes, equivalents, and substitutes thereto.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to describe specific embodiments, and are not intended to limit the embodiments. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.
도 1은 일 예에 따른 3차원 영상을 제공하는 방송 시스템을 도시한다.1 illustrates a broadcast system providing a 3D image according to an example.
3차원(dimension; D) 방송 프로그램(이하에서, 3D 방송 프로그램은 3D 방송으로 약술된다)은 3D 영상, 오디오 및 보조 데이터를 포함할 수 있다. 3D 영상은 좌영상 및 우영상을 포함할 수 있다.A 3D (dimension) broadcast program (hereinafter, a 3D broadcast program will be abbreviated as 3D broadcast) may include 3D video, audio, and auxiliary data. The 3D image may include a left image and a right image.
3D 영상은 기준 영상(base view video) 및 부가 영상(additional view video)에 기반하여 제공될 수 있다. 기준 영상은 기존의 2D 영상일 수 있다. 부가 영상은 3D 영상을 제공하기 위해 기준 영상에 부가되는 영상일 수 있다. 부가 영상의 시점은 기준 영상의 시점과 상이할 수 있다.The 3D image may be provided based on a base view video and an additional view video. The reference image may be an existing 2D image. The additional video may be an video added to the base video to provide a 3D video. The viewpoint of the additional video may be different from the viewpoint of the reference video.
예를 들어, 기준 영상은 좌영상일 수 있고, 부가 영상은 우영상일 수 있다. 좌영상은 시청자의 좌측 눈을 위한 영상일 수 있다. 우영상은 시청자의 우측 눈을 위한 영상일 수 있다.For example, the reference image may be a left image, and the additional image may be a right image. The left image may be an image for the viewer's left eye. The right image may be an image for the viewer's right eye.
3D 영상이 복수 개의 압축된 영상들로 구성되는 경우, 복수 개의 영상들 중 적어도 하나가 제작 해상도와 동일한 해상도를 갖는 기존의 2D 영상인 방송 서비스일 수 있다. 복수 개의 영상들은 기준 영상 및 부가 영상을 포함할 수 있다.When a 3D image is composed of a plurality of compressed images, at least one of the plurality of images may be a broadcast service, which is an existing 2D image having a resolution equal to the production resolution. The plurality of images may include a base image and an additional image.
방송 서버(100)는 기준 영상 및 부가 영상을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 방송 서버(100)는 기준 영상 및 부가 영상을 전송 스트림(Transport Stream; TS)(이하에서, TS는 스트림으로 약술된다)으로 변환하여 방송 수신기(110)로 전송할 수 있다. The
일 측면에 따르면, 방송 서버(100)는 부가 영상을 비-실시간(Non-Real-Time)으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC NRT(Advanced Television System Committee Non Real Time) 서비스를 이용하여 부가 영상을 비-실시간으로 전송할 수 있다.According to an aspect, the
방송 서버(100)는 기준 영상을 실시간으로 전송할 수 있다. 예를 들어, 방송 서버(100)는 ATSC 지상파 서비스를 이용하여 기준 영상을 실시간으로 전송할 수 있다.The
보조 데이터는 3D 방송의 자막 정보를 포함할 수 있다. 보조 데이터는 채널 시그널링(signaling) 섹션 데이터를 더 포함할 수 있다. 보조 데이터는 기준 영상과 다중화 되어 기준 영상의 스트림에 포함될 수 있다.The auxiliary data may include caption information of 3D broadcasting. The auxiliary data may further include channel signaling section data. The auxiliary data may be multiplexed with the reference video and included in the stream of the reference video.
일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 3D 영상을 생성하는데 이용될 수 있다.According to an aspect, the additional video transmitted to the
다른 일 측면에 따르면, 방송 수신기(110)에 전송된 부가 영상은 기준 영상과는 독립적으로 방송 수신기(110)에서 출력될 수 있다. 예를 들어, 방송 서버(100)가 부가 영상에 채널을 할당함으로써 부가 영상이 기준 영상과는 독립적인 영상으로써 방송 수신기(110)에서 출력될 수 있다.According to another aspect, the additional video transmitted to the
부가 영상을 독립적으로 출력하는 방법에 대해 하기에서, 도 2 내지 도 12를 참조하여 상세히 설명된다.
A method of independently outputting an additional video will be described in detail below with reference to FIGS. 2 to 12.
도 2는 일 실시예에 따른 방송 서버의 구성도이다.2 is a block diagram of a broadcast server according to an embodiment.
방송 서버(100)는 통신부(210), 처리부(220) 및 저장부(230)를 포함할 수 있다.The
통신부(210)는 다른 서버 및 단말 등과 연결될 수 있다.The
처리부(220)는 통신부(210)가 수신한 정보 및 저장부(230)에 저장된 정보를 처리할 수 있다.The
저장부(230)는 통신부(210)가 수신한 정보 및 처리부(220)가 처리한 정보를 저장할 수 있다.The
통신부(210), 처리부(220) 및 저장부(230)에 대해, 하기에서 도 4 내지 도 8을 참조하여 상세히 설명된다.The
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIG. 1 may be applied as they are, a more detailed description will be omitted below.
도 3은 일 실시예에 따른 방송 수신기의 구성도이다.3 is a block diagram of a broadcast receiver according to an embodiment.
방송 수신기(110)는 통신부(310), 처리부(320) 및 저장부(330)를 포함할 수 있다.The
통신부(310)는 서버 및 단말 등과 연결될 수 있다.The
처리부(320)는 통신부(310)가 수신한 정보 및 저장부(330)에 저장된 정보를 처리할 수 있다.The
저장부(330)는 통신부(310)가 수신한 정보 및 처리부(320)가 처리한 정보를 저장할 수 있다.The
통신부(310), 처리부(320) 및 저장부(330)에 대해, 하기에서 도 4 내지 도 12를 참조하여 상세히 설명된다.The
앞서 도 1을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIG. 1 may be applied as they are, a more detailed description will be omitted below.
도 4는 일 실시예에 따른 방송 제공 방법의 신호 흐름도이다.4 is a signal flow diagram of a broadcast providing method according to an exemplary embodiment.
단계(405)에서, 처리부(220)는 실시간 방송 또는 라이브 방송의 스트림을 생성할 수 있다. 실시간 방송은 방송 서버(100)를 운영하는 방송국의 방송 스케쥴에 의한 방송일 수 있다.In
실시간 방송의 스트림은 NRT 서비스에 대한 정보를 포함할 수 있다. 특정 방송이 3D 방송인지 여부는 NRT 서비스에 대한 정보에 표시될 수 있다. 특정 방송은 실시간으로 방송 수신기(110)로 전송될 방송일 수 있다. 예를 들어, NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)일 수 있다.The stream of real-time broadcasting may include information on NRT service. Whether a specific broadcast is a 3D broadcast may be indicated in the information on the NRT service. The specific broadcast may be a broadcast to be transmitted to the
단계(410)에서, 통신부(210)는 실시간 방송의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 실시간 방송의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.In step 410, the
통신부(310)는 실시간 방송의 스트림을 방송 서버(100)로부터 수신할 수 있다.The
단계(415)에서, 처리부(320)는 실시간 방송의 스트림을 파싱할 수 있다.In
실시간 방송의 스트림은 비-실시간으로 제공되는 콘텐츠에 대한 정보를 포함할 수 있다.The stream of real-time broadcasting may include information on content provided in non-real time.
처리부(320)는 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득할 수 있다. 예를 들어, 처리부(320)는 실시간 방송의 스트림을 파싱함으로써 NRT 서비스에 대한 정보를 방송 수신기(110)의 사용자 또는 시청자에게 제공할 수 있다.The
단계(420)에서, 통신부(310)는 사용자로부터 특정 방송의 부가 영상의 요청을 수신할 수 있다. 예를 들어, 특정 방송은 3D 방송일 수 있다.In step 420, the
단계(425)에서, 통신부(310)는 비-실시간으로 제공되는 콘텐츠에 대한 정보에 기반하여 부가 영상의 스트림의 요청을 방송 서버(100)로 전송할 수 있다. 예를 들어, 부가 영상의 요청은 ATSC NRT 서비스를 통해 전송될 수 있다.In step 425, the
통신부(210)는 부가 영상의 요청을 방송 수신기(110)로부터 수신할 수 있다.The
단계(430)에서, 처리부(220)는 부가 영상의 스트림을 생성할 수 있다.In
도 4에서, 단계(430)는 단계(425)가 수행된 후 수행되는 것으로 도시되었으나, 단계(430)는 단계(425)가 수행되기 전에도 수행될 수 있다. 즉, 처리부(220)는 미리 부가 영상의 스트림을 생성할 수 있다. 저장부(230)는 생성된 부가 영상의 스트림을 저장할 수 있다.In FIG. 4,
부가 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 5를 참조하여 상세히 설명된다.A method of generating an additional video stream will be described in detail below with reference to FIG. 5.
단계(435)에서, 통신부(210)는 부가 영상의 스트림을 방송 수신기(110)로 전송할 수 있다. 예를 들어, 통신부(210)는 부가 영상의 스트림을 비-실시간으로 방송 수신기(110)로 전송할 수 있다.In step 435, the
통신부(310)는 부가 영상의 스트림을 방송 서버(100)로부터 비-실시간으로 수신할 수 있다.The
통신부(310)는 기준 영상의 스트림이 수신되기 전에 부가 영상의 스트림을 수신할 수 있다.The
처리부(320)는 부가 영상의 스트림을 저장부(330)에 저장할 수 있다.The
단계(445)에서, 처리부(220)는 특정 방송의 기준 영상의 스트림을 생성할 수 있다.In
단계(445)는 방송국 스케쥴링에 따른 특정 방송에 대해 수행될 수 있다.Step 445 may be performed for a specific broadcast according to broadcasting station scheduling.
기준 영상의 스트림을 생성하는 방법에 대해, 하기에서 도 6을 참조하여 상세히 설명된다.A method of generating a stream of a reference video will be described in detail below with reference to FIG. 6.
단계(450)에서, 통신부(210)는 기준 영상의 스트림을 실시간으로 방송 수신기(110)로 전송할 수 있다. 예를 들어, 기준 영상의 스트림은 ATSC 지상파 서비스를 통해 전송될 수 있다.In step 450, the
통신부(310)는 기준 영상의 스트림을 실시간으로 방송 서버(100)로부터 수신할 수 있다.The
단계(455)에서, 처리부(320)는 부가 영상의 스트림 및 기준 영상의 스트림을 이용하여 3D 영상을 생성할 수 있다.In
단계(460)에서, 처리부(320)는 3D 영상을 사용자에게 출력할 수 있다.In
단계(465)에서, 처리부(320)는 부가 영상을 사용자에게 출력할 수 있다. 부가 영상은 기준 영상과 독립적으로 출력될 수 있다. 다시 말하자면, 부가 영상은 기준 영상이 수신 되지 않는 경우에도 기준 영상과 무관하게 출력될 수 있다.In
예를 들어, 부가 영상이 3D 영상의 우영상인 경우, 처리부(320)는 우영상만을 사용자에게 출력할 수 있다.For example, when the additional video is a right video of a 3D video, the
앞서 도 1 내지 도 3을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 3 may be applied as they are, a more detailed description will be omitted below.
도 5는 일 예에 따른 부가 영상의 스트림을 생성하는 방법의 흐름도이다.5 is a flowchart of a method of generating an additional video stream according to an example.
전술된 단계(430)는 하기의 단계들(510 내지 530)을 포함할 수 있다.The above-described
단계(510)에서, 통신부(210)는 부가 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 부가 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 부가 영상을 제공하는 다른 서버로부터 부가 영상을 수신할 수 있다.In
단계(520)에서, 처리부(220)는 부가 영상을 부호화(encoding)할 수 있다. 부가 영상의 부호화는 부가 영상의 압축일 수 있다.In
예를 들어, 처리부(220)는 부가 영상을 부호화함으로써 MPEG(Moving Picture Experts Group)-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.For example, the
부호화된 부가 영상의 부호화 형식은 하기의 [표 1]의 형식들 중 하나일 수 있다.The encoding format of the encoded additional video may be one of the formats shown in Table 1 below.
[표 1]의 화면 재생률에서 P는 순차 주사, I는 격행 주사를 의미한다.In the screen refresh rate of [Table 1], P denotes sequential scanning and I denotes alternate scanning.
부가 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The stream type of the additional video may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)" standard.
이하에서 설명되는 부호화 및 복호화 방식은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The encoding and decoding scheme described below may comply with the standard "Terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)".
단계(530)에서, 처리부(220)는 부가 영상의 스트림을 채널 다중화(channel multiplexing)할 수 있다. 예를 들어, 처리부(220)는 부가 영상의 스트림을 시그널링함으로써 부가 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 부가 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.In
프로그램 지정 정보(Program Specific Information; PSI)에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)을 준수할 수 있다.Matters on Program Specific Information (PSI) can comply with "Terrain Digital TV Broadcasting Transmission/Receiving Matching (TTAK.KO-07.0014/R3).
부가 영상의 스트림의 시그널링에 대한 사항은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준을 준수할 수 있다.Matters on signaling of the additional video stream may comply with the "ATSC Non-Real-Time Content Delivery (A/103:2012)" standard.
NRT 서비스를 위한 부가 영상의 스트림의 시그널링은 SSC(Service Signaling Channel)을 통해 수행될 수 있다. SSC로 전달되는 정보 중 SMT(Service Map Table)는 NRT 서비스에 대한 정보를 제공할 수 있다. SSC로 전달되는 정보 중 NRT-IT(Information Table)는 NRT 서비스를 구성하는 콘텐츠 아이템에 대한 정보를 제공할 수 있다. SMT 및 NRT-IT는 SSC(Service Signaling channel(Doc.A/103:2012)) 표준을 준수할 수 있다.Signaling of the stream of the additional video for the NRT service may be performed through a Service Signaling Channel (SSC). Among the information transmitted to the SSC, the Service Map Table (SMT) may provide information on the NRT service. Among the information delivered to the SSC, the NRT-IT (Information Table) may provide information on content items constituting the NRT service. SMT and NRT-IT may comply with the SSC (Service Signaling Channel (Doc.A/103:2012)) standard.
부가 영상은 3D 방송을 위해 사용될 수 있는 영상 또는 별도의 2D 방송으로 재생될 수 있는 영상일 수 있다.The additional video may be a video that can be used for 3D broadcasting or a video that can be reproduced by a separate 2D broadcasting.
예를 들어, 처리부(220)가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당함으로써 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있다.For example, the
처리부(220)는 부가 영상의 스트림 및 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 부가 영상의 스트림 및 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링할 수 있다.The
PMT를 이용하여 시그널링하는 방법에 대해, 하기에서 도 7을 참조하여 상세히 설명된다.A method of signaling using the PMT will be described in detail below with reference to FIG. 7.
부가 영상이 3D 방송을 위해 사용될 수 있는 영상인지 또는 2D 방송으로 재생될 수 있는 영상인지를 구분하기 위해 가능성 서술자(capabilities_descriptor)가 사용될 수 있다. 다시 말하자면, 부가 영상이 기준 영상과 독립적으로 출력될 수 있는지 여부는 부가 영상의 스트림 내에 포함되는 capabilities_descriptor에 표시될 수 있다.A possibility descriptor (capabilities_descriptor) may be used to distinguish whether the additional video is a video that can be used for 3D broadcasting or a video that can be reproduced by 2D broadcasting. In other words, whether or not the additional video can be output independently from the base video may be indicated in capabilities_descriptor included in the stream of the additional video.
capabilities_descriptor는 ATSC의 "Non-Real-Time Content Delivery(Doc. A/103:2012)" 표준을 준수할 수 있다.capabilities_descriptor may comply with ATSC's "Non-Real-Time Content Delivery (Doc. A/103:2012)" standard.
capabilities_descriptor 내의 capability_codes는 하기의 [표 2]와 같이 확장될 수 있다.Capability_codes in capabilities_descriptor can be extended as shown in [Table 2] below.
부가 영상을 독립적인 2D 영상으로 이용하기 위한 방법이 하기에서 도 7을 참조하여 상세히 설명된다.A method for using the additional video as an independent 2D video will be described in detail below with reference to FIG. 7.
앞서 도 1 내지 도 4를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 4 may be applied as they are, a more detailed description will be omitted below.
도 6은 일 예에 따른 기준 영상의 스트림을 생성하는 방법의 흐름도이다.6 is a flowchart of a method of generating a stream of a reference video according to an example.
전술된 단계(445)는 하기의 단계들(610 내지 640)을 포함할 수 있다.The above-described
단계(610)에서, 통신부(210)는 기준 영상을 수신할 수 있다. 예를 들어, 통신부(210)는 저장부(230)로부터 기준 영상을 수신할 수 있다. 다른 예로, 통신부(210)는 기준 영상을 제공하는 다른 서버로부터 기준 영상을 수신할 수 있다.In
단계(620)에서, 처리부(220)는 기준 영상을 부호화할 수 있다. 기준 영상의 부호화는 기준 영상의 압축일 수 있다. 기준 영상의 부호화는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.In
부호화된 기준 영상의 부호화 형식은 하기의 [표 3]의 형식들 중 하나일 수 있다.The encoding format of the encoded reference image may be one of the formats shown in Table 3 below.
처리부(220)는 기준 영상을 부호화할 때, 보조 데이터(ancillary data)를 이용하여 기준 영상을 부호화할 수 있다. 예를 들어, 보조 데이터는 자막 방송(Closed captioning) 데이터 일 수 있다.When encoding the reference image, the
부호화된 기준 영상의 형식은 기초 스트림(Elementary Stream; ES)일 수 있다.The format of the encoded reference image may be an elementary stream (ES).
단계(630)에서, 처리부(220)는 부호화된 기준 영상을 프로그램 다중화(program multiplexing)할 수 있다.In
처리부(220)는 부호화된 기준 영상, 부호화된 오디오 신호 및 부가 영상을 위한 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다.The
일 측면에 따르면, 프로그램 다중화가 수행되어 생성된 기준 영상의 스트림은 3D 영상을 생성하기 위한 메타데이터를 포함할 수 있다.According to an aspect, a stream of a reference image generated by performing program multiplexing may include metadata for generating a 3D image.
메타데이터는 PSI(Program Specific Information)를 포함할 수 있다.The metadata may include Program Specific Information (PSI).
PSI는 채널 내의 프로그램 정보 목록을 유지하는 PAT(Program Association Table), 스크램블링(scrambling)과 같은 접근 제어 정보를 포함하는 CAT(Conditional Access Table), 프로그램 내의 영상 스트림 및 오디오 스트림에 대한 정보를 포함하는 PMT 및 MPEG 정보를 전송하기 위해 사용되는 네트워크에 대한 정보를 포함하는 NIT(Network Information Table) 중 적어도 하나를 포함할 수 있다.PSI is a PAT (Program Association Table) that maintains a list of program information in a channel, a CAT (Conditional Access Table) that includes access control information such as scrambling, and a PMT that includes information about video and audio streams in the program. And at least one of a Network Information Table (NIT) including information on a network used to transmit MPEG information.
PMT는 program_number 및 스트림에 존재하는 각 프로그램에 대한 정보를 제공할 수 있다. PMT는 MPEG-2 프로그램을 구성하는 기초 스트림을 나열할 수 있다. PMT는 각 기초 스트림을 위한 선택적 서술자뿐만 아니라 완전한 MPEG-2 스트림을 서술하는 선택적 서술자를 위한 위치 정보도 제공할 수 있다. 각 기초 스트림은 stream_type 값으로 식별될 수 있다.The PMT may provide program_number and information on each program existing in the stream. The PMT can list elementary streams constituting the MPEG-2 program. The PMT may provide not only an optional descriptor for each elementary stream, but also position information for an optional descriptor describing a complete MPEG-2 stream. Each elementary stream can be identified by a stream_type value.
일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 프로그램 다중화를 수행할 수 있다.According to an aspect, the
기준 영상을 이용하여 제공할 수 있는 방송은 2D 방송 또는 3D 방송일 수 있다. 처리부(220)는 각각의 PMT를 통해 방송이 2D 방송인지 또는 3D 방송인지를 나타낼 수 있다.Broadcasts that can be provided using the reference image may be 2D broadcasting or 3D broadcasting. The
예를 들어, 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당할 수 있다. 두 개의 지상파 채널들은 각각 기준 영상을 2D 방송에 이용하는 지상파 채널 및 기준 영상을 3D 방송에 이용하는 채널일 수 있다. 처리부(220)는 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 기준 영상의 스트림을 두 개의 지상파 채널에 각각 대응하는 PMT를 이용하여 시그널링할 수 있다.For example, the
예를 들어, 처리부(220)는 제1 PMT에는 제공되는 방송이 2D 방송이라는 코드를 부여할 수 있다. 2D 방송 코드는 program_number = 0x001 일 수 있다. 제1 PMT는 기준 영상 및 오디오 신호가 연관될 수 있다.For example, the
처리부(220)는 제2 PMT에는 제공되는 방송이 3D 방송이라는 코드를 부여할 수 있다. 3D 방송 코드는 program_number = 0x002 일 수 있다. 제2 PMT는 기준 영상, 오디오 신호, 부가 영상의 전달을 위한 NRT 서비스에 대한 정보 및 부가 영상을 위한 메타데이터와 연관될 수 있다.The
일 측면에 따르면, 처리부(220)는 기준 영상을 프로그램 다중화함으로써 MPEG-2 스트림을 생성할 수 있다. MPEG-2 스트림은 "Information technology - Generic coding of moving pictures and associated audio information: System (ISO/IEC 13818-1:2013)" 표준을 준수할 수 있다.According to an aspect, the
메타데이터는 기준 영상 및 부가 영을 동기화 하기 위한 동기화 정보를 포함할 수 있다.The metadata may include synchronization information for synchronizing the base video and the additional video.
동기화 정보는 media_pairing_information()에 기술될 수 있다. 동기화 정보는 "지상파 3DTV 방송 송수신 정합-제3부: 하이브리드(TTAK.KO-07.0122)" 표준을 준수할 수 있다.Synchronization information may be described in media_pairing_information(). The synchronization information may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 3: Hybrid (TTAK.KO-07.0122)" standard.
기준 영상의 프로그램 다중화는 "지상파 디지털 TV 방송 송수신 정합(TTAK.KO-07.0014/R3)" 표준 및 "ISO/IEC 13818-1:2013"를 준수할 수 있다.The program multiplexing of the reference video may comply with the “terrestrial digital TV broadcast transmission/reception matching (TTAK.KO-07.0014/R3)” standard and “ISO/IEC 13818-1:2013”.
기준 영상의 스트림 타입은 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 준수할 수 있다.The stream type of the reference video may comply with the “terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)” standard.
메타데이터의 스트림 타입은 "ISO/IEC 13818-1:2013" 에서 정의된 0x06(프라이빗 데이터(private data))일 수 있다.The stream type of metadata may be 0x06 (private data) defined in "ISO/IEC 13818-1:2013".
NRT 서비스에 대한 정보의 스트림 타입은 "ATSC Non-Real-Time Content Delivery(A/103:2012)" 표준에서 정의된 0x0D(DSMCC-Addressable Section)을 이용할 수 있다.The stream type of information on the NRT service may use 0x0D (DSMCC-Addressable Section) defined in the "ATSC Non-Real-Time Content Delivery (A/103:2012)" standard.
PMT는 스테레오스코픽 프로그램 정보 서술자(stereoscopic_program_info_descriptor()) 및 스테레오스코픽 비디오 정보 서술자(stereoscopic_video_info_descriptor())를 포함할 수 있다.The PMT may include a stereoscopic program information descriptor (stereoscopic_program_info_descriptor()) and a stereoscopic video information descriptor (stereoscopic_video_info_descriptor()).
stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()는 "지상파 3DTV 방송 송수신 정합-제1부: 기존채널(TTAK.KO-07.0100/R1)" 표준을 각각 준수할 수 있다.The stereoscopic_program_info_descriptor() and stereoscopic_video_info_descriptor() may comply with the "terrestrial 3DTV broadcast transmission/reception matching-Part 1: Existing Channel (TTAK.KO-07.0100/R1)" standards, respectively.
단계(640)에서, 처리부(220)는 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화는 기준 영상의 스트림에 채널 번호를 할당하는 것일 수 있다.In
예를 들어, 처리부(220)는 기준 영상의 스트림을 시그널링함으로써 기준 영상의 스트림을 채널 다중화할 수 있다.For example, the
PSI에 대한 사항은 "지상파 디지털 TV 방송 송수신 정합 (TTAK.KO-07.0014/R3)"을 준수할 수 있다.Matters on PSI can comply with "Terrain Digital TV Broadcasting Transmission and Reception Matching (TTAK.KO-07.0014/R3)".
일 측면에 따르면, 처리부(220)는 적어도 하나의 PMT를 이용하여 기준 영상의 스트림을 채널 다중화할 수 있다. 채널 다중화에 대해, 하기에도 도 7을 참조하여 상세히 설명된다.According to an aspect, the
앞서 도 1 내지 도 5를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 5 may be applied as they are, a more detailed description will be omitted below.
도 7은 일 예에 따른 기준 영상의 스트림 및 부가 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 방법을 도시한다.7 illustrates a method of allocating different terrestrial channels to a stream of a reference video and a stream of an additional video according to an example.
3D 방송은 기준 영상, 오디오, PSI/PSIP, 프라이빗 데이터 및 부가 영상으로 구성될 수 있다.3D broadcasting may be composed of a reference video, audio, PSI/PSIP, private data, and additional video.
처리부(220)는 기준 영상을 이용하는 방송이 2D 방송인지 또는 3D 방송인지에 따라서 기준 영상의 스트림에 복수의 지상파 채널들을 할당할 수 있다. 예를 들어, 처리부(220)는 제1 PMT를 이용하는 방송에 '채널 1'을 할당할 수 있다. 처리부(220)는 제2 PMT를 이용하는 방송에 '채널 2'를 할당할 수 있다.The
처리부(220)는 부가 영상이 기준 영상과 독립적으로 방송 수신기(110)에서 출력될 수 있도록 부가 영상의 스트림에 기준 영상의 스트림과는 상이한 지상파 채널을 부여할 수 있다. 예를 들어, 부가 영상의 스트림에 제3 PMT가 연관된 경우, 처리부(220)는 제3 PMT를 이용하는 방송에 '채널 3'을 할당할 수 있다.The
채널은 가상 채널(virtual channel)일 수 있다.The channel may be a virtual channel.
처리부(220)는 지상파 가상 채널 테이블(TVCT)을 이용하여 2D 방송에 대해서는 기존에 서비스되던 채널 시그널링을 사용하고, 3D 방송에 대해서는 2D 방송과 상이한 채널 번호를 할당할 수 있다.The
처리부(220)는 TVCT를 이용하여 부가 영상의 스트림에 대해서 다른 채널 번호들과 상이한 채널 번호를 할당할 수 있다.The
처리부(220)는 서비스 위치 서술자(service_location_descriptor)를 이용하여 하이브리드 3DTV 방송을 구성하는 기초 스트림의 PID 값을 시그널링할 수 있다.The
ATSC NRT 서비스 기반의 채널은 service_type 0x09(Extended Parameterized Service)를 이용하여 식별될 수 있다.The ATSC NRT service-based channel may be identified using service_type 0x09 (Extended Parameterized Service).
처리부(220)는 parimeterzied_service_descriptor(PSD)를 이용하여 3D 방송인지 여부 및 어떠한 종류의 3D 방송인지를 시그널링할 수 있다.The
부가 영상의 스트림을 전송하는 채널은 service_type(ATSC NRT Service)를 이용할 수 있다.A channel for transmitting an additional video stream may use service_type (ATSC NRT Service).
PSD는 service_type 0x09인 TVCT에 포함될 수 있다.PSD may be included in TVCT of service_type 0x09.
PSD는 방송 서비스에 대한 상세한 설명을 제공할 수 있다.The PSD may provide detailed descriptions of broadcast services.
처리부(220)는 PSD를 이용하여 해당 방송 서비스가 방송 수신기(110)에서 지원 가능한지 여부를 시그널링할 수 있다.The
PSD에 대해 하기의 [표 4]에서 설명된다.The PSD is described in Table 4 below.
descriptor_tag
descriptor_length
application_tag
application_data()
}parameterized_service_descriptor(){
descriptor_tag
descriptor_length
application_tag
application_data()
}
8
8
8
var
8
8
8
var
uimsbf
uimsbf
bslbf
uimsbf
uimsbf
bslbf
application_tag: 바로 다음에 오는 application_data()가 무엇인지를 나타낼 수 있다. 3D 방송인 경우 application_tag의 값은 0x01일 수 있다.application_tag: Can indicate what application_data() immediately follows. In the case of 3D broadcasting, the value of application_tag may be 0x01.
application_data(): 연동된 application_tag의 값에 따라 구문이 정의될 수 있다. application_tag의 값이 0x01인 경우 application_data()의 구문은 하기의 [표 5]와 같을 수 있다.application_data(): The syntax can be defined according to the value of the linked application_tag. When the value of application_tag is 0x01, the syntax of application_data() may be as shown in [Table 5] below.
reserved
3D_channel_type
for (i=0; i<N; i++){
reserved
}
}application_data(0x01){
reserved
3D_channel_type
for (i=0; i<N; i++){
reserved
}
}
3
5
8
3
5
8
uimsbf
uimsbf
bslbf
uimsbf
uimsbf
bslbf
3D_channel_type: 3D 방송의 타입 정보를 나타낼 수 있다. ATSC NRT 기반 3D 방송은 0x05로 설정될 수 있다.3D_channel_type: Can indicate type information of 3D broadcasting. ATSC NRT-based 3D broadcast may be set to 0x05.
3D_channel_type의 값에 대해 하기의 [표 6]을 참조하여 상세히 설명된다.The value of 3D_channel_type will be described in detail with reference to Table 6 below.
ATSC NRT 기반의 3D 방송에 대한 가이드 정보를 제공하기 위하여 stereoscopic_program_info_descriptor()가 프로그램 및 시스템 정보 프로토콜(Program and System Information Protocol; PSIP)의 이벤트 정보 테이블(Event Information Table; EIT)에 추가될 수 있다. stereoscopic_program_info_descriptor()는 EIT의 이벤트를 기술하는 서술자 루프에 위치할 수 있다.In order to provide guide information for ATSC NRT-based 3D broadcasting, stereoscopic_program_info_descriptor() may be added to an event information table (EIT) of a program and system information protocol (PSIP). stereoscopic_program_info_descriptor() may be located in a descriptor loop describing an event of an EIT.
앞서 도 1 내지 도 6을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.Since the technical contents described above with reference to FIGS. 1 to 6 may be applied as they are, a more detailed description will be omitted below.
도 8은 일 예에 따른 방송 서버의 구성도이다.8 is a configuration diagram of a broadcast server according to an example.
방송 서버(100)는 3D 콘텐츠 서버, 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기, 채널 다중화부 및 지상파 채널 전송부를 포함할 수 있다.The
저장부(230)는 3D 콘텐츠 서버를 포함할 수 있다.The
처리부(220)는 오디오 신호 부호화기, 기준 영상 부호화기, 프로그램 다중화부, 부가 영상 부호화기, NRT 부호화기 및 채널 다중화부를 포함할 수 있다.The
통신부(210)는 지상파 채널 전송부를 포함할 수 있다.The
3D 콘텐츠 서버는 부가 영상, 기준 영상 및 오디오 신호를 저장할 수 있다.The 3D content server may store an additional video, a reference video, and an audio signal.
오디오 신호 부호화기는 오디오 신호를 부호화할 수 있다.The audio signal encoder may encode an audio signal.
기준 영상 부호화기는 기준 영상을 부호화할 수 있다. 기준 영상 부호화기는 전술된 단계(620)를 수행할 수 있다.The reference image encoder may encode the reference image. The reference image encoder may perform step 620 described above.
프로그램 다중화부는 기준 영상, 오디오 신호 및 메타데이터를 이용하여 프로그램 다중화를 수행할 수 있다. 프로그램 다중화부는 전술된 단계(630)를 수행할 수 있다.The program multiplexer may perform program multiplexing using a reference image, an audio signal, and metadata. The program multiplexer may perform the above-described
채널 다중화부는 기준 신호 스트림 및 부가 영상 스트림을 각각 채널 다중화할 수 있다. 채널 다중화부는 전술된 단계(640)를 수행할 수 있다.The channel multiplexer may channel multiplex the reference signal stream and the additional video stream, respectively. The channel multiplexer may perform step 640 described above.
부가 영상 부호화기는 부가 영상을 부호화할 수 있다. 부가 영상 부호화기는 전술된 단계(520)를 수행할 수 있다.The additional video encoder may encode the additional video. The additional video encoder may perform step 520 described above.
NRT 부호화기는 부가 영상의 스트림을 NRT 서비스에 맞도록 부호화할 수 있다. NRT 부호화기는 전술된 단계(520)를 수행할 수 있다.The NRT encoder may encode the stream of the additional video to fit the NRT service. The NRT encoder may perform the above-described
지상파 채널 전송부는 채널 다중화된 부가 영상의 스트림 및 기준 영상의 스트림을 전송할 수 있다.The terrestrial channel transmitter may transmit a stream of a channel multiplexed additional video and a stream of a reference video.
앞서 도 1 내지 도 7을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 7 may be applied as they are, a more detailed description will be omitted below.
도 9 내지 도 12는 방송 수신기가 3차원 영상을 생성하는 방법의 흐름도를 도시한다.9 to 12 are flowcharts of a method for generating a 3D image by a broadcast receiver.
도 9 내지 도 12의 하기의 단계들(902 내지 1206)은 수신한 기준 영상의 스트림 및 부가 영상의 스트림을 이용하여 방송 수신기(110)가 3D 영상을 생성하는 방법일 수 있다.The following
단계들(902 내지 1006)은 기준 영상의 스트림에 대해 수행되는 단계들 일 수 있다.
단계(902)에서, 처리부(320)는 PSI 파서(parser)를 이용하여 기준 영상의 스트림에 포함된 PAT를 획득할 수 있다. 수신기는 PAT를 파싱함으로써 PMT_ID를 획득할 수 있다.In
단계(904)에서, 처리부(320)는 PSI 파서를 이용하여 PID=PMT_PID를 갖는 테이블을 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 stereoscopic_program_info_descriptor() 및 stereoscopic_video_info_descriptor()가 제공하는 방송 서비스 타입의 정보를 획득할 수 있다. 처리부(320)는 PMT를 파싱함으로써 동기화 정보(0x05 - referenced_media_information() 및 0x06 - media_pairing_information())을 싣는 테이블들의 PID(906)를 획득할 수 있다.In
도 10에서 처리부(320)는 PSIP 파서를 이용하여 TVCT 및 EIT를 획득할 수 있다.In FIG. 10, the
단계(1002)에서, 처리부(320)는 TVCT를 파싱함으로써 기준 스트림의 방송 타입을 식별할 수 있다. 예를 들어, 3D_channel_type = 0x05인 경우, 기준 스트림은 3D 방송을 제공할 수 있다.In
처리부(320)는 TVCT를 파싱함으로써 service_location_descriptor 및 parameterized_serive_descriptor(PSD)를 제공할 수 있다.The
service_location_descriptor로부터 PID(1004)가 획득될 수 있다.The
단계(1014)에서, 처리부(320)는 EIT를 파싱함으로써 stereoscopic_program_info_descriptor를 획득할 수 있다.In step 1014, the
하기의 단계들(1102 내지 1108)은 부가 영상의 스트림에 대해 수행되는 단계들일 수 있다.The following
단계(1102) 및 단계(1104)에서, 처리부(320)는 부가 영상의 스트림에 대한 정보를 획득하기 위해 PAT 및 PMT를 파싱함으로써 각각 분석할 수 있다.In
단계(1106)에서, 처리부(320)는 부가 영상의 스트림을 복호화(decoding)할 수 있다. 예를 들어, 부가 영상의 스트림은 AVC 복호화기를 통해 복호화될 수 있다.In
단계(1108)에서, 처리부(320)는 부가 영상을 3D 영상 생성기(formatter)로 제공할 수 있다.In
도 12에서 처리부(320)의 TS 필터는 PID(906) 및 PID(1004)를 수신할 수 있다.In FIG. 12, the TS filter of the
단계(1202)에서, 처리부(320)는 TS 필터를 이용하여 각 PID를 처리할 수 있다. 처리부(320)는 기준 영상을 위해 PID=PID_V1으로 TS를 필터링할 수 있다. 처리부(320)는 동기화 정보를 위해 PID=PID_PD로 TS를 필터링할 수 있다. 처리부(320)는 오디오 정보를 위해 PID=PID_A로 TS를 필터링할 수 있다.In
단계(1204)에서, 처리부(320)는 복호화기를 통해 기준 영상을 복호화할 수 있다.In
단계(1206)에서, 처리부(320)는 복호화된 기준 영상 및 복호화된 부가 영상을 3D 영상 생성기를 이용하여 3D 영상을 생성할 수 있다.In
앞서 도 1 내지 도 11을 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
Since the technical contents described above with reference to FIGS. 1 to 11 may be applied as they are, a more detailed description will be omitted below.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
100: 방송 서버
110: 방송 수신기
210: 통신부
220: 처리부
230: 저장부100: broadcast server
110: broadcast receiver
210: communication department
220: processing unit
230: storage unit
Claims (20)
상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 처리부
를 포함하고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되고,
상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
A communication unit for receiving a stream of an additional video of a 3D broadcast in non-real time and receiving a stream of a reference video of the 3D broadcast in real time; And
A processing unit that generates a 3D image of the 3D broadcast by using the stream of the reference video and the stream of the additional video
Including,
Whether the supplementary video can be output independently from the reference video is indicated in a capability descriptor (capabilities_descriptor) included in the stream of the supplementary video,
The broadcast receiver, wherein the additional video may be output independently from the reference video.
상기 통신부는 상기 기준 영상의 스트림이 수신되기 전에 상기 부가 영상의 스트림을 수신하는, 방송 수신기.
The method of claim 1,
The communication unit receives the stream of the additional video before the stream of the reference video is received.
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는, 방송 수신기.
The method of claim 1,
The broadcast receiver capable of outputting the additional video independently from the reference video by assigning different terrestrial channels to the stream of the additional video and the stream of the reference video.
상기 부가 영상의 스트림을 저장하는 저장부
를 더 포함하는, 방송 수신기.
The method of claim 1,
A storage unit that stores the stream of the additional video
Further comprising a broadcast receiver.
상기 기준 영상의 스트림은 상기 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 수신기.
The method of claim 1,
The broadcast receiver, wherein the stream of the reference video includes metadata for generating the 3D video.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 동기화 정보를 포함하는, 방송 수신기.
The method of claim 6,
The metadata includes synchronization information for synchronizing the reference video and the additional video.
상기 처리부는 상기 실시간 방송의 스트림을 파싱함으로써 비-실시간으로 제공되는 콘텐츠에 대한 정보를 획득하고,
상기 통신부는 상기 정보에 기반하여 상기 부가 영상의 스트림을 요청하는, 방송 수신기.
The method of claim 1,
The processing unit obtains information on content provided in non-real time by parsing the stream of the real-time broadcast,
The communication unit, the broadcast receiver for requesting the stream of the additional video based on the information.
상기 정보는 실시간 방송의 스트림에 포함되는, 방송 수신기.
The method of claim 8,
The information is included in a stream of real-time broadcasting.
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하는 처리부
를 포함하고,
상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널이 각각 할당됨으로써 상기 부가 영상이 상기 수신기에서 상기 기준 영상과 독립적으로 출력될 수 있고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 서버.
A communication unit that transmits a stream of an additional video of a 3D broadcast to a receiver in non-real time and transmits a stream of a reference video of the 3D broadcast to the receiver in real time; And
A processing unit that allocates different terrestrial channels to the stream of the additional video and the stream of the reference video
Including,
Different terrestrial channels are allocated to the stream of the additional video and the stream of the reference video, so that the additional video can be output independently from the reference video in the receiver,
Whether or not the additional video can be output independently from the reference video is displayed in a capability descriptor (capabilities_descriptor) included in the stream of the additional video.
상기 통신부는 상기 기준 영상의 스트림이 전송되기 전에 상기 부가 영상의 스트림을 전송하는, 방송 서버.
The method of claim 10,
The communication unit transmitting the stream of the additional video before the stream of the reference video is transmitted.
상기 기준 영상의 스트림은 상기 3D 방송의 3D 영상을 생성하기 위한 메타데이터를 포함하는, 방송 서버.
The method of claim 10,
The broadcast server, wherein the stream of the reference video includes metadata for generating a 3D video of the 3D broadcast.
상기 메타데이터는 상기 기준 영상 및 상기 부가 영상을 동기화 하기 위한 정보를 포함하는, 방송 서버.
The method of claim 13,
The metadata includes information for synchronizing the reference video and the additional video.
상기 통신부는 비-실시간으로 제공되는 콘텐츠에 대한 정보를 상기 실시간 방송의 스트림을 이용하여 상기 수신기로 전송하고, 상기 수신기로부터 상기 정보에 기반한 상기 부가 영상의 스트림의 요청을 수신하는, 방송 서버.
The method of claim 10,
The communication unit transmits information on the content provided in non-real time to the receiver using the stream of the real-time broadcast, and receives a request for the stream of the additional video based on the information from the receiver.
상기 정보는 실시간 방송의 스트림에 포함되는, 방송 서버.
The method of claim 15,
The information is included in a stream of real-time broadcasting.
상기 처리부는 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림에 서로 상이한 지상파 채널을 각각 할당하기 위해 상기 부가 영상의 스트림 및 상기 기준 영상의 스트림을 각각의 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
The method of claim 10,
The processing unit uses a program map table (PMT) for the additional video stream and the reference video stream to allocate different terrestrial channels to the additional video stream and the reference video stream. And signaling, broadcast server.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하고,
상기 두 개의 지상파 채널들은 각각 상기 기준 영상을 2D 방송에 이용하는 지상파 채널 및 상기 기준 영상을 3D 방송에 이용하는 채널인, 방송 서버.
The method of claim 10,
The processing unit allocates two terrestrial channels to the stream of the reference video,
The two terrestrial channels are respectively a terrestrial channel using the reference image for 2D broadcasting and a channel using the reference image for 3D broadcasting.
상기 처리부는 상기 기준 영상의 스트림에 대해 두 개의 지상파 채널들을 할당하기 위해 상기 기준 영상의 스트림을 상기 두 개의 지상파 채널에 각각 대응하는 프로그램 맵 테이블(Program Map Table; PMT)을 이용하여 시그널링하는, 방송 서버.
The method of claim 18,
The processing unit signals the stream of the reference video using a Program Map Table (PMT) corresponding to each of the two terrestrial channels to allocate two terrestrial channels to the stream of the reference video. server.
상기 3D 방송의 기준 영상의 스트림을 실시간으로 수신하는 단계; 및
상기 기준 영상의 스트림 및 상기 부가 영상의 스트림을 이용하여 상기 3D 방송의 3D 영상을 생성하는 단계
를 포함하고,
상기 부가 영상은 상기 기준 영상과 독립적으로 출력될 수 있고,
상기 부가 영상이 상기 기준 영상과 독립적으로 출력될 수 있는지 여부는 상기 부가 영상의 스트림 내에 포함되는 가능성 서술자(capabilities_descriptor)에 표시되는, 방송 수신 방법.Receiving a stream of additional video of a three-dimensional (D) broadcast in non-real time;
Receiving a stream of the reference video of the 3D broadcast in real time; And
Generating a 3D video of the 3D broadcast using the stream of the base video and the stream of the additional video
Including,
The additional video may be output independently from the reference video,
Whether the additional video can be output independently from the reference video is indicated in a capability descriptor included in the stream of the additional video (capabilities_descriptor).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/470,202 US9838756B2 (en) | 2014-05-20 | 2014-08-27 | Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140060453 | 2014-05-20 | ||
KR20140060453 | 2014-05-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150133620A KR20150133620A (en) | 2015-11-30 |
KR102204830B1 true KR102204830B1 (en) | 2021-01-19 |
Family
ID=54868053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140110935A KR102204830B1 (en) | 2014-05-20 | 2014-08-25 | Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102204830B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110157309A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content |
US20110254920A1 (en) * | 2008-11-04 | 2011-10-20 | Electronics And Telecommunications Research Institute | Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same |
KR101372376B1 (en) | 2009-07-07 | 2014-03-14 | 경희대학교 산학협력단 | Method for receiving stereoscopic video in digital broadcasting system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101869103B1 (en) * | 2011-01-26 | 2018-06-19 | 한국전자통신연구원 | Methods of Synchronizing reference image with additional-image of real-time broadcasting program And transceiver system performing the same |
-
2014
- 2014-08-25 KR KR1020140110935A patent/KR102204830B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110254920A1 (en) * | 2008-11-04 | 2011-10-20 | Electronics And Telecommunications Research Institute | Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same |
KR101372376B1 (en) | 2009-07-07 | 2014-03-14 | 경희대학교 산학협력단 | Method for receiving stereoscopic video in digital broadcasting system |
US20110157309A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Hierarchical video compression supporting selective delivery of two-dimensional and three-dimensional video content |
Non-Patent Citations (1)
Title |
---|
EN 300 468 v 1.3.1, "DVB specification for SI in VB systems, (1998-02)* |
Also Published As
Publication number | Publication date |
---|---|
KR20150133620A (en) | 2015-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9554198B2 (en) | Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same | |
US9578302B2 (en) | Broadcast transmitter, broadcast receiver and 3D video data processing method thereof | |
US9036700B2 (en) | Simulcast of stereoviews for 3D TV | |
US20120320168A1 (en) | Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services | |
EP2744214A2 (en) | Transmitting device, receiving device, and transceiving method thereof | |
KR101653319B1 (en) | Method and apparatus for transceiving image component for 3d image | |
KR20120026026A (en) | Broadcast receiver and 3d video data processing method thereof | |
US9516086B2 (en) | Transmitting device, receiving device, and transceiving method thereof | |
KR20120013974A (en) | Broadcast transmitter, broadcast receiver and 3d video data processing method thereof | |
KR20120095865A (en) | Broadcast receiver and 3d video data processing method thereof | |
CN102388620A (en) | Broadcast receiver and 3d video data processing method | |
US20140157342A1 (en) | Reception device, transmission device, reception method, and transmission method | |
US20150281668A1 (en) | Broadcast receiver and 3d video data processing method thereof | |
US20140049606A1 (en) | Image data transmission device, image data transmission method, image data reception device, and image data reception method | |
KR20140000136A (en) | Image data transmitter, image data transmission method, image data receiver, and image data reception method | |
US9866814B2 (en) | Method of synchronizing reference image with additional image of real-time broadcasting program, and transceiver system for performing same | |
KR102204830B1 (en) | Method and apparatus for providing three-dimensional territorial brordcasting based on non real time service | |
US9838756B2 (en) | Method and apparatus for providing three-dimensional territorial broadcasting based on non real time service | |
US20150163513A1 (en) | Method and apparatus for transmitting and receiving high-definition contents | |
US20130250059A1 (en) | Method and apparatus for transmitting stereoscopic video information | |
Kwon et al. | Program associated 3D non-real-time service on terrestrial DTV | |
KR20150006340A (en) | Method and apparatus for providing three-dimensional video | |
KR20120060771A (en) | Mehtod and apparatus for transmitting stereoscopic image information | |
KR20120036255A (en) | Method for transmitting information relating 3d video service in digital broadcast |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |