KR20120104498A - Method of providing 3d service linking contents transported at different time in a broadcasting system based on mpeg-2 ts - Google Patents

Method of providing 3d service linking contents transported at different time in a broadcasting system based on mpeg-2 ts Download PDF

Info

Publication number
KR20120104498A
KR20120104498A KR1020120024671A KR20120024671A KR20120104498A KR 20120104498 A KR20120104498 A KR 20120104498A KR 1020120024671 A KR1020120024671 A KR 1020120024671A KR 20120024671 A KR20120024671 A KR 20120024671A KR 20120104498 A KR20120104498 A KR 20120104498A
Authority
KR
South Korea
Prior art keywords
information
video
additional
time
service
Prior art date
Application number
KR1020120024671A
Other languages
Korean (ko)
Other versions
KR101878218B1 (en
Inventor
임현정
권형진
정광희
이광순
윤국진
정원식
허남호
김병철
박종환
김규헌
서덕영
박광훈
Original Assignee
경희대학교 산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단, 한국전자통신연구원 filed Critical 경희대학교 산학협력단
Publication of KR20120104498A publication Critical patent/KR20120104498A/en
Application granted granted Critical
Publication of KR101878218B1 publication Critical patent/KR101878218B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals

Abstract

PURPOSE: A three dimensional service providing method is provided to enable users to effectively access multimedia which the users are immersed by extracting the connected media of files stored using a non-real time stream. CONSTITUTION: A terminal extracts additional image signaling information and an additional image from a received non-real time stream(S110). The terminal extracts a reference image signaling information and a reference image from a received real-time stream(S120). The terminal creates stereoscopic content including the reference image and the additional image based on the relationship information(S130). The terminal reproduces the stereoscopic content by synchronizing the images based on time information included in synchronization information. [Reference numerals] (AA) Start; (BB) End; (S110) Additional images and additional image signaling information are extracted by receiving a non-real time stream; (S120) Standard images and standard signaling information are extracted by receiving a real time stream; (S130) Additional image signaling information and the creation of stereoscopic content based on the additional image signaling information

Description

MPEG-2 TS 기반 방송 서비스 환경에서 전달 시간이 다른 콘텐츠를 연동하여 3D 서비스를 제공하는 방법{METHOD OF PROVIDING 3D SERVICE LINKING CONTENTS TRANSPORTED AT DIFFERENT TIME IN A BROADCASTING SYSTEM BASED ON MPEG-2 TS}METHOD OF PROVIDING 3D SERVICE LINKING CONTENTS TRANSPORTED AT DIFFERENT TIME IN A BROADCASTING SYSTEM BASED ON MPEG-2 TS}

본 발명은 MPEG-2 TS 기반 방송 서비스 환경에서 3D 서비스를 제공하는 방법에 관한 것으로, 더욱 상세하게는 전달 시간이 다른 콘텐츠를 연동하여 서비스하기 위한 시그널링 및 동기화 방법에 관한 것이다.
The present invention relates to a method for providing a 3D service in an MPEG-2 TS based broadcast service environment, and more particularly, to a signaling and synchronization method for interworking a service having a different delivery time.

최근 디지털 기술의 발달로 인한 방송과 통신의 융합이 활성화되고, IPTV, connected TV, 스마트 TV 등의 방통융합 매체가 널리 보급되면서 소비자들이 영상이나 음악, 기타 엔터테인먼트 콘텐츠를 소비할 수 있는 환경이 확대되었다. 이는 소비 매체들을 이용한 엔터테인먼트와 정보에 대한 접근이 용이하게 되었으며, 개인 미디어 플레이어를 통한 저장 콘텐츠의 소비가 보편화되었기 때문이다. With the recent development of digital technology, convergence of broadcasting and telecommunications has become active, and the spread of communication convergence media such as IPTV, connected TV, and smart TV has allowed consumers to consume video, music and other entertainment contents. . This is because access to entertainment and information using consumer media has become easy, and consumption of stored content through personal media players has become popular.

ATSC NRT(Advanced Television Systems Committee Non Real Time)란 기존의 DTV방송 채널로 멀티미디어 콘텐츠를 비실시간 기반으로 전송하는 서비스로서, 종래 콘텐츠 제공자가 일방적으로 전달해주는 형식의 메커니즘이 아닌 사용자의 요구사항을 받아들이는 새로운 형태의 저장 메커니즘이다. NRT는 접근이 쉬운 기존의 방송망의 특징을 이용하기 때문에 접근이 쉽고 효율적으로 비디오를 전달받을 수 있다. ATSC NRT (Advanced Television Systems Committee Non Real Time) is a service that transmits multimedia contents on a non-real time basis through the existing DTV broadcasting channel, and accepts user's requirements rather than a mechanism of unilateral delivery by a conventional content provider. A new form of storage mechanism. NRT uses the characteristics of the existing broadcasting network, which is easily accessible, so that the video can be easily and efficiently delivered.

현재 NRT 서비스는 사용자의 요청을 받아 콘텐츠를 저장한다는 요구 사항을 받아들이는 기술이지만, 저장된 비 실시간 콘텐츠와 기존 실시간 방송 콘텐츠는 구별되어 각각의 서비스만을 제공하고 있어, 3D 서비스를 저장된 비 실시간 콘텐츠와 실시간 방송 콘텐츠로 나누어 서비스할 경우에는 상기 두 콘텐츠 간의 연관 관계를 알 수 없으며, 동기화를 하여 동시에 소비할 수 없다.Currently, NRT service is a technology that accepts the requirement of storing content upon user's request. However, the stored non-real-time content and the existing real-time broadcasting content are distinguished and provide only respective services. When the service is divided into broadcast contents, the relationship between the two contents cannot be known, and synchronization cannot be consumed at the same time.

전술한 한계를 극복하기 위하여 ATSC는 NRT 표준에서 두 영상을 연동하여 주사하는 3D 콘텐츠 전송에 관한 항목을 추가하는 논의가 진행 중이지만 아직까지 상기 두 기술의 연동기술이 구체적으로 제시되지 않았다. In order to overcome the above limitations, ATSC is in the process of adding items related to 3D content transmission in which two images are interlocked and scanned in the NRT standard, but the interworking technology of the two technologies has not been specifically presented.

비실시간 기반으로 3D 방송 서비스를 제공하기 위해 종래에 기준 영상은 실시간으로 전송하고 부가 영상은 비실시간으로 방송 시간 전에 전송하는 방식이 있었으나, 상기 종래 기술은 IP 기반의 ATSC NRT 매커니즘을 이용하지 않고 있으며 비실시간 기반의 3D 방송 서비스를 시그널링할 수 있는 방법 또한 포함하고 있지 않다. In order to provide a 3D broadcasting service on a non-real time basis, there has been a conventional method of transmitting a base view video in real time and additional video before a broadcast time in non real time, but the conventional technology does not use an IP-based ATSC NRT mechanism. It also does not include a method for signaling a non-real time based 3D broadcast service.

또한 다른 종래 기술로서 비 실시간 스테레오스코픽 서비스를 위한 스테레오스코픽 서비스 서술자(SS_descriptor)를 통해 실시간 영상과 저장된 콘텐츠를 동기화하기 위한 방식이 제안된 바 있다. 그러나 상기 방식은 기준 영상과 부가 영상을 모두 실시간으로 전송하여 서비스를 제공하는 방법으로 기준 영상은 실시간으로 전달되고 부가 영상은 비실시간으로 전달되는 형태의 서비스는 포함하고 있지 않다.
In addition, as another conventional technology, a method for synchronizing stored content with a real-time image through a stereoscopic service descriptor (SS_descriptor) for a non real-time stereoscopic service has been proposed. However, the above scheme is a method of providing a service by transmitting both the base view video and the additional view video in real time, and does not include a service in which the base view video is delivered in real time and the supplementary video is delivered in non-real time.

한국 공개 특허 제 10-2010-0086440 호("지상파 디지털멀티미디어방송에서 비실시간 스테레오스코픽 서비스 수행 방법 및 지상파 디지털멀티미디어방송 수신 장치", 한국 전자 통신 연구원, 2010.07.30 공개)Korean Patent Publication No. 10-2010-0086440 ("Method for performing non-real-time stereoscopic service and terrestrial digital multimedia broadcasting receiver in terrestrial digital multimedia broadcasting", Korea Electronics and Telecommunications Research Institute, published on July 30, 2010)

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 사용자가 단말기를 통해 3D 서비스를 받고자 할 경우에, 실시간 방송 스트림으로 전달받은 2D 영상과 비실시간 방송 스트림으로 전달받아 저장된 보조 영상을 연동하여, 3D 방송 서비스를 제공할 수 있다. 방송 스트림과 저장되어 있는 파일 간의 연관 정보를 필요로 하며, 동기를 맞춰 재생을 하기 위한 동기화 정보가 필요하다. The present invention is to solve the above problems, when the user wants to receive the 3D service through the terminal, by interlocking the 2D video received as a real-time broadcast stream and the auxiliary video received and stored as a non-real-time broadcast stream, 3D A broadcast service can be provided. There is a need for association information between a broadcast stream and a stored file, and synchronization information is required for reproduction in synchronization.

따라서 본 발명은 상기 기준 영상과 부가 영상 간의 연관 정보를 기존 표준에 추가할 수 있으며, 3D 영상을 구성하기 위한 시그널링 방법과 두 영상 간의 동기를 맞추기 위한 시간 정보를 추가하는 방법이 필요하다. Accordingly, the present invention can add association information between the base view video and the additional view video to an existing standard, and a signaling method for constructing a 3D picture and a method for adding time information for synchronizing the two pictures are required.

즉, 전술한 문제점을 해결하기 위한 본 발명의 목적은 ATSC NRT 기술을 통해 실시간으로 전달되는 기준 영상 및 비실시간으로 전달되는 3D 부가 영상을 기반으로 스테레오스코픽 방송 서비스를 제공하기 위해, 상기 기준 영상 및 부가 영상을 결합하여 3D 콘텐츠를 구성하기 위한 시그널링 방법과 상기 기준 영상과 부가 영상을 동기화하기 위한 시간 정보를 제공하는 방법을 제공하는 것이다.
That is, an object of the present invention for solving the above problems is to provide a stereoscopic broadcast service based on a base view video delivered in real time and 3D additional video delivered in real time through the ATSC NRT technology, the reference video and The present invention provides a signaling method for composing 3D content by combining additional video and a method of providing time information for synchronizing the reference video with the additional video.

전술한 문제점을 해결하기 위한 본 발명의 일 실시예에 따른 전달 시간이 다른 콘텐츠를 연동하여 3D 서비스를 제공하는 방법은 부가 영상 및 부가 영상 시그널링 정보 - 여기서, 상기 부가 영상 시그널링 정보는 연관 관계 정보 및 동기화 정보를 포함함 - 를 포함하는 비실시간 스트림을 수신하여 상기 부가 영상 및 부가 영상 시그널링 정보를 추출하는 단계; 기준 영상 및 기준 영상 시그널링 정보 - 여기서, 상기 기준 영상 시그널링 정보는 연관 관계 정보 및 동기화 정보를 포함함 - 를 포함하는 실시간 스트림을 수신하여 상기 기준 영상 및 기준 영상 시그널링 정보를 추출하는 단계; 및 상기 연관 관계 정보를 기반으로 상기 부가 영상 및 기준 영상을 포함하는 스테레오스코픽 콘텐츠를 생성하고, 상기 동기화 정보에 포함된 시간 정보를 기반으로 상기 스테레오스코픽 콘텐츠의 부가 영상 및 기준 영상을 동기화하여 상기 스테레오스코픽 콘텐츠를 재생하는 단계를 포함할 수 있다.
According to an embodiment of the present invention, a method for providing a 3D service by interworking contents having different delivery times may include additional video and additional video signaling information, wherein the additional video signaling information includes association information and Extracting the additional video and the additional video signaling information by receiving a non-real-time stream comprising synchronization information; Extracting the reference video and the reference video signaling information by receiving a real time stream including reference video and reference video signaling information, wherein the reference video signaling information includes association information and synchronization information; And generating stereoscopic content including the additional view video and the reference video based on the association information, and synchronizing the additional view video and the reference video of the stereoscopic content based on time information included in the synchronization information. Playing the scoping content.

전술한 본 발명의 일 실시예에 따른 전달 시간이 다른 콘텐츠를 연동하여 3D 서비스를 제공하는 방법은, 기존의 실시간 스트림을 통한 방송과 비실시간 스트림을 통해 저장된 파일의 연동형 미디어를 도출함으로써, 몰입형 멀티미디어의 접근이 쉬워지며, 다양한 저장 매체를 활용하는 서비스의 기반 기술로서 활용될 수 있다.The method of providing a 3D service by interworking contents having different delivery times according to an embodiment of the present invention is immersed by deriving a linked media of a file stored through a non-real-time stream and a broadcast through an existing real-time stream. Type multimedia can be easily accessed, and can be used as a base technology for services utilizing various storage media.

또한, NRT 저장 콘텐츠와 실시간 방송을 연동하여 3D 서비스를 제공하기 위한 방법은 다양한 저장 매체를 활용하는 연동형 서비스 기술 개발의 방향성을 제시할 수 있다.
In addition, a method for providing 3D service by interworking NRT storage content and real-time broadcasting may suggest a direction of developing a linked service technology using various storage media.

도 1은 본 발명의 일 실시예에 따른 3D 서비스 제공 방법의 흐름도이다.
도 2는 3D 콘텐츠의 기준 영상을 실시간 방송 서비스로 전달함에 있어서, 기준 영상에 대한 정보 및 상기 기준 영상과 연동될 수 있는 보조 영상에 대한 정보가 기술된 것을 도시한다.
도 3은 본 발명의 일 실시예에 따라 동기화를 수행하기 위한 정보를 나타내는 서술자를 도시한다.
도 4는 본 발명의 일 실시예에 따른 연동형 스테레오스코픽 서비스가 단말에서 수행되는 과정을 도시한다.
1 is a flowchart illustrating a 3D service providing method according to an embodiment of the present invention.
FIG. 2 illustrates that information about a reference image and information about an auxiliary image that can be linked to the reference image are described in delivering a reference image of 3D content to a real-time broadcasting service.
3 illustrates a descriptor representing information for performing synchronization according to an embodiment of the present invention.
4 illustrates a process of performing a linked stereoscopic service in a terminal according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, which does not mean that each component is composed of separate hardware or software constituent units. That is, each constituent unit is included in each constituent unit for convenience of explanation, and at least two constituent units of the constituent units may be combined to form one constituent unit, or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and separate embodiments of the components are also included within the scope of the present invention, unless they depart from the essence of the present invention.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

전술한 바와 같이, 본 발명은 MPEG-2 TS 기반 방송 서비스 환경에서 3D 서비스를 제공하기 위한 기술로서, 전달 시간이 다른 콘텐츠를 연동하여 서비스하기 위한 시그널링 방법 및 동기화 방법에 관한 것이다. 보다 구체적으로, 본 발명은 3D 콘텐츠를 기준 영상(주 영상)과 부가 영상(보조 영상)으로 나누어, 실시간 방송 스트림으로 전달되는 기준 영상과 비실시간 방송 스트림을 통해 미리 단말기에 저장되어 있는 부가 영상을 연동하여 3D 서비스를 제공하는 방법에 관한 것이다.As described above, the present invention relates to a signaling method and a synchronization method for providing a 3D service in an MPEG-2 TS-based broadcast service environment for interworking with different contents. More specifically, the present invention divides the 3D content into a reference video (main video) and an additional video (auxiliary video), the reference video delivered to the real-time broadcast stream and the additional video stored in the terminal in advance through the non-real-time broadcast stream It relates to a method for providing a 3D service by interworking.

따라서, 전술한 방법에 따라 3D 서비스를 제공하기 위해서는 실시간 영상을 전달하는 스트림에 상기 기준 영상과 부가 영상을 연동하여 주사하기 위한 시그널링 방법과 동기화 방법에 관한 정보를 추가하여 전달할 필요가 있다.
Accordingly, in order to provide a 3D service according to the above-described method, it is necessary to add information about a signaling method and a synchronization method for interlocking and scanning the reference video and the additional video to a stream that delivers a real-time video.

본 발명에서 기술되는 단말기는 MPEG-2 TS 표준으로 구성된 방송 콘텐츠를 수신하고 소비할 수 있는 단말기를 의미하며, ATSC NRT 표준을 기반으로 방송 콘텐츠를 수신하고 저장할 수 있는 단말기를 의미한다. 또한, 본 발명에서 기술되는 단말기는 3D 콘텐츠를 재생할 수 있는 단말기를 의미한다.The terminal described in the present invention means a terminal capable of receiving and consuming broadcast content composed of the MPEG-2 TS standard, and means a terminal capable of receiving and storing broadcast content based on the ATSC NRT standard. In addition, the terminal described in the present invention means a terminal capable of playing 3D content.

본 발명에서 기술되는 3D 콘텐츠의 기준 영상(주 영상)은 MPEG-2 TS 표준을 기반으로 구성되어 전달될 수 있으며, 부가 영상과의 연관 관계 정보 및 동기화 정보를 더 포함할 수 있으며, 상기 단말기는 상기 연관 관계 정보 및 동기화 정보를 분석할 수 있다.The reference video (main video) of the 3D content described in the present invention may be configured and transmitted based on the MPEG-2 TS standard, and may further include correlation information and synchronization information with the additional video. The correlation information and synchronization information may be analyzed.

본 발명에서 기술되는 3D 콘텐츠의 부가 영상(보조 영상)은 ATSC NRT 표준을 기반으로 구성되어 전달될 수 있으며, 기준 영상과의 연관 관계 정보 및 동기화 정보를 포함하여 단말기에 저장될 수 있다. 상기 단말기는 저장된 연관 관계 정보 및 동기화 정보를 분석할 수 있다.
The additional video (secondary video) of the 3D content described in the present invention may be configured and transmitted based on the ATSC NRT standard, and may be stored in the terminal including correlation information and synchronization information with the reference video. The terminal may analyze the stored association information and the synchronization information.

도 1은 본 발명의 일 실시예에 따른 3D 서비스 제공 방법의 흐름도이다.1 is a flowchart illustrating a 3D service providing method according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 3D 서비스 제공 방법은 먼저 부가 영상 및 부가 영상 시그널링 정보를 포함하는 비실시간 스트림을 수신하여 상기 부가 영상 및 부가 영상 시그널링 정보를 추출한다(S110). 여기서, 상기 비실시간 스트림은 ATSC NRT(Non Real Time) 표준을 기반으로 구성될 수 있다. 또한, 상기 부가 영상 시그널링 정보는 기준 영상과의 관계를 나타내는 연관 관계 정보 및 상기 기준 영상과 동기화하기 위한 동기화 정보를 포함할 수 있다. 상기 연관 관계 정보는 기준 영상과 부가 영상을 포함하는 스테레오스코픽 콘텐츠를 생성하기 위해 사용될 수 있다. 상기 추출된 부가 영상 및 부가 영상 시그널링 정보는 3D 서비스 제공 장치에 저장될 수 있다. As shown in FIG. 1, the 3D service providing method according to an embodiment of the present invention first receives the non-real time stream including the additional video and the additional video signaling information to extract the additional video and the additional video signaling information ( S110). Here, the non-real time stream may be configured based on the ATSC NRT (Non Real Time) standard. The additional picture signaling information may include association information indicating a relationship with a reference picture and synchronization information for synchronizing with the reference picture. The correlation information may be used to generate stereoscopic content including a base view video and an additional view video. The extracted additional view video and additional view video signaling information may be stored in the 3D service providing apparatus.

이후, 기준 영상 및 상기 기준 영상의 시그널링 정보를 포함하는 실시간 스트림을 수신하여 상기 기준 영상 및 기준 영상 시그널링 정보를 추출한다(S120). 여기서, 상기 실시간 스트림은 MPEG-2 TS 표준을 기반으로 구성될 수 있다. 또한, 상기 기준 영상 시그널링 정보는 부가 영상과의 관계를 나타내는 연관 관계 정보 및 상기 부가 영상과 동기화하기 위한 동기화 정보를 포함할 수 있다. Thereafter, a real time stream including a reference video and signaling information of the reference video is received to extract the reference video and the reference video signaling information (S120). Here, the real time stream may be configured based on the MPEG-2 TS standard. In addition, the reference video signaling information may include association information indicating a relationship with the additional view video and synchronization information for synchronizing with the additional view video.

부가 영상 및 기준 영상이 추출되면, 상기 연관 관계 정보를 기반으로 상기 부가 영상 및 기준 영상을 포함하는 스테레오스코픽 콘텐츠를 생성하고, 상기 동기화 정보에 포함된 시간 정보를 기반으로 상기 스테레오스코픽 콘텐츠의 부가 영상 및 기준 영상을 동기화하여 상기 스테레오스코픽 콘텐츠를 재생(S130)함으로써 시청자에게 3D 서비스를 제공할 수 있다.
When the additional image and the reference image are extracted, the stereoscopic content including the additional image and the reference image is generated based on the correlation information, and the additional image of the stereoscopic content is based on the time information included in the synchronization information. And playing the stereoscopic content by synchronizing a reference image (S130) to provide a 3D service to a viewer.

이하, 방송단에서 단말기에 3D 콘텐츠의 기준 영상을 전달하기 위해 TS 스트림을 구성함에 있어, 부가 영상과의 연관 관계 정보와 동기화 정보를 포함하여 전달하고, 상기 전달된 연관 관계 정보를 기반으로 저장된 부가 영상을 참조하여 3D 화면을 구성하며, 상기 전달된 동기화 정보를 기반으로 부가 영상과 동기를 맞추어 콘텐츠를 재생하는 방법에 대해 보다 구체적으로 설명한다. Hereinafter, in constructing a TS stream in order to deliver the 3D content reference video to the terminal, the broadcaster includes the association information and synchronization information with the additional video, and stores the added information based on the transmitted association information. A method of reproducing a 3D screen with reference to an image and synchronizing with an additional image based on the transmitted synchronization information will be described in more detail.

하기에서, 본 발명의 일 실시예로서 MPEG-2 TS와 ATSC NRT 기술을 사용하는 방송 서비스를 기반으로 설명하지만, 기술 분야는 반드시 상기 방송 서비스로 한정되지 아니하며, 3D 콘텐츠를 구성하는 영상의 전송 시점이 상이하여, 영상 간의 연관 정보 및 동기화 정보가 요구되는 모든 분야에 적용될 수 있다.
Hereinafter, an embodiment of the present invention will be described based on a broadcast service using MPEG-2 TS and ATSC NRT technology, but a technical field is not necessarily limited to the broadcast service, and a transmission time point of an image constituting 3D content is provided. This is different and can be applied to all fields where association information and synchronization information between images are required.

도 2는 프로그램 맵 테이블(Program Map Table, PMT)에 추가된 연동형 스테레오스코픽 서비스 서술자의 구성도이다. FIG. 2 is a diagram illustrating a structured stereoscopic service descriptor added to a program map table (PMT).

전술한 바와 같이, 기준 영상 시그널링 정보 및 부가 영상 시그널링 정보는 기준 영상 및 부가 영상 상호 간의 관계를 나타내는 연관 관계 정보를 포함할 수 있다. 도 2의 구성도는 3D 콘텐츠의 기준 영상을 실시간 방송 서비스로 전달함에 있어서, 기준 영상에 대한 정보 및 상기 기준 영상과 연동될 수 있는 보조 영상에 대한 연관 관계 정보를 포함할 수 있다. 기준 영상에 대한 정보는 프로그램 맵 테이블(Program Map Table, PMT)내에 서술자를 추가하여, 연동형 영상 서비스 식별 및 관련 정보를 전달할 수 있다. As described above, the base view video signaling information and the additional view video signaling information may include association information indicating a relationship between the base view video and the additional view video. The configuration diagram of FIG. 2 may include information about a reference image and association information about an auxiliary image that may be linked with the reference image in delivering a reference image of 3D content to a real-time broadcasting service. The information about the reference image may add a descriptor in a program map table (PMT) to transmit the linked image service identification and related information.

도 2를 참조하면, 본 발명의 일 실시예에 따른 PMT는 기준 영상 및 부가 영상 상호 간의 연관 관계 정보로서, 연동형 스테레오스코픽 서비스 서술자(Linkage_Stereoscopic_Service_Descriptor, 100)를 더 포함할 수 있다. 상기 연동형 스테레오스코픽 서비스 서술자(100)는 연동형 스테레오스코픽 서비스의 좌, 우 영상을 구분하고, 연동될 파일의 URL정보를 포함할 수 있으며, 3D 영상 서비스를 구성하기 위한 정보를 포함할 수 있다. Referring to FIG. 2, the PMT according to an embodiment of the present invention may further include a linked stereoscopic service descriptor (Linkage_Stereoscopic_Service_Descriptor) 100 as association information between the base view video and the additional view video. The linked stereoscopic service descriptor 100 may distinguish left and right images of the linked stereoscopic service, may include URL information of a file to be linked, and may include information for configuring a 3D video service. .

도 2의 서술자 태그(Descriptor_tag, 101)는 해당 서술자가 연동형 스테레오스코픽 서비스 서술자라는 것을 나타낼 수 있다. 서술자 길이(Descriptor_length, 102)는 해당 서술자의 길이를 나타낼 수 있다. The descriptor tag (Descriptor_tag) 101 of FIG. 2 may indicate that the descriptor is a linked stereoscopic service descriptor. The descriptor length (Descriptor_length, 102) may indicate the length of the descriptor.

또한, 뷰 포지션 인덱스(View_position_index, 103)는 해당 서술자를 포함하는 비디오 스트림이 좌영상인지 또는 우영상인지 여부를 나타낼 수 있다. 3D 영상을 구성하는 방법은 서비스 호환 방식, 프레임 호환 방식 등과 같이 복수의 종류가 존재한다. 하지만 연동형 서비스의 경우 3D를 구성하는 방법은 프레임 호환 방식과 같이 좌, 우 영상이 분리된 형태뿐이므로, 플래그(flag) 값 형태로 좌, 우 영상만을 표현할 수 있다. 다만, 기존의 3D 구성 방법과의 호환성과 향후 확장성 등을 고려하여, 여유 크기로 할당할 수 있다. In addition, the view position index (View_position_index) 103 may indicate whether the video stream including the descriptor is a left image or a right image. There are a plurality of methods for composing a 3D image, such as a service compatibility method and a frame compatibility method. However, in the case of the interlocked service, since the left and right images are separated from each other like the frame compatibility method, only the left and right images can be expressed in the form of flag values. However, in consideration of compatibility with the existing 3D composition method and future expandability, it can be allocated as a spare size.

예를 들면, 뷰 포지션 인덱스(View_position_index, 103)의 값이 ‘001’일 경우 해당 서술자를 포함하는 비디오 스트림이 좌영상임을 나타낼 수 있고, 연동될 파일에 포함된 비디오 스트림은 우영상임을 나타낼 수 있다. 반대로 뷰 포지션 인덱스(View_position_index, 103)의 값이 ‘010’일 경우 해당 서술자를 포함하는 비디오 스트림이 우영상이며, 연동될 파일에 포함된 비디오 스트림이 좌영상임을 나타낼 수 있다. For example, when the value of the view position index (View_position_index, 103) is '001', this may indicate that the video stream including the corresponding descriptor is the left image, and the video stream included in the linked file may be the right image. . Conversely, when the value of the view position index (View_position_index, 103) is '010', the video stream including the descriptor may be a right image, and the video stream included in the linked file may be a left image.

상기와 같이 연동형 서비스의 3D구성 방법은 좌영상과 우영상이 분리된 형태만 존재하는 것을 이용하면, 해당 스트림이 좌영상이면 연동되는 영상은 우영상이 되기 때문에, 3D구성에 관한 서술자는 기준 영상을 전달하는 실시간 스트림에서만 포함하고, 다른 부가 영상에는 3D 구성 정보가 없어도 서비스를 제공할 수 있다. As described above, when the 3D configuration method of the linked service uses only a form in which the left video and the right video are separated, the linked video becomes the right video when the corresponding stream is the left video. It can be included only in the real-time stream that delivers the video, and other additional videos can be provided without the 3D configuration information.

도 2의 종속 플래그(Dependency_flag, 104)는 연동될 파일을 참조하기 위한 플래그이다. 연동될 파일은 NRT 기술을 통해 미리 단말기에 저장되어 있으므로, 해당 파일이 저장된 URL정보가 필요하다. URL 정보는 가변적인 길이를 가지고 있기 때문에, 연결 파일 길이(linkage_file_length, 105)를 통해 연동될 파일에 대한 URL 이름의 길이를 나타내고, 연결 파일 이름(linkage_file_name, 106)을 통해 해당 스트림과 연동될 파일의 이름을 나타낼 수 있다. The dependency flag Dependency_flag 104 of FIG. 2 is a flag for referring to a file to be linked. Since the file to be linked is previously stored in the terminal through the NRT technology, the URL information in which the file is stored is necessary. Since the URL information has a variable length, it indicates the length of the URL name for the file to be linked through the link file length (linkage_file_length, 105), and indicates the length of the file to be linked with the stream through the link file name (linkage_file_name, 106). It can represent a name.

도 2의 연결 파일 타입(linkage_file_type, 107)은 해당 스트림과 연동될 파일의 종류를 의미한다. 스테레오스코픽 서비스를 제공하기 위한 저장 포맷으로서 SVAF(Stereoscopic video application format)가 존재하며, 3D서비스에 사용될 부가 영상은 SVAF형태인 mp4파일 타입으로 구성될 수 있다. 향후 부가 영상을 저장하는 파일 포맷 형태가 가질 수 있는 다양성을 고려하여, 파일의 종류 구분이 가능한 필드를 구성할 수 있다. The linkage file type (linkage_file_type) 107 of FIG. 2 means a type of file to be linked with the corresponding stream. There is a stereoscopic video application format (SVAF) as a storage format for providing a stereoscopic service, and the additional video to be used for the 3D service may be configured as an mp4 file type in the SVAF format. In consideration of the variety of file format types for storing additional video in the future, a field capable of classifying a file may be configured.

상기 SVAF의 경우 ISO Base media file format의 형태로 트랙(track)이라는 단위로 비디오, 오디오 및 메타데이터 등을 구분한다. 저장된 파일 포맷의 형태가 SVAF인 경우 보조영상을 포함하는 트랙(track)을 알기 위해서 트랙 ID(track_id, 108)를 사용하여 구분할 수 있다.
In the case of the SVAF, video, audio, metadata, and the like are distinguished in units of tracks in the form of an ISO Base media file format. When the format of the stored file format is SVAF, a track ID (track_id) 108 may be used to identify a track including an auxiliary picture.

도 3은 본 발명의 일 실시예에 따라 동기화를 수행하기 위한 정보를 나타내는 서술자를 도시한다. 전술한 바와 같이, 기준 영상 시그널링 정보 및 부가 영상 시그널링 정보는 기준 영상 및 부가 영상 상호 간의 동기화 정보를 포함할 수 있다. 3 illustrates a descriptor representing information for performing synchronization according to an embodiment of the present invention. As described above, the base view video signaling information and the additional view video signaling information may include synchronization information between the base view video and the additional view video.

연동형 서비스의 동기화를 위해서 저장된 파일과 달리, 기존의 실시간으로 전송되는 스트림에는 프로그램의 진행 사항을 알 수 있는 정보가 없다. 따라서 파일 포맷의 디코딩 시간(Decoding time) 값과 구성 시간(Composition time) 값을 실시간 전송 스트림에 추가하여 동기화를 할 수 있다. Unlike files stored for synchronization of linked services, existing streams do not contain information that can be used to track the progress of a program. Therefore, the decoding time and composition time of the file format can be added to the real-time transport stream for synchronization.

도 3의 연결 시간 서술자(linkage_time_descriptor, 200)는 동기화를 수행하기 위한 동기화 정보로서, 저장된 파일과 동일한 시간 정보를 나타낸다. 연결 시간 서술자(linkage_time_descriptor, 200)는 실시간 전송 스트림에서 개별 스트림에 대한 헤더 정보에 해당하는 PES(Packetized Elementary Stream) 중 PES 프라이빗 데이터(PES_Private_data, 201)부분에 추가될 수 있다. The linkage time descriptor linkage_time_descriptor 200 of FIG. 3 is synchronization information for performing synchronization, and represents the same time information as the stored file. The linkage time descriptor (linkage_time_descriptor) 200 may be added to the PES private data (PES_Private_data, 201) part of the packetized elementary stream (PES) corresponding to the header information of the individual stream in the real-time transport stream.

도 3의 CT_DT_flag(202)는 해당 스트림이 구성 시간(Composition_time, 203)정보만을 가지고 있는지, 디코딩 시간(Decoding_time, 204)도 가지고 있는지 여부를 나타낼 수 있다. 예를 들면, 상기 CT_DT_flag의 값이 1인 경우, 해당 스트림은 구성 시간(Composition time, 203)정보를 포함할 수 있고, 상기 CT_DT_flag의 값이 2일 경우는 구성 시간(Composition_time, 203)과 디코딩 시간(Decoding_time, 204)정보를 포함할 수 있다. The CT_DT_flag 202 of FIG. 3 may indicate whether the corresponding stream has only the composition time (Composition_time) 203 information or the decoding time (Decoding_time, 204). For example, when the value of the CT_DT_flag is 1, the corresponding stream may include composition time (203) information. When the value of the CT_DT_flag is 2, the composition time (Composition_time, 203) and decoding time are included. (Decoding_time, 204) information may be included.

도 3의 구성 시간(Composition_time, 203)과 디코딩 시간(Decoding_time, 204)은 각각 해당 스트림을 화면에 보여주는 시간 정보와 복호화를 수행해야 되는 시간 정보로, 프로그램의 시작부터 해당 스트림이 얼마나 지났는지를 나타낼 수 있다.
The composition time (Composition_time, 203) and the decoding time (Decoding_time, 204) of FIG. 3 are time information showing the corresponding stream on the screen and time information to perform decoding, respectively, and indicate how long the corresponding stream has passed since the start of the program. Can be.

도 4는 본 발명의 일 실시예에 따른 연동형 스테레오스코픽 서비스가 단말에서 수행되는 과정을 도시한다. 4 illustrates a process of performing a linked stereoscopic service in a terminal according to an embodiment of the present invention.

현재 방송 중인 스트림을 역패킷화(Depacketization, 310)하면 프로그램 맵 테이블(Program Map Table, PMT)을 분석할 수 있다. 연동형 서비스는 PMT에 추가된 연결 스테레오스코픽 서비스 서술자(linkage stereoscopic service descriptor)의 분석으로 시작되며, 분석된 파일 이름 정보(s301)를 이용하여 저장되어 있는 파일 중 연동될 파일을 찾는다. 저장 공간(330)에 연동이 될 파일이 있는 경우, 해당 파일에 대해서 디코딩(340)을 수행하여 재생 준비를 할 수 있다. 또한 분석한 화면 구성 정보(s303)는 렌더러(Renderer, 450)에 전달하여 스테레오스코픽 화면을 준비할 수 있다. Depacketization 310 of the current broadcast stream may analyze a program map table (PMT). The linked service starts with the analysis of the linkage stereoscopic service descriptor added to the PMT, and finds a file to be linked among the stored files using the analyzed file name information s301. If there is a file to be linked in the storage space 330, the file may be decoded 340 to prepare for playback. In addition, the analyzed screen configuration information s303 may be transmitted to the renderer 450 to prepare a stereoscopic screen.

기준 영상을 포함하는 실시간 방송 스트림은 기존 방송 규격에 따라 재생될 수 있으며, 추가적으로 부가 영상과의 동기화를 위해 PES에 포함된 CT(Composition time)와 DT(Decoding time) 정보(s302)를 분석할 수 있다. 상기 분석된 시간 정보를 부가 영상을 포함하는 저장된 파일의 시간 정보와 비교하여 현재의 재생 시점을 탐색할 수 있다. 저장된 파일 또한 기존 파일 재생 방법을 사용할 수 있으며, 첫 화면부터 재생하지 않고 현재 실시간 방송 스트림과 상응하는 시점부터 재생을 수행할 수 있다.
The real time broadcast stream including the reference video may be played according to an existing broadcast standard, and additionally, the CT (Composition time) and DT (Decoding time) information (s302) included in the PES may be analyzed for synchronization with the additional video. have. The current playback time can be searched by comparing the analyzed time information with time information of a stored file including an additional image. The stored file may also use an existing file reproducing method, and may play from a time point corresponding to the current real time broadcast stream without playing from the first screen.

본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가지는 자에게 자명할 것이다. The embodiments of the present invention disclosed in the specification and the drawings are provided with specific examples to easily explain the technical contents of the present invention and to help the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be implemented in addition to the disclosed embodiments.

Claims (1)

부가 영상 및 부가 영상 시그널링 정보 - 여기서, 상기 부가 영상 시그널링 정보는 연관 관계 정보 및 동기화 정보를 포함함 - 를 포함하는 비실시간 스트림을 수신하여 상기 부가 영상 및 부가 영상 시그널링 정보를 추출하는 단계;
기준 영상 및 기준 영상 시그널링 정보 - 여기서, 상기 기준 영상 시그널링 정보는 연관 관계 정보 및 동기화 정보를 포함함 - 를 포함하는 실시간 스트림을 수신하여 상기 기준 영상 및 기준 영상 시그널링 정보를 추출하는 단계; 및
상기 연관 관계 정보를 기반으로 상기 부가 영상 및 기준 영상을 포함하는 스테레오스코픽 콘텐츠를 생성하고, 상기 동기화 정보에 포함된 시간 정보를 기반으로 상기 스테레오스코픽 콘텐츠의 부가 영상 및 기준 영상을 동기화하여 상기 스테레오스코픽 콘텐츠를 재생하는 단계를 포함하는 3D 서비스 제공 방법.
Extracting the additional video and the additional video signaling information by receiving a non-real time stream including the additional video and the additional video signaling information, wherein the additional video signaling information includes association information and synchronization information;
Extracting the reference video and the reference video signaling information by receiving a real time stream including reference video and reference video signaling information, wherein the reference video signaling information includes association information and synchronization information; And
Generate stereoscopic content including the additional view video and the reference video based on the correlation information, and synchronize the additional view video and the reference video of the stereoscopic content based on the time information included in the synchronization information. 3D service providing method comprising the step of playing the content.
KR1020120024671A 2011-03-10 2012-03-09 Method of providing 3d service linking contents transported at different time in a broadcasting system based on mpeg-2 ts KR101878218B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110021553 2011-03-10
KR1020110021553 2011-03-10

Publications (2)

Publication Number Publication Date
KR20120104498A true KR20120104498A (en) 2012-09-21
KR101878218B1 KR101878218B1 (en) 2018-07-16

Family

ID=47111891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120024671A KR101878218B1 (en) 2011-03-10 2012-03-09 Method of providing 3d service linking contents transported at different time in a broadcasting system based on mpeg-2 ts

Country Status (1)

Country Link
KR (1) KR101878218B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040031519A (en) * 2002-10-07 2004-04-13 한국전자통신연구원 System for data processing of 2-view 3dimention moving picture being based on MPEG-4 and method thereof
KR20080030360A (en) * 2006-09-29 2008-04-04 한국전자통신연구원 Method and apparatus for 3d still image service over digital broadcasting
KR20100086440A (en) 2009-01-22 2010-07-30 한국전자통신연구원 Method for processing non-real time stereoscopic services in terrestrial digital multimedia broadcasting and apparatus for receiving terrestrial digital multimedia broadcasting
KR20110004323A (en) * 2009-07-07 2011-01-13 한국전자통신연구원 Method and apparatus for transmitting/receiving stereoscopic video in digital broadcasting system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
US8520057B2 (en) * 2008-11-04 2013-08-27 Electronics And Telecommunications Research Institute Method and system for transmitting/receiving 3-dimensional broadcasting service
KR101311982B1 (en) * 2009-06-15 2013-09-30 에스케이텔링크 주식회사 Method and apparatus for providing/receiving stereoscopic video service in digital broadcasting system
KR101347744B1 (en) * 2009-08-19 2014-01-03 서울시립대학교 산학협력단 Image processing apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040031519A (en) * 2002-10-07 2004-04-13 한국전자통신연구원 System for data processing of 2-view 3dimention moving picture being based on MPEG-4 and method thereof
KR20080030360A (en) * 2006-09-29 2008-04-04 한국전자통신연구원 Method and apparatus for 3d still image service over digital broadcasting
KR20100086440A (en) 2009-01-22 2010-07-30 한국전자통신연구원 Method for processing non-real time stereoscopic services in terrestrial digital multimedia broadcasting and apparatus for receiving terrestrial digital multimedia broadcasting
KR20110004323A (en) * 2009-07-07 2011-01-13 한국전자통신연구원 Method and apparatus for transmitting/receiving stereoscopic video in digital broadcasting system

Also Published As

Publication number Publication date
KR101878218B1 (en) 2018-07-16

Similar Documents

Publication Publication Date Title
KR102331705B1 (en) Method and apparatus for transmitting and receiving multimedia service
JP2022089899A (en) Transmission method and reception method
US9118950B2 (en) Broadcast receiving apparatus, playback apparatus, broadcast communication system, broadcast receiving method, playback method, and program
US10715571B2 (en) Self-adaptive streaming medium processing method and apparatus
KR20110123658A (en) Method and system for transmitting/receiving 3-dimensional broadcasting service
US20170078765A1 (en) Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
Soursos et al. Connected TV and beyond
US20230188767A1 (en) Transmission device, transmission method, reception device, and reception method
US20130209063A1 (en) Digital receiver and content processing method in digital receiver
US10911736B2 (en) MMT apparatus and MMT method for processing stereoscopic video data
JPWO2013011696A1 (en) Transmission device, reception reproduction device, transmission method, and reception reproduction method
CN105812961B (en) Adaptive stream media processing method and processing device
KR101666246B1 (en) Advance metadata provision augmented broadcasting apparatus and method
JP5957770B2 (en) Video processing apparatus, method, program, recording medium, and integrated circuit
JP2018148574A (en) Multimedia content receiving device
KR20130040156A (en) Contents display method, contents synchronization method, broadcast contents display method and display apparatus
US20120269256A1 (en) Apparatus and method for producing/regenerating contents including mpeg-2 transport streams using screen description
KR20120104498A (en) Method of providing 3d service linking contents transported at different time in a broadcasting system based on mpeg-2 ts
KR101710452B1 (en) Method and apparatus for transmitting/receiving service discovery information in a multimedia transmission system
Cheong et al. Interactive terrestrial digital multimedia broadcasting (T-DMB) player
Park et al. File based hybrid broadcasting system for higher quality 3D content
Almgren et al. Scalable Services over DAB and DVB-T from a Receiver Point of View
KR20140004045A (en) Transmission apparatus and method, and reception apparatus and method for providing 3d service using the content and additional image seperately transmitted with the reference image transmitted in real time

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant