KR20150045869A - Video reception unit to provide hybrid service based on transport stream system target decoder model - Google Patents

Video reception unit to provide hybrid service based on transport stream system target decoder model Download PDF

Info

Publication number
KR20150045869A
KR20150045869A KR20140011528A KR20140011528A KR20150045869A KR 20150045869 A KR20150045869 A KR 20150045869A KR 20140011528 A KR20140011528 A KR 20140011528A KR 20140011528 A KR20140011528 A KR 20140011528A KR 20150045869 A KR20150045869 A KR 20150045869A
Authority
KR
South Korea
Prior art keywords
buffer
video
image
reference image
decoder
Prior art date
Application number
KR20140011528A
Other languages
Korean (ko)
Inventor
윤국진
이진영
정원식
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/512,533 priority Critical patent/US20150109413A1/en
Publication of KR20150045869A publication Critical patent/KR20150045869A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Abstract

The present invention provides a video receiving device that can receive hybrid 3D TV contents. According to an embodiment of the present invention, this video receiving device uses a hybrid buffer or filer buffer to synchronize reference video received over a first communication network and additional video received over a second communication network and can generate uniform stereoscopic video outputs from reference and additional videos.

Description

전송 스트림 시스템 타겟 디코더 모델에 기초한 하이브리드 서비스를 제공하는 영상 수신 장치{VIDEO RECEPTION UNIT TO PROVIDE HYBRID SERVICE BASED ON TRANSPORT STREAM SYSTEM TARGET DECODER MODEL}TECHNICAL FIELD [0001] The present invention relates to a video receiving apparatus for providing a hybrid service based on a transport stream system target decoder model. [0002]

본 발명은 영상 수신 장치에 대한 것으로 보다 상세하게는 서로 다른 경로를 통해 수신되는 복수의 신호를 처리하여 동기화시켜 출력하는 하이브리드 서비스를 제공하는 영상 수신 장치에 대한 것이다The present invention relates to a video receiving apparatus, and more particularly, to a video receiving apparatus that provides a hybrid service that processes and synchronizes a plurality of signals received through different paths

전자 기술의 발달에 힘입어, 다양한 유형의 전자 장치가 개발 및 보급되고 있다. 이들 전자 장치의 대표적인 예로 TV와 같은 수신 장치를 들 수 있다.Due to the development of electronic technology, various types of electronic devices have been developed and popularized. A typical example of these electronic devices is a receiving device such as a TV.

최근에는 TV의 성능이 좋아짐에 따라 3D 컨텐츠나 풀 HD 컨텐츠와 같은 멀티미디어 컨텐츠까지도 서비스되고 있다. 이러한 유형의 컨텐츠는 기존의 컨텐츠보다 데이터 사이즈가 크다.In recent years, as TV performance has improved, multimedia contents such as 3D contents and full HD contents are being served. This type of content has a larger data size than existing content.

하지만, 방송 망에서 사용되는 전송 대역 폭은 제한적이다. 따라서, 현재의 방송망에서 전송 가능한 컨텐츠의 사이즈에는 제약이 있다. 이러한 제약에 맞추기 위해서는 부득이하게 해상도를 줄여야 할 필요가 있으며, 이에 따라 화질이 열화된다는 문제점이 있었다.However, the transmission bandwidth used in broadcasting networks is limited. Therefore, there is a limitation in the size of content that can be transmitted in the current broadcasting network. In order to meet such a restriction, it is necessary to reduce the resolution inevitably, which results in deterioration of image quality.

이러한 문제점을 해결하기 위해서 다양한 종류의 미디어 데이터를 다양한 전송 환경을 통해 제공하고자 하는 시도가 있었다. 하지만, 이러한 데이터들은 서로 다른 경로를 통해 전송되기 때문에 수신 장치 측에서 서로 관련성 있는 데이터인지 알 수 없으며, 이로 인해 적절하게 동기화시킬 수 없다는 문제점이 있었다.In order to solve such a problem, there have been attempts to provide various types of media data through various transmission environments. However, since these data are transmitted through different paths, it is difficult to know whether the data is related to each other at the receiving apparatus side, and accordingly, there is a problem in that synchronization can not be properly performed.

따라서, 이러한 컨텐츠들에 대해 적절하게 동기화시킬 수 있는 방안에 대한 필요성이 대두되었다.Therefore, a need has arisen for a method of properly synchronizing these contents.

일 실시예에 따른 영상 수신 장치는 하이브리드 3DTV 컨텐츠를 방송망 및 IP 통신망을 통해 수신할 수 있다.The video receiving apparatus according to an exemplary embodiment can receive hybrid 3DTV contents through a broadcasting network and an IP communication network.

일 실시예에 따른 영상 수신 장치는 IP 통신망의 지연을 하이브리드 버퍼를 통해 보상할 수 있다.The video receiving apparatus according to an embodiment can compensate the delay of the IP communication network through the hybrid buffer.

일 실시예에 따른 영상 수신 장치는 기준 영상과 동기화하기 위한 부가 영상을 파일 버퍼 또는 로컬 저장소를 통해 미리 저장할 수 있다.The image receiving apparatus according to an exemplary embodiment may previously store an additional image for synchronizing with a reference image through a file buffer or a local storage.

일 실시예에 따르면, 영상 수신 장치로서, 제1 네트워크 통신망을 통해 기준 영상을 수신하는 제1 수신부, 제2 네트워크 통신망을 통해 부가 영상을 수신하는 제2 수신부, 및 제2 네트워크 통신망의 통신 상황에 따라 부가 영상에서 발생한 딜레이를, 기준 영상에 대해 보상하는 하이브리드 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to one embodiment, there is provided an image receiving apparatus comprising: a first receiving unit that receives a reference image through a first network communication network; a second receiving unit that receives an additional image through a second network communication network; And a hybrid buffer for compensating the delay generated in the additional image with respect to the reference image.

다른 일 실시예에 따르면, 제1 네트워크 통신망 및 제2 네트워크 통신망 중 적어도 하나를 통해 수신한 미디어 동기화 정보를 기초로, 부가 영상을 기준 영상에 동기화하고, 기준 영상 및 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입하는 처리부를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, based on the media synchronization information received via at least one of the first network communication network and the second network communication network, the additional image is synchronized to the reference image, and the same presentation time stamp A PTS, and a presentation time stamp).

또 다른 일 실시예에 따르면, 처리부는, 기준 영상 및 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 기준 영상 및 부가 영상을 프레젠테이션 타임 스탬프에 따라 처리하는, 영상 수신 장치가 제공될 수 있다.According to yet another embodiment, the processing unit is provided with an image receiving apparatus that processes the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video .

또 다른 일 실시예에 따르면, 제2 수신부는, 부가 영상을 저장하는 스트리밍 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the second receiving unit may be provided with a video receiving apparatus including a streaming buffer for storing additional images.

또 다른 일 실시예에 따르면, 제1 수신부는, 기준 영상에 대응하는 영상 기초 스트림을 저장하는 제1 비디오 버퍼, 기준 영상에 따른 오디오 기초 스트림을 저장하는 오디오 버퍼, 기준 영상을 부가 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제1 동기화 버퍼, 및 기준 영상에 대응하는 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제1 시스템 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first receiver may include a first video buffer for storing an image elementary stream corresponding to a reference image, an audio buffer for storing an audio elementary stream according to the reference image, And a first system buffer for storing system information on a program in a decoding process corresponding to the reference image.

또 다른 일 실시예에 따르면, 제1 수신부는, 영상 기초 스트림을 디코딩하는 제1 비디오 디코더, 오디오 기초 스트림을 디코딩하는 오디오 디코더, 제1 동기화 버퍼에 저장된 미디어 동기화 정보를 디코딩하는 제1 동기화 디코더, 및 제1 시스템 버퍼에 저장된 시스템 정보를 디코딩하는 제1 시스템 디코더를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first receiver comprises a first video decoder for decoding the video elementary stream, an audio decoder for decoding the audio elementary stream, a first synchronization decoder for decoding the media synchronization information stored in the first synchronization buffer, And a first system decoder for decoding the system information stored in the first system buffer.

또 다른 일 실시예에 따르면, 제2 수신부는, 부가 영상에 대응하는 영상 기초 스트림을 저장하는 제2 비디오 버퍼, 부가 영상을 기준 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제2 동기화 버퍼, 및 부가 영상에 대응하는, 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제2 시스템 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the second receiver includes a second video buffer for storing an image elementary stream corresponding to the additional image, a second synchronization buffer for storing media synchronization information for synchronizing the additional image with the reference image, And a second system buffer for storing system information about a program in a process of being decoded, which corresponds to the additional image, can be provided.

또 다른 일 실시예에 따르면, 제2 수신부는, 부가 영상에 대응하는 영상 기초 스트림을 디코딩하는 제2 비디오 디코더, 제2 동기화 버퍼에 저장된 미디어 동기화 정보를 디코딩하는 제2 동기화 디코더, 및 제2 시스템 버퍼에 저장된 시스템 정보를 디코딩하는 제2 시스템 디코더를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the second receiver comprises a second video decoder for decoding the video elementary stream corresponding to the additional video, a second synchronization decoder for decoding the media synchronization information stored in the second synchronization buffer, And a second system decoder for decoding the system information stored in the buffer.

또 다른 일 실시예에 따르면, 제1 네트워크 통신망은 방송망이고, 제2 네트워크 통신망은 IP 통신망인, 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first network communication network may be a broadcasting network and the second network communication network may be an IP communication network.

또 다른 일 실시예에 따르면, 제1 수신부는, 하이브리드 버퍼를 포함하는, 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first receiving unit may be provided with a video receiving apparatus including a hybrid buffer.

일 실시예에 따르면, 영상 수신 장치로서, 제1 네트워크 통신망을 통해 기준 영상을 수신하는 제1 수신부, 제2 네트워크 통신망을 통해 부가 영상을 수신하는 제2 수신부, 및 기준 영상을 수신하기 전에 미리 부가 영상을 저장하는 파일 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to one embodiment, there is provided an image receiving apparatus, comprising: a first receiving unit that receives a reference image through a first network communication network; a second receiving unit that receives an additional image through a second network communication network; An image receiving apparatus including a file buffer for storing an image may be provided.

또 다른 일 실시예에 따르면, 기준 영상 및 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입하는 처리부를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, there is provided an image receiving apparatus, further comprising a processing unit for inserting the same presentation time stamp (PTS) into the reference image and the additional image.

또 다른 일 실시예에 따르면, 처리부는, 기준 영상 및 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 기준 영상 및 부가 영상을 프레젠테이션 타임 스탬프에 따라 처리하는, 영상 수신 장치가 제공될 수 있다.According to yet another embodiment, the processing unit is provided with an image receiving apparatus that processes the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video .

또 다른 일 실시예에 따르면, 제1 수신부는, 기준 영상에 대응하는 영상 기초 스트림을 저장하는 제1 비디오 버퍼, 기준 영상에 따른 오디오 기초 스트림을 저장하는 오디오 버퍼, 기준 영상을 부가 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제1 동기화 버퍼, 및 기준 영상에 대응하는 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제1 시스템 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first receiver may include a first video buffer for storing an image elementary stream corresponding to a reference image, an audio buffer for storing an audio elementary stream according to the reference image, And a first system buffer for storing system information on a program in a decoding process corresponding to the reference image.

또 다른 일 실시예에 따르면, 제1 수신부는, 영상 기초 스트림을 디코딩하는 제1 비디오 디코더, 오디오 기초 스트림을 디코딩하는 오디오 디코더, 제1 동기화 버퍼에 저장된 미디어 동기화 정보를 디코딩하는 제1 동기화 디코더, 및 제1 시스템 버퍼에 저장된 시스템 정보를 디코딩하는 제1 시스템 디코더를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first receiver comprises a first video decoder for decoding the video elementary stream, an audio decoder for decoding the audio elementary stream, a first synchronization decoder for decoding the media synchronization information stored in the first synchronization buffer, And a first system decoder for decoding the system information stored in the first system buffer.

또 다른 일 실시예에 따르면, 제2 수신부는, 부가 영상에 대응하는 영상 기초 스트림을 저장하는 제2 비디오 버퍼, 부가 영상에 대응하는, 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제2 시스템 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the second receiver may include a second video buffer for storing an image elementary stream corresponding to the additional image, a second video buffer for storing system information on the program in the decoding process corresponding to the additional image, An image receiving apparatus including a system buffer may be provided.

또 다른 일 실시예에 따르면, 제2 수신부는, 부가 영상에 대응하는 영상 기초 스트림을 디코딩하는 제2 비디오 디코더, 및 제2 시스템 버퍼에 저장된 시스템 정보를 디코딩하는 제2 시스템 디코더를 더 포함하는 영상 수신 장치가 제공될 수 있다.According to another embodiment, the second receiver further comprises a second video decoder for decoding the video elementary stream corresponding to the additional video, and a second system decoder for decoding the system information stored in the second system buffer A receiving apparatus may be provided.

또 다른 일 실시예에 따르면, 제1 네트워크 통신망은 방송망이고, 제2 네트워크 통신망은 IP 통신망인, 영상 수신 장치가 제공될 수 있다.According to another embodiment, the first network communication network may be a broadcasting network and the second network communication network may be an IP communication network.

또 다른 일 실시예에 따르면, 제2 수신부는, 파일 버퍼를 포함하는 영상 수신 장치가 제공될 수 있다.According to yet another embodiment, the second receiving unit may be provided with a video receiving apparatus including a file buffer.

일 실시예에 따른 영상 수신 장치는 방송망 및 IP 통신망을 통해 수신한 하이브리드 3DTV 컨텐츠를 동기화하여 스테레오스코픽 영상(Stereoscopic video)으로 출력할 수 있다.The image receiving apparatus according to an exemplary embodiment can synchronously output hybrid 3DTV contents received through a broadcasting network and an IP communication network and output the stereoscopic video.

일 실시예에 따른 영상 수신 장치는 하이브리드 버퍼(HB, Hybrid buffer)를 통해 IP 통신망의 지연을 보상하여, 기준 영상 및 부가 영상을 동기화할 수 있다.The image receiving apparatus according to an embodiment can compensate the delay of the IP communication network through a hybrid buffer (HB) to synchronize the reference image and the additional image.

일 실시예에 따른 영상 수신 장치는 파일 버퍼(FB, File buffer) 또는 로컬 저장소에 미리 저장된 부가 영상을 기준 영상과 동기화할 수 있다.The image receiving apparatus according to an exemplary embodiment may synchronize an additional image previously stored in a file buffer (FB) or a local storage with a reference image.

도 1은 일 실시예에 따른 하이브리드 3DTV 방송서비스를 위한 타이밍 및 버퍼 모델을 나타낼 수 있다.
도 2는 일 실시예에 따른 하이브리드 3DTV 컨텐츠의 송수신 시스템 구성을 도시한 블럭도이다.
도 3은 일 실시예에 따른 하이브리드 3DTV 컨텐츠의 스트리밍을 수행하는 영상 수신 장치를 도시한 도면이다.
도 4는 일 실시예에 따른 다운로드된 하이브리드 3DTV 컨텐츠를 처리하는 영상 수신 장치를 도시한 도면이다.
FIG. 1 illustrates a timing and buffer model for a hybrid 3DTV broadcast service according to an embodiment.
FIG. 2 is a block diagram illustrating a system for transmitting and receiving hybrid 3DTV contents according to an exemplary embodiment of the present invention.
3 is a diagram illustrating an image receiving apparatus for performing streaming of hybrid 3DTV contents according to an exemplary embodiment.
4 is a diagram illustrating an image receiving apparatus for processing downloaded hybrid 3DTV contents according to an exemplary embodiment of the present invention.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 하이브리드 3DTV 방송서비스를 위한 타이밍 및 버퍼 모델을 나타낼 수 있다.FIG. 1 illustrates a timing and buffer model for a hybrid 3DTV broadcast service according to an embodiment.

여기서, 하이브리드 3DTV 방송서비스를 위한 타이밍 및 버퍼 모델은 예를 들면, ISO/IEC 13818-1:2013의 T-STD (Transport stream System Target Decoder) 모델을 기반으로 하며 도 1과 같이 나타낼 수 있다.Here, the timing and buffer model for the hybrid 3DTV broadcasting service is based on, for example, a Transport Stream System Target Decoder (T-STD) model of ISO / IEC 13818-1: 2013 and can be represented as shown in FIG.

여기서, IP 통신망이 별도의 지연이 없으면(예를 들면, 전송 지연이 없는 경우), 기존의 DTV 버퍼링 및 타이밍 모델을 그대로 적용할 수 있다. 예를 들면, IP 통신망에서 별도의 지연이 없는 경우는, 기존의 기준 영상(Base video)과 같은 PTS (presentation time stamp) 값을 가지는 경우일 수 있다.Here, if the IP communication network does not have a delay (for example, there is no transmission delay), the existing DTV buffering and timing model can be applied as it is. For example, if there is no delay in the IP communication network, it may be the case that the PTS has the same presentation time stamp value as the existing base video.

도 1에 도시된 T-STD 모델에서 사용되는 기호(notation)는 하기와 같이 나타낼 수 있다. 본 명세서에서 하기 기호들은 하기 도 3 및 도 4에서 도 1과 동일한 의미로 사용될 수 있다.The notation used in the T-STD model shown in Fig. 1 can be expressed as follows. In the present specification, the following symbols can be used in the same meaning as in Fig. 1 in Fig. 3 and Fig.

i는 전송 스트림 (TS, Transport Stream)에서 바이트들(bytes)에 대한 인덱스(index)일 수 있다. 예를 들면, 제1 바이트(first byte)는 인덱스 0을 가질 수 있다.i may be an index for bytes in a transport stream (TS). For example, the first byte may have an index of zero.

j는 기초 스트림 (ES, elementary streams)에서 AU들(access units)에 대한 인덱스일 수 있다.j may be an index for AUs (access units) in elementary streams (ES).

k는 기초 스트림에서 프레젠테이션 단위(presentation units)에 대한 인덱스일 수 있다.k may be an index for presentation units in the elementary stream.

n은 기초 스트림에 대한 인덱스일 수 있다.n may be an index for the elementary stream.

t(i)는 전송 스트림의 i번째 바이트(i-th byte)가 STD (system target decoder)에 진입하는(enter) 시간(예를 들면, 초 단위)을 나타낼 수 있다. 예를 들면, t(0)의 값은 임의의 상수(arbitrary constant)일 수 있다. 여기서, STD 모델은 ISO/IEC 13818-1 다중화 비트 스트림의 의미(semantics)를 기술할 때 사용되는 디코딩 과정의 가상적 모델을 나타낼 수 있다.t (i) may represent the time (e.g., in seconds) at which the ith byte of the transport stream (i-th byte) enters the STD (system target decoder). For example, the value of t (0) may be an arbitrary constant. Here, the STD model can represent a virtual model of the decoding process used when describing the semantics of the ISO / IEC 13818-1 multiplexed bit stream.

An(j)는 기초 스트림 n에서 j번째 AU(access unit)일 수 있다. 여기서, An(j)는 디코딩 순서로 인덱싱될 수 있다. 여기서 AU는 재생하고자 하는 단위의 부호화된 형태(coded representation)를 나타낼 수 있다. 예를 들면, 오디오인 경우 AU는 한 오디오 프레임(frame)의 코딩된 모든 데이터이며, 영상의 경우 AU는 한 화상(picture)의 모든 코딩된 데이터와 스터핑(stuffing) 부분을 가리킬 수 있다.A n (j) may be the jth AU (access unit) in elementary stream n. Here, A n (j) can be indexed in decoding order. Here, AU may represent a coded representation of a unit to be reproduced. For example, in the case of audio, the AU is all coded data of one audio frame, and in the case of an image, the AU may indicate all coded data and stuffing portions of a picture.

tdn(j)는 기초 스트림 n에서 j번째 AU의 STD에서, 초 단위로 측정된 디코딩 시간(decoding timge)일 수 있다.td n (j) may be the decoding time measured in seconds in the STD of the jth AU in elementary stream n.

Pn(k)는 기초 스트림 n에서 k번째 프레젠테이션 단위(presentation unit)일 수 있다. Pn(k)는 An(j)를 디코딩한 결과일 수 있다. Pn(k)는 프레젠테이션 순서(presentation order)로 인덱싱될 수 있다.P n (k) may be the kth presentation unit in elementary stream n. P n (k) may be the result of decoding A n (j). P n (k) may be indexed in a presentation order.

tpn(k)는 기초 스트림 n에서 k번째 프레젠테이션 단위의 STD에서, 초 단위로 측정된, 프레젠테이션 시간(presentation time)일 수 있다.tp n (k) may be a presentation time, measured in seconds, in the STD of the kth presentation unit in elementary stream n.

Bn은 기초 스트림 n에 대한 메인 버퍼(main buffer)일 수 있다. 여기서, Bn은 오디오 기초 스트림(audio elementary streams)에 대해서만 나타날 수 있다..B n may be a main buffer for elementary stream n. Where B n can appear only for audio elementary streams.

Bsys은 디코딩되는 과정에 있는 프로그램에 대한, 시스템 정보(system information)에 대한 STD에서 메인 버퍼일 수 있다.B sys may be the main buffer in the STD for system information, for the program in the process of being decoded.

MBn은 기초 스트림 n에 대한 멀티플렉싱 버퍼(multiplexing buffer일 수 있다. 여기서, MBn은 영상 기초 스트림(video elementary streams)에 대해서만 나타날 수 있다.MB n may be a multiplexing buffer for elementary stream n, where MB n may appear only for video elementary streams.

EBn은 기초 스트림 n에 대한 기초 스트림 버퍼(elementary stream buffer)일 수 있다. 여기서, EBn은 영상 기초 스트림에 대해서만 나타날 수 있다.EB n may be an elementary stream buffer for elementary stream n. Here, EB n can appear only for the video elementary stream.

TBsys은 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보에 대한 전송 버퍼(transport buffer)일 수 있다.The TB sys may be a transport buffer for system information about the program being decoded.

TBn은 기초 스트림 n에 대한 전송 버퍼일 수 있다.TB n may be a transmission buffer for elementary stream n.

Dsys는 프로그램 스트림 n(Program Stream n)에서 시스템 정보에 대한 디코더일 수 있다.D sys may be a decoder for system information in a program stream n (Program Stream n).

Dn은 기초 스트림 n에 대한 디코더일 수 있다.D n may be a decoder for elementary stream n.

On은 영상 기초 스트림 n에 대한 재배열 버퍼(re-order buffer)일 수 있다.O n may be a re-order buffer for the video elementary stream n.

Rsys은 메인 버퍼 Bsys로부터 데이터가 제거되는 레이트(rate)일 수 있다.R sys may be the rate at which data is removed from the main buffer B sys .

Rxn은 전송 버퍼 TBn으로부터 데이터가 제거되는 레이트일 수 있다.Rx n may be the rate at which data is removed from the transmission buffer TB n .

Rbxn은 누출 방식(leak method)이 사용되는 경우, 멀티플렉싱 버퍼 MBn으로부터 PES 패킷 유료부하 데이터(PES packet payload data)가 제거되는 레이트일 수 있다. 여기서, Rbxn은 영상 기초 스트림에 대해서만 정의될 수 있다.Rbx n may be the rate at which the PES packet payload data is removed from the multiplexing buffer MB n when a leak method is used. Here, Rbx n can be defined only for the video elementary stream.

Rxsys은 전송 버퍼 TBsys으로부터 데이터가 제거되는 레이트일 수 있다. Sys Rx may be a rate at which data is removed from the transmit buffer TB sys.

p는 전송 스트림에서 전송 스트림 패킷(TS packets, Transport Stream packets)에 대한 인덱스일 수 있다.p may be an index for TS packets (Transport Stream Packets) in the transport stream.

PCR(i)는 i가 program_clock_reference_base field의 마지막 바이트(final byte)의 바이트 인덱스(byte index)인, 27-MHz 시스템 클럭의 주기의 단위에서 측정된 PCR 필드(program clock reference field)에서 인코딩된 시간일 수 있다.PCR (i) is a time period encoded in a PCR field (program clock reference field) measured in units of a period of the 27-MHz system clock, where i is the byte index of the last byte of the program_clock_reference_base field. .

t는 초 단위로 측정된 시간일 수 있다.t may be the time measured in seconds.

Fn(t)은 시간 t에서 기초 스트림 n에 대한 STD 입력 버퍼(system target decoder input buffer)의, 바이트로(in bytes) 측정된, 채워짐(fullness)일 수 있다.F n (t) may be fullness, measured in bytes, of the STD input buffer for elementary stream n at time t.

BSn은 바이트 단위로 측정된, 버퍼 Bn의 크기일 수 있다.BS n may be the size of buffer B n measured in bytes.

BSsys은 바이트 단위로 측정된, 버퍼 Bsys의 크기일 수 있다.BS sys may be the size of the buffer Bsys , measured in bytes.

MBSn은 바이트 단위로 측정된, 버퍼 MBn의 크기일 수 있다.MBS n may be the size of buffer MB n , measured in bytes.

EBSn은 바이트 단위로 측정된, 기초 스트림 버퍼 EBn의 크기일 수 있다.EBS n may be the size of the elementary stream buffer EB n , measured in bytes.

TBSsys은 바이트 단위로 측정된, 전송 버퍼 TBsys의 크기일 수 있다.TBS sys may be a size of, the transmit buffer TB sys measured in bytes.

TBSn은 바이트 단위로 측정된 전송 버퍼 TBn의 크기일 수 있다.TBS n may be the size of the transmission buffer TB n measured in bytes.

Rbxn(j)은 vbv_delay 방식(vbv_delay method)이 사용되는 경우, MBn으로부터 PES 패킷 유료부하 데이터가 제거되는 레이트일 수 있다.Rbx n (j) may be the rate at which PES packet payload data is removed from MB n when the vbv_delay method (vbv_delay method) is used.

Res은 시퀀스 헤더(sequence header)로 부호화된 영상 기초 스트림 레이트(coded video elementary stream rate)일 수 있다.R es may be a coded video elementary stream rate encoded with a sequence header.

도 2는 일 실시예에 따른 하이브리드 3DTV 컨텐츠의 송수신 시스템 구성을 도시한 블럭도이다.FIG. 2 is a block diagram illustrating a system for transmitting and receiving hybrid 3DTV contents according to an exemplary embodiment of the present invention.

일 실시예에 따른 송수신 시스템에서, 영상 수신 장치(200)는 제1 수신부(210), 제2 수신부(220) 및 처리부(230)를 포함할 수 있다. 이 때, 영상 수신 장치(200)는 서로 다른 경로(예를 들면, 방송망 및 IP 통신망)를 통해 하이브리드 3DTV 컨텐츠를 수신할 수 있다. 여기서, 하이브리드 3DTV 컨텐츠는 MPEG-2 (Moving Picture Experts Group-2) 표준방식에 따라 코딩된 비디오 및 오디오 등의 프로그램을 포함할 수 있다.In the transmission / reception system according to one embodiment, the image receiving apparatus 200 may include a first receiving unit 210, a second receiving unit 220, and a processing unit 230. At this time, the video receiving apparatus 200 can receive the hybrid 3DTV contents through different paths (for example, a broadcasting network and an IP communication network). Here, the hybrid 3DTV contents may include programs such as video and audio coded according to the Moving Picture Experts Group-2 (MPEG-2) standard method.

구체적으로는, 제1 수신부(210)는 제1 네트워크 통신망을 통해 제1 송신장치(209-1)로부터 기준 영상을 수신할 수 있다. 제2 수신부(220)는 제2 네트워크 통신망을 통해 제2 송신장치(209-2)로부터 부가 영상을 수신할 수 있다. 예를 들면 제1 네트워크 통신망은 방송망일 수 있고, 제2 네트워크 통신망은 IP 통신망(Internet Protocol Communication Network)일 수 있다. 또한, 기준 영상 및 부가 영상은 하나의 3DTV 컨텐츠에 대응할 수 있다.Specifically, the first receiving unit 210 can receive the reference image from the first transmitting apparatus 209-1 through the first network communication network. The second receiving unit 220 may receive the additional image from the second transmitting apparatus 209-2 through the second network communication network. For example, the first network communication network may be a broadcasting network, and the second network communication network may be an Internet Protocol Communication Network (IP) network. Also, the reference image and the additional image can correspond to one 3DTV content.

본 명세서에서는 이와 같이 서로 다른 경로(예를 들면, 방송망 및 IP 통신망)를 통해 전송된 데이터(예를 들면, 기준 영상 및 부가 영상)를 함께 이용하여 처리하는 서비스를 하이브리드 서비스라고 명명할 수 있다.In this specification, a service for processing data (for example, a reference image and an additional image) transmitted through different paths (for example, a broadcasting network and an IP communication network) together can be referred to as a hybrid service.

예를 들면, 사이즈가 큰 3D 컨텐츠나 고화질 컨텐츠를 서비스하기 위해서는 기존 방송 송수신 시스템의 처리 용량이 제한적일 수 있다. 따라서, 기존의 방송 시스템과 수신장치와도 호환성을 가지면서, 대형 사이즈의 컨텐츠도 서비스할 수 있도록 하기 위하여 하이브리드 서비스가 제공될 수 있다. 하이브리드 서비스의 경우, 복수의 다른 네트워크를 이용하여 하나의 컨텐츠를 제공하게 되므로, 사이즈가 큰 컨텐츠도 처리할 수 있다. 본 명세서에서는 방송망과 IP 통신망을 함께 이용하는 경우를 예로 들어 설명하지만, 네트워크의 종류 및 개수는 다양하게 구현될 수 있다.For example, in order to service large-sized 3D contents or high-quality contents, the processing capacity of the existing broadcast transmission / reception system may be limited. Therefore, a hybrid service can be provided in order to provide compatibility with existing broadcasting systems and receiving apparatuses, and also to provide services of large-sized contents. In the case of the hybrid service, since one content is provided using a plurality of different networks, it is possible to process content having a large size. In this specification, the case where the broadcasting network and the IP communication network are used together will be described as an example, but the types and the numbers of the networks can be variously implemented.

처리부(230)는 제1 네트워크 통신망 및 제2 네트워크 통신망 중 적어도 하나를 통해 수신한 미디어 동기화 정보를 기초로, 부가 영상을 기준 영상에 동기화하고, 기준 영상 및 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입할 수 있다. 또한, 기준 영상 및 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 기준 영상 및 부가 영상을 프레젠테이션 타임 스탬프에 따라 처리할 수 있다.The processing unit 230 synchronizes the additional image with the reference image based on the media synchronization information received through at least one of the first network communication network and the second network communication network and outputs the same presentation time stamp (PTS, presentation time stamp). In addition, the reference image and the additional image can be processed according to the presentation time stamp so that the reference image and the additional image are outputted as a single stereoscopic video.

여기서, 프레젠테이션 타임 스탬프는, 영상 신호와 음성 신호를 MPEG-2 표준 규격에 따라 압축하여 전송할 경우, 영산 신호의 압축 및 복원에 소요되는 시간이 음성 신호에 비해 매우 커서 영상과 음성이 일치하지 않는 현상(예를 들면, 영상 음성 불일치)을 해결하기 위해, 영상 수신 장치(200)에서 영상이나 음성 신호를 복호화한 후 출력할 시간을 지정해 주는 정보일 수 있다. 프레젠테이션 타임 스탬프는 각 시퀀스의 헤더(header)에 실어 보내며, 압축 전송 시 시스템에서 사용하는 기준 시간 정보인 PCR(program clock reference)과의 차이값으로 표시될 수 있다.Here, when the video signal and the audio signal are compressed according to the MPEG-2 standard and transmitted, the presentation time stamp is so large that the time required for compressing and restoring the output signal is much larger than that of the audio signal, (For example, a video-audio mismatch), the video-receiving apparatus 200 may decode the video or audio signal and specify the time to output the video or audio signal. The presentation time stamp is sent in the header of each sequence and can be displayed as a difference from the PCR (program clock reference), which is reference time information used in the system during compression transmission.

도 3은 일 실시예에 따른 하이브리드 3DTV 컨텐츠의 스트리밍을 수행하는 영상 수신 장치를 도시한 도면이다.3 is a diagram illustrating an image receiving apparatus for performing streaming of hybrid 3DTV contents according to an exemplary embodiment.

일 실시예에 따른 제1 수신부(301)는 기준 영상에 대응하는 영상 기초 스트림을 저장하는 제1 비디오 버퍼(311)(예를 들면, 제1 비디오 버퍼는 TB1, MB1, EB1을 포함), 기준 영상에 따른 오디오 기초 스트림을 저장하는 오디오 버퍼(312)(예를 들면, 오디오 버퍼는 TB2, B2를 포함), 기준 영상을 부가 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제1 동기화 버퍼(313)(예를 들면, 제1 동기화 버퍼는 TB3, B3를 포함), 기준 영상에 대응하는 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제1 시스템 버퍼(314)(예를 들면, 시스템 버퍼는 TBsys, Bsys를 포함), 및 하이브리드 버퍼(HB, Hybrid buffer)(315)(예를 들면, HB1)를 포함할 수 있다.The first receiving unit 301 according to an embodiment includes a first video buffer 311 (e.g., a first video buffer includes TB 1 , MB 1 , and EB 1 ) for storing an image elementary stream corresponding to a reference image An audio buffer 312 (for example, an audio buffer includes TB 2 and B 2 ) for storing an audio elementary stream according to a reference picture, a storage medium for storing media synchronization information for synchronizing a reference picture with an additional picture 1 synchronization buffer 313 (e.g., the first synchronization buffer includes TB 3 , B 3 ), a first system buffer 314 that stores system information about the program in the process of being decoded corresponding to the reference image, (E.g., the system buffer includes TB sys , B sys ), and a hybrid buffer (HB) 315 (e.g., HB 1 ).

여기서, 하이브리드 버퍼(315)는 제2 네트워크 통신망의 통신 상황에 따라 부가 영상에서 발생한 딜레이를, 기준 영상에 대해 보상할 수 있다. 예를 들면, 하이브리드 버퍼(315)는 부가 영상에서 발생한 딜레이만큼 기준 영상을 지연시킬 수 있다.Here, the hybrid buffer 315 can compensate the reference image for the delay generated in the additional image according to the communication status of the second network communication network. For example, the hybrid buffer 315 may delay the reference image by a delay generated in the additional image.

또한, 제1 수신부(301)는 영상 기초 스트림을 디코딩하는 제1 비디오 디코더(321)(예를 들면, D1), 오디오 기초 스트림을 디코딩하는 오디오 디코더(322)(예를 들면, D2), 제1 동기화 버퍼(313)에 저장된 미디어 동기화 정보를 디코딩하는 제1 동기화 디코더(323)(예를 들면, D3), 및 제1 시스템 버퍼(314)에 저장된 시스템 정보를 디코딩하는 제1 시스템 디코더(324)(예를 들면, Dsys)를 더 포함할 수 있다. 여기서, 제1 수신부(301)는 상술한 디코딩된 영상 기초 스트림을 재배열하는 제1 재배열 버퍼(330)(예를 들면, O1)를 포함할 수 있다.The first receiving unit 301 includes a first video decoder 321 (for example, D 1 ) for decoding the video elementary stream, an audio decoder 322 (for example, D 2 ) for decoding the audio elementary stream, A first synchronization decoder 323 (e.g., D 3 ) that decodes the media synchronization information stored in the first synchronization buffer 313 and a second synchronization decoder 323 Decoder 324 (e. G., D sys ). Here, the first receiver 301 may include a first rearrangement buffer 330 (e.g., O 1 ) for rearranging the decoded video elementary stream.

일 실시예에 따른 제2 수신부는 부가 영상에 대응하는 영상 기초 스트림을 저장하는 제2 비디오 버퍼(341)(예를 들면, 제2 비디오 버퍼는 TB4, MB4, EB4를 포함), 부가 영상을 기준 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제2 동기화 버퍼(342)(예를 들면, 제2 동기화 버퍼는 TB5, B5를 포함), 부가 영상에 대응하는, 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제2 시스템 버퍼(343)(예를 들면, 제2 시스템 버퍼는 TBsys, Bsys를 포함) 및 부가 영상을 저장하는 스트리밍 버퍼(SB, Streaming buffer)(344)(예를 들면, SB1)를 포함할 수 있다.The second receiver according to an embodiment may include a second video buffer 341 (for example, a second video buffer includes TB 4 , MB 4 , and EB 4 ) for storing an image elementary stream corresponding to the additional video, A second synchronization buffer 342 (e.g., including a second synchronization buffer TB 5 , B 5 ) for storing media synchronization information for synchronizing an image with a reference image, A second system buffer 343 (for example, the second system buffer includes TB sys and B sys ) for storing system information on a program and a streaming buffer (SB) 344 ) (E.g., SB 1 ).

또한, 제2 수신부(302)는 부가 영상에 대응하는 영상 기초 스트림을 디코딩하는 제2 비디오 디코더(351)(예를 들면, D4), 제2 동기화 버퍼(342)에 저장된 미디어 동기화 정보를 디코딩하는 제2 동기화 디코더(352)(예를 들면, D5), 및 제2 시스템 버퍼(343)에 저장된 시스템 정보를 디코딩하는 제2 시스템 디코더(353)(예를 들면, Dsys)를 더 포함할 수 있다. 여기서, 제2 수신부(302)는 상술한 디코딩된 영상 기초 스트림을 재배열하는 제2 재배열 버퍼(360)(예를 들면, O4)를 포함할 수 있다.The second receiving unit 302 may further include a second video decoder 351 (for example, D4) for decoding the video elementary stream corresponding to the additional video, a second video decoder 352 for decoding the media synchronization information stored in the second synchronization buffer 342 A second system decoder 353 (e.g., D sys ) that decodes the system information stored in the second system buffer 343, and a second synchronization decoder 352 (e.g., D5) have. Here, the second receiver 302 may include a second rearrangement buffer 360 (e.g., O 4 ) for rearranging the decoded video elementary stream.

일 실시예에 따르면, IP 통신망으로 전송되는 부가 영상 스트림의 경우, IP 통신망의 통신 상황에 따라 일정 딜레이가 발생할 수 있다. 이때, 기준 영상과 부가 영상(Auxiliary video)의 동기화 및 재생을 위하여, 방송으로 전송되는 기준 영상 스트림의 시간차이를 완충하기 위한 하이브리드 버퍼(315)를 도 3에 도시된 바와 같이 제1 수신부(301)에 적용할 수 있다. 이후 기준 영상 스트림은 기존 DTV에 적용되는 ISO/IEC 13818-1 T-STD 모델의 절차를 따를 수 있다. 또한, 일반적인 2D 방송서비스 일 경우 하이브리드 버퍼(315)는 적용되지 않을 수 있다.According to one embodiment, in the case of the additional video stream transmitted to the IP communication network, a certain delay may occur depending on the communication status of the IP communication network. In order to synchronize and reproduce the reference video and the auxiliary video, a hybrid buffer 315 for buffering the time difference of the reference video stream transmitted through the broadcast is connected to the first receiver 301 ). The reference video stream may follow the procedures of the ISO / IEC 13818-1 T-STD model applied to existing DTVs. In the case of a general 2D broadcast service, the hybrid buffer 315 may not be applied.

일 실시예에 따르면 방송망 및 IP 통신망으로 전송되는 미디어 동기화 정보(media pairing information)는 기존 DTV 모델에 따라 동일한 절차에 따라 수행될 수 있다. According to one embodiment, media pairing information transmitted to a broadcasting network and an IP communication network can be performed according to the same procedure according to the existing DTV model.

일 실시예에 따르면 스트리밍 버퍼(SB, Streaming buffer)에 저장된 부가 영상은 미디어 동기화 정보(media pairing information)를 기반으로, 처리부에 의해 디코더(decoder)를 거친 기준 영상과 동기화될 수 있다. 이후, 처리부는 기준 영상과 동일한 프레젠테이션 타임 스탬프를 부가 영상에 삽입하여, 렌더링부(Renderer)(미도시됨)를 통해 기준 영상과 함께 프레젠테이션 타임 스탬프에 맞춰 스테레오스코픽 영상(Stereoscopic video)으로 출력할 수 있다.According to an embodiment, the additional image stored in the streaming buffer (SB) can be synchronized with a reference image passed through a decoder by a processing unit based on media pairing information. Thereafter, the processor inserts the same presentation time stamp as the reference image into the additional image, and outputs it as a stereoscopic video in accordance with the presentation time stamp together with the reference image through a renderer (not shown) have.

예를 들면, 처리부는 제1 네트워크 통신망 및 제2 네트워크 통신망 중 적어도 하나를 통해 수신한 미디어 동기화 정보를 기초로, 부가 영상을 기준 영상에 동기화하고, 기준 영상 및 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입할 수 있다. 또한, 처리부는, 기준 영상 및 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 기준 영상 및 부가 영상을 프레젠테이션 타임 스탬프에 따라 처리할 수 있다.For example, the processing unit may synchronize the additional image with the reference image based on the media synchronization information received via at least one of the first network communication network and the second network communication network, and may use the same presentation time stamp (PTS , presentation time stamp). In addition, the processing unit may process the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video.

다른 일 실시예에 따르면, 부가 영상의 타입이 MPEG-2 TS 이고 동기화 타입이 PES 레벨(packetized elementary stream level)인 경우, 미디어 동기화 정보는 기준 영상과 부가 영상의 동기화 재생을 위한 미디어 동기화 정보 pi(j) 를 제공할 수 있다. 여기서, pi(j)는 j번째 미디어 동기화 정보(j-th media paring information)를 나타낼 수 있다.According to another embodiment, when the type of the additional image is MPEG-2 TS and the synchronization type is a PES level (packetized elementary stream level), the media synchronization information includes media synchronization information p i (j) < / RTI > Here, p i (j) may represent jth media synchronization information (j-th media paring information).

도 4는 일 실시예에 따른 다운로드된 하이브리드 3DTV 컨텐츠를 처리하는 영상 수신 장치를 도시한 도면이다.4 is a diagram illustrating an image receiving apparatus for processing downloaded hybrid 3DTV contents according to an exemplary embodiment of the present invention.

일 실시예에 따르면, 도 4에 도시된 제1 비디오 버퍼(411), 오디오 버퍼(412), 제1 동기화 버퍼(413), 및 제1 시스템 버퍼(414)는 상술한 도 3에 도시된 제1 비디오 버퍼(311), 오디오 버퍼(312), 제1 동기화 버퍼(313), 및 제1 시스템 버퍼(314)와 유사할 수 있다. 또한, 도 4에 도시된 제1 비디오 디코더(421), 오디오 디코더(422), 제1 동기화 디코더(423), 제1 시스템 디코더(424), 및 제1 재배열 버퍼(430)는 상술한 도 3에 도시된 제1 비디오 디코더(321), 오디오 디코더(322), 제1 동기화 디코더(323), 제1 시스템 디코더(324), 및 제1 재배열 버퍼(330)와 유사할 수 있다.According to one embodiment, the first video buffer 411, the audio buffer 412, the first synchronization buffer 413, and the first system buffer 414 shown in Fig. 1 video buffer 311, an audio buffer 312, a first synchronization buffer 313, and a first system buffer 314. The first video decoder 421, the audio decoder 422, the first synchronization decoder 423, the first system decoder 424 and the first rearrangement buffer 430 shown in FIG. May be similar to the first video decoder 321, the audio decoder 322, the first synchronization decoder 323, the first system decoder 324 and the first rearrangement buffer 330 shown in FIG.

일 실시예에 따르면 도 4에 도시된 제1 수신부(401)는 제1 비디오 버퍼(411), 오디오 버퍼(412), 제1 동기화 버퍼(413), 제1 시스템 버퍼(414), 제1 비디오 디코더(421), 오디오 디코더(422), 제1 동기화 디코더(423), 제1 시스템 디코더(424), 및 제1 재배열 버퍼(430)를 포함할 수 있다.4 includes a first video buffer 411, an audio buffer 412, a first synchronization buffer 413, a first system buffer 414, a first video buffer 416, Decoder 421, an audio decoder 422, a first synchronization decoder 423, a first system decoder 424, and a first rearrangement buffer 430.

일 실시예에 따르면, 도 4에 도시된 제2 비디오 버퍼(441), 및 제2 시스템 버퍼(442)는 상술한 도 3에 도시된 제2 비디오 버퍼(341), 및 제2 시스템 버퍼(343)와 유사할 수 있다. 또한, 도 4에 도시된 제2 비디오 디코더(451), 제2 시스템 디코더(452), 및 제2 재배열 버퍼(460)는 상술한 도 3에 도시된 제2 비디오 디코더(351), 제2 시스템 디코더(353), 및 제2 재배열 버퍼(360)와 유사할 수 있다.According to one embodiment, the second video buffer 441 and the second system buffer 442 shown in Fig. 4 include the second video buffer 341 shown in Fig. 3 and the second system buffer 342 ). ≪ / RTI > The second video decoder 451, the second system decoder 452, and the second rearrangement buffer 460 shown in FIG. 4 correspond to the second video decoder 351, the second video decoder 452, The system decoder 353, and the second rearrangement buffer 360.

일 실시예에 따르면 도 4에 도시된 제2 수신부(402)는 제2 비디오 버퍼(441), 제2 시스템 버퍼(442), 제2 비디오 디코더(451), 제2 시스템 디코더(452), 제2 재배열 버퍼(460)를 포함할 수 있다. 또한, 제2 수신부(402)는 기준 영상을 수신하기 전에 미리 부가 영상을 저장하는 파일 버퍼(File buffer)(443)(예를 들면, FB1/storage)를 더 포함할 수 있다. 예를 들면, 파일 버퍼(443)는 로컬 저장소(local storage)로 대체될 수도 있다. 이 때, FBn은 파일 n에 대한 파일 버퍼를 나타낼 수 있다.4, the second receiver 402 includes a second video buffer 441, a second system buffer 442, a second video decoder 451, a second system decoder 452, 2 < / RTI > rearrangement buffer 460. The second receiving unit 402 may further include a file buffer 443 (for example, FB 1 / storage) for storing additional images before receiving the reference image. For example, the file buffer 443 may be replaced with a local storage. At this time, FB n may represent a file buffer for file n.

일 실시예에 따르면 하이브리드 3DTV 다운로드 서비스는 IP 통신망으로 전송되는 부가 영상 스트림이 기준 영상 스트림보다 먼저 파일 버퍼 혹은 로컬 저장소에 저장될 수 있다. 부가 영상 스트림이 기준 영상 스트림보다 먼저 저장된 경우, 기준 영상 스트림은 기존 DTV에 적용되는 ISO/IEC 13818-1 T-STD 모델의 절차에 따라 처리될 수 있다.According to an exemplary embodiment, the hybrid 3DTV download service can store an additional video stream transmitted to an IP communication network in a file buffer or a local storage before a reference video stream. If the additional video stream is stored prior to the reference video stream, the reference video stream may be processed according to the procedures of the ISO / IEC 13818-1 T-STD model applied to the existing DTV.

일 실시예에 따르면 방송망 상으로 전송되는 미디어 동기화 정보는 기존 DTV 모델에 기초한 절차에 따라 처리될 수 있다.According to one embodiment, the media synchronization information transmitted on the broadcasting network can be processed according to a procedure based on the existing DTV model.

일 실시예에 따르면 상술한 파일 버퍼(443)에 저장된 부가 영상은 디코더를 거친 기준 영상과 동일 프레젠테이션 타임 스탬프를 삽입할 수 있다. 이후, 처리부는 렌더링부(미도시됨)를 통해 부가 영상을 기준 영상과 함께 프레젠테이션 타임 스탬프에 따라 스테레오스코픽 영상으로 출력할 수 있다.According to an embodiment, the additional image stored in the file buffer 443 may insert the same presentation time stamp as the reference image passed through the decoder. Thereafter, the processing unit may output the additional image through the rendering unit (not shown) together with the reference image to the stereoscopic image according to the presentation time stamp.

예를 들면, 처리부는 기준 영상 및 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입할 수 있다. 또한, 처리부는 기준 영상 및 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 기준 영상 및 부가 영상을 프레젠테이션 타임 스탬프에 따라 처리할 수 있다.For example, the processing unit may insert the same presentation time stamp (PTS) into the reference image and the additional image. In addition, the processing unit may process the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute one or more software applications that are executed on an operating system (OS) and an operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

200: 영상 수신 장치
210: 제1 수신부
220: 제2 수신부
230: 처리부
209-1: 제1 송신장치
209-2: 제2 송신장치
200: Video receiving device
210: first receiving section
220: second receiving section
230:
209-1: First transmitting apparatus
209-2: Second transmitting device

Claims (19)

영상 수신 장치로서,
제1 네트워크 통신망을 통해 기준 영상을 수신하는 제1 수신부;
제2 네트워크 통신망을 통해 부가 영상을 수신하는 제2 수신부; 및
상기 제2 네트워크 통신망의 통신 상황에 따라 상기 부가 영상에서 발생한 딜레이를, 상기 기준 영상에 대해 보상하는 하이브리드 버퍼
를 포함하는 영상 수신 장치.
A video receiving apparatus comprising:
A first receiver for receiving a reference image through a first network communication network;
A second receiving unit for receiving an additional image through a second network communication network; And
A hybrid buffer for compensating a delay generated in the additional image according to communication conditions of the second network communication network with respect to the reference image,
And an image pickup device.
제1항에 있어서,
제1 네트워크 통신망 및 제2 네트워크 통신망 중 적어도 하나를 통해 수신한 미디어 동기화 정보를 기초로, 상기 부가 영상을 상기 기준 영상에 동기화하고;
상기 기준 영상 및 상기 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입하는 처리부
를 더 포함하는 영상 수신 장치.
The method according to claim 1,
Synchronize the additional image to the reference image based on media synchronization information received via at least one of the first network communication network and the second network communication network;
A processing unit for inserting the same presentation time stamp (PTS) into the reference image and the additional image,
Further comprising:
제2항에 있어서,
상기 처리부는,
상기 기준 영상 및 상기 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 상기 기준 영상 및 상기 부가 영상을 상기 프레젠테이션 타임 스탬프에 따라 처리하는,
영상 수신 장치.
3. The method of claim 2,
Wherein,
Processing the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video,
A video receiving apparatus.
제1항에 있어서,
상기 제2 수신부는,
상기 부가 영상을 저장하는 스트리밍 버퍼
를 포함하는 영상 수신 장치.
The method according to claim 1,
Wherein the second receiving unit comprises:
A streaming buffer
And an image pickup device.
제1항에 있어서,
상기 제1 수신부는,
상기 기준 영상에 대응하는 영상 기초 스트림을 저장하는 제1 비디오 버퍼;
상기 기준 영상에 따른 오디오 기초 스트림을 저장하는 오디오 버퍼;
상기 기준 영상을 상기 부가 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제1 동기화 버퍼; 및
상기 기준 영상에 대응하는 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제1 시스템 버퍼
를 포함하는 영상 수신 장치.
The method according to claim 1,
Wherein the first receiver comprises:
A first video buffer for storing an image elementary stream corresponding to the reference image;
An audio buffer for storing an audio elementary stream according to the reference image;
A first synchronization buffer for storing media synchronization information for synchronizing the reference image with the additional image; And
A first system buffer for storing system information on a program in a decoding process corresponding to the reference image,
And an image pickup device.
제5항에 있어서,
상기 제1 수신부는,
상기 영상 기초 스트림을 디코딩하는 제1 비디오 디코더;
상기 오디오 기초 스트림을 디코딩하는 오디오 디코더;
상기 제1 동기화 버퍼에 저장된 상기 미디어 동기화 정보를 디코딩하는 제1 동기화 디코더; 및
상기 제1 시스템 버퍼에 저장된 상기 시스템 정보를 디코딩하는 제1 시스템 디코더
를 더 포함하는 영상 수신 장치.
6. The method of claim 5,
Wherein the first receiver comprises:
A first video decoder to decode the video elementary stream;
An audio decoder for decoding the audio elementary stream;
A first synchronization decoder for decoding the media synchronization information stored in the first synchronization buffer; And
A first system decoder for decoding the system information stored in the first system buffer;
Further comprising:
제1항에 있어서,
상기 제2 수신부는,
상기 부가 영상에 대응하는 영상 기초 스트림을 저장하는 제2 비디오 버퍼;
상기 부가 영상을 상기 기준 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제2 동기화 버퍼; 및
상기 부가 영상에 대응하는, 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제2 시스템 버퍼
를 포함하는 영상 수신 장치.
The method according to claim 1,
Wherein the second receiving unit comprises:
A second video buffer for storing an image elementary stream corresponding to the additional image;
A second synchronization buffer for storing media synchronization information for synchronizing the additional image with the reference image; And
A second system buffer for storing system information for a program in a decoding process corresponding to the additional image,
And an image pickup device.
제7항에 있어서,
상기 제2 수신부는,
상기 부가 영상에 대응하는 상기 영상 기초 스트림을 디코딩하는 제2 비디오 디코더;
상기 제2 동기화 버퍼에 저장된 상기 미디어 동기화 정보를 디코딩하는 제2 동기화 디코더; 및
상기 제2 시스템 버퍼에 저장된 상기 시스템 정보를 디코딩하는 제2 시스템 디코더
를 더 포함하는 영상 수신 장치.
8. The method of claim 7,
Wherein the second receiving unit comprises:
A second video decoder for decoding the video elementary stream corresponding to the additional video;
A second synchronization decoder for decoding the media synchronization information stored in the second synchronization buffer; And
A second system decoder for decoding the system information stored in the second system buffer,
Further comprising:
제1항에 있어서,
상기 제1 네트워크 통신망은 방송망이고,
상기 제2 네트워크 통신망은 IP 통신망인,
영상 수신 장치.
The method according to claim 1,
Wherein the first network communication network is a broadcasting network,
Wherein the second network communication network is an IP communication network,
A video receiving apparatus.
제1항에 있어서,
상기 제1 수신부는,
상기 하이브리드 버퍼를 포함하는,
영상 수신 장치.
The method according to claim 1,
Wherein the first receiver comprises:
The hybrid buffer comprising:
A video receiving apparatus.
영상 수신 장치로서,
제1 네트워크 통신망을 통해 기준 영상을 수신하는 제1 수신부;
제2 네트워크 통신망을 통해 부가 영상을 수신하는 제2 수신부; 및
상기 기준 영상을 수신하기 전에 미리 상기 부가 영상을 저장하는 파일 버퍼
를 포함하는 영상 수신 장치.
A video receiving apparatus comprising:
A first receiver for receiving a reference image through a first network communication network;
A second receiving unit for receiving an additional image through a second network communication network; And
And a file buffer for storing the additional image in advance before receiving the reference image,
And an image pickup device.
제11항에 있어서,
상기 기준 영상 및 상기 부가 영상에 동일한 프레젠테이션 타임 스탬프 (PTS, presentation time stamp)를 삽입하는 처리부
를 더 포함하는 영상 수신 장치.
12. The method of claim 11,
A processing unit for inserting the same presentation time stamp (PTS) into the reference image and the additional image,
Further comprising:
제12항에 있어서,
상기 처리부는,
상기 기준 영상 및 상기 부가 영상이 단일한 스테레오스코픽 영상(stereoscopic video)으로 출력되도록, 상기 기준 영상 및 상기 부가 영상을 상기 프레젠테이션 타임 스탬프에 따라 처리하는,
영상 수신 장치.
13. The method of claim 12,
Wherein,
Processing the reference image and the additional image according to the presentation time stamp so that the reference image and the additional image are output as a single stereoscopic video,
A video receiving apparatus.
제11항에 있어서,
상기 제1 수신부는,
상기 기준 영상에 대응하는 영상 기초 스트림을 저장하는 제1 비디오 버퍼;
상기 기준 영상에 따른 오디오 기초 스트림을 저장하는 오디오 버퍼;
상기 기준 영상을 상기 부가 영상과 동기화하기 위한 미디어 동기화 정보를 저장하는 제1 동기화 버퍼; 및
상기 기준 영상에 대응하는 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제1 시스템 버퍼
를 포함하는 영상 수신 장치.
12. The method of claim 11,
Wherein the first receiver comprises:
A first video buffer for storing an image elementary stream corresponding to the reference image;
An audio buffer for storing an audio elementary stream according to the reference image;
A first synchronization buffer for storing media synchronization information for synchronizing the reference image with the additional image; And
A first system buffer for storing system information on a program in a decoding process corresponding to the reference image,
And an image pickup device.
제14항에 있어서,
상기 제1 수신부는,
상기 영상 기초 스트림을 디코딩하는 제1 비디오 디코더;
상기 오디오 기초 스트림을 디코딩하는 오디오 디코더;
상기 제1 동기화 버퍼에 저장된 상기 미디어 동기화 정보를 디코딩하는 제1 동기화 디코더; 및
상기 제1 시스템 버퍼에 저장된 상기 시스템 정보를 디코딩하는 제1 시스템 디코더
를 더 포함하는 영상 수신 장치.
15. The method of claim 14,
Wherein the first receiver comprises:
A first video decoder to decode the video elementary stream;
An audio decoder for decoding the audio elementary stream;
A first synchronization decoder for decoding the media synchronization information stored in the first synchronization buffer; And
A first system decoder for decoding the system information stored in the first system buffer;
Further comprising:
제11항에 있어서,
상기 제2 수신부는,
상기 부가 영상에 대응하는 영상 기초 스트림을 저장하는 제2 비디오 버퍼;
상기 부가 영상에 대응하는, 디코딩되는 과정에 있는 프로그램에 대한 시스템 정보를 저장하는 제2 시스템 버퍼
를 포함하는 영상 수신 장치.
12. The method of claim 11,
Wherein the second receiving unit comprises:
A second video buffer for storing an image elementary stream corresponding to the additional image;
A second system buffer for storing system information for a program in a decoding process corresponding to the additional image,
And an image pickup device.
제16항에 있어서,
상기 제2 수신부는,
상기 부가 영상에 대응하는 상기 영상 기초 스트림을 디코딩하는 제2 비디오 디코더; 및
상기 제2 시스템 버퍼에 저장된 상기 시스템 정보를 디코딩하는 제2 시스템 디코더
를 더 포함하는 영상 수신 장치.
17. The method of claim 16,
Wherein the second receiving unit comprises:
A second video decoder for decoding the video elementary stream corresponding to the additional video; And
A second system decoder for decoding the system information stored in the second system buffer,
Further comprising:
제11항에 있어서,
상기 제1 네트워크 통신망은 방송망이고,
상기 제2 네트워크 통신망은 IP 통신망인,
영상 수신 장치.
12. The method of claim 11,
Wherein the first network communication network is a broadcasting network,
Wherein the second network communication network is an IP communication network,
A video receiving apparatus.
제11항에 있어서
상기 제2 수신부는,
상기 파일 버퍼
를 포함하는 영상 수신 장치.
The method of claim 11, wherein
Wherein the second receiving unit comprises:
The file buffer
And an image pickup device.
KR20140011528A 2013-10-21 2014-01-29 Video reception unit to provide hybrid service based on transport stream system target decoder model KR20150045869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/512,533 US20150109413A1 (en) 2013-10-21 2014-10-13 Video reception apparatus to provide hybrid service based on transport stream system target decoder model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130125592 2013-10-21
KR20130125592 2013-10-21

Publications (1)

Publication Number Publication Date
KR20150045869A true KR20150045869A (en) 2015-04-29

Family

ID=53037698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140011528A KR20150045869A (en) 2013-10-21 2014-01-29 Video reception unit to provide hybrid service based on transport stream system target decoder model

Country Status (1)

Country Link
KR (1) KR20150045869A (en)

Similar Documents

Publication Publication Date Title
US8503541B2 (en) Method and apparatus for determining timing information from a bit stream
JP6302274B2 (en) Transmitting apparatus and receiving apparatus
EP2728858B1 (en) Receiving apparatus and receiving method thereof
JP2015119477A (en) Transmission method, reception method, transmission apparatus and reception apparatus
JP2022016498A (en) Transmission method and transmission device
US10334293B2 (en) Multiplexing apparatus, receiving apparatus, multiplexing method, and delay adjustment method
JP6617809B2 (en) Decoding device, decoding method, and decoding program
JP7200329B2 (en) Transmission method, reception method, transmission device and reception device
US20150109411A1 (en) Image playback apparatus for 3dtv and method performed by the apparatus
WO2015050175A1 (en) Receiving device and receiving method
US9854019B2 (en) Method and apparatus for modifying a stream of digital content
JP6593423B2 (en) Receiving device and decoding / presentation method
US20130250975A1 (en) Method and device for packetizing a video stream
US10700799B2 (en) Method and apparatus for broadcast signal transmission
KR20150045869A (en) Video reception unit to provide hybrid service based on transport stream system target decoder model
US20150109413A1 (en) Video reception apparatus to provide hybrid service based on transport stream system target decoder model
JP7012257B2 (en) Transmission method, reception method, transmitter and receiver
Yun et al. A hybrid architecture based on TS and HTTP for real-time 3D video transmission
KR20190101145A (en) The method and apparatus for multiplexing data for broadcast transmission for preventing error in a device that performs decoding the data
KR20190080539A (en) The method and apparatus for multiplexing broadcast signal transmission

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination