WO2013077629A1 - Transmitting and receiving apparatus for 3d tv broadcasting and method for controlling same - Google Patents

Transmitting and receiving apparatus for 3d tv broadcasting and method for controlling same Download PDF

Info

Publication number
WO2013077629A1
WO2013077629A1 PCT/KR2012/009872 KR2012009872W WO2013077629A1 WO 2013077629 A1 WO2013077629 A1 WO 2013077629A1 KR 2012009872 W KR2012009872 W KR 2012009872W WO 2013077629 A1 WO2013077629 A1 WO 2013077629A1
Authority
WO
WIPO (PCT)
Prior art keywords
additional
video
information
service
metadata
Prior art date
Application number
PCT/KR2012/009872
Other languages
French (fr)
Korean (ko)
Inventor
권형진
윤국진
임현정
이진영
이광순
정원식
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority claimed from KR1020120132306A external-priority patent/KR20130056829A/en
Publication of WO2013077629A1 publication Critical patent/WO2013077629A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the present invention relates to a 3DTV service, and more particularly, to a transmission and reception apparatus for 3DTV broadcasting and a control method thereof.
  • the 3D data may be transmitted using an extra bandwidth different from that of the existing transport channel, the receiver may store the transmitted 3D data, and then may provide 3D service in synchronization with the transmission of the real time broadcast stream.
  • the 3D additional content is transmitted in advance, while the receiver has to store all the entire files.
  • the additional 3D content is one file, so the entire file must be downloaded.
  • the present invention proposes a solution for providing 3D service in conjunction with an existing real-time broadcast stream even in a scenario in which additional content is transmitted in a streaming format as well as a file format. Furthermore, a signaling method for interworking two contents transmitted through different channels and a synchronization method for synchronizing the two contents on a frame basis will be described.
  • One embodiment of the present invention by providing additional content that requires a lot of bandwidth for the 3DTV service, by transmitting the data additionally necessary to the existing AV program through a network capable of bidirectional communication rather than a broadcasting network, 3D service will be provided when requested.
  • another embodiment of the present invention to provide additional data for the 3D service in the form of streaming content as well as a file through a bidirectional communication network.
  • it is intended to provide 3D broadcast linked service by receiving only necessary data through random access to additional content.
  • an interworking relationship between two video contents is additionally specified in order to link two contents which are transmitted through different channels and whose reception time is not the same.
  • a digital transmission apparatus for providing a 3D service using a plurality of different networks includes: a first encoder for encoding a reference video into a preset first format; A multiplexer for multiplexing metadata and the encoded reference video, a first transmission module for transmitting the multiplexed data to a digital receiver through a unidirectional first network, and encoding the additional video in a preset second format And a second transmission module for transmitting the encoded additional video to the digital receiver through a second encoder and a bidirectional second network, wherein the metadata is additional video transmitted through the bidirectional second network. Corresponds to the information needed to process.
  • a digital transmission apparatus for providing a 3D service using a plurality of different networks includes: a first encoder for encoding a reference video into a preset first format; Media paring information (media paring information) for the synchronization of the reference video and the multiplexer for multiplexing the encoded reference video (the media pairing information, a time code (frame code) to selectively define) And a first transmission module for transmitting the multiplexed data to a digital receiver through a unidirectional first network, a second encoder for encoding the additional video into a second predetermined format, and a bidirectional second And a second transmission module for transmitting the encoded additional view video to the digital receiver through a network.
  • a digital receiving apparatus for providing a 3D service using a plurality of different networks may include: a first receiving a metadata for an additional view and an encoded reference view through a unidirectional first network; A communication interface module (the reference image is encoded in a first format), a demultiplexer for demultiplexing the received metadata and the encoded reference image, a decoder for decoding the encoded reference image, and the metadata A second communication interface module for receiving the additional video using the metadata, the metadata including information necessary for processing the additional video transmitted through the bidirectional second network, and the processed reference video and the additional video. Based on the controller, the controller providing the 3D service.
  • the digital receiving apparatus for providing 3D service using a plurality of different networks provides a method for synchronizing an additional view video with a reference view video through a unidirectional first network.
  • a first communication interface module for receiving media paring information and an encoded reference video (the media pairing information is included in a packetized elementary stream (PES), and the media pairing information is a time code). Or depacketizing a frame number), a demultiplexer for demultiplexing the media pairing information and the encoded reference video included in the PES, and a PES including the media pairing information.
  • PES packetized elementary stream
  • a PES parsing module configured to receive the additional view video, and a controller to provide a 3D service based on the obtained media pairing information, the decoded reference video, and the additional view.
  • a reference relationship and synchronization information between two contents are added, and stand alone through two contents.
  • interlocked services can be provided that synchronize frame to frame. Accordingly, in order to configure 3D video, a specific signaling technique and a synchronization technique for providing a 3D service by interworking a base view video of a real-time broadcast and an additional view video stream transmitted in a different channel from the base view are defined.
  • FIG. 1 is a block diagram illustrating a method of interlocking contents of a 3DTV service according to an exemplary embodiment of the present invention.
  • FIG. 2 is a block diagram of a transmitting device for a 3DTV hybrid linked service according to an embodiment of the present invention.
  • FIG. 5 is a block diagram of a receiving apparatus for a 3DTV hybrid linked service according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating the transmission apparatus shown in FIG. 2 in more detail.
  • FIG. 7 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a real-time broadcasting service is provided among 3DTV hybrid services.
  • FIG. 8 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a download broadcast service is provided among 3DTV hybrid services.
  • FIG. 9 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a VOD service is provided among 3DTV hybrid services.
  • FIG. 10 is a diagram illustrating the receiving apparatus illustrated in FIG. 5 more briefly.
  • FIG. 1 is a block diagram illustrating a method of interlocking contents of a 3DTV service according to an exemplary embodiment of the present invention.
  • the reference video is transmitted to the real-time broadcast program and the additional video is transmitted in a streaming form through a separate broadcast network or communication network due to the limitation of the bandwidth, so in order to link the two contents (base video, additional video) Synchronization is required.
  • synchronization information to be commonly applied to the base video and the additional video should be included.
  • additional content additional video, additional view
  • the synchronization information is generated through the metadata generator 102 from the start point of encoding of the reference content.
  • the synchronization information is sufficient to synchronize any two contents.
  • the basic video (basic content) is encoded by the basic content encoder 101, and the broadcast stream multiplexer 103 multiplexes the encoded elementary stream and metadata stream. .
  • the synchronization information may be a frame number indicating a specific frame position of the content or may be a time code according to a certain time unit.
  • the synchronization information may be included in, for example, an MPEG-2 video stream, or may be included in a private data section of an MPEG-2 PES header, or may be defined as a separate new stream and have a separate PID. It may be transmitted in the form of a packet.
  • the period in which the synchronization information is generated is an integer multiple of the coding unit (access unit, AU) of the reference content (basic content).
  • the PES packet including the synchronization information indicates an AU PES that encodes a frame to which reference is made. stamp) to have the same PTS value.
  • synchronization information is generated similarly to the above description.
  • the content of the synchronization information should be the same as the content when the frame corresponding to the reference content (basic content) is generated.
  • the additional video is encoded in the additional content encoder 104
  • the synchronization information is generated in the metadata generator 105
  • the multiplexing and streaming generator 106 Multiplexes the encoded elementary stream and metadata stream.
  • the synchronization information may not be necessary when the additional content is transmitted and stored in advance in the form of a file than the real-time reference content, but is required when the additional content is transmitted in the streaming form. This is because, when the streaming content is broadcasted or multicasted through a communication network, the reception time of the interlocked content is different from the broadcast stream including the reference content. Therefore, the synchronization information must be used for inter-frame synchronization of the interlocked content in the currently received streaming stream. Because it is necessary. In particular, as shown in FIG. 1, synchronization information is necessary to find the first position of the associated additional content when several programs are continuously streamed instead of one program.
  • This design has the added advantage of not having to use unicast in terms of services on the network. That is, the initial entry delay can be reduced compared to the unicast method of streaming content so that each terminal (receiver, receiver) has a different starting position, and the overall network traffic is reduced because there is no need to transmit streams point-to-point. have.
  • the multiplexing illustrated above may vary depending on the streaming protocol used.
  • the time stamp used to synchronize audio-video in that protocol can be used to synchronize metadata and additional content.
  • multiplexing may provide synchronization of metadata and additional content in a streaming service, and after multiplexing, the metadata stream may be transmitted as a separate URL from the additional content stream.
  • FIG. 2 is a block diagram of a transmitting device for a 3DTV hybrid linked service according to an embodiment of the present invention.
  • the broadcast content is composed of basic content delivered through a broadcasting network and additional content delivered through a different network from a channel through which the basic content is transmitted.
  • the basic content is generated in the content server 201 and encoded in the basic content encoder 202.
  • the signaling information and metadata generated by the signaling information and metadata generator 203 are transmitted to the broadcast stream multiplexer 204.
  • the broadcast stream multiplexer 204 multiplexes at least one or more of encoded basic content, signaling information, or metadata.
  • the multiplexed data is broadcasted to the broadcast network 206 through the transmitter 205.
  • reference information (ex: streaming content access URI, etc.) related to additional content linked to metadata of a program including basic content and synchronization information for linking the two contents are also broadcasted to the receiver.
  • the additional content generated by the content server 201 is encoded by the additional content encoder 207, and the metadata generator 208 generates metadata.
  • the multiplexing and streaming generator 209 multiplexes the encoded additional content and metadata, and converts the encoded additional content and metadata into information for streaming.
  • the protocol processor 210 packetizes the converted information in accordance with a preset protocol and transmits the packetized information to the bidirectional communication network 211.
  • the metadata includes, for example, information for a coordinated service (access information on basic content in additional content, synchronization information identical to the basic content, and the like).
  • the additional content may be delivered to the digital receiver in a push or pull manner according to a service type.
  • additional content synchronized to a real-time broadcasting service may be delivered in a push form to a receiver subscribed to a 3DTV linked service in a multicast form.
  • the service may be provided in a pull form in response to the additional content.
  • the push or pull method described above is intended to help the understanding of the present invention, and does not limit the scope of the right.
  • the base content (reference content, base video, base view, base stream) used in the present specification may correspond to content transmitted through a broadcasting network and reproduced by a legacy broadcast receiver.
  • additional content may correspond to content transmitted in conjunction with the basic content and transmitted through another channel or network.
  • additional content may correspond to content transmitted in conjunction with the basic content and transmitted through another channel or network.
  • the basic content includes, for example, multimedia data such as still images, moving images, and CG, texts, and the like, and each data is prepared in the content server 201 and delivered to the basic content encoder 202 in accordance with a delivery schedule.
  • Each data is encoded in a predetermined manner and output in the form of an elementary stream.
  • Such elementary streams form one program and a plurality of programs are formed and transmitted as one transport stream through a multiplexer.
  • data including type and configuration information of each program provided by each service should be transmitted.
  • Such data is transmitted to the receiver in the form of a table separate from the above-described transport stream.
  • data is generated by the signaling information and metadata generating unit 203, and includes a meta data about a program including access information about additional content for 3DTV service and interworking reproduction information (synchronization information, etc.) with the additional content. Information is newly defined and included.
  • the access information for the additional content means a URL (Uniform Resource Location) or URI (Uniform Resource Identifier) assuming an IP network as starting access information required for the receiver to receive the additional content.
  • the access information may be location information of a direct streaming server and content or location information of a meta file having information for setting parameters for content streaming.
  • the interworking reproduction information between the basic content and the additional content is information necessary for synchronizing and playing the two contents on a frame-by-frame basis. It is configured in such a way as to specify the location (AU). To implement this, at least one of a frame number or a time code for calculating the frame number may be used. As another embodiment, the coordinated reproduction information may be inserted in the header of the packetized elementary stream when multiplexing the elementary stream other than the signaling information and the metadata generator 203.
  • the broadcast stream multiplexer 204 multiplexes encoded content data streams and tables containing service related information. In this case, when metadata including synchronization information is input as a separate elementary stream, the same PTS as the PES encoding the AU of the referenced basic content should be added. Finally, the transmission unit 205 transmits through a broadcast channel through channel encoding, modulation, and the like.
  • the additional content is delivered in a file or streaming form.
  • the additional content is also transmitted from the content server 201 to the additional content encoder 207 according to a service schedule, encoded, and output to the multiplexing and streaming generator 209.
  • the output is in the form of a stream such as TS or wrapped in a specific file format.
  • the encoder 207 may output a plurality of streams according to an encoding rate in order to improve reproduction stability of a receiver connected to the bidirectional communication network 211.
  • the metadata generator 208 defines the access information and the coordinated reproduction information as new metadata so as to access the broadcast program linked from the additional content as the new metadata.
  • the multiplexing and streaming generation unit 209 receives metadata information for interworking with the encoded additional content and, as described above with reference to FIG. 1, adds a PTS or a timestamp having such a function to synchronize two streams. Multiplex, also convert to information for streaming and generate payload of streaming packets.
  • the protocol processor 210 is in charge of processing a protocol used for streaming, that is, generates and transmits a packet according to a protocol stack, or receives and interprets a packet.
  • the protocol processor 210 receives a streaming request from a client (receiver, receiver)
  • the multiplexing and streaming generator 209 receives stream data and generates and transmits a packet.
  • the corresponding transmission packet is retransmitted.
  • data generated by the streaming generator 209 is transmitted to set a streaming environment.
  • the transmission process takes place in the control channel if the logical channel for data and control is set aside.
  • the streaming packet is transmitted.
  • the meta data which is related information is transmitted before the encoding data of the additional content, and then the media data is transmitted.
  • the metadata includes not only information necessary for playing content at the receiver, but also related information for an interlocking service added for the present invention.
  • the encoded data stream is transmitted from the time point at which the content requested from the client is played. If there is a retransmission request for both the metadata and the additional content data, it is retransmitted.
  • a client when a client receives a stream with a different encoding rate from the client, it switches to that stream and sends it.
  • it is also possible to divide the data-encoding stream into base and enhanced layers and transmit them to different ports (logical channels), especially to support the bandwidth of various clients in push services.
  • the linked content information and the synchronization information for accessing the linked content are conceptually required. Therefore, as an embodiment for expressing this, the former is described in the form of a reference information descriptor (see FIG. 3 below), and the latter is described in a synchronization information structure (see FIG. 4 below).
  • the presentation form is not necessarily limited to this and can be flexibly changed depending on the application.
  • the linked content information is divided into access information for additional content and access information for basic content according to the displayed content.
  • the former is a Virtual Map Table (VCT), an Event Information Table (EIT) and MPEG-2 Transport Stream (TST) Program Specific Information (PMT) information of the Program and System Information Protocol (PSIP) of a real-time broadcast stream. It can also be located inside the.
  • VCT Virtual Map Table
  • EIT Event Information Table
  • TST MPEG-2 Transport Stream
  • PMT Program Specific Information
  • PSIP Program and System Information Protocol
  • the reference information descriptor includes at least one of the number of contents to be linked included in the descriptor, URL information of the contents to be linked, and the type of contents to be linked.
  • the content may be an elementary stream in the form of a file or streaming.
  • descriptor_tag of FIG. 3 identifies that the descriptor is a reference information descriptor of the linked content.
  • descriptor_length represents the length of the corresponding descriptor.
  • linkage_content_number represents the number of content to be linked included in the descriptor.
  • wakeup_time represents the start time of the linked content.
  • URI information for accessing content linked through a streaming service is required. Since the URI information has a variable length, the URI information includes the length of the URI information of the content to be linked through linkage_content_URI_length and indicates the URI information of the content to be linked with the corresponding stream with linkage_content_URI.
  • URI information can be in various forms depending on the protocol used. Some examples are: In case of HTTP streaming, it is a server address and content name. In case of multicast, it is a multicast IP address. In case of RTP streaming, it is an IP address and a port number of a streaming server. In addition, if metadata including synchronization information is delivered in a separate stream from the additional content, URI information (linkage_metadata_URL) is additionally required to access the metadata.
  • the linkage_content_type illustrated in FIG. 3 means a type of additional content to be linked with the basic content.
  • the additional content to be used for the 3DTV service is defined as, for example, an MPEG-2 TS type. Since the additional content is composed of an elementary stream in the TS, the additional content also includes the ts_id and elementary_pid of the TS including the interlocked content to indicate its access.
  • the embodiment mainly describes the case of stereoscopic video, but may be extended to multiview video or other types of linked services.
  • the descriptor of FIG. 3 may also be used to refer to the basic content in the MPEG-2 TS including the additional content. In this case, the descriptor is changed to information for accessing the basic content instead of the additional content. .
  • FIG. 4 defines syntax of pairing information according to an embodiment of the present invention.
  • the data structure shown in FIG. 4 may correspond to synchronization information, synchronization information, and the like described in the previous drawings.
  • the scope of the present invention is not limited to including all the fields defined in FIG. 4, and addition / modification / deletion of some fields is also included in the scope of the present invention as required by those skilled in the art.
  • the identifier field shown in FIG. 4 means that timing information is included after the synchronization information identifier.
  • the linked content exists as much as the value of linkage_content_number, and in order to distinguish each of the contents, the value of content_index_id is used in the sync information (pairing information) of FIG. 4.
  • content_index_id is defined as 1, and this value is increased by 1 whenever the for loop is operated again.
  • sync_information illustrated in FIG. 4 selectively defines a frame number or time code value as a kind of marker (display) for finding a playback time for linking the basic content with the additional content.
  • FIG. 5 is a block diagram of a receiving apparatus for a 3DTV hybrid linked service according to an embodiment of the present invention.
  • the receiving device receives a portion (first part) for receiving basic content delivered through a broadcasting network and a portion for requesting and receiving additional content delivered through a channel or network different from the broadcasting network (second part). Part) and a part (third part) providing a service by interworking two contents.
  • the reception processor 501 shown in FIG. 5 performs RF signal reception, demodulation, channel decoding, and the like, and simultaneously extracts a service selected by a user from a multiplexed stream.
  • the basic content received through the reception processor 501 is decoded in a predetermined manner by the basic content decoder 508.
  • the signaling information and metadata analyzing unit 502 determines whether there is a service linked with the broadcast program, and delivers the described coordinated service and additional content information to the service manager 503.
  • the service manager 503 initiates connection with a transmission device for obtaining additional content so as to configure a broadcast program linked service (3DTV service), and manages a service configured through the content if the content is available. Meanwhile, configuration information of the service may be obtained from metadata or signaling information transmitted to a broadcasting network or a communication network.
  • the coordinated reproduction information of the additional content may be obtained from the signaling information and metadata analyzing unit 502 or the receiving processing unit 501, and this information is transmitted to the synchronization unit 504.
  • the protocol processor 505 generates the additional content request in the form of a packet using the additional content access information received from the service manager 503 and transmits the additional content request to the streaming server.
  • Access to the additional content can be accessed to the streaming server using linkage_content_URI or linkage_content_type and the like can exchange messages for joining the group containing the additional content when the additional content is multicasted from the streaming server.
  • the protocol processor 505 may transmit control information requesting retransmission when the received packet has an error.
  • the payload of the packet without an error is delivered to the streaming recovery unit 506.
  • the streaming decompression unit 506 checks and sets parameters for decoding and playing additional content to create a streaming and playback environment.
  • the encoding rate may be determined from the metadata for setting the streaming environment sent by the server, or information may be transmitted to the server so that the server determines the encoding rate. Thereafter, the received content data stream is transferred to the additional content decoder 507.
  • the streaming recovery unit 506 may determine that the reception of the content data stream is delayed or is received at a too low rate due to a change in network traffic, and may request an encoded stream having a different data rate from the streaming server according to the traffic. This can be determined by the input rate and playback rate of the buffer.
  • the basic content constituting the broadcast program is reproduced in real time in the same manner as the operation in the legacy receiver, and additionally, additional content is played in association.
  • the synchronizer 504 searches for the corresponding frame in order to synchronize and reproduce the additional content linked to the basic content on a frame-by-frame basis. This is necessary to find that both content_index_id and sync_information information included in the synchronization information (eg, FIG. 3 or FIG. 4) transmitted by multiplexing the two contents are matched.
  • the frame position of the additional content synchronized to the basic content may be obtained from the synchronization information (for example, FIG. 3 or FIG. 4), and the server may be requested to stream from this position.
  • the synchronization unit 504 sends a request control signal to the streaming recovery unit 506.
  • the renderer 509 may decode the two pieces of content decoded by the additional content decoder 507 and the basic content decoder 508 using pairing information and synchronization information received from the synchronization unit 504. Synthesize the image to render and output the data for the 3D service.
  • the transmission device encodes a reference video using the first encoder.
  • the first encoder may correspond to the basic content encoder 202 shown in FIG. 2.
  • the transmitting apparatus multiplexes the metadata for the additional view video and the encoded reference video view. This may be performed by the broadcast stream multiplexer 204 shown in FIG. 2.
  • the transmitting device transmits the multiplexed data to the digital receiver through a unidirectional first network (for example, the broadcasting network 206 or the ground network channel shown in FIG. 2). This may be performed by the transmitter 205 shown in FIG.
  • the transmission device encodes the additional video using a second encoder.
  • the second encoder may correspond to the additional content encoder 207 shown in FIG. 2.
  • the receiving device transmits the encoded additional image to the digital receiver through a bidirectional second network (for example, the bidirectional communication network 211 or the IP network shown in FIG. 2). This may be performed by the protocol processor 210 shown in FIG. 2.
  • a bidirectional second network for example, the bidirectional communication network 211 or the IP network shown in FIG. 2.
  • the metadata may include, for example, first information indicating a number associated with the additional video, second information identifying a type of a file or a stream of the additional video, and a URI length for a service associated with the additional video.
  • Third information and fourth information defining a URI byte for a service related to the additional video.
  • the first information corresponds to the linked content number field shown in FIG. 3
  • the second information corresponds to the linked content type field shown in FIG. 3
  • the third information is linked to FIG. 3. corresponds to the content URI length field
  • the fourth information corresponds to the linked URI byte field shown in FIG. 3.
  • the first information is designed to identify the number of points for accessing the additional video associated with the reference video, for example.
  • the third information indicates a URI length of a file corresponding to the additional video.
  • the third information may be a streaming service. Indicates the length of the URI.
  • the fourth information includes, for example, URI information for each file constituting the additional video when the service is an additional video file download broadcast service, and when the service is an additional video streaming broadcast service, the reference URI information for receiving the entire stream for interworking between the video and the additional video is displayed.
  • the above-described metadata further includes fifth information indicating a service start time associated with the additional view video.
  • the fifth information corresponds to, for example, the wakeup time field shown in FIG. 3.
  • the metadata means additional information necessary for processing additional video provided through, for example, an IP network, and may further include information for receiving and 3D playing the additional video provided through a network server.
  • the service start time corresponds to start time information of an additional video file, and corresponds to start time information of a program when the additional video is provided as a streaming service.
  • subtitle information among the auxiliary data is encoded by the first encoder (basic content encoder 202 of FIG. 2) together with the bit stream of the reference video before multiplexing of the multiplexer 204 shown in FIG. 2.
  • signaling section information of the auxiliary data is multiplexed together with the metadata without passing through the first encoder (basic content encoder 202 of FIG. 2).
  • the auxiliary data refers to data related to, for example, access control and closed captioning.
  • the reference image and the additional image are synchronized in units of frames at the same time.
  • the transmission device encodes a reference video using the first encoder.
  • the first encoder may correspond to the basic content encoder 202 shown in FIG. 2.
  • the multiplexer of the transmitting apparatus multiplexes the media paring information and the encoded base view video for synchronization of the additional view video with the base view video.
  • the multiplexer may correspond to the broadcast stream multiplexer 204 shown in FIG. 2.
  • the media pairing information selectively defines a time code or a frame number. For example, some of the data shown in FIG. 4 may be used.
  • the transmitting device transmits the multiplexed data to the digital receiver through a unidirectional first network (for example, the broadcasting network 206 shown in FIG. 2). This may be designed to be performed by the transmitter 205 shown in FIG.
  • the transmission device encodes the additional video using a second encoder.
  • the second encoder may correspond to the additional content encoder 207 shown in FIG. 2.
  • the transmitting device transmits the encoded additional video to the digital receiver through a bidirectional second network (for example, the bidirectional communication network 211 shown in FIG. 2).
  • a bidirectional second network for example, the bidirectional communication network 211 shown in FIG. 2. This may be designed to be performed by the protocol processor 210 shown in FIG. 2.
  • the media pairing information (for example, FIG. 4) is defined at a packetized elementary stream (PES) level. Therefore, there is an advantage that can increase the efficiency of data transmission.
  • PES packetized elementary stream
  • the transmission device may be designed to further transmit an event information table (EIT) including a linkage information descriptor that defines reference information of the additional video.
  • EIT event information table
  • the reference information descriptor is included in a descriptor loop for each event in the EIT.
  • the reference information descriptor may be implemented using some or all of the syntax defined in FIG. 3.
  • the reference information descriptor may include, for example, first information indicating a number associated with the additional video (ex: linked content number in FIG. 2), and second information ex indicating a URI length for a service related to the additional video.
  • FIG. 2 includes linked information URI length of FIG. 2 and third information (eg: linked URI byte of FIG. 2) that defines a URI byte for a service related to the additional view video.
  • the first information identifies the number of points for accessing the additional video associated with the reference video.
  • the second information indicates a URI length of a file corresponding to the additional video when the service is an additional video file download broadcast service, and indicates a URI length for a streaming service when the service is an additional video streaming broadcast service. Display.
  • the third information includes URI information for each file constituting the additional video when the service is an additional video file download broadcasting service, and when the service is an additional video streaming broadcast service, the reference video and the URI information for receiving the entire stream for interworking between additional images is displayed.
  • the additional video is a file format or a streaming format, and furthermore, whether the additional video is transmitted in real time or non-real time, the basic video and additional video for 3DTV service There is a technical effect of pairing images.
  • FIGS. 6 to 12 will be described below with reference to the contents of FIGS. 1 to 5 described above. Those skilled in the art may infer or interpret FIGS. 6-12 with reference to the previous figures.
  • FIG. 6 is a diagram illustrating the transmission apparatus shown in FIG. 2 in more detail.
  • Elements constituting the 3D broadcast program include a 3D image, an audio signal, and auxiliary data
  • the 3D image basically includes a left image and a right image.
  • the left video and the right video are divided into independent video elementary streams of the reference video and the additional video, respectively.
  • the auxiliary data includes caption information, program / channel signaling section data, and the like.
  • the caption information is transmitted together with the bitstream of the reference video signal, and the signaling section data is transmitted through multiplexing.
  • the reference video is transmitted through the terrestrial channel, and the additional video is transmitted through the IP network.
  • the 3D content server 601 generates an audio signal and a reference video signal. As shown in FIG. 6, the additional video signal may be generated by the 3D content server 601 or may be generated from another device. The additional video signal will be described later.
  • the sound signal generated by the 3D content server 601 is encoded by the sound signal encoder 602, and the reference video signal is encoded by the reference video encoder 603.
  • the reference image encoder 603 may be designed to additionally encode some of the auxiliary data described above.
  • the program multiplexer 604 multiplexes two data encoded by the audio signal encoder 602 and the reference image encoder 603, and the channel multiplexer 605 multiplexes the data and channel multiplexed by the program multiplexer 604. Multiplex the multiplexed information and metadata for additional video.
  • the final data multiplexed by the channel multiplexer 605 is transmitted to the receiver 650 through the terrestrial channel transmitter 606.
  • Embodiments related to transmission of the additional video signal briefly described above can be classified into three types.
  • the additional video signal generated by the 3D content server 601 is encoded by the additional video encoder 607 in real time.
  • the above embodiment is suitable for a hybrid 3DTV real-time broadcasting service and a more detailed processing method will be described with reference to FIG. 7 below.
  • the additional video signal generated by the 3D content server 601 is encoded by the additional video encoder 608 in non real time.
  • Another embodiment of the present invention is suitable for a hybrid 3DTV download and playback service and a detailed processing method will be described with reference to FIG. 8 below.
  • an additional video signal generated by a device other than the 3D content server 601 is transmitted to the receiver directly through the additional video VOD server 609 in non real time.
  • Another embodiment of the present invention is suitable for a hybrid 3DTV VoD service and a detailed processing method will be described with reference to FIG. 9.
  • the additional video signals encoded by the additional video encoders 607 and 608 are transmitted to the receiver 650 through the streaming web server 610.
  • a switching module 611 is additionally designed for selecting at least two paths. However, omitting the switching module 611 according to the needs of those skilled in the art is also within the scope of the present invention.
  • FIG. 7 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a real-time broadcasting service is provided among 3DTV hybrid services.
  • a hybrid 3DTV real-time broadcast service will be described with reference to FIG. 7.
  • the 3D content server 702 processes the left image and the right image separately.
  • the left picture (base picture) is encoded by the MPEG-2 encoder 703 and then passed to the TS multiplexer 704.
  • the TS multiplexer 704 multiplexes the metadata generated by the PSIP generation unit 705 and the encoded left image (base image), and transmits the TS multiplexer to the receiver through a broadcasting network in a TS form.
  • the metadata will not be duplicated since it has been sufficiently described in the previous drawings.
  • the right image (additional image) is encoded by the streaming encoder 706 and then transmitted to the receiver by the streaming web server 707. Unlike the transmission of the left image, the transmission of the right image uses a two-way IP network.
  • an embodiment of the present invention is applicable to a hybrid 3DTV real-time broadcasting service.
  • FIG. 8 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a download broadcast service is provided among 3DTV hybrid services.
  • a hybrid 3DTV download and playback service will be described with reference to FIG. 8.
  • the left content server 802 transmits a left image (basic image) to the MPEG-2 encoder 803.
  • the first controller 801 is used for the left image.
  • the TS multiplexer 805 multiplexes the metadata generated by the PSIP generation unit 804 and the encoded left image (base image), and transmits the TS multiplexer to the receiver through a broadcasting network in a TS form.
  • the metadata will not be duplicated since it has been sufficiently described in the previous drawings.
  • the light content server 807 transmits the right image (additional image) to the streaming encoder 808.
  • the second controller 806 is used for the light image.
  • the streaming web server 809 transmits the right image to the receiver through a two-way IP network. Unlike the transmission of the left image, the streaming web server 809 uses an two-way IP network. Is applicable to hybrid 3DTV download and playback services.
  • FIG. 9 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a VOD service is provided among 3DTV hybrid services.
  • a hybrid 3DTV Video On Demand (VoD) service will be described with reference to FIG. 9.
  • the left content server 902 transmits the right image to the MPEG-2 encoder 903.
  • the TS multiplexer 905 multiplexes the metadata generated by the PSIP generation unit 904 and the encoded left image (base image), and transmits the TS multiplexer to a receiver through a broadcasting network in a TS form.
  • the metadata will not be duplicated since it has been sufficiently described in the previous drawings.
  • the right image (additional image) is transmitted to the receiver through the light VOD server 906.
  • the transmission of the right image uses a two-way IP network, so that an embodiment of the present invention is applicable to a hybrid 3DTV VOD service.
  • FIG. 10 is a simplified view of the receiving device shown in FIG. 5.
  • the reception apparatus includes, for example, a reference image processing part 1010, an additional image processing part 1020, a data processor 1030, a display module 1040, and the like.
  • the reference image processing part 1010 further includes a PSI / PSIP decoder 1011, a PES parsing module 1012, a first video decoder 1013, and the like.
  • the reference image processing part 1010 generates a reference image of the 3D service by performing demultiplexing and decoding on the real-time reference image stream received in real time.
  • the PSI / PSIP decoder 1011 extracts a PSI / PSIP stream included in a real time reference video stream.
  • the PSI / PSIP decoder 1011 extracts PES packets, synchronization information streams, interworking information, etc. related to the reference video by using configuration information and pairing descriptors of the reference video stream and the synchronization information stream.
  • the PES packet related to the reference image is transmitted to the PES parsing module 1012, and pairing information is transmitted to the reception / storage module 1021 of the additional image processing part 1020 under the control of the controller 1050.
  • Configuration information of the reference video stream and the synchronization information stream is included in, for example, a Program Map Table (PMT).
  • PMT Program Map Table
  • the PSI / PSIP decoder 1011 analyzes a descriptor of the PMT and identifies whether the corresponding video is a reference video or an additional video, and whether the corresponding video is a left / right video.
  • the PES parsing module 1012 receives a PES packet related to the reference video from the PSI / PSIP decoder 1011 and also generates a reference video stream composed of the video ES by parsing the PES packet. That is, the PES parsing module 1012 configures the reference video stream as a video ES based on the PES packet, and when the values of the Decoding Time Stamp (DTS) and the Program Clock Reference (PCR) are the same as the existing broadcast standard, the first video Transmit to decoder 1013.
  • the reference video stream may be an MPEG-2 video stream.
  • the stream including the synchronization information may also be processed by the PES parsing module 1012 or a separate PES parsing module.
  • the additional image processing part 1020 may include a reception / storage module 1021, a file / stream parsing module 1022, and a second video decoder 1023.
  • the additional image processing part 1020 generates an additional image by receiving and decoding a stream or a file related to the additional image that provides a 3D service in association with the reference image.
  • the additional video stream or additional video file is received and stored in the reception / storage module 1021.
  • the stream can be decoded immediately without being received and stored in real time, and the file is received in advance and stored in the form of a file.
  • the reception / storage module 1021 receives the interworking information (pairing information, etc.) through the PSI / PSIP decoder 1011 and the controller 1050 and receives a stream or file indicated by the interworking information and receives the received additional video stream. Or matches a file.
  • the file / stream parsing module 1022 receives the file or stream identification information and the synchronization information from the PES parsing module 1012 and the controller 1050 of the reference image processing part 1010, and then matches an additional image that matches the reference image. Parse a file or stream into video ES. Then, it is transmitted to the second video decoder 1023.
  • the file / stream parsing module 1022 parses the synchronization information to synchronize with the reference video, and then decodes the corresponding additional video at a time point when the reference video is decoded (extracted in consideration of DTS). Is transmitted to the second video decoder 1023. At this time, some of the syntax shown in FIG. 3 or FIG. 4 may be used, and this also belongs to the scope of the present invention.
  • the second video decoder 1023 generates the additional video by receiving and decoding the additional video stream or the video ES type stream generated based on the file from the file / stream parsing module 1022.
  • the data processor 1030 based on the reference image received from the first video decoder 1013 of the reference image processing part 1010 and the additional image received from the second video decoder 1023 of the additional image processing part 1020.
  • a 3D image is configured and output through the display module 1040.
  • FIG. 10 Another embodiment of a digital receiving apparatus for providing 3D services using a plurality of different networks shown in FIG. 10 will be described as follows.
  • the first communication interface module receives metadata for the additional view video and the encoded reference video via the first unidirectional network.
  • the reference picture is encoded, for example, in a first format.
  • the demultiplexer demultiplexes the received metadata and the encoded reference picture.
  • the PSI / PSIP decoder shown in FIG. 10 may be designed to perform the functions of the first communication interface module and the demultiplexer.
  • the decoder decodes the encoded reference video.
  • the function of the decoder may be designed to be performed by the first video decoder 1013 illustrated in FIG. 10.
  • the second communication interface module receives the additional video by using the metadata.
  • the metadata includes, for example, information necessary for processing an additional video transmitted through a bidirectional second network.
  • the function of the second communication interface module may be designed to be performed by the reception / storage module 1021 shown in FIG. 10.
  • the controller provides a 3D service based on the processed reference image and the additional image.
  • the controller may be designed to perform a function of the controller in the data processor 1030 illustrated in FIG. 10.
  • FIG. 10 another embodiment of a digital receiving apparatus for providing 3D service using multiple different networks will be described in detail as follows.
  • the first communication interface module receives media paring information and encoded reference picture for synchronizing the additional view video with the reference view video through the unidirectional first network.
  • the media pairing information is included in a packetized elementary stream (PES), and the media pairing information selectively defines a time code or a frame number. The media pairing information will be omitted as described above sufficiently.
  • PES packetized elementary stream
  • the demultiplexer demultiplexes the media pairing information and the encoded reference picture included in the PES.
  • the PSI / PSIP decoder 1011 of FIG. 10 may be designed to perform the functions of the first communication interface module and the demultiplexer.
  • the PES parsing module 1012 depacketizes the PES including the media pairing information.
  • the first video decoder 1013 decodes the encoded reference video.
  • the second communication interface module receives the additional video via the bidirectional second network.
  • the second communication interface module may correspond to the reception / storage module 1021 of FIG. 10.
  • the controller is designed to provide a 3D service based on the depacketized media pairing information and the decoded reference video and the additional video.
  • the controller may be designed to correspond to the data processor 1030 of FIG. 10.
  • the first communication interface module receives an event information table (EIT) including a linkage information descriptor that defines reference information of the additional video, wherein the reference information descriptor is configured for each event in the EIT. It is included in the descriptor loop.
  • EIT event information table
  • the linkage information descriptor has been fully described above with reference to FIG. 3.
  • the method of operating the electronic device of the present invention may be embodied as processor readable code on a processor readable recording medium included in the electronic device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. .
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

The present invention relates to 3D video service linked with a broadcasting program. For example, the present invention specifically defines a signaling description method and a synchronization method for providing a 3D service by linking basic broadcast content with supplementary content transmitted through a network capable of two-way communication.

Description

3DTV 방송을 위한 송수신 장치 및 그 제어 방법Transceiver and control method for 3DTV broadcasting
본 발명은 3DTV 서비스에 관한 것으로서, 보다 상세하게는 3DTV 방송을 위한 송수신 장치 및 그 제어 방법에 관한 것이다.The present invention relates to a 3DTV service, and more particularly, to a transmission and reception apparatus for 3DTV broadcasting and a control method thereof.
최근의 3D 기술 현황과 관련하여, 보다 더 생동감 있는 장면을 보여주기 위해서 깊이감이 더해진 영상물, 또는 시점에 자유도를 줄 수 있는 서비스에 대한 요구가 증대되고 있다.In relation to the current state of 3D technology, there is an increasing demand for a video object with a sense of depth, or a service capable of giving a degree of freedom to a viewpoint in order to show a more lively scene.
한편, 방송망을 통해 3D 콘텐츠를 전송하기 위해서는 기존의 2차원 AV 프로그램보다 많은 대역폭이 필요할 것으로 예상된다. 이와 같은 대용량의 3D 콘텐츠를 전송하기 위한 일방안으로서, 기존 2차원 AV 프로그램에 부가되는 3D 데이터를 미리 전송하는 기술이 논의되고 있다. 예를 들어, 기존 전송 채널과 다른 여분의 대역폭을 사용하여 3D 데이터를 전송하고, 상기 전송된 3D 데이터를 수신기가 저장한 후, 실시간 방송 스트림이 전송될 때 동기를 맞추어 3D 서비스를 제공할 수가 있다.Meanwhile, in order to transmit 3D content through a broadcasting network, more bandwidth is required than a conventional 2D AV program. As one method for transmitting such a large amount of 3D content, a technique for transmitting 3D data added to an existing two-dimensional AV program in advance has been discussed. For example, the 3D data may be transmitted using an extra bandwidth different from that of the existing transport channel, the receiver may store the transmitted 3D data, and then may provide 3D service in synchronization with the transmission of the real time broadcast stream. .
그러나 현재 논의되고 있는 전술한 방안은 다음과 같은 문제점들이 있다.However, the above-mentioned method currently being discussed has the following problems.
우선, 3D 부가 콘텐츠를 실시간 AV 프로그램과 연동하기 위하여, 상기 3D 부가 콘텐츠가 미리 전송되고, 한편 수신기는 전체 파일을 모두 저장하고 있어야 하는 문제점이 있다.First, in order to link 3D additional content with a real-time AV program, the 3D additional content is transmitted in advance, while the receiver has to store all the entire files.
나아가, 실시간 프로그램이 시작한 시점 이후에 3D 연동형 서비스를 받기 위해 상기 시점 이후의 3D 부가 콘텐츠 부분만을 다운로드 받으려고 해도, 부가 3D 콘텐츠가 하나의 파일이므로 파일 전체를 다운로드 받아야 한다.Furthermore, even if the 3D additional content portion after the point in time is to be downloaded in order to receive the 3D linked service after the start of the real-time program, the additional 3D content is one file, so the entire file must be downloaded.
전술한 문제점 등에 착안하여, 본 발명에서는 부가 콘텐츠를 파일 형태 뿐만 아니라 스트리밍 형태로 전송하는 시나리오에서도 기존 실시간 방송 스트림과 연동하여 3D 서비스를 제공하는 솔루션을 제안한다. 나아가, 서로 다른 채널로 전송되는 두 콘텐츠를 연동하기 위한 시그널링 방법과 두 콘텐츠를 프레임 단위의 동기를 하기 위한 동기화 방법을 기술하도록 하겠다.In view of the above-described problems, the present invention proposes a solution for providing 3D service in conjunction with an existing real-time broadcast stream even in a scenario in which additional content is transmitted in a streaming format as well as a file format. Furthermore, a signaling method for interworking two contents transmitted through different channels and a synchronization method for synchronizing the two contents on a frame basis will be described.
본 발명의 일실시예는, 3DTV 서비스를 위해 많은 대역폭이 필요로 하는 부가 컨텐츠를 제공하기 위하여 기존 AV 프로그램에 부가적으로 필요한 데이터를 브로드캐스팅망이 아닌 양방향 통신이 가능한 네트워크를 통해 전송함으로써, 유저의 요청이 있을 때 3D 서비스를 제공하고자 한다.One embodiment of the present invention, by providing additional content that requires a lot of bandwidth for the 3DTV service, by transmitting the data additionally necessary to the existing AV program through a network capable of bidirectional communication rather than a broadcasting network, 3D service will be provided when requested.
또한, 본 발명의 다른 일실시예는, 양방향 통신망을 통해 3D 서비스를 위한 부가 데이터를 파일 형태 뿐만 아니라 스트리밍 형태의 콘텐츠로도 제공하고저 한다. 예를 들어, 부가 콘텐츠에 대한 random access를 통해서 필요한 데이터만을 수신하여 3D 방송 연동형 서비스를 제공하고자 한다. 이와 같은 목적을 달성하기 위한 일방안으로서, 서로 다른 채널로 전송되어 수신 시점이 동일하지 않은 두 콘텐츠를 연동하기 위하여 두 영상 콘텐츠의 연동 관계를 추가로 명시하고자 한다.In addition, another embodiment of the present invention, to provide additional data for the 3D service in the form of streaming content as well as a file through a bidirectional communication network. For example, it is intended to provide 3D broadcast linked service by receiving only necessary data through random access to additional content. As one way to achieve the above object, an interworking relationship between two video contents is additionally specified in order to link two contents which are transmitted through different channels and whose reception time is not the same.
그리고, 본 발명의 또 다른 일실시예는, 실시간 프로그램이 시작한 이후에는 두 콘텐츠의 프레임간 동기를 맞추기 위해 그 프로그램의 전체 중 어느 부분에 해당하는 지 여부를 디텍트 하고, 부가 스트리밍 콘텐츠에서 대응하는 위치를 찾아 두 콘텐츠의 동기를 맞추어 재생하는 연동 서비스를 제공하고자 한다.According to yet another embodiment of the present invention, after starting a real-time program, it detects which part of the whole program corresponds to synchronizing the frames of the two contents, and corresponds to the additional streaming content. We want to provide a linked service that finds the location and synchronizes the two contents.
본 발명의 일실시예에 의한 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 송신 장치는, 기준 영상을 기설정된 제1포맷으로 인코딩 하는 제1인코더와, 부가 영상을 위한 메타데이터와 상기 인코딩된 기준 영상을 멀티플렉싱 하는 멀티플렉서와, 단방향의 제1네트워크를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송하는 제1전송 모듈과, 상기 부가 영상을 기설정된 제2포맷으로 인코딩 하는 제2인코더와, 그리고 양방향의 제2네트워크를 통해, 상기 인코딩된 부가 영상을 상기 디지털 수신기로 전송하는 제2전송 모듈을 포함하며, 상기 메타데이터는 상기 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보에 대응한다.According to an embodiment of the present invention, a digital transmission apparatus for providing a 3D service using a plurality of different networks includes: a first encoder for encoding a reference video into a preset first format; A multiplexer for multiplexing metadata and the encoded reference video, a first transmission module for transmitting the multiplexed data to a digital receiver through a unidirectional first network, and encoding the additional video in a preset second format And a second transmission module for transmitting the encoded additional video to the digital receiver through a second encoder and a bidirectional second network, wherein the metadata is additional video transmitted through the bidirectional second network. Corresponds to the information needed to process.
본 발명의 다른 일실시예에 의한 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 송신 장치는, 기준 영상을 기설정된 제1포맷으로 인코딩 하는 제1인코더와, 부가 영상과 상기 기준 영상의 동기화를 위한 미디어 페어링 정보(media paring information) 및 상기 인코딩된 기준 영상을 멀티플렉싱 하는 멀티플렉서(상기 미디어 페어링 정보는, 타임 코드(time code) 또는 프레임 넘버(frame number)를 선택적으로 정의하고 있음)와, 단방향의 제1네트워크를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송하는 제1전송 모듈과, 상기 부가 영상을 기설정된 제2포맷으로 인코딩 하는 제2인코더와, 그리고 양방향의 제2네트워크를 통해, 상기 인코딩된 부가 영상을 상기 디지털 수신기로 전송하는 제2전송 모듈을 포함한다.According to another embodiment of the present invention, a digital transmission apparatus for providing a 3D service using a plurality of different networks includes: a first encoder for encoding a reference video into a preset first format; Media paring information (media paring information) for the synchronization of the reference video and the multiplexer for multiplexing the encoded reference video (the media pairing information, a time code (frame code) to selectively define) And a first transmission module for transmitting the multiplexed data to a digital receiver through a unidirectional first network, a second encoder for encoding the additional video into a second predetermined format, and a bidirectional second And a second transmission module for transmitting the encoded additional view video to the digital receiver through a network.
본 발명의 일실시예에 의한 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치는, 단방향의 제1네트워크를 통해, 부가 영상을 위한 메타데이터 및 인코딩된 기준 영상을 수신하는 제1통신 인터페이스 모듈(상기 기준 영상은 제1포맷으로 인코딩되어 있음)과, 상기 수신된 메타데이터 및 인코딩된 기준 영상을 디멀티플렉싱 하는 디멀티플렉서와, 상기 인코딩된 기준 영상을 디코딩 하는 디코더와, 상기 메타데이터를 이용하여, 상기 부가 영상을 수신하는 제2통신 인터페이스 모듈(상기 메타데이터는 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보를 포함)과, 그리고 상기 처리된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공하는 컨트롤러를 포함한다.A digital receiving apparatus for providing a 3D service using a plurality of different networks according to an embodiment of the present invention may include: a first receiving a metadata for an additional view and an encoded reference view through a unidirectional first network; A communication interface module (the reference image is encoded in a first format), a demultiplexer for demultiplexing the received metadata and the encoded reference image, a decoder for decoding the encoded reference image, and the metadata A second communication interface module for receiving the additional video using the metadata, the metadata including information necessary for processing the additional video transmitted through the bidirectional second network, and the processed reference video and the additional video. Based on the controller, the controller providing the 3D service.
그리고, 본 발명의 다른 일실시예에 의한 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 수신 장치는, 단방향의 제1네트워크를 통해, 부가 영상과 기준 영상의 동기화를 위한 미디어 페어링 정보(media paring information) 및 인코딩된 기준 영상을 수신하는 제1통신 인터페이스 모듈(상기 미디어 페어링 정보는 PES(Packetized Elementary Stream)에 포함되어 있으며, 또한 상기 미디어 페어링 정보는 타임 코드(time code) 또는 프레임 넘버(frame number)를 선택적으로 정의하고 있음)과, 상기 PES에 포함된 미디어 페어링 정보 및 인코딩된 기준 영상을 디멀티플렉싱 하는 디멀티플렉서와, 상기 미디어 페어링 정보를 포함하는 PES 를 역패킷화(depacketize) 하는 PES 파싱 모듈과, 상기 인코딩된 기준 영상을 디코딩 하는 디코더와, 양방향의 제2네트워크를 통해, 상기 부가 영상을 수신하는 제2통신 인터페이스 모듈과, 그리고 상기 획득된 미디어 페어링 정보와, 디코딩된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공하는 컨트롤러를 포함한다.The digital receiving apparatus for providing 3D service using a plurality of different networks according to another embodiment of the present invention provides a method for synchronizing an additional view video with a reference view video through a unidirectional first network. A first communication interface module for receiving media paring information and an encoded reference video (the media pairing information is included in a packetized elementary stream (PES), and the media pairing information is a time code). Or depacketizing a frame number), a demultiplexer for demultiplexing the media pairing information and the encoded reference video included in the PES, and a PES including the media pairing information. A PES parsing module, a decoder for decoding the encoded reference video, and a second bidirectional net And a second communication interface module configured to receive the additional view video, and a controller to provide a 3D service based on the obtained media pairing information, the decoded reference video, and the additional view.
본 발명의 일실시예에 의하면, 3DTV 서비스를 위해 많은 대역폭이 필요로 하는 부가 컨텐츠를 제공하기 위하여 기존 AV 프로그램에 부가적으로 필요한 데이터를 브로드캐스팅망이 아닌 양방향 통신이 가능한 네트워크를 통해 전송함으로써, 유저의 요청이 있을 때 3D 서비스를 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, in order to provide additional content that requires a lot of bandwidth for the 3DTV service by transmitting data additionally required for the existing AV program through a network capable of bidirectional communication, not a broadcasting network, When the user requests, there is an effect that can provide a 3D service.
또한, 본 발명의 다른 일실시예에 의하면, 3D 서비스를 위한 부가 콘텐츠를 스트리밍으로 전송함으로써 다운로드 방식에 비해 다운로드 시간으로 인한 지연을 없애고, AV 서비스와 같은 지연에 민감한 서비스에 장점이 있다. 더욱이, 시청자가 3D 서비스에 접근한 시간 이후부터의 콘텐츠 부분에 대해서만 스트리밍 받아 재생하면 충분하므로, 불필요한 부분을 모두 다운로드받을 필요가 없는 장점이 있다.In addition, according to another embodiment of the present invention, by transmitting the additional content for the 3D service by streaming to eliminate the delay caused by the download time compared to the download method, there is an advantage in the delay sensitive services such as AV services. Furthermore, since it is sufficient to stream and play only the content part after the time when the viewer accesses the 3D service, there is an advantage that it is not necessary to download all unnecessary parts.
나아가, 본 발명의 또 다른 일실시예에 의하면, 지상파 방송망과 양방향 통신망(ex : 인터넷망)을 모두 사용하는 하이브리드망 환경에서 두 콘텐츠간의 참조관계와 동기화 정보를 추가하여, 단순히 두 콘텐츠를 통한 독립형 서비스가 아닌 두 망을 모두 사용하여 프레임 간 동기를 맞추는 연동형 서비스를 제공할 수가 있다. 따라서, 3D 비디오를 구성하기 위해 실시간 방송의 기본 영상과 기본 영상과는 다른 채널로 스트리밍 형태로 전송되는 부가 영상을 연동하여 3D 서비스를 제공하기 위한 구체적인 시그널링 기술 및 동기화 기술이 정의된다.Furthermore, according to another embodiment of the present invention, in a hybrid network environment using both a terrestrial broadcasting network and a two-way communication network (ex: internet network), a reference relationship and synchronization information between two contents are added, and stand alone through two contents. By using both networks instead of services, interlocked services can be provided that synchronize frame to frame. Accordingly, in order to configure 3D video, a specific signaling technique and a synchronization technique for providing a 3D service by interworking a base view video of a real-time broadcast and an additional view video stream transmitted in a different channel from the base view are defined.
도 1은 본 발명의 일실시예에 의한 3DTV 서비스의 콘텐츠 연동 방법을 설명하기 위한 블록도 이다.1 is a block diagram illustrating a method of interlocking contents of a 3DTV service according to an exemplary embodiment of the present invention.
도 2는 본 발명의 일실시예에 의한 3DTV 하이브리드 연동형 서비스를 위한 송신 장치의 블록도 이다.2 is a block diagram of a transmitting device for a 3DTV hybrid linked service according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 의한 참조 정보 디스크립터(linkage information descriptor)의 신택스를 정의한다.3 defines the syntax of a linkage information descriptor according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 의한 페어링 정보의 신택스를 정의한다.4 defines syntax of pairing information according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 의한 3DTV 하이브리드 연동형 서비스를 위한 수신 장치의 블록도 이다.5 is a block diagram of a receiving apparatus for a 3DTV hybrid linked service according to an embodiment of the present invention.
도 6은 도 2에 도시된 송신 장치를 보다 상세히 기술한 도면이다.6 is a diagram illustrating the transmission apparatus shown in FIG. 2 in more detail.
도 7은 3DTV 하이브리드 서비스 중 실시간 방송서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다.FIG. 7 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a real-time broadcasting service is provided among 3DTV hybrid services.
도 8은 3DTV 하이브리드 서비스 중 다운로드 방송서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다.FIG. 8 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a download broadcast service is provided among 3DTV hybrid services.
도 9는 3DTV 하이브리드 서비스 중 VOD 서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다.FIG. 9 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a VOD service is provided among 3DTV hybrid services.
그리고, 도 10은 도 5에 도시된 수신 장치를 보다 간략히 도시한 도면이다.10 is a diagram illustrating the receiving apparatus illustrated in FIG. 5 more briefly.
도 1은 본 발명의 일실시예에 의한 3DTV 서비스의 콘텐츠 연동 방법을 설명하기 위한 블록도 이다.1 is a block diagram illustrating a method of interlocking contents of a 3DTV service according to an exemplary embodiment of the present invention.
도 1에 도시된 바와 같이, 기준영상은 실시간 방송 프로그램으로 전송되고 부가영상은 대역폭의 한계 때문에 별도의 방송망이나 통신망을 통해 스트리밍 형태로 전송되므로 두 콘텐츠(기본영상, 부가영상)를 연동하기 위해서는 둘간의 동기화가 필요하다. As shown in Figure 1, the reference video is transmitted to the real-time broadcast program and the additional video is transmitted in a streaming form through a separate broadcast network or communication network due to the limitation of the bandwidth, so in order to link the two contents (base video, additional video) Synchronization is required.
따라서 두 콘텐츠의 동기를 맞추기 위해서 기본영상과 부가영상에 공통으로 적용될 동기화 정보가 포함되어야 한다. 예를 들어, 기본 콘텐츠(기본 영상, Base view)에 연동되는 부가콘텐츠(부가 영상, additional view)가 존재하는 경우, 동기화 정보는 기준콘텐츠의 인코딩 시작점부터 메타데이터 생성부(102)를 통해 생성된다. 또한, 상기 동기화 정보는 어떤 두 콘텐츠를 동기화하기 정보이면 충분하다. 나아가, 도 1에 도시된 바와 같이, 기본 영상(기본 콘텐츠)는 기본 콘텐츠 인코더(101)에서 인코딩 되며, 방송스트림 다중화부(103)가 인코딩된 기초 스트림(Elementary Steram) 및 메타데이터 스트림을 멀티플렉싱 한다.Therefore, in order to synchronize the two contents, synchronization information to be commonly applied to the base video and the additional video should be included. For example, if there is additional content (additional video, additional view) linked to the base content (base view, base view), the synchronization information is generated through the metadata generator 102 from the start point of encoding of the reference content. . In addition, the synchronization information is sufficient to synchronize any two contents. Further, as shown in FIG. 1, the basic video (basic content) is encoded by the basic content encoder 101, and the broadcast stream multiplexer 103 multiplexes the encoded elementary stream and metadata stream. .
예를 들어, 상기 동기화 정보는 콘텐츠의 특정 프레임 위치를 나타내는 프레임 넘버가 될 수도 있고 또는, 어떤 시간 유닛에 따른 time code가 될 수 있다. 나아가, 상기 동기화 정보는 예를 들어 MPEG-2 영상 스트림 내에 포함될 수 있고, 또는 MPEG-2 PES Header의 private data section에 포함될 수도 있으며, 또는 별도의 새로운 stream의 형태로 정의하여 별도의 PID를 갖는 TS 패킷 형태로 전송될 수도 있다.For example, the synchronization information may be a frame number indicating a specific frame position of the content or may be a time code according to a certain time unit. Furthermore, the synchronization information may be included in, for example, an MPEG-2 video stream, or may be included in a private data section of an MPEG-2 PES header, or may be defined as a separate new stream and have a separate PID. It may be transmitted in the form of a packet.
또한, 상기 동기화 정보가 생성되는 주기는 기준 콘텐츠(기본 콘텐츠)의 코딩 단위(access unit, AU)의 정수배이다. 나아가, 상기 동기화 정보가 전술하여 예시한 세 가지 전송 방법으로 전송되는지 여부와 관계 없이, 상기 동기화 정보를 포함하는 PES 패킷은 참조하는 프레임을 인코딩한 AU PES를 가리키도록 상기 PES의 PTS(presentation time stamp)와 같은 PTS 값을 갖도록 정의한다.In addition, the period in which the synchronization information is generated is an integer multiple of the coding unit (access unit, AU) of the reference content (basic content). Furthermore, regardless of whether the synchronization information is transmitted by the three transmission methods exemplified above, the PES packet including the synchronization information indicates an AU PES that encodes a frame to which reference is made. stamp) to have the same PTS value.
한편, 도 1에서 도시되어 있는 부가콘텐츠의 전송 과정에서도, 전술하여 설명한 것과 유사하게 동기화 정보가 생성된다. 물론, 동기화 정보의 내용은 기준 콘텐츠(기본 콘텐츠)에 대응되는 프레임이 생성될 때의 내용과 동일해야 한다. 나아가, 도 1에 도시된 바와 같이, 부가 영상(부가 콘텐츠)는 부가 콘텐츠 인코더(104)에서 인코딩 되며, 상기 동기화 정보는 메타데이터 생성부(105)에서 생성되며, 그리고 다중화 및 스트리밍 생성부(106)가 인코딩된 기초 스트림(Elementary Steram) 및 메타데이터 스트림을 멀티플렉싱 한다.Meanwhile, in the transmission process of the additional content illustrated in FIG. 1, synchronization information is generated similarly to the above description. Of course, the content of the synchronization information should be the same as the content when the frame corresponding to the reference content (basic content) is generated. Further, as shown in FIG. 1, the additional video (additional content) is encoded in the additional content encoder 104, the synchronization information is generated in the metadata generator 105, and the multiplexing and streaming generator 106. ) Multiplexes the encoded elementary stream and metadata stream.
상기 동기화 정보는 부가콘텐츠가 파일형태로 실시간 기준콘텐츠보다 미리 전송되어 저장된 경우에는 필요하지 않을 가능성도 있으나, 상기 부가 콘텐츠가 스트리밍형태로 전송되는 경우에는 필요하다. 왜냐하면, 스트리밍 콘텐츠가 통신망을 통해 broadcast, multicast 될 때 연동되는 콘텐츠의 수신 시점이 기준콘텐츠를 포함한 방송 스트림과 다르므로, 현재 수신한 스트리밍 스트림에서 연동되는 콘텐츠의 프레임간 동기를 위해 상기 동기화 정보가 반드시 필요하기 때문이다. 특히, 도 1에 도시된 바와 같이, 하나의 프로그램이 아닌 여러 개의 프로그램이 연속적으로 스트리밍될 경우 연동되는 부가콘텐츠의 처음 위치를 찾아내기 위해서도 동기화 정보가 반드시 필요하다. The synchronization information may not be necessary when the additional content is transmitted and stored in advance in the form of a file than the real-time reference content, but is required when the additional content is transmitted in the streaming form. This is because, when the streaming content is broadcasted or multicasted through a communication network, the reception time of the interlocked content is different from the broadcast stream including the reference content. Therefore, the synchronization information must be used for inter-frame synchronization of the interlocked content in the currently received streaming stream. Because it is necessary. In particular, as shown in FIG. 1, synchronization information is necessary to find the first position of the associated additional content when several programs are continuously streamed instead of one program.
이와 같이 설계하는 경우, 네트워크 상의 서비스 측면에서는 unicast를 사용하지 않아도 되므로 부가적인 장점이 생긴다. 즉, 각 단말(수신기, receiver)마다 다른 시작위치를 갖도록 콘텐츠를 스트리밍하는 unicast 방식보다 초기 진입 딜레이를 줄일 수 있고, point-to-point로 각각 스트림을 전송할 필요가 없으므로 전체 네트워크 트래픽을 줄이는 효과가 있다.This design has the added advantage of not having to use unicast in terms of services on the network. That is, the initial entry delay can be reduced compared to the unicast method of streaming content so that each terminal (receiver, receiver) has a different starting position, and the overall network traffic is reduced because there is no need to transmit streams point-to-point. have.
또한, 부가콘텐츠의 기초 스트림(Elementary Stream)과 메타데이터 스트림의 다중화가 MPEG-2 TS를 이용할 경우, 기준콘텐츠의 다중화와 동일하게 PTS로 참조하도록 한다. 물론, 이와 같은 내용으로 본 발명의 권리범위가 제한되는 것은 아니다.In addition, when multiplexing the elementary stream and the metadata stream of the additional content uses the MPEG-2 TS, reference is made to the PTS in the same manner as the multiplexing of the reference content. Of course, the scope of the present invention is not limited to the above contents.
전술하여 예시한 다중화는 사용되는 스트리밍 프로토콜에 따라 달라질 수 있다. The multiplexing illustrated above may vary depending on the streaming protocol used.
예를 들어 RTP 프로토콜을 사용할 경우 그 프로토콜에서 audio-video 동기를 맞추기 위해 사용하는 time stamp를 메타데이터와 부가 콘텐츠의 동기를 위해 사용할 수 있다. 다만, 다중화를 통해 스트리밍 서비스시 메타데이터와 부가 콘텐츠의 동기화를 제공할 수도 있으며, 다중화한 후 메타데이터 스트림은 부가콘텐츠 스트림과 별도의 URL로 전송될 수도 있다.For example, when using the RTP protocol, the time stamp used to synchronize audio-video in that protocol can be used to synchronize metadata and additional content. However, multiplexing may provide synchronization of metadata and additional content in a streaming service, and after multiplexing, the metadata stream may be transmitted as a separate URL from the additional content stream.
도 2는 본 발명의 일실시예에 의한 3DTV 하이브리드 연동형 서비스를 위한 송신 장치의 블록도 이다.2 is a block diagram of a transmitting device for a 3DTV hybrid linked service according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 방송콘텐츠는 방송망을 통해 전달되는 기본 콘텐츠와 상기 기본 콘텐츠가 전송되는 채널과 다른 네트워크를 통해 전달되는 부가 콘텐츠로 이루어 진다. As shown in FIG. 2, the broadcast content is composed of basic content delivered through a broadcasting network and additional content delivered through a different network from a channel through which the basic content is transmitted.
상기 기본 콘텐츠는 콘텐츠 서버(201)에서 생성되고, 기본 콘텐츠 인코더(202)에서 인코딩 된다. 시그널링 정보 및 메타데이터 생성부(203)에서 생성된 시그널링 정보 및 메타데이터는 방송 스트림 다중화부(204)로 전송된다. 또한, 상기 방송 스트림 다중화부(204)는 인코딩된 기본 콘텐츠, 시그널링 정보 또는 메타데이터 중 적어도 하나 이상을 멀티플렉싱 한다. 멀티플렉싱된 데이터는, 전송부(205)를 통해 방송망(206)으로 방송(broadcasting)된다.The basic content is generated in the content server 201 and encoded in the basic content encoder 202. The signaling information and metadata generated by the signaling information and metadata generator 203 are transmitted to the broadcast stream multiplexer 204. In addition, the broadcast stream multiplexer 204 multiplexes at least one or more of encoded basic content, signaling information, or metadata. The multiplexed data is broadcasted to the broadcast network 206 through the transmitter 205.
이때 기본 콘텐츠를 포함하는 프로그램의 메타 데이터에 연동되는 부가 콘텐츠에 대한 참조 정보(ex : 스트리밍 콘텐츠 접근 URI 등)와 두 콘텐츠의 연동을 위한 동기 정보 또한 수신기에게 방송(broadcasting)된다.At this time, reference information (ex: streaming content access URI, etc.) related to additional content linked to metadata of a program including basic content and synchronization information for linking the two contents are also broadcasted to the receiver.
상기 콘텐츠 서버(201)에서 생성된 부가콘텐츠는, 부가 콘텐츠 인코더(207)에서 인코딩 되고, 메타데이터 생성부(208)는 메타데이터를 생성한다. 다중화 및 스트리밍 생성부(209)는 인코딩된 부가 콘텐츠 및 메타데이터를 멀티플렉싱 하고, 스트리밍을 위한 정보들로 변환한다. 그리고, 프로토콜 처리부(210)는, 기설정된 프로토콜에 적합하게 상기 변환된 정보를 패킷화 하여, 양방향 통신망(211)으로 전송한다.The additional content generated by the content server 201 is encoded by the additional content encoder 207, and the metadata generator 208 generates metadata. The multiplexing and streaming generator 209 multiplexes the encoded additional content and metadata, and converts the encoded additional content and metadata into information for streaming. The protocol processor 210 packetizes the converted information in accordance with a preset protocol and transmits the packetized information to the bidirectional communication network 211.
상기 메타데이터는 예를 들어, 연동 서비스를 위한 정보(부가 콘텐츠에서 기본 콘텐츠에 대한 접근 정보와 기본 콘텐츠와 동일한 동기 정보 등)를 포함하고 있다. 또한, 상기 부가콘텐츠는 서비스 형태에 따라 push 또는 pull 방식으로 디지털 수신기에게 전달될 수 있다. 예를 들어 실시간 방송 서비스에 동기화되는 부가콘텐츠는 push 형태로, 3DTV 연동형 서비스에 가입되어 있는 수신기에게 멀티캐스트형태로 전달될 수 있다. 한편, 예를 들어 수신기 각각에게 다른 콘텐츠를 제공하는 서비스의 형태로서 시청자의 요청이 있으면 해당 부가콘텐츠를 응답하는 pull 형태로 서비스를 제공할 수도 있다. 전술한 push 또는 pull 방식은 본 발명의 이해를 돕고자 하는 것으로서, 권리범위를 제한하는 것은 아니다.The metadata includes, for example, information for a coordinated service (access information on basic content in additional content, synchronization information identical to the basic content, and the like). In addition, the additional content may be delivered to the digital receiver in a push or pull manner according to a service type. For example, additional content synchronized to a real-time broadcasting service may be delivered in a push form to a receiver subscribed to a 3DTV linked service in a multicast form. On the other hand, for example, when a viewer requests as a form of service providing different contents to each receiver, the service may be provided in a pull form in response to the additional content. The push or pull method described above is intended to help the understanding of the present invention, and does not limit the scope of the right.
한편, 당해 명세서에서 사용되는 기본 콘텐츠(기준 콘텐츠, 기본 영상, base view, base stream)는, 방송망을 통해 전송되고 legacy 방송 수신기에서 재생되는 컨텐트에 대응할 수도 있다.Meanwhile, the base content (reference content, base video, base view, base stream) used in the present specification may correspond to content transmitted through a broadcasting network and reproduced by a legacy broadcast receiver.
나아가, 부가 콘텐트(부가 영상, additional view, additional stream)는, 상기 기본 콘텐츠와 연동되고 또한 다른 채널이나 네트워크를 통해 전송되는 컨텐트에 대응할 수도 있다. 물론, 당해 명세서 및 청구항 전체를 통해 당업자가 이해하는 범위에서 그 의미가 해석되어야 한다.Furthermore, additional content (additional video, additional view, additional stream) may correspond to content transmitted in conjunction with the basic content and transmitted through another channel or network. Of course, the meaning should be construed to the extent understood by those skilled in the art throughout the specification and claims.
상기 기본 콘텐츠는 예를 들어, 정지영상, 동영상, CG와 같은 멀티미디어 데이터와 텍스트 등으로 구성되며, 각 데이터는 미리 콘텐츠 서버(201)에 준비되었다가 송출 스케쥴에 맞추어 기본 콘텐츠 인코더(202)로 전달되면 각각 데이터마다 정해진 방식으로 인코딩되어 기초 스트림 형태로 출력된다. 이와 같은 기초 스트림들(Elementary Stream)은 하나의 프로그램을 형성하고 복수의 프로그램들은 다중화기를 거쳐 하나의 전송 스트림(Transport Stream)으로 형성되어 전송되게 된다.The basic content includes, for example, multimedia data such as still images, moving images, and CG, texts, and the like, and each data is prepared in the content server 201 and delivered to the basic content encoder 202 in accordance with a delivery schedule. Each data is encoded in a predetermined manner and output in the form of an elementary stream. Such elementary streams form one program and a plurality of programs are formed and transmitted as one transport stream through a multiplexer.
상기 전송스트림에서 시청자가 원하는 프로그램과 관련된 스트림들을 찾아내기 위해 각 서비스에서 제공하는 각 프로그램에 대한 종류, 구성 정보를 포함하는 데이터가 전송되어야 한다. 이와 같은 데이터는 전술한 전송 스트림과 별도의 테이블 형태로 수신기에게 전송된다. 본 발명에서 이와 같은 데이터는 시그널링 정보 및 메타데이터 생성부(203)에서 생성되며, 3DTV 서비스를 위한 부가 콘텐츠에 대한 접근 정보, 부가 콘텐츠와의 연동 재생 정보(동기화 정보 등)를 포함한 프로그램에 대한 메타 정보가 새롭게 정의되어 포함된다. In order to find streams related to a program desired by a viewer in the transport stream, data including type and configuration information of each program provided by each service should be transmitted. Such data is transmitted to the receiver in the form of a table separate from the above-described transport stream. In the present invention, such data is generated by the signaling information and metadata generating unit 203, and includes a meta data about a program including access information about additional content for 3DTV service and interworking reproduction information (synchronization information, etc.) with the additional content. Information is newly defined and included.
우선, 부가 콘텐츠에 대한 접근 정보는 수신기가 부가 콘텐츠를 수신하기 위해 필요한 시작 접근 정보로서 IP망을 가정하면 URL(Uniform Resource Location) 또는 URI(Uniform Resource Identifier)를 뜻한다. 상기 접근 정보는 직접적인 스트리밍 서버와 콘텐츠의 위치 정보이거나 또는 콘텐츠 스트리밍을 위해 파라미터를 설정하기 위한 정보를 가지고 있는 메타 파일의 위치 정보일수 있다. First, the access information for the additional content means a URL (Uniform Resource Location) or URI (Uniform Resource Identifier) assuming an IP network as starting access information required for the receiver to receive the additional content. The access information may be location information of a direct streaming server and content or location information of a meta file having information for setting parameters for content streaming.
나아가, 기본 콘텐츠와 부가 콘텐츠와의 연동 재생 정보는 두 콘텐츠를 프레임단위로 동기를 맞추어 재생하기 위해 필요한 정보로서, 프로그램을 구성하는 기초 스트림의 특정 위치(AU)를 기준으로 대응하는 부가 콘텐츠 스트림의 위치(AU)를 지정하는 방식으로 구성된다. 이를 구현하기 위해 프레임 넘버나 또는 프레임 넘버를 계산할 수 있는 타임 코드(time code) 중 적어도 하나 이상을 사용할 수 있다. 또 다른 실시예로서, 상기 연동 재생 정보는 시그널링 정보 및 메타 데이터 생성부(203)가 아닌 기초 스트림을 다중화할 때 패킷화된 기초 스트림의 헤더에 삽입될 수도 있다. Further, the interworking reproduction information between the basic content and the additional content is information necessary for synchronizing and playing the two contents on a frame-by-frame basis. It is configured in such a way as to specify the location (AU). To implement this, at least one of a frame number or a time code for calculating the frame number may be used. As another embodiment, the coordinated reproduction information may be inserted in the header of the packetized elementary stream when multiplexing the elementary stream other than the signaling information and the metadata generator 203.
방송 스트림 다중화부(204)는 서비스 관련 정보를 담고 있는 테이블들과 인코딩된 콘텐츠 데이터 스트림들을 다중화한다. 이때 동기화 정보를 포함하는 메타데이터가 별도의 기초 스트림으로 입력된 경우 참조하는 기본콘텐츠의 AU를 인코딩한 PES와 동일한 PTS를 부가해야 한다. 마지막으로 전송부(205)는 채널 인코딩, 변조 등의 과정을 거쳐 방송채널을 통해 전송한다.The broadcast stream multiplexer 204 multiplexes encoded content data streams and tables containing service related information. In this case, when metadata including synchronization information is input as a separate elementary stream, the same PTS as the PES encoding the AU of the referenced basic content should be added. Finally, the transmission unit 205 transmits through a broadcast channel through channel encoding, modulation, and the like.
방송망(206)을 통해 전송되는 기본 콘텐츠와는 달리 부가 콘텐츠는 파일 또는 스트리밍 형태로 전달된다. 부가 콘텐츠 역시 콘텐츠 서버(201)로부터 서비스 스케쥴에 맞추어 부가 콘텐츠 인코더(207)에 전달되어 인코딩되어 다중화 및 스트리밍 생성부(209)로 출력된다. 그 출력은 TS와 같은 스트림 형태이거나 특정 파일 포맷으로 wrapping한 형태이다. 또한 상기 인코더(207)는 양방향 통신망(211)에 접속된 수신기의 재생 안정성을 제고하기 위하여, 하나의 콘텐츠를 인코딩 레이트(rate)에 따라 복수개의 스트림을 출력할 수 있다. Unlike the basic content transmitted through the broadcasting network 206, the additional content is delivered in a file or streaming form. The additional content is also transmitted from the content server 201 to the additional content encoder 207 according to a service schedule, encoded, and output to the multiplexing and streaming generator 209. The output is in the form of a stream such as TS or wrapped in a specific file format. In addition, the encoder 207 may output a plurality of streams according to an encoding rate in order to improve reproduction stability of a receiver connected to the bidirectional communication network 211.
메타데이터 생성부(208)는 부가콘텐츠로부터 연동되는 방송 프로그램에 접근할 수 있도록 기본 콘텐츠에서와 같이 접근 정보와 연동 재생 정보를 새로운 메타데이터로 정의하여 생성한다. 상기 다중화 및 스트리밍 생성부(209)는 인코딩된 부가 콘텐츠와 연동을 위한 메타 데이터 정보를 입력받아, 도 1에서 전술한 바와 같이, 두 스트림을 동기화하기 위해 PTS나 이와 같은 기능을 하는 timestamp를 부가하여 다중화하고, 또한 스트리밍을 위한 정보들로 변환하고 스트리밍 패킷의 페이로드를 생성한다.The metadata generator 208 defines the access information and the coordinated reproduction information as new metadata so as to access the broadcast program linked from the additional content as the new metadata. The multiplexing and streaming generation unit 209 receives metadata information for interworking with the encoded additional content and, as described above with reference to FIG. 1, adds a PTS or a timestamp having such a function to synchronize two streams. Multiplex, also convert to information for streaming and generate payload of streaming packets.
프로토콜 처리부(210)는 스트리밍에 사용하는 프로토콜에 대한 처리를 담당하는데, 즉 프로토콜 스택에 따라 패킷을 생성하여 송신하거나 패킷을 수신하여 해석한다.The protocol processor 210 is in charge of processing a protocol used for streaming, that is, generates and transmits a packet according to a protocol stack, or receives and interprets a packet.
한편, 프로토콜 처리부(210)는 클라이언트(receiver, 수신기)로부터 스트리밍 요청을 받으면 상기 다중화 및 스트리밍 생성부(209)에서 스트림 데이터를 받아 패킷을 생성하여 전송한다. 또한 전송한 패킷에 대한 오류가 있음을 알리는 제어 신호 패킷을 수신하거나 자동으로 디텍트 하게 되면, 해당 전송 패킷을 재전송한다.On the other hand, when the protocol processor 210 receives a streaming request from a client (receiver, receiver), the multiplexing and streaming generator 209 receives stream data and generates and transmits a packet. In addition, when a control signal packet indicating that there is an error about a transmitted packet is detected or automatically detected, the corresponding transmission packet is retransmitted.
나아가, 스트리밍 서버의 주요 송신 동작을 설명하면 다음과 같다. Furthermore, the main transmission operation of the streaming server will be described as follows.
첫째, 클라이언트의 스트리밍 요청에 따라, 스트리밍 환경 설정을 위해 스트리밍 생성부(209)에서 생성한 데이터를 송신한다. 프로토콜에 따라, 데이터와 제어를 위한 논리적 채널을 따로 둘 경우 제어 채널에서 상기 송신 프로세스가 발생한다. First, in response to a streaming request from a client, data generated by the streaming generator 209 is transmitted to set a streaming environment. According to the protocol, the transmission process takes place in the control channel if the logical channel for data and control is set aside.
둘째, 환경 파라미터와 인코딩 율(rate)이 설정되면 스트리밍 패킷을 전송한다. 이 때, 부가 콘텐츠의 인코딩 데이터보다 관련 정보인 메터 데이터를 먼저 전송하고 이후 미디어 데이터를 전송한다. 상기 메타데이터는 수신기에서 콘텐츠를 재생하기 위해 필요한 정보 뿐만 아니라, 본 발명을 위해 추가된 연동서비스를 위한 관련 정보까지 포함한다. 또한 클라이언트로부터 요청받은 콘텐츠의 재생 시점부터 인코딩 데이터 스트림을 전송한다. 메터데이터와 부가 콘텐츠 데이터 모두에 대한 재전송 요청이 있으면 이를 재전송한다. Second, if the environment parameter and encoding rate are set, the streaming packet is transmitted. At this time, the meta data which is related information is transmitted before the encoding data of the additional content, and then the media data is transmitted. The metadata includes not only information necessary for playing content at the receiver, but also related information for an interlocking service added for the present invention. Also, the encoded data stream is transmitted from the time point at which the content requested from the client is played. If there is a retransmission request for both the metadata and the additional content data, it is retransmitted.
셋째, 클라이언트로부터 다른 인코딩율을 가진 스트림을 요청 받으면 그 순간부터 해당 스트림으로 스위칭 하여 전송한다. 프로토콜에 따라, 특히 push형 서비스에서 다양한 클라이언트의 대역폭을 지원하기 위해 base layer와 enhanced layer로 데이터 인코딩 스트림을 나누어 다른 포트(논리적 채널)로 전송하도록 설계하는 것도 가능하다.Third, when a client receives a stream with a different encoding rate from the client, it switches to that stream and sends it. Depending on the protocol, it is also possible to divide the data-encoding stream into base and enhanced layers and transmit them to different ports (logical channels), especially to support the bandwidth of various clients in push services.
본 발명에서 3DTV 서비스를 제공하기 위해 개념적으로 연동형 콘텐츠에 접근하기 위한 연동형 콘텐츠 정보와 동기화 정보가 필요하다. 따라서, 이를 표현하기 위한 실시예로 전자는 참조 정보 기술자의 형태(이하 도 3 참조)로 기술하며, 후자는 동기화 정보 구조(이하 도 4 참조)로 기술한다. 그러나 반드시 표현 형태가 이것으로 한정할 필요는 없고 응용에 따라 유연하게 변경될 수 있다.In the present invention, in order to provide 3DTV service, the linked content information and the synchronization information for accessing the linked content are conceptually required. Therefore, as an embodiment for expressing this, the former is described in the form of a reference information descriptor (see FIG. 3 below), and the latter is described in a synchronization information structure (see FIG. 4 below). However, the presentation form is not necessarily limited to this and can be flexibly changed depending on the application.
우선, 연동형 콘텐츠 정보는 인디케이트 하는 콘텐츠에 따라 부가콘텐츠에 대한 접근정보와 기본 콘텐츠에 대한 접근 정보로 나뉜다. 전자는 실시간 방송 스트림의 PSIP(Program and System Information Protocol)의 VCT(Virtual Channel Table), EIT(Event Information Table)와 MPEG-2 TS(Transport Stream) PSI(Program Specific information)정보의 PMT(Program Map Table)내에 위치할 수도 있다. 또한 후자도 부가콘텐츠가 MPEG-2 TS로 전송될 경우는 상기 전자의 부가콘텐츠에 대한 접근정보가 놓일 수 있는 위치와 동일하며, 다른 위치로 설계되는 경우도 본 발명의 권리범위에 속한다.First, the linked content information is divided into access information for additional content and access information for basic content according to the displayed content. The former is a Virtual Map Table (VCT), an Event Information Table (EIT) and MPEG-2 Transport Stream (TST) Program Specific Information (PMT) information of the Program and System Information Protocol (PSIP) of a real-time broadcast stream. It can also be located inside the. In addition, when the latter additional content is transmitted to the MPEG-2 TS, it is the same position where the access information of the former additional content can be placed, and the case where the additional content is designed in another location is also within the scope of the present invention.
도 3은 본 발명의 일실시예에 의한 참조 정보 디스크립터(linkage information descriptor)의 신택스를 정의한다.3 defines the syntax of a linkage information descriptor according to an embodiment of the present invention.
참조 정보 디스크립터는 디스크립터에 포함된 연동될 콘텐츠의 수 및 연동될 콘텐츠의 URL정보, 연동될 콘텐츠의 종류 중 적어도 하나 이상을 포함한다. 상기 콘텐츠는 파일 형태이거나 스트리밍형태의 기초 스트림일 수 있다.The reference information descriptor includes at least one of the number of contents to be linked included in the descriptor, URL information of the contents to be linked, and the type of contents to be linked. The content may be an elementary stream in the form of a file or streaming.
도 3의 descriptor_tag는 해당 디스크립터가 연동형 콘텐츠의 참조 정보 서술자라는 것을 식별한다. descriptor_length는 해당 디스크립터의 길이를 나타낸다. linkage_content_number는 디스크립터에 포함된 연동될 콘텐츠의 수를 나타낸다. wakeup_time은 연동형 콘텐츠의 시작시간을 나타낸다. The descriptor_tag of FIG. 3 identifies that the descriptor is a reference information descriptor of the linked content. descriptor_length represents the length of the corresponding descriptor. linkage_content_number represents the number of content to be linked included in the descriptor. wakeup_time represents the start time of the linked content.
나아가, 스트리밍 서비스를 통해 연동되는 콘텐츠에 접근할 URI 정보(linkage_content_URI)가 필요하다. URI 정보는 가변적인 길이를 가지고 있기 때문에, linkage_content_URI_length를 통해 연동될 콘텐츠의 URI 정보의 길이를 포함하고 linkage_content_URI으로 해당 스트림과 연동될 콘텐츠의 URI 정보를 나타낸다. URI 정보는 사용하는 프로토콜에 따라 다양한 형태가 될 수 있으며 몇 가지 예는 다음과 같다. HTTP streaming의 경우 서버 어드레스와 콘텐츠 이름이 되며, 멀티캐스트인 경우 멀티캐스트 IP 어드레스, RTP streaming의 경우 스트리밍 서버의 IP 어드레스 및 포트 번호가 된다. 또한 만약 동기화 정보를 포함한 메타데이터가 부가 콘텐츠와 별도의 스트림으로 전달될 경우 이에 접근하기 위한 URI 정보(linkage_metadata_URL)가 추가로 필요하다.Furthermore, URI information (linkage_content_URI) for accessing content linked through a streaming service is required. Since the URI information has a variable length, the URI information includes the length of the URI information of the content to be linked through linkage_content_URI_length and indicates the URI information of the content to be linked with the corresponding stream with linkage_content_URI. URI information can be in various forms depending on the protocol used. Some examples are: In case of HTTP streaming, it is a server address and content name. In case of multicast, it is a multicast IP address. In case of RTP streaming, it is an IP address and a port number of a streaming server. In addition, if metadata including synchronization information is delivered in a separate stream from the additional content, URI information (linkage_metadata_URL) is additionally required to access the metadata.
도 3에 도시된 linkage_content_type은 기본 콘텐츠와 연동될 부가 콘텐츠의 종류를 의미한다. 당해 명세서에서는 3DTV 서비스에 사용될 부가 콘텐츠는 예를 들어 MPEG-2 TS 타입으로 정의하였다. 상기 부가 콘텐츠는 TS 내의 기초 스트림으로 구성되므로 이의 접근을 나타내도록 연동되는 콘텐츠를 포함한 TS의 ts_id와 elementary_pid도 포함한다. 또한 향후 부가 콘텐츠를 스트리밍하는 콘텐츠 포맷의 다양성을 고려하여, 콘텐츠 종류의 확장이 가능한 필드로 구성한다. 또한 이 필드는 본 발명에서는 실시예를 스테레오스코픽 비디오의 경우를 주로 기술하나 multiview 비디오나 다른 형태의 연동형 서비스로도 확장 가능하다.The linkage_content_type illustrated in FIG. 3 means a type of additional content to be linked with the basic content. In the present specification, the additional content to be used for the 3DTV service is defined as, for example, an MPEG-2 TS type. Since the additional content is composed of an elementary stream in the TS, the additional content also includes the ts_id and elementary_pid of the TS including the interlocked content to indicate its access. In addition, in consideration of the variety of content formats for streaming additional content in the future, it is configured as a field that can be extended to the content type. In addition, in the present invention, the embodiment mainly describes the case of stereoscopic video, but may be extended to multiview video or other types of linked services.
여기서, 도 3의 디스크립터는, 부가 콘텐츠를 포함하는 MPEG-2 TS에서 기본 콘텐츠에 대하여 참조하기 위해서도 사용될 수 있는데, 이때는 위의 예와는 다르게 부가콘텐츠가 아닌 기본 콘텐츠를 접근하기 위한 정보로 변경된다. Here, the descriptor of FIG. 3 may also be used to refer to the basic content in the MPEG-2 TS including the additional content. In this case, the descriptor is changed to information for accessing the basic content instead of the additional content. .
한편, 도 3에 도시하지는 않았지만, 부가 영상 파일 또는 스트림의 코덱 정보를 표시하는 데이터를 더 포함하도록 설계하는 것도 본 발명의 권리범위에 속한다. 기준 영상과 부가 영상이 다른 인코딩 방식으로 압축된 경우를 고려한 설계이며, 따라서 데이터 처리의 효율성을 제고하고 에러 가능성을 줄이는 기술적 효과가 있다.Although not shown in FIG. 3, it is also within the scope of the present invention to design to further include data indicating codec information of an additional video file or stream. It is a design considering the case in which the base view video and the additional view video are compressed using different encoding methods, and thus have a technical effect of improving the efficiency of data processing and reducing the possibility of error.
도 4는 본 발명의 일실시예에 의한 페어링 정보의 신택스를 정의한다. 도 4에서 도시된 데이터 구조는, 이전 도면들에서 설명한 동기화 정보, 동기 정보 등에 대응할 수도 있다. 물론, 도 4에서 정의된 필드들을 모두 포함하는 것으로 본 발명의 권리범위가 제한되는 것은 아니며, 당업자의 필요에 따라 일부 필드를 추가/변경/삭제하는 것도 본 발명의 권리범위에 속한다.4 defines syntax of pairing information according to an embodiment of the present invention. The data structure shown in FIG. 4 may correspond to synchronization information, synchronization information, and the like described in the previous drawings. Of course, the scope of the present invention is not limited to including all the fields defined in FIG. 4, and addition / modification / deletion of some fields is also included in the scope of the present invention as required by those skilled in the art.
도 4에 도시된 identifier 필드는 동기화 정보 식별자 이후에 타이밍 정보를 담고 있다는 것을 의미한다. 도 3의 참조 정보 디스크립터(linkage information descriptor)에는 linkage_content_number의 값만큼 연동형 콘텐츠가 존재하고 각 콘텐츠들을 구별해 주기 위해, 도 4의 싱크 정보(페어링 정보)에서는 content_index_id의 값을 사용한다. The identifier field shown in FIG. 4 means that timing information is included after the synchronization information identifier. In the linkage information descriptor of FIG. 3, the linked content exists as much as the value of linkage_content_number, and in order to distinguish each of the contents, the value of content_index_id is used in the sync information (pairing information) of FIG. 4.
도 3에 도시된 디스크립터의 linkage_content_number 필드 아래에 있는 for loop에서 content_index_id 를 1로 정의 하고, for loop가 다시 동작할 때 마다 이 값이 1씩 증가한다. In the for loop below the linkage_content_number field of the descriptor illustrated in FIG. 3, content_index_id is defined as 1, and this value is increased by 1 whenever the for loop is operated again.
마지막으로 도 4에 도시된 sync_information 은 기본콘텐츠와 부가콘텐츠의 연동을 위한 재생시점을 찾아내기 위한 일종의 marker(표시)로서 frame number 또는 time code 값을 선택적으로 정의한다.Finally, sync_information illustrated in FIG. 4 selectively defines a frame number or time code value as a kind of marker (display) for finding a playback time for linking the basic content with the additional content.
도 5는 본 발명의 일실시예에 의한 3DTV 하이브리드 연동형 서비스를 위한 수신 장치의 블록도 이다.5 is a block diagram of a receiving apparatus for a 3DTV hybrid linked service according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 수신 장치는 방송망을 통해 전달되는 기본 콘텐츠를 수신하는 부분(제1파트)과 방송망과는 다른 채널 또는 망을 통해 전달되는 부가 콘텐츠를 요청하고 수신하는 부분(제2파트), 그리고 두 콘텐츠를 연동하여 서비스를 제공하는 부분(제3파트)으로 구성된다.As shown in FIG. 5, the receiving device receives a portion (first part) for receiving basic content delivered through a broadcasting network and a portion for requesting and receiving additional content delivered through a channel or network different from the broadcasting network (second part). Part) and a part (third part) providing a service by interworking two contents.
우선, 기본 콘텐츠를 수신하는 부분(제1파트)에 대해 설명하도록 하겠다. First, the part (first part) for receiving basic content will be described.
도 5에 도시된 수신 처리부(501)는 RF 신호 수신, 복조, 채널 디코딩 기능 등을 수행하며, 동시에 다중화된 스트림으로부터 사용자에 의해 선택된 서비스의 추출 기능까지 수행한다. 또한, 상기 수신 처리부(501)를 통해 수신된 기본 콘텐츠는 기본 콘텐츠 디코더(508)에서 소정의 방식으로 디코딩 된다.The reception processor 501 shown in FIG. 5 performs RF signal reception, demodulation, channel decoding, and the like, and simultaneously extracts a service selected by a user from a multiplexed stream. In addition, the basic content received through the reception processor 501 is decoded in a predetermined manner by the basic content decoder 508.
시그널링 정보 및 메타데이터 해석부(502)는 방송 프로그램과 연동되는 서비스의 유무를 판단하고 기술된 연동 서비스 및 부가 콘텐츠 정보를 서비스 관리부(503)에 전달한다. 상기 서비스 관리부(503)는 방송 프로그램 연동형 서비스(3DTV 서비스)를 구성할 수 있도록, 부가 콘텐츠를 얻기 위한 송신 장치와의 연결을 개시하며 상기 콘텐츠가 available하면 상기 콘텐츠를 통해 구성된 서비스를 관리한다. 한편 상기 서비스의 구성정보는 방송망 또는 통신망으로 전달된 메타데이터나 시그널링 정보로부터 획득될 수 있다. The signaling information and metadata analyzing unit 502 determines whether there is a service linked with the broadcast program, and delivers the described coordinated service and additional content information to the service manager 503. The service manager 503 initiates connection with a transmission device for obtaining additional content so as to configure a broadcast program linked service (3DTV service), and manages a service configured through the content if the content is available. Meanwhile, configuration information of the service may be obtained from metadata or signaling information transmitted to a broadcasting network or a communication network.
부가 콘텐츠의 연동 재생정보는 시그널링 정보 및 메타데이터 해석부(502) 또는 수신 처리부(501)에서 획득될 수 있는데 이 정보는 동기화부(504)로 전달된다.The coordinated reproduction information of the additional content may be obtained from the signaling information and metadata analyzing unit 502 or the receiving processing unit 501, and this information is transmitted to the synchronization unit 504.
다음으로, 부가 콘텐츠를 요청하고 수신하는 부분(제2파트)에 대하여 설명하도록 하겠다. 프로토콜 처리부(505)는 서비스 관리부(503)로부터 수신한 부가 콘텐츠 접근 정보를 사용하여 부가 콘텐츠 요청을 패킷 형태로 생성하여 스트리밍 서버로 전송한다. Next, a part (second part) for requesting and receiving additional content will be described. The protocol processor 505 generates the additional content request in the form of a packet using the additional content access information received from the service manager 503 and transmits the additional content request to the streaming server.
부가콘텐츠로의 접근은 linkage_content_URI 또는 linkage_content_type 등을 이용하여 스트리밍 서버로 접근하고 스트리밍 서버로부터 부가콘텐츠가 multicast 되는 경우 이를 포함하는 group에 join하기 위한 message를 교환할 수 있다. Access to the additional content can be accessed to the streaming server using linkage_content_URI or linkage_content_type and the like can exchange messages for joining the group containing the additional content when the additional content is multicasted from the streaming server.
또한 상기 프로토콜 처리부(505)는 수신한 패킷이 오류가 있을 경우 재전송을 요청하는 제어 정보를 송신할 수 있다. 오류가 없는 패킷의 페이로드는 스트리밍 복원부(506)로 전달된다. 상기 스트리밍 복원부(506)는 부가콘텐츠 디코딩, 재생을 위한 파라미터를 체크하고 설정하여 스트리밍 및 재생 환경을 만든다. 또한 프로토콜에 따라 서버가 보낸 스트리밍 환경 설정을 위한 메타 데이터로부터 인코딩 율(rate) 등을 결정하거나 또는 서버가 이를 결정하도록 서버에게 정보를 송신할 수 있다. 이후 수신한 콘텐츠 데이터 스트림을 부가콘텐츠 디코더(507)로 전달한다. In addition, the protocol processor 505 may transmit control information requesting retransmission when the received packet has an error. The payload of the packet without an error is delivered to the streaming recovery unit 506. The streaming decompression unit 506 checks and sets parameters for decoding and playing additional content to create a streaming and playback environment. In addition, according to the protocol, the encoding rate may be determined from the metadata for setting the streaming environment sent by the server, or information may be transmitted to the server so that the server determines the encoding rate. Thereafter, the received content data stream is transferred to the additional content decoder 507.
수신한 메타 데이터 중 연동형 서비스를 위한 정보와 방송프로그램의 접근 정보는 서비스 관리부(503)로 전달되고 연동 재생 정보는 동기화부(504)로 전달된다. 또한 스트리밍 복원부(506)는 망 트래픽 변화로 인해 콘텐츠 데이터 스트림의 수신이 늦어지거나 너무 낮은 레이트로 수신하고 있음을 판단하여 스트리밍 서버로 트래픽에 맞춰 다른 데이터 레이트의 인코딩된 스트림을 요청할 수 있다. 이는 버퍼의 input rate와 playback rate를 통해 판단할 수 있다.Among the received metadata, the information for the linked service and the access information of the broadcast program are transmitted to the service manager 503, and the coordinated reproduction information is transmitted to the synchronizer 504. In addition, the streaming recovery unit 506 may determine that the reception of the content data stream is delayed or is received at a too low rate due to a change in network traffic, and may request an encoded stream having a different data rate from the streaming server according to the traffic. This can be determined by the input rate and playback rate of the buffer.
마지막으로 두 콘텐츠를 연동하여 서비스를 제공하는 부분(제3파트)에 대해 설명하도록 하겠다. Finally, the part (third part) providing a service by interworking the two contents will be described.
예를 들어, 3D 방송을 위한 연동형 서비스를 구현하는 과정에서, 방송 프로그램을 구성하는 기본콘텐츠는 legacy 수신기에서의 동작과 동일하게 실시간으로 재생되며, 추가적으로 부가 콘텐츠가 연동되어 재생되는 형태이다. For example, in the process of implementing the linked service for 3D broadcasting, the basic content constituting the broadcast program is reproduced in real time in the same manner as the operation in the legacy receiver, and additionally, additional content is played in association.
동기화부(504)는 기본 콘텐츠와 연동되는 부가 콘텐츠를 프레임 단위로 동기를 맞추어 재생하기 위해서 해당 프레임을 찾는다. 이는 두 콘텐츠와 다중화되어 전송된 동기화 정보(예를 들어, 도 3 또는 도 4)에 포함된 content_index_id와 sync_information 정보가 모두 매칭되는 것을 찾으면 된다. The synchronizer 504 searches for the corresponding frame in order to synchronize and reproduce the additional content linked to the basic content on a frame-by-frame basis. This is necessary to find that both content_index_id and sync_information information included in the synchronization information (eg, FIG. 3 or FIG. 4) transmitted by multiplexing the two contents are matched.
만약 두 콘텐츠의 수신 시점이 다를 경우는 빠른 쪽을 버퍼링하여 sync_information이 매칭될 때 3D로 화면을 구성하여 재생되도록 한다. 다만, 스트리밍을 pull 방식으로 하는 경우 기본 콘텐츠에 동기화되는 부가 콘텐츠의 프레임 위치를 동기화 정보(예를 들어, 도 3 또는 도 4)로부터 알아내어 이 위치부터 스트리밍 하도록 서버에 요청할 수 있다. 이 경우, 동기화부(504)에서 스트리밍 복원부(506)로 요청 제어 신호를 보내게 된다.If the reception times of the two contents are different, buffer the fast side to play the screen in 3D when the sync_information is matched. However, when the streaming method is used as a pull method, the frame position of the additional content synchronized to the basic content may be obtained from the synchronization information (for example, FIG. 3 or FIG. 4), and the server may be requested to stream from this position. In this case, the synchronization unit 504 sends a request control signal to the streaming recovery unit 506.
그리고, 렌더링부(Renderer)(509)는 상기 동기화부(504)로부터 수신된 페어링 정보, 동기화 정보 등을 이용하여, 상기 부가 콘텐츠 디코더(507) 및 상기 기본 콘텐츠 디코더(508)에서 디코딩된 2개의 이미지를 합성하여 3D 서비스를 위한 데이터를 렌더링 및 출력한다.The renderer 509 may decode the two pieces of content decoded by the additional content decoder 507 and the basic content decoder 508 using pairing information and synchronization information received from the synchronization unit 504. Synthesize the image to render and output the data for the 3D service.
한편, 전술하여 설명한 이전 도 1 내지 도 5를 참조하여, 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 송신 장치를 정리하여 설명하도록 하겠다.Meanwhile, referring to FIG. 1 to FIG. 5 described above, the digital transmission apparatus providing the 3D service using a plurality of different networks will be described.
우선, 송신 장치는, 제1인코더를 이용하여 기준 영상을 인코딩 한다. 상기 제1인코더는, 도 2에 도시된 기본 콘텐츠 인코더(202)에 대응할 수도 있다.First, the transmission device encodes a reference video using the first encoder. The first encoder may correspond to the basic content encoder 202 shown in FIG. 2.
또한, 상기 송신 장치는, 부가 영상을 위한 메타데이터와 상기 인코딩된 기준 영상을 멀티플렉싱 한다. 이는 도 2에 도시된 방송 스트림 다중화부(204)에서 수행할 수도 있다.The transmitting apparatus multiplexes the metadata for the additional view video and the encoded reference video view. This may be performed by the broadcast stream multiplexer 204 shown in FIG. 2.
상기 송신 장치는, 단방향의 제1네트워크(예를 들어, 도 2에 도시된 방송망(206) 또는 지상망 채널)를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송한다. 이는 도 2에 도시된 전송부(205)에서 수행할 수도 있다.The transmitting device transmits the multiplexed data to the digital receiver through a unidirectional first network (for example, the broadcasting network 206 or the ground network channel shown in FIG. 2). This may be performed by the transmitter 205 shown in FIG.
상기 송신 장치는, 제2인코더를 이용하여 상기 부가 영상을 인코딩 한다. 상기 제2인코더는, 도 2에 도시된 부가 콘텐츠 인코더(207)에 대응할 수도 있다.The transmission device encodes the additional video using a second encoder. The second encoder may correspond to the additional content encoder 207 shown in FIG. 2.
상기 수신 장치는, 양방향의 제2네트워크(예를 들어, 도 2에 도시된 양방향 통신망(211) 또는 IP 네트워크)를 통해, 상기 인코딩된 부가 영상을 상기 디지털 수신기로 전송한다. 이는 도 2에 도시된 프로토콜 처리부(210)에서 수행할 수도 있다.The receiving device transmits the encoded additional image to the digital receiver through a bidirectional second network (for example, the bidirectional communication network 211 or the IP network shown in FIG. 2). This may be performed by the protocol processor 210 shown in FIG. 2.
상기 메타데이터는, 예를 들어 상기 부가 영상과 관련된 넘버를 표시하는 제1정보, 상기 부가 영상의 파일 또는 스트림의 종류를 식별하는 제2정보, 상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제3정보 및 상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제4정보를 포함하고 있다. 상기 제1정보는, 도 3에 도시된 linked content number 필드에 해당하며, 상기 제2정보는, 도 3에 도시된 linked content type 필드에 해당하며, 상기 제3정보는, 도 3에 도시된 linked content URI length 필드에 해당하며, 그리고 상기 제4정보는, 도 3에 도시된 linked URI byte 필드에 해당한다.The metadata may include, for example, first information indicating a number associated with the additional video, second information identifying a type of a file or a stream of the additional video, and a URI length for a service associated with the additional video. Third information and fourth information defining a URI byte for a service related to the additional video. The first information corresponds to the linked content number field shown in FIG. 3, the second information corresponds to the linked content type field shown in FIG. 3, and the third information is linked to FIG. 3. corresponds to the content URI length field, and the fourth information corresponds to the linked URI byte field shown in FIG. 3.
나아가, 상기 제1정보는, 예를 들어 상기 기준 영상과 관련된 부가 영상에 액세스 하기 위한 지점의 개수를 식별하도록 설계된다.Further, the first information is designed to identify the number of points for accessing the additional video associated with the reference video, for example.
상기 제3정보는, 예를 들어 상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상에 대응하는 파일의 URI 길이를 표시하며, 상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우에는, 스트리밍 서비스를 위한 URI 길이를 표시한다.For example, when the service is an additional video file download broadcasting service, the third information indicates a URI length of a file corresponding to the additional video. When the service is an additional video streaming broadcasting service, the third information may be a streaming service. Indicates the length of the URI.
상기 제4정보는, 예를 들어 상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상을 구성하는 각 파일에 대한 URI 정보를 포함하며, 상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우, 상기 기준 영상과 상기 부가 영상간 연동을 위한 전체 스트림을 수신하기 위한 URI 정보를 표시한다.The fourth information includes, for example, URI information for each file constituting the additional video when the service is an additional video file download broadcast service, and when the service is an additional video streaming broadcast service, the reference URI information for receiving the entire stream for interworking between the video and the additional video is displayed.
또한, 전술하여 설명한 메타데이터는, 상기 부가 영상과 관련된 서비스 시작 시간을 표시하는 제5정보를 더 포함하고 있다. 상기 제5정보는, 예를 들어 도 3에 도시된 wakeup time 필드에 해당한다. 상기 메타데이터는, 예컨대 IP 망을 통해 제공되는 부가 영상을 처리하기 위해 필요한 부가 정보를 의미하며, 네트워크 서버를 통해 제공되는 부가 영상을 수신 및 3D 재생을 위한 정보를 더 포함할 수도 있다.In addition, the above-described metadata further includes fifth information indicating a service start time associated with the additional view video. The fifth information corresponds to, for example, the wakeup time field shown in FIG. 3. The metadata means additional information necessary for processing additional video provided through, for example, an IP network, and may further include information for receiving and 3D playing the additional video provided through a network server.
상기 서비스 시작 시간은, 부가 영상 파일의 시작 시간 정보에 대응하며, 그리고 상기 부가 영상이 스트리밍 서비스로 제공되는 경우에는 프로그램의 시작 시간 정보에 대응한다.The service start time corresponds to start time information of an additional video file, and corresponds to start time information of a program when the additional video is provided as a streaming service.
나아가, 보조 데이터 중 자막 정보는, 도 2에 도시된 다중화부(204)의 멀티플렉싱 이전에 상기 기준 영상의 비트 스트림과 함께 상기 제1인코더(도 2의 기본 콘텐츠 인코더(202))에서 인코딩 된다. 또한, 상기 보조 데이터 중 시그널링 섹션 정보는, 상기 제1인코더(도 2의 기본 콘텐츠 인코더(202))를 경유하지 않은 상태로 상기 메타데이터와 함께 멀티플렉싱 된다. 상기 보조 데이터는, 예를 들어 접근 제어(access control) 및 자막 기능(closed caption) 등과 관련된 데이터를 의미한다.Furthermore, subtitle information among the auxiliary data is encoded by the first encoder (basic content encoder 202 of FIG. 2) together with the bit stream of the reference video before multiplexing of the multiplexer 204 shown in FIG. 2. In addition, signaling section information of the auxiliary data is multiplexed together with the metadata without passing through the first encoder (basic content encoder 202 of FIG. 2). The auxiliary data refers to data related to, for example, access control and closed captioning.
또한, 전술하여 설명한 바와 같이, 상기 기준 영상과 상기 부가 영상이 동일한 시간(rendering time)에서 프레임(frame) 단위로 동기화 되는 것도 본 발명의 권리범위에 속한다.In addition, as described above, it is also within the scope of the present invention that the reference image and the additional image are synchronized in units of frames at the same time.
한편, 전술하여 설명한 이전 도 1 내지 도 5를 참조하여, 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 또 다른 디지털 송신 장치를 정리하여 설명하도록 하겠다.Meanwhile, referring to FIG. 1 to FIG. 5 described above, another digital transmission apparatus for providing 3D service using multiple different networks will be described.
우선, 송신 장치는, 제1인코더를 이용하여 기준 영상을 인코딩 한다. 상기 제1인코더는, 도 2에 도시된 기본 콘텐츠 인코더(202)에 대응할 수도 있다.First, the transmission device encodes a reference video using the first encoder. The first encoder may correspond to the basic content encoder 202 shown in FIG. 2.
또한, 상기 송신 장치의 다중화부는, 부가 영상과 상기 기준 영상의 동기화를 위한 미디어 페어링 정보(media paring information) 및 상기 인코딩된 기준 영상을 멀티플렉싱 한다. 상기 다중화부는, 도 2에 도시된 방송 스트림 다중화부(204)에 대응될 수도 있다. 또한, 상기 미디어 페어링 정보는, 타임 코드(time code) 또는 프레임 넘버(frame number)를 선택적으로 정의하고 있으며, 예컨대 도 4에 도시된 데이터 중 일부를 사용할 수도 있다.The multiplexer of the transmitting apparatus multiplexes the media paring information and the encoded base view video for synchronization of the additional view video with the base view video. The multiplexer may correspond to the broadcast stream multiplexer 204 shown in FIG. 2. In addition, the media pairing information selectively defines a time code or a frame number. For example, some of the data shown in FIG. 4 may be used.
상기 송신 장치는 단방향의 제1네트워크(예를 들어, 도 2에 도시된 방송망(206))를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송한다. 이는 도 2에 도시된 전송부(205)가 수행하도록 설계할 수도 있다.The transmitting device transmits the multiplexed data to the digital receiver through a unidirectional first network (for example, the broadcasting network 206 shown in FIG. 2). This may be designed to be performed by the transmitter 205 shown in FIG.
상기 송신 장치는, 제2인코더를 이용하여 상기 부가 영상을 인코딩 한다. 상기 제2인코더는, 도 2에 도시된 부가 콘텐츠 인코더(207)에 대응할 수도 있다.The transmission device encodes the additional video using a second encoder. The second encoder may correspond to the additional content encoder 207 shown in FIG. 2.
나아가, 상기 송신 장치는 양방향의 제2네트워크(예를 들어, 도 2에 도시된 양방향 통신망(211))를 통해, 상기 인코딩된 부가 영상을 상기 디지털 수신기로 전송한다. 이는 도 2에 도시된 프로토콜 처리부(210)가 수행하도록 설계할 수도 있다.Furthermore, the transmitting device transmits the encoded additional video to the digital receiver through a bidirectional second network (for example, the bidirectional communication network 211 shown in FIG. 2). This may be designed to be performed by the protocol processor 210 shown in FIG. 2.
상기 미디어 페어링 정보(예를 들어, 도 4)는, PES(Packetized Elementary Stream) 레벨에서 정의된다. 따라서, 데이터 전송의 효율성을 높일 수 있는 장점이 있다.The media pairing information (for example, FIG. 4) is defined at a packetized elementary stream (PES) level. Therefore, there is an advantage that can increase the efficiency of data transmission.
한편, 상기 송신 장치는, 상기 부가 영상의 참조 정보를 정의하는 참조 정보 디스크립터(linkage information descriptor)를 포함하는 EIT(Event Information Table)를 더 전송하도록 설계할 수도 있다. 전술하여 설명한 바와 같이, 상기 참조 정보 디스크립터는 상기 EIT 내 각 이벤트에 대한 디스크립터 루프에 포함되어 있다. 상기 참조 정보 디스크립터는, 이전 도 3에서 정의된 일부 또는 전부의 신택스를 이용하여 구현할 수가 있다.Meanwhile, the transmission device may be designed to further transmit an event information table (EIT) including a linkage information descriptor that defines reference information of the additional video. As described above, the reference information descriptor is included in a descriptor loop for each event in the EIT. The reference information descriptor may be implemented using some or all of the syntax defined in FIG. 3.
상기 참조 정보 디스크립터는, 예를 들어 상기 부가 영상과 관련된 넘버를 표시하는 제1정보(ex : 도 2의 linked content number), 상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제2정보(ex : 도 2의 linked content URI length) 및 상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제3정보(ex : 도 2의 linked URI byte)를 포함한다.The reference information descriptor may include, for example, first information indicating a number associated with the additional video (ex: linked content number in FIG. 2), and second information ex indicating a URI length for a service related to the additional video. FIG. 2 includes linked information URI length of FIG. 2 and third information (eg: linked URI byte of FIG. 2) that defines a URI byte for a service related to the additional view video.
상기 제1정보는, 상기 기준 영상과 관련된 부가 영상에 액세스 하기 위한 지점의 개수를 식별한다.The first information identifies the number of points for accessing the additional video associated with the reference video.
상기 제2정보는, 상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상에 대응하는 파일의 URI 길이를 표시하며, 상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우, 스트리밍 서비스를 위한 URI 길이를 표시한다.The second information indicates a URI length of a file corresponding to the additional video when the service is an additional video file download broadcast service, and indicates a URI length for a streaming service when the service is an additional video streaming broadcast service. Display.
상기 제3정보는, 상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상을 구성하는 각 파일에 대한 URI 정보를 포함하며, 상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우, 상기 기준 영상과 상기 부가 영상간 연동을 위한 전체 스트림을 수신하기 위한 URI 정보를 표시한다.The third information includes URI information for each file constituting the additional video when the service is an additional video file download broadcasting service, and when the service is an additional video streaming broadcast service, the reference video and the URI information for receiving the entire stream for interworking between additional images is displayed.
따라서, 본 발명의 실시예들에 의하면, 부가 영상이 파일 포맷 또는 스트리밍 포맷인지 여부와 관계 없이, 나아가 상기 부가 영상이 실시간 또는 비실시간으로 전송되는지 여부와 관계 없이, 3DTV 서비스를 위한 기본 영상 및 부가 영상을 페어링할 수 있는 기술적 효과가 있다.Therefore, according to embodiments of the present invention, regardless of whether the additional video is a file format or a streaming format, and furthermore, whether the additional video is transmitted in real time or non-real time, the basic video and additional video for 3DTV service There is a technical effect of pairing images.
전술하여 설명한 도 1 내지 도 5에 대한 내용을 참고하여, 이하 도 6 내지 도 12를 설명하도록 하겠다. 당업자는, 이전 도면들을 참조하여, 도 6 내지 도 12를 유추 또는 해석할 수도 있다.6 to 12 will be described below with reference to the contents of FIGS. 1 to 5 described above. Those skilled in the art may infer or interpret FIGS. 6-12 with reference to the previous figures.
도 6은 도 2에 도시된 송신 장치를 보다 상세히 기술한 도면이다.6 is a diagram illustrating the transmission apparatus shown in FIG. 2 in more detail.
3D 방송 프로그램을 구성하는 요소는 3D영상과 음향 신호, 그리고 보조 데이터를 포함하며, 3D 영상은 기본적으로 좌영상과 우영상으로 구성된다. 좌영상과 우영상은 각각 기준영상과 부가영상이라는 독립적인 비디오 기본 스트림(Elementary Stream)으로 나뉘어 전송된다. 보조 데이터를 자막 정보, 프로그램/채널 시그널링 섹션 데이터 등을 포함한다. 자막 정보는 기준영상신호의 비트스트림과 함께 전송되며, 시그널링 섹션 데이터는 다중화를 거쳐 전송된다. 하이브리드 3DTV 방송 프로그램의 경우, 도 6에 도시된 바와 같이 기준영상은 지상파 채널을 통해 전송되며, 부가영상은 IP망을 통해 전송된다.Elements constituting the 3D broadcast program include a 3D image, an audio signal, and auxiliary data, and the 3D image basically includes a left image and a right image. The left video and the right video are divided into independent video elementary streams of the reference video and the additional video, respectively. The auxiliary data includes caption information, program / channel signaling section data, and the like. The caption information is transmitted together with the bitstream of the reference video signal, and the signaling section data is transmitted through multiplexing. In the case of the hybrid 3DTV broadcasting program, as shown in FIG. 6, the reference video is transmitted through the terrestrial channel, and the additional video is transmitted through the IP network.
우선, 기준 영상 신호의 전송 과정을 설명하도록 하겠다.First, the transmission process of the reference video signal will be described.
3D 컨텐츠 서버(601)는 음향 신호(Audio signal) 및 기준영상신호를 생성한다. 도 6에 도시된 바와 같이, 부가영상신호는 상기 3D 컨텐츠 서버(601)에서 생성될 수도 있고, 또는 다른 디바이스로부터 생성될 수도 있다. 부가영상신호에 대해서는 추후 설명하도록 하겠다.The 3D content server 601 generates an audio signal and a reference video signal. As shown in FIG. 6, the additional video signal may be generated by the 3D content server 601 or may be generated from another device. The additional video signal will be described later.
상기 3D 컨텐츠 서버(601)에서 생성된 음향신호는 음향신호 부호화기(602)에서 인코딩 되고, 기준영상신호는 기준영상 부호화기(603)에서 인코딩 된다. 또한, 상기 기준 영상 부호화기(603)는 전술하여 설명한 보조 데이터 중 일부를 추가적으로 인코딩하도록 설계 가능하다.The sound signal generated by the 3D content server 601 is encoded by the sound signal encoder 602, and the reference video signal is encoded by the reference video encoder 603. In addition, the reference image encoder 603 may be designed to additionally encode some of the auxiliary data described above.
프로그램 다중화부(604)는 음향신호 부호화기(602) 및 기준영상 부호화기(603)에서 인코딩된 2개의 데이터를 멀티플렉싱 하고, 채널 다중화부(605)는 상기 프로그램 다중화부(604)에서 멀티플렉싱된 데이터, 채널 다중화 정보 및 부가영상을 위한 메타데이터를 멀티플렉싱 한다.The program multiplexer 604 multiplexes two data encoded by the audio signal encoder 602 and the reference image encoder 603, and the channel multiplexer 605 multiplexes the data and channel multiplexed by the program multiplexer 604. Multiplex the multiplexed information and metadata for additional video.
상기 채널 다중화부(605)에서 멀티플렉싱된 최종 데이터는, 지상파 채널 전송부(606)를 통해 수신기(650)로 전송된다.The final data multiplexed by the channel multiplexer 605 is transmitted to the receiver 650 through the terrestrial channel transmitter 606.
전술하여 간략히 설명한 부가영상신호의 전송 관련 실시예는 크게 3가지로 분류할 수가 있다.Embodiments related to transmission of the additional video signal briefly described above can be classified into three types.
일실시예로, 상기 3D 컨텐츠 서버(601)에서 생성된 부가영상신호가 실시간으로 부가영상 부호화기(607)에서 인코딩 된다. 상기 일실시예는, 하이브리드 3DTV 실시간 방송서비스에 적합하며 보다 구체적인 처리 방식에 대해서는, 이하 도 7을 참조하여 설명하도록 하겠다.In an embodiment, the additional video signal generated by the 3D content server 601 is encoded by the additional video encoder 607 in real time. The above embodiment is suitable for a hybrid 3DTV real-time broadcasting service and a more detailed processing method will be described with reference to FIG. 7 below.
다른 일실시예로, 상기 3D 컨텐츠 서버(601)에서 생성된 부가영상신호가 비실시간으로 부가영상 부호화기(608)에서 인코딩 된다. 상기 다른 일실시예는, 하이브리드 3DTV 다운로드 및 재생 서비스에 적합하며 보다 구체적인 처리 방식에 대해서는 이하 도 8을 참조하여 설명하도록 하겠다.In another embodiment, the additional video signal generated by the 3D content server 601 is encoded by the additional video encoder 608 in non real time. Another embodiment of the present invention is suitable for a hybrid 3DTV download and playback service and a detailed processing method will be described with reference to FIG. 8 below.
또 다른 일실시예로, 상기 3D 컨텐츠 서버(601)가 아닌 다른 디바이스에서 생성된 부가 영상 신호가 비실시간으로 부가 영상 VOD 서버(609)를 통해 직접 수신기에게 전송되는 것이다. 상기 또 다른 일실시예는, 하이브리드 3DTV VoD 서비스에 적합하며 보다 구체적인 처리 방식에 대해서는 이하 도 9를 참조하여 설명하도록 하겠다.In another embodiment, an additional video signal generated by a device other than the 3D content server 601 is transmitted to the receiver directly through the additional video VOD server 609 in non real time. Another embodiment of the present invention is suitable for a hybrid 3DTV VoD service and a detailed processing method will be described with reference to FIG. 9.
나아가, 상기 부가 영상 부호화기들(607, 608)에서 인코딩된 부가영상신호는 스트리밍 웹 서버(610)를 통해 수신기(650)에게 전송된다. 물론, 도 6에 도시된 바와 같이, 적어도 2가지 이상의 경로를 선택하기 위한 스윗칭 모듈(611)을 추가적으로 설계한다. 다만, 당업자의 필요에 따라 상기 스윗칭 모듈(611)을 생략하는 것도 본 발명의 권리범위에 속한다.Furthermore, the additional video signals encoded by the additional video encoders 607 and 608 are transmitted to the receiver 650 through the streaming web server 610. Of course, as illustrated in FIG. 6, a switching module 611 is additionally designed for selecting at least two paths. However, omitting the switching module 611 according to the needs of those skilled in the art is also within the scope of the present invention.
도 7은 3DTV 하이브리드 서비스 중 실시간 방송서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다. 이하, 도 7을 참조하여, 하이브리드 3DTV 실시간 방송 서비스에 대해 설명하도록 하겠다.FIG. 7 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a real-time broadcasting service is provided among 3DTV hybrid services. Hereinafter, a hybrid 3DTV real-time broadcast service will be described with reference to FIG. 7.
컨트롤러(701)의 제어의 의해, 3D 컨텐트 서버(702)는 좌영상과 우영상을 분리하여 처리한다. 예를 들어, 좌영상(기본 영상)은 MPEG-2 인코더(703)에 의해 인코딩된 후 TS 멀티플렉서(704)에 전달된다. 또한, 상기 TS 멀티플렉서(704)는 PSIP 생성부(705)에서 생성된 메타데이터와 인코딩된 좌영상(기본영상)을 멀티플렉싱 하여, TS 형태로 방송망을 통해 수신기에게 전송한다. 상기 메타데이터에 대해서는 이전 도면들에서 충분히 설명한 바 중복되는 설명은 생략하도록 하겠다.Under the control of the controller 701, the 3D content server 702 processes the left image and the right image separately. For example, the left picture (base picture) is encoded by the MPEG-2 encoder 703 and then passed to the TS multiplexer 704. In addition, the TS multiplexer 704 multiplexes the metadata generated by the PSIP generation unit 705 and the encoded left image (base image), and transmits the TS multiplexer to the receiver through a broadcasting network in a TS form. The metadata will not be duplicated since it has been sufficiently described in the previous drawings.
한편, 우영상(부가 영상)은 스트리밍 인코더(706)에서 인코딩된 후 스트리밍 웹서버(707)에 의해 상기 수신기에게 전달된다. 우영상의 전송은 상기 좌영상의 전송과 달리, 양방향 IP 망을 사용한다는 점에서, 본 발명의 일실시예는 하이브리드 3DTV 실시간 방송 서비스에 적용 가능하다.Meanwhile, the right image (additional image) is encoded by the streaming encoder 706 and then transmitted to the receiver by the streaming web server 707. Unlike the transmission of the left image, the transmission of the right image uses a two-way IP network. Thus, an embodiment of the present invention is applicable to a hybrid 3DTV real-time broadcasting service.
도 8은 3DTV 하이브리드 서비스 중 다운로드 방송서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다. 이하, 도 8을 참조하여, 하이브리드 3DTV 다운로드 및 재생 서비스에 대해 설명하도록 하겠다.FIG. 8 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a download broadcast service is provided among 3DTV hybrid services. Hereinafter, a hybrid 3DTV download and playback service will be described with reference to FIG. 8.
제1컨트롤러(801)의 제어의 의해, 레프트 컨텐트 서버(802)는 좌영상(기본 영상)을 MPEG-2 인코더(803)에 전송한다. 상기 제1컨트롤러(801)는 레프트 영상을 위해 사용된다.Under the control of the first controller 801, the left content server 802 transmits a left image (basic image) to the MPEG-2 encoder 803. The first controller 801 is used for the left image.
또한, TS 멀티플렉서(805)는 PSIP 생성부(804)에서 생성된 메타데이터와 인코딩된 좌영상(기본영상)을 멀티플렉싱 하여, TS 형태로 방송망을 통해 수신기에게 전송한다. 상기 메타데이터에 대해서는 이전 도면들에서 충분히 설명한 바 중복되는 설명은 생략하도록 하겠다.In addition, the TS multiplexer 805 multiplexes the metadata generated by the PSIP generation unit 804 and the encoded left image (base image), and transmits the TS multiplexer to the receiver through a broadcasting network in a TS form. The metadata will not be duplicated since it has been sufficiently described in the previous drawings.
제2컨트롤러(806)의 제어의 의해, 라이트 컨텐트 서버(807)는 우영상(부가 영상)을 스트리밍 인코더(808)에 전송한다. 상기 제2컨트롤러(806)는 라이트 영상을 위해 사용된다. 또한, 스트리밍 웹서버(809는 양방향 IP 망을 통해 우영상을 상기 수신기에게 전송한다. 우영상의 전송은 상기 좌영상의 전송과 달리, 양방향 IP 망을 사용한다는 점에서, 본 발명의 일실시예는 하이브리드 3DTV 다운로드 및 재생 서비스에 적용 가능하다.Under the control of the second controller 806, the light content server 807 transmits the right image (additional image) to the streaming encoder 808. The second controller 806 is used for the light image. In addition, the streaming web server 809 transmits the right image to the receiver through a two-way IP network. Unlike the transmission of the left image, the streaming web server 809 uses an two-way IP network. Is applicable to hybrid 3DTV download and playback services.
도 9는 3DTV 하이브리드 서비스 중 VOD 서비스가 제공되는 경우, 도 2 또는 도 6에 도시된 송신 장치를 도시한 것이다. 이하, 도 9를 참조하여, 하이브리드 3DTV VoD(Video On Demand) 서비스에 대해 설명하도록 하겠다.FIG. 9 illustrates the transmission apparatus illustrated in FIG. 2 or 6 when a VOD service is provided among 3DTV hybrid services. Hereinafter, a hybrid 3DTV Video On Demand (VoD) service will be described with reference to FIG. 9.
컨트롤러(901)의 제어의 의해, 레프트 컨텐트 서버(902)는 우영상을 MPEG-2 인코더(903)에 전송한다. 또한, 상기 TS 멀티플렉서(905)는 PSIP 생성부(904)에서 생성된 메타데이터와 인코딩된 좌영상(기본영상)을 멀티플렉싱 하여, TS 형태로 방송망을 통해 수신기에게 전송한다. 상기 메타데이터에 대해서는 이전 도면들에서 충분히 설명한 바 중복되는 설명은 생략하도록 하겠다.Under the control of the controller 901, the left content server 902 transmits the right image to the MPEG-2 encoder 903. In addition, the TS multiplexer 905 multiplexes the metadata generated by the PSIP generation unit 904 and the encoded left image (base image), and transmits the TS multiplexer to a receiver through a broadcasting network in a TS form. The metadata will not be duplicated since it has been sufficiently described in the previous drawings.
한편, 우영상(부가 영상)은 라이트 VOD 서버(906)를 통해 상기 수신기에게 전송된다. 우영상의 전송은 상기 좌영상의 전송과 달리, 양방향 IP 망을 사용한다는 점에서, 본 발명의 일실시예는 하이브리드 3DTV VOD 서비스에 적용 가능하다.Meanwhile, the right image (additional image) is transmitted to the receiver through the light VOD server 906. Unlike the transmission of the left image, the transmission of the right image uses a two-way IP network, so that an embodiment of the present invention is applicable to a hybrid 3DTV VOD service.
도 10은 도 5에 도시된 수신 장치를 보다 간략히 도시한 도면이다.FIG. 10 is a simplified view of the receiving device shown in FIG. 5.
본 발명의 일실시예에 의한 수신 장치는, 예를 들어 기준 영상 처리 파트(1010), 부가 영상 처리 파트(1020), 데이터 프로세서(1030) 및 디스플레이 모듈(1040) 등을 포함한다.The reception apparatus according to an embodiment of the present invention includes, for example, a reference image processing part 1010, an additional image processing part 1020, a data processor 1030, a display module 1040, and the like.
나아가, 도 10에 도시된 바와 같이, 기준 영상 처리 파트(1010)는 PSI/PSIP 디코더(1011), PES 파싱 모듈(1012) 및 제1비디오 디코더(1013) 등을 더 포함한다. 기준 영상 처리 파트(1010)는 실시간으로 수신된 실시간 기준 영상 스트림에 대해 역다중화 및 복호화를 수행하여 3D 서비스의 기준 영상을 생성한다. Furthermore, as shown in FIG. 10, the reference image processing part 1010 further includes a PSI / PSIP decoder 1011, a PES parsing module 1012, a first video decoder 1013, and the like. The reference image processing part 1010 generates a reference image of the 3D service by performing demultiplexing and decoding on the real-time reference image stream received in real time.
우선, PSI/PSIP 디코더(1011)는 실시간 기준 영상 스트림에 포함된 PSI/PSIP 스트림을 추출한다. PSI/PSIP 디코더(1011)는 기준 영상 스트림 및 동기화 정보 스트림의 구성 정보와 페어링 디스크립터 등을 이용하여, 기준 영상과 관련된 PES 패킷, 동기화 정보 스트림 및 연동 정보 등을 추출한다. First, the PSI / PSIP decoder 1011 extracts a PSI / PSIP stream included in a real time reference video stream. The PSI / PSIP decoder 1011 extracts PES packets, synchronization information streams, interworking information, etc. related to the reference video by using configuration information and pairing descriptors of the reference video stream and the synchronization information stream.
기준 영상과 관련된 PES 패킷은 PES 파싱 모듈(1012)로 전송되고, 컨트롤러(1050)의 제어에 따라 페어링 정보는 부가 영상 처리 파트(1020)의 수신/저장 모듈(1021)로 전송된다. 기준 영상 스트림과 동기화 정보 스트림의 구성 정보는 예를 들어 PMT(Program Map Table)에 포함되어 있다. The PES packet related to the reference image is transmitted to the PES parsing module 1012, and pairing information is transmitted to the reception / storage module 1021 of the additional image processing part 1020 under the control of the controller 1050. Configuration information of the reference video stream and the synchronization information stream is included in, for example, a Program Map Table (PMT).
따라서, PSI/PSIP 디코더(1011)는 PMT의 디스크립터 등을 분석하여, 해당 영상이 기준 영상인지 부가 영상인지 여부와 좌/우 영상 여부 등을 식별한다.Accordingly, the PSI / PSIP decoder 1011 analyzes a descriptor of the PMT and identifies whether the corresponding video is a reference video or an additional video, and whether the corresponding video is a left / right video.
PES 파싱 모듈(1012)는 PSI/PSIP 디코더(1011)로부터 기준 영상과 관련된 PES 패킷을 수신하고, 또한 상기 PES 패킷을 파싱함으로써 비디오 ES로 구성된 기준 영상 스트림을 생성한다. 즉, PES 파싱 모듈(1012)는 PES 패킷을 기반으로 기준 영상 스트림을 비디오 ES로 구성하여 기존 방송 규격대로 DTS(Decoding Time Stamp)와 PCR(Program Clock Reference)의 값이 같아지는 때, 제1비디오 디코더(1013)로 전송한다. 본 발명의 일실시예에 따르면, 예를 들어 기준 영상 스트림은 MPEG-2 영상 스트림일 수 있다. 한편, 동기화 정보를 포함한 스트림 역시 상기 PES 파싱 모듈(1012) 또는 별도의 PES 파싱 모듈에서 처리될 수가 있다.The PES parsing module 1012 receives a PES packet related to the reference video from the PSI / PSIP decoder 1011 and also generates a reference video stream composed of the video ES by parsing the PES packet. That is, the PES parsing module 1012 configures the reference video stream as a video ES based on the PES packet, and when the values of the Decoding Time Stamp (DTS) and the Program Clock Reference (PCR) are the same as the existing broadcast standard, the first video Transmit to decoder 1013. According to an embodiment of the present invention, for example, the reference video stream may be an MPEG-2 video stream. Meanwhile, the stream including the synchronization information may also be processed by the PES parsing module 1012 or a separate PES parsing module.
부가 영상 처리 파트(1020)는 수신/저장 모듈(1021), 파일/스트림 파싱 모듈(1022) 및 제2비디오 디코더(1023)를 포함할 수 있다. 상기 부가 영상 처리 파트(1020)는 기준 영상과 연동하여 3D 서비스를 제공하는 부가 영상과 관련된 스트림 또는 파일을 수신하여 복호화함으로써 부가 영상을 생성한다.The additional image processing part 1020 may include a reception / storage module 1021, a file / stream parsing module 1022, and a second video decoder 1023. The additional image processing part 1020 generates an additional image by receiving and decoding a stream or a file related to the additional image that provides a 3D service in association with the reference image.
부가 영상 스트림 또는 부가 영상 파일은 수신/저장 모듈(1021)에서 수신 및 저장된다. 스트림은 실시간으로 수신되어 저장되지 않고 바로 복호화될 수 있고, 파일은 사전에 수신하여 파일 형태로 저장된다. The additional video stream or additional video file is received and stored in the reception / storage module 1021. The stream can be decoded immediately without being received and stored in real time, and the file is received in advance and stored in the form of a file.
상기 수신/저장 모듈(1021)은 연동 정보(페어링 정보 등)를 PSI/PSIP 디코더(1011) 및 컨트롤러(1050) 등을 통해 수신하여 연동 정보가 인디케이트 하는 스트림 또는 파일을, 수신된 부가 영상 스트림 또는 파일과 매칭한다. The reception / storage module 1021 receives the interworking information (pairing information, etc.) through the PSI / PSIP decoder 1011 and the controller 1050 and receives a stream or file indicated by the interworking information and receives the received additional video stream. Or matches a file.
파일/스트림 파싱 모듈(1022)는 기준 영상 처리 파트(1010)의 PES 파싱 모듈(1012) 및 컨트롤러(1050)로부터 파일 또는 스트림 식별 정보 및 동기화 정보를 수신한 후, 기준 영상과 매칭이 되는 부가 영상 파일 또는 스트림을 파싱하여 비디오 ES 형태로 만든다. 그리고, 이를 제2 비디오 디코더(1023)로 전달한다. 파일/스트림 파싱 모듈(1022)는 동기화 정보를 파싱하여 기준 영상과의 동기를 맞춘 후, 대응하는 부가 영상을 기준 영상이 복호화되는 시점(DTS를 고려하여 추출함)에 복호화되도록 비디오 ES 형태의 스트림을 제2비디오 디코더(1023)로 전달한다. 이 때, 이전 도 3 또는 도 4에 도시된 신택스 중 일부가 사용될 수 있으며, 이 또한 본 발명의 권리범위에 속함은 자명하다.The file / stream parsing module 1022 receives the file or stream identification information and the synchronization information from the PES parsing module 1012 and the controller 1050 of the reference image processing part 1010, and then matches an additional image that matches the reference image. Parse a file or stream into video ES. Then, it is transmitted to the second video decoder 1023. The file / stream parsing module 1022 parses the synchronization information to synchronize with the reference video, and then decodes the corresponding additional video at a time point when the reference video is decoded (extracted in consideration of DTS). Is transmitted to the second video decoder 1023. At this time, some of the syntax shown in FIG. 3 or FIG. 4 may be used, and this also belongs to the scope of the present invention.
제2비디오 디코더(1023)는 파일/스트림 파싱 모듈(1022)로부터 부가 영상 스트림 또는 파일을 기반으로 생성된 비디오 ES 형태의 스트림을 수신하여 복호화함으로써 부가 영상을 생성한다. The second video decoder 1023 generates the additional video by receiving and decoding the additional video stream or the video ES type stream generated based on the file from the file / stream parsing module 1022.
데이터 프로세서(1030)는 기준 영상 처리 파트(1010)의 제1비디오 디코더(1013)로부터 수신한 기준 영상과 부가 영상 처리 파트(1020)의 제2비디오 디코더(1023)로부터 수신한 부가 영상을 기반으로 3D 영상을 구성하고, 디스플레이 모듈(1040)을 통해 출력된다.The data processor 1030 based on the reference image received from the first video decoder 1013 of the reference image processing part 1010 and the additional image received from the second video decoder 1023 of the additional image processing part 1020. A 3D image is configured and output through the display module 1040.
나아가, 도 10에 도시된 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치의 다른 실시예를 정리하여 설명하면 다음과 같다.Furthermore, another embodiment of a digital receiving apparatus for providing 3D services using a plurality of different networks shown in FIG. 10 will be described as follows.
제1통신 인터페이스 모듈은, 단방향의 제1네트워크를 통해 부가 영상을 위한 메타데이터 및 인코딩된 기준 영상을 수신한다. 상기 기준 영상은 예컨대 제1포맷으로 인코딩되어 있다. 디멀티플렉서는 상기 수신된 메타데이터 및 인코딩된 기준 영상을 디멀티플렉싱 한다. 상기 제1통신 인터페이스 모듈 및 상기 디멀티플렉서의 기능을 도 10에 도시된 PSI/PSIP 디코더에서 수행하도록 설계할 수도 있다.The first communication interface module receives metadata for the additional view video and the encoded reference video via the first unidirectional network. The reference picture is encoded, for example, in a first format. The demultiplexer demultiplexes the received metadata and the encoded reference picture. The PSI / PSIP decoder shown in FIG. 10 may be designed to perform the functions of the first communication interface module and the demultiplexer.
디코더는, 상기 인코딩된 기준 영상을 디코딩 한다. 상기 디코더의 기능을 도 10에 도시된 제1비디오 디코더(1013)에서 수행하도록 설계 가능하다.The decoder decodes the encoded reference video. The function of the decoder may be designed to be performed by the first video decoder 1013 illustrated in FIG. 10.
제2통신 인터페이스 모듈은, 상기 메타데이터를 이용하여, 상기 부가 영상을 수신한다. 상기 메타데이터는 예컨대 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보를 포함한다. 상기 제2통신 인터페이스 모듈의 기능을 도 10에 도시된 수신/저장 모듈(1021)에서 수행하도록 설계할 수도 있다.The second communication interface module receives the additional video by using the metadata. The metadata includes, for example, information necessary for processing an additional video transmitted through a bidirectional second network. The function of the second communication interface module may be designed to be performed by the reception / storage module 1021 shown in FIG. 10.
컨트롤러는 상기 처리된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공한다. 상기 컨트롤러의 기능을 도 10에 도시된 데이터 프로세서(1030)에서 수행하도록 설계할 수도 있다.The controller provides a 3D service based on the processed reference image and the additional image. The controller may be designed to perform a function of the controller in the data processor 1030 illustrated in FIG. 10.
도 10을 참조하여, 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 수신 장치의 또 다른 실시예를 보다 상세히 설명하면 다음과 같다.Referring to FIG. 10, another embodiment of a digital receiving apparatus for providing 3D service using multiple different networks will be described in detail as follows.
제1통신 인터페이스 모듈은, 단방향의 제1네트워크를 통해 부가 영상과 기준 영상의 동기화를 위한 미디어 페어링 정보(media paring information) 및 인코딩된 기준 영상을 수신한다. 상기 미디어 페어링 정보는 PES(Packetized Elementary Stream)에 포함되어 있으며, 또한 상기 미디어 페어링 정보는 타임 코드(time code) 또는 프레임 넘버(frame number)를 선택적으로 정의하고 있다. 상기 미디어 페어링 정보에 대해서는 이전에 충분히 설명한 바 생략하도록 하겠다.The first communication interface module receives media paring information and encoded reference picture for synchronizing the additional view video with the reference view video through the unidirectional first network. The media pairing information is included in a packetized elementary stream (PES), and the media pairing information selectively defines a time code or a frame number. The media pairing information will be omitted as described above sufficiently.
디멀티플렉서는, 상기 PES에 포함된 미디어 페어링 정보 및 인코딩된 기준 영상을 디멀티플렉싱 한다. 상기 제1통신 인터페이스 모듈 및 상기 디멀티플렉서의 기능을, 도 10의 PSI/PSIP 디코더(1011)에서 수행하도록 설계할 수도 있다.The demultiplexer demultiplexes the media pairing information and the encoded reference picture included in the PES. The PSI / PSIP decoder 1011 of FIG. 10 may be designed to perform the functions of the first communication interface module and the demultiplexer.
PES 파싱 모듈(1012)은, 상기 미디어 페어링 정보를 포함하는 PES 를 역패킷화(depacketize) 한다.The PES parsing module 1012 depacketizes the PES including the media pairing information.
제1비디오 디코더(1013)는, 상기 인코딩된 기준 영상을 디코딩 한다.The first video decoder 1013 decodes the encoded reference video.
제2통신 인터페이스 모듈은, 양방향의 제2네트워크를 통해, 상기 부가 영상을 수신한다. 상기 제2통신 인터페이스 모듈은, 도 10의 수신/저장 모듈(1021)에 대응할 수도 있다.The second communication interface module receives the additional video via the bidirectional second network. The second communication interface module may correspond to the reception / storage module 1021 of FIG. 10.
컨트롤러는, 상기 획득된(depacketized) 미디어 페어링 정보와, 디코딩된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공하도록 설계된다. 상기 컨트롤러는 도 10의 데이터 프로세서(1030)에 대응하도록 설계할 수도 있다.The controller is designed to provide a 3D service based on the depacketized media pairing information and the decoded reference video and the additional video. The controller may be designed to correspond to the data processor 1030 of FIG. 10.
상기 제1통신 인터페이스 모듈은, 상기 부가 영상의 참조 정보를 정의하는 참조 정보 디스크립터(linkage information descriptor)를 포함하는 EIT(Event Information Table)를 수신하되, 상기 참조 정보 디스크립터는 상기 EIT 내 각 이벤트에 대한 디스크립터 루프에 포함되어 있다. 상기 참조 정보 디스크립터(linkage information descriptor)에 대해서는, 이전 도 3에서 충분히 설명한 바 있다.The first communication interface module receives an event information table (EIT) including a linkage information descriptor that defines reference information of the additional video, wherein the reference information descriptor is configured for each event in the EIT. It is included in the descriptor loop. The linkage information descriptor has been fully described above with reference to FIG. 3.
본 발명의 일실시예에 따른 장치 및 제어 방법은, 전술한 도면과 도면을 결합하여, 또는 당업자에게 자명한 사항을 결합하여 다른 실시예를 구현할 수도 있으며, 이 역시 본 발명의 권리범위에 속한다.Apparatus and control method according to an embodiment of the present invention, by combining the above-described drawings and drawings, or may be combined with the obvious to those skilled in the art to implement other embodiments, which also belongs to the scope of the present invention.
한편, 본 발명의 전자 장치의 동작방법은 전자 장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method of operating the electronic device of the present invention may be embodied as processor readable code on a processor readable recording medium included in the electronic device. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (29)

  1. 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 송신 장치의 제어 방법에 있어서,In the control method of a digital transmission device providing a 3D service using a plurality of different networks (multiple networks),
    기준 영상을, 제1인코더를 이용하여 인코딩 하는 단계;Encoding the reference video using a first encoder;
    부가 영상을 위한 메타데이터와 상기 인코딩된 기준 영상을 멀티플렉싱 하는 단계;Multiplexing metadata for an additional picture and the encoded reference picture;
    단방향의 제1네트워크를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송하는 단계; 그리고Transmitting the multiplexed data to a digital receiver via a unidirectional first network; And
    양방향의 제2네트워크를 통해, 상기 부가 영상을 상기 디지털 수신기로 전송하는 단계를 포함하며,Transmitting the additional video to the digital receiver via a second bidirectional network;
    상기 메타데이터는, 상기 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보에 대응하는 디지털 송신 장치의 제어 방법.And the metadata corresponds to information necessary for processing an additional video transmitted through the bidirectional second network.
  2. 제1항에 있어서,The method of claim 1,
    상기 메타데이터는,The metadata,
    상기 부가 영상과 관련된 넘버를 표시하는 제1정보,First information indicating a number associated with the additional video;
    상기 부가 영상의 파일 또는 스트림의 종류를 식별하는 제2정보,Second information for identifying a type of a file or a stream of the additional video;
    상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제3정보 또는Third information indicating a URI length for a service related to the additional video or
    상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제4정보 중 적어도 하나 이상을 포함하는 디지털 송신 장치의 제어 방법.And at least one of fourth information defining a URI byte for a service related to the additional view video.
  3. 제2항에 있어서,The method of claim 2,
    상기 메타데이터는,The metadata,
    부가 영상 파일 또는 스트림의 코덱 정보를 표시하는 데이터를 더 포함하는 디지털 송신 장치의 제어 방법.And a data indicating codec information of an additional video file or stream.
  4. 제2항에 있어서,The method of claim 2,
    상기 부가 영상은,The additional video,
    제2인코더를 통해 인코딩 되며, 상기 제1인코더와 상기 제2인코더는 서로 다른 인코딩 방식을 사용하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.A method of controlling a digital transmitting apparatus, which is encoded through a second encoder, wherein the first encoder and the second encoder use different encoding schemes.
  5. 제2항에 있어서,The method of claim 2,
    상기 제1정보는, The first information is,
    상기 기준 영상과 관련된 부가 영상에 액세스 하기 위한 지점의 개수를 식별하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And controlling the number of points for accessing the additional view video associated with the reference video.
  6. 제5항에 있어서,The method of claim 5,
    상기 제3정보는,The third information is,
    상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상에 대응하는 파일의 URI 길이를 표시하며,If the service is an additional video file download broadcasting service, the URI length of the file corresponding to the additional video is displayed.
    상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우, 스트리밍 서비스를 위한 URI 길이를 표시하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And if the service is an additional video streaming broadcast service, displaying a URI length for a streaming service.
  7. 제6항에 있어서,The method of claim 6,
    상기 제4정보는, The fourth information is,
    상기 서비스가 부가 영상 파일 다운로드 방송 서비스인 경우, 상기 부가 영상을 구성하는 각 파일에 대한 URI 정보를 포함하며,When the service is an additional video file download broadcasting service, URI information for each file constituting the additional video is included.
    상기 서비스가 부가 영상 스트리밍 방송 서비스인 경우, 상기 기준 영상과 상기 부가 영상간 연동을 위한 전체 스트림을 수신하기 위한 URI 정보를 표시하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And when the service is an additional video streaming broadcast service, displaying URI information for receiving the entire stream for interworking between the reference video and the additional video.
  8. 제2항에 있어서,The method of claim 2,
    상기 메타데이터는,The metadata,
    상기 부가 영상과 관련된 서비스 시작 시간을 표시하는 제5정보를 더 포함하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And a fifth information indicating a service start time associated with the additional view video.
  9. 제8항에 있어서,The method of claim 8,
    상기 서비스 시작 시간은,The service start time is,
    부가 영상 파일의 시작 시간 정보에 대응하며, 그리고Corresponds to start time information of the additional video file, and
    상기 부가 영상이 스트리밍 서비스로 제공되는 경우에는 프로그램의 시작 시간 정보에 대응하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And when the additional video is provided as a streaming service, corresponding to the start time information of a program.
  10. 제1항에 있어서,The method of claim 1,
    보조 데이터 중 자막 정보는, 상기 멀티플렉싱 단계 이전에 상기 기준 영상의 비트 스트림과 함께 상기 제1인코더에서 인코딩 되며,Subtitle information of the auxiliary data is encoded in the first encoder together with the bit stream of the reference video before the multiplexing step,
    상기 보조 데이터 중 시그널링 섹션 정보는, 상기 제1인코더를 경유하지 않은 상태로 상기 메타데이터와 함께 멀티플렉싱되는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.The signaling section information of the auxiliary data is multiplexed together with the metadata without passing through the first encoder.
  11. 제1항에 있어서,The method of claim 1,
    상기 단방향의 제1네트워크는 지상파 채널에 대응하며,The unidirectional first network corresponds to a terrestrial channel,
    상기 양방향의 제2네트워크는 IP 네트워크에 대응하는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.And the second bidirectional network corresponds to an IP network.
  12. 제1항에 있어서,The method of claim 1,
    상기 기준 영상과 상기 부가 영상은,The reference video and the additional video,
    동일한 시간(rendering time)에서 프레임(frame) 단위로 동기화 되는 것을 특징으로 하는 디지털 송신 장치의 제어 방법.A control method of a digital transmitting device, characterized in that the synchronization in the unit of a frame at the same time (rendering time).
  13. 서로 다른 복수의 네트워크(multiple networks)를 이용하여 3D 서비스를 제공하는 디지털 송신 장치에 있어서,In the digital transmission device for providing a 3D service using a plurality of different networks (multiple networks),
    기준 영상을 기설정된 제1포맷으로 인코딩 하는 제1인코더;A first encoder for encoding the reference video into a predetermined first format;
    부가 영상을 위한 메타데이터와 상기 인코딩된 기준 영상을 멀티플렉싱 하는 멀티플렉서;A multiplexer for multiplexing metadata for an additional picture and the encoded reference picture;
    단방향의 제1네트워크를 통해, 상기 멀티플렉싱된 데이터를 디지털 수신기로 전송하는 제1전송 모듈;A first transmission module for transmitting the multiplexed data to a digital receiver via a first unidirectional network;
    상기 부가 영상을 기설정된 제2포맷으로 인코딩 하는 제2인코더; 그리고A second encoder for encoding the additional video in a second preset format; And
    양방향의 제2네트워크를 통해, 상기 인코딩된 부가 영상을 상기 디지털 수신기로 전송하는 제2전송 모듈을 포함하며,A second transmission module configured to transmit the encoded additional view video to the digital receiver through a bidirectional second network;
    상기 메타데이터는, 상기 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보에 대응하는 디지털 송신 장치.And the metadata corresponds to information necessary for processing additional video transmitted through the bidirectional second network.
  14. 제13항에 있어서,The method of claim 13,
    상기 메타데이터는,The metadata,
    상기 부가 영상과 관련된 넘버를 표시하는 제1정보,First information indicating a number associated with the additional video;
    상기 부가 영상의 파일 또는 스트림의 종류를 식별하는 제2정보,Second information for identifying a type of a file or a stream of the additional video;
    상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제3정보,Third information indicating a URI length for a service related to the additional view video;
    상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제4정보 또는Fourth information defining a URI byte for a service related to the additional view video or
    상기 부가 영상과 관련된 서비스 시작 시간을 표시하는 제5정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 디지털 송신 장치.And at least one of fifth information indicating a service start time associated with the additional video.
  15. 제14항에 있어서,The method of claim 14,
    상기 메타데이터는,The metadata,
    부가 영상 파일 또는 스트림의 코덱 정보를 표시하는 데이터를 더 포함하는 디지털 송신 장치.And a data indicating codec information of an additional video file or stream.
  16. 제13항에 있어서,The method of claim 13,
    상기 제1포맷은 MPEG-2 형식에 대응하고, The first format corresponds to the MPEG-2 format,
    상기 제2포맷은 H.264 형식에 대응하는 것을 특징으로 하는 디지털 송신 장치.And the second format corresponds to an H.264 format.
  17. 제14항에 있어서,The method of claim 14,
    상기 서비스 시작 시간은,The service start time is,
    부가 영상 파일의 시작 시간 정보에 대응하며, 그리고Corresponds to start time information of the additional video file, and
    상기 부가 영상이 스트리밍 서비스로 제공되는 경우에는 프로그램의 시작 시간 정보에 대응하는 것을 특징으로 하는 디지털 송신 장치.And when the additional video is provided as a streaming service, corresponding to start time information of a program.
  18. 제14항에 있어서,The method of claim 14,
    상기 서비스 시작 시간은,The service start time is,
    부가 영상 파일의 시작 시간 정보에 대응하며, 그리고Corresponds to start time information of the additional video file, and
    상기 부가 영상이 스트리밍 서비스로 제공되는 경우에는 프로그램의 시작 시간 정보에 대응하는 것을 특징으로 하는 디지털 송신 장치.And when the additional video is provided as a streaming service, corresponding to start time information of a program.
  19. 제13항에 있어서,The method of claim 13,
    상기 기준 영상과 상기 부가 영상은,The reference video and the additional video,
    동일한 시간(rendering time)에서 프레임(frame) 단위로 동기화 되는 것을 특징으로 하는 디지털 송신 장치.Digital transmitting apparatus characterized in that the synchronization in the unit of frame (frame) at the same time (rendering time).
  20. 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치의 제어 방법에 있어서,In the control method of a digital receiving device providing a 3D service using a plurality of different networks,
    단방향의 제1네트워크를 통해, 부가 영상을 위한 메타데이터 및 인코딩된 기준 영상을 수신하는 단계-상기 기준 영상은 제1포맷으로 인코딩되어 있음-;Receiving, via the unidirectional first network, metadata for the additional picture and the encoded reference picture, wherein the reference picture is encoded in the first format;
    상기 수신된 메타데이터 및 인코딩된 기준 영상을 디멀티플렉싱 하는 단계;Demultiplexing the received metadata and an encoded reference picture;
    상기 인코딩된 기준 영상을 디코딩 하는 단계;Decoding the encoded reference video;
    상기 메타데이터를 이용하여, 상기 부가 영상을 수신하는 단계-상기 메타데이터는 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보를 포함-; 그리고Receiving the additional view video using the metadata, wherein the metadata includes information necessary for processing the additional view video transmitted through a bidirectional second network; And
    상기 처리된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공하는 단계Providing a 3D service based on the processed reference image and the additional image;
    를 포함하는 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치의 제어 방법.Control method of a digital receiving device providing a 3D service using a plurality of different networks comprising a.
  21. 제20항에 있어서,The method of claim 20,
    상기 부가 영상은 제2포맷으로 인코딩되어 있으며, 상기 제1포맷과 상기 제2포맷은 서로 다른 것을 특징으로 하는 디지털 수신 장치의 제어 방법.The additional video is encoded in a second format, and wherein the first format and the second format are different from each other.
  22. 제21항에 있어서,The method of claim 21,
    상기 제1포맷은 MPEG-2 타입에 대응하고,The first format corresponds to the MPEG-2 type,
    상기 제2포맷은 H.264 타입에 대응하는 것을 특징으로 하는 디지털 수신 장치의 제어 방법.And the second format corresponds to the H.264 type.
  23. 제20항에 있어서,The method of claim 20,
    상기 메타데이터는,The metadata,
    상기 부가 영상과 관련된 넘버를 표시하는 제1정보,First information indicating a number associated with the additional video;
    상기 부가 영상의 파일 또는 스트림의 종류를 식별하는 제2정보,Second information for identifying a type of a file or a stream of the additional video;
    상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제3정보,Third information indicating a URI length for a service related to the additional view video;
    상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제4정보 또는Fourth information defining a URI byte for a service related to the additional view video or
    상기 부가 영상과 관련된 서비스 시작 시간을 표시하는 제5정보 중 적어도 하나 이상을 포함하는 디지털 수신 장치의 제어 방법.And at least one of fifth information indicating a service start time associated with the additional video.
  24. 제23항에 있어서,The method of claim 23, wherein
    상기 메타데이터는,The metadata,
    부가 영상 파일 또는 스트림의 코덱 정보를 표시하는 데이터를 더 포함하는 디지털 수신 장치의 제어 방법.And a data indicating codec information of an additional video file or stream.
  25. 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치에 있어서,In the digital receiving device providing a 3D service using a plurality of different networks,
    단방향의 제1네트워크를 통해, 부가 영상을 위한 메타데이터 및 인코딩된 기준 영상을 수신하는 제1통신 인터페이스 모듈-상기 기준 영상은 제1포맷으로 인코딩되어 있음-;A first communication interface module for receiving, via the unidirectional first network, metadata for the additional picture and the encoded reference picture, wherein the reference picture is encoded in the first format;
    상기 수신된 메타데이터 및 인코딩된 기준 영상을 디멀티플렉싱 하는 디멀티플렉서;A demultiplexer for demultiplexing the received metadata and the encoded reference picture;
    상기 인코딩된 기준 영상을 디코딩 하는 디코더;A decoder for decoding the encoded reference video;
    상기 메타데이터를 이용하여, 상기 부가 영상을 수신하는 제2통신 인터페이스 모듈-상기 메타데이터는 양방향의 제2네트워크를 통해 전송되는 부가 영상을 처리하기 위해 필요한 정보를 포함-; 그리고A second communication interface module for receiving the additional video using the metadata, the metadata including information necessary for processing the additional video transmitted through the bidirectional second network; And
    상기 처리된 기준 영상 및 부가 영상에 기초하여, 3D 서비스를 제공하는 컨트롤러를 포함하는 서로 다른 복수의 네트워크를 이용하여 3D 서비스를 제공하는 디지털 수신 장치.A digital receiving apparatus for providing a 3D service using a plurality of different networks including a controller for providing a 3D service based on the processed reference image and the additional image.
  26. 제25항에 있어서,The method of claim 25,
    상기 부가 영상은 제2포맷으로 인코딩되어 있으며, 상기 제1포맷과 상기 제2포맷은 서로 다른 것을 특징으로 하는 디지털 수신 장치.The additional video is encoded in a second format, wherein the first format and the second format is different from each other.
  27. 제26항에 있어서,The method of claim 26,
    상기 제1포맷은 MPEG-2 타입에 대응하고,The first format corresponds to the MPEG-2 type,
    상기 제2포맷은 H.264 타입에 대응하는 것을 특징으로 하는 디지털 수신 장치.And the second format corresponds to an H.264 type.
  28. 제25항에 있어서,The method of claim 25,
    상기 메타데이터는,The metadata,
    상기 부가 영상과 관련된 넘버를 표시하는 제1정보,First information indicating a number associated with the additional video;
    상기 부가 영상의 파일 또는 스트림의 종류를 식별하는 제2정보,Second information for identifying a type of a file or a stream of the additional video;
    상기 부가 영상과 관련된 서비스를 위한 URI 길이를 표시하는 제3정보,Third information indicating a URI length for a service related to the additional view video;
    상기 부가 영상과 관련된 서비스를 위한 URI 바이트(byte)를 정의하는 제4정보 또는Fourth information defining a URI byte for a service related to the additional view video or
    상기 부가 영상과 관련된 서비스 시작 시간을 표시하는 제5정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 디지털 수신 장치.And at least one of fifth information indicating a service start time associated with the additional video.
  29. 제28항에 있어서,The method of claim 28,
    상기 메타데이터는,The metadata,
    부가 영상 파일 또는 스트림의 코덱 정보를 표시하는 데이터를 더 포함하는 디지털 수신 장치.And a data indicating codec information of an additional video file or stream.
PCT/KR2012/009872 2011-11-22 2012-11-21 Transmitting and receiving apparatus for 3d tv broadcasting and method for controlling same WO2013077629A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20110122001 2011-11-22
KR10-2011-0122001 2011-11-22
KR10-2012-0132306 2012-11-21
KR1020120132306A KR20130056829A (en) 2011-11-22 2012-11-21 Transmitter/receiver for 3dtv broadcasting, and method for controlling the same

Publications (1)

Publication Number Publication Date
WO2013077629A1 true WO2013077629A1 (en) 2013-05-30

Family

ID=48470018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/009872 WO2013077629A1 (en) 2011-11-22 2012-11-21 Transmitting and receiving apparatus for 3d tv broadcasting and method for controlling same

Country Status (1)

Country Link
WO (1) WO2013077629A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218433A (en) * 2001-01-15 2002-08-02 Yoshiki Koura Digital video system, method for acquiring information linked with video image, two-way viewing system and device, decoder, transfer medium, and recording medium
JP2006135706A (en) * 2004-11-08 2006-05-25 Nippon Telegr & Teleph Corp <Ntt> Bml content providing system and recording medium
KR100585963B1 (en) * 2004-08-31 2006-06-01 한국전자통신연구원 Apparatus for synchronizing data broadcasting service at home network, and enhanced broadcasting service system using it
KR100885615B1 (en) * 2007-12-03 2009-02-24 브로드밴드미디어주식회사 System and method of full duplex internet protocol television sevice to provide added data of contents relation product on the air
KR20120071592A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 System and method for providing augmented reality contents based on broadcasting

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218433A (en) * 2001-01-15 2002-08-02 Yoshiki Koura Digital video system, method for acquiring information linked with video image, two-way viewing system and device, decoder, transfer medium, and recording medium
KR100585963B1 (en) * 2004-08-31 2006-06-01 한국전자통신연구원 Apparatus for synchronizing data broadcasting service at home network, and enhanced broadcasting service system using it
JP2006135706A (en) * 2004-11-08 2006-05-25 Nippon Telegr & Teleph Corp <Ntt> Bml content providing system and recording medium
KR100885615B1 (en) * 2007-12-03 2009-02-24 브로드밴드미디어주식회사 System and method of full duplex internet protocol television sevice to provide added data of contents relation product on the air
KR20120071592A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 System and method for providing augmented reality contents based on broadcasting

Similar Documents

Publication Publication Date Title
WO2012128563A2 (en) Heterogeneous network-based linked broadcast content transmitting/receiving device and method
WO2013019042A1 (en) Transmitting apparatus and method and receiving apparatus and method for providing a 3d service through a connection with a reference image transmitted in real time and additional image and content transmitted separately
WO2012099359A2 (en) Reception device for receiving a plurality of real-time transfer streams, transmission device for transmitting same, and method for playing multimedia content
WO2013154402A1 (en) Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
WO2012077982A2 (en) Transmitter and receiver for transmitting and receiving multimedia content, and reproduction method therefor
WO2013169084A1 (en) Hybrid transmission method through mmt packet format extension
WO2011059274A2 (en) Adaptive streaming method and apparatus
WO2012121572A2 (en) Transmission device and method for providing program-linked stereoscopic broadcasting service, and reception device and method for same
WO2012177041A2 (en) Media content transceiving method and transceiving apparatus using same
WO2013154397A1 (en) Transmitting system and receiving apparatus for providing hybrid service, and service providing method thereof
WO2012011724A2 (en) Method for transceiving media files and device for transmitting/receiving using same
WO2011108903A2 (en) Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services
WO2013154350A1 (en) Receiving apparatus for providing hybrid service, and hybrid service providing method thereof
WO2013025035A2 (en) Transmitting device, receiving device, and transceiving method thereof
WO2013162312A1 (en) Method and apparatus for transceiving data for multimedia transmission system
WO2012060581A2 (en) Method for transreceiving media content and device for transreceiving using same
WO2010147289A1 (en) Broadcast transmitter, broadcast receiver and 3d video processing method thereof
KR101781887B1 (en) Method and apparatus for transceiving broadcast signal
WO2016129981A1 (en) Method and device for transmitting/receiving media data
WO2013025032A1 (en) Receiving apparatus and receiving method thereof
WO2018174367A1 (en) Broadcast signal transmitting and receiving method and device
WO2012121571A2 (en) Method and device for transmitting/receiving non-real-time stereoscopic broadcasting service
WO2011129602A2 (en) Three-dimensional image data encoding method and device and decoding method and device
WO2011049372A2 (en) Method and apparatus for generating stream and method and apparatus for processing stream
WO2012144857A2 (en) Receiver for receiving and displaying a plurality of streams through separate routes, method for processing the plurality of streams and transmitting method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12851487

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12851487

Country of ref document: EP

Kind code of ref document: A1