WO2013015596A2 - 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법 - Google Patents

비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법 Download PDF

Info

Publication number
WO2013015596A2
WO2013015596A2 PCT/KR2012/005887 KR2012005887W WO2013015596A2 WO 2013015596 A2 WO2013015596 A2 WO 2013015596A2 KR 2012005887 W KR2012005887 W KR 2012005887W WO 2013015596 A2 WO2013015596 A2 WO 2013015596A2
Authority
WO
WIPO (PCT)
Prior art keywords
video
stream
substream
sub
signaling information
Prior art date
Application number
PCT/KR2012/005887
Other languages
English (en)
French (fr)
Other versions
WO2013015596A3 (ko
Inventor
서종열
곽국연
김진필
최지현
홍호택
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CA2844361A priority Critical patent/CA2844361C/en
Priority to EP12816950.5A priority patent/EP2739052A4/en
Priority to CN201280036872.2A priority patent/CN103718562B/zh
Priority to US14/234,593 priority patent/US9113020B2/en
Priority to KR1020137033736A priority patent/KR20140040165A/ko
Publication of WO2013015596A2 publication Critical patent/WO2013015596A2/ko
Publication of WO2013015596A3 publication Critical patent/WO2013015596A3/ko
Priority to US14/803,990 priority patent/US9432705B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Definitions

  • the present invention provides a video stream transmission apparatus, a video stream reception apparatus, a video stream transmission method, and a video stream reception method.
  • the UD resolution is defined as a high resolution video image of 4 times or 16 times the high definition (HD) resolution.
  • HD high definition
  • An object of the present invention is to solve the above problems, and to provide a video stream transmission apparatus, a video stream reception apparatus, a video stream transmission method, and a video stream reception method capable of efficiently transmitting and receiving an ultra high resolution video stream.
  • Another object of the present invention is to provide a video stream transmission apparatus, a video stream reception apparatus, a video stream transmission method, and a video stream reception method capable of transmitting and receiving a video stream compatible with a current broadcasting system while implementing an ultra high resolution video stream. .
  • a sub-signal of an HD compatible video viewable by downsampling an UD (ultra definition) video stream, a sub-stream of HD size video, and a residual signal which is a difference between the HD compatible video and the HD size video
  • UD ultra definition
  • a residual signal which is a difference between the HD compatible video and the HD size video
  • Splitting into substreams of, encoding each of the separated substreams Multiplexing the signaling information describing the relationship between the UD video stream and the at least one substream and the at least one substream; And transmitting the multiplexed at least one HD video substream and signaling information.
  • the signaling information may include an identifier of a substream of the HD compatible video or a substream of the HD size video.
  • the signaling information may include service type information that can be supported by a video signal transmitted by the sub stream.
  • the signaling information may further include an identifier of a video substream associated with the substream of the residual signal.
  • the signaling information may include transmission medium information of a substream of the HD compatible video or a substream of the HD size video.
  • a substream of an HD compatible video obtained by downsampling an ultra definition (UD) video, a substream of an HD size video, and a sub-signal of a residual signal which is a difference between the HD compatible video and the HD size video
  • UD ultra definition
  • a substream of an HD size video obtained by downsampling an ultra definition (UD) video, a substream of an HD size video, and a sub-signal of a residual signal which is a difference between the HD compatible video and the HD size video
  • a stream including signaling information describing a relationship between at least one substream of the stream and the stream of the UD video and at least one substream of the substreams Decoding the demultiplexed signaling information; And decoding a substream of the demultiplexed HD compatible video or a substream of the HD size video using the decoded signaling information.
  • Another embodiment of the present invention provides a sub-signal of an HD compatible video that can be viewed by downsampling an ultra definition (UD) video stream, a sub-stream of an HD size video, and a residual signal that is a difference between the HD compatible video and the HD size video.
  • An encoder for splitting into substreams of and encoding each of the separated substreams;
  • a multiplexer for multiplexing the signaling information describing the relationship between the UD video stream and the at least one substream and the at least one substream;
  • a transmitter for transmitting the multiplexed at least one HD video substream and signaling information.
  • a substream of an HD compatible video obtained by downsampling an ultra definition (UD) video, a substream of an HD size video, and a sub-signal of a residual signal which is a difference between the HD compatible video and the HD size video
  • a demultiplexer for demultiplexing a stream including signaling information describing a relationship between at least one substream of the stream and the stream of the UD video and at least one substream of the substreams;
  • a signaling information decoder for decoding the demultiplexed signaling information;
  • a video decoder which decodes the sub-stream of the demultiplexed HD compatible video or the sub-stream of the HD size video by using the decoded signaling information.
  • an ultra high resolution video stream can be efficiently transmitted and received.
  • FIG. 1 illustrates an example of transmitting a UD video stream according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating in detail an example of down sampling from UD video to HD compatible video according to an exemplary embodiment of the present invention.
  • FIG. 3 illustrates an example of obtaining a residual signal for an HD video signal from UD video.
  • FIG. 4 illustrates an example in which a video splitter subsamples a UD video stream into HD size video.
  • FIG. 5 is a diagram illustrating an example of a stream receiver for receiving and processing separated HD video streams according to an embodiment of the present invention.
  • FIG. 6 illustrates an embodiment of a program or channel configuration for transmitting and receiving a UD video stream.
  • FIG 7 illustrates signaling information according to an embodiment of the present invention.
  • FIG. 8 illustrates a substream descriptor of signaling information according to an embodiment of the present invention.
  • FIG 9 illustrates a sub_stream_type field according to an embodiment of the present invention.
  • FIG. 10 illustrates an example of allocating a substream to a component or an element obtained from a UD video stream.
  • FIG. 11 illustrates a combine descriptor according to an embodiment of the present invention.
  • 13 is a diagram illustrating the original_UD_resolution field value described above.
  • FIG. 15 illustrates a format of a supplemental enhancement information (SEI) payload of a video elementary stream.
  • SEI Supplemental Enhancement Information
  • FIG. 16 illustrates a format of a Supplemental enhancement information (SEI) message of a video elementary stream.
  • SEI Supplemental enhancement information
  • 17 is a diagram illustrating sampling information according to a method of subsampling UD video in a video elementary stream
  • FIG. 19 is a diagram illustrating an example of a receiver according to the embodiment of the present invention described above.
  • FIG. 20 illustrates an embodiment of a video stream transmission method according to the present invention.
  • 21 illustrates an embodiment of a method of receiving a video stream according to the present invention.
  • H ⁇ V may represent a UD resolution of 3840 ⁇ 2160 and h ⁇ v may represent an HD resolution of 1920 ⁇ 1080.
  • the size of H ⁇ V and h ⁇ v may be relatively different depending on the separation method and the number.
  • a 4K UD video stream can be separated into four HD video streams and an additional video stream.
  • a 16K UD video stream may be divided into 16 HD video streams and an additional video stream.
  • An additional video stream carrying the residual signal is illustrated in detail below.
  • the embodiment of the present invention may be applied to an example of subsampling a video stream having a first resolution and transmitting and receiving a video stream having a second resolution and an additional video stream.
  • the video before and after separating the video stream is expressed in terms of terms such as video-sub video, content-sub content, stream-sub stream, and service-sub service, respectively.
  • the sub video, the sub stream, the sub content, or the sub service may be independently a video elementary stream which is a transmission unit.
  • the HD compatible video which is generated by downsampling the UD video, indicates that the video is compatible with the HD video by filtering.
  • HD size video refers to HD size video obtained by simply sampling from UD video.
  • the residual signal indicates the difference between the HD compatible video and the HD size video, and the HD size video may be the HD compatible video when there is no difference in image quality in some cases (the size of the residual signal is small). .
  • FIG. 1 illustrates an example of transmitting a UD video stream according to an embodiment of the present invention.
  • UD-to-HD downsampling downsamples UD resolution video to HD resolution video.
  • the downsampled video signal may be watchable HD compatible video.
  • filtering UD-resolution video with a low pass filter and down sampling can produce HD compatible video (marked down-sampled).
  • the downsampling process will be described later with reference to the drawings.
  • the video encoder can receive down sampled HD compatible video, encode it, and output it as a video stream.
  • the multiplexer receives the downsampled HD video signal and outputs a multiple stream obtained by multiplexing the signaling information.
  • the video splitter may subsample the 3840 ⁇ 2160 UD video stream into four substreams according to a sub-video sampling factor.
  • the separated substreams may each be a stream of 1920x1080 HD size video.
  • streams of HD size video are referred to as sub-video 0, sub-video 1, sub-video 2, and sub-video 3, respectively, and these sub-videos can be viewed as full HD video streams in some cases. It may be a video signal (HD compatible video).
  • the subsampling factor used for subsampling may be referred to as (even, even), (odd, even), (even, odd), (odd, odd) for each separate stream. This will be described later in detail.
  • video encoders may encode each sub video (sub-videos 0, 1, 2, 3) into streams of HD size video using each sub sampling factor.
  • video for one or more sub videos may be collected and one sub stream may be transmitted.
  • the multiplexers may output the multiplexed streams by multiplexing the encoded video streams and the respective signaling information.
  • the output stream may be transmitted through the same broadcast medium or may be transmitted through two or more media such as a broadcast medium or an internet medium. Signaling information for this is described in detail below.
  • the subtractor is an HD compatible video of which UD-to-HD downsampling is downsampled to HD resolution and HD size video, which is one of sub videos separated by a video splitter.
  • a residual signal that is a difference may be output.
  • This figure shows an example in which the difference between HD compatible video and sub-video 0 is used as a residual signal.
  • residual signals can also be generated from HD compatible video and sub-videos 1,2, or 3.
  • the residual signal may be separately encoded by the corresponding video encoder and output as a separate video stream, and may be output by being multiplexed with other information by the multiplexer.
  • the multiplexer multiplexes and outputs the HD compatible video stream and the residual signal video stream down-sampled from the UD video into separate streams as shown in the drawing, or the HD compatible video stream and the residual video signal stream differently from the drawing. It may be output by multiplexing into one video stream.
  • FIG. 2 is a diagram illustrating an example of down sampling from UD video to HD compatible video in the illustrated embodiment of the present invention.
  • HD compitible video can be obtained by filtering the UD video with a low pass filter and subsampling the low pass filtered signal using the subsampling factor ((even, even) in this figure) at the corresponding position.
  • 3 is a diagram illustrating an example of obtaining a residual signal for an HD video signal from UD video.
  • the subtractor differs between an HD compatible video signal downsampled using a subsampling factor from UD video (denoted as HD compatiable) and a signal sampled or decimated using a subsampling factor from UD video.
  • the output signal can be used as a residual signal.
  • the video signal for serving the HD video may be obtained by downsampling the UD video.
  • the process of down sampling or decimation may be appropriately filtered to satisfy the quality of the HD video. Since the filtered HD signal is different from the UD video, the embodiment of the present invention multiplexes the residual signal into a separate stream or an HD compatible video stream to compensate for the two differences with the residual signal. Can transmit
  • FIG. 4 is a diagram illustrating an example in which a video splitter subsamples a UD video stream into HD size video.
  • the video splitter subsamples the UD video stream into an HD size video stream according to a sub-video sampling factor.
  • Four pixels included in 2 ⁇ 2 pixels may be divided into 0, 1, 2, and 3 as illustrated in the drawing.
  • the sub-pixels, which are HD size video are sub-sampled by sub-sampling the pixels at the top left, which are 0, included in 2 ⁇ 2 pixels of the UD video. You can create video 0.
  • the sub-pixels of HD size video are sub-sampled by sub-sampling the pixels on the upper right, indicated by 1, included in 2 ⁇ 2 pixels of the UD video. You can create video 1.
  • the sub-pixels of the lower left indicated by 2 included in 2 ⁇ 2 pixels of the UD video are subsampled to be sub-video, which is HD size video. You can create video 2.
  • the fourth sub-video sampling factor (odd, odd)
  • the lower right pixel indicated by 3 included in the 2 x 2 pixels of the UD video is sub-sampled to be HD size video. You can create sub-video 3.
  • sub-video 0, 1, 2, and 3 may be HD size video content that can be viewed if sub-sampling and the residual signal are small as shown in this figure.
  • FIG. 5 illustrates an example of a stream receiver for receiving and processing separated HD video streams according to an embodiment of the present invention.
  • the demultiplexers receive a stream in which one or more streams and signaling information multiplexed from a UD video stream, a down-sampled HD compatible video stream, a subsampled HD size video stream, or a video stream according to a residual signal, and the received stream is multiplexed. Demultiplexes to output HD compatible video streams or HD size video streams, respectively.
  • the demultiplexer may include two or more sub videos or one HD compatible video stream and a residual signal.
  • the multiplexed video streams may be demultiplexed and output as respective streams.
  • the video decoders may decode and output each HD stream according to each sub-sampling factor.
  • the video decoder may decode the HD compatible video so that the HD video stream is output.
  • the video decoder receives the HD compatible video data from the video decoder which decodes the HD compatible video stream associated with the residual signal, and includes the UD video with the residual signal.
  • HD size sub-video can be decoded.
  • the HD sub-video is represented as sub-video zero.
  • the video merger may synthesize four video streams for sub-videos 0, 1, 2, and 3 into one UD video stream by using the sub-sampling factor. For example, according to the reverse process of FIG. 1, a video stream may be output using one sub-sampled HD size video streams.
  • the receiver when the receiver has no choice but to output HD video, the receiver may output HD compatible video, and if it is able to output UD, the receiver may selectively output HD compatible video or UD video.
  • FIG. 6 shows an embodiment of a program or channel configuration for transmitting and receiving a UD video stream.
  • the program, service, and channel may be used in the same sense.
  • Program A in this figure may be service A or channel A.
  • the program B may be a service B or a channel B.
  • program B represents program components capable of UD video service
  • program A represents program component capable of providing HD compatible video service using UD video.
  • program B may include components of program A, but components of program B and components of program A (ie, video downsampled from program B) may be transmitted and received on separate channels.
  • program A becomes an HD compatible video component (component 1) obtained from UD video.
  • Program B is an HD compatible video component (component 1) obtained from UD video, a video component according to the residual signal for sub-video 0 (component 2), and a video component according to the residual signal for sub-video 1 (component 3). ), A video component according to the residual signal for sub-video 2, and a video component according to the residual signal for sub-video 4.
  • the conventional HD video stream receiver decodes the HD compatible video component (component 1) and outputs video.
  • the UD video stream receiver decodes the video component (component 2) according to the residual signal for the HD compatible video component (component 1) and sub-video 0, and the video according to the residual signal for the sub-video 1.
  • Decode and decode the video component (component 4) according to the component (component 3), the residual signal for sub-video 2, and the video component (component 5) according to the residual signal for the sub-video 4 To output UD video.
  • components 3, 4, and 5 are results of sub-sampling or decimation of UD video, and component 1 is used to sub-sample or decimate UD video or to use filtering. Shows the result of down sampling.
  • Component 2 illustrates a result according to the residual signal of the video according to component 1.
  • signaling information is illustrated when transmitting and receiving a UD video stream as an HD video stream or a video stream according to the residual signal.
  • the video stream of the first resolution is separated into the video streams of the second resolution as described above, the video stream of the first resolution may be output according to the capability of the receiver using the illustrated signaling information. You can also output a stream.
  • the signaling information may be included in the descriptor describing each separate video stream and included in the broadcast signaling information.
  • the descriptor may signal stream information such as a sub-video stream sub-sampled an HD compatible video stream or a UD video, a stream including some sub-videos, and a sub-sampling method.
  • a program map table (PMT) is illustrated as broadcast signaling information including signaling information.
  • the description of each field of the PMT may be in accordance with ISO / IEC 13818-1 (MPEG-2 systems).
  • stream_type may be 0x02 or 0x1B to identify the separated stream, and a separate stream_type value may be used to identify a stream according to a high performance codec supporting ultra high resolution video such as a UD video stream.
  • a program level descriptor and a stream level descriptor may be used to signal the UD video stream or the sub-sampled HD video stream from the UD video stream, respectively.
  • the program level descriptor (indicated by UDTV_service_combine_descriptor) illustrated in the embodiment is, for example, synthesizing a plurality of HD video streams (HD compatible video, HD size video) or video streams according to the residual signal into one UD video stream It may include signaling information for this, hereinafter referred to as combine descriptor.
  • the stream level descriptor (indicated by UDTV_sub_stream_descriptor) illustrated in the embodiment may include signaling information for describing, for example, HD video streams or a video stream according to a residual signal, and in the following, a substream descriptor It is called.
  • UDTV_sub_stream_descriptor a substream descriptor (denoted as UDTV_sub_stream_descriptor) will be described first.
  • the sub stream refers to a video elementary stream that can be independently transmitted and may correspond to each component of FIG. 6 or may refer to one or more components as one sub stream.
  • the descriptor_tag field represents an identifier for identifying this descriptor.
  • the descriptor_length field may indicate the length of this descriptor in bits.
  • the sub_stream_ID field represents an ID value assigned to identify each video stream included in the UD video.
  • Each sub_stream may be assigned in order with respect to the leftmost pixel, and for example, a smaller value may be assigned as the reference pixel of each video stream is positioned above the left side in the UD video.
  • an elementary stream_PID field indicating an identifier of a video elementary stream may serve as a sub_stream_ID field.
  • the sub_stream_ID field may be represented by 2 bits
  • the sub_stream_ID field may be represented by 4 bits.
  • the sub_stream_type field may indicate a type for a component / element including a UD video service. Detailed description of the sub_stream_type field will be described later with reference to the drawings.
  • the sub_video_grid_hor field is a field indicating which pixel or sampled area is sampled in the horizontal direction of the screen, that is, the sub video grid.
  • the sub video may be mapped to which pixel grid of the UD screen.
  • 4K class UDs two values can be identified (identifying the even or odd lines), and in the case of 8K class UDs, four values can be identified (identifying lines 0 through 3).
  • the sub_video_grid_ver field is a field indicating which pixel or sampled area is sampled in the vertical direction of the screen, that is, the sub video grid. That is, when a UD screen is implemented using the corresponding sub_video, the pixel corresponding to the sub-video is mapped to which pixel position of the UD. In the case of 4K UD, two values can be indicated (even or odd lines), and in the case of 8K UD, four values can be indicated (lines 0 through 3).
  • bit N when multiple sampling grids are included, multiple pixel combinations can be represented. For example, if each bit included in the two fields indicates whether the grid is included or not, when the Nth line is included, bit N may be set to '1'.
  • the residual_sub_stream_ID field indicates a sub_stream_ID or elementary_PID of an element including a residual signal for each component / element.
  • the associated_sub_stream_ID field indicates a sub_stream_ID or elementary_PID of a component / element capable of generating a sub_video stream in combination with the residual signal when the corresponding component / element is a residual signal.
  • FIG 9 illustrates a sub_stream_type field according to an embodiment of the present invention.
  • a sub_stream_type field value of 0x00 indicates that the corresponding stream is a complete sub-video component while being a stream of HD compatible video. That is, the video of the stream is a sub-video of the UD video, and when the corresponding element is decoded, one complete sub-video can be obtained and can be viewed in an HD receiver.
  • a sub_stream_type field value of 0x01 indicates that the corresponding stream is a stream of HD compatible video and is a complete sub-video component. That is, the video of the stream is a sub-video of the UD video and indicates that an additional delta signal is required for UD video reconstruction. When combined with this delta delta signal, this indicates that the video is viewable on an HD receiver.
  • a sub_stream_type field value of 0x02 indicates that the corresponding stream is a stream of non-HD compatible video and is a complete sub-video component. That is, when decoding the video element of the stream, one complete sub-video can be obtained, but outputting and viewing only this stream alone is not recommended.
  • a sub_stream_type field value of 0x03 indicates that the corresponding stream is a complete sub-video while being a stream of a non-HD compatible video component.
  • the video becomes a sub-video of the UD, but it is not recommended to output it for viewing alone.
  • a sub_stream_type field value of 0x04 indicates that the corresponding stream is a residual signal for a sub-video component. Thus, this stream represents the transmission of a signal provided in delta to another sub-video component for UD video output.
  • a sub_stream_type field value of 0x05 may represent that the corresponding stream is a stream including several sub-videos.
  • a sub_stream_type field value of 0x06 indicates that the stream is a stream of video compatible with a resolution of UD video, for example, 3840 x 2160 (4K UHDTV).
  • FIG. 10 is a diagram illustrating an example of allocating a substream to a component or an element obtained from a UD video stream.
  • the UD video may be divided into a compatible video, a sub-video, and a residual signal, and may be transmitted. Each divided data may be transmitted separately or two or more in one stream.
  • the example disclosed in this figure illustrates a case where 4K UD video is separated and transmitted in each stream. If the resolution of the video is different, the video stream may be transmitted according to various combinations.
  • stream 0 is a stream for transmitting HD compatible sub-video.
  • the UD video is downsampled to HD resolution and the filtered video stream is transmitted.
  • down sampling may be performed by collecting pixels belonging to the same sample grid of quartet (2 ⁇ 2 pixels).
  • the sub_stream_ID of the stream 0 is 0x0000 and the sub_stream_type is 0x01.
  • the sub_stream_ID of stream 1 is 0x0001 and the sub_stream_type is 0x02.
  • sub_stream_type may be set to 0x00.
  • sub-stream_type may be set to 0x00 if viewing is possible by down sampling HD video (without filtering) from UD video.
  • Stream 2 is a stream for transmitting sub-video 2 and sub-video 3 of UD video.
  • the sub_stream_ID of the stream 2 is 0x0002 and the sub_stream_type is 0x05.
  • Stream 3 represents a stream for transmitting the residual signal of sub-video zero.
  • the sub_stream_ID of the stream 3 is 0x0003 and the sub_stream_type is 0x04.
  • FIG. 11 is a diagram illustrating a combine descriptor according to an embodiment of the present invention.
  • the combine descriptor is denoted as UDTV_service_combine_descriptor. Referring to this figure, the combine descriptor will be described as follows.
  • UDTV_service_combine_descriptor may include the following fields.
  • the descriptor_tag may indicate an identifier of a program level descriptor and the descriptor_length may indicate the length of UDTV_service_combine_descriptor.
  • the original_UD_resolution field means a resolution of an original UD screen that can be output when all streams included in a UD program (service) are collected. An example of the value of the original_UD_resolution field will be described later with reference to the drawings.
  • the UD_sub_service_type field may indicate a sub-service type that can be supported only by the stream described at the current program (service, channel) level. Detailed values will be described later with reference to FIG. 12.
  • the linked_UD_sub_service_type field may indicate a UD_sub_service_type value of a service associated with a current program (service, channel).
  • the num_linked_media field may indicate the number of linked media provided through other services or media in addition to the current delivery media to implement the original UDTV broadcast.
  • the linked_media_type field is a field that may indicate the type of linked media. If the field is 00, this may indicate that linked information of a program (service) to be described currently is transmitted to another service, channel, or program in the same broadcast transmission medium. . If the linked_media_type is 01, this may indicate that associated information of a program (service) to be described in the program may be transmitted through another transmission medium such as the Internet.
  • the Linked_media_sync_type field illustrates how the UD subservice to be linked can be obtained and synchronized at the receiver. This will be described in detail with reference to FIG. 14.
  • the associated_service_TSID field may indicate a transport_stream_id value for a program (service) including a stream to be combined with a program (service) described by this descriptor to provide a complete UD service.
  • the associated_service_original_network_id field may indicate an original_network_id value of a service including a stream to be combined with a program (service) described by this descriptor to provide a complete UD service.
  • the associated_service_id field may indicate a service_id value of a service including a stream to be combined with a program (service) described by this descriptor to provide a complete UD service.
  • the combine descriptor includes service_id
  • the linked_program_number has a similar meaning to the program_number field of the PMT and identifies a program number for a combinable stream.
  • internet_linkage_information indicates internet connection information connected to provide a complete UD program (service), (1) whether IP address information is 32-bit or 128-bit, (2) IP address information, (3) port number information, (4 ) May include at least one or more of additional information such as a URI for the additional stream, and (5) available time slots (eg, start time, expiration time, etc. for service transmission).
  • the field value of the UD_sub_service_type in the combine descriptor may indicate the type of subservice that can be supported only by the service according to the stream to be described.
  • the UD_sub_service_type field is 000, this may indicate that there is no stream that can be independently output in the current service. That is, this field may indicate that there is only a non-compatible stream in the presently described stream, and that additional data may be received through another service or media in addition to the currently described service (program) for the UD service. .
  • the UD_sub_service_type field is 001, this may indicate that an HD compatible stream is included in the currently described UD service, but cannot support 4K UD or 8K UD service alone.
  • data provided by a service (program) currently described for the UD service it may represent that additional data may be received through another service or media.
  • the UD_sub_service_type field is 010, this may indicate that a 4K UD compatible stream is included in the currently described UD service, but may not support HD or 8K UD service alone.
  • a service program
  • it may represent that additional data may be received through another service or media.
  • the UD_sub_service_type field When the UD_sub_service_type field is 011, it may represent that all streams necessary for supporting the original UD broadcast are included in the currently described UD service.
  • the original UD broadcast means a UD broadcast corresponding to the original_UD_resolution value.
  • 13 is a diagram illustrating an original_UD_resolution field value described above.
  • the original_UD_resolution field When the original_UD_resolution field is 00, it may represent a 4k UD resolution of 3840x2160 and in the case of 01, a 4k UD resolution of 7680 ⁇ 4320. 13 illustrates a value of the original_UD_resolution field. Although not shown here, a screen format having a resolution of 4096 ⁇ 2160 may also be signaled in the original_UD_resolution field value. In such a case, crop rectangle related parameters (frame_crop_left_offset, frame_crop_right_offset, frame_crop_top_offset, frame_crop_bottom_offset, etc.) may be additionally used during video encoding of the corresponding stream for HD compatibility. At this time, the video decoder can set the output data to 1920 ⁇ 1080 or use bar data to construct an HD compatible video signal.
  • the sub stream or sub video may be a video component for UD service.
  • the sub stream or sub video may be transmitted using one or more broadcast channels, or may be transmitted through a physical medium different from one or more broadcast channels.
  • the first sub stream may be transmitted through a terrestrial broadcast channel
  • the second, third and fourth sub streams may be transmitted through an IP stream of the Internet.
  • synchronous delivery refers to the case where two or more components are transmitted in real time, in which case the two or more components are expressed in synchronization at the receiver.
  • Asynchronous delivery refers to the case in which one component is transmitted in non-real time, in which case the receiver receives the other components transmitted after storing the first component in advance, and then transmits these components. Synchronous expression together.
  • the linked UD substreams (services) are transmitted in real time and synchronized with each other to enable UD service presentation.
  • asynchronous UD delivery is possible for linked UD substreams (services), and by link information (e.g., associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information, etc.).
  • link information e.g., associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information, etc.
  • the linked UD substreams (services) are transmitted in non-real time, and when the receiver receives link information, the UD substreams (services) transmitted in non-real time may synchronize with each other to express UD service.
  • asynchronous UD delivery is possible for linked UD substreams (services), and by link information (e.g., associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information, etc.).
  • link information e.g., associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information, etc.
  • the referenced UD substreams (services) have already been transmitted. Therefore, in this case, the linked UD substreams (services) have already been transmitted non-real time, and the receiver may express UD service by synchronizing the UD substreams (services) transmitted at different times using link information.
  • Linked_media_sync_type field 011
  • both synchronous UD delivery and asynchronous UD delivery for linked UD substreams (services) are possible, and link information (e.g., associated_service_TSID) is possible.
  • link information e.g., associated_service_TSID
  • Linked_media_sync_type field is 100, both synchronous UD delivery and asynchronous UD delivery for linked UD substreams (services) are possible, and link information (e.g., associated_service_TSID) is possible.
  • link information e.g., associated_service_TSID
  • UD substreams (services) referenced by associated_service_original_network_id, associated_service_id, internet_linkage_information, etc.) are already transmitted and are being transmitted simultaneously with the current event.
  • the combine descriptor and substream descriptor are illustrated above, and the information that can be included in each descriptor is described.
  • the substream descriptor may include a descriptor for each stream. In this case, however, the compatibility and sampling factor information of each stream can be known, but since there is no overall configuration information of the original UD broadcast, the UDTV broadcast that must be provided at the program / channel / service level in order to provide the UD broadcast Full configuration information can be signaled.
  • the information may include the number of configuration streams, channel / service information including each stream, whether each stream is transmitted in real time or non-real time, and the information is described in a combine descriptor.
  • the present invention has disclosed signaling in consideration of this. That is, the UD sub-services may be output in real time as soon as they are all synchronized, or may be configured asynchronously so that some or all of the UD sub-services are stored at the receiving end and then output in combination with later components.
  • the video encoder may encode and output the subsampled video into a video elementary stream according to the following format.
  • the header of the video elementary stream illustrated above may have a format of a supplemental enhancement information (SEI) messge illustrated in FIGS. 15 and 16.
  • SEI Supplemental Enhancement Information
  • SEI Supplemental Enhancement Information
  • user_identitier field may have a value of 0x4741 3934
  • user_structure may have a format illustrated below.
  • user_data_type_code is 0x1B
  • user_data_type_structure may include information of UD_sampling_info describing a substream according to a method of subsampling a UD video.
  • the content of UD_sampling_info is described in detail with reference to FIG. 17.
  • FIG. 16 illustrates a format of a Supplemental enhancement information (SEI) message of a video elementary stream.
  • SEI Supplemental enhancement information
  • UD_sampling_info sampling information
  • FIG. 17 is a diagram illustrating sampling information according to a method of subsampling a UD video in a video elementary stream.
  • the same fields as those in FIG. 8 have the same meanings as the fields described with reference to FIG. 8.
  • the combine descriptor UDTV_service_combine_descriptor when the combine descriptor UDTV_service_combine_descriptor is included in the TVCT, the combine descriptor UDTV_service_combine_descriptor may be located at the channel loop position. In this case, the associated_service_id in the combine descriptor UDTV_service_combine_descriptor may be replaced with associated_program_number or associated_major_channel_number and associated_minor_channel_number. In addition to the program (service) described in the combine descriptor (UDTV_service_combine_descriptor), an identifier (associated_source_id) of an associated source that can be expressed in super high resolution (UD) video may be added.
  • UD super high resolution
  • the associated_program_number indicates a program number for a service video stream associated with the signaled sub video stream
  • the associated_major_channel_number and associated_minor_channel_number indicate a major and minor channel number for the service video stream associated with the signaled sub video stream, respectively.
  • the associated_source_id may indicate a channel number or source_id for a channel including a stream to be combined. Replaced or added to the combine descriptor (UDTV_service_combine_descriptor) Field drawings are omitted.
  • the two descriptors illustrated may be added to the SDT of the DVB SI.
  • both the combine descriptor and the substream descriptor illustrated in the descriptor of the service level may be included.
  • the combine descriptor UDTV_service_combine_descriptor illustrated above may be included in the transport_stream_loop location of the Network Information Table.
  • the receiver may obtain information such as how the service to be described is transmitted to the stream obtained from the original UD video using fields of trasnport_stream_id and original_network_id using a combine descriptor (UDTV_service_combine_descriptor) of the NIT.
  • the receiver can obtain information such as whether the service received from the combine descriptor (UDTV_service_combine_descriptor) of the NIT is a stream which can be output independently or which sub-video is included.
  • the descriptor can then be used to get information about services that need to be additionally connected in order to obtain complete UD video.
  • the illustrated UD video may be included in an event information table (EIT) of DVB or ATSC.
  • EIT event information table
  • the combine descriptor UDTV_service_combine_descriptor may be included in the event loop position of the event information table.
  • the associated associated_service_id field of the combine descriptor may be replaced with the associated_program_number identifying a program related to the UD video presentation, and the associated_source_id identifying a source related to the UD video presentation in the combine descriptor.
  • associated_event_id identifying an event related to UD video presentation may be added.
  • associated_program_number indicates a program number to a service video stream associated with the signaled sub video stream
  • associated_source_id and associated_event_id indicate a source ID and an identifier of an event of the video stream associated with the signaled sub video stream.
  • an associated_event_id identifying an event related to UD video presentation may be added to a combine descriptor.
  • signaling information further including the following fields may be transmitted according to a transmission system.
  • the signaling information may include component type information or stream_type information. Signaling using component type information may inform the type of each stream through stream_content and component_type values . Accordingly, a value may be allocated and signaled so as to be able to determine which UD_subsampling mode, codec information, resolution information, and the like belong to the component value of the stream.
  • a new value for the UD video stream may be allocated and signaled.
  • the UD service may be classified according to the codec used and the type of the included stream, and may be signaled by assigning a different service_type to each classified UD service.
  • the service according to the HD video compatible stream subsampled from the UD service may enable viewing using a conventional HD service using the same service_type as the existing HD service.
  • the existing receiver may signal by using a component type and a stream_type or a service_type to prevent receiving a UD video signal which is not compatible with HD video.
  • a component descriptor may identify a type of a component stream and may be used to provide a text description of an elementary stream.
  • the component descriptor may be included in the EIT or the SDT, and may describe characteristics of a component (video element) included in a corresponding event or service.
  • the type of sub content that may be included in the UD content may be signaled.
  • the sub contents may be generated using the UD content and may or may not be compatible with the UD content.
  • the components described in this figure may transmit the sub video illustrated in FIG. 1.
  • sub-video sampling factors eg, (even, odd)
  • elements such as horizontal_sampling_factor and vertical_sampling_factor may also be used to describe each component.
  • the sub-content according thereto may be 4K UD content as H.264 / AVC video video content, and may represent content having a 50 Hz (25 Hz) and a 16: 9 aspect ratio. Can be.
  • the sub-content according thereto may be part of 4K UD content as H.264 / AVC video video content, and may represent content having 60 Hz (30 Hz) and aspect ratio 16: 9. .
  • the part of 4K UD represents a case in which sub video data of a part of the 4K UD content is included but a meaningful image (for example, HD video) cannot be independently provided.
  • a component having an aspect ratio of 16: 9 is illustrated, when using an aspect ratio other than 16: 9 (for example, 21: 9), a component_type value for this may be additionally set.
  • the sub-content according thereto indicates that the sub-content is part of a video signal for outputting HD compatible video as part of 4K UD content as H.264 / AVC video video content.
  • a stream_content of 0x05 and a component_type of 0x98 may be an identifier indicating that the stream or component is a residual signal. This example indicates that the stream is content having a 60 Hz (30 Hz) and a 16: 9 aspect ratio.
  • the corresponding sub content is advanced codec video video content such as HEVC, which is part of 4K UD content and is part of 4K resolution UD video signal.
  • a stream_content of 0x05 and a component_type of 0x14 indicate that the stream_content is part of a 4K resolution UD video signal. This example indicates that the corresponding stream is content having a 50 Hz (25 Hz) and a 16: 9 aspect ratio.
  • the corresponding sub content is an advanced codec video video content such as HEVC, indicating that it is part of 4K UD content, for example, indicating that it is a stream or component for a residual signal. It can be an identifier.
  • the base layer uses the same method as the existing HD and may separately assign stream_content and component_type values to the enhancement layer for providing spatial scalability. For example, if stream_content is 0x05 and component_type is 0xA0, this may mean H.264 / AVC Spatial Scalable Extension Video, 4K UD, 50Hz (25Hz), and 16: 9. This stream is not independently decoded and combined with base layer video can output meaningful video.
  • UD video may be provided by a method similar to the disclosed method when spatial scalability is provided based on the corresponding codec.
  • the receiver may have a receiver capable of receiving and displaying UD video and a receiver capable of displaying HD video that is part of the UD video.
  • An embodiment of each video output for two receivers is outlined as follows.
  • the receiver may output the HD video in the same way as the existing HD video.
  • the existing HD video receiver cannot recognize descriptors such as the substream descriptor (UDTV_sub_stream_descriptor ()) and the combine descriptor (UDTV_service_combine__descriptor ()) included in the PMT, so if the service is not transmitted in the HD compatible stream, If a new service_type is assigned to a service, the conventional receiver cannot recognize the channel itself.
  • descriptors such as the substream descriptor (UDTV_sub_stream_descriptor ()) and the combine descriptor (UDTV_service_combine__descriptor ()) included in the PMT, so if the service is not transmitted in the HD compatible stream, If a new service_type is assigned to a service, the conventional receiver cannot recognize the channel itself.
  • a receiver capable of receiving and displaying UD video may output the UD video by combining the received substreams.
  • An embodiment thereof is described as follows.
  • the receiver uses signaling information received through a first channel (service), for example, using a combine descriptor (UDTV_service_combine_descriptor) of PMT to determine whether there is a separate service or media additionally required to implement the original UD video.
  • a combine descriptor UDTV_service_combine_descriptor
  • the receiver can obtain the connection information from the signaling information to receive the associated link service.
  • the receiver tunes (connects) the second (or third) linked service by using another connection tuner (or Internet access module) using the already obtained connection information to receive the linked service.
  • the schedules of components of UD video received on the first channel and the second and third paths associated with it may be different, in which case each path (channel) Required schedule information may be stored or received in advance using the received schedule information.
  • the receiver may obtain information for recombining the UD video through a sub stream descriptor (UDTV_sub_stream_descriptor) allocated for each sub stream belonging to each service.
  • the receiver can obtain information such as which sub_video is included in each stream and which sample grid is included in the entire UD video from the obtained information.
  • the location of the sample grid may use sub_video_grid_hor and sub_video_grid_ver fields.
  • the UD video can be restored using a plurality of sub-videos based on the obtained information.
  • Embodiments of the receiver include a receiver, a channel decoder, a demultiplexer 300 and a video decoder, a storage 500, a signaling information decoder 600, a video synthesizer 700, and a switch 800. can do.
  • the receiver may comprise at least one tuner and / or at least one internet access module 101, 102, 103. At least one tuner 101 or 102 of the receiver may receive an RF channel for transmitting the UD video signal.
  • At least one internet access module 103 of the receiver may receive an internet signal for transmitting a UD video signal.
  • the entire UD video may be transmitted
  • the UD video may be a separate video signal
  • the video signal from which the UD video is separated may be a video compatible with HD video or the residual signal described above.
  • the channel decoders 201 and 202 may channel decode broadcast signals tuned by the tuners 101 and 102.
  • the demultiplexer 300 may receive a channel decoded video signal and / or an internet signal to demultiplex video signals from which UD video is separated.
  • the demultiplexed video signals may be UD video when synthesized.
  • the demultiplexer 300 may demultiplex stream 0 of FIG. 6 or demultiplex all streams 0 to 3.
  • the signaling information decoding unit 600 may decode signaling information transmitted through a broadcast signal or an internet signal. Signaling information has already exemplified a combine descriptor, a stream descriptor, and the like.
  • the video decoders 401, 402, 403, and 404 may decode the demultiplexed video using the decoded signaling information or the signaling information in the video stream, respectively. 7, 11, and 18 illustrate decoded signaling information, and FIGS. 15 through 17 illustrate signaling information in a video stream.
  • the video synthesizer 700 may synthesize the decoded video signal and output the synthesized video signal as a UD video signal.
  • the receiver simply subsamples a pass or UD video processing HD compatible video (sub-video 0 of FIG. 6) and a residual signal (sub-video 0 (residual) of FIG. 6) among the illustrated video processing passes. It may include only one of the passes for processing the HD video (sub-videos 1, 2, 3 of FIG. 6).
  • the receiver uses the decoded signaling information to display either HD video of either HD video. You can print
  • the storage unit 500 may store a video signal received from at least one tuner and / or at least one internet access module 101, 102, 103.
  • the storage unit 500 may store the received stream when the stream for any one component of the program B of FIG. 6 is first received. That is, when some of the HD video streams from which the UD video is separated are transmitted asynchronously, the storage unit 500 may store the received video stream first.
  • the sub-stream stored in the storage unit 500 and the real-time received sub-streams are decoded together and the video synthesizer 700 performs video.
  • the video reconstructed from the streams may be synthesized and output as UD video.
  • the switch 800 When the video decoder 401 outputs the data decoded the residual signal, the switch 800 outputs the data to the video decoder 402 which decodes the HD compatible video into the decoded video, or the video decoder 401. Can be switched to output decoded data as simply subsampled video of the UD video.
  • the video synthesizing unit 700 may synthesize HD video or HD compatible video obtained by separating the UD video and output the UD video.
  • FIG. 20 is a view showing an embodiment of a video stream transmission method according to the present invention.
  • An embodiment of separating an HD compatible video sampled from a UD video, an HD size video obtained by subsampling and separating a UD video, and a residual signal that is a difference between an HD compatible video and an HD size video are described. .
  • the signaling information of the multiplexed stream may be assigned sub_stream_ID and stream_type according to the example of FIG. 10.
  • the multiplexed substream and signaling information are transmitted (S300).
  • 21 is a view showing an embodiment of a video stream receiving method according to the present invention.
  • the stream including signaling information describing the relationship between the sub streams is demultiplexed (S400).
  • 6 and 10 illustrate a stream for transmitting a sub program (service, channel) that can be included in a program (service, channel).
  • the stream may be transmitted through a broadcast medium or an internet transmission medium.
  • the demultiplexed signaling information is decoded (S500). 7 and 11 exemplify signaling information. Each HD video substream may also include signaling information, which is illustrated in FIGS. 15 to 17.
  • a substream for transmitting at least one HD video among HD compatible video and HD size video is decoded (S600).
  • the UD video stream may be expressed using signaling information, or only the HD video stream may be expressed.
  • Embodiments of the present invention have industrial applicability by providing an apparatus / method for transmitting / receiving a video stream that is compatible with current broadcast systems while efficiently transmitting and receiving an ultra-high definition video stream.

Abstract

본 발명은 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법을 제공하는 것이다. 본 발명의 일 실시예에 따르면, UD(ultra definition) 비디오 스트림을 다운샘플링하여 시청가능한 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림으로 분리하고, 상기 분리된 서브 스트림을 각각 인코딩하는 단계; 상기 UD 비디오 스트림과 상기 적어도 하나의 서브스트림의 관계를 기술하는 시그널링정보와 상기 적어도 하나의 서브스트림을 포함하는 다중화하는 단계; 및 상기 다중화된 적어도 하나의 HD 비디오 서브스트림과 시그널링정보를 전송하는 단계;를 포함하는 비디오 스트림 전송방법을 제공한다.

Description

비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
본 발명은 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법을 제공하는 것이다.
비디오 신호 처리 속도가 빨라지면서 초고해상도(ultra definition; UD) 비디오를 인코딩/디코딩하는 방안이 연구되고 있다. UD 해상도는 HD (high definition) 해상도의 4배 또는 16배 정도의 고해상도 비디오 영상으로 정의된다. 단일 코덱으로 UD 비디오 텔레비젼 신호를 전송하기 위한 고효율 코덱 기술의 개발이 몇몇 표준단체를 통해 진행 중이다. 그러나 현재 방송 시스템은 UD 비디오를 전송할 수 있는 방법이 정의되지 않아 현재 방송 시스템으로는 초고해상도 비디오를 인코딩/디코딩하는 방안이 제안되더라도 UD 비디오를 전송/수신할 방법이 없었다.
또한, UD 비디오를 송수신하는 시스템이 제안된다고 하더라도 종래의 비디오 송수신 시스템과 호환되지 않으면 빨리 활용화 가능성이 낮기 때문에 종래의 방송 또는 비디오 송수신 시스템의 호환성도 문제점이 된다.
본 발명의 목적은 위와 같은 문제점을 해결하기 위한 것으로서, 초고해상도 비디오 스트림을 효율적으로 송수신할 수 있는 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법을 제공하는 것이다.
본 발명의 다른 목적은, 현재의 방송 시스템과 호환되는 비디오 스트림을 송수신하면서도 초고해상도 비디오 스트림을 구현할 수 있는 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법을 제공하는 것이다.
본 발명의 일 실시예는, UD(ultra definition) 비디오 스트림을 다운샘플링하여 시청가능한 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림으로 분리하고, 상기 분리된 서브 스트림을 각각 인코딩하는 단계; 상기 UD 비디오 스트림과 상기 적어도 하나의 서브스트림의 관계를 기술하는 시그널링정보와 상기 적어도 하나의 서브스트림을 포함하는 다중화하는 단계; 및 상기 다중화된 적어도 하나의 HD 비디오 서브스트림과 시그널링정보를 전송하는 단계;를 포함하는 비디오 스트림 전송방법을 제공한다.
상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 HD 크기 비디오의 서브스트림의 식별자를 포함할 수 있다. 상기 시그널링정보는, 상기 서브 스트림에 의해 전송되는 비디오 신호로 지원 가능한 서비스 타입 정보를 포함할 수 있다. 상기 시그널링정보는, 상기 레지듀얼 신호의 서브스트림과 관련된 비디오 서브 스트림의 식별자를 더 포함할 수 있다. 상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림의 전송 매체 정보를 포함할 수 있다.
본 발명의 다른 실시예는, UD(ultra definition) 비디오를 다운 샘플링하여 얻은 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림 중 적어도 하나의 서브스트림과 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 시그널링정보를 포함하는 스트림을 역다중화하는 단계; 상기 역다중화된 시그널링정보를 복호하는 단계; 및 상기 복호한 시그널링정보를 이용하여 상기 역다중화된 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 디코딩하는 단계를 포함하는 비디오 스트림 수신방법을 제공한다.
본 발명의 다른 실시예는, UD(ultra definition) 비디오 스트림을 다운샘플링하여 시청가능한 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림으로 분리하고, 상기 분리된 서브 스트림을 각각 인코딩하는 인코더; 상기 UD 비디오 스트림과 상기 적어도 하나의 서브스트림의 관계를 기술하는 시그널링정보와 상기 적어도 하나의 서브스트림을 포함하는 다중화하는 다중화부; 및 상기 다중화된 적어도 하나의 HD 비디오 서브스트림과 시그널링정보를 전송하는 전송부;를 포함하는 비디오 스트림 전송장치를 제공한다.
본 발명의 다른 실시예는, UD(ultra definition) 비디오를 다운 샘플링하여 얻은 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림 중 적어도 하나의 서브스트림과 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 시그널링정보를 포함하는 스트림을 역다중화하는 역다중화부; 상기 역다중화된 시그널링정보를 복호하는 시그널링정보디코더; 및 상기 복호한 시그널링정보를 이용하여 상기 역다중화된 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 디코딩하는 비디오디코더;를 포함하는 비디오 스트림 수신장치를 제공한다.
개시하고자 하는 본 발명의 실시예에 따르면, 초고해상도 비디오 스트림을 효율적으로 송수신할 수 있다.
또한, 본 발명의 실시예에 따르면 현재의 방송 시스템과 호환될 수 있는 비디오 스트림을 송수신하면서도 초고해상도 비디오 스트림을 구현할 수 있다.
도 1은 본 발명의 일 실시예에 따른 UD 비디오 스트림을 전송하는 예를 개시한 도면
도 2는 예시한 본 발명의 실시예에서 UD 비디오로부터 HD compatible 비디오로 다운 샘플링하는 예를 상세히 예시한 도면
도 3은 UD 비디오로부터 HD 비디오 신호를 위한 레지듀얼 신호를 얻는 예를 예시한 도면
도 4는 비디오 스플리터가 UD 비디오 스트림을 HD 크기 비디오로 서브 샘플링하는 예를 개시한 도면
도 5는 본 발명의 실시예에 따라 분리된 HD 비디오 스트림들을 수신하여 처리하는 스트림 수신기의 예를 개시한 도면
도 6은 UD 비디오 스트림 송수신을 위한 프로그램 또는 채널 구성의 실시예를 나타낸 도면
도 7은 본 발명의 실시예에 따른 시그널링정보를 예시한 도면
도 8은 본 발명의 일 실시예에 따른 시그널링정보 중 서브스트림 디스크립터를 예시한 도면
도 9는 본 발명의 실시예에 따른 sub_stream_type 필드를 예시한 도면
도 10은 UD 비디오 스트림으로부터 얻은 컴포넌트 또는 엘리먼트를 서브 스트림을 할당하는 예를 나타낸 도면
도 11은, 본 발명의 일 실시예에 따른 콤바인 디스트립터를 예시한 도면
도 12는 UD_sub_service_type의 필드 값을 예시한 도면
도 13은 위에서 설명한 original_UD_resolution 필드 값을 예시한 도면
도 14는 위에서 설명한 Linked_media_sync_type 필드의 값을 예시한 도면
도 15는 비디오 엘리먼터리 스트림의 SEI(Supplemental enhancement information) payload의 포맷을 예시한 도면
도 16은 비디오 엘리먼터리 스트림의 SEI(Supplemental enhancement information) message의 형식을 예시한 도면
도 17은 비디오 엘리먼터리 스트림 내에 UD 비디오를 서브 샘플링한 방식에 따른 샘플링 정보를 예시한 도면
도 18은 DVB 시스템에서 stream_content와 component_type 을 이용하여 UD 콘텐트를 식별하는 예를 개시한 도면
도 19는 위에서 설명한 본 발명의 실시예에 따른 수신기의 예를 개시한 도면
도 20는 본 발명에 따른 비디오 스트림 전송 방법의 일 실시예를 나타낸 도면
도 21은 본 발명에 따른 비디오 스트림 수신 방법의 일 실시예를 나타낸 도면
이하 본 발명의 실시예를 첨부한 도면을 참조하여 설명한다.
이하에서 UD 비디오를 전송하기 위해 H×V 비디오를 분할하여 HD compatible 비디오의 스트림, n개의 HD 크기의 h×v 비디오의 스트림 및 레지듀얼 신호를 전송하는 부가 비디오 스트림을 전송하는 실시예를 개시한다.
예를 들어, H × V 는 3840 × 2160의 UD 해상도을 나타낼 수 있고, h × v 는 1920 x 1080의 HD 해상도를 나타낼 수 있다. H × V와 h × v 의 크기는 분리하는 방식과 개수에 따라 각각 상대적으로 달라질 수 있다. 예를 들어 4K UD 비디오 스트림을 4개의 HD 비디오 스트림들과 부가 비디오 스트림으로 분리할 수 있다. 또는 UD 비디오 스트림과 HD 스트림의 해상도에 따라, 예를 들어 16K UD 비디오 스트림은 16개의 HD 비디오 스트림들과 부가 비디오 스트림으로 분리할 수 있다. 레지듀얼 신호를 전송하는 부가 비디오 스트림은 아래에서 상세히 예시한다.
위의 UD 비디오 스트림과 HD 비디오 스트림의 관계처럼, 본 발명의 실시예는 제 1 해상도의 비디오 스트림을 서브 샘플링하여 제 2 해상도의 비디오 스트림과 부가 비디오 스트림을 송수신하는 예에 적용될 수 있다.
이하에서는 편의상 4K UD 비디오 스트림이, 1개의 HD compatible 비디오 스트림, 3개의 HD 크기의 비디오 스트림들 및 부가 비디오 스트림으로 분리되는 예를 기준으로 설명하지만, 본 발명은 이에 국한되지 않고 분리방식과 크기에 따라 동일한 개념을 적용할 수 있다. 또한, 이하에서 비디오 스트림을 분리하기 전후의 비디오를 각각 비디오-서브 비디오, 콘텐트-서브 콘텐트, 스트림-서브 스트림, 서비스-서브 서비스와 같은 용어의 관계로 표현한다. 그리고, 서브 비디오, 서브 스트림, 서브 콘텐트, 또는 서브 서비스를 전송하는 스트림이 전송될 경우 독립적으로 전송단위인 비디오 elementary stream 이 될 수 있다.
이하에서 HD compatible 비디오는, UD 비디오부터 다운 샘플링하여 생성하면 필터링들으로 HD 비디오와 호환 가능한 비디오를 나타낸다. 이와 식별되는 용어로서 HD 크기 비디오는 UD 비디오로부터 단순히 샘플링하여 얻은 HD 크기의 비디오를 나타낸다. 레지듀얼 신호는 HD compatible 비디오와 HD 크기의 비디오의 차이를 나타내는 것으로서, HD 크기의 비디오는 경우에 따라 화질의 차이가 없는 경우(레지듀얼 신호의 크기가 작은 경우)에는 HD compatible 비디오가 될 수 있다.
도 1은 본 발명의 일 실시예에 따른 UD 비디오 스트림을 전송하는 예를 개시한 도면이다.
다운샘플러(UD-to-HD downsampling)는 UD 해상도 비디오를 HD 해상도 비디오로 다운샘플링한다. 다운샘플링한 비디오 신호는 시청 가능한 HD compatible 비디오(HD compatible video)가 될 수 있다. 여기서 UD 해상도 비디오를 로우 패스 필터(low pass filter)로 필터링하고 다운 샘플링하면(필터링과 다운 샘플링은 서로 바뀔 수도 있다) HD compatible 비디오(down-sampled로 표시)를 출력할 수 있다. 다운샘플링 과정은 이후에 도면을 참고하여 설명한다.
비디오 인코더는 다운 샘플링된 HD compatible 비디오를 수신받아, 이를 인코딩하여 비디오 스트림으로 출력할 수 있다. 다중화부는 다운샘플링된 HD 비디오 신호를 수신받고 그 시그널링 정보를 다중화한 다중 스트림을 출력한다.
한편, 비디오 스플리터(video splitter)는 서브 비디오 샘플링 팩터(sub-video sampling factor)에 따라 3840 × 2160 UD 비디오 스트림을 서브 샘플링하여 4개의 서브스트림들로 분리할 수 있다. 분리된 서브스트림은 각각 1920 × 1080의 HD 크기 비디오의 스트림이 될 수 있다. 이 도면에서 HD 크기 비디오의 스트림은 각각 서브-비디오 0, 서브-비디오 1, 서브-비디오 2, 서브-비디오 3으로 호칭하고, 이 서브-비디오는 경우에 따라 각각 full HD 비디오 스트림으로 시청이 가능한 비디오 신호(HD compatiblevideo)가 될 수도 있다.
서브 샘플링에 사용되는 서브 샘플링 팩터는 각각의 분리된 스트림에 대해 (even, even), (odd, even), (even, odd), (odd, odd)으로 호칭할 수 있다. 이에 대해서는 뒤에서 상술한다.
실시예에서 비디오 인코더들은, 각각의 서브 샘플링 팩터를 이용하여 각각의 서브 비디오(서브-비디오 0, 1, 2, 3)를 HD 크기 비디오의 스트림들로 인코딩할 수 있다. 또는 하나이상의 서브 비디오에 대한 비디오가 모여 하나의 sub stream이 전송될 수도 있다.
다중화부들은 각각, 인코딩된 비디오 스트림들과 각각의 시그럴링정보들을 다중화하여 각각 다중화된 스트림을 출력할 수 있다. 출력된 스트림은 동일한 방송 매체를 통해 전송될 수도 있고 방송 매체나 인터넷 매체와 같이 2개 이상의 매체를 통해 전송될 수 있다. 이에 대한 시그널링정보는 이하에서 상술한다.
한편, 서브트랙터(subtractor)는, 다운샘플러(UD-to-HD downsampling)가 HD 해상도로 다운 샘플링된 HD compatible비디오와, 비디오 스플리터(video splitter)가 분리한 서브 비디오들 중 하나인 HD 크기 비디오의 차이인 레지듀얼 신호(residual signal)을 출력할 수 있다. 이 도면에서는 HD compatible비디오 와 서브-비디오 0의 차이를 레지듀얼 신호(residual signal)로 하는 예를 나타내었다. 그러나 HD compatible비디오 와, 서브-비디오 1,2 또는 3으로부터도 레지듀얼 신호를 생성할 수 있다.
레지듀얼 신호를 추출하는 예는 이후에서 도면을 참고하여 다시 상술한다.
레지듀얼 신호는 해당 비디오 인코더에 의해 별도로 인코딩되어 별도의 비디오 스트림으로 출력되고, 다중화부에 의해 그 다른 정보와 다중화되어 출력될 수 있다.
여기서 다중화부는, UD 비디오로부터 다운 샘플링한 HD compatible비디오 스트림과 레지듀얼 신호의 비디오 스트림을 도면과 같이 각각 별개의 스트림으로 다중화하여 출력하거나 또는 HD compatible비디오 스트림과 레지듀얼 신호의 비디오 스트림을 도면과 다르게 하나의 비디오 스트림으로 다중화하여 출력할 수도 있다.
도 2는 예시한 본 발명의 실시예에서 UD 비디오로부터 HD compatible 비디오로 다운 샘플링하는 예를 상세히 예시한 도면이다.
HD compitible 비디오는 UD 비디오를 로우 패스 필터로 필터링하고, 로우 패스 필터링된 신호를 서브 샘플링 팩터(이 도면에서는 (even, even))를 이용하여, 해당 위치에서 서브 샘플링하여 얻을 수 있다.
따라서, 도 1에서는 로우 패스 필터를 이용하여 얻은 비디오(full HD video (down-sampled)로 표시) 또는 로우 패스 필터없이 서브 샘플링만을 이용하여 얻은 비디오 (서브-비디오 0, 1, 2, 3로 표시)을 이용하면 HD compitible 비디오를 얻을 수 있다.
도 3은 UD 비디오로부터 HD 비디오 신호를 위한 레지듀얼 신호를 얻는 예를 예시한 도면이다.
서브트랙터(subtractor)는 UD 비디오로부터 서브 샘플링 팩터를 이용하여 다운샘플링된 HD compatible비디오 신호(HD compatiable로 표시)와, UD 비디오로부터 서브 샘플링 팩터를 이용하여 샘플링 또는 디시메이션(decimation) 된 신호를 차이를 출력할 수 있는데, 이 경우 출력된 신호를 레지듀얼 신호로 할 수 있다. 본 발명의 실시예에서, HD 비디오를 서비스하기 위한 비디오 신호는 UD 비디오를 다운샘플링하는 등의 방식으로 획득할 수 있다. 그런데 다운 샘플링 또는 디시메이션의 과정은, HD 비디오의 quality를 만족시키기 위해 적절히 필터링될 수 있다. 이렇게 필터링이 수행된 HD 신호는, UD 비디오와 차이가 발생하므로, 본 발명의 실시예는 이 두 차이를 레지듀얼 신호로 보상할 수 있도록 레지듀얼 신호를 별도의 스트림 또는 HD compatible비디오 스트림에 다중화하여 전송할 수 있다.
도 4는 비디오 스플리터가 UD 비디오 스트림을 HD 크기 비디오로 서브 샘플링하는 예를 개시한 도면이다.
비디오 스플리터는 서브 비디오 샘플링 팩터(sub-video sampling factor)에 따라 UD 비디오 스트림을 HD 크기 비디오 스트림으로 서브 샘플링한다. UD 비디오와 HD 비디오의 해상도의 차이에 따라 서브 비디오 샘플링 팩터(sub-video sampling factor)가 다수 개 있을 수 있다. 이 예에서는 UD 비디오가 HD 크기 비디오보다 4배의 해상도를 가진 경우, 서브 비디오 샘플링 팩터(sub-video sampling factor)를 4개((even, even), (odd, even), (even, odd), (odd, odd))를 예시한다. 2 × 2 픽셀에 포함되는 4개의 픽셀을 도면에서 예시한 바와 같이 0, 1, 2, 3으로 나눌 수 있다.
제 1 서브 비디오 샘플링 팩터(sub-video sampling factor)인 (even, even)에 따르면, UD 비디오의 2 × 2 픽셀에 포함되는 0으로 표시한 왼쪽 위의 픽셀들을 서브 샘플링하여 HD 크기 비디오인 sub-video 0를 만들 수 있다. 제 2 서브 비디오 샘플링 팩터(sub-video sampling factor)인 (odd, even)에 따르면, UD 비디오의 2 × 2 픽셀에 포함되는 1로 표시한 오른쪽 위의 픽셀들을 서브 샘플링하여 HD 크기 비디오인 sub-video 1를 만들 수 있다. 제 3 서브 비디오 샘플링 팩터(sub-video sampling factor)인 (even, odd)에 따르면, UD 비디오의 2 × 2 픽셀에 포함되는 2로 표시한 왼쪽 아래의 픽셀들을 서브 샘플링하여 HD 크기 비디오인 sub-video 2를 만들 수 있다. 마찬가지로, 제 4 서브 비디오 샘플링 팩터(sub-video sampling factor)인 (odd, odd)에 따르면, UD 비디오의 2 × 2 픽셀에 포함되는 3으로 표시한 오른쪽 아래의 픽셀들을 서브 샘플링하여 HD 크기 비디오인 sub-video 3를 만들 수 있다.
UD 비디오가 4배의 해상도를 가진 경우, 이 도면과 같이 서브 샘플링을 하고 레지듀얼 신호가 작으면 sub-video 0, 1, 2, 3은 모두 시청이 가능한 HD 크기 비디오 콘텐트가 될 수도 있다.
도 5는 본 발명의 실시예에 따라 분리된 HD 비디오 스트림들을 수신하여 처리하는 스트림 수신기의 예를 개시한 도면이다.
역다중화부들은 UD 비디오 스트림으로부터 다운 샘플링된 HD compatible 비디오 스트림, 서브 샘플링된 HD 크기 비디오 스트림, 또는 레지듀얼 신호에 따른 비디오 스트림 중 하나이상의 스트림과 시그널링정보가 다중화된 스트림을 수신하고, 수신한 스트림을 역다중화하여 HD compatible 비디오 스트림 또는 HD 크기 비디오 스트림들을 각각 출력한다.
예시한 도면과 다르게 둘 이상의 서브 비디오 또는 하나의 HD compatible 비디오와 레지듀얼 신호가 모여 하나의 sub stream이 전송될 경우, 역다중화부는 둘 이상의 서브 비디오들 또는 하나의 HD compatible 비디오 스트림과 레지듀얼 신호가 다중화된 비디오 스트림을 역다중화하여 각각의 스트림으로 출력할 수 있다.
비디오 디코더들은, 각각의 서브 샘플링 팩터에 따라 각각의 HD 스트림을 디코딩하여 출력할 수 있다. 역다중화부가 HD compatible비디오 스트림을 역다중화한 경우, 해당 비디오 디코더는 HD compatible비디오를 복호하여 HD 비디오 스트림(HDTV video)이 출력되도록 할 수 있다.
만약 역다중화부가 레지듀얼 신호를 역다중화한 경우, 해당 비디오 디코더는, 레지듀얼 신호가 관련된 HD compatible비디오 스트림을 복호하는 비디오 디코더로부터 HD compatible비디오 데이터를 수신받고, 레지듀얼 신호와 함께 UD 비디오 포함되는 HD 크기 서브-비디오를 복호할 수 있다. 여기서는 HD 서브-비디오를 서브-비디오 0으로 표시한다.
비디오 머저는 서브 샘플링 팩터를 이용하여 서브-비디오 0, 1, 2, 3 에 대한 4개의 비디오 스트림을 1개의 UD 비디오 스트림으로 합성하여 출력할 수 있다. 예를 들어, 도 1의 역과정에 따라 비디오 스트림을 각 서브 샘플링된 HD 크기 비디오 스트림들을 이용하여 1개의 UD 비디오 스트림을 출력할 수 있다.
본 발명의 실시예에 따르면, 수신기는 HD 비디오를 출력할 수 밖에 없는 경우, HD compatible비디오를 출력하고, UD를 출력할 수 있는 경우에는 HD compatible비디오 또는 UD 비디오를 선택적으로 출력할 수 있다.
도 6은 UD 비디오 스트림 송수신을 위한 프로그램 또는 채널 구성의 실시예를 나타낸다. 여기서 프로그램, 서비스, 채널은 동일한 의미로 사용될 수 있다.
이 도면의 프로그램 A는, 서비스 A 또는 채널 A가 될 수도 있다. 그리고, 로그램 B는, 서비스 B 또는 채널 B가 될 수도 있다.
예시한 도면에서 프로그램 B는 UD 비디오 서비스를 할 수 있는 프로그램 컴포넌트들을 나타내고, 프로그램 A는 UD 비디오를 이용하여 HD compatible 비디오 서비스를 제공할 수 있는 프로그램 컴포넌트를 나타낸다. 이 예에 따르면 프로그램 B는, 프로그램 A의 컴포넌트를 포함할 수 있지만, 프로그램 B의 컴포넌트와 프로그램 A의 컴포넌트(즉 프로그램 B로부터 다운샘플링된 비디오)가 별개의 채널로 송수신될 수도 있다.
도면의 예에 따르면, 프로그램 A는 UD 비디오로부터 얻은 HD compatible비디오 컴포넌트(component 1)가 된다. 프로그램 B는 UD 비디오로부터 얻은 HD compatible비디오 컴포넌트(component 1), 서브-비디오 0에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 2), 서브-비디오 1에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 3), 서브-비디오 2에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 4), 및 서브-비디오 4에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 5)를 포함할 수 있다.
이렇게 전송하고 이에 따른 시그널링정보를 적절히 전송하면, 종래의 HD 비디오 스트림 수신기는 HD compatible비디오 컴포넌트(component 1)을 디코딩하여 비디오를 출력한다. 그리고, UD 비디오 스트림 수신기는, HD compatible비디오 컴포넌트(component 1)와 서브-비디오 0에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 2)을 디코딩하고, 서브-비디오 1에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 3), 서브-비디오 2에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 4), 및 서브-비디오 4에 대한 레지듀얼 신호에 따른 비디오 컴포넌트(component 5)을 디코딩하고 디코딩한 비디오들을 합성하여 UD 비디오를 출력할 수 있다.
위에서 예시한 바와 같이 여기서, component 3, 4, 5는 UD 비디오를 서브-샘플링 또는 디시메이션(decimation)한 결과이고, component 1은 UD 비디오를 서브-샘플링 또는 디시메이션(decimation)하거나 또는 필터링을 이용하여 다운 샘플링한 결과를 나타낸다. 그리고, component 2는 component 1에 따른 비디오의 레지듀얼 신호에 따른 결과를 예시한다.
이하에서는, UD 비디오 스트림을 HD 비디오 스트림 또는 그 레지듀얼 신호에 따른 비디오 스트림으로 송수신할 경우 시그널링정보를 예시한다. 위와 같이 제 1 해상도의 비디오 스트림을 제 2 해상도의 비디오 스트림들로 분리할 경우, 예시한 시그널링정보를 이용하여 수신기의 능력에 따라 제 1 해상도의 비디오 스트림을 출력할 수도 있고, 제 2 해상도의 비디오 스트림을 출력할 수도 있다.
도 7은 본 발명의 실시예에 따른 시그널링정보를 예시한다. 시그널링정보는 각 분리되는 비디오 스트림을 기술하는 디스크립터에 포함되어 방송 시그널링 정보에 포함될 수 있다.
해당 디스크립터는, HD compatible비디오 스트림 또는 UD 비디오를 서브 샘플링한 서브-비디오 스트림인지, 어떤 sub-video들을 포함하는 스트림인지, 어떠한 서브 샘플링 방법을 이용하였는지 등의 스트림 정보를 시그널링할 수 있다. 이 도면에서는 시그널링정보가 포함되는 방송 시그널링 정보로는 PMT(program map table)를 예시하였다. PMT의 각 필드의 설명은 ISO/IEC 13818-1 (MPEG-2 systems)에 따를 수 있다.
다만, 여기서 분리된 스트림을 식별하기 위해 stream_type은 0x02 또는 0x1B가 될 수 있으며 UD 비디오 스트림과 같은 초고해상도 비디오를 지원하는 고성능 코덱에 따른 스트림을 식별하기 위해 별도의 stream_type 값을 사용할 수도 있다.
이 예에서 UD 비디오 스트림 또는 UD 비디오 스트림으로부터 서브 샘플링된 HD 비디오 스트림을 시그널링하기 위해 프로그램 레벨의 디스크립터와 스트림 레벨의 디스크립터가 각각 사용될 수 있다
실시예에서 예시한 프로그램 레벨의 디스크립터(UDTV_service_combine_descriptor로 표시)는, 예를 들어 다수의 HD 비디오 스트림(HD compatible비디오, HD 크기 비디오) 또는 레지듀얼 신호에 따른 비디오 스트림을 하나의 UD 비디오 스트림으로 합성하기 위한 시그널링정보를 포함할 수 있고 이하에서는 콤바인 디스트립터라고 호칭한다.
실시예에서 예시한 스트림 레벨의 디스크립터(UDTV_sub_stream_descriptor로 표시)는, 예를 들어 HD 비디오 스트림들 또는 또는 레지듀얼 신호에 따른 비디오 스트림을 각각 기술할 수 있는 시그널링정보를 포함할 수 있고 이하에서는 서브스트림 디스크립터라고 호칭한다.
이하에서는 두 개의 디스크립터와 각각이 시그널링하는 내용을 예시한다. 본 발명의 실시예를 용이하게 설명하기 위해 서브스트림 디스크립터(UDTV_sub_stream_descriptor로 표시)를 먼저 설명한다.
도 8은 본 발명의 일 실시예에 따른 시그널링정보 중 서브스트림 디스크립터를 예시한다. 서브 스트림은, 독립적으로 전송가능한 비디오 elementary stream 을 의미하는 것으로서, 도 6의 각 컴포넌트에 대응되거나 또는 하나 이상의 컴포넌트들을 하나의 서브 스트림으로 호칭할 수 있다.
descriptor_tag 필드는, 이 디스크립터를 식별하기 위한 식별자를 나타낸다.
descriptor_length 필드는, 이 디스크립터의 길이를 비트로 나타낼 수 있다.
sub_stream_ID 필드는, UD 비디오에 포함되는 각각의 비디오 스트림을 식별하기 위해 부여되는 ID 값을 나타낸다. 각 서브 스트림(sub_stream)마다 가장 왼쪽 위의 픽셀을 기준으로 하여 순서대로 부여될 수 있으며, 예를 들어 각 비디오 스트림의 기준 픽셀이 UD 비디오에서 왼쪽 위에 위치할수록 작은 값을 부여할 수 있다.
이 필드는 비디오 엘리먼터리 스트림의 식별자를 나타내는 elementary stream_PID 필드가 sub_stream_ID 필드로서 역할을 할 수도 있다. 예를 들어, 4K UD 비디오 화면의 경우, sub_stream_ID 필드는 2 비트로 나타낼 수 있으며, 8K UD UD 비디오 화면의 경우, sub_stream_ID 필드는 4 비트로 나타낼 수 있다.
sub_stream_type필드는 UD 비디오 서비스를 포함하는 component/element에 대한 타입을 나타낼 수 있다. 이에 sub_stream_type필드에 대한 상세한 설명은 추후 도면을 참고하여 설명한다.
sub_video_grid_hor필드는, 화면의 가로 방향으로 샘플링한 픽셀 또는 샘플링한 영역이 어떤 것인지, 즉 서브 비디오 그리드가 어떤 것인지 나타내는 필드이다. 다시 말해 다수의 sub_video를 이용해 UD 화면을 구현할 때, 이 서브 비디오가 UD화면의 어느 pixel grid에 mapping 되는지를 알려줄 수 있다. 4K급 UD인 경우에는 2가지 값을 나타낼 수 있고(짝수번째 라인 또는 홀수번째 라인을 식별), 8K급 UD인 경우에는 네 가지 값을 나타낼 수 있다 (0번째 ~ 3번째 라인을 식별).
sub_video_grid_ver필드는, 화면의 세로 방향으로 샘플링한 픽셀 또는 샘플링한 영역이 어떤 것인지, 즉 서브 비디오 그리드가 어떤 것인지 나타내는 필드이다. 즉, 해당 sub_video를 이용해 UD 화면을 구현할 때, 이 sub-video에 속하는 화소들이 UD의 어느 pixel 위치에 mapping 되는지를 알려준다. 4K급 UD 인 경우에는 2가지 값을 표기할 수 있고(짝수번째 라인 또는 홀수번째 라인), 8K급 UD의 경우에는 네 가지 값을 표기할 수 있다 (0 ~ 3번째 라인).
위의 두 필드와 다른 방식으로써, 여러 개의 sampling grid를 포함하는 경우 복수 개의 pixel 조합에 대한 표현도 가능하다. 예를 들어 두 필드에 포함되는 각 bit가 grid의 포함 여부를 의미한다면 N번째 라인이 포함된 경우, bit N을 ‘1’로 설정할 수 있다.
residual_sub_stream_ID 필드는, 각 컴포넌트/엘리먼트에 대한 레지듀얼 신호(residual signal)을 포함한 엘러먼트(element)의 sub_stream_ID 또는 elementary_PID를 알려준다. 이 예에서 residual_sub_stream_ID 필드는 sub_stream_type 필드가, UD 비디오 서비스의 엘리먼트가 HD compatible비디오 컴포넌트이면서 UD 비디오로부터 얻은 서브-비디오인 경우(sub_stream_type=0x01)를 나타내거나, UD 비디오 서비스의 엘리먼트가 Non-HD compatible비디오 컴포넌트이면서 UD 비디오로부터 얻은 서브-비디오인 경우(sub_stream_type=0x03), 레지듀얼 신호(residual signal)을 포함한 엘러먼트(element)의 sub_stream_ID 또는 elementary_PID를 나타낸다.
associated_sub_stream_ID 필드는, 해당 컴포넌트/엘리먼트가 레지듀얼 신호(residual signal)일 경우, 이 레지듀얼 신호와 결합되어 sub_video 스트림을 생성할 수 있는 컴포넌트/엘리먼트의 sub_stream_ID 또는 elementary_PID를 나타낸다. 이 예에는, sub_stream_type 필드가, 해당 스트림이 레지듀얼 신호(residual signal)임을 나타낼 때(sub_stream_type=0x04) 관련 컴포넌트/엘리먼트의 sub_stream_ID 또는 elementary_PID를 나타내는 예를 개시한다.
도 9는 본 발명의 실시예에 따른 sub_stream_type 필드를 예시한다.
sub_stream_type 필드값이 0x00은, 해당 스트림이 HD compatible 비디오의 스트림이면서 complete sub-video component임을 나타낸다. 즉 해당 스트림의 비디오는 UD 비디오의 sub-video이고 해당 element를 decoding 하면 하나의 완전한 sub-video를 획득할 수 있으며 HD 급 수신기에서도 시청 가능한 서브 스트림임을 나타낸다.
sub_stream_type 필드값이 0x01은, 해당 스트림이 HD compatible video의 스트림이면서 complete sub-video component임을 나타낸다. 즉, 해당 스트림의 비디오는 UD 비디오의 sub-video이고, UD video reconstruction을 위해서는 추가적인 delta signal이 필요함을 나타낸다. 이 델타 delta signal과 combine 되면 HD급 수신기에서 시청 가능한 비디오임을 나타낼 수 있다.
sub_stream_type 필드값이 0x02은, 해당 스트림이 non-HD compatible 비디오의 스트림이면서, complete sub-video component 임을 나타낸다. 즉 해당 스트림의 비디오 엘리먼트를 decoding 하면 하나의 완전한 sub-video를 획득할 수 있으나, 이 스트림만을 단독으로 출력하여 시청하는 것은 권장하지 않음을 나타낸다.
sub_stream_type 필드값이 0x03은, 해당 스트림이 non-HD compatible video component의 스트림이면서, complete sub-video 임을 나타낸다. 따라서, 해당 비디오는 delta signal과 combine 되면 UD의 sub-video이 되지만, 이를 단독 출력해 시청하는 것은 권장하지 않음을 나타낸다.
sub_stream_type 필드값이 0x04은, 해당 스트림이 서브-비디오 컴포넌트의 레지듀얼 신호(residual signal for sub-video component)임을 나타낸다. 따라서, 이 스트림은 UD 비디오 출력을 위해 다른 sub-video component에 대해 delta로 제공되는 신호를 전송함을 나타낸다.
sub_stream_type 필드값이 0x05는, 해당 스트림이 여러 개의 sub-video를 포함하는 stream임을 나타낼 수 있다.
sub_stream_type 필드값이 0x06은, 해당 스트림이 UD 비디오의 해상도, 예를 들어 3840 x 2160 (4K UHDTV)와 호환되는 비디오의 스트림임을 나타낸다.
도 10은 UD 비디오 스트림으로부터 얻은 컴포넌트 또는 엘리먼트를 서브 스트림을 할당하는 예를 나타낸 도면이다.
UD 비디오는 compatible 비디오, 서브-비디오, 레지듀얼 신호 등으로 나누어 전송될 수 있는데, 각 나뉘어진 데이터들은 서로 별도로 또는 2개 이상이 하나의 스트림으로 전송될 수 있다. 이 도면에서 개시하는 예는, 4K UD 비디오를 분리하여 각 스트림으로 전송할 경우를 예시한다. 비디오의 해상도가 달라질 경우 여러 가지 조합에 따라 비디오 스트림이 전송될 수 있다.
먼저 스트림 0은 HD compatible서브-비디오를 전송하는 스트림이다. 즉 UD 비디오를 HD 해상도로 다운 샘플링하고 필터링한 비디오 스트림을 전송한다. 이 경우, 다운 샘플링은 quartet (2 × 2 pixels)의 동일한 sample grid에 속하는 화소를 모아서 수행될 수 있다. 이 예는, sub_video_grid_hor==00, sub_video_grid_ver==00으로 2 × 2 픽셀 중 왼쪽 위 픽셀을 이용하여 UD 비디오로부터 서브-비디오를 다운 샘플링한 것임을 나타낼 수 있다. 위의 예에 따라 스트림 0의 sub_stream_ID는 0x0000이고, sub_stream_type은 0x01이 된다.
스트림 1은 UD 비디오의 서브-비디오 1을 전송하는 스트림이다. 즉 UD 비디오를 HD 해상도로 다운 샘플링한 비디오 스트림을 전송한다. 이 예는, sub_video_grid_hor==01, sub_video_grid_ver==00으로 2 × 2 픽셀 중 오른쪽 위 픽셀을 이용하여 UD 비디오로부터 서브-비디오를 다운 샘플링한 것임을 나타낼 수 있다. 스트림 1의 sub_stream_ID는 0x0001이고, sub_stream_type은 0x02이 된다. 스트림 1의 경우 sub_stream_type은 0x00으로 설정될 수도 있다. 예를 들어 UD 비디오로부터 HD 비디오를 (필터링 없이) 다운 샘플링한 것으로 시청이 가능하다면 sub_stream_type은 0x00으로 설정될 수 있다.
스트림 2는 UD 비디오의 서브-비디오 2와 서브-비디오 3을 전송하는 스트림이다. 이 예에서 서브-비디오 2는, sub_video_grid_hor==0, sub_video_grid_ver==1으로 2 × 2 픽셀 중 왼쪽 아래 픽셀을 이용하여 서브-비디오로 다운 샘플링한 것임을 나타낼 수 있다. 그리고, 서브-비디오 3은, sub_video_grid_hor==1, sub_video_grid_ver==1로 2 × 2 픽셀 중 오른쪽 아래 픽셀을 이용하여 UD 비디오로부터 서브-비디오를 다운 샘플링한 것임을 나타낼 수 있다. 위에서 개시한 예에 따라 스트림 2의 sub_stream_ID는 0x0002이고, sub_stream_type은 0x05이 된다.
스트림 3은 서브-비디오 0의 레지듀얼 신호를 전송하는 스트림을 나타낸다. 이 예에서 서브-비디오 0의 레지듀얼 신호는, sub_video_grid_hor==0, sub_video_grid_ver==0으로 2 × 2 픽셀 중 왼쪽 아래 픽셀을 이용하여 서브-비디오로 다운 샘플링한 비디오의 레지듀얼 신호임을 나타낼 수 있다. 위에서 개시한 예에 따라 스트림 3의 sub_stream_ID는 0x0003이고, sub_stream_type은 0x04가 된다.
도 11은, 본 발명의 일 실시예에 따른 콤바인 디스트립터를 예시한 도면이다. 이 도면에서 콤바인 디스트립터는 UDTV_service_combine_descriptor라고 표시하였는데, 이 도면을 참고하여 콤바인 디스트립터를 설명하면 다음과 같다.
UDTV_service_combine_descriptor는 아래와 같은 필드를 포함할 수 있다.
descriptor_tag는 프로그램 레벨의 디스크립터를 식별자를 나타낼 수 있고, descriptor_length는 UDTV_service_combine_descriptor의 길이를 나타낼 수 있다.
original_UD_resolution 필드는, UD 프로그램(서비스)에 포함되는 스트림을 모두 모았을 때 출력될 수 있는 원본 UD 화면의 resolution을 의미한다. original_UD_resolution 필드의 값에 대한 예시는 추후 도면을 참고하여 설명한다.
UD_sub_service_type 필드는, 현재 프로그램(서비스, 채널) 레벨에서 기술되는 스트림만으로 지원 가능한 sub-service 종류를 나타낼 수 있다. 상세한 값은 도 12를 참조하여 추후 설명한다.
linked_UD_sub_service_type 필드는, 현재 프로그램(서비스, 채널)와 연계된 서비스의 UD_sub_service_type 값을 나타낼 수 있다.
num_linked_media 필드는, 원본 UDTV 방송을 구현하기 위해 현재 전달 매체 외에 다른 서비스나 매체를 통해 제공되는 연계 미디어의 개수를 나타낼 수 있다.
linked_media_type 필드는 연계된 미디어의 종류를 나타낼 수 있는 필드인데, 이 필드 00이면, 동일한 방송 전송 매체 중 다른 서비스, 채널 또는 프로그램에 현재 기술하고자 하는 프로그램(서비스)의 연계된 정보가 전송됨을 나타낼 수 있다. linked_media_type가 01이면 프로그램에 현재 기술하고자 하는 프로그램(서비스)의 연관된 정보가 인터넷과 같은 다른 전송매체을 통해 전송될 수 있음을 나타낼 수 있다.
Linked_media_sync_type 필드는, 연결될 UD 서브 서비스가 수신기에서 어떻게 획득되어 동기화될 수 있는지를 예시한다. 이에 대해서는 도 14를 참조하여 상세히 상술한다.
컴바인 디스크립터는, UD 스트림에 포함되는 연관된 스트림이 동일한 미디어 매체로 전달될 경우(linked_media_type == 0)는 Linked_UD_sub_service_type, associated_service_TSID, associated_service_original_network_id, associated_service_id를 포함할 수 있고, UD 스트림에 포함되는 연관된 스트림이 다른 미디어 매체로 전달될 경우(linked_media_type == 1)는, Linked_UD_sub_service_type, internet_linkage_information()를 포함할 수 있다.
associated_service_TSID 필드는, 완전한 UD 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)와 결합될 스트림을 포함한 프로그램(서비스)에 대한 transport_stream_id 값을 나타낼 수 있다.
associated_service_original_network_id 필드는, 완전한 UD 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)과 결합될 스트림을 포함한 서비스의 original_network_id 값을 나타낼 수 있다.
associated_service_id 필드는, 완전한 UD 서비스를 제공하기 위해 이 디스크립터가 기술하고 있는 프로그램(서비스)과 결합될 스트림을 포함한 서비스의 service_id 값을 나타낼 수 있다.
본 실시예에서는 콤바일 디스크립터가 service_id를 포함하는 예를 개시하였으나, linked_program_number 필드를 포함할 수도 있다. 이 경우 linked_program_number는 PMT의 program_number 필드와 유사한 의미를 가지는 것으로서, 결합 가능한 스트림에 대한 프로그램 번호를 식별한다.
internet_linkage_information는 완전한 UD 프로그램(서비스)를 제공하기 위해 연결된 인터넷 연결 정보를 표시하는 것으로서, (1) IP 어드레스 정보가 32 비트 또는 128 비트인지, (2) IP address 정보 (3) Port number 정보, (4) 추가 스트림에 대한 URI와 같은 부가 정보, (5) available time slot (예를 들어 서비스 전송을 위한 start time, expiration time, 등) 중 적어도 하나 이상을 포함할 수 있다.
도 12는 UD_sub_service_type의 필드 값을 예시한 도면이다. 설명한 바와 같이 컴바인 디스크립터에서 UD_sub_service_type의 필드값은 현재 기술되는 스트림에 따른 서비스만으로 지원 가능한 서브 서비스의 종류를 나타낼 수 있다.
예를 들어, UD_sub_service_type 필드가 000인 경우, 현재 서비스 내에 단독으로 출력 가능한 스트림이 전혀 없음을 나타낼 수 있다. 즉, 이 필드는 현재 기술되는 스트림 내에는 non-compatible stream 만 존재하고, UD 서비스를 위해 현재의 기술되는 서비스(프로그램) 외에, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다.
UD_sub_service_type 필드가 001인 경우, 현재 기술되는 UD 서비스 내에 HD compatible stream 이 포함되지만, 4K UD 또는 8K UD 서비스를 단독으로 지원할 수는 없음을 나타낼 수 있다. 따라서, UD 서비스를 위해 현재 기술되는 서비스(프로그램)에서 제공되는 데이터 외에도, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다.
UD_sub_service_type 필드가 010인 경우, 현재 기술되는 UD 서비스 내에 4K UD compatible stream 은 포함되지만, HD 또는 8K UD 서비스 단독으로 지원할 수는 없음을 나타낼 수 있다. 따라서, UD 서비스를 위해 현재 기술되는 서비스(프로그램)에서 제공되는 데이터 외에도, 다른 서비스 또는 미디어를 통해 추가적인 데이터를 수신할 수 있음을 나타낼 수 있다.
UD_sub_service_type 필드가 011인 경우, 현재 기술되는 UD 서비스 내에 원본 UD 방송 지원에 필요한 모든 스트림이 포함되어 있음을 나타낼 수 있다. 여기서 원본 UD 방송이란, original_UD_resolution 값에 해당하는 UD 방송을 의미한다.
도 13은 위에서 설명한 original_UD_resolution 필드 값을 예시한 도면이다.
original_UD_resolution 필드가 00인 경우 3840x2160의 4k UD 해상도를, 01이 경우 7680×4320의 4k UD 해상도를 나타낼 수 있다. 도 13은 original_UD_resolution 필드의 값을 예시하였다. 여기에 표시하지는 않았지만, 4096×2160의 해상도의 화면 format도 original_UD_resolution 필드 값에 시그널링될 수도 있다. 그런 경우, HD compatibility를 위해 해당 스트림의 video encoding 과정에서 crop rectangle 관련 파라미터 (frame_crop_left_offset, frame_crop_right_offset, frame_crop_top_offset, frame_crop_bottom_offset 등)을 추가로 사용할 수도 있다. 이 때 비디오 디코더는 출력 데이터를 1920×1080으로 설정하거나 bar data를 이용해 HD compatible 한 비디오 신호를 구성하는 방법 등을 사용할 수 있다.
도 14는 위에서 설명한 Linked_media_sync_type 필드의 값을 예시한 도면이다. 이 필드는 링크된 UD 서브 비디오를 어떻게 얻을 수 있는지 기술하는 필드이다. 예시한 바와 같이 서브 스트림 또는 서브 비디오가 UD 서비스를 위한 비디오 컴포넌트가 될 수 있다. 그리고, 서브 스트림은 또는 서브 비디오는 하나 이상의 방송 채널을 이용하여 전송될 수도 있고, 하나 이상의 방송 채널과 다른 물리 매체를 통해 전송될 수도 있다.
예를 들어 제 1 서브 스트림은 지상파 방송 채널로 전송되고, 제 2, 3, 4 서브 스트림은 인터넷의 IP 스트림으로 전송되는 예가 그 예가 될 수 있다. 따라서, 별개의 전송 수단을 통해 전송되는 비디오 컴포넌트들이 전송될 경우 어떻게 동기될 수 있는지 시그널링될 수 있다.
따라서, 싱크로너스 딜리버리(synchronous delivery)는 두 개 이상의 컴포넌트가 실시간 전송되는 경우를 나타내고, 이 경우 수신기에서 이 두 개 이상의 컴포넌트들은 동기화되어 표출된다. 어싱크로너스 딜리버리(asynchronous delivery)는 어느 하나의 컴포넌트가 비실시간으로(non-real time) 전송될 경우를 나타내는데 이 경우 수신기는 제 1 컴포넌트를 미리 저장된 후 이후에 전송되는 다른 컴포넌트를 수신하여 이들 컴포넌트를 함께 동기하여 표출한다.
예를 들어 Linked_media_sync_type 필드 값이 000인 경우, 링크된 UD 서브 스트림(서비스)들에 대해, 싱크로너스 UD 딜리버리(synchronous UD delivery)만 가능하다는 것을 나타낸다. 따라서, 이 경우 링크된 UD 서브 스트림(서비스)들은 실시간 전송되고 서로 동기화되어 UD 서비스 표출이 가능하다.
Linked_media_sync_type 필드 값이 001인 경우, 링크된 UD 서브 스트림(서비스)들에 대해 어싱크로너스 UD 딜리버리(asynchronous UD delivery)가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UD 서브 스트림(서비스)들이 이후에 전송된다는 것을 의미한다. 따라서, 이 경우 링크된 UD 서브 스트림(서비스)들은 비실시간 전송되고 수신기는 링크 정보를 수신하면 비실시간으로 전송되는 UD 서브 스트림(서비스)들을 서로 동기화하여 UD 서비스 표출을 할 수 있다.
Linked_media_sync_type 필드 값이 010인 경우, 링크된 UD 서브 스트림(서비스)들에 대해 어싱크로너스 UD 딜리버리(asynchronous UD delivery)가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UD 서브 스트림(서비스)들이 이미 전송되었다는 것을 의미한다. 따라서, 이 경우 링크된 UD 서브 스트림(서비스)들은 이미 비실시간 전송되었고 수신기는 링크 정보를 이용하여 서로 다른 시점에 전송된 UD 서브 스트림(서비스)들을 서로 동기화하여 UD 서비스 표출을 할 수 있다.
Linked_media_sync_type 필드 값이 011인 경우, 링크된 UD 서브 스트림(서비스)들에 대해 싱크로너스 UD 딜리버리(synchronous UD delivery)와 어싱크로너스 UD 딜리버리(asynchronous UD delivery) 모두가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UD 서브 스트림(서비스)들이 추후 다시 재전송되거나 현재 이벤트와 동시에 전송되고 있음을 나타낸다.
Linked_media_sync_type 필드 값이 100인 경우, 링크된 UD 서브 스트림(서비스)들에 대해 싱크로너스 UD 딜리버리(synchronous UD delivery)와 어싱크로너스 UD 딜리버리(asynchronous UD delivery) 모두가 가능하고, 링크 정보(예를 들면, associated_service_TSID, associated_service_original_network_id, associated_service_id, internet_linkage_information 등)에 의해 참조되는 UD 서브 스트림(서비스)들이 이미 전송되었고 현재 이벤트와 동시에 전송되고 있음을 나타낸다.
위에서 컴바인 디스크립터와 서브스트림 디스크립터를 예시하였다.그리고 각 디스크립터에 포함 가능한 정보들을 설명하였다. 서브스트림 디스크립터는 각 스트림 별 서술자를 포함할 수 있다. 그런데 이런 경우, 각 스트림의 호환성 및 샘플링 팩터(sampling factor) 정보는 알 수 있지만, 원본 UD 방송의 전체 구성 정보에 대해서는 없으므로 UD 방송을 제공하기 위해 program/channel/service level 에서 제공해야 하는 UDTV 방송의 전체 구성 정보를 시그널링할 수 있다. 해당 정보로는 구성 스트림의 개수, 각 스트림이 포함된 채널/서비스 정보, 각 스트림이 실시간으로 전송되는지 비실시간으로 전송되는지 여부 등이 있을 수 있으며 이에 대해서는 컴바인 디스크립터에서 해당 정보를 기술하였다.
각 채널에서 제공되는 UD sub-service 들의 동기화 여부에 따라 수신기의 동작이 달라질 수 있으므로, 본 발명에서는 이를 고려한 시그널링을 개시하였다. 즉, UD sub-service는 모두 동기화 되어 받는 즉시 실시간으로 출력될 수도 있고, 또는 비동기식으로 구성되어 일부 또는 전체가 일단 수신단에 저장된 후에, 나중에 온 component 들과 결합되어 출력되는 경우도 있을 수 있다.
다음으로 UD 비디오를 위에서 예시한 방법에 따라 전송할 경우 비디오 스트림의 포맷에 대해 기술한다. UD 비디오를 서브 샘플링한 경우 비디오 인코더는, 서브 샘플링된 비디오를 아래의 포맷에 따른 비디오 엘리먼터리 스트림으로 인코딩하여 출력할 수 있다.
먼저 위에서 예시한 비디오 엘리먼터리 스트림의 헤더는 도 15 및 도 16에서 예시한 SEI(Supplemental enhancement information) messge의 포맷을 가질 수 있다.
도 15는 비디오 엘리먼터리 스트림의 SEI(Supplemental enhancement information) payload의 포맷을 예시한다. SEI 패이로드의 패이로드 타입이 5인 경우, user_data_registered_itu_t_t35()에 따른 패이로드 포맷을 가질 수 있다.
여기서 user_identitier 필드는 0x4741 3934의 값을 가질 수 있고, user_structure는 이하에서 예시한 형식을 가질 수 있다. 그리고, user_data_type_code가 0x1B 인 경우 user_data_type_structure()는 UD 비디오를 서브 샘플링한 방식에 따른 서브 스트림을 기술하는 UD_sampling_info의 정보가 포함될 수 있다. UD_sampling_info의 내용은 도 17에서 상세히 설명한다.
도 16은 비디오 엘리먼터리 스트림의 SEI(Supplemental enhancement information) message의 형식을 예시한다. 마찬가지로 SEI message의 payloadType이 37인 경우 샘플링정보(UD_sampling_info)가 포함될 수 있다.
도 17은 비디오 엘리먼터리 스트림 내에 UD 비디오를 서브 샘플링한 방식에 따른 샘플링 정보를 예시한 도면이다. 여기서 기술하는 샘플링정보(UD_sampling_info)의 신택스 중 도 8의 필드와 동일한 필드는, 도 8를 참조하여 설명한 필드와 그 의미도 동일하다.
위에서는 컴바인 디스크립터와 서브스트림 디스크립터가 PMT에 포함되는 예를 설명하였다. 하지만, 예사한 디스크립터들은 ATSC PSIP의 VCT에 추가될 수도 있다. 이 때 channel level의 디스크립터에 예시한 컴바인 디스크립터와 서브스트림 디스크립터가 모두 포함될 수 있다.
예를 들어 컴바인 디스크립터(UDTV_service_combine_descriptor)가 TVCT에 포함되는 경우 channel loop 위치에 컴바인 디스크립터(UDTV_service_combine_descriptor)가 위치할 수 있다. 이 경우 컴바인 디스크립터(UDTV_service_combine_descriptor)에서 associated_service_id는 associated_program_number 또는 associated_major_channel_number와 associated_minor_channel_number로 대체될 수 있다. 그리고, 컴바인 디스크립터(UDTV_service_combine_descriptor)에 기술하는 프로그램(서비스)와 함께 초고해상도(UD) 비디오로 표출시킬 수 있는 관련 소스의 식별자(associated_source_id)가 추가될 수 있다.
associated_program_number는 시그널링되는 서브 비디오 스트림과 관련된 서비스 비디오 스트림에 대한 프로그램 번호를, associated_major_channel_number와 associated_minor_channel_number는 시그널링되는 서브 비디오 스트림과 관련된 서비스 비디오 스트림에 대한 메이저, 마이너 채널 번호를 각각 나타낸다. 그리고, associated_source_id는 결합될 스트림이 포함된 채널에 대한 채널 번호 또는 source_id를 나타낼 수 있다. 컴바인 디스크립터(UDTV_service_combine_descriptor)를 예시하였기 때문에 대체되거나 추가되는 필드에 대한 도면은 생략한다.
예시한 두 디스크립터들은, DVB SI의 SDT에 추가될 수도 있다. 이 경우 service level의 디스크립터에 예시한 컴바인 디스크립터와 서브스트림 디스크립터가 모두 포함될 수도 있다.
다른 예로서, Network Information Table의 transport_stream_loop 위치에 위에서 예시한 컴바인 디스크립터(UDTV_service_combine_descriptor)가 포함될 수도 있다. 이 경우 수신기는 NIT의 컴바인 디스크립터(UDTV_service_combine_descriptor)를 이용해 trasnport_stream_id, original_network_id 등의 필드로, 기술하고자 하는 서비스가 원본 UD 비디오로부터 어떻게 얻은 스트림으로 전송되는지 등의 정보를 얻을 수 있다. 그리고, 수신기는 NIT의 컴바인 디스크립터(UDTV_service_combine_descriptor)로부터 수신되는 서비스가 단독 출력 가능한 스트림인지, 어느 sub-video를 포함하고 있는지 등의 정보 등의 정보를 얻을 수 있다. 그리고, 이 디스크립터를 이용하여 완전한 UD 비디오를 얻기 위해 추가로 연결해야 할 서비스에 대한 정보를 알 수 있다.
또 다른 예로서, 예시한 UD 비디오가 DVB 또는 ATSC의 EIT(Event Information Table)에 포함될 수도 있다. Event Information Table의 event loop 위치에 예시한 컴바인 디스크립터(UDTV_service_combine_descriptor) 포함될 수도 있다.
ATSC의 EIT에 컴바인 디스크립터(UDTV_service_combine_descriptor)가 전송될 경우 컴바인 디스크립터의 예시한 associated_service_id 필드는 UD 비디오 표출과 관련된 프로그램을 식별하는 associated_program_number로 대체될 수 있고, 컴바인 디스크립터에 UD 비디오 표출과 관련된 소스를 식별하는associated_source_id 및 UD 비디오 표출과 관련된 이벤트를 식별하는associated_event_id가 추가될 수 있다. 예시한 바와 같이 associated_program_number는 시그널링되는 서브 비디오 스트림과 관련된 서비스 비디오 스트림에 프로그램 넘버를, associated_source_id 및 associated_event_id는 시그널링되는 서브 비디오 스트림과 관련된 비디오 스트림의 소스 아이디와 이벤트의 식별자를 나타낸다. DVB의 경우 컴바인 디스크립터에 UD 비디오 표출과 관련된 이벤트를 식별하는 associated_event_id가 추가될 수 있다.
한편, UD 비디오 스트림을 전송할 경우, 전송 시스템에 따라 다음과 같은 필드를 더 포함하는 시그널링정보를 함께 전송할 수 있다.
전송 시스템에 따라 시그널링 정보는, Component type 정보 또는 stream_type 정보를 포함할 수 있다. Component type 정보를 이용한 시그널링은, 각 스트림의 종류를 stream_content 및 component_type 값을 통해 알려줄 수 있다. 따라서, 스트림의 컴포넌트 값을 이용하여 어느 UD_subsampling 모드에 속하는지 여부, 코덱 정보, 해상도 정보 등을 판단 가능하도록 값을 할당하여 시그널링할 수 있다.
Stream_type 정보를 이용하는 경우에도, UD 비디오 스트림을 위한 새로운 값을 할당하여 시그널링할 수 있다. 사용하는 코덱 및 포함하는 스트림의 종류 등에 따라 UD service를 구분하고 각 구분된 UD 서비스에 대해 다른 service_type 을 할 당하여 시그널링할 수도 있다. 이 경우 UD service로부터 서브 샘플링된 HD 비디오 호환 스트림에 따른 서비스는 기존 HD 서비스와 동일한 service_type을 사용하여 종래의 HD 서비스로 시청을 가능하도록 할 수도 있다.
그리고, 기존 수신기에서는 component type 및 stream_type 또는 service_type 을 이용하여 시그널링하여 HD 비디오와 호환이 되지 않는 UD 비디오 신호를 수신하지 않게 할 수 있다.
도 18은 DVB 시스템에서 stream_content와 component_type 을 이용하여 UD 콘텐트를 식별하는 예를 개시한다. DVB 시스템에서 component descriptor는 컴포넌트 스트림의 타입을 식별할 수 있고, 엘리멘터리 스트림의 텍스트 설명을 제공하는데 사용될 수 있다. component descriptor는 EIT 또는 SDT에 포함될 수 있는데, 해당 이벤트 또는 서비스에 포함된 구성요소(비디오 element)의 특징을 기술할 수있다.
그 경우에 도 18과 같이 UD 콘텐트에 포함될 수 있는 서브 콘텐트의 타입을 시그널링할 수 있다. 서브 코텐트는 UD 콘텐트을 이용하여 생성되어 UD 콘텐트와 호환 가능하거나 또는 호환 가능하지 않을 수도 있다. 예를 들어 이 도면에서 기술하는 컴포넌트들은 도 1에서 예시한 서브 비디오를 전송할 수 있다. 그런 경우 Sub-video sampling factor (예를 들면, (even, odd))나 horizontal_sampling_factor 및 vertical_sampling_factor 와 같은 요소도 각 컴포넌트를 기술하는데 사용될 수도 있다.
예를 들어 stream_content가 0x05이고, component_type 가 0x90일 경우, 이에 따른 서브 콘텐트는, H.264/AVC video 비디오 콘텐트로서, 4K UD 콘텐트일 수 있고, 50Hz (25Hz), 화면비 16:9인 콘텐트를 나타낼 수 있다.
stream_content가 0x05, component_type 가 0x94일 경우, 이에 따른 서브 콘텐트는, H.264/AVC video 비디오 콘텐트로서, 4K UD 콘텐트의 일부분일 수 있고, 60Hz (30Hz), 화면비 16:9인 콘텐트를 나타낼 수 있다.
여기서, part of 4K UD는 4K UD 콘텐트의 일부분의 서브 비디오 데이터를 포함하지만 독립적으로 의미 있는 영상 (예를 들어 HD 비디오)을 제공할 수 없는 경우를 나타낸다. 여기서는 16:9의 화면비를 가진 컴포넌트를 예시하였으나, 16:9가 아닌 다른 aspect ratio를 사용하는 경우 (예를 들어 21:9), 이를 위한 component_type 값을 추가로 설정할 수 있다.
stream_content가 0x05, component_type 가 0x98일 경우, 이에 따른 서브 콘텐트는, H.264/AVC video 비디오 콘텐트로서, 4K UD 콘텐트의 일부분으로서 HD compatible비디오를 출력하기 위한 비디오 신호의 일부분임을 나타낸다. stream_content가 0x05, component_type 가 0x98는 레지듀얼 신호에 대한 스트림 또는 컴포넌트임을 나타내는 식별자가 될 수 있고, 이 예는 해당 스트림이 60Hz (30Hz), 화면비 16:9인 콘텐트임 나타낸다.
stream_content가 0x09, component_type 가 0x10일 경우, 이에 따른 서브 콘텐트는, HEVC와 같은 advanced codec video 비디오 콘텐트로서, 4K UD 콘텐트의 일부분이고, 4K 해상도 UD 비디오 신호의 일부분임을 나타낸다.
stream_content가 0x05, component_type 가 0x14는 4K 해상도 UD 비디오 신호의 일부분임을 나타내는 것으로서, 이 예는 해당 스트림이 50Hz (25Hz), 화면비 16:9인 콘텐트임 나타낸다.
마찬가지로, stream_content가 0x09, component_type 가 0x18인 경우, 이에 따른 서브 콘텐트는, HEVC와 같은 advanced codec video 비디오 콘텐트로서, 4K UD 콘텐트의 일부분임을 나타내는 것으로서, 예를 들어 레지듀얼 신호에 대한 스트림 또는 컴포넌트임을 나타내는 식별자가 될 수 있다.
Spatial Scalable Coding을 이용하여 컴포넌트를 인코딩하여 전송하는 경우 Base layer는 기존의 HD와 동일한 방법을 사용하며 Spatial Scalability를 제공하기 위한 Enhancement layer에 대해 별도로 stream_content와 component_type 값을 할당할 수도 있다. 예를 들어, stream_content가 0x05이고 component_type이 0xA0이면 H.264/AVC Spatial Scalable Extension Video, 4K UD, 50Hz (25Hz), 16:9를 의미할 수 있다. 이 스트림은 독립적으로 디코딩이 안되며 Base layer video와 결합되면 의미있는 영상이 출력될 수 있다. 아울러 Advanced Codec을 사용하는 경우 해당 코덱을 기반으로 spatial scalability가 제공될 때도 개시한 방법과 비슷한 방법으로 UD 비디오가 제공될 수 있다.
이하에서는 위에서 예시한 방법에 따라 전송된 UD 비디오 스트림과 시그널링 정보를 이용하여 UD 비디오 또는 HD 비디오를 출력하는 수신기에 대해 설명한다. 수신기는 UD 비디오를 수신하여 표출할 수 있는 수신기와, UD 비디오의 일부인 HD비디오를 표출할 수 있는 수신기가 있을 수 있다. 두 가지 수신기에 대해 각각의 비디오 출력의 실시예를 개괄적으로 설명하면 다음과 같다.
먼저, 기존 HD 비디오 수신기에서 UD sub-strem을 수신하여 HD 비디오를 출력하는 일 실시예를 설명하면 다음과 같다.
서비스를 전송하는 비디오가 HD compatible stream 스트림으로 전송되는 경우 (도 6의 프로그램 A), 수신기는 기존 HD 비디오를 수신하는 것과 동일한 방법으로 HD 비디오를 출력할 수 있다. 이 경우 HD compatible stream 에 의해 전송되는 UD sub service(비디오)는 기존 HD 비디오를 포함하는 방송 서비스와 동일한 service_type 및 동일한 stream_type (PSI 시그널링의 경우, service_type==0x02 , stream_type==0x1B) 으로 시그널링 될 수 있다.
기존 HD 비디오 수신기는, PMT 내에 포함된 서브스트림 디스크립터(UDTV_sub_stream_descriptor()) 및 컴바인 디스크립터((UDTV_service_combine__descriptor()) 등의 서술자는 인식할 수 없다. 따라서, 서비스가 HD compatible stream으로 전송되지 않는 경우, 해당 서비스에 새로운 service_type을 할당하면 종래의 수신기가 채널 자체를 인식할 수 없다.
UD 비디오를 수신하여 표출할 수 있는 수신기는 각각 수신한 서브 스트림을 조합하여 UD 비디오를 출력할 수 있다. 이에 대한 실시예를 설명하면 다음과 같다.
먼저, 수신기는 제 1 채널(서비스)를 통해 수신한 시그널링정보, 예를 들면 PMT의 컴바인 디스크립터(UDTV_service_combine_descriptor)를 이용하여 원본 UD 비디오를 구현하기 위해 추가로 받아야 하는 별도 서비스나 미디어가 있는지 판단한다.
별도 채널이나 경로를 통해 수신해야 하는 데이터가 있는 경우, 수신기가 관련된 연계 서비스를 수신할 수 있는 연결정보를 시그널링정보로부터 얻을 수 있다.
수신기가 연계 서비스를 수신하기 위해 이미 획득한 연결정보를 이용해 별도의 다른 튜너 (또는 인터넷 엑세스 모듈)을 이용해 제2 (또는 제3)의 연계 서비스를 튜닝(접속)한다.
경우에 따라 (예를 들어 linked_media_sync_type이 asynchronous 모드인 경우) 제 1 채널 및 이와 연계된 제 2, 제3의 경로로 수신되는 UD 비디오의 컴포넌트의 스케쥴이 다를 수 있으며 이 경우 각 경로(채널)을 통해 수신되는 스케쥴 정보를 이용해 필요한 데이터를 미리 저장 또는 수신할 수 있다.
제 1, 제 2, 제 3의 채널 (경로)로 수신된 sub stream을 디코딩한다. 모든 서브 스트림이 하나의 프로그램에 포함되는 경우(도 6의 프로그램 B)는 하나의 채널을 통해 수신된 필요한 모든 서브 스트림을 디코딩한다.
이 경우, 수신기는, 각 서비스에 속한 스트림(sub stream)마다 할당된 서브 스트림 디스크립터(UDTV_sub_stream_descriptor)를 통해 UD 비디오를 재조합하기 위한 정보를 획득할 수 있다. 수신기는 획득한 정보로부터 각 스트림에 포함된 sub_video가 어느 것인지 그리고 해당 sub_video가 전체 UD 비디오에서 어느 sample grid에 위치하는지 등의 정보를 얻을 수 있다. sample grid에 위치는 sub_video_grid_hor 및 sub_video_grid_ver 필드를 이용할 수 있다.
Video merger 에서는 얻은 정보를 토대로 다수의 서브 비디오를 이용하여 UD 비디오를 복원할 수 있다.
도 19는 위에서 설명한 본 발명의 실시예에 따른 수신기의 예를 개시한 도면이다. 수신기의 실시예는, 수신부, 채널 디코더, 역다중화부(300) 및 비디오 디코더, 저장부(500), 시그널링정보 디코딩부(600), 비디오 합성부(700), 및 스위칭부(800)를 포함할 수 있다.
수신부는 적어도 하나의 튜너 또는/및 적어도 하나의 인터넷 액세스 모듈(101, 102, 103)을 포함할 수 있다. 수신부의 적어도 하나의 튜너(101, 102)는 UD 비디오 신호를 전송하는 각각 RF 채널을 수신할 수 있다.
수신부의 적어도 하나의 인터넷 액세스 모듈(103)은 UD 비디오 신호를 전송하는 인터넷 신호를 수신할 수 있다. 여기서 UD 비디오 신호는 UD 비디오 전체가 전송될 수도 있고, UD 비디오가 분리된 비디오 신호일 수도 있으며, UD 비디오가 분리된 비디오 신호는 HD 비디오와 호환 가능한 비디오이거나 위에서 설명한 레지듀얼 신호일 수도 있다.
채널 디코딩부(201, 202)는 튜너(101, 102)가 튜닝한 방송신호를 채널 디코딩할 수 있다.
역다중화부(300)는 채널 디코딩된 비디오 신호 및/또는 인터넷 신호를 수신하여 각각 UD 비디오가 분리된 비디오 신호들을 역다중화할 수 있다. 여기서 역다중화된 비디오 신호들은 합성할 경우 UD 비디오가 될 수도 있다. 예를 들어 역다중화부(300)는 도 6의 스트림 0을 역다중화하거나, 스트림 0부터 스트림 3을 모두 역다중화할 수도 있다.
시그널링정보 디코딩부(600)는 방송신호 또는 인터넷 신호로 전송된 시그널링정보를 디코딩할 수 있다. 시그널링 정보는 위에서 콤바인 디스크립터, 스트림 디스크립터 등을 이미 예시하였다.
비디오 디코더(401, 402, 403, 404)는 디코딩된 시그널링정보 또는 비디오 스트림 내에 시그널링 정보를 이용하여 각각 역다중화된 비디오를 디코딩할 수 있다. 디코딩된 시그널링정보에는 도 7, 도 11 및 도 18을 예시하였고, 비디오 스트림 내 시그널링 정보로 도 15 내지 도 17를 예시하였다.
디코딩된 비디오 신호가 UD 비디오로부터 분리된 비디오인 경우, 비디오 합성부(700)는 디코딩된 비디오 신호를 합성하여 UD 비디오 신호로 출력할 수 있다. 수신기는 예시한 비디오 처리 패스들 중 HD compatible 비디오(도 6의 서브-비디오 0)와 레지듀얼 신호(도 6의 서브-비디오 0 (레지듀얼))를 처리하는 패스 또는 UD 비디오를 단순 서브 샘플링한 HD 비디오(도 6의 서브-비디오 1, 2, 3)를 처리하는 패스 중 어느 하나만을 포함할 수도 있다.
디코딩된 비디오 신호가 UD 비디오로부터 단순히 서브 샘플링된 HD 비디오이거나, 레지듀얼 신호를 이용하여 복원된 HD compatible 비디오인 경우, 수신기는 디코딩된 시그널링정보를 이용하여 두 HD 급 비디오 중 어느 하나의 HD 비디오를 출력할 수 있다.
저장부(500)는 적어도 하나의 튜너 또는/및 적어도 하나의 인터넷 액세스 모듈(101, 102, 103)로부터 수신된 비디오 신호를 저장할 수 있다. 예를 들어 저장부(500)는 도 6의 프로그램 B 중 어느 하나의 컴포넌트에 대한 스트림이 먼저 수신된 경우, 수신된 스트림을 저장할 수 있다. 즉, UD 비디오가 분리된 HD 비디오 스트림들의 일부가 비동기방식으로 전송되는 경우, 저장부(500)는 먼저 수신된 비디오 스트림을 저장할 수 있다.
UD 비디오를 출력할 수 있는 비디오 스트림들을 포함한 프로그램들이 다수의 서브 스트림으로 수신된 경우, 저장부(500)에 저장된 서브 스트림과, 실시간 수신된 서브 스트림이 함께 복호되고 비디오 합성부(700)가 비디오 스트림들로부터 복원된 비디오를 합성하여 UD 비디오로 출력할 수 있다.
스위치(800)는 비디오 디코더(401)가 레지듀얼 신호를 디코딩한 데이터를 출력한 경우 이를 이용하여 HD compatible비디오를 디코딩한 비디오로 디코딩하는 비디오 디코더(402)로 출력하거나, 또는 비디오 디코더(401)가 UD 비디오의 단순히 서브 샘플링한 비디오로 디코딩한 데이터를 출력할 수 있도록 스위칭할 수 있다.
비디오 합성부(700)는 UD 비디오를 분리한 HD 비디오 또는 HD compatible비디오를 합성하여 UD 비디오로 출력할 있다.
도 20는 본 발명에 따른 비디오 스트림 전송 방법의 일 실시예를 나타낸 도면이다.
UD 비디오로부터 샘플링된 HD compatible한 비디오, UD 비디오를 서브 샘플링하여 분리한 HD 크기의 비디오, 및 HD compatible한 비디오와 HD 크기의 비디오의 차이인 레지듀얼 신호를 전송하는 서브 스트림을 각각 인코딩한다(S100)
도 1에서 UD 비디오로부터 샘플링된 HD compatible한 비디오, UD 비디오를 서브 샘플링하여 분리한 HD 크기의 비디오, 및 HD compatible한 비디오와 HD 크기의 비디오의 차이인 레지듀얼 신호로 분리하는 실시예를 개시하였다.
UD 비디오로부터 얻은 HD compatible한 비디오의 서브 스트림 및 UD 비디오를 서브 샘플링하여 분리한 HD 크기의 비디오의 서브 스트림, 및 레지듀얼 신호의 서브 스트림 중 하나이상의 서브 스트림과 이를 기술하는 시그널링정보를 다중화한다(S200). 다중화된 스트림의 시그널링 정보에는 도 10의 예와 같이 그에 따른 sub_stream_ID 와 stream_type가 부여될 수 있다.
다중화된 서브 스트림과 시그널링정보를 전송한다(S300).
도 21은 본 발명에 따른 비디오 스트림 수신 방법의 일 실시예를 나타낸 도면이다.
UD 비디오로부터 얻은 HD compatible한 비디오의 서브 스트림 및 UD 비디오를 서브 샘플링하여 분리한 HD 크기의 비디오의 서브 스트림, 및 레지듀얼 신호의 서브 스트림 중 하나이상의 서브 스트림과 UD 비디오 스트림과 상기 스트림에 포함된 서브 스트림의 관계를 기술하는 시그널링정보를 포함하는 스트림을 역다중화한다(S400). 도 6과 도 10에서 프로그램(서비스, 채널)에 포함될 수 있는 서브 프로그램(서비스, 채널)을 전송하는 스트림을 예시하였다.
스트림은 방송 매체나 인터넷 전송 매체 등을 통해 전송될 수 있다.
역다중화된 시그널링정보를 복호한다(S500). 시그널링정보에는 도 7 및 도 11을 예시하였다. 각각의 HD 비디오 서브 스트림도 시그널링 정보를 포함할 수 있는데 이에 대해서는 도 15 내지 도 17를 예시하였다.
복호한 시그널링정보를 이용하여 HD compatible한 비디오 및 HD 크기의 비디오 중 적어도 하나의 HD 비디오를 전송하는 서브스트림을 디코딩한다(S600). 적어도 하나의 서브스트림을 디코딩할 경우, 시그널링 정보를 이용하여 UD 비디오 스트림을 표출하도록 하거나, HD 비디오 스트림만을 표출하도록 할 수 있다.
발명의 실시를 위한 형태는 위에서 모두 개시되었다.
본 발명의 실시예는 초고해상도 비디오 스트림을 효율적으로 송수신하면서도 현재의 방송 시스템과 호환될 수 있는 비디오 스트림을 송수신 장치/방법을 제공하여 산업상 이용가능성이 있다.

Claims (20)

  1. UD(ultra definition) 비디오 스트림을 다운샘플링하여 시청가능한 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림으로 분리하고, 상기 분리된 서브 스트림을 각각 인코딩하는 단계;
    상기 UD 비디오 스트림과 상기 적어도 하나의 서브스트림의 관계를 기술하는 시그널링정보와 상기 적어도 하나의 서브스트림을 포함하는 다중화하는 단계; 및
    상기 다중화된 적어도 하나의 HD 비디오 서브스트림과 시그널링정보를 전송하는 단계;를 포함하는 비디오 스트림 전송방법.
  2. 제 1항에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 HD 크기 비디오의 서브스트림의 식별자를 포함하는 비디오 스트림 전송방법.
  3. 제 1항에 있어서,
    상기 시그널링정보는, 상기 서브 스트림에 의해 전송되는 비디오 신호로 지원 가능한 서비스 타입 정보를 포함하는 비디오 스트림 전송방법.
  4. 제 3항에 있어서,
    상기 시그널링정보는, 상기 레지듀얼 신호의 서브스트림과 관련된 비디오 서브 스트림의 식별자를 더 포함하는 비디오 스트림 전송방법.
  5. 제 1항에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림의 전송 매체 정보를 포함하는 비디오 스트림 전송방법.
  6. UD(ultra definition) 비디오를 다운 샘플링하여 얻은 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림 중 적어도 하나의 서브스트림과 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 시그널링정보를 포함하는 스트림을 역다중화하는 단계;
    상기 역다중화된 시그널링정보를 복호하는 단계; 및
    상기 복호한 시그널링정보를 이용하여 상기 역다중화된 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 디코딩하는 단계를 포함하는 비디오 스트림 수신방법.
  7. 제 6항에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 기술하는 디스크립터를 포함하는 비디오 스트림 수신방법.
  8. 제 7항에 있어서,
    상기 디스크립터는, 상기 다운 샘플링의 정보를 포함하는 비디오 스트림 수신방법.
  9. 제 6항에 있어서,
    상기 시그널링정보는, 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 디스크립터를 포함하는 비디오 스트림 수신방법.
  10. 제 9항에 있어서,
    상기 디스크립터는, 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림의 서비스 타입 정보를 포함하는 비디오 스트림수신방법.
  11. UD(ultra definition) 비디오 스트림을 다운샘플링하여 시청가능한 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림으로 분리하고, 상기 분리된 서브 스트림을 각각 인코딩하는 인코더;
    상기 UD 비디오 스트림과 상기 적어도 하나의 서브스트림의 관계를 기술하는 시그널링정보와 상기 적어도 하나의 서브스트림을 포함하는 다중화하는 다중화부; 및
    상기 다중화된 적어도 하나의 HD 비디오 서브스트림과 시그널링정보를 전송하는 전송부;를 포함하는 비디오 스트림 전송장치.
  12. 제 11항에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 기술하는 디스크립터를 포함하는 비디오 스트림 전송장치.
  13. 제 12항에 있어서,
    상기 디스크립터는, 상기 다운 샘플링의 정보를 포함하는 비디오 스트림 전송장치.
  14. 제 11항에 있어서,
    상기 시그널링정보는, 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 디스크립터를 포함하는 비디오 스트림 전송장치.
  15. 제 14항에 있어서,
    상기 디스크립터는, 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림의 서비스 타입 정보를 포함하는 비디오 스트림 전송장치.
  16. UD(ultra definition) 비디오를 다운 샘플링하여 얻은 HD compatible비디오의 서브스트림, HD 크기 비디오의 서브스트림 및 상기 HD compatible비디오 및 상기 HD 크기 비디오의 차이인 레지듀얼 신호의 서브스트림 중 적어도 하나의 서브스트림과 상기 UD 비디오의 스트림과 상기 서브스트림들 중 적어도 하나의 서브스트림과의 관계를 기술하는 시그널링정보를 포함하는 스트림을 역다중화하는 역다중화부;
    상기 역다중화된 시그널링정보를 복호하는 시그널링정보디코더; 및
    상기 복호한 시그널링정보를 이용하여 상기 역다중화된 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림을 디코딩하는 비디오디코더;를 포함하는 비디오 스트림 수신장치.
  17. 제 16에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 HD 크기 비디오의 서브스트림의 식별자를 포함하는 비디오 스트림 수신장치.
  18. 제 16에 있어서,
    상기 시그널링정보는, 상기 서브 스트림에 의해 전송되는 비디오 신호로 지원 가능한 서비스 타입 정보를 포함하는 비디오 스트림 수신장치.
  19. 제 18항에 있어서,
    상기 시그널링정보는, 상기 레지듀얼 신호의 서브스트림과 관련된 비디오 서브 스트림의 식별자를 더 포함하는 비디오 스트림 수신장치.
  20. 제 16항에 있어서,
    상기 시그널링정보는, 상기 HD compatible비디오의 서브스트림 또는 상기 HD 크기 비디오의 서브스트림의 전송 매체 정보를 포함하는 비디오 스트림 수신장치.
PCT/KR2012/005887 2011-07-26 2012-07-24 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법 WO2013015596A2 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA2844361A CA2844361C (en) 2011-07-26 2012-07-24 Apparatus and method for transmitting and receiving a uhd video stream which is downsampled into hd video and residual sub-streams
EP12816950.5A EP2739052A4 (en) 2011-07-26 2012-07-24 VIDEO STREAM TRANSMITTING APPARATUS, VIDEO STREAM RECEIVING APPARATUS, VIDEO STREAM TRANSMITTING METHOD, AND VIDEO STREAM RECEIVING METHOD
CN201280036872.2A CN103718562B (zh) 2011-07-26 2012-07-24 发送视频流的装置、接收视频流的装置、发送视频流的方法、接收视频流的方法
US14/234,593 US9113020B2 (en) 2011-07-26 2012-07-24 Apparatus for transmitting video stream, apparatus for receiving video stream, method for transmitting video stream, and method for receiving video stream
KR1020137033736A KR20140040165A (ko) 2011-07-26 2012-07-24 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
US14/803,990 US9432705B2 (en) 2011-07-26 2015-07-20 Apparatus for transmitting video stream, apparatus for receiving video stream, method for transmitting video stream, and method for receiving video stream

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161511559P 2011-07-26 2011-07-26
US61/511,559 2011-07-26

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/234,593 A-371-Of-International US9113020B2 (en) 2011-07-26 2012-07-24 Apparatus for transmitting video stream, apparatus for receiving video stream, method for transmitting video stream, and method for receiving video stream
US14/803,990 Continuation US9432705B2 (en) 2011-07-26 2015-07-20 Apparatus for transmitting video stream, apparatus for receiving video stream, method for transmitting video stream, and method for receiving video stream

Publications (2)

Publication Number Publication Date
WO2013015596A2 true WO2013015596A2 (ko) 2013-01-31
WO2013015596A3 WO2013015596A3 (ko) 2013-03-21

Family

ID=47601642

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/005887 WO2013015596A2 (ko) 2011-07-26 2012-07-24 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법

Country Status (6)

Country Link
US (2) US9113020B2 (ko)
EP (1) EP2739052A4 (ko)
KR (1) KR20140040165A (ko)
CN (1) CN103718562B (ko)
CA (1) CA2844361C (ko)
WO (1) WO2013015596A2 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015034306A1 (ko) * 2013-09-09 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2015034188A1 (ko) * 2013-09-06 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 광역 밝기 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
WO2015037964A1 (ko) * 2013-09-16 2015-03-19 삼성전자 주식회사 방송 수신 장치 및 그 제어 방법
WO2015065037A1 (ko) * 2013-10-29 2015-05-07 엘지전자 주식회사 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2015152635A1 (ko) * 2014-04-02 2015-10-08 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
CN105008004A (zh) * 2013-02-28 2015-10-28 Lg电子株式会社 信号传输和接收设备以及信号传输和接收方法
CN106063278A (zh) * 2013-11-21 2016-10-26 谷歌公司 使用子组块化来对媒体流进行代码转换
WO2017018775A1 (ko) * 2015-07-28 2017-02-02 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법 및 방송 신호 수신 방법
WO2017171391A1 (ko) * 2016-03-30 2017-10-05 엘지전자 주식회사 방송 신호 송수신 방법 및 장치

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2712191A4 (en) * 2011-05-19 2015-06-24 Lg Electronics Inc VIDEO POWER TRANSMISSION DEVICE, VIDEO POWER RECEIVING DEVICE, VIDEO POWER TRANSMISSION METHOD AND VIDEO POWER RECEIVING METHOD
JP2014072840A (ja) * 2012-10-01 2014-04-21 Sony Corp 撮像装置および撮像制御装置
WO2014077651A1 (ko) * 2012-11-19 2014-05-22 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
US9264782B2 (en) * 2013-01-25 2016-02-16 Electronics And Telecommunications Research Institute Method and system for providing realistic broadcasting image
US9392305B2 (en) * 2013-07-08 2016-07-12 Electronics And Telecommunications Research Instit Method and apparatus for providing ultra high definition television service
JP6255760B2 (ja) * 2013-07-16 2018-01-10 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP6326213B2 (ja) * 2013-10-04 2018-05-16 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置、受信方法、送信装置、及び、送信方法
WO2016006746A1 (ko) * 2014-07-11 2016-01-14 전자부품연구원 초고해상도 영상 처리를 위한 장치
US10743005B2 (en) 2014-07-31 2020-08-11 Sony Corporation Transmission device, transmission method, reception device, and reception method
PT3179729T (pt) * 2014-08-07 2021-09-21 Sony Group Corp Dispositivo de transmissão, método de transmissão e dispositivo de receção
JP6397923B2 (ja) * 2014-08-29 2018-09-26 シャープ株式会社 制御情報生成装置、送信装置、受信装置、テレビジョン受像機、映像信号伝送システム、制御プログラム、および記録媒体
US10079649B2 (en) 2014-09-11 2018-09-18 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal receiving apparatus, broadcast signal transmission method, and broadcast signal receiving method
GB201506328D0 (en) 2015-04-14 2015-05-27 D3 Technologies Ltd A system and method for handling video data
EP3345399A1 (en) * 2015-09-01 2018-07-11 Nagravision S.A. Method and device to transfer a video stream between a host device and an electronic descrambling device
GB2542637A (en) * 2015-09-28 2017-03-29 Esaturnus Nv Ultra low latency UHD and 3D networked video communication applicable to gigabit ethernet
US9693011B2 (en) * 2015-11-02 2017-06-27 Barco N.V. Upgraded image streaming to legacy and upgraded displays
US10089707B2 (en) * 2016-02-15 2018-10-02 Nvidia Corporation Ultra high resolution pan-scan on displays connected across multiple systems/GPUs
CN105791836B (zh) * 2016-03-07 2019-04-02 中国科学院计算技术研究所 视频编码方法、视频码流自适应传输方法和显示方法
KR102350620B1 (ko) 2016-05-26 2022-01-11 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 상호작용을 하는 클라이언트를 위한 파노라마 비디오 브로드캐스트 스트리밍
US10944974B2 (en) 2017-01-11 2021-03-09 Raytheon Company Method for encoding and processing raw UHD video via an existing HD video architecture
US11190724B2 (en) 2017-03-10 2021-11-30 Raytheon Company Adaptive bitrate streaming of UHD image data

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846960A (ja) 1994-07-29 1996-02-16 Hitachi Ltd 画像符号化伝送装置
WO2005064948A1 (en) * 2003-12-22 2005-07-14 Koninklijke Philips Electronics N.V. Compatible interlaced sdtv and progressive hdtv
US9723267B2 (en) * 2004-12-15 2017-08-01 Time Warner Cable Enterprises Llc Method and apparatus for wideband distribution of content
US20070133950A1 (en) * 2005-12-08 2007-06-14 Susumu Yoshida Reproduction apparatus, reproduction method, recording method, image display apparatus and recording medium
CN101682759B (zh) * 2007-06-27 2013-01-09 汤姆森许可贸易公司 增强数字图像的图像质量的方法和设备
US8625607B2 (en) 2007-07-24 2014-01-07 Time Warner Cable Enterprises Llc Generation, distribution and use of content metadata in a network
JP4645638B2 (ja) * 2007-11-22 2011-03-09 ソニー株式会社 信号送信装置、信号送信方法、信号受信装置及び信号受信方法
US8243824B2 (en) * 2008-01-16 2012-08-14 Sony Corporation Information processing apparatus and method
KR20090089960A (ko) 2008-02-20 2009-08-25 엘지전자 주식회사 초고해상도 영상 인코딩 및 디코딩 방법 및 장치
JPWO2009147795A1 (ja) * 2008-06-05 2011-10-20 パナソニック株式会社 映像処理システム
US20100046623A1 (en) * 2008-08-19 2010-02-25 Chen Xuemin Sherman Method and system for motion-compensated frame-rate up-conversion for both compressed and decompressed video bitstreams
KR20100038694A (ko) 2008-10-06 2010-04-15 인하대학교 산학협력단 초 해상도를 사용한 부호화기, 복호화기 및 그 방법
KR101173335B1 (ko) * 2008-12-19 2012-08-10 한국전자통신연구원 영상분할기반 초고해상도 비디오 부호화 및 복호화 장치, 및 그 제어 방법
CN102484729B (zh) 2009-04-07 2016-08-24 Lg电子株式会社 广播发送器、广播接收器及其3d视频数据处理方法
WO2010126227A2 (en) * 2009-04-27 2010-11-04 Lg Electronics Inc. Broadcast receiver and 3d video data processing method thereof
JP2011066871A (ja) 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置
CA2772927C (en) 2009-09-03 2017-03-14 Lg Electronics Inc. Cable broadcast receiver and 3d video data processing method thereof
US9032462B2 (en) * 2010-04-19 2015-05-12 Lg Electronics Inc. Method for transmitting/receiving internet-based content and transmitter/receiver using same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None
See also references of EP2739052A4

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105008004A (zh) * 2013-02-28 2015-10-28 Lg电子株式会社 信号传输和接收设备以及信号传输和接收方法
WO2014133336A3 (ko) * 2013-02-28 2015-12-03 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
US9998774B2 (en) 2013-02-28 2018-06-12 Lg Electronics Inc. Signal transmission and reception device and signal transmission and reception method
CN105008004B (zh) * 2013-02-28 2019-06-11 Lg电子株式会社 信号传输和接收设备以及信号传输和接收方法
US9712781B2 (en) 2013-09-06 2017-07-18 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system
WO2015034188A1 (ko) * 2013-09-06 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 광역 밝기 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
US9973764B2 (en) 2013-09-09 2018-05-15 Lg Electronics Inc. Method and device for transmitting and receiving advanced UHD broadcasting content in digital broadcasting system
WO2015034306A1 (ko) * 2013-09-09 2015-03-12 엘지전자 주식회사 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2015037964A1 (ko) * 2013-09-16 2015-03-19 삼성전자 주식회사 방송 수신 장치 및 그 제어 방법
WO2015065037A1 (ko) * 2013-10-29 2015-05-07 엘지전자 주식회사 Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
US9854333B2 (en) 2013-10-29 2017-12-26 Lg Electronics Inc. Method and apparatus for transmitting and receiving broadcast signal for providing HEVC based IP broadcast service
CN106063278B (zh) * 2013-11-21 2019-04-23 谷歌有限责任公司 使用子组块化来对媒体流进行代码转换
CN106063278A (zh) * 2013-11-21 2016-10-26 谷歌公司 使用子组块化来对媒体流进行代码转换
WO2015152635A1 (ko) * 2014-04-02 2015-10-08 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
KR101838081B1 (ko) * 2014-04-02 2018-04-26 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
JP2017516357A (ja) * 2014-04-02 2017-06-15 エルジー エレクトロニクス インコーポレイティド 信号送受信装置及び信号送受信方法
WO2017018775A1 (ko) * 2015-07-28 2017-02-02 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법 및 방송 신호 수신 방법
US10666549B2 (en) 2015-07-28 2020-05-26 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method and broadcast signal reception method
WO2017171391A1 (ko) * 2016-03-30 2017-10-05 엘지전자 주식회사 방송 신호 송수신 방법 및 장치

Also Published As

Publication number Publication date
EP2739052A4 (en) 2015-01-21
US20140168512A1 (en) 2014-06-19
CN103718562B (zh) 2017-06-20
CA2844361A1 (en) 2013-01-31
KR20140040165A (ko) 2014-04-02
US20150326895A1 (en) 2015-11-12
EP2739052A2 (en) 2014-06-04
WO2013015596A3 (ko) 2013-03-21
US9432705B2 (en) 2016-08-30
CN103718562A (zh) 2014-04-09
US9113020B2 (en) 2015-08-18
CA2844361C (en) 2017-09-19

Similar Documents

Publication Publication Date Title
WO2013015596A2 (ko) 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
WO2012157999A2 (ko) 비디오 스트림 전송 장치, 비디오 스트림 수신 장치, 비디오 스트림 전송 방법 및 비디오 스트림 수신 방법
WO2011093676A2 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2014025213A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2010126227A2 (en) Broadcast receiver and 3d video data processing method thereof
WO2015126214A1 (ko) 3d 방송 신호를 처리하는 방법 및 장치
WO2011093677A2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
WO2011046338A2 (en) Broadcast receiver and 3d video data processing method thereof
WO2011136621A2 (en) An apparatus of processing an image and a method of processing thereof
WO2011013995A2 (en) Method and apparatus for generating 3-dimensional image datastream including additional information for reproducing 3-dimensional image, and method and apparatus for receiving the 3-dimensional image datastream
WO2014077651A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2012026746A2 (en) Method for providing 3d video data in a 3dtv
WO2014204227A1 (ko) 신호 송수신 장치 및 신호 송수신 장치의 제어 방법
WO2009125961A1 (en) Method of transmitting and receiving broadcasting signal and apparatus for receiving broadcasting signal
WO2013025035A2 (ko) 송신 장치, 수신 장치 및 그 송수신 방법
WO2015065037A1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2014073927A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015126144A1 (ko) 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치
WO2012036532A2 (en) Method and apparatus for processing a broadcast signal for 3d (3-dimensional) broadcast service
WO2015152635A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2010076933A1 (ko) 이차원 영상과 3d 영상의 통합 서비스가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
WO2015126213A1 (ko) 방송 신호 송신 장치 및 방송 신호 수신 장치
WO2012177049A2 (en) Method and apparatus for processing broadcast signal for 3-dimensional broadcast service
WO2011028024A2 (en) Cable broadcast receiver and 3d video data processing method thereof
WO2014025239A1 (ko) 3d 영상을 위한 영상 컴포넌트 송수신 처리 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12816950

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 20137033736

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2844361

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 14234593

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012816950

Country of ref document: EP