WO2014073853A1 - 신호 송수신 장치 및 신호 송수신 방법 - Google Patents

신호 송수신 장치 및 신호 송수신 방법 Download PDF

Info

Publication number
WO2014073853A1
WO2014073853A1 PCT/KR2013/010014 KR2013010014W WO2014073853A1 WO 2014073853 A1 WO2014073853 A1 WO 2014073853A1 KR 2013010014 W KR2013010014 W KR 2013010014W WO 2014073853 A1 WO2014073853 A1 WO 2014073853A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
aspect ratio
information
video data
data
Prior art date
Application number
PCT/KR2013/010014
Other languages
English (en)
French (fr)
Inventor
황수진
김진필
서종열
최지현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CA2877454A priority Critical patent/CA2877454C/en
Priority to EP13852554.8A priority patent/EP2919470B1/en
Priority to US14/408,226 priority patent/US9894407B2/en
Priority to JP2015521560A priority patent/JP6055093B2/ja
Priority to CN201380058263.1A priority patent/CN104769953B/zh
Priority to KR1020147035074A priority patent/KR102094892B1/ko
Publication of WO2014073853A1 publication Critical patent/WO2014073853A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • H04N21/234372Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain

Definitions

  • the present invention relates to a signal transmission and reception apparatus and a signal transmission and reception method.
  • UHD ultra high definition
  • a method of processing not only UHD but also HD video without problems has been studied. For example, if the aspect ratio of the video being transmitted and the display device of the receiver are different, each receiver should be able to process the video at an aspect ratio that matches the display device.
  • a 21: 9 aspect ratio receiver When 21: 9 video is transmitted, a 21: 9 aspect ratio receiver must process and display 21: 9 video as is, and a 16: 9 aspect ratio receiver receives a 21: 9 aspect ratio video stream and then letterboxes it.
  • the video signal must be output in the form of (letterbox) or by receiving cropped 16: 9 aspect ratio video.
  • a receiver with a 16: 9 aspect ratio should be able to process subtitle information when there is a subtitle in the stream.
  • the aspect ratio of the existing HD receiver or a receiver capable of processing UHD video may be different, which may cause problems when the corresponding video is transmitted or received and processed.
  • An object of the present invention is to provide a signal transmission and reception method and a signal transmission and reception apparatus capable of processing videos having different aspect ratios in a receiver having a display apparatus having a different aspect ratio.
  • Another object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus capable of transmitting or receiving compatible video capable of processing HD video and UHD video having different aspect ratios, respectively.
  • Another object of the present invention is to provide a signal transmission / reception method and a signal transmission / reception apparatus capable of processing signaling information capable of processing HD video and UHD video having different aspect ratios according to specifications of a receiver, respectively.
  • One embodiment of the invention comprises the steps of encoding video data; Generating signaling information capable of displaying the encoded video data in accordance with an aspect ratio of a receiver, wherein the signaling information includes aspect ratio control information for displaying high resolution video data of a first aspect ratio regardless of the aspect ratio of the receiver; and; And multiplexing the encoded video data and the signaling information and transmitting the multiplexed video data and signaling information.
  • the aspect ratio control information may indicate that the encoded video data is divided and transmitted, and may include merging information for merging the divided video data.
  • the aspect ratio control information may include division information for dividing the encoded video data according to an aspect ratio.
  • the aspect ratio control information may include location information for caption arrangement to change the caption position of the video according to the resolution of the video according to the encoded video data.
  • Another embodiment of the present invention provides an encoder for encoding video data; Signaling information generation unit for generating signaling information for displaying the encoded video data in accordance with the aspect ratio of the receiver, wherein the signaling information, the aspect ratio control to display the high resolution video data of the first aspect ratio regardless of the aspect ratio of the receiver Includes information; Provided is a signal transmission apparatus comprising a multiplexer for multiplexing the encoded video data and the signaling information.
  • a demultiplexer for demultiplexing the video streams and the signaling information
  • a signaling information decoder which decodes the demultiplexed signaling information, wherein the signaling information includes aspect ratio control information for displaying high resolution video data of a first aspect ratio by changing a video format according to an aspect ratio of a receiver
  • a video decoder by decoding the demultiplexed video stream according to the decoded signaling information.
  • Another embodiment of the present invention includes demultiplexing video streams and signaling information; Decoding the demultiplexed signaling information, wherein the signaling information includes aspect ratio control information for displaying high resolution video data of a first aspect ratio by changing a video format according to an aspect ratio of a receiver; And decoding the demultiplexed video stream according to the decoded signaling information.
  • videos having different aspect ratios may be processed by a receiver having display apparatuses having different aspect ratios.
  • a compatible video capable of processing HD video and UHD video having different aspect ratios in a receiver may be transmitted or received.
  • HD video and UHD video having different aspect ratios may be processed differently according to specifications of a receiver.
  • FIG. 1 is a diagram illustrating an embodiment of a signal transmission method according to the present invention.
  • FIG. 2 is a diagram schematically illustrating an example of transmitting a high resolution image according to an aspect ratio of receivers according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram schematically illustrating an example of a stream structure for transmitting a high resolution image according to an aspect ratio of receivers according to the embodiment of the present invention according to FIG. 2.
  • FIG. 4 is a diagram schematically illustrating another example of transmitting a high resolution image in accordance with an aspect ratio of receivers according to an embodiment of the present invention.
  • FIG. 5 is a view schematically showing another embodiment of a signal transmission and reception method according to the present invention.
  • FIG. 6 is a diagram illustrating a region in which subtitles are output when transmitted as shown in FIG. 5.
  • FIG. 7 is a diagram illustrating an example of displaying a caption window for caption in a receiver capable of receiving UHD video when transmitted as shown in FIG. 5.
  • FIG. 8 is a diagram illustrating a method of encoding or decoding video data when transmitting video data according to the first embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a method of encoding or decoding video data when transmitting video data according to the second embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of an encoder for encoding high resolution video data according to the first embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a resolution and a video construction method of a separated original video and a separated video according to the first embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an example of a decoder for decoding high resolution video data according to the first embodiment of the present invention.
  • FIG. 13 is a view illustrating an example of combining and filtering cropped videos in the first embodiment of the present invention.
  • FIG. 14 is a diagram illustrating a first example of a receiver according to the second embodiment of the present invention.
  • 15 is a diagram illustrating the operation of a receiver according to the third embodiment of the present invention.
  • FIG. 16 is a diagram illustrating signaling information capable of displaying video according to embodiments of the present invention.
  • 17 is a diagram illustrating specific syntax values of signaling information according to the first embodiment of the present invention.
  • FIG. 18 is a diagram illustrating an example of a stream level descriptor according to the first embodiment of the present invention.
  • 19 is a diagram illustrating values of information representing the resolution and frame rate of the video illustrated above.
  • the original_UHD_video_aspect_ratio field of the described signaling information is a diagram illustrating information about an aspect ratio of the original UHD video.
  • 21 is a diagram illustrating direction information of a cropped video.
  • 22 is a diagram illustrating an example of a method of composing a video.
  • 23 is a diagram illustrating an example of an encoding scheme when encoding sub streams.
  • FIG. 24 is a diagram illustrating a stream level descriptor according to the first embodiment of the present invention.
  • FIG. 25 is a diagram illustrating signaling information when following the illustrated third embodiment.
  • FIG. 26 is a diagram illustrating field values of an example UHD_video_component_type field.
  • 28 is a diagram illustrating an example of an operation of a receiver when the format of the transmission video and the display aspect ratio of the receiver are different.
  • 29 is a diagram illustrating a case where the illustrated descriptors are included in other signaling information.
  • FIG. 30 is a diagram illustrating a case where the illustrated descriptors are included in other signaling information.
  • 31 is a diagram illustrating a case where the illustrated descriptors are included in other signaling information.
  • 32 is a diagram illustrating syntax of a payload of an SEI region of video data according to embodiments of the present invention.
  • FIG 33 is a diagram illustrating an example of a receiving apparatus capable of decoding and displaying video data according to at least one embodiment when video data is transmitted according to embodiments of the present invention.
  • 34 is a diagram illustrating an embodiment of a signal receiving method according to the present invention.
  • 35 is a diagram illustrating an embodiment of a signal transmission apparatus according to the present invention.
  • 36 is a diagram illustrating an embodiment of a signal receiving apparatus according to the present invention.
  • FIG. 1 is a diagram illustrating an embodiment of a signal transmission method according to the present invention.
  • Video data is encoded (S110).
  • encoding information of the video data may be included in the encoded video data according to the embodiments described below.
  • Encoding information of the encoded video data is described in detail in FIG. 32.
  • the encoded video data may have a different structure according to the embodiment described below, which is illustrated in FIGS. 2, 3 (first embodiment), 4 (second embodiment), and FIGS. May vary according to the third embodiment).
  • the encoded video data may have a structure in which high resolution video is divided to fit an existing aspect ratio, and the divided video data may include information for merging it back into high resolution video.
  • the encoded video data may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing subtitle information.
  • signaling information capable of displaying the video data according to the aspect ratio of the receiver is generated separately from the encoded video data (S120).
  • Examples of the signaling information may include the information illustrated in FIGS. 16 to 27 and 29 to 31 according to each embodiment, and the information illustrated in the above drawings may be generated according to an embodiment.
  • the signaling information may include signaling information capable of expressing high resolution video data of the first aspect ratio regardless of the aspect ratio to the receiver.
  • the signaling information that can be expressed regardless of the aspect ratio of the receiver may include aspect ratio control information of the high resolution video data. Examples of signaling information separate from the video data are illustrated in FIGS. 16-27 and 29-31.
  • the encoded video data and the signaling information are multiplexed and the multiplexed video data and the signaling information are transmitted (S130).
  • the step of generating signaling information multiplexed with the video data is omitted, and video data including aspect ratio control information and other data (for example, audio data) are multiplexed in the video data region described in S110. To print.
  • the transmitter transmits video data according to each embodiment, even if the aspect ratio of the receiver display device is different, or the performance is different, the high-definition video is expressed according to the aspect ratio of the corresponding display according to the aspect ratio control information, or Captions can be displayed.
  • a conventional receiver can display high resolution video data according to aspect ratio of the receiver according to aspect ratio control information. That is, the receiver may display the high resolution video data of the first aspect ratio according to the aspect ratio of the receiver by using the screen control information.
  • the aspect ratio control information may indicate that the encoded video data is divided and transmitted, and may include merging information for merging the divided video data.
  • the aspect ratio control information may include segmentation information for dividing the encoded video data according to the aspect ratio.
  • the aspect ratio control information may include location information for caption arrangement to change the caption position of the video according to the resolution of the video according to the encoded video data.
  • FIG. 2 is a diagram schematically illustrating an example of transmitting a high resolution image according to an aspect ratio of receivers according to an exemplary embodiment of the present invention. This example illustrates an embodiment that can serve 16: 9 aspect ratio using UHD video of 21: 9 aspect ratio.
  • the video 1 is separated into a video 2, a video 3, and a video 4 and transmitted.
  • a receiver capable of displaying UHD video receives and displays video (2), video (3), and video (4).
  • the receiver capable of displaying HD video receives the video (2) and converts the 16: 9 UHD video (video (2)) to 16: 9 HD video (video (5)) through scaling and the like. Can be expressed.
  • FIG. 3 is a diagram schematically illustrating an example of a stream structure for transmitting a high resolution image according to an aspect ratio of receivers according to the embodiment of the present invention according to FIG. 2.
  • the illustrated stream includes 16: 9 UHD video, data cropped on left and right, and additional data (UHD composition metadata).
  • the 16: 9 UHD video may include 16: 9 aspect ratio HD video that can provide a conventional HD service, and enhancement data that is a difference between a 16: 9 UHD video and a 16: 9 aspect ratio HD video.
  • a conventional HD receiver receives and processes 16: 9 aspect ratio HD video
  • a 16: 9 UHD receiver receives and processes enhancement data for 16: 9 aspect ratio HD video and 16: 9 aspect ratio UHD video.
  • the 21: 9 receiver may compose a 21: 9 UHD video using UHD video having a 16: 9 aspect ratio, cropped left and right data, and UHD composition metadata that is additional data.
  • the additional data (UHD composition metadata) may include crop coordinate information of left and right. Accordingly, the receiver may generate the 21: 9 aspect ratio UHD video using the 16: 9 aspect ratio UHD video and the cropped left and right data using the additional data.
  • FIG. 4 is a diagram schematically illustrating another example of transmitting a high resolution image in accordance with an aspect ratio of receivers according to an embodiment of the present invention.
  • the 21: 9 aspect ratio UHD video is transmitted as a separate stream from the 16: 9 aspect ratio HD video.
  • the transmitter prepares a UHD video stream separately from the HD video stream.
  • crop coordinate information for generating an aspect ratio of a 16: 9 video may be included in additional information data (16: 9 extraction info metadata) and transmitted.
  • the UHD video receiver receives a 21: 9 aspect ratio UHD video stream. If the UHD video receiver has a 21: 9 aspect ratio display device, UHD video may be extracted from a stream providing a 21: 9 UHD service. In this case, additional information data (16: 9 extraction info metadata) can be ignored.
  • a service having a 16: 9 aspect ratio may be extracted from a UHD video stream using additional information data.
  • Conventional HD receivers can receive HD video streams with a 16: 9 aspect ratio to provide HD video.
  • FIG. 5 is a view schematically showing another embodiment of a signal transmission and reception method according to the present invention.
  • send a 21: 9 aspect ratio video For example, send a 21: 9 aspect ratio video, scale this video format to a 16: 9 aspect ratio video, and include a letterbox area above and below the 16: 9 aspect ratio video. Can be sent.
  • FIG. 6 illustrates an output of a subtitle area when transmitted as shown in FIG. 5.
  • the caption window for the subtitle area is displayed in the screen area instead of the letterbox area.
  • FIG. 7 illustrates an example of displaying a caption window for subtitles in a receiver capable of receiving UHD video when transmitted as shown in FIG. 5.
  • the existing video is output from the upper left (0,0) and the subtitles are displayed in the letterbox area (lower area of the screen, surplus area) outside the actual video area.
  • the subtitle is output to a blank portion of the screen so that the screen can be efficiently used while minimizing interference with the actual video area.
  • FIG. 8 is a diagram illustrating a method of encoding or decoding video data when transmitting video data according to the first embodiment of the present invention.
  • the transmitter encodes 16: 9 HD video into base layer data and encodes residual data constituting 16: 9 UHD into enhancement layer 1 data based on data encoded in base layer data.
  • the remaining UHD video corresponding to 2.5: 9 video, which is the left and right cropped data, is encoded as enhancement layer2 data.
  • Video data encoded with enhancement layer2 may be encoded using correlation in all UHD videos of 21: 9, or may be encoded as independent video. As described in the first embodiment, information on left and right positions of cropped data on the left and right sides can be transmitted.
  • Information about the left and right positions of video data encoded in enhancement layer 2 may be transmitted using an embodiment such as a descriptor form of header or system level section data in the video stream corresponding to enhancement layer 2. This will be described later.
  • the receiver may display 16: 9 HD video (1920 x 1080) when only the base layer data is received and decoded.
  • the receiver When the receiver decodes the base layer data and the enhancement layer 1 data, it can display 16: 9 UHD video (3840 x 2160).
  • the receiver decodes all of the base layer data, enhancement layer 1 data, and enhancement layer 2 data, it can display 21: 9 UHD video (5040 x 2160).
  • information about left / right positions of video data encoded by the enhancement layer2 described above may be used.
  • video of various resolutions having various aspect ratios can be expressed according to the performance of the receiver or the function.
  • This example exemplifies the 4K video divided into several video and transmits it, and the video with more resolution can be transmitted in the same way.
  • FIG. 9 is a diagram illustrating a method of encoding or decoding video data when transmitting video data according to the second embodiment of the present invention.
  • the transmitter may transmit separation start information and separation end information of the 16: 9 video together.
  • the transmitter transmits crop_cordinate_x1 corresponding to the start coordinates on the screen and crop_cordinate_x2 information of the end coordinates together.
  • the crop_cordinate_x1 information indicates the start coordinate of the 16: 9 UHD video
  • the crop_cordinate_x2 information indicates the end coordinate of the 16: 9 UHD video.
  • the receiver may receive 4K (5040x2160) UHD video, and may ignore 4K (5040x2160) UHD video as it is, ignoring separation start information and separation end information.
  • the receiver may receive 4K (5040x2160) UHD video and may cut and display 16: 9 UHD video among 21: 9 UHD video using separation start information and separation end information.
  • the receiver may receive and display the 16: 9 HD video stream separately from the 4K (5040x2160) UHD video stream.
  • video of various resolutions having various aspect ratios can be expressed according to the performance of the receiver or the function.
  • this example exemplifies the 4K video divided into several video and transmits, and the video with a higher resolution can be encoded or decoded in the same manner.
  • FIG. 10 is a diagram illustrating an example of an encoder for encoding high resolution video data according to the first embodiment of the present invention.
  • high resolution video data is illustrated as 4K 21: 9 UHD video data.
  • data related to video is represented by A, B, C, D1 and D2.
  • An example of an encoder for encoding high resolution video data may include a base layer encoder 110, a first enhancement layer data encoder 120, and a second enhancement layer data encoder 130.
  • an encoder encoding a 21: 9 aspect ratio UHD video may process and encode base layer data, enhancement layer 1 data, and enhancement layer 2 data, respectively.
  • the crop and scale unit 111 of the base layer encoder 110 crops the 21: 9 UHD video data A to 16: 9, scales it, and reduces the size to output the 16: 9 HD video data B.
  • the first encoder 119 may encode and output 16: 9 HD video data by encoding base layer data.
  • the cropping unit 121 of the first enhancement layer data encoder 120 crops the 21: 9 UHD video data A to 16: 9.
  • the upscaling unit 123 upscales and outputs down-scaled data output by the crop and scale unit 111 of the base layer encoder 110, and the cropping unit 121 crops the first calculator 127.
  • the residual data C of the 16: 9 UHD video may be output using the one data and the upscaled data of the upscaling unit 123.
  • the second encoder 129 may encode and output a 16: 9 UHD video into Enhancement layer 1 data.
  • the second calculator 137 of the second enhancement layer data processor 130 may use 16: 9 video data and 21: 9 video by using 21: 9 UHD video data A and data cropped by the crop unit 121.
  • the left video data D1 and the right video data D2, which are crop data of the data, may be respectively output.
  • the left video data D1 and the right video data D2 may be identified by information on the left side or the right side of the corresponding video, respectively. An example of signaling this information is described later.
  • the identification information (enhancement_video_direction) of the left video data is illustrated as 0, and the identification information (enhancement_video_direction) of the right video data is illustrated as 1, respectively.
  • the receiver may decode the signaling information.
  • the left video data D1 and the right video data D2 may be coded, or may be coded as one video data.
  • the left video data D1 and the right video data D2 may be signaled to be separated using identification information.
  • the third encoder 139 may encode the cropped left video data D1 and right video data D2 into Enhancement layer 2 data.
  • the base layer data, the enhancement layer 1 data, and the enhancement layer 2 data are received according to the performance of the receiver, the UHD video or the HD video data may be restored.
  • the receiver When the receiver restores Enhancement layer 2 data, it may be decoded by a decoding method associated with base layer data and Enhancement layer 1 data, or may be independently decoded. Such a decoding method may be determined according to an encoding method.
  • FIG. 11 is a diagram illustrating the resolution of the separated original video and the separated video according to the first embodiment of the present invention.
  • Example (a) on the upper left shows the resolution of a UHD video with a 5040x2160 resolution with a 21: 9 aspect ratio.
  • 4K UHD video with a 21: 9 aspect ratio has a resolution of 5040x2160.
  • the 16: 9 video may refer to a video having a resolution of 3840 x 2160, which is called 4K UHD of 16: 9 in the existing broadcast.
  • Example (b) at the top right shows a UHD video of 3840 x 2160 resolution on a 5040 x 2160 resolution UHD video with a 21: 9 aspect ratio.
  • video with 3840 x 2160 resolution is enhanced layer 1 data, and left and right 600 x 2160 video are combined into a single video.
  • signaling is required for the resolution of the surplus video at the video level, and signaling for left / right information of which direction the video is needed.
  • the identification information (enhancement_video_direction) of the left video data is represented by 0, and the identification information (enhancement_video_direction) of the right video data is represented by 1, respectively.
  • the remaining video to be included in enhancement layer 2 is not limited to the left / right edge region.
  • the position can be arbitrarily assigned to the remaining region except for any 16: 9 video among 21: 9 video.
  • a 16: 9 video to be extracted from a 21: 9 video is set as a left region and an enhancement layer 2 is configured as the remaining 5: 9 video is also possible.
  • video can be separated and transmitted not only for 4K but also for 8K UHD video.
  • FIG. 12 is a diagram illustrating an example of a decoder for decoding high resolution video data according to the first embodiment of the present invention.
  • high resolution video data is illustrated here as 4K 21: 9 UHD video data.
  • data related to video is represented by A, B, D1, D2 and E, respectively.
  • An example of a decoder for decoding high resolution video data may include a decoder of at least one of the base layer decoder 210, the first enhancement layer data decoder 220, and the second enhancement layer data decoder 230. Can be. According to the function of the signal receiving apparatus, all three functions may include a decoding unit, and the decoder of the signal receiving apparatus outputting the existing HD video may include only the base layer decoder 210. In this example, demultiplexing 201 may be shared by each decoder, and each decoder may include a separate demultiplexer 201.
  • a decoder for decoding a 21: 9 aspect ratio UHD video may process and decode base layer data, enhancement layer 1 data, and enhancement layer 2 data, respectively.
  • the first decoder 213 of the base layer decoder 210 may decode and output the demultiplexed HD video B having a 16: 9 aspect ratio.
  • the upscaling unit 221 of the first enhancement layer data decoder 220 upscales and outputs the base layer data decoded by the base layer decoder 210.
  • the second decoder 223 may perform scalable decoding using the base layer data and the residual data.
  • the second decoder 223 decodes the demultiplexed 16: 9 residual data and decodes the 16: 9 aspect ratio UHD video (E) using the upscaled base layer data and the decoded 16: 9 residual data. can do.
  • the third decoder 233 of the second enhancement layer data decoder 230 decodes the left / right video and outputs the received enhancement layer 1 data decoded by the first enhancement layer data decoder 220.
  • the 21: 9 UHD video A can be reconstructed by merging the 16: 9 UHD video E and the decoded left / right video D1 / D2.
  • the second enhancement layer data decoder 230 may use identification information for identifying the left / right video, and the 21: 9 UHD video A is continuous at the portion where the left / right video is joined. Boundary filtering can be performed to allow for natural expression. In this case, the cropped video corresponding to the cropped left / right video undergoes a filtering process to be combined with a 16: 9 video.
  • the filtering process may be similar to the deblocking filter used in the existing codec, but is not applied to each boundary of the macroblock but to the periphery of the cropped video.
  • filtering can be performed according to a threshold to distinguish the boundary generated by joining the actual edge and the cropped portion. This will be described later.
  • the pixels of one field in the junction of the first video and the second video are represented by Pi and qi, respectively, and i has an integer value from 0 according to the x coordinate.
  • the increasing direction of I is different at the junction of the first video and the second video. Assume that the address of the pixel on the x-axis of the junction is 596, 597, 598, 599 (pixels on the first video), 600, 601, 602, 603 (pixels on the second video).
  • Equation 1 In order to obtain a condition for satisfying Condition 1 illustrated in Equation 1 below, P0, P1, and P2 satisfying Equation 2 to Equation 4 are calculated using a 4-tap filter and a 5-tap filter. P0, 'P1', P2 ',... Updated with a value.
  • Equation 1 shows condition 1.
  • condition 1 and the condition 2 of Equation 6 associated with Equations 2 to 4 may be used to distinguish between actual edges and blocking artifacts.
  • Equation 5 When the condition 1 of Equation 1 is not satisfied, the values of P0 and q0 are updated to p0 'and q0' values by applying a 3-tap filter as shown in Equation 5.
  • Condition 2 of Equation 6 is a condition for filtering the q block.
  • q0, q1, and q2 denote 4-tap filter and 5-tap filter as illustrated in Equations 7 to 9. To update the values q'0, q'1, and q'2.
  • Equation 6 shows condition 2.
  • the q0 value is updated to the q′0 value by using Equation 10 below.
  • ⁇ (offset_alpha_value) and ⁇ (offset_beta_value) can adjust the strength of the filter by offset according to QP (quantization parameter). You can adjust the detail of the video by adjusting the filter strength to an offset based on the QP (quantization parameter) value and assigning the offset of the smoothing filter accordingly.
  • FIG. 14 is a diagram illustrating a first example of a receiver according to the second embodiment of the present invention.
  • the stream of HD video and the stream of UHD video may be transmitted as separate streams.
  • the receiver (a) capable of displaying only HD video includes a demultiplexer and decoder for demultiplexing a stream of HD video, the demultiplexer demultiplexes the HD video stream, and the decoder decodes the corresponding video data.
  • the receiver b capable of displaying UHD video may also include a demultiplexer and a decoder.
  • the demultiplexer may demultiplex the UHD video stream
  • the decoder may decode the video data to display the UHD video.
  • the UHD video may be a 16: 9 UHD video in which part of the video is cropped according to the performance of the receiver, or may be an uncropped 21: 9 UHD video.
  • the receiver may display decoded UHD video according to its performance, and in the case of 16: 9 aspect ratio UHD video, position information cropped among the original 21: 9 UHD video (16: 9 rectangle coordinates) to crop the video and then display the cropped video.
  • 4K UHD video has been described as an example, the same method can be applied even when the resolution of the video is higher.
  • a UHD video having a 21: 9 aspect ratio is transmitted in the form of a video having a scaled 16: 9 aspect ratio and letterboxes positioned above and below the video.
  • the caption information may be displayed on the 16: 9 video or the letterbox depending on the performance of the receiver.
  • Video A in this figure illustrates a 16: 9 video transmitted and a letterbox displayed on the video according to the third embodiment described. Depending on the receiver's performance, the way this video is processed can vary.
  • the receiver may display 16: 9 video and letterbox as it is. Conversely, if subtitle information is included for the video being transmitted, this receiver deletes or separates the top AFD bar, doubles the bottom AFD (active format description) bar, or You can paste the letterbox of to the letterbox below and convert the video format to 2x letterbox (AFD_size_2N).
  • the receiver is to send a letterbox (AFD bar) of size 3840 x N x 2 (where N is the height of the letterbox) for the received video at the bottom of the video.
  • the caption can be inserted and the caption is displayed at the position so that the screen can be efficiently arranged.
  • 2 ⁇ N may be 135.
  • the height (AFD_size_2N) of the letterbox inserted in the lower part of the video for displaying subtitle information becomes 515.
  • the AFD bar of 3840xN respectively, can be inserted above and below the video as in the conventional method. This can be applied in a similar manner to video with higher resolution.
  • a receiver having a display of 21: 9 aspect ratio may display subtitles on the video when there is subtitle, and otherwise receive and display the video as it is.
  • signaling information of a broadcast signal that can process the video when it is transmitted and received according to an embodiment of the present invention.
  • FIG. 16 is a diagram illustrating signaling information capable of displaying video according to a first embodiment of the present invention.
  • This figure illustrates a PMT as signaling information at a system level, and may include a descriptor of a program level immediately after program_info_length of the PMT, and a descriptor of a stream level immediately after the ES_info_length field.
  • descriptor_tag represents an identifier of this descriptor.
  • the UHD_program_format_type may include information for identifying each embodiment as described above.
  • the 21: 9 UHD video transmitted is 16: 9 HD video, 16: 9 UHD video, and 21: 9 UHD video.
  • An area that is a difference between 16: 9 UHD video is a video format that can be expressed using separate layer data, or indicates a service type according to the video format.
  • the 21: 9 UHD video transmitted is a video format that can be expressed using crop information for 21: 9 video or 16: 9 video. Or service type according to the video format.
  • UHD_program_format_type is 0x03
  • this is a third embodiment of the present invention, wherein a 21: 9 UHD video transmitted is expressed using letterbox (AFDbar) information for 16: 9 video and 21: 9 video. Format or a service type according to the video format.
  • AFDbar letterbox
  • UHD composition descriptor As an example of the stream level descriptor, a UHD composition descriptor is illustrated. This descriptor may include information on the streams constituting the service or program for the first, second and third embodiments according to the present invention.
  • information for identifying a stream for transmitting base layer data, enhancement layer 1 data, and enhancement layer 2 data may be included. This will be described later in detail.
  • 17 is a diagram illustrating specific syntax values of signaling information according to the first embodiment of the present invention.
  • the illustrated field value may indicate the following information.
  • the first embodiment transmits a stream for transmitting base layer data, first enhancement layer data, and second enhancement layer data, respectively, and this embodiment can signal all of these data.
  • the program_number field may be program number information on a 21: 9 UHD program.
  • the PMT may include the following information in the stream for transmitting the base layer data.
  • Stream_type may be a value such as 0x02 indicating a video stream according to the MPEG-2 video codec.
  • Elementary_PID represents a PID value of an elementary stream included in each program, and this example illustrates a value of 0x109A.
  • the stream level descriptor may include signaling information related to MPEG-2 video.
  • Stream_type represents the type of the stream according to the HEVC scalable layer video codec. Here, this value is illustrated as a value of 0xA1.
  • Elementary_PID represents a PID value of an elementary stream included in each program, and this example illustrates a value of 0x109B.
  • UHDTV_sub_stream_descriptor (), which is a stream level descriptor, may include signaling information related to first enhancement layer data required for composing 16: 9 video using a base layer.
  • Stream_type represents the type of the stream according to the HEVC scalable layer video codec. Here, this value is illustrated as a value of 0xA2.
  • Elementary_PID represents the PID value of the elementary stream included in each program. This example illustrates the value 0x109C.
  • UHDTV_composition_descriptor which is a stream level descriptor, may include signaling information related to reconstructing the second enhancement layer data and the 21: 9 UHD video.
  • the UHD_program_format_type included in the descriptor of the program level may have a value of 0x01 for the first embodiment.
  • the stream level descriptor may include a descriptor_tag value for identifying this descriptor, descriptor_length and UHD_composition_metadata () indicating the length of the descriptor.
  • the EL2_video_codec_type field represents codec information of a video element included in the UHD service. For example, this value may have the same value as the stream_type of the PMT.
  • the EL2_video_profile field may indicate profile information on the video stream, that is, information on basic specifications required for decoding the stream. Requirements information about the color depth (4: 2: 0, 4: 2: 2, etc.), bit depth (8-bit, 10-bit), coding tool, etc. of the video stream may be included. have.
  • the EL2_video_level field is level information on a corresponding video stream and may include information on a technology element support range defined in a profile.
  • the EL2_video_component_type field indicates what data is included when a corresponding video stream configures a UHD service.
  • the stream indicates identification information as to whether the base layer data corresponds to 16: 9 HD, the first enhancement layer data of 16: 9, or the second enhancement layer data for 21: 9 UHD.
  • the original_UHD_video_type field signals information about the UHD video format and may represent basic information such as a video resolution and a frame rate.
  • the original_UHD_video_aspect_ratio field represents information about aspect ratio of the original UHD video.
  • the EL2_video_width_div16 field and the EL2_enhancement_video_height_div16 field indicate resolution information of sub_video corresponding to the second enhancement layer data.
  • the horizontal and vertical sizes of the video expressed as the second enhancement layer data may be expressed in multiples of 16.
  • the EL2_video_direction field may indicate the direction information of the cropped video.
  • the EL2_video_composition_type field represents a method of configuring sub_videos when sub_videos of UHD videos are combined into one video and transmitted in one stream.
  • the EL2_dependency_idc field represents information about whether the left and right sub-videos of the UHD video are independently encoded or a coding scheme correlated with the 16: 9 UHD video is used.
  • the enhancement_video_filter_num field may apply filtering when decoding left and right cropped video, since there is an artifact in the video, indicating whether filtering is applied and the number of filters.
  • the enhancement_video_filtering_cordinate_x_div4 field and the enhancement_video_filtering_cordinate_y_div4 field indicate coordinates of the first pixel in the X direction and the Y direction of the video portion to which filtering is applied.
  • the actual coordinates can be multiplied by 4 in this field.
  • the coordinate may be based on the UHD video, that is, the UHD video reconstructed using the base layer, the first enhancement layer, and the second enhancement layer.
  • the enhancement_video_filtering_width_div4 field and the enhancement_video_filtering_width_div4 field may indicate the size of the video region to which filtering is applied in the number of pixels. For example, the size of the area to be filtered may be 4 times the actual size.
  • the original_UHD_video_type field of the signaling information may indicate the resolution and frame rate of the video. This figure illustrates that various resolutions and frame rates may be provided according to the value. For example, when the original_UHD_video_type field is 0101, the original video may have a resolution of 5040 x 2160 at 60 frames per second.
  • the original_UHD_video_aspect_ratio field of the described signaling information indicates information about an aspect ratio of the original UHD video. This figure illustrates, for example, that when this value is 10, it represents a 21: 9 aspect ratio.
  • 21 is a diagram illustrating direction information of a cropped video.
  • the direction information of the EL2_video_direction field cropped video (second enhancement layer data) is illustrated among the described signaling information.
  • the cropped left and right video may have direction information. If the information value for this direction is 00, it has a left direction, 01 is right, 10 is up, and 11 is down. Illustrate that.
  • the EL2_video_composition_type field described above illustrates signaling information for combining base layer data, first enhancement layer data, and second enhancement layer data when they are combined.
  • the second enhancement layer data is coupled to the top / bottom, and if 10, the second enhancement layer data is combined side-by-side; It illustrates that the base layer data and the first enhancement layer data are transmitted in a separate stream other than the substream.
  • the EL2_dependency_idc field described when following the first embodiment may indicate whether the base layer data, the first enhancement layer data, and the second enhancement layer data included in the UHD video are encoded in association with each other or independently encoded. For example, data used for temporal prediction or viewpoint prediction in encoding specific data may be related and encoded.
  • a value of this field of 01 indicates that the second enhancement layer data is encoded independently of other data, and a value of 10 indicates that the second enhancement layer data is encoded in association with other data.
  • FIG. 1 it is a diagram illustrating signaling information capable of displaying a video.
  • FIG. 24 is a diagram illustrating a stream level descriptor, which may be included in the PMT of FIG. 16.
  • the HD video stream and the UHD video stream may be transmitted as separate streams.
  • the UHD video stream may include metadata that can be switched to another aspect ratio in consideration of the aspect ratio of the receiver.
  • descriptor_tag and descriptor_length indicate an identifier and a length of this descriptor, respectively.
  • 16_9_extension_info_metadata includes signaling information about a stream constituting the UHD video in the second embodiment.
  • the EL2_video_codec_type field represents codec information of a video element included in the UHD service.
  • this value may have the same value as the stream_type of the PMT.
  • the EL2_video_profile field may indicate profile information on the video stream, that is, information on basic specifications required for decoding the stream. Requirements information about the color depth (4: 2: 0, 4: 2: 2, etc.), bit depth (8-bit, 10-bit), coding tool, etc. of the video stream may be included. have.
  • the EL2_video_level field is level information on a corresponding video stream and may include information on a technology element support range defined in a profile.
  • the original_UHD_video_type field is information signaling information about a UHD video format and may indicate information related to a video such as a resolution and a frame rate of the video.
  • the original_UHD_video_aspect_ratio field may indicate information about aspect ratio of UHD video.
  • the 16_9_rectangle_start_x, 16_9_rectangle_start_y, 16_9_rectangle_end_x, and 16_9_rectangle_end_y fields indicate the positional information that can designate a valid 16: 9 screen area when the resolution of the UHD video is 21: 9 format such as 5040x2160. Pixel positions of the upper left of the region may be designated by 16_9_rectangle_start_x and 16_9_rectangle_start_y, and pixel positions of the lower right of the region may be designated by 16_9_rectangle_end_x and 16_9_rectangle_end_y. Using these fields, a receiver with a 16: 9 display format can only output the area specified by this field, and the rest of the field can be cropped and not displayed.
  • FIG. 25 is a diagram illustrating signaling information when following the illustrated third embodiment.
  • a 21: 9 aspect ratio video is transmitted as a 16: 9 aspect ratio video.
  • a receiver having a 16: 9 display according to the screen of the receiver may display subtitles on a video as in the related art, and a receiver having a display of 21: 9 may display subtitles in a blank portion of the screen.
  • the descriptor of the stream level of the PMT may include the information illustrated in this figure.
  • descriptor_tag and descriptor_length indicate an identifier and a length of this descriptor, respectively.
  • UHD_subtitle_position_info () may include information in which a subtitle is located.
  • the UHD_video_codec_type field represents codec information of a video element included in a UHD service. For example, this value may have the same value as the stream_type of the PMT.
  • the UHD_video_profile field may indicate profile information on a corresponding video stream, that is, information on basic specifications required for decoding the corresponding stream. Requirements information about the color depth (4: 2: 0, 4: 2: 2, etc.), bit depth (8-bit, 10-bit), coding tool, etc. of the video stream may be included. have.
  • the UHD_video_level field is level information on a corresponding video stream and may include information on a technology element support range defined in a profile.
  • the UHD_video_component_type field indicates information on whether the converted 16: 9 video is scaled or cropped video.
  • the UHD_video_include_subtitle field represents whether or not a stream is provided with subtitle information in a video according to the corresponding stream.
  • the original_UHD_video_type field is information signaling information about a UHD video format and may indicate information related to a video such as a resolution and a frame rate of the video.
  • the original_UHD_video_aspect_ratio field may indicate information about aspect ratio of UHD video.
  • the AFD_size_2N field adds up and down AFD bars of (horizontal resolution x AFD_size_2N / 2) if the video according to the stream in UHD_video_include_subtitle contains no subtitles, and is the stream for the video containing the subtitles. In this case, it may indicate that AFD_bar can be added as much as (horizontal resolution x AFD_size_2N). If the caption can be displayed on the video, the caption can be displayed on the letterbox area AFD_bar. In the process of outputting the remaining 21: 9 video region except for the upper and lower letterbox regions using the field, the receiver may perform a function of adjusting the caption position by displaying the caption on the remaining video over the video.
  • UHD_video_component_type field exemplifies field values of the illustrated UHD_video_component_type field. For example, this field can be used to identify whether a received 16: 9 video is a cropped video or a video with a letterbox (AFD bar) inserted after scaling.
  • this field can be used to identify whether a received 16: 9 video is a cropped video or a video with a letterbox (AFD bar) inserted after scaling.
  • 28 is a diagram illustrating an example of an operation of a receiver when the format of the transmission video and the display aspect ratio of the receiver are different.
  • the format of the video transmitted in this figure is illustrated in the rightmost columns (A-1, B-1, C-1), with the middle column the operation of the receiver (A-2, B-2, C-2), the last The column illustrates screens A-3, A-4, B-3, B-4, C-3, C-4 that may be displayed according to receiver operation.
  • the transmission video format is 21: 9 and the receiver display is 16: 9.
  • the receiver inserts a letterbox area (AFD bar) into the video, depending on the display device or its capabilities, and scales for that video. (A-2).
  • A-3 the receiver inserts and displays the letterbox area above and below the video
  • subtitle information A-4
  • the receiver displays the letterbox area. Can be added to the bottom of the video and the subtitle information displayed in the letterbox area.
  • the receiver crops the video according to the display device or its capabilities (B-2).
  • the base layer data, the first enhancement layer data, and the second enhancer data which are associated with each other or independently encoded, are decoded to display a 16: 9 aspect ratio. Can be expressed.
  • the second enhancer data may not be decoded or may not use the decoded data.
  • the crop coordinate information included in the signaling information may be displayed on a 16: 9 display.
  • the transmission video has a format of 21: 9 but has a 16: 9 video format with a 16: 9 video coding format and an AFD bar image added to the 16: 9 video coding format (C-1).
  • the receiver may express the received video as it is (C-2).
  • the receiver may identify the form in which the AFD is added to the video format 16: 9 as the active format using the 16: 9 video coding format of the transmission video and express the letterbox region up and down as it is (C-3). If there is a subtitle inside, it is possible to cut the existing bar area and add it to the bottom to express the subtitle information in the area (C-4).
  • FIG 29 illustrates a case where the illustrated descriptors are included in other signaling information. This figure illustrates the case where the illustrated descriptors are included in the SDT.
  • the table_id field represents an identifier of a table.
  • section_syntax_indicator field is a 1-bit field set to 1 for an SDT table section (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1").
  • section_length This is a 12-bit field, the first two bits of which shall be "00" .It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 1 021 so that the entire section has a maximum length of 1 024 bytes.
  • transport_stream_id This is a 16-bit field which serves as a label for identification of the TS, about which the SDT informs, from any other multiplex within the delivery system.
  • the version_number field indicates the version number of this subtable.
  • version_number This 5-bit field is the version number of the sub_table.
  • the version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs.When it reaches value "31", it wraps around to "0" .
  • the version_number shall be that of the currently applicable sub_table.
  • the version_number shall be that of the next applicable sub_table.
  • section_number This 8-bit field gives the number of the section.
  • the section_number of the first section in the sub_table shall be "0x00" .
  • the section_number shall be incremented by 1 with each additional section with the same table_id, transport_stream_id, and original_network_id.
  • last_section_number This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.
  • service_id This is a 16-bit field which serves as a label to identify this service from any other service within the TS.
  • the service_id is the same as the program_number in the corresponding program_map_section.
  • EIT_schedule_flag This is a 1-bit field which when set to "1" indicates that EIT schedule information for the service is present in the current TS , see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT schedule sub_table). If the flag is set to 0 then the EIT schedule information for the service should not be present in the TS.
  • the EIT_present_following_flag field may indicate whether EIT_present_following_flag: This is a 1-bit field which when set to "1" indicates that EIT_present_following information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT present / following sub_table.If the flag is set to 0 then the EIT present / following information for the service should not be present in the TS.)
  • the running_status field may refer to the state of the service defined in Table 6 of the DVB-SI document.
  • running_status This is a 3-bit field indicating the status of the service as defined in table 6.For an NVOD reference service the value of the running_status shall be set to "0".
  • free_CA_mode This 1-bit field, when set to “0" indicates that all the component streams of the service are not scrambled.When set to "1" it indicates that access to one or more streams may be controlled by a CA system.
  • descriptors_loop_length field indicates the length of the following descriptor (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors).
  • CRC_32 This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder
  • the descriptors_loop_length field may include a UHD_program_type_descriptor illustrated in FIG. 16 and a UHD_composition_descriptor illustrated in FIGS. 18, 24, or 25 according to an embodiment of the present invention in the following descriptor position.
  • the UHD_component_descriptor may further include a component_tag field.
  • the component_tag field may indicate a PID value for a corresponding stream signaled by PMT, which is a PSI level.
  • the receiver may find the PID value of the corresponding stream together with the PMT using the component_tag field.
  • FIG. 30 illustrates a case where the illustrated descriptors are included in other signaling information. This figure illustrates the case where the illustrated descriptors are included in the EIT.
  • EIT may be in accordance with ETSI EN 300 468. Using this to describe each field is as follows.
  • table_id Represents a table identifier.
  • section_syntax_indicator field is a 1-bit field set to 1 for an EIT table section (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1").
  • section_length This is a 12-bit field.It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC.The section_length shall not exceed 4 093 so that the entire section has a maximum length of 4 096 bytes.
  • service_id This is a 16-bit field which serves as a label to identify this service from any other service within a TS.
  • the service_id is the same as the program_number in the corresponding program_map_section.
  • the version_number field indicates the version number of this subtable.
  • version_number This 5-bit field is the version number of the sub_table.
  • the version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs.When it reaches value 31, it wraps around to 0.When the current_next_indicator is set to "1”, then the version_number shall be that of the currently applicable sub_table.When the current_next_indicator is set to "0”, then the version_number shall be that of the next applicable sub_table.
  • section_number This 8-bit field gives the number of the section.
  • the section_number of the first section in the sub_table shall be "0x00" .
  • the section_number shall be incremented by 1 with each additional section with the same table_id, service_id, transport_stream_id, and original_network_id.
  • the sub_table may be structured as a number of segments.With each segment the section_number shall increment by 1 with each additional section, but a gap in numbering is permitted between the last section of a segment and the first section of the adjacent segment.
  • last_section_number This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.
  • transport_stream_id This is a 16-bit field which serves as a label for identification of the TS, about which the EIT informs, from any other multiplex within the delivery system.
  • segment_last_section_number This 8-bit field specifies the number of the last section of this segment of the sub_table.For sub_tables which are not segmented, this field shall be set to the same value as the last_section_number field.
  • the last_table_id field is (last_table_id: This 8-bit field identifies the last table_id used (see table 2).)
  • event_id This 16-bit field contains the identification number of the described event (uniquely allocated within a service definition).
  • the start_time field contains the start time of the event (start_time: This 40-bit field contains the start time of the event in Universal Time, Co-ordinated (UTC) and Modified Julian Date (MJD) (see annex C). is coded as 16 bits giving the 16 LSBs of MJD followed by 24 bits coded as 6 digits in 4-bit Binary Coded Decimal (BCD) . If the start time is undefined (eg for an event in a NVOD reference service) all bits of the field are set to "1".)
  • running_status This is a 3-bit field indicating the status of the event as defined in table 6. For an NVOD reference event the value of the running_status shall be set to "0".
  • free_CA_mode This 1-bit field, when set to “0" indicates that all the component streams of the event are not scrambled.When set to “1” it indicates that access to one or more streams is controlled by a CA system.
  • descriptors_loop_length field indicates the length of the following descriptor. (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors.)
  • CRC_32 This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder
  • the descriptors_loop_length field may include a UHD_program_type_descriptor illustrated in FIG. 16 and a UHD_composition_descriptor illustrated in FIGS. 18, 24, or 25 according to an embodiment of the present invention in the following descriptor position.
  • the UHD_component_descriptor may further include a component_tag field.
  • the component_tag field may indicate a PID value for a corresponding stream signaled by PMT, which is a PSI level.
  • the receiver may find the PID value of the corresponding stream together with the PMT using the component_tag field.
  • FIG 31 illustrates a case where the illustrated descriptors are included in other signaling information. This figure illustrates the case where the illustrated descriptors are included in the VCT.
  • the VCT may comply with the ATSC PSIP specification. According to ATSC PSIP, each field is described as follows. Each bit description starts as follows.
  • the section_syntax_indicator field is a 1-bit field set to 1 for a VCT table section (section_syntax_indicator-The section_syntax_indicator is a one-bit field which shall be set to '1' for the terrestrial_virtual_channel_table_section ()).
  • section_length field represents the length of the section in bytes. (section_length-This is a twelve bit field, the first two bits of which shall be ‘00’. It specifies the number of bytes of the section, starting immediately following the section_length field, and including the CRC.)
  • the transport_stream_id field indicates an MPEG-TS ID as in a PAT that can identify TVCT (transport_stream_id-The 16-bit MPEG-2 Transport Stream ID, as it appears in the Program Association Table (PAT) identified by a PID value of zero for this multiplex.
  • the transport_stream_id distinguishes this Terrestrial Virtual Channel Table from others that may be broadcast in different PTCs.
  • the version_number field indicates the version number of the VCT (version_number-This 5 bit field is the version number of the Virtual Channel Table.
  • version number shall be incremented by 1 whenever the definition of the current VCT changes. Upon reaching the value 31, it wraps around to 0.
  • version number shall be one unit more than that of the current VCT (also in modulo 32 arithmetic) In any case, the value of the version_number shall be identical to that of the corresponding entries in the MGT)
  • current_next_indicator-A one-bit indicator, which when set to '1' indicates that the Virtual Channel Table sent is currently applicable.When the bit is set to ' 0 ', it indicates that the table sent is not yet applicable and shall be the next table to become valid. This standard imposes no requirement that “next” tables (those with current_next_indicator set to' 0 ') must be sent.An update to the currently applicable table shall be signaled by incrementing the version_number field)
  • section_number-This 8 bit field gives the number of this section.
  • the section_number of the first section in the Terrestrial Virtual Channel Table shall be 0x00. It shall be incremented by one with each additional section in the Terrestrial Virtual Channel Table)
  • last_section_number-This 8 bit field specifies the number of the last section (that is, the section with the highest section_number) of the complete Terrestrial Virtual Channel Table.)
  • protocol_version field indicates the protocol version for a parameter to be defined differently from the current protocol (protocol_version-An 8-bit unsigned integer field whose function is to allow, in the future, this table type to carry parameters that may be structured differently than those defined in the current protocol.At present, the only valid value for protocol_version is zero.Non-zero values of protocol_version may be used by a future version of this standard to indicate structurally different tables)
  • the num_channels_in_section-This 8 bit field specifies the number of virtual channels in this VCT section. The number is limited by the section length)
  • the major_channel_number field indicates the number of major channels associated with a virtual channel (major_channel_number-A 10-bit number that represents the “major” channel number associated with the virtual channel being defined in this iteration of the “for” loop.Each virtual channel shall be associated with a major and a minor channel number. The major channel number, along with the minor channel number, act as the user's reference number for the virtual channel. The major_channel_number shall be between 1 and 99. The value of major_channel_number shall be set such that in no case is a major_channel_number / minor_channel_number pair duplicated within the TVCT.For major_channel_number assignments in the US, refer to Annex B.)
  • the minor_channel_number field indicates the number of minor channels associated with the virtual channel (minor_channel_number-A 10-bit number in the range 0 to 999 that represents the "minor" or "sub"-channel number.This field, together with major_channel_number, performs as a two-part channel number, where minor_channel_number represents the second or right-hand part of the number.When the service_type is analog television, minor_channel_number shall be set to 0.
  • Minor_channel_number shall be set such that in no case is a major_channel_number / minor_channel_number pair duplicated within the TVCT.For other types of services, such as data broadcasting, valid minor virtual channel numbers are between 1 and 999.
  • modulation_mode mode indicates the modulation mode of the carrier associated with the virtual channel (modulation_mode-An 8-bit unsigned integer number that indicates the modulation mode for the transmitted carrier associated with this virtual channel.Values of modulation_mode shall be as defined in Table 6.5. digital signals, the standard values for modulation mode (values below 0x80) indicate transport framing structure, channel coding, interleaving, channel modulation, forward error correction, symbol rate, and other transmission-related parameters, by means of a reference to an appropriate standard The modulation_mode field shall be disregarded for inactive channels)
  • carrier_frequency-The recommended value for these 32 bits is zero.Use of this field to identify carrier frequency is allowed, but is deprecated.
  • channel_TSID field indicates the MPEG-2 TS ID associated with the TS carrying the MPEG-2 program referenced by this virtual channel (channel_TSID-A 16-bit unsigned integer field in the range 0x0000 to 0xFFFF that represents the MPEG-2 Transport Stream ID associated with the Transport Stream carrying the MPEG-2 program referenced by this virtual channel8.
  • channel_TSID shall represent the ID of the Transport Stream that will carry the service when it becomes active. The receiver is expected to use the channel_TSID to verify that any received Transport Stream is actually the desired multiplex.
  • channel_TSID shall indicate the value of the analog TSID included in the VBI of the NTSC signal.Refer to Annex D Section 9 for a discussion on use of the analog TSID)
  • the program_number field indicates an integer value defined in association with this virtual channel and PMT (program_number-A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables.
  • PMT program_number-A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables.
  • channels representing analog services a value of 0xFFFF shall be specified for program_number.
  • program_number shall be set to zero.This number shall not be interpreted as pointing to a Program Map Table entry .
  • the access_controlled field may refer to an event associated with an access controlled virtual channel (access_controlled-A 1-bit Boolean flag that indicates, when set, that the events associated with this virtual channel may be access controlled.When the flag is set to '0', event access is not restricted)
  • the hidden field may indicate that the virtual channel is not accessed by the user's direct channel input (hidden-A 1-bit Boolean flag that indicates, when set, that the virtual channel is not accessed by the user by direct entry of the virtual channel number.Hidden virtual channels are skipped when the user is channel surfing, and appear as if undefined, if accessed by direct channel entry.Typical applications for hidden channels are test signals and NVOD services. Whether a hidden channel and its events may appear in EPG displays depends on the state of the hide_guide bit.)
  • the hide_guide field may indicate whether a virtual channel and its events may be displayed in the EPG (hide_guide-A Boolean flag that indicates, when set to '0' for a hidden channel, that the virtual channel and its events may appear in EPG displays.This bit shall be ignored for channels which do not have the hidden bit set, so that non-hidden channels and their events may always be included in EPG displays regardless of the state of the hide_guide bit.
  • Typical applications for hidden channels with the hide_guide bit set to '1' are test signals and services accessible through application-level pointers.
  • service_type-This 6-bit field shall carry the Service Type identifier.Service Type and the associated service_type field are defined in A / 53 Part 1 [1] to identify the type of service carried in this virtual channel.Value 0x00 shall be reserved.Value 0x01 shall represent analog television programming.Other values are defined in A / 53 Part 3 [3], and other ATSC Standards may define other Service Types9)
  • the source_id field is an identification number identifying a program source associated with a virtual channel (source_id-A 16-bit unsigned integer number that identifies the programming source associated with the virtual channel.
  • a source is one specific source of video, text Source ID values zero is reserved.Source ID values in the range 0x0001 to 0x0FFF shall be unique within the Transport Stream that carries the VCT, while values 0x1000 to 0xFFFF shall be unique at the regional level.Values for source_ids 0x1000 and above shall be issued and administered by a Registration Authority designated by the ATSC.)
  • the descriptors_length field indicates the length of the descriptor following (descriptors_length-Total length (in bytes) of the descriptors for this virtual channel that follows)
  • descriptor ()-Zero or more descriptors, as appropriate, may be included.
  • the service_type field may have a field value indicating parameterized service (0x07) or extended parameterized service (0x09) or scalable UHDTV service.
  • the UHD_program_type_descriptor illustrated in FIG. 16 and the UHD_composition_descriptor illustrated in FIGS. 18, 24, and 25 may be located at the descriptor position.
  • FIG. 32 illustrates syntax for a payload of an SEI region of video data according to embodiments of the present invention.
  • payloadType When payloadType is set to a specific value (51 in this example) in the SEI payload, it may include information (UHD_composition_info (payloadSize)) signaling the format of the video data as illustrated.
  • UHD_composition_info payloadSize
  • UHD_program_format_type is as illustrated in FIG. 16. For example, when UHD_program_format_type is 0x01, the UHD_program_format_type represents a first embodiment of the present invention. A region that is a difference between a UHD video and a 21: 9 UHD video and a 16: 9 UHD video is a video format that can be expressed using separate layer data.
  • the video data may include a UHD_composition_metadata value. This value is as illustrated in FIG. 18.
  • UHD_program_format_type is 0x02, this indicates a second embodiment of the present invention, and indicates that a 21: 9 UHD video transmitted is a video format that can be expressed using crop information for 21: 9 video or 16: 9 video. Indicates.
  • the video data may include a value of 16_9_Extraction_Info_Metadata. This value is as illustrated in FIG. 24.
  • UHD_program_format_type is 0x03
  • AFDbar letterbox
  • the video data may include a UHD_subtitle_position_info value. This value is as illustrated in FIG. 25.
  • the video decoder of the receiver may parse the UHDTV_composition_info SEI message illustrated above, respectively.
  • UHDTV_composition_info () is received through SEI raw byte sequence payload (RBSP) which is an encoded video data source.
  • RBSP SEI raw byte sequence payload
  • the video decoder parses an AVC or HEVC NAL unit and reads a UHDTV_composition_info SEI message having a payloadType of 51 when the nal_unit_type value corresponds to SEI data.
  • UHDTV_composition_info () illustrated in this figure may be decoded to obtain UHD_composition information, 16: 9 extraction information, or UHD_subtitle_position information about current video data.
  • the receiver can determine the configuration information of 16: 9 HD and UHD and 21: 9 UHD streams, and finally output the UHD video.
  • the receiver may determine the video data according to the embodiment disclosed in the present invention from the signaling information region and the video data region, convert the video format accordingly, and express the video data according to the receiver.
  • FIG. 33 is a diagram illustrating an example of a receiving apparatus capable of decoding and displaying video data according to at least one embodiment when video data is transmitted according to embodiments of the present invention.
  • data related to video is represented by A, B, D1, D2 and E, respectively.
  • An example of a signal receiving apparatus may include a demultiplexer 400, a signaling information processor 500, and a video decoder 600.
  • the demultiplexer 400 may demultiplex video streams and signaling information according to an embodiment of the present invention.
  • the video streams may include streams for transmitting the video illustrated in FIGS. 2 to 5.
  • the signaling information processor 500 may decode a part of the signaling information processing unit 500 according to the signaling information illustrated in FIGS. 16 to 27 and 29 to 31 or the performance of the receiver.
  • the signaling information processing unit 500 may decode signaling information of at least one descriptor of FIGS. 18, 24, and 25.
  • the video decoder 600 may decode the video data demultiplexed by the demultiplexer 400 according to the signaling information processed by the signaling information processor 500.
  • the video data may be decoded using coding information or signaling information of the video data according to the syntax of the video data illustrated in FIG. 32.
  • the video decoder 600 may include at least one video decoder of the first decoder 610, the second decoder 620, and the third decoder 630.
  • the video decoder 600 may include a first decoder 610, a second decoder 620, and
  • the third decoder 630 may be included.
  • the first decoder 610 may decode and output the demultiplexed 16: 9 HD video.
  • the first decoder 610 may decode the coding information UHDTV_composition_info illustrated in FIG. 32.
  • Video data decoded by the first decoder 610 may be output as 16: 9 HD video data A which is base layer data.
  • the upscaler 615 upscales 16: 9 HD video data, which is base layer data, and outputs 21: 9 video data.
  • the second decoder 620 may perform scalable decoding using upscaled base layer data and residual data. In this case, the second decoder 620 may decode the coding information UHDTV_composition_info illustrated in FIG. 32. Video data decoded by the second decoder 620 may output 16: 9 UHD video data B which is second enhancement layer data.
  • the third decoder 630 may output video data C obtained by decoding data cropped from 21: 9 video data.
  • the third decoder 630 may perform decoding according to a coding scheme in association with 16: 9 UHD video data B.
  • FIG. Similarly, in this case, the first decoder 630 may decode the coding information (UHDTV_composition_info) illustrated in FIG. 32.
  • the merger 640 may merge and output 16: 9 UHD video data B output from the second decoder 620 and cropped data output from the third decoder 630.
  • the filter unit 640 may perform filtering on the merged portion of the video.
  • the filtering method is illustrated in FIGS. 13 and 10.
  • 34 is a diagram illustrating an embodiment of a signal receiving method according to the present invention.
  • a signal reception method demultiplexes video streams and signaling information (S210).
  • the video data included in the video stream may have a different structure according to the embodiment, which is illustrated in FIGS. 2, 3 (first embodiment), FIG. 4 (second embodiment), and FIGS. 3 embodiments).
  • the received video data may include data that may be transmitted by dividing the high resolution video according to the existing aspect ratio and merging it into the high resolution video.
  • the received video data may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing caption information.
  • a letterbox eg, AFD bar
  • the signaling information illustrated in FIGS. 16 to 27 and 29 to 31 may be demultiplexed separately from the video data.
  • the demultiplexed signaling information is decoded (S220). If the received signal is not a broadcast signal, step S220 is omitted and the signaling information in the video data is decoded in the following video data decoding step.
  • the demultiplexed signaling information included in the broadcast signal may include the information illustrated in FIGS. 16 to 27 and 29 to 31 according to each embodiment. The information illustrated in the above figures may be decoded according to an embodiment. Can be.
  • the signaling information may include signaling information capable of expressing high resolution video data of the first aspect ratio regardless of the aspect ratio to the receiver. For example, the signaling information that can be displayed regardless of the aspect ratio to the receiver may include aspect ratio control information of the high resolution video data.
  • the video data is decoded according to the signaling information according to the embodiment (S230).
  • the video data may include video data information including coding information according to the video data syntax illustrated in FIG. 32.
  • the video data may be output as it is decoded, merged, or arranged with subtitles.
  • the signaling information may include data capable of merging the high resolution video back to the high resolution video when the high resolution video is divided and transmitted according to the existing aspect ratio.
  • the signaling information may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing caption information.
  • a letterbox eg, AFD bar
  • the receiver may display the high resolution video data of the first aspect ratio according to the aspect ratio of the receiver by using the screen control information.
  • the aspect ratio control information may indicate that the encoded video data is divided and transmitted, and may include merging information for merging the divided video data.
  • the aspect ratio control information may include segmentation information for dividing the encoded video data according to the aspect ratio.
  • the aspect ratio control information may include location information for caption arrangement to change the caption position of the video according to the resolution of the video according to the encoded video data.
  • each of the high resolution video or subtitles may be displayed according to the aspect ratio of the corresponding display.
  • even a conventional receiver can display high resolution video data according to the aspect ratio of the receiver.
  • 35 is a diagram illustrating an embodiment of a signal transmission apparatus according to the present invention.
  • An embodiment of the apparatus for transmitting a signal may include an encoder 510, a signaling information generator 520, and a multiplexer 530.
  • Encoder 510 encodes video data.
  • encoding information of the video data may be included in the encoded video data according to an embodiment of the present invention. Encoding information that may be included in the encoded video data has been described in detail with reference to FIG. 32.
  • the encoded video data may have a different structure according to the disclosed embodiment, which is illustrated in FIGS. 2 and 3 (first embodiment), 4 (second embodiment), and FIGS. 5 to 7 (third embodiment). Embodiment).
  • the encoded video data may have a structure in which high resolution video is divided to fit an existing aspect ratio, and the divided video data may include information for merging it back into high resolution video.
  • the encoded video data may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing subtitle information.
  • an embodiment of the apparatus for transmitting a signal includes a signaling information generator 520 separately from the encoder 510.
  • the signaling information generator 520 generates signaling information capable of displaying the encoded video data according to the aspect ratio of the receiver. Examples of the signaling information may include the information illustrated in FIGS. 16 to 27 and 29 to 31 according to each embodiment, and the information illustrated in the drawings may be generated according to an embodiment.
  • the signaling information may include signaling information capable of expressing high resolution video data of the first aspect ratio regardless of the aspect ratio to the receiver.
  • the signaling information that can be displayed regardless of the aspect ratio to the receiver may include aspect ratio control information of the high resolution video data.
  • the multiplexer 530 multiplexes the encoded video data and the signaling information and transmits the multiplexed video data and the signaling information.
  • the transmitter transmits video data according to each embodiment, even if the aspect ratio of the receiver display device is different or the performance is different, the transmitter may display high-definition video or subtitles according to the aspect ratio of the display. have. In addition, even a conventional receiver can display high resolution video data according to the aspect ratio of the receiver.
  • the signaling information generation unit 520 for generating signaling information multiplexed with the video data is omitted, and the multiplexing unit 530 only provides signaling information in the video data region encoded by the encoder 510.
  • the video data included and other data are multiplexed and output.
  • 36 is a diagram illustrating an embodiment of a signal receiving apparatus according to the present invention.
  • An embodiment of the apparatus for receiving a signal may include a demultiplexer 610, a signaling information decoder 620, and a video decoder 630.
  • the demultiplexer 610 demultiplexes the video streams and the signaling information.
  • the video data included in the video stream may have a different structure according to the embodiment, which is illustrated in FIGS. 2, 3 (first embodiment), FIG. 4 (second embodiment), and FIGS. 3 embodiments).
  • the received video data may include data that may be transmitted by dividing the high resolution video according to the existing aspect ratio and merging it into the high resolution video.
  • the received video data may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing caption information.
  • a letterbox eg, AFD bar
  • the signaling information decoder 620 decodes the demultiplexed signaling information.
  • the demultiplexed signaling information may include the information illustrated in FIGS. 16 to 27 and 29 to 31 according to each embodiment, and the information illustrated in the above drawings may be decoded according to an embodiment.
  • the signaling information may include signaling information capable of expressing high resolution video data of the first aspect ratio regardless of the aspect ratio to the receiver.
  • the signaling information that can be displayed regardless of the aspect ratio to the receiver may include aspect ratio control information of the high resolution video data.
  • the video decoder 630 decodes the video data according to the signaling information according to the embodiment.
  • the video data may include video data information including coding information according to the video data syntax illustrated in FIG. 32.
  • the video data may be output as it is decoded, merged, or arranged with subtitles.
  • the aspect ratio control information may include data capable of merging the received high resolution video back to the high resolution video when the received high resolution video is divided and transmitted according to the existing aspect ratio.
  • the signaling information may include information for dividing the high resolution video data according to the aspect ratio of the receiver, or may include location information of a letterbox (eg, AFD bar) for disposing caption information.
  • each of the high resolution video or subtitles may be displayed according to the aspect ratio of the corresponding display.
  • even a conventional receiver can display high resolution video data according to aspect ratio of the receiver according to aspect ratio control information.
  • the present invention has industrial applicability that is usable and repeatable in the field of broadcast and video signal processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

본 발명은 신호 송수신 장치 및 신호 송수신 방법에 관한 것이다. 본 발명의 일 실시예는, 비디오 데이터를 인코딩하는 단계; 상기 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성하는 단계, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 상관없이 표출하도록 하는 화면비 제어 정보를 포함하고; 상기 인코딩된 비디오 데이터와 상기 시그널링 정보를 다중하고 상기 다중화된 비디오 데이터와 시그널링 정보를 전송하는 단계를 포함하는, 신호 송신 방법을 제공한다.

Description

신호 송수신 장치 및 신호 송수신 방법
본 발명은 신호 송수신 장치 및 신호 송수신 방법에 관한 것이다.
비디오 신호 처리 속도가 빨라지면서 초고해상도(ultra high definition; UHD) 비디오를 인코딩/디코딩하는 방안이 연구되고 있다. 기존의 HD수신기를 이용하여 UHD비디오를 수신했을 때도 UHD 뿐만 아니라, HD 비디오를 문제 없이 처리되는 방안이 연구되고 있다. 예를 들어 송신되는 비디오와 수신기의 디스플레이 장치의 화면비가 다를 경우, 각 수신기는 디스플레이 장치에 맞는 화면비율로 그 비디오를 처리할 수 있어야 한다.
그러나, 종래의 device의 경우 UHD 비디오의 화면비(aspect ratio)인 21:9 format의 압축비디오에 대한 디코딩이 지원되지 않는다. 21:9의 비디오가 송신되는 경우, 21:9 화면비의 수신기는 21:9의 비디오를 그대로 처리하여 디스플레이해야 하고, 16:9 화면비의 수신기는 21:9 화면비의 비디오 스트림을 수신한 후 레터박스(letterbox) 형태로 출력을 하거나, 크롭(crop)된 16:9 화면비의 비디오를 수신하여 비디오 신호를 출력해야 한다. 추가적으로 16:9 화면비의 수신기는 stream 내에 자막이 있는 경우, 자막정보를 처리할 수 있어야 한다.
이와 같이, 기존 HD 수신기 또는 UHD 비디오를 처리할 수 있는 수신기의 화면비는 다를 수 있어 해당 비디오를 송신하거나 수신하여 처리할 경우 문제점이 발생할 수 있다.
본 발명의 목적은 다른 화면비가 다른 비디오들을 화면비가 다른 디스플레이 장치를 가진 수신기에서 처리할 수 있는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 다른 목적은, 화면비가 다른 HD 비디오와 UHD 비디오를 각각 수신기에서 처리할 수 있는 호환가능한 비디오를 전송 또는 수신할 수 있는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 다른 목적은 다른 화면비가 다른 HD 비디오와 UHD 비디오를 각각 수신기의 사양에 따라 다르게 처리할 수 있는 시그널링 정보를 처리할 수 있는 신호 송수신 방법 및 신호 송수신 장치를 제공하는 것이다.
본 발명의 일 실시예는, 비디오 데이터를 인코딩하는 단계; 상기 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성하는 단계, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 상관없이 표출하도록 하는 화면비 제어 정보를 포함하고; 상기 인코딩된 비디오 데이터와 상기 시그널링 정보를 다중하고 상기 다중화된 비디오 데이터와 시그널링 정보를 전송하는 단계를 포함하는, 신호 송신 방법을 제공한다.
상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함할 수 있다.
상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함할 수 있다.
상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함할 수 있다.
본 발명의 다른 실시예는, 비디오 데이터를 인코딩하는 인코더; 상기 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성하는 시그널링정보생성부, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 상관없이 표출하도록 하는 화면비 제어 정보를 포함하고; 상기 인코딩된 비디오 데이터와 상기 시그널링 정보를 다중화하는 다중화부를 포함하는, 신호 송신 장치를 제공한다.
본 발명의 다른 실시예는, 비디오 스트림들과 시그널링 정보를 역다중화하는 역다중화부; 상기 역다중화된 시그널링 정보를 복호하는 시그널링정보복호부, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를, 수신기의 화면비에 따라 비디오 포맷을 변경하여 표출하도록 하는 화면비 제어 정보를 포함하고; 상기 역다중화된 비디오 스트림을 상기 복호한 시그널링 정보에 따라 복호하여 비디오디코더;를 포함하는 신호 수신 장치를 제공한다.
본 발명의 다른 실시예는, 비디오 스트림들과 시그널링 정보를 역다중화하는 단계; 상기 역다중화된 시그널링 정보를 복호하는 단계, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를, 수신기의 화면비에 따라 비디오 포맷을 변경하여 표출하도록 하는 화면비 제어 정보를 포함하고; 상기 역다중화된 비디오 스트림을 상기 복호한 시그널링 정보에 따라 복호하는 단계;를 포함하는 신호 수신 방법을 제공한다.
본 발명의 실시예에 따르면, 화면비가 다른 비디오들을 화면비가 다른 디스플레이 장치를 가진 수신기에서 처리할 수 있다.
본 발명의 실시예에 따르면, 화면비가 다른 HD 비디오와 UHD 비디오를 각각 수신기에서 처리할 수 있는 호환가능한 비디오를 전송 또는 수신할 수 있다.
본 발명의 실시예에 따르면, 화면비가 다른 HD 비디오와 UHD 비디오를 각각 수신기의 사양에 따라 다르게 처리할 수 있다.
도 1은 본 발명에 따른 신호 송신 방법의 일 실시예를 예시한 도면이다.
도 2는 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 예를 개략적으로 도시한 도면이다.
도 3은, 도 2에 따른 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 스트림 구조의 예를 개략적으로 도시한 도면이다.
도 4는, 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 다른 예를 개략적으로 도시한 도면이다.
도 5는 본 발명에 따른 신호 송수신 방법의 다른 실시예를 개략적으로 나타낸 도면이다.
도 6은 도 5와 같이 전송될 경우 자막이 출력되는 영역을 예시한 도면이다.
도 7은 도 5와 같이 전송될 경우, UHD 비디오를 수신할 수 있는 수신기에서 자막을 위한 캡션 윈도우를 표시하는 예를 개시한 도면이다.
도 8은 본 발명에 따른 제 1 실시예에 따라 비디오 데이터를 전송할 경우 비디오 데이터를 인코딩 또는 디코딩하는 방법을 예시한 도면이다.
도 9는 본 발명에 따른 제 2 실시예에 따라 비디오 데이터를 전송할 경우 비디오 데이터를 인코딩 또는 디코딩하는 방법을 예시한 도면이다.
도 10은 본 발명의 제 1 실시예에 따라 고해상도 비디오 데이터를 부호화하는 인코더일 예를 예시한 도면이다.
도 11은 본 발명의 제 1 실시예에 따라 분리한 원본 비디오와 분리된 비디오의 resolution 및 비디오 구성방법을 예시한 도면이다.
도 12는 본 발명의 제 1 실시예에 따른 고해상도 비디오 데이터를 복호화하는 디코더의 일 예를 예시한 도면이다.
도 13은 본 발명의 제 1 실시예에에서 크롭된 비디오들을 접합하여 필터링하는 예를 개시한 도면이다.
도 14는 본 발명의 제 2 실시예에 따른 수신기의 제 1 예를 예시한 도면이다.
도 15는 본 발명의 제 3 실시예에 따른 수신기의 동작을 예시한 도면이다.
도 16은 본 발명의 실시예들에 따라 비디오를 표출하도록 할 수 있는 시그널링 정보를 예시한 도면이다.
도 17은 본 발명의 제 1 실시예에 따른 시그널링 정보의 구체적인 신택스 값을 예시한 도면이다.
도 18은 본 발명의 제 1 실시예를 따를 경우, 스트림 레벨 디스크립터의 일 예를 예시한 도면이다.
도 19는 위에서 예시한 비디오의 해상도 및 프레임 레잇을 나타내는 정보의 값을 예시한 도면이다.
도 20은 원래 비디오의 화면비(aspect ratio)에 대한 정보를 예시한 도면이다. 설명한 시그널링 정보 중 original_UHD_video_aspect_ratio필드 본래 UHD 비디오의 aspect ratio에 관한 정보를 나타낸 도면이다.
도 21은 크롭된 비디오의 방향 정보를 예시한 도면이다.
도 22는 비디오를 구성하는 방법의 예를 예시한 도면이다.
도 23은 서브 스트림들을 인코딩할 경우 인코딩 방식에 대한 예를 예시한 도면이다.
도 24는 본 발명의 제 1 실시예를 따를 경우, 스트림 레벨 디스크립터를 예시한 도면이다.
도 25는 예시한 제 3 실시예를 따를 경우, 시그널링 정보를 예시한 도면이다.
도 26은 예시한 UHD_video_component_type필드의 필드 값을 예시한 도면이다.
도 27은 예시한 UHD_video_include_subtitle필드의 필드 값을 예시한 도면이다.
도 28은 전송 비디오의 포맷과 수신기의 디스플레이 화면비가 다른 경우, 수신기의 동작의 예를 예시한 도면이다.
도 29는 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한 도면이다.
도 30은 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한 도면이다.
도 31은 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한 도면이다.
도 32는 본 발명의 실시예들에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 신택스를 예시한 도면이다.
도 33은 본 발명의 실시예들에 따라 비디오 데이터가 전송될 경우, 적어도 1개 이상의 실시예에 따른 비디오 데이터를 디코딩하여 표출할 수 있는 수신장치의 일 예를 예시한 도면이다.
도 34는 본 발명에 따른 신호 수신 방법의 일 실시예를 예시한 도면이다.
도 35은 본 발명에 따른 신호 송신 장치의 일 실시예를 예시한 도면이다.
도 36은 본 발명에 따른 신호 수신 장치의 일 실시예를 예시한 도면이다.
이하 본 발명의 용이하게 설명할 수 있는 실시예를 도면을 참조하여 설명한다.
도 1은 본 발명에 따른 신호 송신 방법의 일 실시예를 예시한 도면이다.
비디오 데이터를 인코딩한다(S110). 비디오 데이터를 인코딩하는 경우, 이하에서 개시하는 실시예에 따라 비디오 데이터의 인코딩 정보를 인코딩된 비디오 데이터에 포함시킬 수 있다.
인코딩된 비디오 데이터의 인코딩 정보는 도 32에서 상세히 기술한다. 인코딩된 비디오 데이터는 이하에서 개시하는 실시예에 따라 다른 구조를 가질 수 있는데, 이 실시예는 도 2, 3 (제 1 실시예), 도 4(제 2 실시예), 도 5 내지 도 7 (제 3 실시예)에 따라 다를 수 있다.
예를 들어 인코딩된 비디오 데이터는 고해상도 비디오가 기존 화면비에 맞게 분할된 구조이고 분할된 비디오 데이터가 이를 다시 고해상도 비디오로 머징할 수 있는 정보를 포함할 수 있다. 또는 인코딩된 비디오 데이터는 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함하거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
전송 신호가 방송 신호인 경우 인코딩된 비디오 데이터와 별개로 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성한다(S120). 시그널링 정보의 예는 각 실시예에 따라 도 16 내지 도 27, 도 29 내지 도 31에 예시한 정보들이 포함될 수 있는데 실시예에 따라 위 도면들에서 예시한 정보들이 생성될 수 있다. 시그널링 정보는 제 1 화면비의 고해상도 비디오 데이터를 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보를 포함할 수 있다. 예를 들어 수신기의 화면비에 상관없이 표출할 수 있는 시그널링 정보는 고해상도 비디오 데이터의 화면비 제어 정보를 포함할 수 있다. 비디오 데이터와 별개의 시그널링 정보의 예는 도 16 내지 도 27, 및 도 29 내지 도 31에서 예시한다.
인코딩된 비디오 데이터와 시그널링 정보를 다중하고 다중화된 비디오 데이터와 시그널링 정보를 전송한다(S130).
전송 데이터가 방송 신호가 아닌 경우에는 비디오 데이터와 다중화되는 시그널링 정보의 생성 단계는 생략되고, S110에서 기술한 비디오 데이터 영역 내에 화면비 제어 정보를 포함한 비디오 데이터와 다른 데이터(예를 들어 오디오 데이터)를 다중화하여 출력한다.
송신기가 각 실시예에 따라 비디오 데이터를 전송하는 경우, 수신기 디스플레이 장치의 화면비가 여러 종류이거나, 성능이 여러 가지인 경우라도 화면비 제어 정보에 따라 각각 해당 디스플레이의 화면비에 맞게 고해상도 비디오를 표출하거나, 또는 자막을 표출할 수 있다. 또한 기존의 수신기라도 화면비 제어 정보에 따라 고해상도 비디오 데이터를 그 수신기의 화면비에 따라 표출할 수 있다. 즉, 수신기는 화면 제어 정보를 이용하여 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 따라 변경하여 표출하도록 할 수 있다.
제 1 실시예에 따르면 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함할 수 있다. 제 2 실시예에 따르면 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함할 수 있다. 그리고 제 3 실시예에 따르면 상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함할 수 있다.
도 2는 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 예를 개략적으로 도시한 도면이다. 이 예는 21:9 화면비의 UHD 비디오를 이용해 16:9 화면비를 서비스할 수 있는 실시예를 예시한다.
21:9 UHD source 비디오 (비디오 (1))에서 16:9 UHD source 비디오(비디오 (2))와 좌/우 크롭(crop)된 비디오(비디오 (3) 및 비디오 (4))들로 분리한다. 비디오의 크롭 과정 등을 통해 비디오를 3개의 비디오로 분리할 수 있다.
즉, 비디오 (1)은 비디오 (2), 비디오 (3), 비디오 (4)로 분리하여 전송한다.
UHD 비디오를 디스플레이할 수 있는 수신장치는 비디오 (2), 비디오 (3), 비디오 (4)를 수신하여 표출한다.
그리고, HD 비디오를 디스플레이할 수 있는 수신장치는, 비디오 (2)를 수신하여 스케일링 등을 통해 16:9의 UHD 비디오(비디오 (2))을 16:9 HD 비디오(비디오 (5))로 변환하여 표출할 수 있다.
도 3은, 도 2에 따른 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 스트림 구조의 예를 개략적으로 도시한 도면이다.
예시한 스트림은 16:9 UHD 비디오, 좌우에 각각 crop된 데이터 및 부가 데이터(UHD composition metadata)를 포함한다. 16:9 UHD 비디오는, 종래 HD 서비스를 제공할 수 있는 16:9 화면비의 HD 비디오와, 16:9 UHD 비디오와 16:9 화면비의 HD 비디오의 차인 enhancement data를 포함할 수 있다.
기존 HD 수신기는 16:9 화면비의 HD 비디오를 수신하여 처리하고, 16:9 UHD 수신기는 16:9 화면비의 HD 비디오와 16:9 화면비의 UHD 비디오를 위한 enhancement data를 수신하여 처리한다. 그리고, 21:9 수신기는, 16:9 화면비의 UHD 비디오, crop된 좌, 우의 data 및 부가 데이터인 UHD composition metadata를 이용하여 21: 9 UHD 비디오를 구성할 수 있다. 부가 데이터(UHD composition metadata)는 좌, 우의 crop 좌표정보를 포함할 수 있다. 따라서, 수신기는 부가 데이터를 이용하여 , 16:9 화면비의 UHD 비디오, crop된 좌, 우의 data를 이용하여 21:9 화면비의 UHD 비디오를 생성할 수 있다.
따라서, 이 도면의 실시예에 따르면 3개의 scalable 서비스를 제공할 수 있다.
도 4는, 본 발명의 실시예에 따라 고해상도 이미지를 수신기들의 화면비에 맞게 전송하는 다른 예를 개략적으로 도시한 도면이다. 이 예에서 21:9 화면비의 UHD 비디오는 16:9 화면비의 HD 비디오와 별개의 스트림으로 전송된다.
16:9의 HD 비디오는 21:9 화면비의 UHD 비디오와 호환되지 않으므로, 송신기는 HD 비디오 스트림과 별도로 UHD 비디오 스트림을 준비한다. UHD 비디오 스트림에는 16:9 비디오의 화면비를 생성할 수 있는 crop 좌표정보가 부가 정보데이터(16:9 extraction info metadata)에 포함되어 전송될 수 있다.
따라서, UHD 비디오 수신기는 21:9 화면비의 UHD 비디오 스트림을 수신한다. 그리고, UHD 비디오 수신기가 21:9 화면비의 디스플레이 장치를 가지고 있다면, 21:9 UHD 서비스를 제공하는 스트림으로부터 UHD 비디오를 추출할 수 있다. 이 경우 부가 정보데이터(16:9 extraction info metadata)는 무시할 수 있다.
그리고, UHD 비디오 수신기가 16:9 화면비의 디스플레이 장치를 가지고 있다면 부가 정보데이터를 이용하여 UHD 비디오 스트림으로부터 16:9 화면비의 비디오를 추출하여 서비스를 제공할 수 있다.
종래의 HD 수신기는 16:9 화면비의 HD 비디오 스트림을 수신하여 HD 비디오를 제공할 수 있다.
도 5는 본 발명에 따른 신호 송수신 방법의 다른 실시예를 개략적으로 나타낸 도면이다.
예를 들어 21:9의 화면비의 비디오를 전송하되, 이 비디오 포맷을 스케일링하여 16:9의 화면비의 비디오로 전송하되, 16:9의 화면비의 비디오 내에 위와 아래에 레터박스(letterbox) 영역을 포함시켜 전송할 수 있다.
도 6은 도 5와 같이 전송될 경우 자막 영역의 출력을 예시한다. 기존 HD 비디오 수신기는 자막영역을 위한 캡션 윈도우는 레터박스 영역이 아닌 화면 영역에 나타난다.
도 7은 도 5와 같이 전송될 경우, UHD 비디오를 수신할 수 있는 수신기에서 자막을 위한 캡션 윈도우를 표시하는 예를 개시한다. UHD 비디오를 전송하는 스트림 내에 자막이 포함되었을 경우에 기존의 비디오를 좌측 상단(0,0)에서부터 출력하고 실제 비디오 영역의 바깥 부분의 레터박스 영역 (화면의 하단 영역, 잉여 영역)에 자막을 표출하여, 화면의 빈 부분에 자막이 출력됨으로써 실제 비디오 영역과의 간섭을 최소화 하면서 화면을 효율적으로 사용할 수 있다.
도 8은 본 발명에 따른 제 1 실시예에 따라 비디오 데이터를 전송할 경우 비디오 데이터를 인코딩 또는 디코딩하는 방법을 예시한 도면이다.
송신기는 16:9 HD 비디오를 base layer 데이터로 부호화하고, base layer 데이터에서 부호화된 데이터를 기반으로 해서 16:9 UHD를 구성하는 residual data를 enhancement layer 1 데이터로 부호화한다. 그리고, 나머지 좌측과 우측의 crop 된 데이터인 2.5: 9 비디오에 해당하는 나머지 UHD 비디오를 enhancement layer2 데이터로 부호화한다.
enhancement layer2 로 부호화되는 비디오 데이터는 21: 9의 전체 UHD 비디오에서 correlation을 이용해 부호화할 수도 있고, 독립된 비디오로 부호화될 수 있다. 그리고, 제 1 실시예에서 설명한 바와 같이 좌측과 우측의 crop 된 데이터의 좌/우 위치에 관한 정보를 전송해 줄 수 있다.
enhancement layer2로 부호화되는 비디오 데이터의 좌/우 위치에 대한 정보는 enhancement layer2에 해당하는 비디오 스트림 내의 header 또는 system level의 section data의 descriptor 형태와 같은 실시 예 등을 사용해서 전송할 수 있다. 이에 대해서는 후술하도록 한다.
수신기는, base layer 데이터만을 수신하여 복호하면 16: 9 HD 비디오(1920 x 1080)을 표출할 수 있다.
수신기가 base layer 데이터와 enhancement layer 1 데이터를 복호하면 16: 9 UHD 비디오(3840 x 2160)을 표출할 수 있다.
그리고, 수신기가 base layer 데이터, enhancement layer 1 데이터, 및 enhancement layer 2 데이터를 모두 복호한다면 21: 9 UHD 비디오(5040 x2160)을 표출할 수 있다. 이 경우, 위에서 설명한 enhancement layer2로 부호화되는 비디오 데이터의 좌/우 위치에 대한 정보가 사용될 수 있다.
따라서, 수신기의 성능에 따라 또는 기능에 따라 여러 가지 화면비의 여러 해상도의 비디오를 표출할 수 있다. 이 예는 4K 비디오를 여러 개의 비디오로 분리하여 전송하는 예를 예시한 것이고, 그 이상의 resolution에 따른 비디오도 위와 같은 방식으로 전송이 가능하다.
도 9는 본 발명에 따른 제 2 실시예에 따라 비디오 데이터를 전송할 경우 비디오 데이터를 인코딩 또는 디코딩하는 방법을 예시한 도면이다.
송신기에서 예를 들어 4K (5040x2160) UHD 비디오로부터 16:9 UHD 비디오로 분리한다면, 송신기는 16:9 비디오의 분리 시작 정보 및 분리 끝 정보를 함께 전송할 수 있다. 예를 들어 송신기는, 화면 상 시작 좌표에 해당하는 crop_cordinate_x1과 끝 좌표의 crop_cordinate_x2 정보를 함께 전송한다. 여기서, crop_cordinate_x1 정보는 16:9 UHD 비디오의 시작 좌표, crop_cordinate_x2 정보는 16:9 UHD 비디오의 끝 좌표를 나타낸다.
수신기는, 4K (5040x2160) UHD 비디오를 수신하고, 분리 시작 정보 및 분리 끝 정보를 무시하고 그대로 4K (5040x2160) UHD 비디오를 표출할 수 있다
수신기는 4K (5040x2160) UHD 비디오를 수신하고, 분리 시작 정보 및 분리 끝 정보를 이용하여 21:9 UHD 비디오 중 16: 9 UHD 비디오를 잘라내어 표출할 수 있다.
제 2 실시예에 따르면 16:9 HD 비디오는 별도의 스트림으로 전송되기 때문에, 수신기는 16:9 HD 비디오 스트림을 4K (5040x2160) UHD 비디오 스트림과 별도로 수신하여 표출할 수 있다.
따라서, 수신기의 성능에 따라 또는 기능에 따라 여러 가지 화면비의 여러 해상도의 비디오를 표출할 수 있다. 마찬가지로 이 예는 4K 비디오를 여러 개의 비디오로 분리하여 전송하는 예를 예시한 것이고, 그 이상의 resolution에 따른 비디오도 위와 같은 방식으로 인코딩 또는 디코딩이 가능하다.
도 10은 본 발명의 제 1 실시예에 따라 고해상도 비디오 데이터를 부호화하는 인코더일 예를 예시한 도면이다. 여기서는 고해상도 비디오 데이터를 4K의 21: 9 UHD 비디오 데이터로 예시한다. 이 도면에서 비디오와 관련된 데이터는 A, B, C, D1 및 D2로 나타낸다.
고해상도 비디오 데이터를 부호화하는 인코더의 일 예는 베이스 레이어 인코더(110), 제 1 Enhancement layer 데이터 인코더 (120), 및 제 2 Enhancement layer 데이터 인코더 (130)를 포함할 수 있다.
예를 들어 인코더의 일 예는, 21: 9 화면비의 UHD 비디오를 인코딩하는 인코더는, 각각 베이스 레이어 데이터, Enhancement layer 1 데이터, Enhancement layer 2 데이터를 각각 처리하여 인코딩할 수 있다.
베이스 레이어 인코더(110)의 크롭 및 스케일부(111)는 21:9 UHD 비디오 데이터(A)를 16:9로 크롭하고, 스케일링하여 사이즈를 줄여 16: 9 HD 비디오 데이터(B)로 출력한다. 제 1 인코딩부(119)는 16:9 HD 비디오 데이터를 베이스 레이어 데이터를 인코딩하여 출력할 수 있다.
제 1 Enhancement layer 데이터 인코더(120)의 크롭부(121)는 21:9 UHD 비디오 데이터(A)를 16:9로 크롭한다. 업스케일링부(123)는 베이스 레이어 인코더(110)의 크롭 및 스케일부(111)가 출력하는 다운 스케일링된 데이터를 다시 업 스케일링하여 출력하고, 제 1 연산부(127)는 크롭부(121)가 크롭한 데이터와 업스케일링부(123)가 업스케일링한 데이터를 이용하여 16: 9 UHD 비디오의 residual data(C)를 출력할 수 있다. 제 2 인코딩부(129)는 16:9 UHD 비디오를 Enhancement layer 1 데이터로 인코딩하여 출력할 수 있다.
제 2 Enhancement layer 데이터 처리부(130)의 제 2 연산부(137)는 21:9 UHD 비디오 데이터(A)와 크롭부(121)가 크롭한 데이터를 이용하여, 16:9 비디오 데이터와 21:9 비디오 데이터의 크롭 데이터인 좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)를 각각 출력할 수 있다.
좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)는 각각 해당 비디오의 좌측 또는 우측에 대한 정보로 식별될 수 있다. 이 정보를 시그널링하는 예는 뒤에서 기술한다. 여기서 좌측 비디오 데이터의 식별정보(enhancement_video_direction)는 0, 우측 비디오 데이터의 식별정보(enhancement_video_direction)는 1로 각각 예시했다.
좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)를 하나의 비디오 스트림으로 전송하면 수신기는 시그널링 정보를 이용하여 복호할 수 있다. 이 경우 좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)는 각각 코딩할 수 있고, 하나의 비디오 데이터로 코딩할 수도 있다.
따라서, 좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)를 두 개의 비디오 스트림들로 전송하거나 하나의 스트림으로 전송하는 경우, 각각 식별정보를 이용하여 이를 분리하도록 시그널링할 수 있다.
제 3 인코딩부(139)는 크롭된 좌측 비디오 데이터 (D1)및 우측 비디오 데이터(D2)를 Enhancement layer 2 데이터로 인코딩할 수 있다.
따라서, 수신기의 성능에 따라 각각 베이스 레이어 데이터, Enhancement layer 1 데이터, Enhancement layer 2 데이터를 수신하면 UHD 비디오 또는 HD 비디오 데이터를 복원할 수 있다.
수신기가 Enhancement layer 2 데이터를 복원하는 경우, 각각 베이스 레이어 데이터, Enhancement layer 1 데이터와 연관된 복호화 방식으로 복호할 수도 있고, 이와 독립적으로 복호할 수도 있다. 이러한 복호화 방식은 부호화 방식에 따라 결정될 수 있다.
도 11은 본 발명의 제 1 실시예에 따라 분리한 원본 비디오와 분리된 비디오의 resolution을 예시한 도면이다.
좌측 상단의 예(a)는, 21:9 화면비의 5040 x 2160 해상도의 UHD 비디오의 해상도를 나타낸다.
21:9 화면비를 갖는 4K UHD 비디오는 5040x2160의 해상도를 갖는다. 그 중 16:9에 해당하는 비디오는 기존 방송에서 16:9의 4K UHD라고 불리는 3840 x 2160의 해상도의 비디오를 의미할 수 있다.
우측 상단의 예(b)는 21:9 화면비의 5040 x 2160 해상도의 UHD 비디오 상에서 3840 x 2160 해상도의 UHD 비디오를 예시한 도면이다.
중앙 하단의 예(c)에서, 3840 x 2160의 해상도의 비디오는 enhancement layer 1 데이터로, 좌우의 600 x 2160 해상도의 비디오는 하나의 비디오로 합친 경우에는 합친 비디오는 1200x2160 해상도의 비디오는 enhancement layer 1 데이터를 갖는다. 이때 비디오 level에서 잉여 비디오의 해상도에 대해 signaling이 필요하고, 어떤 방향의 비디오인지 좌/우 정보에 대한 signaling이 필요할 수 있다.
이 예는, 좌측 비디오 데이터의 식별정보(enhancement_video_direction)는 0, 우측 비디오 데이터의 식별정보(enhancement_video_direction)는 1로 각각 나타내었다.
또한 enhancement layer 2에 포함될 나머지 비디오는 좌/우의 edge 영역에만 국한되지 않는데, 21:9 비디오 중 임의의 16:9 비디오를 제외한 나머지 영역으로 위치는 임의로 지정이 가능하다. 예를 들어, 21:9 비디오 중 추출할 16:9 비디오를 좌측 영역으로 설정하고 나머지 우측의 5:9 비디오로 enhancement layer 2를 구성하는 실시 예도 가능하다. 또한, 해상도가 다른 경우도 가능하다. 예를 들어 4K 뿐만 아니라 8K UHD 비디오에 대해서도 이와 같이 비디오를 분리하여 전송할 수 있다.
도 12는 본 발명의 제 1 실시예에 따른 고해상도 비디오 데이터를 복호화하는 디코더의 일 예를 예시한 도면이다. 여기서는 설명의 편의상 고해상도 비디오 데이터를 4K의 21: 9 UHD 비디오 데이터로 예시한다. 이 도면에서 비디오와 관련된 데이터는 A, B, D1, D2 및 E로 각각 나타낸다.
고해상도 비디오 데이터를 복호화하는 디코더의 일 예는, 베이스 레이어 복호부(210), 제 1 Enhancement layer 데이터 복호부 (220), 및 제 2 Enhancement layer 데이터 복호부 (230) 중 적어도 하나의 복호부를 포함할 수 있다. 신호 수신 장치의 기능에 따라 3가지 기능의 복호부를 모두 포함할 수도 있고, 기존 HD 비디오를 출력하는 신호 수신 장치의 디코더는 베이스 레이어 복호부(210)만을 포함할 수도 있다. 이 예에서 역다중화(201)는 각 복호부들이 공유할 수도 있고, 각각의 복호부가 별개의 역다중화부(201)를 포함할 수도 있다.
예를 들어 21: 9 화면비의 UHD 비디오를 디코딩하는 디코더는, 각각 베이스 레이어 데이터, Enhancement layer 1 데이터, Enhancement layer 2 데이터를 각각 처리하여 디코딩할 수 있다.
베이스 레이어 복호부(210)의, 제 1 디코더(213)는 역다중화된 16: 9 화면비의 HD 비디오(B)를 복호하여 출력할 수 있다.
제 1 Enhancement layer 데이터 복호부 (220)의 업 스케일링부(221)는, 베이스 레이어 복호부(210)가 복호한 베이스 레이어 데이터를 업스케일링하여 출력한다.
제 2 디코더(223)는 베이스 레이어 데이터와 residual data를 이용하여 scalable decoding을 수행할 수 있다.
제 2 디코더(223)는 역다중화된 16:9의 residual data를 복호하고, 업스케일링된 베이스 레이어 데이터와 복호한 16:9의 residual data를 이용하여 16:9 화면비의 UHD 비디오(E)로 복호할 수 있다.
한편, 제 2 Enhancement layer 데이터 복호부 (230)의 제 3 디코더(233)는, 좌측/우측 비디오를 복호하고, 제 1 Enhancement layer 데이터 복호부 (220)가 디코딩한 Enhancement layer 1 데이터를 이용하여 출력한 16: 9의 UHD 비디오(E)와 복호한 좌측/우측 비디오(D1/D2)를 접합(merge)하여 21:9 UHD 비디오(A)를 복원할 수 있다.
이 경우, 제 2 Enhancement layer 데이터 복호부 (230)는, 좌측/우측 비디오를 식별하기 위한 식별정보를 이용할 수 있고, 21: 9 UHD 비디오(A)가 좌측/우측 비디오가 접합되는 부분에서 연속적이고 자연스럽게 표출될 수 있도록 boundary filtering을 수행할 수 있다. 이 경우 crop된 좌측/우측 비디오에 해당하는 crop된 비디오는 16:9 비디오와 접합하기 위해 filtering 과정을 거친다.
여기서, 필터링 과정은 기존의 코덱에서 사용하는 디블록킹 필터(deblocking filter)와 유사할 수도 있지만, 매크로블록의 경계마다 적용하는 것이 아니고 크롭(crop)된 비디오의 주변에 적용한다. 기존의 deblocking filter와 마찬가지로 실제 edge와 crop된 부분을 이어 붙임으로써 발생하는 boundary를 구분하기 위해 기준값(threshold)에 따라 필터링을 수행할 수 있다. 이에 대해서는 후술한다.
도 13은 본 발명의 제 1 실시예에에서 크롭된 비디오들을 접합하여 필터링하는 예를 개시한다. 베이스 레이어의 비디오, enhancement layer 1의 비디오, 및 enhancement layer 2의 비디오의 경계에서 블록화 현상을 제거하는 예를 설명한다.
이 도면에서 예를 들어 접합되는 면을 중심으로 크롭된 비디오들 중 좌측 비디오와 우측 비디오를 분리해서 부호화하면, 스티치(stitch)된 부분에 블록화 현상(blocking artifact)이 발생하기 때문에 그 경계부분에서 블러링(blurring)을 수행한다. 실제 비디오의 에지(edge)와 크롭(crop)으로 인해 발생하는 경계(boundary)를 구분하기 위해 필터링(filtering)을 수행할 수 있다. 필터링하는 방법은 좌우 각각 600x2160 크기의 비디오를 디코딩 한 후 16:9 UHD 비디오와 머징을 수행하여21:9의 비디오로 재구성한 후에 비디오 상에서 스티치(stitch)된 경계에서부터 좌우 수평 방향의 임의 개수의 픽셀(pixel)을 이용해서 필터링을 수행한다. 이 도면은 좌우 수평방향의 8개 픽셀들에 대한 필터링(filtering)을 적용하는 예로서, 스티치(stitch)된 부분의 좌표 정보를 사용할 수 있다.
이 도면에서 제 1 비디오와 제 2 비디오의 접합부분에서 한 필드의 픽셀들을 주소를 각각 Pi와 qi로 표시하고, i는 x좌표에 따라 0부터 정수값을 갖는다. I의 증가방향은 제 1 비디오와 제 2 비디오의 접합부분에서 달라진다. 만약 접합 부분의 x축으로 픽셀의 주소가 596, 597, 598, 599 (제 1 비디오 상의 픽셀들), 600, 601, 602, 603 (제 2 비디오 상의 픽셀들)라고 가정한다.
다음의 수학식 1에서 예시한 조건 1을 만족하기 위한 조건을 구하기 위해, 수학식 2 내지 수학식 4을 만족시키는 P0, P1, P2..값은 4-tap 필터 및 5-tap 필터를 사용해서 P0,’ P1’, P2’,… 값으로 갱신된다.
수학식 1은 조건 1을 나타낸다.
수학식 1
Figure PCTKR2013010014-appb-M000001
수학식 2
Figure PCTKR2013010014-appb-M000002
수학식 3
Figure PCTKR2013010014-appb-M000003
수학식 4
Figure PCTKR2013010014-appb-M000004
여기서 수학식 2 내지 4와 관련된 조건 1과 수학식 6의 조건 2를 이용하면 각각 실제 에지(edge)와 블로킹 현상(artifact)를 구분할 수 있다.
위에서 수학식 1의 조건 1을 만족하지 않는 경우, 수학식 5와 같이 3-tap 필터를 적용하여 P0과 q0의 값은 p0’ 및 q0’ 값으로 갱신한다.
수학식 5
Figure PCTKR2013010014-appb-M000005
수학식 6의 조건 2는 q block을 필터링(filtering)하기 위한 조건으로 이를 만족할 경우, 수학식 7 내지 수학식 9에 예시한 바와 같이 q0, q1, q2 은 4-tap filter 및 5-tap filter를 사용해서 q′0, q′1, q′2 값으로 갱신한다.
수학식 6은 조건 2를 나타낸다.
수학식 6
Figure PCTKR2013010014-appb-M000006
수학식 7
Figure PCTKR2013010014-appb-M000007
수학식 8
Figure PCTKR2013010014-appb-M000008
수학식 9
Figure PCTKR2013010014-appb-M000009
만약 조건 2를 만족하지 않는 경우, 다음의 수학식 10을 이용하여 q0 값은 q′0 값으로 갱신된다.
수학식 10
Figure PCTKR2013010014-appb-M000010
조건 1과 2에서의 α(offset_alpha_value)와 β(offset_beta_value)는 QP(quantization parameter)에 따른 offset으로써 필터의 강도를 조절할 수 있다. QP(quantization parameter)값에 따라 offset으로 필터 강도를 조절하고 그에 따라 smoothing filter의 offset도 그에 따라 적절히 할당하면 비디오의 디테일을 조절할 수 있다.
도 14는 본 발명의 제 2 실시예에 따른 수신기의 제 1 예를 예시한 도면이다.
본 발명의 제 2 실시예에 따르면, HD 비디오의 스트림과 UHD 비디오의 스트림은 별개의 스트림으로 전송될 수 있다.
따라서, HD 비디오만을 표출할 수 있는 수신기(a)는 HD 비디오의 스트림을 역다중화하는 역다중화기 및 디코더를 포함하고, 역다중화기는 HD 비디오 스트림을 역다중화하고, 디코더는 해당 비디오 데이터를 디코딩하여 16:9 HD 비디오를 표출하도록 한다.
한편, UHD 비디오를 표출할 수 있는 수신기(b)도 역다중화기 및 디코더를 포함할 수 있다. 이 경우, 역다중화기는 UHD 비디오 스트림을 역다중화하고, 디코더는 해당 비디오 데이터를 디코딩하여 UHD 비디오를 표출하도록 할 수 있다.
이 때, UHD 비디오는 수신기의 성능에 따라 비디오의 일부가 크롭(crop)된 비디오인 16:9 UHD 비디오일 수도 있고, 크롭되지 않은 21:9 UHD 비디오일 수 있다. 수신기는 제 2 실시예에서 설명한 바와 같이, 그 성능에 따라 복호한 UHD 비디오를 표출할 수 있고, 16:9 화면비의 UHD 비디오인 경우, 원본의 21:9 UHD 비디오 중 크롭되는 위치정보(16:9 rectangle 좌표로 표시)를 이용하여 비디오를 크롭한 후 크롭된 비디오를 표출할 수 있다. 여기서는 4K UHD 비디오를 예로 하여 설명했지만, 비디오의 해상도가 더 높아져도 이와 같은 방식을 적용할 수 있다.
도 15는 본 발명의 제 3 실시예에 따른 수신기의 동작을 예시한 도면이다. 본 발명의 제 3 실시예에 따르면, 21:9 화면비의 UHD 비디오는, 스케일링된 16:9 화면비의 비디오와 그 비디오의 상, 하에 위치하는 레터박스가 삽입된 형태로 전송된다. 자막정보가 디스플레이되는 비디오인 경우, 수신기의 성능에 따라 자막정보가 16:9 비디오 상에 표출되던가 또는 레터박스 상에 표출되도록 할 수 있다.
이 도면에 비디오 (A)는 설명한 제 3실시예에 따라 전송되는 16: 9비디오 및 그 비디오 상에 표출되는 레터박스를 예시한다. 수신기의 성능에 따라 이 비디오를 처리하는 방식이 달라질 수 있다.
먼저 16: 9 화면비의 디스플레이를 가진 수신기에서 비디오를 위한 자막정보(subtitle)가 존재하지 않는 경우라면, 수신기는 16:9 비디오와 레터박스를 그대로 표출할 수 있다. 반대로 전송되는 비디오를 위한 자막정보가 포함될 경우 이 수신기는 위쪽의 레터박스(Top AFD bar)를 삭제 또는 분리하고, 아래의 레터박스(bottom AFD(Active Format Description) bar)를 2배로 확장하거나 또는 위쪽의 레터박스를 아래의 레터박스에 붙여, 2배 크기의 레터박스(AFD_size_2N)로 비디오 포맷을 변환하여 표출할 수 있다.
즉, 5040 x 2160의 UHD 비디오를 예로 들면, 수신기는 수신된 비디오에 대해 사이즈가 각각 3840 x N x 2 (여기서 N은 레터박스의 높이) 크기의 레터박스(AFD bar)를 비디오의 아랫부분에 삽입하고, 그 위치에 자막을 표시하여 화면을 효율적으로 배치하도록 할 수 있다. 여기서 2 x N은 135이 될 수 있다. 즉, 예시한 5040 x 2160의 UHD 비디오 포맷을 16: 9의 (UHD 또는 HD) 비디오 포맷으로 변경하는 경우, 비디오 아랫 부분에 자막정보 표출을 위해 삽입되는 레터박스의 높이(AFD_size_2N)는 515가 된다 (5040: 3840 = 2160: (2160 - X) -> X = 515 = AFD_size_2N). 만약 비디오를 위한 자막정보가 존재하지 않는 경우에는 기존 방법과 마찬가지로 비디오의 상하에 각각 3840xN인 AFD bar를 삽입할 수 있다. 이는 해상도가 높아지는 비디오에 대해서도 동일하게 유사한 방식으로 적용될 수 있다.
반면에 21:9 비디오를 전송하는 경우, 21:9 화면비의 디스플레이를 가진 수신기는 자막이 있는 경우 그 비디오 상에 자막을 표출하고, 그렇지 않는 경우 그 비디오를 그대로 수신하여 표출할 수 있다.
이하에서는 본 발명의 실시예에 따라 비디오가 송수신될 경우 이를 처리하도록 할 수 있는 방송신호의 시그널링 정보를 예시한다.
도 16은 본 발명의 제 1 실시예에 따라 비디오를 표출하도록 할 수 있는 시그널링 정보를 예시한 도면이다. 이 도면은 시스템 레벨에서 시그널링 정보로서 PMT를 예시하는데, PMT의 program_info_length의 바로 뒤의 프로그램 레벨의 디스크립터와, ES_info_length 필드의 바로 뒤에 스트림 레벨의 디스크립터를 포함할 수 있다.
이 도면은 프로그램 레벨의 디스크립터의 예로서 UHD_program_type_descriptor를 예시한다.
descriptor_tag는 이 디스크립터의 식별자를 나타낸다.
그리고 UHD_program_format_type은 위에서 설명한 바와 같이 각각의 실시예를 식별하는 정보가 포함될 수 있다.
예를 들어, UHD_program_format_type가 0x01인 경우, 본 발명의 제 1 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 16:9 HD 비디오, 16:9 UHD 비디오, 및 21: 9 UHD 비디오와 16:9 UHD 비디오의 차이인 영역을 별도의 레이어 데이터를 이용하여 표출될 수 있는 비디오 포맷이거나, 또는 그 비디오 포맷에 따른 서비스 타입을 나타낸다.
UHD_program_format_type가 0x02인 경우, 본 발명의 제 2 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 21:9 비디오 또는 16:9 비디오를 위한 크롭정보를 이용하여 표출될 수 있는 비디오 포맷이거나 또는 그 비디오 포맷에 따른 서비스 타입을 나타낸다.
UHD_program_format_type가 0x03인 경우, 본 발명의 제 3 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 16:9 비디오와 21:9 비디오를 위한 레터박스(AFDbar) 정보를 이용하여 표출되는 비디오 포맷이거나 또는 그 비디오 포맷에 따른 서비스 타입을 나타낸다.
그리고, 스트림 레벨의 디스크립터의 예로서, UHD composition descriptor를 예시한다. 이 디스크립터는 본 발명에 따른 제 1, 2, 3의 실시예에 대해 서비스 또는 프로그램을 구성하는 스트림에 대한 정보를 포함할 수 있다.
예를 들어 제 1 실시예에 따르는 경우, 베이스 레이어 데이터, enhancement layer 1 데이터, enhancement layer 2 데이터를 각각 전송하는 스트림을 식별하는 정보가 포함될 수 있다. 이에 대해서는 다음에서 상술한다.
도 17은 본 발명의 제 1 실시예에 따른 시그널링 정보의 구체적인 신택스 값을 예시한 도면이다.
본 발명의 실시예들에 따른 정보를 방송 신호의 시그널링 정보로 시그널링하고, 그 시그널링 정보가 PMT인 경우는 예시된 필드 값은 다음의 정보를 나타낼 수 있다.
제 1 실시예는 베이스 레이어 데이터, 제 1 enhancement layer 데이터, 제 2 enhancement layer 데이터를 전송하는 스트림을 각각 전송하는데, 이 실시예는 이 데이터들을 모두 시그널링할 수 있다.
먼저 제 1 실시예에서 program_number 필드는 21:9 UHD 프로그램에 대한 프로그램 번호정보가 될 수 있다.
그리고, 베이스 레이어 데이터를 전송하는 스트림에 대해서는 PMT에 다음과 같은 정보가 포함될 수 있다. Stream_type은 MPEG-2 비디오 코덱에 따른 비디오 스트림을 나타내는 0x02 등의 값이 될 수 있다. Elementary_PID는 각 프로그램에 포함되는 엘레먼터리 스트림의 PID값을 나타내는데 이 예는 0x109A라는 값을 나타냄을 예시한다. 스트림 레벨의 디스크립터는 MPEG-2 비디오에 관련된 시그널링 정보가 포함될 수 있다.
제 1 enhancement layer 데이터를 전송하는 스트림에 대해서는 PMT에 다음과 같은 정보가 포함될 수 있다. Stream_type은 HEVC scalable layer 비디오 코덱에 따른 스트림의 타입을 나타내는데 여기서는 이 값을 0xA1의 값으로 예시하였다. Elementary_PID는 각 프로그램에 포함되는 엘레먼터리 스트림의 PID값을 나타내는데 이 예는 0x109B라는 값을 나타냄을 예시한다. 스트림 레벨의 디스크립터인 UHDTV_sub_stream_descriptor()는 베이스 레이어를 이용해 16:9 비디오를 구성하는데 필요한 제 1 enhancement layer 데이터에 관련된 시그널링 정보가 포함될 수 있다.
제 2 enhancement layer 데이터를 전송하는 스트림에 대해서는 PMT에 다음과 같은 정보가 포함될 수 있다. Stream_type은 HEVC scalable layer 비디오 코덱에 따른 스트림의 타입을 나타내는 여기서는 이 값을 0xA2의 값으로 예시하였다. Elementary_PID는 각 프로그램에 포함되는 엘레먼터리 스트림의 PID값을 나타내는데 이 예는 0x109C라는 값을 나타냄을 예시한다. 스트림 레벨의 디스크립터인 UHDTV_composition_descriptor()는 제 2 enhancement layer 데이터 및 21:9 UHD 비디오를 복원하기 위해 관련된 시그널링 정보가 포함될 수 있다.
도 18은 본 발명의 제 1 실시예를 따를 경우, 스트림 레벨 디스크립터의 일 예를 예시한다.
도 16의 예에 따르면, 프로그램 레벨의 디스크립터에 포함되는 UHD_program_format_type은 제 1 실시예에 대해 0x01의 값을 가질 수 있다.
스트림 레벨 디스크립터는 이 디스크립터를 식별할 수 있는 descriptor_tag값과, 이 디스크립터의 길이를 나타내는 descriptor_length와 UHD_composition_metadata()가 포함될 수 있다.
이 예에서 UHD_composition_metadata()에 포함되는 정보들을 예시하면 다음과 같다.
EL2_video_codec_type필드는 UHD 서비스에 포함되는 video element의 코덱정보를 나타낸다. 예를 들어 이 값은 PMT의 stream_type과 동일한 값을 갖을 수 있다.
EL2_video_profile필드는 해당 video stream에 대한 profile 정보, 즉 해당 stream을 디코딩하기 위해 필요한 기본 사양에 대한 정보를 나타낼 수 있다. 해당 비디오 스트림의 컬러 뎁스 (color depth) (4:2:0, 4:2:2 등), bit depth (8-bit, 10-bit), coding tool 등에 대한 요구사항(requirement) 정보가 포함될 수 있다.
EL2_video_level필드는 해당 video stream에 대한 레벨정보로서, 프로파일(profile)에서 정의한 기술 요소 지원 범위에 대한 정보가 포함될 수 있다.
EL2_video_component_type 필드는 해당 video stream가 UHD 서비스 구성하는 경우, 어떤 데이터를 포함하는지를 나타낸다. 예를 들어 스트림은 16:9 HD에 해당하는 base layer 데이터인지, 16:9의 제 1 enhancement layer 데이터인지, 21:9 UHD를 위한 제 2 enhancement layer 데이터인지에 대한 식별정보를 나타낸다.
original_UHD_video_type필드는 UHD 비디오 포맷에 대한 정보를 시그널링하는 것으로써, 비디오의 resolution 및 frame rate등과 같은 기본적인 정보를 나타낼 수 있다.
original_UHD_video_aspect_ratio필드는 본래 UHD 비디오의 aspect ratio에 관한 정보를 나타낸다.
EL2_video_width_div16필드와 EL2_enhancement_video_height_div16필드는 제 2 enhancement layer 데이터에 해당하는 sub_video의 resolution 정보를 나타낸다. 예를 들어 제 2 enhancement layer 데이터로 표출되는 비디오의 가로 및 세로의 크기를 16의 배수 단위로 표현할 수 있다.
EL2_video_direction필드는 크롭(crop)된 비디오의 방향 정보를 나타낼 수 있다.
EL2_video_composition_type필드는 UHD 비디오 중 sub_video들이 하나의 비디오로 합쳐져 구성되어 하나의 스트림(stream)으로 전송될 때, sub_video들을 구성하는 방법을 나타낸다.
EL2_dependency_idc필드는 UHD 비디오 중 좌우의 sub-video를 압축할 때, 독립적으로 부호화했는지 혹은 16:9 UHD 비디오와의 상관된 부호화 방식을 사용했는지에 대한 정보를 나타낸다.
enhancement_video_filter_num필드는 좌우의 크롭(crop)된 비디오를 복호화할 경우, 비디오에 블록화영역(artifact)이 존재하기 때문에 필터링(filtering)을 적용할 수 있는데 필터링의 적용 여부 및 필터의 개수를 나타낸다.
enhancement_video_filtering_cordinate_x_div4필드와 enhancement_video_filtering_cordinate_y_div4필드는 필터링(Filtering)을 적용해야 할 비디오의 부분의 X방향, Y방향의 첫 픽셀의 좌표를 각각 나타낸다. 실제 좌표는 이 필드에 4를 곱한 값이 될 수 있다. 예를 들어 이 경우 좌표는 UHD 비디오를 기준으로 할 수 있는데, 즉, 베이스 레이어, 제 1 enhancement 레이어, 제 2 enhancement 레이어를 이용해 복원한 UHD 비디오를 기준으로 할 수 있다.
enhancement_video_filtering_width_div4필드와 enhancement_video_filtering_width_div4필드는 필터링을 적용해야 할 비디오 영역의 크기를 픽셀의 개수로 나타낼 수 있다. 예를 들어 필터링을 적용해야 할 영역의 크기는 실제 크기에서 4를 곱한 값이 될 수 있다.
도 19는 위에서 예시한 비디오의 해상도 및 프레임 레잇을 나타내는 정보의 값을 예시한 도면이다. 시그널링 정보 중 original_UHD_video_type필드는 비디오의 해상도 및 프레임 레잇을 나타낼 수 있는데, 이 도면에서는 그 값에 따라 여러 가지 해상도와 프레임 레잇을 가질 수 있음을 예시한다. 예를 들어 original_UHD_video_type필드가 0101값일 경우, 본래 비디오는 초당 60 프레임, 5040 x 2160 해상도를 가질 수 있다.
도 20은 원래 비디오의 화면비(aspect ratio)에 대한 정보를 예시한 도면이다. 설명한 시그널링 정보 중 original_UHD_video_aspect_ratio필드 본래 UHD 비디오의 aspect ratio에 관한 정보를 나타낸다. 이 도면은, 예를 들어 이 값이 10인 경우, 21:9 화면비를 나타냄을 예시한다.
도 21은 크롭된 비디오의 방향 정보를 예시한 도면이다. 설명한 시그널링 정보 중 EL2_video_direction필드 크롭된 비디오(제 2 enhancement layer 데이터)의 방향 정보를 예시한다. 예를 들어 본 발명의 제 1 실시예에서 크롭된 좌우 비디오는 방향 정보를 가질 수 있는데, 이 방향에 대한 정보 값이 00이면 왼쪽, 01이면 오른쪽, 10이면 위쪽, 11이면 아래쪽의 방향을 갖는다는 것을 예시한다.
도 22는 비디오를 구성하는 방법의 예를 예시한 도면이다. 위에서 설명한 EL2_video_composition_type필드는 베이스 레이어 데이터, 제 1 enhancement layer 데이터 및 제 2 enhancement layer 데이터가 결합하는 경우, 이들을 결합하도록 하는 시그널링 정보를 예시한다.
제 1 실시예에서 예를 들어 이 필드 값이 01이면 제 2 enhancement layer 데이터 top/bottom에 결합되고, 10이면 제 2 enhancement layer 데이터가 side-by-side로 결합됨을 예시하고, 11이면 서브 스트림이 베이스 레이어 데이터와 제 1 enhancement layer 데이터와 서브스트림 아닌 별도의 스트림으로 전송됨을 예시한다.
도 23은 서브 스트림들을 인코딩할 경우 인코딩 방식에 대한 예를 예시한 도면이다. 제 1 실시예를 따를 때 설명한 EL2_dependency_idc필드는 UHD 비디오에 포함되는 베이스 레이어 데이터, 제 1 enhancement layer 데이터 및 제 2 enhancement layer 데이터가 서로 관련되어 인코딩되는지 또는 독립적으로 인코딩되는지를 나타낼 수 있다. 예를 들어, 특정 데이터를 인코딩하는데 시간 예측이나 시점 예측에 사용되는 데이터는 관련되어 인코딩된다고 할 수 있다.
예를 들어 이 필드의 값이 01이면, 제 2 enhancement layer 데이터가 다른 데이터와 관련없이 독립적으로 인코딩되었음을 나타내고, 10이면 제 2 enhancement layer 데이터가 다른 데이터와 관련되어 인코딩되었음을 나타낸다.
다음으로 본 발명의 제 2 실시예에 따른 경우, 비디오를 표출하도록 할 수 있는 시그널링 정보를 예시한 도면이다.
도 24는 도 16의 PMT에 포함될 수 있는, 스트림 레벨 디스크립터를 예시한 도면이다.
본 발명의 제 2 실시예에 따를 경우, HD 비디오 스트림과 UHD 비디오 스트림은 별개의 스트림으로 전송될 수 있다. 그리고 UHD 비디오 스트림은 수신기의 화면비를 고려하여 다른 화면비로 전환할 수 있는 메타데이터를 포함할 수 있다.
마찬가지로 descriptor_tag와 descriptor_length는 이 디스크립터의 식별자와 길이를 각각 나타낸다.
여기서 16_9_extension_info_metadata()는 제 2 실시예의 경우 UHD 비디오를 구성하는 스트림에 대한 시그널링 정보가 포함되어 있다.
예를 들어, EL2_video_codec_type필드는 UHD 서비스에 포함되는 video element의 코덱정보를 나타낸다. 예를 들어 이 값은 PMT의 stream_type과 동일한 값을 갖을 수 있다.
EL2_video_profile필드는 해당 video stream에 대한 profile 정보, 즉 해당 stream을 디코딩하기 위해 필요한 기본 사양에 대한 정보를 나타낼 수 있다. 해당 비디오 스트림의 컬러 뎁스 (color depth) (4:2:0, 4:2:2 등), bit depth (8-bit, 10-bit), coding tool 등에 대한 요구사항(requirement) 정보가 포함될 수 있다.
EL2_video_level필드는 해당 video stream에 대한 레벨정보로서, 프로파일(profile)에서 정의한 기술 요소 지원 범위에 대한 정보가 포함될 수 있다.
original_UHD_video_type필드는 UHD 비디오 포맷에 대한 정보를 시그널링하는 정보로, 비디오의 resolution 및 frame rate등 과 같은 비디오와 관련된 정보를 나타낼 수 있다.
original_UHD_video_aspect_ratio필드는 UHD 비디오의 aspect ratio에 관한 정보를 나타낼 수 있다.
16_9_rectangle_start_x,필드, 16_9_rectangle_start_y필드, 16_9_rectangle_end_x필드 및 16_9_rectangle_end_y 필드는 UHD 비디오의 해상도가 5040x2160와 같은 21:9 format인 경우, 이 중에서 유효한 16:9 화면 영역을 지정할 수 있는 위치 정보를 나타낸다. 해당 영역의 좌측 상단의 화소 위치는 16_9_rectangle_start_x, 16_9_rectangle_start_y에 의해 지정되며, 해당 영역의 우측 하단의 화소 위치는 16_9_rectangle_end_x, 16_9_rectangle_end_y에 의해 지정될 수 있다. 이 필드들을 이용해 16:9 display format을 갖는 수신기는 이 필드에 의해 지정된 영역만을 출력할 수 있으며 나머지 영역은 크롭(crop)하여 표출하지 않을 수 있다.
도 25는 예시한 제 3 실시예를 따를 경우, 시그널링 정보를 예시한 도면이다.
본 발명의 제 3 실시예에 따를 경우, 21:9 화면비의 비디오는 16:9 화면비의 비디오로 전송된다. 이 때 수신기의 화면에 따라 16:9 의 디스플레이를 가진 수신기는 종래와 같이 자막을 비디오 상에 표출하고, 21:9 의 디스플레이를 가진 수신기는 화면의 빈 부분에 자막을 표출하도록 할 수 있다.
이 경우 PMT의 스트림 레벨의 디스크립터는 이 도면에서 예시한 정보를 포함할 수 있다.
마찬가지로 descriptor_tag와 descriptor_length는 이 디스크립터의 식별자와 길이를 각각 나타낸다. UHD_subtitle_position_info()는 자막이 위치하는 정보를 포함할 수 있다.
UHD_video_codec_type필드는 UHD 서비스에 포함되는 video element의 코덱정보를 나타낸다. 예를 들어 이 값은 PMT의 stream_type과 동일한 값을 갖을 수 있다.
UHD_video_profile필드는 해당 video stream에 대한 profile 정보, 즉 해당 stream을 디코딩하기 위해 필요한 기본 사양에 대한 정보를 나타낼 수 있다. 해당 비디오 스트림의 컬러 뎁스 (color depth) (4:2:0, 4:2:2 등), bit depth (8-bit, 10-bit), coding tool 등에 대한 요구사항(requirement) 정보가 포함될 수 있다.
UHD_video_level필드는 해당 video stream에 대한 레벨정보로서, 프로파일(profile)에서 정의한 기술 요소 지원 범위에 대한 정보가 포함될 수 있다.
21:9 비디오를 16:9 디스플레이에 맞는 비디오 포맷으로 변환할 때, 비디오를 단순히 크롭(crop)하는 경우와 비디오를 스케일링(scaling)해서 레터박스 영역(AFD bar)을 삽입하는 경우가 있다.
UHD_video_component_type필드는 변환된 16:9 비디오가 스케일링(scaling)한 비디오인지 혹은 crop한 비디오인지의 정보를 알려준다.
UHD_video_include_subtitle필드는 해당 스트림에 따른 비디오 내에 자막정보가 제공되는 스트림인지 여부에 대해 나타낸다.
original_UHD_video_type필드는 UHD 비디오 포맷에 대한 정보를 시그널링하는 정보로, 비디오의 resolution 및 frame rate등 과 같은 비디오와 관련된 정보를 나타낼 수 있다.
original_UHD_video_aspect_ratio필드는 UHD 비디오의 aspect ratio에 관한 정보를 나타낼 수 있다.
AFD_size_2N 필드는, UHD_video_include_subtitle에서 스트림(stream)에 따른 비디오에 자막이 포함되어 있지 않은 경우에는 (가로해상도 x AFD_size_2N/2)의 AFD bar를 상하로 각각 추가해주고, 자막이 포함되어 있는 비디오에 대한 stream일 경우, (가로해상도 x AFD_size_2N) 만큼의 AFD_bar를 하단에 추가해 줄 수 있음을 나타낼 수 있다. 자막을 비디오 상에 표출할 수 경우, 자막은 레터박스 영역(AFD_bar) 위에 표출할 수 있다. 수신기는 이 필드를 이용해 상하의 레터박스 영역을 제외한 나머지 21:9 비디오 영역을 출력하는 과정에서, 비디오 위로 올리고 나머지 남는 영역에 자막을 표출하도록 하여 자막 위치를 조절하는 기능을 수행할 수 있다.
도 26은 예시한 UHD_video_component_type필드의 필드 값을 예시한다. 예를 들어 이 필드를 이용하면 수신되는 16:9 비디오는 크롭한 비디오인지 또는 스케일링 후 레터박스 (AFD bar)를 삽입한 비디오인지 식별할 수 있다.
도 27은 예시한 UHD_video_include_subtitle필드의 필드 값을 예시한다. 예를 들어 이 값이 0 또는 1인지에 따라 스트림 또는 스트림에 따른 비디오에 자막정보가 포함되어 있거나 포함되지 않음을 나타낼 수 있다.
도 28은 전송 비디오의 포맷과 수신기의 디스플레이 화면비가 다른 경우, 수신기의 동작의 예를 예시한 도면이다.
이 도면에서 전송되는 비디오의 포맷은 가장 오른쪽 열(A-1, B-1, C-1)에 예시하였고, 중간 열은 수신기의 동작(A-2, B-2, C-2), 마지막 열은 수신기 동작에 따라 표출될 수 있는 화면들(A-3, A-4, B-3, B-4, C-3, C-4)을 예시한다. 설명의 용이함을 위해 전송 비디오 포맷은 21:9, 수신기의 디스플레이는 16:9라고 예시한다.
예를 들어 전송 비디오가 21:9 의 비디오 포맷을 가진 경우(A-1), 수신기는 디스플레이 장치 또는 그 성능에 따라 해당 비디오에 레터박스 영역(AFD bar)를 삽입하고, 해당 비디오에 대해 스케일링을 수행한다(A-2). 이 때 예시한 시그널링 정보에 따라 자막정보가 없는 경우(A-3), 수신기는 레터박스 영역을 비디오의 상하에 삽입하여 표출하고, 자막정보가 있는 경우(A-4), 수신기는 레터박스 영역을 비디오의 하단에 추가하고 레터박스 영역에 자막정보를 표출할 수 있다.
다른 예로서, 전송 비디오가 21:9 의 비디오 포맷을 가진 경우(A-2), 수신기는 디스플레이 장치 또는 그 성능에 따라 해당 비디오를 크롭한다(B-2). 만약 예시한 제 1 실시예의 경우라면(B-3), 서로 연관되거나 또는 독립적으로 인코딩한 베이스 레이어 데이터, 제 1 인핸스먼트 레이어 데이터, 제 2 인핸스먼트 레이터 데이터를 복호하여 16:9 화면비의 디스플레이에 표출할 수 있다. 이 경우 제 2 인핸스먼트 레이터 데이터는 복호하지 않거나 복호된 데이터를 사용하지 않을 수 있다.
제 2 실시예의 경우라면(B-4), 시그널링 정보에 포함된 크롭 좌표 정보를 이용하여 16:9 화면의 디스플레이에 표출할 수 있다.
또 다른 예로서, 전송 비디오가 21:9의 포맷을 가졌으나 16:9의 비디오 코딩 포맷에 21:9의 비디오 포맷과 AFD bar 이미지가 추가된 16:9의 비디오 포맷을 가진 경우(C-1), 수신기는 수신된 비디오를 그대로 표출할 수 있다(C-2).
이 때, 수신기는 전송 비디오의 16:9 비디오 코딩 포맷을 액티브 포맷으로서 비디오 포맷 16:9에 AFD가 추가된 형태를 식별하여 레터박스 영역을 상하로 그대로 표출할 수도 있고(C-3), 스트림 내부에 자막이 있다면 기존에 삽입된 bar 영역을 잘라내 하단에 추가하여 그 영역에 자막정보를 표출할 수도 있다(C-4).
도 29는 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한다. 이 도면은 예시한 디스크립터들이 SDT에 포함되는 경우를 예시한다.
table_id 필드는 테이블의 식별자를 나타낸다.
section_syntax_indicator 필드는, SDT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다 (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1")
section_length 필드는, 섹션의 길이를 바이트 수로 나타낸다 (section_length: This is a 12-bit field, the first two bits of which shall be "00". It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 1 021 so that the entire section has a maximum length of 1 024 bytes.)
transport_stream_id 필드는 전송 시스템 내 다른 멀티플렉스와 구별하여, 이 SDT가 제공하는 TS 식별자를 나타낸다(transport_stream_id: This is a 16-bit field which serves as a label for identification of the TS, about which the SDT informs, from any other multiplex within the delivery system.)
version_number 필드는 이 서브 테이블의 버전 번호를 나타낸다(version_number: This 5-bit field is the version number of the sub_table. The version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs. When it reaches value "31", it wraps around to "0". When the current_next_indicator is set to "1", then the version_number shall be that of the currently applicable sub_table. When the current_next_indicator is set to "0", then the version_number shall be that of the next applicable sub_table.)
current_next_indicator 필드는 이 서브 테이블이 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다 (current_next_indicator: This 1-bit indicator, when set to "1" indicates that the sub_table is the currently applicable sub_table. When the bit is set to "0", it indicates that the sub_table sent is not yet applicable and shall be the next sub_table to be valid.)
section_number 필드는 섹션의 번호를 나타낸다(section_number: This 8-bit field gives the number of the section. The section_number of the first section in the sub_table shall be "0x00". The section_number shall be incremented by 1 with each additional section with the same table_id, transport_stream_id, and original_network_id.)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number: This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.)
original_network_id 필드는 전송 시스템이 네트워크 아이디를 식별자를 나타낸다(original_network_id: This 16-bit field gives the label identifying the network_id of the originating delivery system.)
service_id 필드는 TS내 서비스 식별자를 나타낸다(service_id: This is a 16-bit field which serves as a label to identify this service from any other service within the TS. The service_id is the same as the program_number in the corresponding program_map_section.)
EIT_schedule_flag 필드는, 서비스에 대한 EIT schedule 정보가 현재 TS에 있는지를 나타낼 수 있다(EIT_schedule_flag: This is a 1-bit field which when set to "1" indicates that EIT schedule information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT schedule sub_table). If the flag is set to 0 then the EIT schedule information for the service should not be present in the TS.)
EIT_present_following_flag 필드는, 현재 TS에 서비스에 대한 EIT_present_following information 정보가 있는지 나타낼 수 있다(EIT_present_following_flag: This is a 1-bit field which when set to "1" indicates that EIT_present_following information for the service is present in the current TS, see TR 101 211 [i.2] for information on maximum time interval between occurrences of an EIT present/following sub_table. If the flag is set to 0 then the EIT present/following information for the service should not be present in the TS.)
running_status 필드는, DVB-SI 문서의 테이블 6에 정의된 서비스의 상태를 지칭할 수 있다(running_status: This is a 3-bit field indicating the status of the service as defined in table 6. For an NVOD reference service the value of the running_status shall be set to "0".)
free_CA_mode 필드는 서비스의 모든 컴포넌트 스트림이 스크래블되어 있는지 지칭한다(free_CA_mode: This 1-bit field, when set to "0" indicates that all the component streams of the service are not scrambled. When set to "1" it indicates that access to one or more streams may be controlled by a CA system.)
descriptors_loop_length 필드는 뒤따르는 디스크립터의 길이를 나타낸다(descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors).
CRC_32 는 CRC값을 포함하는 32비트 필드이다(CRC_32: This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder)
descriptors_loop_length 필드는 다음의 디스크립터 위치에 도 16에서 예시한 UHD_program_type_descriptor, 와 본 발명의 실시예에 따라 도 18, 도 24, 또는 도 25에 예시한 UHD_composition_descriptor가 포함될 수 있다.
DVB의 SDT에 UHD_composition_descriptor가 포함되는 경우, UHD_component_descriptor는 component_tag 필드가 더 포함할 수 있다. component_tag 필드는 PSI 레벨인 PMT에서 시그널링하는 해당 스트림에 대한 PID 값을 나타낼 수 있다. 수신기는 component_tag 필드를 이용해 PMT와 함께 해당 스트림의 PID 값을 찾을 수 있다
도 30은 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한다. 이 도면은 예시한 디스크립터들이 EIT에 포함되는 경우를 예시한다.
EIT는 ETSI EN 300 468에 따를 수 있다. 이를 이용하여 각 필드를 기술하면 다음과 같다.
table_id: 테이블 식별자를 나타낸다.
section_syntax_indicator 필드는, EIT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다 (section_syntax_indicator: The section_syntax_indicator is a 1-bit field which shall be set to "1".)
section_length 필드는, 섹션의 길이를 바이트 수로 나타낸다(section_length: This is a 12-bit field. It specifies the number of bytes of the section, starting immediately following the section_length field and including the CRC. The section_length shall not exceed 4 093 so that the entire section has a maximum length of 4 096 bytes.)
service_id 필드는 TS내 서비스 식별자를 나타낸다(service_id: This is a 16-bit field which serves as a label to identify this service from any other service within a TS. The service_id is the same as the program_number in the corresponding program_map_section.)
version_number 필드는 이 서브 테이블의 버전 번호를 나타낸다(version_number: This 5-bit field is the version number of the sub_table. The version_number shall be incremented by 1 when a change in the information carried within the sub_table occurs. When it reaches value 31, it wraps around to 0. When the current_next_indicator is set to "1", then the version_number shall be that of the currently applicable sub_table. When the current_next_indicator is set to "0", then the version_number shall be that of the next applicable sub_table.)
current_next_indicator 필드는 이 서브 테이블이 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다(current_next_indicator: This 1-bit indicator, when set to "1" indicates that the sub_table is the currently applicable sub_table. When the bit is set to "0", it indicates that the sub_table sent is not yet applicable and shall be the next sub_table to be valid.)
section_number 필드는 섹션의 번호를 나타낸다(section_number: This 8-bit field gives the number of the section. The section_number of the first section in the sub_table shall be "0x00". The section_number shall be incremented by 1 with each additional section with the same table_id, service_id, transport_stream_id, and original_network_id. In this case, the sub_table may be structured as a number of segments. Within each segment the section_number shall increment by 1 with each additional section, but a gap in numbering is permitted between the last section of a segment and the first section of the adjacent segment.)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number: This 8-bit field specifies the number of the last section (that is, the section with the highest section_number) of the sub_table of which this section is part.)
transport_stream_id 필드는 전송 시스템 내 다른 멀티플렉스와 구별하여, 이 SDT가 제공하는 TS 식별자를 나타낸다(transport_stream_id: This is a 16-bit field which serves as a label for identification of the TS, about which the EIT informs, from any other multiplex within the delivery system.)
original_network_id 필드는 전송 시스템이 네트워크 아이디를 식별자를 나타낸다(original_network_id: This 16-bit field gives the label identifying the network_id of the originating delivery system.)
segment_last_section_number 필드는 이 서브 테이블의 이 세그먼트의 마지막 섹션 번호를 나타낸다 (segment_last_section_number: This 8-bit field specifies the number of the last section of this segment of the sub_table. For sub_tables which are not segmented, this field shall be set to the same value as the last_section_number field.)
last_table_id 필드는 (last_table_id: This 8-bit field identifies the last table_id used (see table 2).)
event_id 필드는 이벤트의 식별번호를 나타낸다.(event_id: This 16-bit field contains the identification number of the described event (uniquely allocated within a service definition)
start_time 필드는 이벤트의 시작시간을 포함한다(start_time: This 40-bit field contains the start time of the event in Universal Time, Co-ordinated (UTC) and Modified Julian Date (MJD) (see annex C). This field is coded as 16 bits giving the 16 LSBs of MJD followed by 24 bits coded as 6 digits in 4-bit Binary Coded Decimal (BCD). If the start time is undefined (e.g. for an event in a NVOD reference service) all bits of the field are set to "1".)
running_status 필드는, DVB SI 문서의 table 6에 정의된 이벤트의 상태를 나타낸다( (running_status: This is a 3-bit field indicating the status of the event as defined in table 6. For an NVOD reference event the value of the running_status shall be set to "0".)
free_CA_mode 필드는 서비스의 모든 컴포넌트 스트림이 스크래블되어 있는지 지칭한다 (free_CA_mode: This 1-bit field, when set to "0" indicates that all the component streams of the event are not scrambled. When set to "1" it indicates that access to one or more streams is controlled by a CA system.)
descriptors_loop_length 필드는 뒤따르는 디스크립터의 길이를 나타낸다 (descriptors_loop_length: This 12-bit field gives the total length in bytes of the following descriptors.)
CRC_32 는 CRC값을 포함하는 32비트 필드이다(CRC_32: This is a 32-bit field that contains the CRC value that gives a zero output of the registers in the decoder)
descriptors_loop_length 필드는 다음의 디스크립터 위치에 도 16에서 예시한 UHD_program_type_descriptor, 와 본 발명의 실시예에 따라 도 18, 도 24, 또는 도 25에 예시한 UHD_composition_descriptor가 포함될 수 있다.
DVB의 EIT에 UHD_composition_descriptor가 포함되는 경우, UHD_component_descriptor는 component_tag 필드가 더 포함할 수 있다. component_tag 필드는 PSI 레벨인 PMT에서 시그널링하는 해당 스트림에 대한 PID 값을 나타낼 수 있다. 수신기는 component_tag 필드를 이용해 PMT와 함께 해당 스트림의 PID 값을 찾을 수 있다
도 31은 예시한 디스크립터들이 다른 시그널링 정보에 포함되는 경우를 예시한다. 이 도면은 예시한 디스크립터들이 VCT에 포함되는 경우를 예시한다.
VCT는 ATSC PSIP 규격에 따를 수 있다. ATSC PSIP에 따르면 각 필드의 설명은 다음과 같다. 각 비트 설명을 아래와 같이 개시한다.
table_id 필드는 테이블섹션의 타입을 지칭하는 8-bit unsigned 정수를 나타낸다 (table_id - An 8-bit unsigned integer number that indicates the type of table section being defined here. For the terrestrial_virtual_channel_table_section(), the table_id shall be 0xC8)
section_syntax_indicator 필드는, VCT테이블 셕션에 대해 1로 셋팅되는 1비트 필드이다(section_syntax_indicator - The section_syntax_indicator is a one-bit field which shall be set to ‘1’ for the terrestrial_virtual_channel_table_section()).
private_indicator 필드는 1로 셋팅된다(private_indicator - This 1-bit field shall be set to ‘1’)
section_length필드는 섹션의 길이를 바이트 수로 나타낸다. (section_length - This is a twelve bit field, the first two bits of which shall be ‘00’. It specifies the number of bytes of the section, starting immediately following the section_length field, and including the CRC.)
transport_stream_id 필드는 TVCT를 식별할 수 있는 PAT에서 처럼 MPEG -TS ID를 나타낸다 (transport_stream_id - The 16-bit MPEG-2 Transport Stream ID, as it appears in the Program Association Table (PAT) identified by a PID value of zero for this multiplex. The transport_stream_id distinguishes this Terrestrial Virtual Channel Table from others that may be broadcast in different PTCs.)
version_number 필드는 VCT의 버전 번호를 나타낸다(version_number - This 5 bit field is the version number of the Virtual Channel Table. For the current VCT (current_next_indicator = ‘1’), the version number shall be incremented by 1 whenever the definition of the current VCT changes. Upon reaching the value 31, it wraps around to 0. For the next VCT (current_next_indicator = ‘0’), the version number shall be one unit more than that of the current VCT (also in modulo 32 arithmetic). In any case, the value of the version_number shall be identical to that of the corresponding entries in the MGT)
current_next_indicator 필드는 이 VCT 테이블 현재 적용가능한지 또는 다음에 적용 가능한지를 나타낸다(current_next_indicator - A one-bit indicator, which when set to ‘1’ indicates that the Virtual Channel Table sent is currently applicable. When the bit is set to ‘0’, it indicates that the table sent is not yet applicable and shall be the next table to become valid. This standard imposes no requirement that “next” tables (those with current_next_indicator set to ‘0’) must be sent. An update to the currently applicable table shall be signaled by incrementing the version_number field)
section_number 필드는 섹션의 번호를 나타낸다(section_number - This 8 bit field gives the number of this section. The section_number of the first section in the Terrestrial Virtual Channel Table shall be 0x00. It shall be incremented by one with each additional section in the Terrestrial Virtual Channel Table)
last_section_number 필드는 마지막 섹션의 번호를 나타낸다 (last_section_number - This 8 bit field specifies the number of the last section (that is, the section with the highest section_number) of the complete Terrestrial Virtual Channel Table.)
protocol_version 필드는 추후 현재 프로토콜과 다르게 정의될 파라미터를 위한 프로토콜 버전을 나타낸다 (protocol_version - An 8-bit unsigned integer field whose function is to allow, in the future, this table type to carry parameters that may be structured differently than those defined in the current protocol. At present, the only valid value for protocol_version is zero. Non-zero values of protocol_version may be used by a future version of this standard to indicate structurally different tables)
num_channels_in_section 필드는 이 VCT의 가상 채널의 수를 나타낸다 (num_channels_in_section - This 8 bit field specifies the number of virtual channels in this VCT section. The number is limited by the section length)
short_name 필드는 가상 채널의 이름을 나타낸다(short_name - The name of the virtual channel, represented as a sequence of one to seven 16-bit code values interpreted in accordance with the UTF-16 representation of Unicode character data. If the length of the name requires fewer than seven 16-bit code values, this field shall be padded out to seven 16-bit code values using the Unicode NUL character (0x0000). Unicode character data shall conform to The Unicode Standard, Version 3.0 [13]. )
major_channel_number 필드는, 가상채널과 관련된 메이저 채널의 수를 나타낸다(major_channel_number - A 10-bit number that represents the “major” channel number associated with the virtual channel being defined in this iteration of the “for” loop. Each virtual channel shall be associated with a major and a minor channel number. The major channel number, along with the minor channel number, act as the user’s reference number for the virtual channel. The major_channel_number shall be between 1 and 99. The value of major_channel_number shall be set such that in no case is a major_channel_number/ minor_channel_number pair duplicated within the TVCT. For major_channel_number assignments in the U.S., refer to Annex B.)
minor_channel_number 필드는, 가상채널과 관련된 마이너 채널의 수를 나타낸다(minor_channel_number - A 10-bit number in the range 0 to 999 that represents the “minor” or “sub”- channel number. This field, together with major_channel_number, performs as a two-part channel number, where minor_channel_number represents the second or right-hand part of the number. When the service_type is analog television, minor_channel_number shall be set to 0. Services whose service_type is ATSC_digital_television, ATSC_audio_only, or unassociated/ small_screen_service shall use minor numbers between 1 and 99. The value of minor_channel_number shall be set such that in no case is a major_channel_number/ minor_channel_number pair duplicated within the TVCT. For other types of services, such as data broadcasting, valid minor virtual channel numbers are between 1 and 999.)
modulation_mode 모드는 가상채널과 관련된 캐리어의 변조 모드를 나타낸다(modulation_mode - An 8-bit unsigned integer number that indicates the modulation mode for the transmitted carrier associated with this virtual channel. Values of modulation_mode shall be as defined in Table 6.5. For digital signals, the standard values for modulation mode (values below 0x80) indicate transport framing structure, channel coding, interleaving, channel modulation, forward error correction, symbol rate, and other transmission-related parameters, by means of a reference to an appropriate standard. The modulation_mode field shall be disregarded for inactive channels)
carrier_frequency 필드는 캐리어 주파수를 식별할 수 있는 필드이다(carrier_frequency - The recommended value for these 32 bits is zero. Use of this field to identify carrier frequency is allowed, but is deprecated.)
channel_TSID 필드는 이 가상채널에 의해 레퍼런스된 MPEG-2 프로그램을 전송하는 TS와 관련된 MPEG-2 TS ID를 나타낸다 (channel_TSID - A 16-bit unsigned integer field in the range 0x0000 to 0xFFFF that represents the MPEG-2 Transport Stream ID associated with the Transport Stream carrying the MPEG-2 program referenced by this virtual channel8. For inactive channels, channel_TSID shall represent the ID of the Transport Stream that will carry the service when it becomes active. The receiver is expected to use the channel_TSID to verify that any received Transport Stream is actually the desired multiplex. For analog channels (service_type 0x01), channel_TSID shall indicate the value of the analog TSID included in the VBI of the NTSC signal. Refer to Annex D Section 9 for a discussion on use of the analog TSID)
program_number 필드는 이 가상채널과 PMT와 관련되어 정의되는 정수값을 나타낸다(program_number - A 16-bit unsigned integer number that associates the virtual channel being defined here with the MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP tables. For virtual channels representing analog services, a value of 0xFFFF shall be specified for program_number. For inactive channels (those not currently present in the Transport Stream), program_number shall be set to zero. This number shall not be interpreted as pointing to a Program Map Table entry.)
ETM_location 필드는 ETM의 존재와 위치를 나타낸다 (ETM_location - This 2-bit field specifies the existence and the location of an Extended Text Message (ETM) and shall be as defined in Table 6.6.)
access_controlled 필드는 access control된 가상채널과 관련된 이벤트를 지칭할 수 있다(access_controlled - A 1-bit Boolean flag that indicates, when set, that the events associated with this virtual channel may be access controlled. When the flag is set to ‘0’, event access is not restricted)
hidden 필드는 가상채널이 사용자의 직접 채널 입력에 의해 access되지 않는 경우를 나타낼 수 있다(hidden - A 1-bit Boolean flag that indicates, when set, that the virtual channel is not accessed by the user by direct entry of the virtual channel number. Hidden virtual channels are skipped when the user is channel surfing, and appear as if undefined, if accessed by direct channel entry. Typical applications for hidden channels are test signals and NVOD services. Whether a hidden channel and its events may appear in EPG displays depends on the state of the hide_guide bit.)
hide_guide 필드는 가상채널과 그 이벤트가 EPG에 표시될 수 있는지를 나타낼 수 있다(hide_guide - A Boolean flag that indicates, when set to ‘0’ for a hidden channel, that the virtual channel and its events may appear in EPG displays. This bit shall be ignored for channels which do not have the hidden bit set, so that non-hidden channels and their events may always be included in EPG displays regardless of the state of the hide_guide bit. Typical applications for hidden channels with the hide_guide bit set to ‘1’ are test signals and services accessible through application-level pointers.)
service_type 필드는 서비스 타입 식별자를 나타낸다(service_type - This 6-bit field shall carry the Service Type identifier. Service Type and the associated service_type field are defined in A/53 Part 1 [1] to identify the type of service carried in this virtual channel. Value 0x00 shall be reserved. Value 0x01 shall represent analog television programming. Other values are defined in A/53 Part 3 [3], and other ATSC Standards may define other Service Types9)
source_id 필드는 가상채널과 관련된 프로그램 소스를 식별하는 식별번호이다(source_id - A 16-bit unsigned integer number that identifies the programming source associated with the virtual channel. In this context, a source is one specific source of video, text, data, or audio programming. Source ID value zero is reserved. Source ID values in the range 0x0001 to 0x0FFF shall be unique within the Transport Stream that carries the VCT, while values 0x1000 to 0xFFFF shall be unique at the regional level. Values for source_ids 0x1000 and above shall be issued and administered by a Registration Authority designated by the ATSC.)
descriptors_length 필드는 뒤 따르는 디스크립터의 길이를 나타낸다(descriptors_length - Total length (in bytes) of the descriptors for this virtual channel that follows)
descriptor() 에 디스크립터가 포함될 수 있다.(descriptor() - Zero or more descriptors, as appropriate, may be included.)
본 발명의 실시예들에 따라 비디오 서비스가 전송되는 경우, service_type 필드는 parameterized service(0x07) 또는 extended parameterized service(0x09) 또는 scalable UHDTV 서비스를 나타내는 필드값을 가질 수 있다.
그리고, 디스크립터 위치에 도 16에서 예시한 UHD_program_type_descriptor, 도 18, 도 24, 도 25에서 예시한 UHD_composition_descriptor가 위치할 수 있다.
다음으로 본 발명의 실시예들에 따라 비디오 데이터가 전송될 경우, 비디오 데이터의 신택스를 개시한다.
도 32는 본 발명의 실시예들에 따른 비디오 데이터의 SEI 영역의 패이로드에 대한 신택스를 예시한다.
SEI 패이로드에서 payloadType이 특정 값(이 예에서는 51)으로 셋팅되는 경우, 예시한 바와 같이 비디오 데이터의 포맷을 시그널링하는 정보(UHD_composition_info(payloadSize))를 포함할 수 있다.
UHD_program_format_type은 도 16에서 예시한 바와 같은데, 예를 들어, UHD_program_format_type가 0x01인 경우, 본 발명의 제 1 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 16:9 HD 비디오, 16:9 UHD 비디오, 및 21: 9 UHD 비디오와 16:9 UHD 비디오의 차이인 영역을 별도의 레이어 데이터를 이용하여 표출될 수 있는 비디오 포맷임을 나타낸다.
이 때 비디오 데이터는 UHD_composition_metadata값을 포함할 수 있다. 이 값은 도 18에서 예시한 바와 같다.
UHD_program_format_type가 0x02인 경우, 본 발명의 제 2 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 21:9 비디오 또는 16:9 비디오를 위한 크롭정보를 이용하여 표출될 수 있는 비디오 포맷임을 나타낸다.
이 때 비디오 데이터는 16_9_Extraction_Info_Metadata값을 포함할 수 있다. 이 값은 도 24에서 예시한 바와 같다.
UHD_program_format_type가 0x03인 경우, 본 발명의 제 3 실시예를 나타내는 것으로서, 전송되는 21:9의 UHD 비디오가, 16:9 비디오와 21:9 비디오를 위한 레터박스(AFDbar) 정보를 이용하여 표출되는 비디오 포맷임을 나타낸다.
이 때 비디오 데이터는 UHD_subtitle_position_info 값을 포함할 수 있다. 이 값은 도 25에서 예시한 바와 같다.
수신기의 비디오 디코더는 각각 위에서 예시한 UHDTV_composition_info SEI message의 파싱할 수 있다. UHDTV_composition_info ( )는 인코딩된 비디오 데이터 소스인 SEI RBSP (raw byte sequence payload)를 통해 수신된다.
비디오 디코더는 AVC 또는 HEVC NAL unit을 parsing 하여 nal_unit_type 값이 SEI 데이터에 해당하는 값인 경우 payloadType이 51인 UHDTV_composition_info SEI message를 읽는다.
그리고 이 도면에서 예시한 UHDTV_composition_info( )를 디코딩하여 현재 비디오 데이터에 대한 UHD_composition 정보, 16:9 extraction 정보, 또는 UHD_subtitle_position 정보를 얻을 수 있다. 비디오 데이터 영역의 정보를 이용해 수신기는 16:9 HD 및 UHD, 21:9 UHD 스트림의 구성 정보 등을 파악해 최종적으로 UHD 비디오를 출력할 수 있다.
따라서, 수신기는 시그널링 정보 영역과 비디오 데이터 영역으로부터 본 발명에서 개시하는 실시예에 따른 비디오 데이터들을 판단하고 그에 따라 비디오 포맷을 변환하여 수신기에 맞게 표출할 수 있다.
도 33은 본 발명의 실시예들에 따라 비디오 데이터가 전송될 경우, 적어도 1개 이상의 실시예에 따른 비디오 데이터를 디코딩하여 표출할 수 있는 수신장치의 일 예를 예시한 도면이다. 이 도면에서 비디오와 관련된 데이터는 A, B, D1, D2 및 E로 각각 나타낸다.
본 발명에 따른 신호 수신 장치의 일 예는 역다중화부(400), 시그널링정보처리부(500), 및 비디오디코더(600)를 포함할 수 있다.
역다중화부(400)는 본 발명의 실시예에 따른 비디오 스트림들과 시그널링 정보를 각각 역다중화할 수 있다. 예를 들어 비디오 스트림들은 도 2 내지 도 5에서 예시한 비디오를 전송하는 스트림들을 포함할 수 있다
시그널링정보처리부(500)는 도 16 내지 도 27, 도 29 내지 도 31에서 예시한 시그널링 정보 또는 수신기의 성능에 따라 그 일부를 디코딩할 수 있다. 예를 들어 시그널링정보처리부(500)는 도 18, 도 24, 및 도 25 중 적어도 하나의의 디스크립터의 시그널링 정보를 디코딩할 수 있다.
비디오디코더(600)는 시그널링정보처리부(500)가 처리한 시그널링 정보에 따라 역다중화부(400)가 역다중호한 비디오데이터를 복호할 수 있다. 이 경우 도 32에서 예시한 비디오데이터의 신택스에 따른 비디오데이터의 코딩 정보 또는 시그널링 정보를 이용하여 비디오데이터를 복호할 수 있다.
비디오디코더(600)는 제 1 디코더(610), 제 2 디코더(620), 및 제 3 디코더(630) 중 적어도 하나의 비디오디코더를 포함할 수 있다.
예를 들어 제 1 실시예에 따른다면 비디오디코더(600)는 제 1 디코더(610), 제 2 디코더(620), 및
제 3 디코더(630)를 포함할 수 있다.
제 1 디코더(610)는 역다중화된 16:9 HD 비디오를 복호하여 출력할 수 있다. 이 경우 제 1 디코더(610)는 도 32에서 예시한 코딩 정보(UHDTV_composition_info)를 디코딩할 수 있다. 제 1 디코더(610)가 디코딩한 비디오 데이터는 베이스 레이어 데이터인 16:9 HD 비디오 데이터(A)로 출력될 수 있다.
업스케일러(615)는 베이스 레이어 데이터인 16:9 HD 비디오 데이터를 업스케일링하여 21:9 비디오 데이터 출력한다.
제 2 디코더(620)는, 업스케일링된 베이스 레이어 데이터와 residual data를 이용하여 scalable decoding을 수행할 수 있다. 이 경우 제 2 디코더(620)는 도 32에서 예시한 코딩 정보(UHDTV_composition_info)를 디코딩할 수 있다. 제 2 디코더(620)가 디코딩한 비디오 데이터는, 제 2 enhancement layer 데이터인 16:9 UHD 비디오 데이터(B)를 출력될 수 있다.
제 3 디코더(630)는, 21:9 비디오 데이터에서 크롭된 데이터를 복호한 비디오 데이터(C)를 출력할 수 있다. 제 3 디코더(630)는, 16:9 UHD 비디오 데이터(B)와 연관되어 코딩 방식에 따라 디코딩을 수행할 수도 있다. 마찬가지로 이 경우 제 1 디코더(630)는 도 32에서 예시한 코딩 정보(UHDTV_composition_info)를 디코딩할 수 있다.
그리고, 머징부(640)는 제 2 디코더(620)가 출력하는 16:9 UHD 비디오 데이터(B)와 제 3 디코더(630)가 출력하는 크롭된 데이터를 머징(merge)하여 출력할 수 있다.
그리고, 필터부(640)는 비디오 중 머징된 부분에 대해 필터링을 수행할 수 있다. 필터링 방식은 도 13 및 수학식 1 내지 수학식 10에서 예시하였다.
도 34는 본 발명에 따른 신호 수신 방법의 일 실시예를 예시한 도면이다.
본 발명에 따른 신호 수신 방법의 일 실시예는, 비디오 스트림들과 시그널링 정보를 역다중화한다(S210).
비디오 스트림에 포함된 비디오 데이터는 실시예에 따라 다른 구조를 가질 수 있는데, 이 실시예는 도 2, 3 (제 1 실시예), 도 4(제 2 실시예), 도 5 내지 도 7 (제 3 실시예)에 따라 다를 수 있다. 예를 들어 수신된 비디오 데이터는 고해상도 비디오가 기존 화면비에 맞게 분할되어 전송되고 이를 다시 고해상도 비디오로 머징할 수 있는 데이터를 포함할 수 있다. 또는 수신된 비디오 데이터는 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함할 수 있거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
수신하는 신호가 방송 신호인 경우 도 16 내지 도 27, 도 29 내지 도 31에 예시한 시그널링 정보는 비디오 데이터와 별도로 역다중화될 수 있다.
수신하는 신호가 방송 신호인 경우 역다중화한 시그널링 정보를 디코딩한다(S220). 수신신호가 방송 신호가 아닌 경우 S220 단계는 생략되고 아래 비디오 데이터 디코딩 단계에서 비디오 데이터 내의 시그널링 정보를 디코딩한다. 방송 신호에 포함되어 역다중화된 시그널링 정보는, 각 실시예에 따라 도 16 내지 도 27, 도 29 내지 도 31에 예시한 정보들이 포함될 수 있는데 실시예에 따라 위 도면들에서 예시한 정보들이 디코딩될 수 있다. 시그널링 정보는 제 1 화면비의 고해상도 비디오 데이터를 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보를 포함할 수 있다. 예를 들어 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보는 고해상도 비디오 데이터의 화면비 제어 정보를 포함할 수 있다.
실시예에 따른 시그널링 정보에 따라 비디오 데이터를 디코딩한다(S230). 비디오 데이터에는 도 32에서 예시한 비디오데이터 신택스에 따른 코딩 정보를 포함하는 비디오 데이터 정보가 포함될 수 있다. 비디오 데이터를 복호하는 경우 실시예에 따라 해당 비디오 데이터를 복호한 대로 출력하거나, 머징하거나 또는 자막을 배치하여 출력할 수 있다. 시그널링 정보는, 수신된 비디오 데이터는 고해상도 비디오가 기존 화면비에 맞게 분할되어 전송된 경우 이를 다시 고해상도 비디오로 머징할 수 있는 데이터를 포함할 수 있다. 또는 시그널링정보는, 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함할 수 있거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
즉, 수신기는 화면 제어 정보를 이용하여 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 따라 변경하여 표출하도록 할 수 있다.
제 1 실시예에 따르면 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함할 수 있다. 제 2 실시예에 따르면 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함할 수 있다. 그리고 제 3 실시예에 따르면 상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함할 수 있다.
따라서 송신기에서 각 실시예에 따라 비디오 데이터를 전송하는 경우, 수신기 디스플레이 장치의 화면비가 여러 종류이거나, 성능이 여러 가지인 경우라도 각각 해당 디스플레이의 화면비에 따라 고해상도 비디오를 표출하거나, 또는 자막을 표출할 수 있다. 또한 기존의 수신기라도 고해상도 비디오 데이터를 그 수신기의 화면비에 따라 표출할 수 있다.
도 35은 본 발명에 따른 신호 송신 장치의 일 실시예를 예시한 도면이다.
신호 송신 장치의 일 실시예는, 인코더(510), 시그널링정보생성부(520), 및 다중화부(530)를 포함할 수 있다.
인코더(510)는 비디오 데이터를 인코딩한다. 비디오 데이터를 인코딩하는 경우, 본 발명의 실시예에 따라 비디오 데이터의 인코딩 정보를 인코딩된 비디오 데이터에 포함시킬 수 있다. 인코딩된 비디오 데이터에 포함될 수 있는 인코딩 정보는 도 32에서 상세히 기술하였다.
인코딩된 비디오 데이터는 개시한 실시예에 따라 다른 구조를 가질 수 있는데, 이 실시예는 도 2, 3 (제 1 실시예), 도 4(제 2 실시예), 도 5 내지 도 7 (제 3 실시예)에 따라 다를 수 있다.
예를 들어 인코딩된 비디오 데이터는 고해상도 비디오가 기존 화면비에 맞게 분할된 구조이고 분할된 비디오 데이터가 이를 다시 고해상도 비디오로 머징할 수 있는 정보를 포함할 수 있다. 또는 인코딩된 비디오 데이터는 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함하거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
전송 신호가 방송 신호인 경우 신호 송신 장치의 일 실시예는 인코더(510)와 별개로 시그널링정보생성부(520)를 포함한다. 시그널링정보생성부(520)는 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성한다. 시그널링 정보의 예는 각 실시예에 따라 도 16 내지 도 27, 도 29 내지 도 31에 예시한 정보들이 포함될 수 있는데 실시예에 따라서 도면들에서 예시한 정보들이 생성될 수 있다. 시그널링 정보는 제 1 화면비의 고해상도 비디오 데이터를 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보를 포함할 수 있다. 예를 들어 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보는 고해상도 비디오 데이터의 화면비 제어 정보를 포함할 수 있다.
다중화부(530)는 인코딩된 비디오 데이터와 시그널링 정보를 다중하고 다중화된 비디오 데이터와 시그널링 정보를 전송한다.
송신기가 각 실시예에 따라 비디오 데이터를 전송하는 경우, 수신기 디스플레이 장치의 화면비가 여러 종류이거나, 성능이 여러 가지인 경우라도 각각 해당 디스플레이의 화면비에 따라 고해상도 비디오를 표출하거나, 또는 자막을 표출할 수 있다. 또한 기존의 수신기라도 고해상도 비디오 데이터를 그 수신기의 화면비에 따라 표출할 수 있다.
전송 데이터가 방송 신호가 아닌 경우에는 비디오 데이터와 다중화되는 시그널링 정보의 생성하는 시그널링정보생성부(520)는 생략되고, 다중화부(530)는 인코더(510)가 인코딩한 비디오 데이터 영역 내에 시그널링 정보만 포함한 비디오 데이터와 다른 데이터(예를 들어 오디오 데이터)를 다중화하여 출력한다.
도 36은 본 발명에 따른 신호 수신 장치의 일 실시예를 예시한 도면이다.
신호 수신 장치의 일 실시예는 역다중화부(610), 시그널링정보복호부(620), 및 비디오디코더(630)를 포함할 수 있다.
역다중화부(610)는 비디오 스트림들과 시그널링 정보를 역다중화한다.
비디오 스트림에 포함된 비디오 데이터는 실시예에 따라 다른 구조를 가질 수 있는데, 이 실시예는 도 2, 3 (제 1 실시예), 도 4(제 2 실시예), 도 5 내지 도 7 (제 3 실시예)에 따라 다를 수 있다. 예를 들어 수신된 비디오 데이터는 고해상도 비디오가 기존 화면비에 맞게 분할되어 전송되고 이를 다시 고해상도 비디오로 머징할 수 있는 데이터를 포함할 수 있다. 또는 수신된 비디오 데이터는 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함할 수 있거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
시그널링정보복호부(620)는 역다중화한 시그널링 정보를 디코딩한다. 역다중화된 시그널링 정보는, 각 실시예에 따라 도 16 내지 도 27, 도 29 내지 도 31에 예시한 정보들이 포함될 수 있는데 실시예에 따라 위 도면들에서 예시한 정보들이 디코딩될 수 있다. 시그널링 정보는 제 1 화면비의 고해상도 비디오 데이터를 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보를 포함할 수 있다. 예를 들어 수신기에 화면비에 상관없이 표출할 수 있는 시그널링 정보는 고해상도 비디오 데이터의 화면비 제어 정보를 포함할 수 있다.
비디오디코더(630)는 실시예에 따른 시그널링 정보에 따라 비디오 데이터를 디코딩한다. 비디오 데이터에는 도 32에서 예시한 비디오데이터 신택스에 따른 코딩 정보를 포함하는 비디오 데이터 정보가 포함될 수 있다. 비디오 데이터를 복호하는 경우 실시예에 따라 해당 비디오 데이터를 복호한 대로 출력하거나, 머징하거나 또는 자막을 배치하여 출력할 수 있다.
화면비 제어 정보는, 수신된 고해상도 비디오가 기존 화면비에 맞게 분할되어 전송된 경우 이를 다시 고해상도 비디오로 머징할 수 있는 데이터를 포함할 수 있다. 또는 시그널링정보는, 고해상도 비디오 데이터를 수신기의 화면비에 맞게 분할할 수 있는 정보를 포함할 수 있거나, 자막 정보를 배치하기 위한 레터박스 (예를 들어 AFD bar)의 위치정보를 포함할 수도 있다.
따라서 송신기에서 각 실시예에 따라 비디오 데이터를 전송하는 경우, 수신기 디스플레이 장치의 화면비가 여러 종류이거나, 성능이 여러 가지인 경우라도 각각 해당 디스플레이의 화면비에 따라 고해상도 비디오를 표출하거나, 또는 자막을 표출할 수 있다. 또한 기존의 수신기라도 고해상도 비디오 데이터를 화면비 제어 정보에 따라 그 수신기의 화면비에 따라 표출할 수 있다.
발명의 실시를 위한 형태는 위의 발명의 실시를 위한 최선의 형태에서 함께 기술되었다.
본원 발명은 방송 및 비디오 신호 처리 분야에서 사용 가능하고 반복 가능성이 있는 산업상 이용가능성이 있다.

Claims (15)

  1. 비디오 데이터를 인코딩하는 단계;
    상기 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성하는 단계, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 상관없이 표출하도록 하는 화면비 제어 정보를 포함하고;
    상기 인코딩된 비디오 데이터와 상기 시그널링 정보를 다중하고 상기 다중화된 비디오 데이터와 시그널링 정보를 전송하는 단계를 포함하는, 신호 송신 방법.
  2. 제 1항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함하는 신호 송신 방법.
  3. 제 1항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함하는 신호 송신 방법.
  4. 제 1항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함하는 신호 송신 방법.
  5. 비디오 데이터를 인코딩하는 인코더;
    상기 인코딩된 비디오 데이터를 수신기의 화면비에 맞게 디스플레이할 수 있는 시그널링 정보를 생성하는 시그널링정보생성부, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를 수신기의 화면비에 상관없이 표출하도록 하는 화면비 제어 정보를 포함하고;
    상기 인코딩된 비디오 데이터와 상기 시그널링 정보를 다중화하는 다중화부를 포함하는, 신호 송신 장치.
  6. 제 5항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함하는 신호 송신 장치.
  7. 제 5항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함하는 신호 송신 장치.
  8. 제 5항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함하는 신호 송신 장치.
  9. 비디오 스트림들과 시그널링 정보를 역다중화하는 역다중화부;
    상기 역다중화된 시그널링 정보를 복호하는 시그널링정보복호부, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를, 수신기의 화면비에 따라 비디오 포맷을 변경하여 표출하도록 하는 화면비 제어 정보를 포함하고;
    상기 역다중화된 비디오 스트림을 상기 복호한 시그널링 정보에 따라 복호하여 비디오디코더;를 포함하는 신호 수신 장치.
  10. 제 9항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함하는 신호 수신 장치.
  11. 제 9항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함하는 신호 수신 장치.
  12. 제 9항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터에 따른 비디오의 해상도에 따라 상기 비디오의 자막 위치를 변경하도록 하는 자막 배치를 위한 위치정보를 포함하는 신호 수신 장치.
  13. 비디오 스트림들과 시그널링 정보를 역다중화하는 단계;
    상기 역다중화된 시그널링 정보를 복호하는 단계, 여기서 상기 시그널링 정보는, 제 1 화면비의 고해상도 비디오 데이터를, 수신기의 화면비에 따라 비디오 포맷을 변경하여 표출하도록 하는 화면비 제어 정보를 포함하고;
    상기 역다중화된 비디오 스트림을 상기 복호한 시그널링 정보에 따라 복호하는 단계;를 포함하는 신호 수신 방법.
  14. 제 13항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터가 분할되어 전송됨을 나타내고 상기 분할된 비디오 데이터를 머징하는 머징 정보를 포함하는 신호 수신 방법.
  15. 제 13항에 있어서,
    상기 화면비 제어 정보는, 상기 인코딩된 비디오 데이터를 화면비에 맞게 분할할 수 있는 분할 정보를 포함하는 신호 수신 방법.
PCT/KR2013/010014 2012-11-07 2013-11-06 신호 송수신 장치 및 신호 송수신 방법 WO2014073853A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA2877454A CA2877454C (en) 2012-11-07 2013-11-06 Apparatus for transceiving signals and method for transceiving signals
EP13852554.8A EP2919470B1 (en) 2012-11-07 2013-11-06 Apparatus for transreceiving signals and method for transreceiving signals
US14/408,226 US9894407B2 (en) 2012-11-07 2013-11-06 Apparatus for transreceiving signals and method for transreceiving signals
JP2015521560A JP6055093B2 (ja) 2012-11-07 2013-11-06 信号送受信装置及び信号送受信方法
CN201380058263.1A CN104769953B (zh) 2012-11-07 2013-11-06 用于收发信号的装置和用于收发信号的方法
KR1020147035074A KR102094892B1 (ko) 2012-11-07 2013-11-06 신호 송수신 장치 및 신호 송수신 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261723771P 2012-11-07 2012-11-07
US61/723,771 2012-11-07

Publications (1)

Publication Number Publication Date
WO2014073853A1 true WO2014073853A1 (ko) 2014-05-15

Family

ID=50684890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010014 WO2014073853A1 (ko) 2012-11-07 2013-11-06 신호 송수신 장치 및 신호 송수신 방법

Country Status (7)

Country Link
US (1) US9894407B2 (ko)
EP (1) EP2919470B1 (ko)
JP (1) JP6055093B2 (ko)
KR (1) KR102094892B1 (ko)
CN (1) CN104769953B (ko)
CA (1) CA2877454C (ko)
WO (1) WO2014073853A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189364A1 (en) * 2013-12-26 2015-07-02 Sony Corporation Signal switching apparatus and method for controlling operation thereof
WO2016126749A1 (en) * 2015-02-05 2016-08-11 Microsoft Technology Licensing, Llc Video decoding
WO2016163603A1 (ko) * 2015-04-05 2016-10-13 엘지전자 주식회사 Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8560719B2 (en) * 2011-09-14 2013-10-15 Mobitv, Inc. Fragment server directed device fragment caching
US9668015B2 (en) * 2012-11-28 2017-05-30 Sony Corporation Using extra space on ultra high definition display presenting high definition video
JP6420067B2 (ja) * 2014-06-11 2018-11-07 マクセル株式会社 放送受信装置
WO2017073397A1 (ja) * 2015-10-28 2017-05-04 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
TWI728061B (zh) * 2016-03-15 2021-05-21 日商新力股份有限公司 送訊裝置及收訊裝置
KR102478426B1 (ko) 2018-03-16 2022-12-16 삼성전자주식회사 동영상 콘텐트에 포함된 블랙 영역을 검출하기 위한 방법 및 그 전자 장치
US11032345B2 (en) * 2018-05-10 2021-06-08 Microsoft Technology Licensing, Llc Client side data stream processing
US20200322656A1 (en) * 2019-04-02 2020-10-08 Nbcuniversal Media, Llc Systems and methods for fast channel changing
CN112997239B (zh) * 2019-08-12 2023-04-18 京东方科技集团股份有限公司 栅极驱动方法、栅极驱动电路和显示装置
CN112419999A (zh) * 2019-08-21 2021-02-26 京东方科技集团股份有限公司 图像处理方法、装置、内容分享方法和终端设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980035441U (ko) * 1996-12-12 1998-09-15 박병재 팬 클램프
KR20070052584A (ko) * 2005-11-17 2007-05-22 엘지전자 주식회사 외부 디스플레이 연결을 지원하는 방송형 휴대단말기 및시스템 그리고 그 방법
KR20070120304A (ko) * 2006-06-19 2007-12-24 삼성전자주식회사 수평확장이 가능한 영상재생장치 및 방법
KR20080008071A (ko) * 2006-07-19 2008-01-23 엘지전자 주식회사 영상표시장치 및 그의 동작 방법
US20080181582A1 (en) * 2001-08-04 2008-07-31 Samsung Electronics Co., Ltd. Method and apparatus for recording and reproducing video data, and information storage medium in which video data is recorded by the same

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3771954B2 (ja) * 1995-08-04 2006-05-10 ソニー株式会社 画像表示制御装置および方法
KR100217178B1 (ko) 1996-11-13 1999-09-01 윤종용 화면자동 확대장치
US6788347B1 (en) * 1997-03-12 2004-09-07 Matsushita Electric Industrial Co., Ltd. HDTV downconversion system
US7020195B1 (en) * 1999-12-10 2006-03-28 Microsoft Corporation Layered coding and decoding of image data
KR20040047554A (ko) * 2002-11-27 2004-06-05 삼성전자주식회사 화면 종횡비 변환에 적응하여 폰트를 제어해서 인터렉티브컨텐츠를 재생하는 장치 및 그 방법
EP1741295A1 (en) * 2004-04-30 2007-01-10 British Broadcasting Corporation Media content and enhancement data delivery
JP3761559B1 (ja) * 2004-10-05 2006-03-29 株式会社ソニー・コンピュータエンタテインメント 画像出力方法
CN101204092B (zh) * 2005-02-18 2010-11-03 汤姆森许可贸易公司 从低分辨率图像导出高分辨率图像的编码信息的方法以及实施所述方法的编码和解码设备
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
US8319891B2 (en) * 2006-08-09 2012-11-27 Panasonic Corporation Video display device displaying input videos in various screen modes and/or aspect ratios
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
US20090238479A1 (en) * 2008-03-20 2009-09-24 Pawan Jaggi Flexible frame based energy efficient multimedia processor architecture and method
KR101527387B1 (ko) 2009-03-09 2015-06-09 삼성전자 주식회사 디스플레이장치 및 그 제어방법
US20120076204A1 (en) * 2010-09-23 2012-03-29 Qualcomm Incorporated Method and apparatus for scalable multimedia broadcast using a multi-carrier communication system
US9113172B2 (en) * 2011-01-14 2015-08-18 Vidyo, Inc. Techniques for describing temporal coding structure

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980035441U (ko) * 1996-12-12 1998-09-15 박병재 팬 클램프
US20080181582A1 (en) * 2001-08-04 2008-07-31 Samsung Electronics Co., Ltd. Method and apparatus for recording and reproducing video data, and information storage medium in which video data is recorded by the same
KR20070052584A (ko) * 2005-11-17 2007-05-22 엘지전자 주식회사 외부 디스플레이 연결을 지원하는 방송형 휴대단말기 및시스템 그리고 그 방법
KR20070120304A (ko) * 2006-06-19 2007-12-24 삼성전자주식회사 수평확장이 가능한 영상재생장치 및 방법
KR20080008071A (ko) * 2006-07-19 2008-01-23 엘지전자 주식회사 영상표시장치 및 그의 동작 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150189364A1 (en) * 2013-12-26 2015-07-02 Sony Corporation Signal switching apparatus and method for controlling operation thereof
US9549221B2 (en) * 2013-12-26 2017-01-17 Sony Corporation Signal switching apparatus and method for controlling operation thereof
WO2016126749A1 (en) * 2015-02-05 2016-08-11 Microsoft Technology Licensing, Llc Video decoding
CN107211167A (zh) * 2015-02-05 2017-09-26 微软技术许可有限责任公司 视频解码
WO2016163603A1 (ko) * 2015-04-05 2016-10-13 엘지전자 주식회사 Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치
US10595099B2 (en) 2015-04-05 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal for broadcast service on basis of XML subtitle

Also Published As

Publication number Publication date
EP2919470B1 (en) 2020-01-01
KR102094892B1 (ko) 2020-03-30
CA2877454C (en) 2017-10-03
CA2877454A1 (en) 2014-05-15
EP2919470A4 (en) 2016-06-01
JP6055093B2 (ja) 2016-12-27
JP2015526038A (ja) 2015-09-07
KR20150083427A (ko) 2015-07-17
EP2919470A1 (en) 2015-09-16
US9894407B2 (en) 2018-02-13
US20150124888A1 (en) 2015-05-07
CN104769953B (zh) 2018-09-25
CN104769953A (zh) 2015-07-08

Similar Documents

Publication Publication Date Title
WO2014073853A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2014073927A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015076616A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015126144A1 (ko) 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치
WO2014084564A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015152635A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2014025213A1 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015072754A1 (ko) Hdr 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2011021822A2 (en) Method and apparatus for processing signal for three-dimensional reproduction of additional data
WO2012023789A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2012036532A2 (en) Method and apparatus for processing a broadcast signal for 3d (3-dimensional) broadcast service
WO2011059290A2 (en) Method and apparatus for generating multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information, and method and apparatus for receiving multimedia stream for adjusitng depth of 3-dimensional additional video reproduction information
WO2016204481A1 (ko) 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
WO2011093677A2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
WO2011122914A2 (ko) 2차원 컨텐트와 3차원 컨텐트를 제공하기 위한 디지털 방송 컨텐트 전송 방법 및 그 장치, 디지털 방송 컨텐트 수신 방법 및 그 장치
WO2009125961A1 (en) Method of transmitting and receiving broadcasting signal and apparatus for receiving broadcasting signal
WO2010071283A1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
WO2012030158A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
WO2015034306A1 (ko) 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2012077987A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2016024794A1 (ko) 방송신호 전송방법, 방송신호 수신방법, 방송신호 전송장치, 방송신호 수신장치
WO2015080414A1 (ko) 트릭 플레이 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2015065037A1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2016018066A1 (ko) 방송신호 전송방법, 방송신호 수신방법, 방송신호 전송장치, 방송신호 수신장치
WO2012030176A2 (ko) 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13852554

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20147035074

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14408226

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2877454

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2015521560

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013852554

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE