WO2012070716A1 - 디지털 방송에서 서비스 호환 방식 전송 방법 - Google Patents

디지털 방송에서 서비스 호환 방식 전송 방법 Download PDF

Info

Publication number
WO2012070716A1
WO2012070716A1 PCT/KR2011/000362 KR2011000362W WO2012070716A1 WO 2012070716 A1 WO2012070716 A1 WO 2012070716A1 KR 2011000362 W KR2011000362 W KR 2011000362W WO 2012070716 A1 WO2012070716 A1 WO 2012070716A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
broadcasting
information
service
video
Prior art date
Application number
PCT/KR2011/000362
Other languages
English (en)
French (fr)
Inventor
최병호
신화선
김재곤
이병탁
장의덕
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to CA2818932A priority Critical patent/CA2818932C/en
Priority to MX2013005885A priority patent/MX2013005885A/es
Priority to US13/989,678 priority patent/US8928733B2/en
Publication of WO2012070716A1 publication Critical patent/WO2012070716A1/ko
Priority to US14/104,868 priority patent/US9204124B2/en
Priority to US14/919,101 priority patent/US9635344B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23608Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/007Aspects relating to detection of stereoscopic image format, e.g. for adaptation to the display format

Definitions

  • the present invention relates to a service compatible method of 3D stereoscopic digital broadcasting in a broadcast MPEG-2 TS (Transport Stream) format used for transmitting and receiving digital TV.
  • MPEG-2 TS Transport Stream
  • ATSC North American Advanced Television Systems Committee
  • ATSC is the committee or standards for developing digital television broadcasting standards in the United States.
  • the ATSC standard is currently determined by the national standards of the United States, Canada, Mexico, and Korea, and other countries, including several countries in South America, intend to make it the standard.
  • digital broadcasting standards include DVB developed in Europe and ISDB in Japan.
  • the ATSC digital broadcast standard which can transmit high-quality video, audio and auxiliary data, is capable of transmitting data at a terrestrial broadcast rate of 19.39Mbps for 6MHz terrestrial broadcast channels and about 38Mbps for cable TV channels.
  • the video compression technology used in the ATSC method uses the ISO / IEC 13818-2 MPEG-2 video standard, and the compression format uses MPEG-2 MP @ HL, that is, the Main Profile and High Level standards. The format and restrictions are defined.
  • the following describes the transmission modes available for performing a new broadcast while maintaining compatibility with existing broadcast channels such as 3D stereoscopic broadcast, UHD TV broadcast, and multiview broadcast in the MPEG-2 TS format for broadcasting and receiving digital TV. Let's look at it.
  • 3D stereoscopic broadcasting, UHD TV broadcasting, and multiview broadcasting will be collectively referred to as composite video broadcasting.
  • composite video broadcasting As a transmission mode usable in the MPEG-2 TS format, a frame compatible mode and a service compatible mode are distinguished. As such, when two transmission modes are used in digital broadcasting, there is a need for a receiver to recognize a transmission mode used by a transmitter.
  • An object of the present invention is to propose a method for transmitting detailed information of 3D broadcasting.
  • Another object of the present invention is to propose a method of transmitting detailed information of a service compatibility scheme among transmission modes of 3D broadcasting.
  • Another problem to be solved by the present invention is to propose a method for transmitting detailed information supporting both a TS level multiplexing method and an ES level multiplexing method when multiplexing left and right compressed bitstreams when implementing a service compatibility scheme.
  • the detailed information transmission scheme of the present invention proposes a detailed information transmission scheme that supports both a TS-level multiplexing scheme and an ES-level multiplexing scheme when multiplexing left and right compressed bitstreams.
  • the detailed information transmission scheme proposes a method of transmitting detailed information supporting both a TS-level multiplexing method and an ES-level multiplexing method when multiplexing left and right compressed bitstreams when implementing a service compatible method during 3D broadcasting. .
  • FIG. 1 illustrates a frame compatibility mode according to an embodiment of the present invention.
  • FIG. 2 illustrates a service compatibility mode according to an embodiment of the present invention.
  • FIG. 3 illustrates a multiplexing method of a TS level and a multiplexing method of an ES level according to an embodiment of the present invention.
  • FIG. 4 illustrates a structure of a program map table (PMT) syntax according to an embodiment of the present invention.
  • PMT program map table
  • FIG. 5 illustrates a service_compatible_stereoscopic_video_descriptor according to an embodiment of the present invention.
  • FIG. 6 illustrates a stereoscopic_stream_descriptor according to an embodiment of the present invention.
  • FIG 7 illustrates MPEG2_video_3d_frame_frame_packing_arrangement_descriptor according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a process of performing multiplexing in a service compatibility mode according to an embodiment of the present invention.
  • FIG. 9 illustrates a process of separating bit strings of left and right images when MVC bit string assembling is performed in an ES-level bit string multiplexing method according to an embodiment of the present invention.
  • digital broadcasting is classified into 3D stereoscopic broadcasting, ultra high definition (UHD) TV broadcasting, and multi-view broadcasting.
  • HD broadcasting transmits two screens
  • 3D stereoscopic broadcasting transmits two screens
  • UHD broadcasting includes four screens (4k)
  • multiview broadcasting includes two or more screens.
  • a packet identifier (PID: Packet Identifier) in MPEG2-TS is assigned to the left and right images to transmit a 3D stereoscopic image in stereo format, and multiplexed transmission is performed.
  • PID Packet Identifier
  • UHD video generally has a number of horizontal and vertical pixels of 4000 (4k ⁇ 3840x2160) to 8000 (8k ⁇ 7680x4320).
  • UHD video is four times clearer than HD (2k, 1920x1080) on a 4k scale, given that the screen resolution depends on the number of pixels called pixels. Compared to 8k, the difference is up to 16 times in sharpness. Even at the refresh rate, or frames per second, HD is 30 HD, while 60Hz is 60 screens per second, so you can enjoy a much more natural and dynamic picture.
  • Multi-view broadcasting can be viewed as a 3D stereoscopic image by combining two images from different angles up, down, left, and right according to the viewing angle of the viewer. If the television is equipped with a multi-view display, when the actor appears on the screen, the person on the left sees the actor's left face, and the person on the right sees the actor's right face in 3D stereoscopic image. In other words, it is an advanced form of 3D stereoscopic broadcasting.
  • the present invention proposes a transmission and reception standard for an appropriate transmission mode when performing a new broadcast while maintaining compatibility with an existing broadcast channel when using any one of 3D stereoscopic broadcasting, UHD TV broadcasting, and multiview broadcasting. .
  • FIG. 1A illustrates a frame compatibility mode
  • FIG. 1B illustrates an example of a method of synthesizing an image to configure a frame compatibility mode.
  • 1A and 1B are both examples of 3D stereoscopic broadcasting, and UHD broadcasting and multiview broadcasting may be extended in a similar manner.
  • a frame compatibility mode will be described in detail with reference to FIGS. 1A and 1B.
  • the frame compatibility mode transmits one frame in which left and right images are combined in one transmission band. Therefore, it is possible to maintain the same transmission / reception form as that used by conventional HD broadcasting.
  • the previous HD broadcast transmits the video over the entire area
  • the broadcast in frame compatibility mode transmits the synthesized video by the number of images. That is, as illustrated in FIG. 1B, the left image and the right image may be synthesized in one frame in various ways. As shown in FIG. 2B (a), half of a frame may be divided and synthesized, or as shown in FIG. 1B (b), the pixels may be divided and synthesized. Alternatively, as shown in FIG.
  • the frame may be transmitted by alternating left and right images in chronological order.
  • a process of reducing each image is necessary since the number of images is synthesized in one frame.
  • You may need to increase or adjust the bitrate of the video compression.
  • synthesize images As shown in the example of FIG. 1B, in the case of the 3D stereoscopic image, the left image and the right image may be changed or may be mixed in units of diagonal pixels.
  • 2 shows a service compatibility mode.
  • the service compatibility mode will be described in detail with reference to FIG. 2.
  • 2 is a diagram illustrating 3D stereoscopic broadcasting, and UHD broadcasting and multiview broadcasting may be extended in a similar manner.
  • the left image frame and the right image frame are separately compressed and transmitted in one transmission band instead of image synthesis. That is, as shown in FIG. 2, the left image frame and the right image frame are compressed using respective compression schemes, and the compressed left image frame and the right image frame are transmitted through one transmission band.
  • one image is compressed to be compatible with existing HD broadcasting, while the other image is encoded and transmitted with a better compression scheme.
  • one image of the left image and the right image is transmitted at high resolution, and the other image is transmitted using the low resolution.
  • the left image is encoded and transmitted in the MPEG-2 Main profile
  • the right image is encoded and transmitted in the MPEG-4 AVC / H.264 High profile.
  • the left video transmits the video stream at a resolution of 1080i @ 60Hz and the right video transmits the video stream at a resolution of 720p @ 60Hz by the above-described encoding method.
  • the left image is left as it is, the right image is subsampled in the vertical or horizontal direction, and the receiver generates one stereo image after restoring the sampled right image by the resolution of the left image.
  • the transmission mode of the composite broadcast is divided into a frame compatibility mode and a service compatibility mode, and a transmitter uses one of two transmission modes.
  • the compressed image is transmitted to the receiving end.
  • the receiving end should recognize the transmission mode used by the transmitting end in order to decode the received compressed image.
  • a conventional broadcast reception system that cannot process a composite video, only the primary view should be reproduced, ignoring the secondary view of the received composite video. As a result, it is possible to selectively receive a composite broadcast while maintaining compatibility with existing broadcast channels.
  • FIG. 3 illustrates a left and right image multiplexing method used in a service compatibility mode according to an embodiment of the present invention.
  • the left and right image multiplexing method used in the service compatibility mode according to an embodiment of the present invention will be described with reference to FIG. 3.
  • the multiplexing method used in the service compatibility mode is divided into a TS level multiplexing method and an ES level multiplexing method.
  • the TS-level multiplexing method assigns different PIDs to a packetized elementary stream (PES) that packetizes an elementary stream (ES) of left and right video, and needs to specify a PID of the reference video. . That is, as shown in FIG. 3, it can be seen that different PIDs are allocated to the left image and the right image, respectively.
  • PES packetized elementary stream
  • ES elementary stream
  • the ES-level multiplexing method is a method in which a bitstream (ES), which compresses left and right images, is merged into one elementary stream (ES) and transmitted using one PID. Therefore, the ES-level multiplexing method needs a method of distinguishing a bitstream of a compressed left and right video from one elementary stream (ES).
  • ES bitstream
  • a byte offset may be used. That is, according to FIG. 3, one PID is assigned to the left image and the right image, and an example of describing an offset for distinguishing the left image and the right image is illustrated.
  • the ES-level multiplexing method combines the compressed bit strings of the left and right images into one compressed bit string (ES), and allocates and transmits one PID to the packetized PES.
  • ES compressed bit string
  • a description is needed for de-assembling or bitstream extraction. For example, use MVC bitstream assembling. Or, additional syntax such as Byte Offset for separating two images is required. 9 and 10 illustrate the separation process and the combination and separation when using MVC bitstream combining.
  • identification information for recognizing reception of a 3D image in a reception system capable of processing a 3D image is included in system information and received.
  • PSI / PSIP Program Specific Information / Program and System Information Protocol
  • PSIP Program Specific Information / Program and System Information Protocol
  • a protocol for transmitting system information in a table format may be applicable to the present invention regardless of its name.
  • PSI is a system standard of MPEG-2 defined for classifying channels and programs
  • PSIP is an Advanced Television Systems Committee (ATSC) standard for classifying channels and programs.
  • ATSC Advanced Television Systems Committee
  • the PSI may include, as an example, a Program Association Table (PAT), a Conditional Access Table (CAT), a Program Map Table (PMT), and a Network Information Table (NIT).
  • PAT Program Association Table
  • CAT Conditional Access Table
  • PMT Program Map Table
  • NIT Network Information Table
  • PAT is special information transmitted by a packet having a PID of '0', and transmits PID information of a corresponding PMT and PID information of a NIT for each program.
  • the CAT transmits information about the pay broadcasting system used on the transmitting side.
  • the PMT transmits the program identification number, PID information of a transport stream packet to which individual bit streams such as video and audio constituting the program are transmitted, and PID information to which PCR is delivered.
  • NIT transmits the information of the actual transmission network. For example, a PAT table with a PID of 0 is parsed to find a program number and a PID of a PMT. When the PMT obtained from the PAT is parsed, the correlation between the components constituting the program can be known.
  • FIG. 4 illustrates a structure of a program map table (PMT) syntax according to an embodiment of the present invention.
  • PMT program map table
  • the table_id field is a table identifier, and an identifier for identifying the PMT may be set.
  • the section_syntax_indicator field is an indicator that defines the section format of the PMT.
  • the section_length field represents a section length of the PMT.
  • the program_number field indicates information of a program as information corresponding to the PAT.
  • the version_number field represents a version number of the PMT.
  • the current_next_indicator field is an identifier indicating whether the current table section is applicable.
  • the section_number field indicates the section number of the current PMT section when the PMT is transmitted divided into one or more sections.
  • the last_section_number field represents the last section number of the PMT.
  • the PCR_PID field indicates a PID of a packet carrying a program clock reference (PCR) of a current program.
  • the program_info_length field represents descriptor length information immediately following the program_info_length field in number of bytes. That is, the length of the descriptors included in the first loop.
  • the stream_type field indicates the type and encoding information of the element stream included in the packet having the PID value indicated by the following elementary_PID field.
  • the elementary_PID field represents an identifier of the element stream, that is, a PID value of a packet including the corresponding element stream.
  • the ES_Info_length field represents descriptor length information immediately after the ES_Info_length field in number of bytes. That is, the length of the descriptors included in the second loop.
  • the descriptor related to the composite information about the left and right images for the specific program number is present in the descriptor following the program_info_length syntax.
  • descriptors related to the left and right image individual ESs are present in descriptors following the ES_info_length syntax.
  • the composition information related descriptor for the left and right images is defined as service_compatible_stereoscopic_video_descriptor ().
  • Information related to the frame packing arrangement has described MPEG2_video_3d-frame_packing_arrangement_descriptor () defined in the frame compatibility scheme.
  • the MPEG2_video_3d_frame_frame_packing_arrangement_descriptor () position may be specified at the descriptor position under ES_info_length rather than the current position.
  • the PID and the descriptor need to exist together.
  • the descriptor related to the left and right images individual ES is defined by stereoscopic_stream_descriptor ().
  • the positions of these descriptors are directly expressed in the syntax, but it is noted that they are actually included in a form selectively like the conventional descriptors.
  • FIG. 4 first constructs a composition related descriptor for left and right images for a specific program number, and then configures descriptors related to individual ESs. But it is not limited thereto. That is, as described above, as the position of MPEG2_video_3d_frame_frame_packing_arrangement_descriptor () may be changed, the position of the descriptor in FIG. 4 may vary depending on the situation.
  • Table 1 below illustrates the strip type shown in FIG.
  • FIG. 5 illustrates a service_compatible_stereoscopic_video_descriptor according to an embodiment of the present invention.
  • service_compatible_stereoscopic_video_descriptor according to an embodiment of the present invention will be described in detail with reference to FIG. 5.
  • the service_compatible_stereoscopic_video_descriptor is a composite information related descriptor for the left and right images, and includes contents such as the resolution of the left and right images, sub-view restriction, whether the GOP structure is aligned, and whether the ES level multiplexing method is used.
  • FIG. 5A shows an example of not using a PID
  • FIG. 5B shows an example of using a PID.
  • Resolution_Conversion_flag is 1, the Primary_Conversion_Type and Secondary_Conversion_Type syntaxes are present. If 0, the resolution_Conversion_flag means that the resolution of the left and right images is the same.
  • Primary_Conversion_Type is the split content compared to the original video of the main video as shown in Table 2 below. However, the values and contents of Table 2 are exemplified and may be changed, reduced, or determined as necessary.
  • Secondary_Conversion_Type is the content of segmentation compared to the original image of the sub-image as shown in Table 3.
  • Allowance_of_Secondary_View_Presentation_flag 1
  • Alignment_of_GOP_Structure_flag of 1 means that the GOP structures of the left and right images match, and if they do not match, it is signaled that additional processing for synchronization during presentation is required according to the GOP structure.
  • the synchronization between the left and right images is basically implemented by the PTS, but is intended to help the necessary processing in advance by signaling to the receiver. For example, the overall delay is adjusted to the image having the larger delay among the left and right images.
  • ES_level_composition_flag 1
  • Primary_PID_flag is a flag that exists only in the TS level multiplexing scheme. If it is 1, it means that there is a Primary_PID syntax. Otherwise, stereoscopic_stream_descriptor () exists to identify the PID of the main image.
  • Primary_PID may determine the main image among the PIDs included in the PMT by specifying the PID of the main image.
  • Right_Is_Primary_flag is a flag present only in the TS level multiplexing scheme. If Right_Is_Primary_flag is present, if 1, the main image is the right image, otherwise the left image is the main image.
  • the stereoscopic_stream_descriptor does not exist and the main image and the left image can be discriminated with one descriptor.
  • Left_PID may be informed in a similar manner, and Right_Is_Primary_flag may be designated, and the like, without departing from the spirit of the present invention.
  • stereoscopic_stream_descriptor may be present to determine whether the primary image and the right image are present for each image.
  • the stereoscopic_stream_descriptor is an information related descriptor related to the left and right image individual ESs, and serves to specify whether the current ES is the primary view in the stereoscopic image.
  • each ES is described, and in the case of an ES-level composition mode, one ES is described. Therefore, this descriptor considers both of them.
  • Primary_flag if set to 1, means that the current ES is the primary view. If only the primary image is played, the primary image must be played.
  • left_flag is set to 1, it means that the current ES is a bit string of the left image.
  • Frist_Primary_flag When Frist_Primary_flag is set to 1, when two video bit streams are assembling (interleaving) in an arbitrary unit at ES-level, it signals that the first part is a bit stream corresponding to the main picture.
  • First_Left_flag when set to 1, signals that the first part is a bit string corresponding to the left image when two video bit strings are assembling (interleaving) in an arbitrary unit at the ES-level.
  • Information related to the frame packing arrangement uses MPEG2_video_3d_frame_frame_packing_arrangement_descriptor () defined in the frame compatibility mode, and semantics may be the same as the content defined in the frame compatibility mode.
  • FIG. 8 is a flowchart illustrating a process of performing multiplexing in a service compatibility mode according to an embodiment of the present invention.
  • a process of performing multiplexing in the service compatibility mode according to an embodiment of the present invention will be described with reference to FIG. 8.
  • step S800 the PMT length is checked by section_length.
  • Step S802 reads a syntax including program_number.
  • step S804 the descriptor length is checked by program_info_length.
  • Step S806 checks whether all descriptors related to program info have been read. If all are read, go to step S820 via A. If not, go to step S808 and read one descriptor related to program info.
  • step S810 it is determined whether the service_compatible_stereoscopic_video_decriptor is used. If it is service_compatible_stereoscopic_video_decriptor, it moves to step S812. If it is not service_compatible_stereoscopic_video_decriptor, it moves to step S806.
  • Step S812 analyzes the synthesis information related to the left and right images by reading a syntax including the ES_level_composition_flag.
  • step S814 the ES_level_compatible_flag is set. If ES_level_compatible_flag is set, go to step S816; otherwise, go to step S818.
  • Step S816 activates the ES level multiplexing structure mode
  • step S818 activates the TS level multiplexing structure mode.
  • step S820 confirm that all PMTs have been read. If all have been read, the process moves to step S842. If all have not been read, the process moves to step S822. Step S822 reads stream_type and elementary_PID.
  • step S824 the descriptor length is checked by ES_info_length.
  • Step S826 checks whether all ES info related descriptors have been read. If all have been read, go to step S820, and if not all, go to step S828.
  • Step S828 reads one descriptor related to ES info and moves to step S830.
  • step S830 it is determined whether the stereoscopic_stream_descriptor is used. If it is stereoscopic_stream_descriptor, it moves to step S834. If it is not stereoscopic_stream_descriptor, it moves to step S838.
  • Step S838 reads First_Primary_flag and First_Left_flag, and in step S842, it is determined whether the video data located at the head of the data corresponding to the current element_PID corresponds to the main video and the left video.
  • step S842 the CRC_32 is read and a data error is verified.
  • FIG. 9 is a flowchart illustrating a process of separating bit strings of an ES level multiplexing scheme.
  • a process of performing bit string separation of an ES level multiplexing scheme in a service compatibility mode according to an embodiment of the present invention will be described with reference to FIG. 9.
  • the following procedure assumes that the bit strings are mixed left and right, and one of ordinary skill in the art will understand that the bit strings may be mixed right and left.
  • Step S900 parses the PMT.
  • Step S901 parses service_compatible_stereoscopic_video_descriptor () in the PMT.
  • step S902 the ES_level_composition_flag is checked to determine whether the ES level is multiplexed.
  • the step S903 checks the MVC_bitstream_assembling_flag and checks whether the bitstream assembling method (defined in the stereo_high_profile or the multiview_high_profile) of the bitstream corresponds to the ES level multiplexing method of the bitstream.
  • Step S904 parses stereosopic_stream_descriptor () in the PMT.
  • Step S905 checks First_Primary_flag.
  • Step S906 checks First_Left_flag.
  • Step S907 detects one AU from the received mixed bit stream.
  • step S908 whether the left image of the data at the head of the data is checked from First_Left_flag identified in step S906.
  • Step S909 determines whether the AU detected in step S907 is an odd-numbered AU. If the odd AU goes to step S910, the even AU goes to step S911.
  • steps S910 and S911 the corresponding AU is divided into a left image bit or a right image bit string using the information determined from step S909.
  • step S912 it is determined whether all the AUs have been read, and if all of the AUs have been read, the process moves to step S913.
  • step S913 whether the left image of the data at the head of the data is checked from First_Primary_flag identified in step S906. If First_Primary_flag is 1, the process moves to step S914, and if 0, the process moves to step S915.
  • Steps S914 and S915 determine which bit string of each bit string is the main image using the primary information determined from step S913.
  • FIG. 10 is a diagram illustrating a bit string separation method according to the MVC Bitstream Extraction method corresponding to S907 to S912 of FIG. 9.
  • Receiving the mixed left and right bit stream, as shown in Figure 9 is assembling in one AU unit, since it is possible to know whether the first AU is the main image or the left image, the view_id present in the NAL header by parsing the NAL header. Even without checking anchor_pic_flag, the bit strings of the left and right images can be separated as shown in FIG. 10.
  • the present invention is not limited to 3D stereoscopic broadcast but reveals that it is a technology that can be applied to both complex broadcasting such as UHD TV broadcasting and multi-view broadcasting.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

디지털 TV 송출 및 수신에 사용하는 방송용 MPEG-2-TS 포맷에서 3D 입체형 디지털 방송의 서비스 호환 방식에 관한 것이다. 이를 위해 본 발명은 서비스 호환 방식을 구현할 경우, 좌우 압축 비트스트림을 다중화할 때 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 모두 지원하는 세부 정보 전송 방안을 제안한다.

Description

디지털 방송에서 서비스 호환 방식 전송 방법
본 발명은 디지털 TV 송출 및 수신에 사용하는 방송용 MPEG-2 TS(Transport Stream) 포맷에서 3D 입체형 디지털 방송의 서비스 호환 방식에 관한 것이다.
우리나라는 1997년 11월 지상파 디지털 방송방식으로 8-VSB 방식인 북미의 ATSC(Advanced Television Systems Committee) 규격을 선정한 이후, 관련 핵심 기술 개발, 필드테스트, 시험방송을 진행하였고, 2001년 이후로 기존 아날로그 방송과 디지털 방송이 동시에 방송되고 있지만, 2012년에는 디지털 방송으로 전환을 완료하게 된다.
ATSC는 미국의 디지털 텔레비전 방송 표준을 개발하는 위원회 혹은 그 표준을 말한다. ATSC의 표준은 현재 미국, 캐나다, 멕시코, 한국의 국가 표준으로 결정되어 있고, 남미의 여러 국가를 포함한 다른 나라들이 표준으로 삼으려 하고 있다. 디지털 방송의 표준에는 ATSC 이외에 유럽에서 개발된 DVB, 일본의 ISDB 등이 있다.
고품질의 비디오, 오디오 및 보조 데이터를 전송할 수 있는 ATSC 디지털 방송 표준은 지상파의 경우, 6MHz의 지상파 방송 채널은 19.39Mbps 데이터 전송률, 케이블 TV 채널은 약 38Mbps 데이터 전송률로 데이터를 전송할 수 있다. ATSC 방식에서 사용하는 비디오 압축 기술은 ISO/IEC 13818-2 MPEG-2 비디오 규격을 사용하고 있으며, 압축 형식으로 MPEG-2 MP@HL, 즉 Main Profile과 High Level 규격을 사용하고 있으며, 이와 관련된 비디오 형식 및 제한 사항에 대해 정의하고 있다.
이하에서는 디지털 TV 송출 및 수신에 사용하는 방송용 MPEG-2 TS 포맷에서 3D 입체형 방송, UHD TV 방송, 멀티뷰 방송 등 기존 방송 채널과 호환성을 유지하면서 새로운 방송을 수행할 때 사용 가능한 전송모드에 대해 알아보기로 한다. 이하에서는 3D 입체형 방송, UHD TV 방송, 멀티뷰 방송을 통칭하여 복합 영상 방송이라 칭하기로 한다. MPEG-2 TS 포맷에서 사용 가능한 전송모드로서, 프레임 호환 모드(Frame-Compatible Mode)와 서비스 호환 모드(Service-Compatible Mode) 구분된다. 이와 같이 디지털 방송에서 두 개의 전송 모드를 사용하는 경우, 수신단은 송신단에서 사용한 전송 모드를 인지할 필요성이 대두된다.
본 발명이 해결하려는 과제는 3D 방송의 세부 정보를 전송하는 방안을 제안함에 있다.
본 발명이 해결하려는 다른 과제는 3D 방송의 전송 모드 중 서비스 호환 방식의 세부 정보를 전송하는 방안을 제안함에 있다.
본 발명이 해결하려는 또 다른 과제는 서비스 호환 방식을 구현할 경우, 좌우 압축 비트스트림을 다중화할 때 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 모두 지원하는 세부 정보 전송 방안을 제안함에 있다.
이를 위해 본 발명의 세부 정보 전송 방안은 서비스 호환 방식을 구현할 경우, 좌우 압축 비트스트림을 다중화할 때 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 모두 지원하는 세부 정보 전송 방안을 제안한다.
본 발명에 따른 세부 정보 전송 방안은 3D 방송 중 서비스 호환 방식을 구현할 경우, 좌우 압축 비트스트림을 다중화할 때 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 모두 지원하는 세부 정보를 전송 방안을 제안한다.
본 발명에 따른 세부 정보 전송 방안에 따라 3D 방송을 수행하면 기존 방송 시스템을 사용하여 기존 방송과도 호환성을 유지되면서도 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 비롯한 다양한 서비스 호환 모드 환경에 따른 효율적인 방송 송출 및 수신을 구현할 수 있다.
도 1은 본 발명의 일실시 예에 따른 프레임 호환 모드를 도시하고 있으며,
도 2는 본 발명의 일실시 예에 따른 서비스 호환 모드를 도시하고 있으며,
도 3은 본 발명의 일실시 예에 따른 서비스 호환 모드의 TS 수준의 다중화 방식과 ES 수준의 다중화 방식을 도시하고 있으며,
도 4는 본 발명의 일실시 예에 따른 프로그램 맵 테이블(program map table: PMT) 신택스의 구조를 도시하고 있으며,
도 5는 본 발명의 일실시 예에 따른 service_compatible_stereoscopic_video_descriptor를 도시하고 있으며,
도 6은 본 발명의 일실시 예에 따른 stereoscopic_stream_descriptor를 도시하고 있으며,
도 7은 본 발명의 일실시 예에 따른 MPEG2_video_3d_frame_frame_packing_arrangement_descriptor를 도시하고 있으며,
도 8은 본 발명의 일실시 예에 따른 서비스 호환 모드에서 다중화를 수행하는 과정을 도시한 흐름도이며,
도 9는 본 발명의 일실시 예에 따른 ES 수준의 비트열 다중화 방식에서 MVC 비트열 결합(assembling) 방법을 따를 때 좌우 영상의 비트열을 분리하는 과정을 도시하고 있으며,
도 10은 MVC 비트열 결합(assembling) 및 분리(de-assembling)를 도시한 것이다.
[부호의 설명]
도 2: 프레임 호환 모드 도 3: 서비스 호환 모드
전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명의 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.
먼저 디지털 방송의 종류에 대해 알아보기로 한다. 일반적으로 디지털 방송은 3D 입체형 방송, UHD(Ultra High Definition) TV 방송, 멀티뷰(Multi-view) 방송으로 구분된다.
HD 방송은 하나의 화면을 전송하는 대신 3D 입체형 방송은 2개의 화면을 전송하며, UHD 방송은 4개의 화면(4k의 경우), 멀티뷰 방송은 2개 이상의 화면으로 구성된다.
3D 입체형 방송은 스테레오 형태의 3차원 입체영상을 전송하기 위해 좌,우 영상에 대해 각각 MPEG2-TS에서의 패킷 식별자(PID:Packet Identifier)를 하나씩 부여하여 다중화 전송하는 방법이 있다. UHD 영상은 일반적으로 가로와 세로 픽셀 수가 4000(4k·3840x2160)∼8000급(8k·7680x4320)에 육박한다. 화면 해상도는 픽셀로 불리는 화소 수가 좌우한다고 볼 때 UHD 영상은 4k 기준으로 HD(2k·1920x1080)와 비교해 4배나 더 선명하다. 8k에 비교하면 선명도 면에서 16배까지 차이 난다. 화면 주사율, 즉 초당 프레임 수에서도 HD가 30㎐인데 반해 60㎐로 1초당 화면 60장을 전송해 훨씬 자연스러우면서 역동적인 화면을 즐길 수 있다.
멀티 뷰 방송은 시청자의 시야각에 따라 상·하/좌·우, 서로 다른 각도에서의 영상을 두 개 결합하여 3D 입체 영상으로 시청할 수 있다. 텔레비전에 멀티 뷰 표시장치를 구비할 경우, 화면에 배우가 나올 때 왼편에 있는 사람은 배우의 왼쪽 얼굴을 보게 되고, 오른편에 있는 사람은 배우의 오른쪽 얼굴을 3D 입체 영상으로 보게 된다. 즉, 3D 입체형 방송의 진보한 형태다.
본 발명은 3D 입체형 방송, UHD TV 방송, 멀티뷰 방송 중 어느 하나의 방송 방식을 사용하는 경우 기존 방송 채널과 호환성을 유지하면서 새로운 방송을 수행할 때 적절한 전송 모드에 관한 송출 및 수신 규격을 제안한다.
이하 상술한 전송 모드 중 프레임 호환 모드(Frame-Compatible Mode)에 대해 알아본 후 서비스 호환 모드(Service-Compatible Mode)에 대해 알아보기로 한다.
도 1a는 프레임 호환 모드를 도시하고 있고, 도 1b는 프레임 호환 모드를 구성하기 위해 영상을 합성하는 방법의 대한 예를 도시한 것이다. 이하 도 1a와 도 1b는 모두 3D 입체형 방송의 예를 들어 도시한 것이고 UHD 방송과 멀티뷰 방송도 유사한 방식으로 확장할 수 있다. 도 1a와 도 1b를 이용하여 프레임 호환 모드에 대해 상세하게 알아보기로 한다.
도 1b에 의하면 프레임 호환 모드는 하나의 전송대역에 좌우영상이 합쳐진 하나의 프레임을 전송한다. 따라서 종전의 HD 방송이 사용하는 방식과 동일한 송수신 형태를 유지할 수 있다. 다만 종전의 HD 방송은 전체 영역에 비디오를 전송한 반면, 프레임 호환 모드의 방송은 영상의 개수만큼 합성된 영상을 전송한다는 점이 다르다. 즉, 도 1b에 도시되어 있는 바와 같이 좌영상과 우영상을 다양한 방식으로 하나의 프레임에 합성할 수 있다. 도 2b(a)와 같이 프레임의 절반을 분할하여 합성할 수도 있고, 도 1b(b)와 같이 픽셀 단위로 분할하여 합성할 수도 있다. 또는 도 1b(c)와 같이 프레임은 유지한 채 시간 순으로 좌우 영상을 번갈아 가면 전송할 수 있다. 도 1b의 (a), (b) 경우 하나의 프레임에 영상의 개수만큼 합성하므로 각 영상을 축소하는 과정이 필요하며, 도 1b(c)의 경우 프레임율(frame-rate)가 증가하게 되어 대역폭을 늘리거나 비디오 압축의 비트율(bitrate)을 조절해야 한다. 영상을 합성하는 방법은 다양한 형태로 존재한다. 도 1b의 예와 같이 3D 입체형 영상의 경우 좌영상과 우영상이 바뀌거나 대각선 형태의 픽셀 단위로 혼합시킬 수도 있다.
3D 입체형 방송을 일례로 들면, 이와 같이 하나의 전송대역을 이용하여 좌영상과 우영상을 모두 전송하기 때문에 하나의 영상 프레임을 전송하는 경우에 비해 전송하는 영상의 해상도는 1/2로 줄어들게 되므로 화질은 떨어진다 (도 1b의 (a), (b) 경우). 또는 동일한 대역폭에 더 많은 데이터를 전송해야 하기 때문에 압축율을 늘려 화질이 떨어지거나 프레임율이 떨어지게 된다 (도 1b(c) 경우).
도 2는 서비스 호환 모드를 도시하고 있다. 이하 도 2를 이용하여 서비스 호환 모드에 대해 상세하게 알아보기로 한다. 도 2는 3D 입체형 방송을 기준으로 도시한 것이고 UHD 방송과 멀티뷰 방송도 유사한 방식으로 확장할 수 있다.
도 2에 의하면 서비스 호환 모드는 하나의 전송대역에 좌영상 프레임과 우영상 프레임을 영상 합성이 아닌 별도로 압축하여 전송한다. 즉, 도 2에 도시되어 있는 바와 같이 좌영상 프레임과 우영상 프레임을 각각의 압축 방식으로 압축하고, 압축한 좌영상 프레임과 우영상 프레임을 하나의 전송대역으로 전송한다. 한정된 전송대역에 두 개 이상의 압축된 영상을 전송하기 위해 한 쪽 영상은 기존 HD 방송과 호환할 수 있도록 압축하는 반면, 다른 쪽 영상은 보다 압축율을 좋은 압축 방식으로 부호화하여 전송한다. 또는 좌영상과 우영상 중 하나의 영상은 고 해상도 전송하며, 나머지 하나의 영상은 저 해상도를 이용하여 전송한다. 일례로 좌영상은 MPEG-2 Main profile로 부호화하여 전송하며, 우영상은 MPEG-4 AVC/H.264 High profile로 부호화하여 전송한다. 추가적으로 저해상도를 사용하는 경우, 상술한 부호화 방식에 의해 좌영상은 1080i@60Hz의 해상도로 영상 스트림을 전송하며, 우영상은 720p@60Hz의 해상도로 영상 스트림을 전송한다. 부가하여 설명하면 좌 영상은 그대로, 우 영상은 수직 또는 수평 방향으로 서브 샘플링하고, 수신부에서는 샘플링한 우 영상을 좌 영상의 해상도 만큼 복원시킨 후 하나의 스테레오 영상을 만든다.
이와 같이 디지털 방송에서 기존 방송 채널과 호환성을 유지하면서 새로운 방송을 수행할 때 복합 방송의 전송 모드는 프레임 호환 모드와 서비스 호환 모드로 구분되며, 송신단은 두 개의 전송 모드 중 어느 하나의 모드를 이용하여 압축된 영상을 수신단으로 전송한다. 수신단은 수신한 압축 영상을 복호화하기 위해서는 송신단에서 사용한 전송 모드를 인지하여야 한다. 그리고 복합 영상을 처리할 수 없는 기존의 방송 수신 시스템에서는 수신되는 송신된 복합 영상 중 부 영상(Secondary View)을 무시하고 주 영상(Primary View)만을 재생할 수 있어야 한다. 이로써 기존 방송 채널과 호환성을 유지하면서 선택적으로 복합 방송을 수신할 수 있게 된다.
도 3은 본 발명의 일실시 예에 따른 서비스 호환 모드에서 사용하는 좌우 영상 다중화 방식을 도시하고 있다. 이하 도 3을 이용하여 본 발명의 일실시 예에 따른 서비스 호환 모드에서 사용하는 좌우 영상 다중화 방식에 대해 알아보기로 한다.
도 3에 의하면 서비스 호환 모드에서 사용하는 다중화 방식은 TS 수준의 다중화 방식과 ES 수준의 다중화 방식으로 구분된다.
TS 수준의 다중화 방식은 좌우 영상의 기본 스트림(ES: Elementary Stream)을 패킷화한 패킷 스트림(PES:Packetized Elementary Stream)에 대해 다른 PID를 할당하는 방식으로, 기준 영상의 PID를 명시할 필요가 있다. 즉, 도 3에 도시되어 있는 바와 같이 좌 영상과 우 영상은 각각 서로 다른 PID가 할당되어 있음을 알 수 있다.
이에 비해 ES 수준의 다중화 방식은 좌우 영상을 각각 압축한 비트스트림(ES)를 하나의 기본 스트림(ES)로 병합한 상태로 하나의 PID를 이용하여 전송하는 방식이다. 따라서 ES 수준의 다중화 방식은 하나의 기본 스트림(ES)로부터 좌영상과 우영상을 압축한 비트스트림을 구분할 수 있는 방법이 필요하다. 한 예로 바이트 오프셋(Byte Offset)을 이용할 수 있다. 즉 도 3에 의하면, 좌영상과 우영상은 하나의 PID를 할당되어 있으며, 좌영상과 우영상을 구분하기 오프셋을 기재한 일예를 보이고 있다. 즉, ES 수준의 다중화 방식은 좌우 영상의 압축 비트열을 하나의 압축 비트열(ES)로 결합(assembling)하고 이를 패킷화한 PES에 하나의 PID를 할당하여 전송하는 방식으로, 수신기에서 좌우 영상의 압축 비트열로 분리(de-assembling or bitstream extraction)하기 위한 기재가 필요하다. 일예로 MVC bitstream assembling 사용한다. 또는 두 영상을 분리하기 위한 Byte Offset 등의 추가적인 구문(syntax) 명시가 필요하다. 도 9와 도 10은 MVC 비트스트림 결합을 사용하는 경우 이에 대한 분리과정 및 결합과 분리를 도시한 것이다.
본 발명은 3D 영상을 처리할 수 있는 수신 시스템에서 3D 영상의 수신을 인식할 수 있도록 하기 위한 식별 정보가 시스템 정보에 포함되어 수신되는 것을 일 실시예로 한다. 시스템 정보로서 PSI/PSIP(Program Specific Information/Program and System Information Protocol)을 적용하나 본 발명은 이에 한정하는 것은 아니다. 즉 시스템 정보를 테이블 포맷으로 전송하는 프로토콜이라면 그 명칭에 상관없이 본 발명에 적용 가능할 것이다.
PSI는 채널 및 프로그램을 분류하기 위해 정의된 MPEG-2의 시스템 규격이고, PSIP는 채널 및 프로그램의 분류가 가능한 ATSC(Advanced Television Systems Committee) 규격이다.
PSI는 일 실시예로서, PAT(Program Association Table), CAT(Conditional Access Table), PMT(Program Map Table), 및 NIT(Network Information Table)를 포함할 수 있다.
PAT는 PID가 '0'인 패킷에 의해 전송되는 특수 정보로서, 각 프로그램마다 해당 PMT의 PID 정보와 NIT의 PID 정보를 전송한다. CAT는 송신측에서 사용하고 있는 유료 방송 시스템에 대한 정보를 전송한다. PMT는 프로그램 식별 번호와 프로그램을 구성하는 비디오, 오디오 등의 개별 비트 스트림이 전송되는 트랜스포트 스트림 패킷의 PID 정보, 및 PCR이 전달되는 PID 정보를 전송한다. NIT는 실제 전송망의 정보를 전송한다. 예를 들어, PID가 0인 PAT 테이블을 파싱하여 프로그램 번호(Program number)와 PMT의 PID를 알아낸다. 그리고 상기 PAT로부터 얻어낸 PMT를 파싱하면 프로그램을 구성하는 구성 요소들 간의 상관관계를 알 수 있다.
도 4는 본 발명의 일실시 예에 따른 프로그램 맵 테이블(program map table: PMT) 신택스의 구조를 도시하고 있다. 이하 도 4를 이용하여 본 발명의 일실시 예에 따른 PMT 신택스의 구조에 대해 상세하게 알아보기로 한다.
도 4에서 table_id 필드는 테이블 식별자로서, PMT를 식별하는 식별자가 설정될 수 있다. section_syntax_indicator 필드는 PMT의 섹션 형식을 정의하는 지시자이다. section_length 필드는 PMT의 섹션 길이를 나타낸다.
program_number 필드는 PAT와 일치하는 정보로서 프로그램의 번호가 표시된다. version_number 필드는 PMT의 버전 번호를 나타낸다. current_next_indicator 필드는 현재 테이블 섹션이 적용가능한지 여부를 나타내는 인식자이다.
section_number 필드는 PMT가 하나 이상의 섹션으로 구분되어 전송될 경우, 현재 PMT 섹션의 섹션 번호를 나타낸다. last_section_number 필드는 PMT의 마지막 섹션 번호를 나타낸다. PCR_PID 필드는 현재 프로그램의 PCR(program clock reference)를 전달하는 패킷의 PID를 표시한다.
program_info_length 필드는 program_info_length 필드의 바로 뒤에 나오는 디스크립터(descriptor) 길이 정보를 바이트 수로 나타낸다. 즉, 첫 번째 루프에 포함되는 디스크립터들의 길이를 나타낸다. stream_type 필드는 다음에 오는 elementary_PID 필드에서 표시된 PID 값을 갖는 패킷에 들어있는 요소 스트림의 종류 및 부호화 정보를 표시한다. elementary_PID 필드는 상기 요소 스트림의 식별자 즉, 해당 요소 스트림이 포함되는 패킷의 PID 값을 나타낸다. ES_Info_length 필드는 ES_Info_length 필드의 바로 뒤에 있는 디스크립터(descriptor) 길이 정보를 바이트 수로 나타낸다. 즉, 두 번째 루프에 포함되는 디스크립터들의 길이를 나타낸다.
또한, 도 4에 의하면 특정 프로그램 번호(program number)에 대한 좌우 영상에 대한 합성 정보 관련 디스크립터 즉, 전송 모드에 관련된 디스크립터는 program_info_length 구문 다음에 이어지는 디스크립터에 존재한다. 또한 좌우 영상 개별 ES와 관련된 디스크립터는 ES_info_length 구문 다음에 이어지는 디스크립터에 존재한다. 도 4에 의하면, 좌우 영상에 대한 합성 정보 관련 디스크립터는 service_compatible_stereoscopic_video_descriptor()로 정의하고 있다. frame packing arrangement와 관련된 정보는 프레임 호환 방식에서 정의한 MPEG2_video_3d-frame_packing_arrangement_descriptor()을 기술하였다. 단, MPEG2_video_3d_frame_frame_packing_arrangement_descriptor() 위치는 현 위치가 아닌 ES_info_length 아래 디스크립터 위치에 지정될 수 있다. 프레임 호환 모드의 경우 1개의 비디오 PID이므로, 그 PID와 디스크립터가 함께 존재하면 되기 때문이다. 좌우 영상 개별 ES와 관련된 디스크립터는 stereoscopic_stream_descriptor()로 정의하였다. 단, 도 4에서 이들 디스크립터의 위치를 표기하기 위해 구문 내에 직접 표기하였으나, 실제로는 종전의 디스크립터처럼 선택적으로 포함되는 형태임을 알려둔다.
도 4는 특정 프로그램 번호에 대한 좌우 영상에 대한 합성 정보 관련 디스크립터를 먼저 구성한 후 좌우 영상 개별 ES와 관련된 디스크립터는 구성하고 있다. 하지만 이에 한정되는 것은 아니다. 즉, 전술한 바와 같이 MPEG2_video_3d_frame_frame_packing_arrangement_descriptor()의 위치가 가변될 수 있듯이 도 4에서 디스크립터의 위치는 상황에 따라 가변될 수 있다.
하기 표 1은 도 4에 도시되어 있는 스트립타입을 예시한 것이다.
[표 1]
Figure PCTKR2011000362-appb-I000001
도 5는 본 발명의 일실시 예에 따른 service_compatible_stereoscopic_video_descriptor를 도시하고 있다. 이하 도 5를 이용하여 본 발명의 일실시 예에 따른 service_compatible_stereoscopic_video_descriptor에 대해 상세하게 알아보기로 한다.
상술한 바와 같이 service_compatible_stereoscopic_video_descriptor는 좌우 영상에 대한 합성 정보 관련 디스크립터로서 좌우 영상의 해상도, 부 영상 시청 제한, GOP 구조 정렬 여부, ES 수준의 다중화 방식 사용 여부 등의 내용을 포함하고 있다. 특히 도 5a는 PID를 사용하지 않는 예를 나타내고 있으며, 도 5b는 PID를 사용하는 예를 도시하고 있다.
이하 먼저 도 5a를 이용하여 PID를 사용하지 않는 예에 대해 먼저 알아보기로 한다.
Resolution_Conversion_flag는 1이면 Primary_Conversion_Type과 Secondary_Conversion_Type 구문이 존재하는 것을 의미하며, 0이면 좌우 영상의 해상도가 동일한 것을 의미한다.
Primary_Conversion_Type는 주 영상의 원본 영상 대비 분할 내용으로 하기 표 2와 같다. 단, 표 2의 값과 내용은 예시된 것으로 필요에 따라 변경, 축소 또는 확정 정의될 수 있다.
[표 2]
Figure PCTKR2011000362-appb-I000002
Secondary_Conversion_Type은 부 영상의 원본 영상 대비 분할 내용으로 표 3과 같다.
Allowance_of_Secondary_View_Presentation_flag는 1이면 부 영상을 2D 서비스로 독립적으로 화면에 출력 가능 하다는 것을 의미한다. 주 영상(Primary View)은 항상 2D 서비스로 독립적으로 화면 출력이 허용된 반면 부 영상(Secondary View)을 2D로 출력하는 것은 애플리케이션에 따라 금지 또는 허용될 수 있다.
Alignment_of_GOP_Structure_flag는 1이면 좌우 영상의 GOP 구조가 일치함을 의미하며, 일치하지 않는 경우 GOP 구조에 따라 presentation 시 동기를 위한 추가적인 처리가 필요함을 시그널링하고자 한다. 물론 좌우 영상간의 동기화는 기본적으로 PTS에 의해서 구현되지만 수신기에 시그널링함으로써 미리 필요한 처리를 하는데 도움을 주고자 한다. 일예로 좌우 영상 중 지연이 더 큰 영상에 전체 지연이 맞춰진다.
ES_level_composition_flag는 1이면 ES 수준의 다중화 방식을 사용하였음을 의미하며, 0인 경우 TS 수준의 다중화 방식을 사용함을 의미한다.
이하 도 5b를 이용하여 PID를 사용하는 예에 대해 알아보기로 한다. 단, 도 5a를 통해 설명된 구문 외의 구문만 추가적으로 설명한다.
Primary_PID_flag는 TS 수준 다중화 방식의 경우에만 존재하는 플래그로서, 만약 1이면 Primary_PID 구문이 존재함을 의미하며, 그렇지 않으면 stereoscopic_stream_descriptor()가 존재하여 주 영상의 PID를 확인할 수 있다.
Primary_PID는 주 영상의 PID를 명시하여 PMT 내 포함된 PID 중 주 영상을 판단할 수 있다.
Right_Is_Primary_flag는 TS 수준 다중화 방식의 경우에만 존재하는 플래그로서, 만약 1이면 주 영상이 우 영상임을 의미하며, 그렇지 않으면 좌 영상이 주 영상임을 의미한다.
이렇게 주 영상 여부와 좌 영상 여부 정보를 service_compatible_stereoscopic_video_descriptor에서 알려줌으로써 stereoscopic_stream_descriptor가 존재하지 않고 하나의 디스크립터로 주 영상과 좌 영상 여부를 판별할 수 있다. 아울러 유사한 방법으로 Left_PID를 알려주고, Right_Is_Primary_flag를 지정하는 방식 등이 가능하며, 모두 본 발명의 취지에 벗어나지 않는다.
Primary_PID와 Right_Is_Primary_flag를 사용하는 경우에 대해, stereoscopic_stream_descriptor가 존재하여 각 영상에 대해 주 영상과 우 영상 여부를 판별할 수도 있다.
도 6은 본 발명의 일실시 예에 따른 stereoscopic_stream_descriptor를 도시하고 있다. 상술한 바와 같이 stereoscopic_stream_descriptor는 좌우 영상 개별 ES와 관련된 정보 관련 디스크립터로서, 현재 ES가 입체 영상에서 주 영상(Primary View)인지 명시하는 역할을 한다.
TS 수준의 다중화 방식(TS-level composition mode)인 경우 각각의 ES에 대해 기술하고, ES 수준의 다중화 방식(ES-level composition mode)의 경우 하나의 ES에 대해 기술한다. 따라서 본 descriptor는 이들 두 가지를 모두 고려한다.
Primary_flag는 1로 설정된 경우 현재 ES가 주 영상 (Primary View)임을 의미하며, 주 영상만 재생하는 경우 반드시 주 영상을 재생해야 한다.
Left_flag는 1로 설정된 경우 현재 ES가 좌 영상의 비트열임을 의미한다.
Frist_Primary_flag는 1로 설정된 경우, ES-level에서 두 영상 비트열이 임의의 단위로 assembling (interleaving)되어 있을 경우 첫 번째 파트가 주 영상에 해당하는 비트열임을 시그널링한다.
First_Left_flag는 1로 설정된 경우, ES-level에서 두 영상 비트열이 임의의 단위로 assembling (interleaving)되어 있을 경우 첫 번째 파트가 좌 영상에 해당하는 비트열임을 시그널링한다.
필요에 따라 주 영상 여부 또는 좌 영상 여부를 표기하는 대신, 부 영상 여부 또는 우 영상 여부 등을 표기할 수 있으며, 모두 본 발명의 취지에 벗어나지 않는다.
도 7은 MPEG2_video_3d_frame_frame_packing_arrangement_descriptor를 도시하고 있다.
Frame packing arrangement와 관련된 정보는 프레임 호환 모드에서 정의한 MPEG2_video_3d_frame_frame_packing_arrangement_descriptor()를 사용하고, semantics도 프레임 호환 모드에서 정의한 내용과 동일할 수 있다.
도 8은 본 발명의 일실시 예에 따른 서비스 호환 모드에서 다중화를 수행하는 과정을 도시한 흐름도이다. 이하 도 8을 이용하여 본 발명의 일실시 예에 따른 서비스 호환 모드에서 다중화를 수행하는 과정에 대해 알아보기로 한다.
S800단계는 section_length로 PMT 길이를 확인한다.
S802단계는 program_number를 포함한 syntax를 읽는다.
S804단계는 program_info_length로 descriptor 길이를 확인한다.
S806단계는 program info 관련 descriptor를 모두 읽었는지 확인한다. 모두 읽었으면 A를 경유하여 S820단계 이동하고, 모두 읽지 않았으면 S808단계로 이동하여 program info와 관련된 하나의 descriptor를 읽는다.
S810단계는 service_compatible_stereoscopic_video_decriptor인지 확인한다. service_compatible_stereoscopic_video_decriptor이면 S812단계로 이동하고, service_compatible_stereoscopic_video_decriptor이 아니면 S806단계로 이동한다.
S812단계는 ES_level_composition_flag를 포함한 syntax읽어 좌우 영상과 관련된 합성 정보를 분석한다.
S814단계는 ES_level_compatible_flag가 설정되어 있는지 확인한다. ES_level_compatible_flag가 설정되어 있으면, S816단계로 이동하고, 설정되어 있지 않으면 S818단계로 이동한다.
S816단계는 ES 수준 다중화 구조 모드를 활성화하며, S818단계는 TS 수준 다중화 구조 모드를 활성화한다.
S820단계에서 PMT를 모두 읽었는지 확인한다. 모두 읽었으면 S842단계로 이동하고, 모두 읽지 않았으면 S822단계로 이동한다. S822단계는 stream_type과 elementary_PID를 읽는다.
S824단계는 ES_info_length로 descriptor 길이를 확인한다.
S826단계는 ES info 관련 descriptor을 모두 읽었는지 확인한다. 모두 읽었으면 S820단계로 이동하고, 모두 읽지 않았으면 S828단계로 이동한다.
S828단계는 ES info와 관련된 하나의 descriptor를 읽고 S830단계로 이동한다.
S830단계는 stereoscopic_stream_descriptor인지 확인한다. stereoscopic_stream_descriptor이면 S834단계로 이동하고, stereoscopic_stream_descriptor가 아니면 S838단계로 이동한다.
S834단계는 Primary_flag와 Left_flag를 읽고, S836단계는 현재 element_PID에 해당하는 비디오 데이터의 주 영상 여부, 왼쪽 영상 여부를 판단한다.
S838단계는 First_Primary_flag와 First_Left_flag를 읽고, S842단계는 현재 element_PID에 해당하는 데이터에서 선두에 위치하는 비디오 데이터가 주 영상, 왼쪽 영상에 해당하는지 판단한다.
S842단계는 CRC_32를 읽고 데이터 오류 여부를 검증한다.
도 9는 ES 수준의 다중화 방식의 비트열을 분리하는 과정을 나타낸 흐름도이다. 이하 도 9를 이용하여 본 발명의 일실시 예에 따른 서비스 호환 모드에서 ES 수준의 다중화 방식의 비트열 분리를 수행하는 과정에 대해 알아보기로 한다. 아래 과정은 비트열의 혼합이 좌, 우 순으로 이루어진 것을 가정하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 비트열의 혼합이 우, 좌 순으로 이루어진 경우도 가능하다는 점을 이해할 것이다.
S900단계는 PMT를 파싱한다.
S901단계는 PMT내의 service_compatible_stereoscopic_video_descriptor()를 파싱한다.
S902단계는 ES_level_composition_flag를 확인하여 ES 수준의 다중화 방식 여부를 판단한다.
S903단계는 MVC_bitstream_assembling_flag를 확인하여 비트열의 ES 수준의 다중화 방식에 그 비트열 다중화(assembling) 방식이 MVC의 bitstream assembling 방식(stereo_high_profile 또는 multiview_high_profile에 정의)을 따르는지 여부를 확인한다.
S904단계는 PMT내의 stereosopic_stream_descriptor()를 파싱한다.
S905단계는 First_Primary_flag를 확인한다.
S906단계는 First_Left_flag를 확인한다.
S907단계는 수신된 혼합 비트열로부터 하나의 AU를 탐지한다.
S908단계는 S906단계에서 확인된 First_Left_flag로부터 테이터 선두의 데이터의 좌영상 여부를 확인한다.
S909단계는 S907단계에서 탐지한 AU가 홀수 번째 AU인지를 판단한다. 홀수 번째 AU면 S910단계로 이동하고, 짝수번째 AU면 S911단계로 이동한다.
S910단계와 S911단계는 S909단계로부터 판단된 정보를 이용하여 해당 AU를 좌영상 또는 우영상 비트열로 분리한다.
S912단계는 AU를 모두 읽었는지를 판단하여, AU를 모두 읽었다면 S913단계로 이동하고, AU를 모두 읽지 않았다면 S907단계로 이동한다.
S913단계는 S906단계에서 확인된 First_Primary_flag로부터 테이터 선두의 데이터의 좌영상 여부를 확인한다. First_Primary_flag가 1이면 S914단계로 이동하고, 0이면 S915단계로 이동한다.
S914단계와 S915단계는 S913단계로부터 판단된 Primary정보를 이용하여, 각 비트열 중 어느 비트열이 주영상인지를 판단한다.
S916단계는 각각 분리된 비트열을 디코더측으로 전달한다.
도 10은 도 9의 S907 ~ S912에 해당하는 MVC Bitstream Extraction 방식에 따른 비트열 분리 방법을 나타낸 그림이다. 좌우 혼합된 비트열을 수신하면, 도 9에서 나타낸 과정을 통해 하나의 AU단위로 assembling되어 있고, 첫번째 AU가 주영상인지 좌영상인지를 알 수 있기 때문에 NAL Header를 파싱하여 NAL Header에 존재하는 view_id, anchor_pic_flag를 확인하지 않아도 도 10과 같이 좌우영상의 비트열을 분리할 수 있다.
본 발명은 도면에 도시된 일실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
특히 본 발명의 도면에서 현재 시험 방송과 방송 규격을 제정 중인 3D 입체형 방송 위주로 기술하였으나, UHD TV 방송, 멀티뷰 방송 등 다른 복합 방송 또한 영상의 개수만 다를 뿐, 프레임 호환 모드와 서비스 호환 모드의 방송을 모두 수행할 수 있다. 따라서 본 발명은 3D 입체형 방송에 국한되는 것이 아니라 UHD TV 방송, 멀티뷰 방송 등 복합 방송에 모두 적용될 수 있는 기술임을 밝힌다.

Claims (9)

  1. 디지털 방송 프로그램의 서비스 호환 방식에 대한 정보를 제공받는 방법에 있어서,
    상기 서비스 호환 방식과 관련된 정보를 지시하는 식별자를 설정하는 단계;
    수신된 상기 디지털 방송 프로그램에 포함된 식별자에 따라 상기 서비스 호환 방식을 구별하는 단계를 포함함을 특징으로 하는 정보를 제공 받는 방법.
  2. 제 1항에 있어서, 상기 서비스 호환 방식은 하나의 전송 대역에 좌영상 프레임과 우영상 프레임을 각각 압축하여 전송하는 방식임을 특징으로 하는 정보를 제공 받는 방법.
  3. 제 2항에 있어서, 상기 서비스 호환 방식과 관련된 정보는,
    좌우 영상의 해상도, 부 영상 시청 제한 정보, GOP 구조 정렬 여부, ES 수준의 다중화 여부에 관한 정보 중 적어도 하나임을 특징으로 하는 정보를 제공받는 방법.
  4. 제 3항에 있어서, 상기 좌우 영상의 해상도는,
    원본 영상 대비 부 영상의 분할 내용을 지시하는 식별자를 포함함을 특징으로 하는 정보를 제공받는 방법.
  5. 제 4항에 있어서, 상기 원본 영상 대비 부 영상의 분할 내용을 지시하는 식별자는,
    크기 변경없음, 가로 2분할, 세로 2분할, 가로/세로 2분할 중 적어도 하나를 지시하는 식별자를 포함함을 특징으로 하는 정보를 제공 받는 방법.
  6. 제 3항에 있어서, 상기 부 영상 시청 제한 정보는,
    상기 부 영상으로 2D 방송 서비스 여부를 지시하는 식별자를 포함함을 특징으로 하는 정보를 제공받는 방법.
  7. 제 1항에 있어서, 상기 디지털 방송은,
    3D 방송, UHD TV 방송, 멀티뷰 방송 중 적어도 하나를 포함함을 특징으로 하는 정보를 제공받는 방법.
  8. 디지털 방송 프로그램의 서비스 호환 방식에 대한 정보를 제공받는 방법에 있어서,
    수신된 스트림에 포함된 기준 영상임을 지시하는 식별자를 추출하는 단계;
    추출된 상기 식별자에 따라 기준 영상을 획득하는 단계를 포함함을 특징으로 하는 정보를 제공받는 방법.
  9. 제 8항에 있어서, 상기 스트림은,
    상기 스트림이 우 영상인지 좌 영상인지 구분하는 식별자를 더 포함함을 특징으로 하는 정보를 제공받는 방법.
PCT/KR2011/000362 2010-11-27 2011-01-18 디지털 방송에서 서비스 호환 방식 전송 방법 WO2012070716A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CA2818932A CA2818932C (en) 2010-11-27 2011-01-18 Method for service compatibility-type transmitting in digital broadcast
MX2013005885A MX2013005885A (es) 2010-11-27 2011-01-18 Metodo para servicio tipo compatibilidad que transmite en radiodifusion digital.
US13/989,678 US8928733B2 (en) 2010-11-27 2011-01-18 Method for service compatibility-type transmitting in digital broadcast
US14/104,868 US9204124B2 (en) 2010-11-27 2013-12-12 Method for service compatibility-type transmitting in digital broadcast
US14/919,101 US9635344B2 (en) 2010-11-27 2015-10-21 Method for service compatibility-type transmitting in digital broadcast

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0119247 2010-11-27
KR1020100119247A KR20120058702A (ko) 2010-11-27 2010-11-27 디지털 방송에서 서비스 호환 방식 전송 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/989,678 A-371-Of-International US8928733B2 (en) 2010-11-27 2011-01-18 Method for service compatibility-type transmitting in digital broadcast
US14/104,868 Continuation US9204124B2 (en) 2010-11-27 2013-12-12 Method for service compatibility-type transmitting in digital broadcast

Publications (1)

Publication Number Publication Date
WO2012070716A1 true WO2012070716A1 (ko) 2012-05-31

Family

ID=46146044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/000362 WO2012070716A1 (ko) 2010-11-27 2011-01-18 디지털 방송에서 서비스 호환 방식 전송 방법

Country Status (5)

Country Link
US (3) US8928733B2 (ko)
KR (1) KR20120058702A (ko)
CA (1) CA2818932C (ko)
MX (1) MX2013005885A (ko)
WO (1) WO2012070716A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037964A1 (ko) * 2013-09-16 2015-03-19 삼성전자 주식회사 방송 수신 장치 및 그 제어 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9288513B2 (en) 2011-08-29 2016-03-15 Aerovironment, Inc. System and method of high-resolution digital data image transmission
US8922587B2 (en) * 2013-03-14 2014-12-30 The United States Of America As Represented By The Secretary Of The Army Crew shared video display system and method
KR20160002679A (ko) * 2013-05-01 2016-01-08 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
CN103618913A (zh) * 2013-12-13 2014-03-05 乐视致新电子科技(天津)有限公司 在智能电视中播放3d片源的方法及装置
JP6507797B2 (ja) * 2015-03-31 2019-05-08 豊田合成株式会社 膝保護用エアバッグ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218502A (ja) * 2001-01-22 2002-08-02 Nippon Television Network Corp 立体映像信号の伝送方法及び、そのシステム
WO2008069613A1 (en) * 2006-12-08 2008-06-12 Electronics And Telecommunications Research Institute System for transmitting/receiving digital realistic broadcasting based on non-realtime and method therefor
KR20090036080A (ko) * 2007-10-08 2009-04-13 엘지전자 주식회사 Maf 파일 포맷을 구성하는 방법 및 이를 이용한 비디오 신호의 디코딩 장치
US20100134592A1 (en) * 2008-11-28 2010-06-03 Nac-Woo Kim Method and apparatus for transceiving multi-view video

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
CN101371584B (zh) 2006-01-09 2011-12-14 汤姆森特许公司 提供用于多视图视频编码的降低分辨率的更新模式的方法和装置
KR100810318B1 (ko) * 2006-02-08 2008-03-07 삼성전자주식회사 디지털 멀티미디어 방송 제한 서비스 시스템 및 그 방법
CN101453662B (zh) * 2007-12-03 2012-04-04 华为技术有限公司 立体视频通信终端、系统及方法
KR20090097015A (ko) * 2008-03-10 2009-09-15 삼성전자주식회사 스케일러블 영상 부호화장치 및 스케일러블 영상복호화장치
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
JP5338166B2 (ja) * 2008-07-16 2013-11-13 ソニー株式会社 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
EP2395772A3 (en) * 2008-09-30 2013-09-18 Panasonic Corporation Glasses and display device
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
US8358331B2 (en) * 2008-12-02 2013-01-22 Lg Electronics Inc. 3D caption display method and 3D display apparatus for implementing the same
KR101591703B1 (ko) 2009-02-13 2016-02-04 삼성전자주식회사 3차원 영상 데이터스트림 생성 방법 및 그 장치와 3차원 영상 데이터스트림 수신 방법 및 그 장치
US8289998B2 (en) * 2009-02-13 2012-10-16 Samsung Electronics Co., Ltd. Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
WO2010095440A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
CN102804785A (zh) 2009-04-13 2012-11-28 瑞尔D股份有限公司 编码、解码和发布增强分辨率的立体视频
JP5627860B2 (ja) * 2009-04-27 2014-11-19 三菱電機株式会社 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
JP5448558B2 (ja) * 2009-05-01 2014-03-19 ソニー株式会社 送信装置、立体画像データの送信方法、受信装置、立体画像データの受信方法、中継装置および立体画像データの中継方法
JP5463747B2 (ja) * 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법
US8493434B2 (en) * 2009-07-14 2013-07-23 Cable Television Laboratories, Inc. Adaptive HDMI formatting system for 3D video transmission
KR101694821B1 (ko) 2010-01-28 2017-01-11 삼성전자주식회사 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치
WO2011108903A2 (ko) * 2010-03-05 2011-09-09 한국전자통신연구원 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치
US20130209063A1 (en) * 2010-08-17 2013-08-15 Lg Electronics Inc. Digital receiver and content processing method in digital receiver
WO2012026746A2 (en) 2010-08-23 2012-03-01 Lg Electronics Inc. Method for providing 3d video data in a 3dtv
CN103168473B (zh) * 2010-10-16 2016-09-28 Lg电子株式会社 数字接收机以及用于处理数字接收机中的3d 内容的方法
CN103202023A (zh) 2010-10-25 2013-07-10 松下电器产业株式会社 编码方法、显示装置、解码方法
WO2012121567A2 (ko) * 2011-03-10 2012-09-13 한국전자통신연구원 실시간 방송 프로그램의 기준 영상과 부가 영상간의 동기화 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218502A (ja) * 2001-01-22 2002-08-02 Nippon Television Network Corp 立体映像信号の伝送方法及び、そのシステム
WO2008069613A1 (en) * 2006-12-08 2008-06-12 Electronics And Telecommunications Research Institute System for transmitting/receiving digital realistic broadcasting based on non-realtime and method therefor
KR20090036080A (ko) * 2007-10-08 2009-04-13 엘지전자 주식회사 Maf 파일 포맷을 구성하는 방법 및 이를 이용한 비디오 신호의 디코딩 장치
US20100134592A1 (en) * 2008-11-28 2010-06-03 Nac-Woo Kim Method and apparatus for transceiving multi-view video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037964A1 (ko) * 2013-09-16 2015-03-19 삼성전자 주식회사 방송 수신 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US9204124B2 (en) 2015-12-01
US20140168364A1 (en) 2014-06-19
KR20120058702A (ko) 2012-06-08
US20130250057A1 (en) 2013-09-26
US8928733B2 (en) 2015-01-06
CA2818932A1 (en) 2012-05-31
US20160073086A1 (en) 2016-03-10
CA2818932C (en) 2017-11-07
MX2013005885A (es) 2013-10-25
US9635344B2 (en) 2017-04-25

Similar Documents

Publication Publication Date Title
KR101683119B1 (ko) 방송 송신기, 방송 수신기 및 3d 비디오 데이터 처리 방법
WO2012070715A1 (ko) 디지털 방송의 전송 모드 제공 및 인지 방법
WO2011108903A2 (ko) 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치
WO2013019042A1 (ko) 실시간으로 전송되는 기준 영상과 별도로 전송되는 부가 영상 및 콘텐츠를 연동하여 3d 서비스를 제공하기 위한 전송 장치 및 방법, 및 수신 장치 및 방법
WO2010041905A2 (ko) 수신 시스템 및 데이터 처리 방법
WO2010117129A2 (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
US10123069B2 (en) Receiving apparatus, receiving method, and receiving display method for displaying images at specified display positions
EP2353299A2 (en) Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
WO2012070716A1 (ko) 디지털 방송에서 서비스 호환 방식 전송 방법
WO2011046271A1 (en) Broadcast receiver and 3d video data processing method thereof
US20140327740A1 (en) Transmission apparatus, transmisson method, receiver and receiving method
KR20140000136A (ko) 화상 데이터 송신 장치, 화상 데이터 송신 방법, 화상 데이터 수신 장치 및 화상 데이터 수신 방법
US20140232823A1 (en) Transmission device, transmission method, reception device and reception method
KR101818141B1 (ko) 디지털 방송에서 서비스 호환 방식 전송 방법
KR20110068821A (ko) 송, 수신 장치 및 송, 수신 방법
WO2012074331A2 (ko) 스테레오스코픽 영상 정보의 전송 방법 및 장치
WO2013055032A1 (ko) 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법
WO2017164551A1 (ko) 방송 신호 송수신 방법 및 장치
KR101779054B1 (ko) 디지털 방송의 전송 모드 제공 및 인지 방법
KR101277267B1 (ko) 3차원 방송을 위한 데이터 코덱 방법 및 장치
WO2016036012A1 (ko) 방송 신호 송수신 방법 및 장치
WO2013058455A1 (ko) 비디오 신호의 보조 데이터 공간에 동기 정보를 추가하여 영상을 동기화하는 장치 및 방법
KR20120139643A (ko) 3차원 방송을 위한 데이터 코덱 방법 및 장치
KR20120087869A (ko) 3차원 방송을 위한 데이터 코덱 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11842604

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2818932

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/005885

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13989678

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 11842604

Country of ref document: EP

Kind code of ref document: A1