WO2012030176A2 - 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치 - Google Patents

3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치 Download PDF

Info

Publication number
WO2012030176A2
WO2012030176A2 PCT/KR2011/006490 KR2011006490W WO2012030176A2 WO 2012030176 A2 WO2012030176 A2 WO 2012030176A2 KR 2011006490 W KR2011006490 W KR 2011006490W WO 2012030176 A2 WO2012030176 A2 WO 2012030176A2
Authority
WO
WIPO (PCT)
Prior art keywords
video
service
information
broadcast data
field
Prior art date
Application number
PCT/KR2011/006490
Other languages
English (en)
French (fr)
Other versions
WO2012030176A3 (ko
Inventor
서종열
이준휘
최지현
양정휴
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020137008337A priority Critical patent/KR101909032B1/ko
Priority to US13/819,982 priority patent/US9549228B2/en
Publication of WO2012030176A2 publication Critical patent/WO2012030176A2/ko
Publication of WO2012030176A3 publication Critical patent/WO2012030176A3/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder

Definitions

  • the present invention relates to a method and apparatus for providing a 3D broadcasting service and receiving and processing the same. More specifically, in providing a 3D broadcast service, the present invention generates a 3D broadcast signal that can be simultaneously processed by a 3D broadcast receiver capable of processing a 3D broadcast service and a 2D broadcast receiver capable of processing only an existing 2D broadcast service. And it is about receiving processing.
  • 3DTV three-dimensional television
  • a 3D image provides a stereoscopic effect using the stereo vision principle of two eyes. Humans feel perspective through the parallax of two eyes, that is, binocular parallax by the distance between two eyes about 65mm apart, so the 3D image provides an image so that each of the left and right eyes can see the associated plane image. It can provide three-dimensional and perspective.
  • Such 3D image display methods include a stereoscopic method, a volumetric method, a holographic method, and the like.
  • a left view (left view) image for viewing in the left eye and a right view (light view) image for viewing in the right eye are provided, and the left eye through polarizing glasses or the display device itself is provided.
  • the right eye and the right eye respectively recognize the 3D image effect by viewing the left view image and the right image.
  • the 3D broadcast delivers the left image and the right image, respectively, and processes them appropriately in the broadcast receiver to produce the 3D image, signaling information for processing the 3D broadcast signal should be added.
  • 3D broadcast receivers capable of receiving and processing 3D broadcasts require a relatively high level of hardware and processing capability compared to conventional broadcast receivers. Accordingly, there is a need for a method of receiving a 3D broadcast signal transmitted over the same broadcast bandwidth in a 2D broadcast receiver and properly using the 2D broadcast.
  • the present invention has been made in view of the above-mentioned problems and is to generate and process 3D broadcast signals having compatibility in 3D broadcast receivers and 2D broadcast receivers.
  • Another technical problem to be achieved by the present invention is to properly provide signaling information for 3D broadcast so that the 3D broadcast signal can be efficiently processed by the 3D broadcast receiver.
  • a broadcast signal processing method for a 3D (3-dimentional) broadcast service comprising: encoding signaling information for signaling the encoded 3D video broadcast data, the encoded 3D video broadcast data and the encoded signaling information Generating a broadcast signal including a signal and transmitting the generated broadcast signal, wherein the signaling information includes a full resolution image of the left image broadcast data and / or the right image broadcast data. Contains resolution type information indicating whether the image is half resolution The.
  • resolution type information is included in a 3DTV service location descriptor that signals information about 3D video components and encoded into signaling information, wherein the 3DTV service location descriptor is a Program Map Table (PMT) and / or the like. Or in a service description table (SDT).
  • PMT Program Map Table
  • SDT service description table
  • the signaling information may further include information indicating whether any one of left video broadcast data and right video broadcast data is provided as 2D video broadcast data for the 2D receiver.
  • the resolution type information indicates whether vertical left resolution, horizontal half resolution, or vertical and horizontal half resolution when the left video broadcast data and / or the right video broadcast data is a half resolution video. .
  • the 3DTV service location descriptor when one of the left video broadcast data and the right video broadcast data is half resolution, and the other is full resolution, doubling video broadcast data that is half resolution to full resolution.
  • filter type information indicating a type of a filter used for reducing the type of the filter used for or the video broadcast data that is the full resolution in half resolution.
  • the 3DTV service location descriptor further includes filter size information indicating the size of the filter.
  • the 3DTV service location descriptor may further include information indicating whether the video broadcast data included in the broadcast signal is left video broadcast data or right video broadcast data.
  • a 3D broadcast service receiving apparatus includes a 3D broadcast data including a left video broadcast data including a left video and a right video broadcast data including a right video for displaying a 3D (3-dimentional) effect.
  • a receiver for receiving a broadcast signal including signaling information for signaling of video broadcast data and 3D video broadcast data, and the left video broadcast data and / or the right video broadcast data included in the signaling information are full resolution.
  • a system information processor for parsing resolution type information indicating whether the image is a half resolution image, a video decoder for decoding the left image broadcast data and the right image broadcast data, and the decoded left image broadcast using the resolution type information.
  • Video broadcast data of any one of data and right video broadcast data By doubling (doubling) or Reducing (reducing) the full-resolution image or the half-resolution image, and a formatter for forming a 3D image for 3D display.
  • the system information processor may be configured to interpret service type information indicating the type of service included in the SDT, or recognize whether the broadcast signal is for 3D broadcast service due to the presence of the 3DTV service location descriptor. do.
  • the broadcast receiver includes a functional unit that performs the above-described features of the present invention.
  • the signaling information for the 3D broadcast service can be delivered in the existing broadcast service signaling scheme.
  • a 3D broadcast signal compatible with a 2D broadcast receiver can be obtained without degrading the quality of the 3D broadcast. It is effective to provide.
  • FIG. 1 is a diagram illustrating a configuration of a video element of a 3D broadcast service according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a syntax structure of a 3DTV service location descriptor according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating definitions of a location and a service_type field of a 3DTV service location descriptor included in a terrestrial virtual channel table (TVCT) according to an embodiment of the present invention.
  • TVCT terrestrial virtual channel table
  • FIG. 4 illustrates a 3DTV service location descriptor according to another embodiment of the present invention.
  • FIG. 5 illustrates a location of a 3DTV service location descriptor included in a program map table (PMT) according to an embodiment of the present invention.
  • PMT program map table
  • FIG. 6 illustrates a 3DTV service location descriptor according to another embodiment of the present invention.
  • FIG. 7 illustrates a location of a 3DTV service location descriptor included in a service description table (SDT) according to an embodiment of the present invention.
  • SDT service description table
  • FIG. 8 is a diagram illustrating definition according to a value of a service_type field according to an embodiment of the present invention.
  • FIG 9 illustrates a component descriptor according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating definition of stream_content and component_type according to an embodiment of the present invention.
  • FIG. 11 is a diagram showing the structure of a broadcast receiver according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a 3D service acquisition process in IPTV according to an embodiment of the present invention.
  • FIG. 13 is a diagram illustrating the structure of a Service Information (SI) table for IPTV according to an embodiment of the present invention.
  • SI Service Information
  • FIG. 14 illustrates an XML schema of a SourceReferenceType according to an embodiment of the present invention.
  • 15 is a diagram illustrating an XML schema of SourceType according to an embodiment of the present invention.
  • FIG. 16 is a diagram illustrating a TypeOfSourceType XML Schema extended to signal information about a primary or secondary video image for a 3D broadcast service according to an embodiment of the present invention.
  • FIG. 17 is a diagram illustrating an XML Schema diagram of a VideoCompositionInformationFor3DType for containing 3D video composition information according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating an XML Schema of VideoCompositionInformationFor3DType for containing 3D video composition information according to an embodiment of the present invention.
  • FIG. 19 is a diagram illustrating an IPSourceDefinitionType and an RFSourceDefinition XML schema extended to include 3D video composition information according to an embodiment of the present invention.
  • FIG. 20 is a diagram illustrating an RfSourceDefinitionType XML Schema diagram for containing 3D video composition information in an RfSourceDefinitionType according to an embodiment of the present invention.
  • 21 is a diagram illustrating an IpService XML Schema extended to include 3D video composition information according to an embodiment of the present invention.
  • FIG 22 illustrates an IPTV receiver according to an embodiment of the present invention.
  • FIG 23 illustrates functional blocks of an IPTV receiver according to an embodiment of the present invention.
  • 24 is a flowchart illustrating a broadcast signal processing method for a 3D broadcast service according to an embodiment of the present invention.
  • the 3D image representation method may include a stereoscopic method that considers two viewpoints and a multiple view image method (or multi-view method) that considers three or more viewpoints.
  • the conventional single view image method may be referred to as a monoscopic image method.
  • the stereoscopic method uses a pair of left view and live view images obtained by photographing the same subject with a left camera and a right camera that are spaced at a constant distance.
  • the multi-view method uses three or more images obtained by photographing three or more cameras having a constant distance or angle.
  • the present invention will be described using the stereoscopic method as an embodiment, but the idea of the present invention may be applied to a multi-view method.
  • the stereoscopic method according to the present invention includes a side-by-side method, a top-bottom method, and a checker board method.
  • the left and right images are downsampled 1/2 in the horizontal direction, and one sampled image is placed in the left region and the other sampled image is placed in the right region.
  • the left and right images are half downsampled in the vertical direction, and one sampled image is placed in the top region, and the other sampled image is placed in the bottom region.
  • the checkerboard method is a method of constructing two images into one image by half downsampling the left image and the right image to cross each other in the vertical and horizontal directions.
  • the stereoscopic method according to the present invention is not limited or limited to the above example.
  • One of the things to consider when transmitting 3D image is compatibility with 2D image. This is because a receiver that does not support three-dimensional image display should display a three-dimensional image included in the received broadcast signal as a two-dimensional image, and can display a two-dimensional image if necessary even in a 3DTV.
  • FIG. 1 is a diagram illustrating a configuration of a video element of a 3D broadcast service according to an embodiment of the present invention.
  • the video element of the 3D broadcast service may include a primary video stream, a secondary video stream, and / or video composition information.
  • the primary video stream may be used to maintain compatibility with the 2D broadcast receiver in addition to the 3D broadcast receiver.
  • the 2D broadcast receiver may receive a primary video stream and decode it to provide a 2D broadcast service.
  • the primary video stream may be a video stream including any one of left and right images. Therefore, the 2D broadcast receiver may provide a 2D image to the user by decoding and displaying only one image of the left image or the right image using the primary video stream. Even when a viewer using a 3D broadcast receiver wants to watch a 2D video, not a 3D video, in the broadcast receiver, the broadcast receiver can satisfy the viewer's needs by decoding and providing only the primary video stream.
  • the primary video stream according to the embodiment of the present invention may be an image of full resolution. Therefore, even a 2D broadcast receiver using only the primary video stream can receive an image without qualitative degradation for resolution.
  • the primary video stream is not limited to always having a full resolution image, but may transmit a half resolution image.
  • the primary video stream may also transmit a half resolution image according to the situation of the broadcast bandwidth and the current state of the 3D or 2D broadcast receivers of the viewers.
  • the secondary video stream may transmit an image not transmitted by the primary video stream among the left image and the right image forming the 3D image.
  • the secondary video stream transmits a half resolution image. This is because there is a limitation in broadcast bandwidth and there is a low necessity for the secondary video stream used for the 3D broadcast service to transmit a video of full resolution.
  • the secondary video stream is not limited to always transmitting the half resolution video, but can transmit the full resolution video. This is because, in the case where the broadcast receiving side wants to receive the 2D video, the user may select to receive the video stream of the left video or the right video as the 2D broadcast video according to the viewer's preference.
  • information about the 3D broadcast service and various information about the two video streams must be additionally transmitted and received.
  • Information for such a 3D broadcast service may be provided as video composition information.
  • the video composition information for the 3D broadcast service may be included in the PSI / PSIP of the ATSC system and transmitted.
  • the video composition information may be included in the program map table (PMT) information included in the PSI or the virtual channel table (VCT) information included in the PSIP and transmitted.
  • PMT program map table
  • VCT virtual channel table
  • the video composition information for the 3D broadcast service may be included in the signaling information of the DVB system and transmitted.
  • the video composition information may be included in PMT information or Service Description Table (SDT) information and transmitted.
  • SDT Service Description Table
  • FIG. 2 is a diagram illustrating a syntax structure of a 3DTV service location descriptor according to an embodiment of the present invention.
  • the 3DTV service location descriptor may include a descriptor_tag field, a descriptor_length field, a PCR_PID field, a number_elements field, an elementary_PID field, a left_right_view field, a primary_video_flag field, a stream_type field, a resolution_type field, a stereo_format_type field, a filter_type field, a number_hordental_taps field, and hor Field, hor_coefficient_num field, number_vertical_taps field, ver_coefficient_den field, and / or ver_coefficient_num field.
  • the descriptor_tag field serves to identify a descriptor to which this field belongs.
  • the descriptor_length field represents the length of data belonging to this descriptor following this field in bytes.
  • the PCR_PID field indicates a packet identifier (PID) of a transport stream including a PCR field.
  • the number_elements field indicates the number of video elements configuring the 3D broadcast service.
  • the broadcast receiver may parse the information included in the following fields by the number of video elements constituting the 3D broadcast service by receiving the 3DTV service location descriptor.
  • the elementary_PID field represents the PID of the video element.
  • the 3DTV service location descriptor defines the following information about the video element with the PID of the elementary_PID field.
  • the broadcast receiver may obtain information for 3D video display of the video element having the corresponding PID from the 3DTV service location descriptor.
  • the left_right_view field indicates whether the video element is video data of the left view or video data of the right view.
  • the primary_video_flag field indicates whether the video element is video data that can also be displayed in the 2D legacy device. For example, if the flag value is '1', it may be primary video data, and if it is '0', it may represent secondary video data of half-resolution.
  • the stream_type field represents a coding type for a video element.
  • a coding type such as JPEG, MPEG-2, MPEG-4, H.264 / AVC, and / or H.264 / MVC may be represented.
  • the resolution_type field represents information about resolution of a video element. For example, it may indicate whether the video data of the primary video data and / or the secondary video data is full-resolution or half-resolution in the horizontal direction or the vertical direction. For example, if the value of the resolution_type field is “00”, it indicates that the video data is full resolution, and if it is “01”, it indicates that it is half resolution vertically (vertically), and if it is “10”, Horizontally Half-Resolution Horizontal resolution (half direction) indicates half resolution, and in case of “11”, it indicates half resolution in horizontal and vertical directions. That is, in this case, this may indicate 1/4 resolution.
  • the stereo_format_type field indicates in which format the primary video data and the secondary video data should be multiplexed.
  • Stereoscopic display formats include side-by-side, top-bottom, checherboard, vertical line interlace, horizontal line interlace, and frame sequential methods.
  • this field may be used to know recommended stereoscopic display format information.
  • the filter_type field represents information about filtering when resizing video data. For example, when doubling the half-resolution secondary video data to match the full-resolution primary video data, or half to match the full-resolution primary video data to the half-resolution secondary video data. In this case, information about the type of filter used may be indicated. In one embodiment, when resizing video data, the filter application direction (horizontal direction, vertical direction), information on the resizing ratio (for example, doubling or half reducing) when resizing, the type of filter (for example, bilinear) interpolation, bicubic interpolation, etc.). The filtering information included in the filter_type field may be referred to as resizing information below.
  • the number_horizontal_taps field is the size of a filter applied when performing horizontal filtering and indicates the number of parameters of the filter.
  • the number_vertical_taps field is the size of a filter applied when vertical filtering is performed and indicates the number of parameters of the filter.
  • the filter related information included in the 3DTV service location descriptor may indicate that filtering in the horizontal direction and the vertical direction is performed.
  • the 3DTV service location descriptor may be located in the TVCT and may signal information about 3D video components configuring the corresponding virtual channel.
  • FIG. 3 is a diagram illustrating definitions of a location and a service_type field of a 3DTV service location descriptor included in a terrestrial virtual channel table (TVCT) according to an embodiment of the present invention.
  • TVCT terrestrial virtual channel table
  • TVCT is a table that contains the properties of virtual channels.
  • the 3DTV service location descriptor may be included in the TVCT and transmitted.
  • TVCT field table_id field, section_syntax_indicator field, private_indicator field, section_length field, transport_stream_id field, version_number field, current_next_indicator field, section_number field, last_section_number field, protocol_version field, num_channels_in_section field, short_name field, major_channel_number field, minorchannel_mode_number field, minorchannel_mode_number field It may include a channel_TSID field, a program_number field, an ETM_location field, an access_controlled field, a hidden field, a hide_guide field, a service_type field, a source_id field, a descriptors_length field, an additional_descriptors_length field, and / or a CRC_32 field.
  • the table_id field indicates the type of table section.
  • the value may be 0xC8 to indicate TVCT.
  • section_syntax_indicator field consists of 1 bit and its value is fixed to 1.
  • the private_indicator field is set to one.
  • the section_length field consists of 12 bits and the first two bits are 00. This field indicates the number of bytes in the section, and indicates the length from this field to the CRC.
  • the transport_stream_id field is composed of 16 bits and is an MPEG-2 transport stream (TS) ID. This field can be distinguished from other TVCT.
  • TS MPEG-2 transport stream
  • the version_number field represents the version of the virtual channel. Increment by 1 for every change in the VCT. When the version value reaches 31, the next version value is 0.
  • the value of this field may be the same value as the same field value of the MGT.
  • the current_next_indicator field consists of 1 bit and the value is set to 1 when the VCT is currently applicable. If it is set to 0, this means that it is not applicable yet and the following table is valid.
  • the section_number field represents the number of sections.
  • the value of the first section of TVCT is 0x00 and the value is increased by 1 for every additional section.
  • the last_section_number field means the number of the last section. That is, it means the number of the section having the highest section_number in the entire TVCT.
  • the protocol_version field serves to allow different table types from those defined in the current protocol in the future. Only zero is valid in the current protocol. Nonzero values will be used in later versions for structurally different tables.
  • the num_channels_in_section field represents the number of virtual channels in the VCT section. The value is limited by the section length.
  • the short_name field represents the name of the virtual channel.
  • the major_channel_number field represents a major channel number of a virtual channel defined in a corresponding sequence in a for loop. Each virtual channel consists of a major channel number and a minor channel number. The major channel number, along with the minor channel number, acts as a reference number to the user for the virtual channel. For example, major channel numbers have a value from 1 to 99, and major / minor channel number pairs do not have duplicate values in TVCT.
  • the minor_channel_number field has a value from 0 to 999.
  • the minor channel number acts as a two-part channel number along with the major channel number. For example, when the service type is ATSC_digital_television or ATSC_audio_only, the minor channel number has a value from 1 to 99. Major / minor channel number pairs do not have duplicate values in TVCT.
  • the modulation_mode field indicates the modulation mode of the transport carrier associated with the virtual channel.
  • the carrier_frequency field may indicate a carrier frequency
  • the channel_TSID field has a value from 0x0000 to 0xFFFF and is an MPEG-2 TSID associated with a TS for delivering the MPEG-2 program referred to by this virtual channel.
  • the program_number field associates a virtual channel defined in TVCT with an MPEG-2 PROGRAM ASSOCIATION and TS PROGRAM MAP table.
  • the ETM_location field indicates the presence and location of an extended text message (ETM).
  • the access_controlled field is a flag field. When the access_controlled field is 1, it may represent that an event related to a corresponding virtual channel is accessed. 0 indicates that access is not restricted.
  • the hidden field is a flag field. If 1, access is not permitted even if the number is directly input by the user.
  • the hidden virtual channel is skipped when the user surfs the channel and appears to be undefined.
  • the hide_guide field is a flag field. When the hide_guide field is set to 0 for a hidden channel, the virtual channel and an event may be displayed on the EPG display. This field is ignored if the hidden bit is not set. Thus, non-hidden channels and their events belong to the EPG display regardless of the state of the hide_guide bit.
  • the service_type field identifies the type of service delivered by the virtual channel.
  • the source_id field identifies a programming source related to the virtual channel.
  • the source may be any one of video, text, data, or audio programming.
  • the source id 0 is a reserved value and has a unique value in the TS carrying the VCT from 0x0001 to 0x0FFF. Also, from 0x1000 to 0xFFFF, it is unique at the local level.
  • the descriptors_length field represents the length of a following descriptor for a corresponding virtual channel in bytes.
  • Descriptor () may not be included in descriptor () or one or more descriptors may be included.
  • the additional_descriptors_length field represents the total length of the following VCT descriptor list in bytes.
  • the CRC_32 field indicates a CRC value that causes a zero output of a register in the decoder.
  • a 3DTV service location descriptor is included in a TVCT and transmitted, and thus, primary video data, secondary video data, and / or filtering information, etc., which are consistent with respect to a specific service can be signaled.
  • the information can be maintained for the same service without having to update the corresponding information over time, it has an advantageous effect in terms of data transmission efficiency.
  • An embodiment of the present invention may identify that a broadcast provided through the virtual channel is a 3D service through the service_type field. For example, when the service_type field is set to "0x11", the broadcast receiver may recognize that the broadcast service through this channel is a 3D service.
  • a method of reconstructing 3D video using primary and secondary video data by a receiver using a 3DTV service location descriptor is as follows.
  • the broadcast receiver acquires stereo format information from the 3DTV service location descriptor and then resizes the primary video by using the filter information of the primary video element.
  • the broadcast receiver combines the resized primary video with the received secondary video to reconstruct the 3D video.
  • the combination method of the primary video and the secondary video can be determined using the stereo format information.
  • the broadcast receiver may perform format conversion according to the display type of the receiver.
  • a method in which a receiver reconstructs 3D video using primary and secondary video data using a 3DTV service location descriptor is as follows.
  • the broadcast receiver acquires stereo format information from the 3DTV service location descriptor and then doubling the secondary video using the filter information of the secondary video element.
  • doubling may mean making an image of half resolution into an image of full resolution.
  • the broadcast receiver reconstructs the 3D video by combining the doubled secondary video and the received primary video by stereo format information. Thereafter, the broadcast receiver may perform format conversion according to the display type of the receiver.
  • a method for processing a primary video element and / or a secondary video element by a broadcast receiver according to an embodiment of the present invention is as follows.
  • the broadcast receiver uses the service_type field of the TVCT to find out whether a 3DTV service is provided in a corresponding virtual channel.
  • the service_type field indicates that the service_type field is a 3D broadcast service
  • the broadcast receiver receives elementary_PID information of the primary video element using a service location descriptor or a 3DTV service location descriptor.
  • the broadcast receiver obtains elementary_PID information of the secondary video element in the 3DTV service location descriptor.
  • the broadcast receiver grasps information on stereo configuration, left / right placement, and resizing of primary and / or secondary video elements through information included in the 3DTV service location descriptor.
  • the broadcast receiver When watching a broadcast service in the 2D mode in the broadcast receiver, the broadcast receiver decodes and displays only a stream corresponding to elementary_PID information of the primary video element.
  • the broadcast receiver When watching in the 3D mode, the broadcast receiver simultaneously decodes a video stream corresponding to elementary_PID information of the primary video element and elementary_PID information of the secondary video element.
  • the broadcast receiver uses the stereo configuration information to control the format conversion and output of the primary and / or secondary video streams to present the 3D picture to the viewer.
  • FIG. 4 illustrates a 3DTV service location descriptor according to another embodiment of the present invention.
  • the 3DTV service location descriptor may include a descriptor_tag field, a descriptor_length field, a left_right_view field, a primary_video_flag field, a resolution_type field, a stereo_format_type field, a filter_type field, a number_horizontal_taps field, a hor_coefficient_den field, a hor_coefficient_num field, a number_vertical_efficient_field, Or it may include a ver_coefficient_num field.
  • each field is similar to the information of the field having the same name shown in FIG. 2 and will be replaced with the above description.
  • the 3DTV service location descriptor may be included in a program map table (PMT) and may signal information about each element constituting the 3D broadcast program.
  • PMT program map table
  • FIG. 5 illustrates a location of a 3DTV service location descriptor included in a program map table (PMT) according to an embodiment of the present invention.
  • PMT program map table
  • the PMT includes the following.
  • It may include a table_id field, section_syntax_indicator field, section_length field, program_number field, version_number field, current_next_indicator field, section_number field, last_section_number field, PCR_PID field, program_info_length field, stream_type field, elementary_PID field, ES_info_length field and / or CRC_32 field.
  • the table_id field is an 8-bit field and may be set to a value of 0x02 to indicate that it is TS_program_map_section.
  • the section_syntax_indicator field is set to 1 as 1 bit.
  • the section_length field consists of 12 bits and the first two bits are 00. This field indicates the number of bytes in the section, and indicates the length from this field to the CRC.
  • the program_number field consists of 16 bits. This indicates to which program the program_map_PID is applicable.
  • One program definition is transmitted by only one TS_program_map_section.
  • the version_number field represents the version of the virtual channel. Increment by 1 for every change in the VCT. When the version value reaches 31, the next version value is 0. The value of this field may have the same value as the same field value of the MGT.
  • the current_next_indicator field consists of 1 bit and the value is set to 1 when the VCT is currently applicable. If it is set to 0, this means that it is not applicable yet and the following table is valid.
  • the section_number field identifies the number of the section. For example, the value of this field for PMT is set to 0x00.
  • the last_section_number field identifies the number of the last section. For example, the value of this field for PMT is set to 0x00.
  • the PCR_PID field means a PID of a TS that consists of 13 bits and includes a PCR field valid for a program described by a program number.
  • the program_info_length field may consist of 12 bits, and the first two bits have a value of 00. The remaining 10 bits represent the descriptor following this field in number of bytes.
  • the stream_type field may consist of 8 bits and indicates the type of a program element transmitted by a packet having a PID value of a basic PID.
  • the elementary_PID field may consist of 13 bits and indicate a PID of a TS including a related program element.
  • the ES_info_length field may consist of 12 bits, and the first two bits are 00. The remaining 10 bits represent the descriptor of the associated program element following this field in number of bytes.
  • the descriptor following the ES_info_length field may be a 3DTV service location descriptor.
  • the CRC_32 field indicates a CRC value that causes a zero output of a register in the decoder.
  • primary video data, secondary video data, and / or filtering information may be signaled for each element constituting the 3D broadcast program.
  • a method of reconstructing 3D video using primary and secondary video data by a receiver using a 3DTV service location descriptor is as follows.
  • the broadcast receiver determines whether the stream is a primary or secondary video stream by using the stream_type of the PMT and the 3DTV service location descriptor corresponding to each elementary stream. At this time, it can be known whether the corresponding program provides the 3DTV service through the existence of the 3DTV service location descriptor.
  • the broadcast receiver recognizes PID_P (Packet Identifier for Primary Video) corresponding to the primary video and PID_S (Packet Identifier for Secondary Video) corresponding to the secondary video.
  • PID_P Packet Identifier for Primary Video
  • PID_S Packet Identifier for Secondary Video
  • the broadcast receiver obtains stereo configuration information, left / right arrangement, and resizing for the primary and / or secondary video streams through the 3DTV service location descriptor.
  • the broadcast receiver performs mapping with information provided through TVCT using the program_number field. In this process, the broadcast receiver may know which virtual channel the program is provided through.
  • the broadcast receiver When watching a broadcast service in the 2D mode in the broadcast receiver, the broadcast receiver decodes and displays only the stream corresponding to PID_P.
  • the broadcast receiver When the broadcast receiver is watching a broadcast service in the 3D mode, the broadcast receiver simultaneously decodes video streams corresponding to PID_P and PID_S.
  • the broadcast receiver uses the information acquired through the 3DTV service location descriptor to control the format conversion and output of the primary and / or secondary video streams, and as a result, the 3D picture is shown to the viewer.
  • FIG. 6 illustrates a 3DTV service location descriptor according to another embodiment of the present invention.
  • the 3DTV service location descriptor may include a descriptor_tag field, a descriptor_length field, a number_elements field, a component_tag field, a left_right_view field, a primary_video_flag field, a stream_type field, a resolution_type field, a stereo_format_type field, a filter_type field, a number_horizontal_taps field, a hor_coefficient_den field, and a hor_coefficient_den field. , number_vertical_taps field, ver_coefficient_den field, and / or ver_coefficient_num field.
  • the component_tag field identifies a component stream associated with this descriptor.
  • the 3DTV service location descriptor of another embodiment of the present invention may be included in a service description table (SDT) and may signal information about each element constituting the 3D broadcast program.
  • SDT service description table
  • the stream_type may be replaced by the stream_content and component_type fields in the component descriptor, which may be included in the SDT.
  • the stream_type may be omitted in the 3DTV service location descriptor.
  • component_tag may be used to indicate a linkage relationship between the component descriptor and the ES on the ES_loop of the PMT. By having the same value in the component_tag field in the stream identifier descriptor as the ES_Loop descriptor of the PMT, it is possible to indicate a connection relationship between the component descriptor in the SDT and the 3DTV service location descriptor.
  • the 3DTV service location descriptor may include information on a plurality of elements through a loop.
  • the descriptor may be configured to remove this loop and include only information on one element.
  • the same 3D video configuration information may be applied to elements constituting the 3D broadcast service.
  • FIG. 7 illustrates a location of a 3DTV service location descriptor included in a service description table (SDT) according to an embodiment of the present invention.
  • SDT service description table
  • the service description table is a table describing services included in a specific transport stream in DVB-SI.
  • the service description table includes a table_id field, a section_syntax_indicator field, a section_length field, a transport_stream_id field, a version_number field, a current_next_indicator field, a section_number field, a last_section_number field, an original_network_id field, a service_id field, an EIT_schedule_flag field, and an EITstat_present_following It may include a free_CA_mode field, a descriptors_loop_length field and / or a CRC_32 field.
  • the table_id field is an identifier for identifying a table. For example, a specific value of the table_id field indicates that this section belongs to a service description table.
  • the section_syntax_indicator field is a 1-bit field and is set to 1.
  • the section_length field the first two bits are set to 00.
  • the transport_stream_id field serves as a label for identifying a transport stream (TS).
  • the version_number field represents the version number of the sub_table. Whenever there is a change in the sub_table, it is incremented by one.
  • the current_next_indicator field is set to '1' if the sub_table is currently applicable. If it is set to 0, this means that it is not applicable yet and the following table is valid.
  • the section_number field represents a section number.
  • the first section has a value of 0x00, and the value is increased by 1 for each additional section having the same table_id, the same transport_stream_id, and the same original_network_id.
  • the last_section_number field indicates the number of the last section (ie, the highest section_number) of the corresponding sub_table to which this section is a part.
  • the original_network_id field is a label identifying the network_id of the transmission system.
  • the service_id field serves as a label to distinguish it from other services included in the TS. This is the same as program_number of program_map_section.
  • the EIT_schedule_flag field if set to 1, indicates that EIT schedule information for a corresponding service is included in the current TS. 0 indicates no inclusion.
  • the EIT_present_following_flag field if set to 1, indicates that EIT_present_following information for a corresponding service is included in the current TS. 0 indicates that EIT present / following information is not currently included in the TS.
  • the running_status field represents the state of a service.
  • the free_CA_mode field if set to 0, indicates that all element streams of the corresponding service are not scrambled. If set to 1, it means that one or more streams are being controlled by the CA system.
  • the descriptors_loop_length field represents the total length of a following descriptor in bytes.
  • the 3DTV service location descriptor may be included in the descriptor area following the descriptors_loop_length field.
  • the CRC_32 field indicates a CRC value for zero output of a register at the decoder.
  • the descriptor area following the descriptors_loop_length field may indicate that the service is a 3D broadcast service through a service_type field included in a service descriptor of a DVB SI.
  • FIG. 8 is a diagram illustrating definition according to a value of a service_type field according to an embodiment of the present invention.
  • the service_type field has a value of “0x12”, this may indicate that a service described by this service description table is a 3D broadcast service.
  • the service_type value is included in a service descriptor and may be included in a descriptor loop of a service description table (SDT).
  • SDT service description table
  • the 2D video service and the 3D video service are defined respectively, but the streams constituting the two services are shared.
  • the service type for the 3D video service may use the new value proposed in the present invention, and the primary video stream constituting the service is shared between the 2D service and the 3D service.
  • the 3D video service may additionally include a secondary video stream to provide a half or full resolution 3DTV broadcasting service.
  • the existing 2D receiver does not recognize it, and thus, it is possible to ignore it and provide a full resolution service without a problem using only the primary video stream.
  • the receiver supporting the 3D video service may recognize the secondary video stream and provide a half or full resolution service through combining with the image of the primary video stream.
  • FIG 9 illustrates a component descriptor according to an embodiment of the present invention.
  • the component descriptor may include a descriptor_tag field, a descriptor_length field, a stream_content field, a component_type field, a component_tag field, an ISO 639-2 [3] _language_code field and / or a text_char field.
  • the descriptor_tag field serves to identify a descriptor to which this field belongs.
  • the descriptor_length field represents the length of data belonging to this descriptor following this field in bytes.
  • the stream_content field indicates the type of video, audio, or data included in the stream.
  • the component_type field represents a type of video, audio, or data component.
  • the component_tag field is a field having the same value as component_tag of a stream identifier descriptor.
  • the ISO 639-2 [3] _language_code field identifies the language of the component or the language of the character descriptors contained in this descriptor.
  • the text_char field identifies the character descriptor (text of the component stream.
  • the descriptor may be included in a service description table (SDT) or / and an event information table of a DVB system.
  • SDT service description table
  • event information table of a DVB system.
  • FIG. 10 is a diagram illustrating definition of stream_content and component_type according to an embodiment of the present invention.
  • stream_content indicates the type of stream and can be defined as 0x01 for MPEG-2 video and 0x05 for H.264 video.
  • the component type in such a stream may be defined as shown in FIG. 10.
  • For primary video streams for 3D services previously defined values can be used.
  • a component type corresponding to the secondary video stream for the 3D service may be additionally defined as shown in FIG. 10.
  • the secondary video stream for the 3D service is MPEG-2 coded, half resolution video, and 25 frames per second are displayed. May indicate that
  • the secondary video stream for the 3D service is MPEG-2 coded, half resolution video, and 30 frames per second are displayed. May indicate that
  • the secondary video stream for 3D service is coded in AVC / H.264, is half resolution video, and displays 25 frames per second. It may represent that the image is.
  • the secondary video stream for the 3D service is coded in AVC / H.264, is half resolution video, and 30 frames per second are displayed. It may represent that the image is.
  • a method of reconstructing 3D video using primary and secondary video data by a broadcast receiver using a 3DTV service location descriptor using PMT is as follows.
  • the broadcast receiver may identify the 3D video stream through the SDT, and detailed information about each 3D video stream may be received through a descriptor included in the PMT.
  • the broadcast receiver finds whether a 3DTV service is provided in a corresponding channel using a service_type field of a service descriptor of the SDT. Alternatively, the broadcast receiver may determine whether the 3DTV service is provided through the stream for the 3D service among the components of the ES signaled through the component descriptor of the SDT.
  • the broadcast receiver detects the existence of the stream corresponding to the primary video among the elementary streams signaled by the component descriptor of the SDT (for example, a video stream having a full resolution may be the primary video stream). have). This can be seen that the corresponding elementary stream corresponds to the primary video of the 3D broadcast service using stream_content and component_type. In this case, the primary video can be identified through the component_tag_P information.
  • the broadcast receiver detects the presence of the stream corresponding to the secondary video among the elementary streams signaled by the component descriptor of the SDT (for example, a video stream having half resolution may be the secondary video stream). .
  • the corresponding elementary stream corresponds to the secondary video of the 3D broadcast service using the stream_content and the component_type.
  • the secondary video can be identified through the component_tag_S information.
  • the broadcast receiver finds and parses a PMT having a program_number field that matches the value of the service_id field of the SDT.
  • the broadcast receiver receives elementary PID information of the 3D primary video component by finding that the value of the component_tag field of the Stream Identifier Descriptor of the ES descriptor loop is Component_Tag_P among the elementary streams of the PMT (for example, the corresponding elementary PID is PID_P). Can be displayed).
  • the broadcast receiver receives elementary PID information of the 3D secondary video component by finding that the value of the component_tag field of the Stream Identifier Descriptor of the ES descriptor loop is Component_Tag_S among the elementary streams of the PMT (for example, the elementary PID is changed to PID_S). Can be displayed).
  • the broadcast receiver may obtain stereo configuration information, left / right arrangement, and resizing for primary and / or secondary video elements through the 3DTV service location descriptor added to the identified PID_S in the ES Loop of the PMT.
  • the broadcast receiver When watching a broadcast service in the 2D mode in the broadcast receiver, the broadcast receiver decodes and displays only the stream corresponding to PID_P.
  • the broadcast receiver When the broadcast receiver is watching a broadcast service in the 3D mode, the broadcast receiver simultaneously decodes video streams corresponding to PID_P and PID_S.
  • the broadcast receiver may control the format conversion and output of the primary and / or secondary video streams using information obtained through the 3DTV service location descriptor, and as a result, may display the 3D picture to the viewer.
  • a broadcast receiver transmits a 3DTV service location descriptor to an SDT so that the receiver reconstructs 3D video using primary and secondary video data as follows.
  • the broadcast receiver uses the service_type field of the service descriptor of the SDT to find out whether a 3DTV service is provided in the corresponding service. Alternatively, the receiver may recognize that the 3D broadcast service is due to the presence of the 3DTV service location descriptor.
  • the broadcast receiver When providing a 3D broadcast service, the broadcast receiver receives component_tag information of 3D primary video using a 3DTV service location descriptor. (For example, the component_tag information received may be component_tag_P.)
  • the broadcast receiver receives component_tag information of 3D secondary video using a 3DTV service location descriptor.
  • the component_tag information received may be component_tag_S.
  • the broadcast receiver finds and parses a PMT having a program_number field that matches the value of the service_id field of the SDT.
  • the broadcast receiver receives elementary PID information of the 3D primary video component by finding that the value of the component_tag field of the Stream Identifier Descriptor of the ES descriptor loop is Component_Tag_P among the elementary streams of the PMT.
  • the elementary PID information to be received may be PID_P.
  • the broadcast receiver receives elementary PID information of the 3D secondary video component by finding that the value of the component_tag field of the Stream Identifier Descriptor of the ES descriptor loop is Component_Tag_S among the elementary streams of the PMT. (For example, the elementary PID information to be received may be PID_S.)
  • the broadcast receiver obtains stereo configuration information, left / right positioning, and resizing information about the primary and / or secondary video elements through the 3DTV service location descriptor obtained through the SDT.
  • the broadcast receiver When watching a broadcast service in the 2D mode in the broadcast receiver, the broadcast receiver decodes and displays only the stream corresponding to PID_P.
  • the broadcast receiver When the broadcast receiver is watching a broadcast service in the 3D mode, the broadcast receiver simultaneously decodes video streams corresponding to PID_P and PID_S.
  • the broadcast receiver uses the information acquired through the 3DTV service location descriptor to control the format conversion and output of the primary and / or secondary video streams, and as a result, the 3D picture is shown to the viewer.
  • resizing is performed through the received information for spatially multiplexed format (side-by-side, top bottom, line interlacing, etc.) output.
  • resizing is performed based on the received information for outputting a temporally multiplexed format (frame sequential, field sequential, etc.).
  • the broadcast receiver may perform frame rate conversion to match the frame rate supported by the display.
  • FIG. 11 is a diagram showing the structure of a broadcast receiver according to an embodiment of the present invention.
  • a broadcast receiver includes a tuner and a demodulator 11010, a VSB decoder 11020, a TP demultiplexer 11030, a system information processor (PSI / PISP / SI processor; 11040), and a 3D video decoder (11050). ) And / or output formatter 11060.
  • the 3D video decoder 11050 may include a primary video decoder 11052 and / or a secondary video decoder 11054.
  • the broadcast receiver receives a broadcast signal through the tuner and demodulator 11010 and / or the VSB decoder 11020.
  • the VSB decoder 11020 may be interpreted as an OFDM decoder or the like regardless of its name.
  • the TP demultiplexer 11030 extracts and outputs video data, system information, and the like from the broadcast signal through filtering.
  • System information may include PMT, TVCT or SDT.
  • the system information processor 11040 receives system information and parses the received system information to obtain 3D video composition information.
  • the broadcast receiver determines whether to provide the 3D broadcast service through the system information processor 11040, and outputs the primary video data and the secondary video data from the TS demultiplexer 11030 according to whether the 3D broadcast service is provided.
  • the 3D video decoder 11050 decodes primary video data and secondary video data according to the 3D video composition information.
  • the output formatter 11060 processes the primary video data and the secondary video data according to the 3D video composition information and outputs 3D video data.
  • the output formatter 11060 may perform video data processing such as resizing, video formatting, frame rate conversion, etc. through filtering on at least one of the primary video data and the secondary video data according to the 3D video composition information.
  • the output formatter 11060 may perform resizing according to resizing information (or filter information) included in the received 3D video composition information.
  • the resizing information may include information on the type of filter, and in this case, information such as properties of the filter corresponding to the filter type may be stored in the output formatter 11060 or a storage medium (not shown).
  • FIG. 12 is a diagram illustrating a 3D service acquisition process in IPTV according to an embodiment of the present invention.
  • ITF IPTV Terminal Function
  • Service Provider Discovery is the process by which service providers that provide IPTV find servers that provide information about their services.
  • Service Provider Discovery provides service information server by service provider in the following way. That is, the receiver finds a list of addresses that can receive information (SP discovery information) about the SD Server (Service Discovery Server) in the following manner.
  • the receiver receives Service Provider (SP) Discovery information from an address set automatically or manually in advance.
  • SP Service Provider
  • the corresponding information may be received from an address previously set in the ITF, or the user may manually set a specific address to receive desired SP discovery information.
  • the receiver may perform DHCP based SP discovery. That is, the receiver can obtain the SP discovery information by using the DHCP option.
  • the receiver may perform SP SR based on DNS SRV. That is, the receiver can obtain the SP discovery information by throwing a query using the DNS SRV mechanism.
  • the receiver accesses the server of the address obtained in the above manner, and receives information composed of a Service Provider Discovery Record containing information necessary for service discovery of the SP (Service Provider).
  • the receiver proceeds with the service discovery step through the information composed of the Service Provider Discovery Record.
  • Data related to Service Provider Discovery can be provided in either Push or Pull.
  • the receiver accesses the SP Attachment Server of the service provider's access address (eg, an address designated as SPAttachmentLocator) and performs an ITF registration procedure (S12020).
  • the information delivered from the ITF to the server may be delivered in the form of an ITFRegistrationInputType record, for example, and the ITF may perform service attachment by providing such information in the form of a query term of the HTTP GET method.
  • the receiver may optionally connect to the authentication service server of the SP designated as the SPAuthenticationLocator to perform a separate authentication procedure and then perform a service attachment.
  • the receiver may perform authentication by transmitting ITF information similar to that of the Service Attachment to the server.
  • the receiver may receive data in the form of ProvisioningInfoTable from the service provider (S12030). This process may be omitted.
  • the receiver includes its ID and location information in the data transmitted to the server in the service attachment process such as the ITFRegistrationInputType record (S12040).
  • the service attachment server may specify a service subscribed to by the receiver based on the information provided by the receiver. Based on this, the service attachment server may provide an address in which a receiver needs to obtain service information in the form of a ProvisioningInfoTable. For example, this address can be used as connection information of the MasterSI Table. Such a method has an effect of enabling a service to be configured and provided for each subscriber.
  • the receiver may receive a VirtualChannelMap Table (s12050), a VirtualChannelDescription Table (s12060), and / or a SourceTable (s12070) based on the information received from the service provider.
  • a VirtualChannelMap Table (s12050)
  • a VirtualChannelDescription Table (s12060)
  • a SourceTable (s12070)
  • the VirtualChannelMap Table provides a Master SI Table Record that manages access information and versions for the VirtualChannelMap and a list of services in the form of packages.
  • the VirtualChannelDescription Table contains detailed information of each channel.
  • SourceTable contains access information to access actual service.
  • the VirtualChannelMap Table, VirtualChannelDescription Table, and SourceTable may be classified as service information.
  • service information may further include information of the above-described descriptor. In this case, however, the type of information may be changed to match the service information scheme of IPTV.
  • FIG. 13 is a diagram illustrating the structure of a Service Information (SI) table for IPTV according to an embodiment of the present invention.
  • SI Service Information
  • the receiver may process the received data according to the arrow time process illustrated in FIG. 13.
  • ServiceProviderInfo includes SP descriptive information which is information related to service provider, Authentication location which is information about location providing information related to authentication, and Attachment location which is information related to attachment location.
  • the receiver may perform authentication associated with a service provider by using authentication location information.
  • ProvisioningInfo includes Master SI Table location including server address to receive Master SI Table, Available channel including information about channel that viewer can receive, Subscribed channel including information related to subscribed channel, emergency situation It may include an Emergency Alert System (EAS) location including information related to an alert and / or an EPG data location including location information related to an electronic program guide (EPG).
  • EAS Emergency Alert System
  • EPG electronic program guide
  • the receiver may connect to the address capable of receiving the Master SI Table using the Master SI Table location information.
  • Master SI Table Record contains location information to receive each VirtualChannelMap and version information of each VitualChannelMap.
  • VirtualChannelMap is identified by VirtualChannelMapIdentifier, and VituralChannelMapVersion has version information of VictualChannelMap. If any one of all tables linked in the direction of the arrow starting from the MasterSITable is changed, the change is accompanied by an increase in the version number of the corresponding table and an increase in the version number of all tables above it (up to the MasterSI table). . Therefore, by monitoring the MasterSITable, it is possible to immediately identify the change in the entire SI table. For example, if a change occurs in the SourceTable, this change will increase the SourceVersion, which is a version of the SourceTable, which will result in a change in the VirtualChannelDescriptionTable that contains a reference to the SourceTable. In this way, the change of the lower table is propagated to the upper table and finally the change of the MasterSITable.
  • the VitrualChannelMap may be identified by a VirtualChannelMapIdentifier.
  • Each VirtualChannelMap can have one or more VirtualChannels, and specifies the locations from which detailed information about the VirtualChannels can be obtained.
  • VirtualChannelDescriptionLocation plays a role of designating the location of VirtualChannelDescriptionTable containing channel details.
  • the VirtualChannelDescriptionTable contains detailed information of the VirtualChannel and can be connected to a location providing the corresponding information to the VirtualChannelDescriptionLocation on the VirtualChannelMap.
  • the VirtualChannelServiceID is included in the VirtualChannelDescriptionTable and identifies a service corresponding to the VirtualChanneldescription.
  • the receiver can find the VirtualChannelDescriptionTable through the VirtualChannelServiceID.
  • the VirtualChannelDescriptionTable identified by a specific VirtualChannelServiceID is found.
  • the SourceTable provides connection information (eg, IP address, port, AV codec, transport protocol, etc.) and / or service-specific source information required to access a real service. Since one source may be utilized for several VirtualChannel services, it may be efficient to provide source information separately for each service.
  • connection information eg, IP address, port, AV codec, transport protocol, etc.
  • the MasterSITable, VirtualChannelMapTable, VirtualChannelDescriptionTable, and SourceTable are logically transmitted through four separate flows, and may be pushed or pulled.
  • the MasterSITable can be transmitted to Multicast for version control, and the receiver can always monitor the version change by receiving the stream transmitting the MasterSITable.
  • FIG. 14 illustrates an XML schema of a SourceReferenceType according to an embodiment of the present invention.
  • the XML schema of SourceReferenceType is a structure for referencing a source element containing media source information of a virtual channel service.
  • SourceReferenceType includes SourceId, SourceVersion, and / or SourceLocator information.
  • SourceId is an identifier of a referenced source element.
  • SourceVersion is the version of the referenced Source element.
  • the SourceLocator provides a location to receive a Source Table that contains the referenced Source element. In one embodiment, when the DefaultSourceLocator and this element exist at the same time, this element overrides the default value.
  • 15 is a diagram illustrating an XML schema of SourceType according to an embodiment of the present invention.
  • the XML schema of SourceType includes information necessary to obtain a media source of a VirtualChannelService.
  • SourceType includes SourceId, SourceVersion, TypeOfSource, IpSourceDefinition and / or RfSourceDefinition information.
  • SourceId is an identifier of a referenced source element. In one embodiment, this identifier must uniquely identify this Souce element.
  • SourceVersion is the version of the referenced Source element. In one embodiment, the value should increase whenever the content of the source element changes.
  • TypeOfSource is a value that indicates the nature of the source. For example, attributes such as high definition (HD), standard definition (SD), picture in picture (PIP), and barker may be indicated.
  • HD high definition
  • SD standard definition
  • PIP picture in picture
  • barker may be indicated.
  • the Barker channel is a channel for advertisement or promotion, and when the channel cannot be viewed due to lack of authority of the channel, the Barker channel is automatically selected as the channel and serves as a promotion and subscription guide for the channel.
  • IpSourceDefinition provides access information of media source delivered over IP network.
  • IpSourceDefinition may inform the Multicast IP address, transport protocol and / or various parameters.
  • RfSourceDefinition can provide connection information of media source delivered through cable TV network.
  • FIG. 16 is a diagram illustrating a TypeOfSourceType XML Schema extended to signal information about a primary or secondary video image for a 3D broadcast service according to an embodiment of the present invention.
  • typeOfSource is extended to add “HalfResolution2DSecondaryVideofor3D” type to distinguish the case of the source of half resolution secondary video for 3D broadcasting service. I would like to.
  • IPSourceDefinition and RFSourceDefinition may be extended as follows to signal video composition information when configuring 3D service.
  • Providing information at this stage is analogous to providing video composition information by channel or service unit in the case of ATSC or DVB broadcasting.
  • IPTV IPTV
  • one service can be composed of various media sources, and it is possible to designate a plurality of sources in a flexible structure as described above. Therefore, it is possible to provide information in service units by providing video composition information by extending this source level information.
  • the video composition information may include information included in the 3DTV service location descriptor.
  • FIG. 17 is a diagram illustrating an XML Schema diagram of a VideoCompositionInformationFor3DType for containing 3D video composition information according to an embodiment of the present invention.
  • the 3D video composition information means information including information included in the aforementioned 3DTV service location descriptor.
  • VideoCompositionInformationFor3DType is a newly defined type for capturing video composition information. As described above, VideoCompositionInformationFor3DType includes information on a specific method of outputting a 3D video image by combining two 2D images.
  • the VideoCompositionInformationFor3DType may include a PrimaryVideoFlag field, a ResolutionType field, a StereoFormatType field, a FilterType field, a HorCoefficientDen field, a HorCoefficientNum field, a VerCoefficientDen field, and / or a VerCoefficientNum field.
  • the above-described information may be provided in the case of half resolution secondary video for 2D source or 3D content.
  • the IPTV receiver can receive both streams that provide 2D video of half resolution added to the existing 2D service, and can provide a 3D service by combining them.
  • Each stream can be provided in the form of a source. Can be.
  • FIG. 18 is a diagram illustrating an XML Schema of VideoCompositionInformationFor3DType for containing 3D video composition information according to an embodiment of the present invention.
  • FIG. 19 is a diagram illustrating an IPSourceDefinitionType and an RFSourceDefinition XML schema extended to include 3D video composition information according to an embodiment of the present invention.
  • FIG. 19 proposes adding an IpSourceDefinitionType and a VideoCompositionInformationFor3D element, which is an element of VideoCompositionInformationFor3DType, to provide information for composing two 2D videos in 3D output.
  • IpSourceDefinitionType may include a MediaStream element, a RateMode element, a ScteSourceId element, an MpegProgramNumber element, a VideoEncoding element, an AudioEncoding element, an FecProfile element, and / or a VideoCompositionInformationFor3DType element.
  • the MediaStream element contains an IP multicast session description for this source's media stream.
  • This media stream element contains the asBandwidth attribute.
  • the unit of the asBandwidth attribute may be expressed in kilobits per second.
  • the interpretation of the asBandwidth attribute is the maximum bit rate.
  • the RateMode element contains a programming source rate type. For example, it may be a constant bit rate (CBR) or a variable bit rate (VBR).
  • CBR constant bit rate
  • VBR variable bit rate
  • the ScteSourceId element may include a Source ID of MPEG-2 TS.
  • the MpegProgramNumber element may include an MPEG Program Number.
  • the VideoEncoding element indicates the video encoding format of the media source.
  • the AudioEncoding element may indicate a description of audio coding used in a programming source in the form of an audio MIME type registered in IANA.
  • the FecProfile element indicates an IP FEC Profile if possible.
  • the VideoCompositionInformationFor3DType element signals information about the primary and / or secondary video element.
  • the VideoCompositionInformationFor3DType element may include a PrimaryVideoFlag field, a ResolutionType field, a StereoFormatType field, a FilterType field, a HorCoefficientDen field, a HorCoefficientNum field, a VerCoefficientDen field, and / or a VerCoefficientNum field. Detailed description thereof is as described above.
  • FIG. 20 is a diagram illustrating an RfSourceDefinitionType XML Schema diagram for containing 3D video composition information in an RfSourceDefinitionType according to an embodiment of the present invention.
  • FIG. 20 proposes to add a VideoCompositionInformationFor3D element, which is an element of VideoCompositionInformationFor3DType, to RfSourceDefinitionType to provide information for composing two 2D videos in 3D output.
  • RfSourceDefinitionType includes a FrequencyInKHz element, a Modulation element, an RfProfile element, a DvbTripleId element, a ScteSourceId element, an MpegProgramNumber element, a VideoEncoding element, an AudioEncoding element, and / or a VideoCompositionInformationFor3DType element.
  • the FrequencyInKHz element represents the RF frequency of the source in KHz. This represents the center frequency regardless of the modulation type.
  • the modulation element indicates the RF modulation type. For example, it may represent NTSC, QAM-64, QAM-256, or 8-VSB.
  • the RfProfile element may indicate an elementary stream format. For example, SCTE, ATSC, or DVB may be represented.
  • the DvbTripleId element represents a DVB Triplet identifier for a broadcast stream.
  • the ScteSourceId element may include a Source ID of MPEG-2 TS.
  • the MpegProgramNumber element may indicate an MPEG-2 program number.
  • the VideoEncoding element may indicate a description of video coding used in the programming source.
  • the AudioEncoding element may indicate a description of audio coding used in the programming source.
  • the VideoCompositionInformationFor3DType element signals information about the primary and / or secondary video element.
  • the VideoCompositionInformationFor3DType element may include a PrimaryVideoFlag field, a ResolutionType field, a StereoFormatType field, a FilterType field, a HorCoefficientDen field, a HorCoefficientNum field, a VerCoefficientDen field, and / or a VerCoefficientNum field. Detailed description thereof is as described above.
  • the media of the IPTV can be transmitted through an IP network composed of MPEG-2 TS similar to the existing digital broadcasting, The same may be applied to providing 3D video composition information through various tables of the SI stage in the TS.
  • video composition information may be contained and transmitted in MPEG-2 TS, and 3D video may be properly output using the same.
  • 21 is a diagram illustrating an IpService XML Schema extended to include 3D video composition information according to an embodiment of the present invention.
  • IpService includes ServiceLocation information, TextualIdentifier information, DVBTriplet information, MaxBitrate information, SI information, VideoAttributes information, AudioAttributes information and / or ServiceAvailabilty information.
  • ServiceLocation information indicates a location where a service can be found.
  • the TextualIdentifier information may indicate an ID in a character format representing a service. If you lose your domain name, you can get it by context.
  • the DVBTriplet information may indicate a DVB Triplet indicating a service. This may match the service details in the TS.
  • MaxBitrate information may indicate the maximum bitrate (in kbits / s) at which the TS including the corresponding service operates.
  • the SI information may include service information about a service.
  • the SI information may include name information, description information, service description location information, content genre information, country availability information, replacement service information, mosaic description information, announcement support information, and / or VideoCompositionInformationFor3DType information.
  • the Name information may indicate the name of the service known to the user in a text format.
  • the description information may indicate the character description of the service.
  • the ServiceDescriptionLocation information may indicate an identifier of a BCG record for the BCG discovery element for delivering the provision information.
  • ContentGenre information may indicate the (main) genre of the service.
  • CountryAvailability information may indicate a list of countries where services are available or unavailable.
  • the ReplacementService information may indicate details of connection to another service when the SI record fails to provide the service referenced by the SI record.
  • the MosaicDescription information may indicate details of a service and a service package displayed in the mosaic stream.
  • AnnouncementSupport information may indicate the announcement supported by the service. It may also indicate link information about the location of the announcement.
  • the VideoCompositionInformationFor3DType information may include a PrimaryVideoFlag field, a ResolutionType field, a StereoFormatType field, a FilterType field, a HorCoefficientDen field, a HorCoefficientNum field, a VerCoefficientDen field, and / or a VerCoefficientNum field. Detailed description thereof is as described above.
  • the VideoAttributes information may indicate a video coding method that can be used at some point in the service operation period.
  • the AudioAttributes information may indicate a method of audio coding that may be used at some point in the service operation period.
  • ServiceAvailabilty information may define areas where the service is available or unavailable.
  • each IPTV service is represented in DVB SD & S (Service Discovery and Selection) in units of IPService, wherein the SI element provides additional detailed information about the service.
  • This information provides much of the same content contained on the SDT on DVB SI.
  • the MPEG2 TS it is possible to configure the MPEG2 TS and transmit it through the IP network to use the DVB SI information in the TS in the same form as the existing DVB broadcasting.
  • FIG 22 illustrates an IPTV receiver according to an embodiment of the present invention.
  • IPTV receiver is a network interface (22010), TPC / IP Manager (22020), Service Control Manager (22030), Service Delivery Manager (22040), Content DB (22050), PVR manager (22060) , Service Discovery Manager (22070), Service Manager (22080), SI & Metadata DB (22090), PSI & (PSIP and / or DVB-SI) Decoder (22100), DEMUX (22110), Audio and Video Decoder (22120) , Native TV Application manager 22130 and / or A / V and OSD Displayer 22140.
  • Network Interface (22010) plays a role of transmitting and receiving IPTV packets.
  • the network interface 22010 operates at a physical layer and / or a data link layer.
  • the TPC / IP Manager 22020 is involved in end to end packet transmission. That is, the TPC / IP Manager 22020 manages packet transmission from source to destination. The TPC / IP Manager 22020 serves to classify and transmit IPTV packets to appropriate managers.
  • the service control manager 22030 plays a role of selecting and controlling a service.
  • the service control manager 22030 may play a role of managing a session.
  • the Service Control Manager 22030 may select a real time broadcast service using IGMP (Internet Group Management Protocol) or RTSP.
  • the Service Control Manager 22030 may select Video on Demand (VOD) content using the RTSP.
  • VOD Video on Demand
  • IMS IP Multimedia Subsystem
  • the Service Control Manager 22030 performs session initialization and / or management through an IMS gateway using a session initiation protocol (SIP).
  • IMS IP Multimedia Subsystem
  • the RTSP protocol is used to control transmission by TV broadcast or audio broadcast as well as on-demand transmission.
  • the RTSP protocol uses a persistent TCP connection and supports trick mode control for real-time media streaming.
  • the Service Delivery Manager 22040 is involved in the handling of live streaming and / or content download.
  • the Service Delivery Manager 22040 retrieves content from the Content DB 22050 for later use.
  • the Service Delivery Manager 22040 may use Real-Time Transport Protocol (RTP) / RTP Control Protocol (RTCP) used with MPEG-2 Transport Stream (TS).
  • RTP Real-Time Transport Protocol
  • RTCP RTP Control Protocol
  • MPEG-2 packets are encapsulated using RTP.
  • the Service Delivery Manager 22040 parses the RTP packet and sends the parsed packet to the DEMUX 22110.
  • the service delivery manager 22040 may play a role of transmitting feedback for network reception using RTCP.
  • MPEG-2 transport packets can be directly transmitted using a user datagram protocol (UDP) without using RTP.
  • UDP user datagram protocol
  • the service delivery manager 22040 may use hypertext transfer protocol (HTTP) or file delivery over unidirectional transport (FLUTE) as a transport protocol for content downloading.
  • HTTP hypertext transfer protocol
  • FLUTE file delivery over unidirectional transport
  • the service delivery manager 22040 may serve to process a stream for transmitting 3D video composition information. That is, when the above-described 3D video composition information is transmitted in a stream, processing thereof may be performed in the service delivery manager 22040.
  • the content DB 22050 is a database of content transmitted by the content download system or content recorded from a live broadcast TV.
  • the PVR manager 22060 plays a role of recording and playing back live streaming content. Collect all necessary metadata about the recorded content and gather additional information for a better user experience. For example, a thumbnail image or an index may be included.
  • the Service Discovery Manager 22070 enables discovery of IPTV services over a bidirectional IP network. Provides all the information about the available services.
  • Metadata Manager 22080 manages the processing of metadata.
  • SI & Metadata DB 22090 manages metadata in association with metadata DB.
  • PSI & (PSIP and / or DVB-SI) Decoder 22100 is a PSI control module. This may include not only PSI but also PSIP or DVB-SI, where PSI is used to include them.
  • PSI & (PSIP and / or DVB-SI) Decoder 22100 sets the PIDs for the PSI table and passes it to DEMUX 22110. Decode the PSI private section delivered from DEMUX 22110 and the result is used to demultiplex input TP by setting the audio and video PID.
  • DEMUX 22110 demultiplexes the audio, video, and PSI tables from input transport packets (TPs). It is controlled to demultiplex the PSI table by the PSI & (PSIP and / or DVB-SI) Decoder 22100 and generates a PSI table section and outputs it to the PSI & (PSIP and / or DVB-SI) Decoder 22100. . It is also controlled to demultiplex A / V TP.
  • the audio and video decoder 22120 may decode video and / or audio elementary stream packets. Audio Decoder 22122 and / or Video Decoder 27124. Audio Decoder 22122 decodes audio elementary stream packets. Video Decoder 22124 decodes video elementary stream packets.
  • the Native TV Application manager 22130 includes a UI Manager 22132 and / or a Service Manager 22134.
  • the Native TV Application manager 22130 supports a Graphic User Interface on the TV screen.
  • the native TV application manager 22130 may receive a user key by a remote controller or a front panel.
  • the native TV application manager 22130 may manage the state of the TV system.
  • the Native TV Application manager 22130 may configure a 3D OSD and control the output.
  • the UI manager 22132 may perform a control for displaying a user interface on the TV screen.
  • the service manager 22134 controls the manager associated with the service.
  • the Service Manager 22080 may control the Service Control Manager 22030, the Service Delivery Manager 22040, the IG-OITF client, the Service Discovery Manager 22070, and / or the Metadata Manager 22080.
  • the service manager 22134 processes 3D video composition information to control the display of the 3D video image.
  • the A / V and OSD Displayer 22140 receives the audio data and the video data, controls the display of the video data, and controls the reproduction of the audio data.
  • the A / V and OSD Displayer 22140 processes the primary video data and the secondary video data according to the 3D video composition information to output 3D video data.
  • the A / V and OSD Displayer 22140 performs video data processing such as resizing, video formatting, frame rate conversion, etc. through filtering on at least one of primary video data and secondary video data according to 3D video composition information. Can be.
  • a / V and OSD Displayer 22140 controls the output of the OSD.
  • the A / V and OSD Displayer 22140 may serve as a 3D output formatter that receives left and right images and outputs them as stereoscopic video. In this process, it will be possible to output the 3D OSD in combination. It can also play the role of PIP scalar for 3D PIP service.
  • FIG 23 illustrates functional blocks of an IPTV receiver according to an embodiment of the present invention.
  • the functional blocks of the IPTV receiver are a cable modem, a DSL modem 23010, an Ethernet NIC 23020, an IP network stack 23030, an XML parser 23040, a file processor 23050. , EPG processor 23060, SI processor 23070, storage device 23080, SI decoder 23090, EPG decoder 23100, ITF operation controller 23110, channel service manager 23120, application manager 23130 , An MPEG-2 demultiplexer 23140, an MPEG-2 PSI / PSIP parser 23150, an audio / video decoder 23160, and / or a display module 23170.
  • Blocks mainly dealt with in the present invention are indicated by a thick line, a solid arrow indicates a data path, and a dotted arrow indicates a control signal path. Description of each part is as follows.
  • the cable modem and the DSL modem 23010 demodulate the signal transmitted through the interface and the physical medium to which the ITF is connected to the IP network in the physical layer, and restore the digital signal.
  • the Ethernet NIC 23020 is a module for restoring a signal received through a physical interface to IP data.
  • the IP network stack 23030 is a processing module of each layer according to the IP protocol stack.
  • the XML parser 23040 is a module that parses an XML document among the received IP data.
  • the file processor 23050 is a module that processes data transmitted in the form of a file through FLUTE among the received IP data.
  • the EPG processor 23060 is a module that processes a portion corresponding to IPTV EPG data among the file type data received and stores the portion in the storage device.
  • the SI processor 23070 is a module that processes a portion corresponding to IPTV SI data among the received file type data and stores the portion in the storage device.
  • the storage device 23080 is a storage device that stores data that requires storage such as SI and EPG.
  • the SI decoder 23090 is a device that retrieves SI data from the storage device 18080 and restores necessary information when channel map information is needed.
  • the EPG decoder 23100 retrieves and analyzes EPG data from the storage device 23080 to restore necessary information.
  • the ITF operation controller 23110 is a main control unit for controlling the operation of the ITF such as a channel change and an EPG display.
  • the channel service manager 23120 is a module that receives an input from a user and manages a channel change operation.
  • the application manager 23130 is a module that manages application services such as an EPG display by receiving input from a user.
  • the MPEG-2 demultiplexer 23140 is a module that extracts MPEG-2 transport stream data from the received IP datagram and delivers the data to a corresponding module according to each PID.
  • the MPEG-2 PSI / PSIP parser 23150 stores PSI / PSIP data including information for connecting program elements such as PID information of each data (audio / video, etc.) of the MPEG-2 transport stream in the received IP datagram. Extract and parse modules.
  • the audio / video decoder 23160 decodes the received audio and video data and delivers the decoded audio and video data to the display module.
  • the display module 23170 processes a combination of the input AV signal and the OSD signal and outputs the same through the screen and the speaker.
  • the display module 23170 processes the primary video data and the secondary video data according to the 3D video composition information to output 3D video data.
  • the display module 23170 may perform video data processing such as resizing, video formatting, frame rate conversion, etc. through filtering on at least one of the primary video data and the secondary video data according to the 3D video composition information.
  • the L / R image is separated and output as a 3D image through a formatter.
  • the 3D depth information may be used to process the OSD to be displayed together with the 3D image.
  • 24 is a flowchart illustrating a broadcast signal processing method for a 3D broadcast service according to an embodiment of the present invention.
  • the broadcast transmitter encodes the 3D video broadcast data including the left video broadcast data including the left video and the right video broadcast data including the right video to represent the 3D effect (S24010).
  • the broadcast transmitter encodes signaling information for signaling the encoded 3D video broadcast data (s24020).
  • the signaling information may include resolution type information indicating whether the left video broadcast data and / or the right video broadcast data are a full resolution image or a half resolution image.
  • the resolution type information is included in a 3DTV service location descriptor that signals information about 3D video components and encoded into signaling information
  • the 3DTV service location descriptor may be a program map table (PMT) and / or a service description table ( Service Description Table (SDT).
  • PMT program map table
  • SDT Service Description Table
  • the signaling information may further include information indicating whether any one of left video broadcast data and right video broadcast data is provided as 2D video broadcast data for the 2D receiver.
  • the resolution type information may indicate whether vertical left resolution, horizontal half resolution, or vertical and horizontal half resolution when the left video broadcasting data and / or the right video broadcasting data is a half resolution video.
  • 3DTV service location descriptor is a type of filter used for doubling half resolution video broadcast data to full resolution when one of the left video broadcast data and the right video broadcast data is half resolution and the other is full resolution.
  • the method may further include filter type information indicating a type of a filter used for reducing the video broadcast data that is the full resolution to half resolution.
  • the 3DTV service location descriptor may further include filter size information indicating the size of the filter.
  • the 3DTV service location descriptor may further include information indicating whether the video broadcast data included in the broadcast signal is left video broadcast data or right video broadcast data.
  • the broadcast transmitter generates a broadcast signal including the encoded 3D video broadcast data and the encoded signaling information in operation S24030.
  • the broadcast transmitter transmits the generated broadcast signal (s24040).
  • the essential elements constituting the 3DTV signal are two video streams corresponding to the left image and the right image, one of which may be signaled to have compatibility with the 2D legacy device.
  • signaling for video data additionally transmitted for 3D broadcasting service and information on corresponding data may be transmitted using PSI, PSIP and / or DVB SI scheme.
  • the receiver provides a way for the receiver to provide better 3D services by signaling resolution information for additional data (secondary video), codec information, and information on filtering techniques recommended for resizing.
  • Method invention according to the present invention are all implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
  • the present invention can be applied to the field of 3D broadcasting systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 3D 방송 서비스를 위한 방송 신호 처리에 관한 것이다. 본 발명의 일 실시예에 의한 3D 방송 서비스를 위한 방송 신호 처리 방법은 3D 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터를 인코딩하는 단계, 상기 인코딩된 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 인코딩하는 단계, 상기 인코딩된 3D 비디오 방송 데이터와 상기 인코딩된 시그널링 정보를 포함하는 방송 신호를 생성하는 단계 및 상기 생성된 방송 신호를 전송하는 단계를 포함한다.

Description

3D (3-DIMENTIONAL) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
본 발명은 3D (3-Dimntional; 3D) 방송 서비스를 제공하고 이를 수신 처리하기 위한 방법 및 장치에 관한 것이다. 보다 상세하게는, 본 발명은 3D 방송 서비스를 제공함에 있어서, 3D 방송 서비스를 처리 가능한 3D 방송 수신기 및 기존의 2차원 방송 서비스만 처리 가능한 2차원 방송 수신기에서 동시에 처리될 수 있는 3D 방송 신호를 생성하고 이를 수신 처리 하는 방법에 관한 것이다.
3차원 텔레비젼(3-Dimensional Television, 3DTV)의 보급이 본격화됨에 따라 저장 매체에 의한 3차원(3D) 영상 컨텐츠 보급뿐만 아니라 디지털 방송에 의한 3차원 영상 컨텐츠의 전송이 활성화되고 있다.
일반적으로 3차원 영상은 두 눈의 스테레오(stereo) 시각 원리를 이용하여 입체감을 제공한다. 인간은 두 눈의 시차, 다시 말해 약 65mm 정도 떨어진 두 눈 사이의 간격에 의한 양안 시차(binocular parallax)를 통해 원근감을 느끼므로, 3D 영상은 좌안과 우안 각각이 연관된 평면 영상을 보도록 영상을 제공하여 입체감과 원근감을 제공할 수 있다.
이러한 3차원 영상 디스플레이 방법에는 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식 등이 있다. 스테레오스코픽 방식의 경우, 좌안에서 시청되기 위한 좌영상 (left view; 레프트 뷰) 이미지와 우안에서 시청되기 위한 우영상 (right view; 라이트 뷰) 이미지를 제공하여, 편광 안경 또는 디스플레이 장비 자체를 통해 좌안과 우안이 각각 레프트 뷰 이미지와 우측 이미지를 시청함으로써 3차원 영상 효과를 인지할 수 있도록 한다.
한편, 전술한 바와 같이, 3D 방송은 좌영상과 우영상을 각각 전달하고, 이를 방송 수신기에서 적절히 처리하여 3D 영상을 만들어야 하므로, 3D 방송 신호 처리를 위한 시그널링 정보가 추가되어야 한다.
3D 방송을 수신처리 할 수 있는 3D 방송 수신기는 기존의 방송 수신기에 비교하여 상대적으로 높은 수준의 하드웨어 및 처리 능력이 요구된다. 따라서, 동일한 방송 대역폭으로 전송되는 3D 방송 신호를 2D 방송 수신기에서도 수신하여, 2차원 방송으로 적절히 사용하도록 하는 방안이 필요하다.
그러나, 방송 대역폭의 제한으로 3D 방송 신호와 2D 방송 신호를 각각의 방송 수신기에 맞추어 전송하는 것은 실질적으로 불가능하거나, 이를 위하여 방송 영상의 질을 떨어뜨려야 하는 문제점이 생길 수 있다.
본 발명이 이루고자 하는 기술적 과제는, 전술한 문제점을 해결하기 위한 것으로 3D 방송 수신기와 2D 방송 수신기에서 호환성을 가지는 3D 방송 신호를 생성하고 이를 처리하는 것에 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 3D 방송 수신기에서 3D 방송 신호를 효율적으로 처리할 수 있도록, 3D 방송을 위한 시그널링 정보를 적절히 제공하는 것에 있다.
전술한 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법은 3D 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터를 인코딩하는 단계, 상기 인코딩된 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 인코딩하는 단계, 상기 인코딩된 3D 비디오 방송 데이터와 상기 인코딩된 시그널링 정보를 포함하는 방송 신호를 생성하는 단계 및 상기 생성된 방송 신호를 전송하는 단계를 포함하며, 여기서, 상기 시그널링 정보는 상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 풀 레졸루션 (full resolution) 영상인지 하프 레졸루션 (half resolution) 영상인지 나타내는 레졸루션 타입 정보를 포함한다.
바람직하게는, 레졸루션 타입 정보는, 3D 비디오 컴포넌트들에 대한 정보를 시그널링하는 3DTV 서비스 로케이션 디스크립터에 포함되어 시그널링 정보로 인코딩되며, 상기 3DTV 서비스 로케이션 디스크립터는 프로그램 맵 테이블 (Program Map Table; PMT) 및/또는 서비스 디스크립션 테이블 (Service Description Table; SDT)에 포함한다.
바람직하게는, 시그널링 정보는, 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나의 데이터가 2D 수신기를 위한 2D 비디오 방송 데이터로 제공되는지를 나타내는 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 레졸루션 타입 정보는, 상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 하프 레졸루션 영상인 경우, 수직 하프 레졸루션, 수평 하프 레졸루션, 또는 수직 및 수평 하프 레졸루션인지를 나타내는 것을 특징으로 한다.
바람직하게는, 3DTV 서비스 로케이션 디스크립터는, 상기 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나가 하프 레졸루션이고, 나머지 하나가 풀 레졸루션인 경우, 하프 레졸루션인 영상 방송 데이터를 풀 레졸루션으로 더블링 (doubling) 에 사용되는 필터의 종류 또는 상기 풀 레졸루션인 영상 방송 데이터를 하프 레졸루션으로 리듀싱 (reducing) 에 사용되는 필터의 종류를 나타내는 필터 타입 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 3DTV 서비스 로케이션 디스크립터는, 상기 필터의 크기를 나타내는 필터 크기 정보를 더 포함하는 것을 특징으로 한다.
바람직하게는, 3DTV 서비스 로케이션 디스크립터는, 상기 방송 신호에 포함된 영상 방송 데이터가 좌영상 방송 데이터인지 우영상 방송 데이터인지 가리키는 정보를 더 포함하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른, 3D 방송 서비스 수신 장치는, 3D (3-dimentional) 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터와 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 포함하는 방송 신호를 수신하는 수신부, 상기 시그널링 정보에 포함된 상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 풀 레졸루션 (full resolution) 영상인지 하프 레졸루션 (half resolution) 영상인지 나타내는 레졸루션 타입 정보를 파싱하는 시스템 정보 프로세서, 상기 좌영상 방송 데이터와 우영상 방송 데이터를 디코딩하는 비디오 디코더 및 상기 레졸루션 타입 정보를 이용하여, 디코딩된 좌영상 방송 데이터 및 우영상 방송 데이터 중 어느 하나의 영상 방송 데이터를 풀 레졸루션 영상 또는 하프 레졸루션 영상으로 더블링 (doubling) 또는 리듀싱 (reducing) 하여, 3D 디스플레이를 위한 3D 영상을 형성하는 포맷터를 포함한다.
바람직하게는, 시스템 정보 프로세서는, 상기 SDT에 포함된 서비스의 종류를 나타내는 서비스 타입 정보를 해석하거나, 상기 3DTV 서비스 로케이션 디스크립터의 존재여부로 상기 방송 신호가 3D 방송 서비스를 위한 것임을 인지하는 것을 특징으로 한다.
바람직하게는, 방송 수신기는 전술한 본 발명의 특징을 수행하는 기능부를 포함한다.
본 발명에 따르면, 기존의 방송 서비스 시그널링 체계에서 3D 방송 서비스를 위한 시그널링 정보를 전달할 수 있는 효과가 있다.
본 발명에 따르면, 3D 방송이 풀 레졸루션 (Full Resolution) 또는 하프 레졸루션 (Half Resolution) 으로 제공되는 어떠한 경우에 있어서도, 3D 방송의 질을 열화 시킴이 없이, 2D 방송 수신기와 호환성을 가지는 3D 방송 신호를 제공하는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른, 3D 방송 서비스의 비디오 요소의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 3DTV 서비스 로케이션 디스크립터의 신택스 구조를 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, Terrestrial Virtual Channel Table (TVCT)에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치 및 service_type 필드에 대한 정의를 나타낸 도면이다.
도 4는 본 발명의 다른 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른, 프로그램 맵 테이블 (Program Map Table; PMT) 에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치를 나타낸 도면이다.
도 6은 본 발명의 다른 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른, 서비스 디스크립션 테이블 (Service Description Table; SDT) 에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치를 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른, service_type 필드의 값에 따른 정의를 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터 (component descriptor) 를 나타낸 도면이다.
도 10은 본 발명의 일 실시예에 따른, stream_content 및 component_type의 정의를 나타낸 도면이다.
도 11는 본 발명의 일 실시예에 따른, 방송 수신기의 구조를 나타낸 도면이다.
도 12는 본 발명의 일 실시예에 따른, IPTV에서의 3D 서비스 획득 과정을 나타낸 도면이다.
도 13은 본 발명의 일실시예에 따른, IPTV를 위한 SI (Service Information) 테이블의 구조를 나타낸 도면이다.
도 14는 본 발명의 일실시예에 따른, SourceReferenceType의 XML 스키마를 나타낸 도면이다.
도 15은 본 발명의 일실시예에 따른, SourceType의 XML 스키마를 나타낸 도면이다.
도 16은 본 발명의 일실시예에 따른, 3D 방송 서비스를 위한 프라이머리 또는 세컨더리 비디오 영상에 대한 정보를 시그널링하기 위해 확장한 TypeOfSourceType XML Schema 를 나타낸 도면이다.
도 17은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위한 VideoCompositionInformationFor3DType의 XML Schema diagram을 나타낸 도면이다.
도 18은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위한 VideoCompositionInformationFor3DType의 XML Schema를 나타낸 도면이다.
도 19는 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위해 확장한 IPSourceDefinitionType, RFSourceDefinition XML 스키마를 나타낸 도면이다.
도 20은 본 발명의 일 실시예에 따른, RfSourceDefinitionType에 3D video composition 정보를 담기 위한 RfSourceDefinitionType XML Schema diagram을 나타낸 도면이다.
도 21은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위해 확장한 IpService XML Schema 를 나타낸 도면이다.
도 22는 본 발명의 일 실시예에 따른, IPTV 수신기를 나타낸 도면이다.
도 23은 본 발명의 일 실시예에 따른, IPTV 수신기의 기능 블록들을 나타낸 도면이다.
도 24는 본 발명의 일 실시예에 따른, 3D 방송 서비스를 위한 방송 신호 처리 방법을 나타낸 순서도이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시 예를 상세하게 설명하지만, 본 발명이 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
3차원 영상 표현 방법은 2개의 시점을 고려하는 스테레오스코픽 방식과 3개 이상의 시점을 고려하는 멀티플 뷰 이미지(multiple view image) 방식(또는 다시점 방식)을 포함할 수 있다. 이에 비해 종래의 싱글 뷰 이미지(single view image) 방식은 모노스코픽 영상 방식이라고 지칭할 수 있다.
스테레오스코픽 방식은 일정한 거리로 이격되어 있는 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 획득한 레프트 뷰 이미지와 라이브 뷰 이미지의 한 쌍의 이미지를 사용한다. 다시점 방식은 일정한 거리나 각도를 갖는 3개 이상의 카메라에서 촬영하여 획득한 3개 이상의 이미지를 사용한다. 이하에서 스테레오스코픽 방식을 일 실시예로 본 발명을 설명하나 본 발명의 사상은 다시점 방식에도 적용될 수 있을 것이다.
본 발명에 따른 스테레오스코픽 방식은 Side-by-Side 방식, Top-Bottom 방식, checker board 방식 등이 있다. Side-by-Side 방식은 좌 영상과 우 영상을 각각 수평방향으로 1/2 다운샘플링하고, 샘플링한 하나의 영상을 left 영역에, 샘플링한 나머지 하나의 영상을 right 영역에 위치시켜 하나의 스테레오스코픽 영상을 구성하는 방식이며, Top-Bottom 방식은 좌 영상과 우 영상을 각각 수직방향으로 1/2 다운샘플링하고, 샘플링한 하나의 영상을 Top 영역에, 샘플링한 나머지 하나의 영상을 bottom 영역에 위치시켜 하나의 스테레오스코픽 영상을 구성하는 방식이다. 체커보드 방식은 좌 영상과 우 영상을 각각 수직 및 수평방향으로 교차하도록 1/2 다운샘플링하여 두 영상을 하나의 영상으로 구성하는 방식이다. 하지만 본 발명에 따른 스테레오스코픽 방식은 위의 예에 한정되거나 제한되는 것은 아니다.
3차원 영상을 전송하고자 할 때 고려해야 하는 사항 중 하나는 2차원 영상과의 호환성이다. 3차원 영상 디스플레이를 지원하지 않는 수신기는 수신한 방송 신호에 포함된 3차원 영상을 2차원 영상으로 디스플레이 해야 하며, 3DTV에서도 필요한 경우에는 2차원 영상을 디스플레이할 수 있어야 하기 때문이다.
도 1은 본 발명의 일 실시예에 따른, 3D 방송 서비스의 비디오 요소의 구성을 나타낸 도면이다.
본 발명의 일 실시예에 따른 3D 방송 서비스의 비디오 요소는 프라이머리 비디오 (Primary Video) 스트림, 세컨더리 비디오 (Secondary Video) 스트림 및/또는 비디오 컴포지션 정보 (Video Composition Information)을 포함할 수 있다.
프라이머리 비디오 스트림은 3D 방송 수신기 외에 2D 방송 수신기와의 호환성 유지를 사용될 수 있다. 예를 들면, 3D 방송 신호에 포함된 비디오 요소 중, 2D 방송 수신기는 프라이머리 비디오 스트림을 수신하고, 이를 복호하여 2차원 방송 서비스를 제공할 수 있다. 전술한 바와 같이, 3D 영상을 제공하기 위하여는 좌영상과 우영상이 필요한데, 프라이머리 비디오 스트림은 좌영상 또는 우영상 중 어느 하나의 영상을 담은 비디오 스트림이 될 수 있다. 따라서, 2D 방송 수신기는 프라이머리 비디오 스트림을 이용하여, 좌영상 또는 우영상 중 어느 하나의 영상만을 디코딩하여 디스플레이 함으로써 2D 영상을 사용자에게 제공할 수 있다. 3D 방송 수신기를 사용하는 시청자가 3D 영상이 아닌, 2D 영상을 방송 수신기에서 시청하고자 하는 경우에도, 방송 수신기는 프라이머리 비디오 스트림만을 디코딩하여 제공하는 것으로 시청자의 요구를 충족시킬 수 있다.
본 발명의 실시예에 따른 프라이머리 비디오 스트림은 풀 레졸루션 (Full Resolution) 의 영상일 수 있다. 따라서, 프라이머리 비디오 스트림만을 이용하는 2D 방송 수신기에서도 레졸루션에 대한 질적 열화가 없는 영상을 제공 받을 수 있다.
그러나, 프라이머리 비디오 스트림은 항상 풀 레졸루션의 영상을 가지는 것에 한정되지 않고 하프 레졸루션 (Half Resolution)의 영상을 전송하도록 할 수 있다. 예를 들면, 방송 대역폭의 사정, 시청자들의 3D 또는 2D 방송 수신기 보유 현황 등의 사정에 따라, 프라이머리 비디오 스트림도 하프 레졸루션 (Half Resolution)의 영상을 전송하도록 할 수 있다.
세컨더리 비디오 스트림은 3D 영상을 이루는 좌영상 또는 우영상 중, 프라이머리 비디오 스트림이 전송하지 않은 영상을 전송할 수 있다. 세컨터리 비디오 스트림은 하프 레졸루션의 영상을 전송하는 것을 본 발명의 일 실시예로 한다. 이는 방송 대역폭의 한정이 있고, 3D 방송 서비스에 사용되는 세컨더리 비디오 스트림을 풀 레졸루션의 영상을 전송하도록 할 필요성이 낮기 때문이다. 그러나, 세컨더리 비디오 스트림이 항상 하프 레졸루션의 영상을 전송하는 것에 한정하지 않고, 풀 레졸루션의 영상을 전송할 수 있다. 이는 방송 수신측에서 2D 영상을 제공 받기를 원하는 경우에 있어서, 시청자의 기호에 따라, 좌영상 또는 우영상의 비디오 스트림을 2D 방송 영상으로 제공받는 것으로 선택할 수도 있기 때문이다.
3D 방송 서비스에서 좌영상 또는 우영상을 전송하는 2개의 비디오 스트림으로 3D 영상을 디스플레이하려면, 3D 방송 서비스에 대한 정보 및 2개의 비디오 스트림에 대한 다양한 정보가 추가로 송수신되어야 한다. 이러한 3D 방송 서비스를 위한 정보를 비디오 컴포지션 정보로서 제공할 수 있다.
본 발명의 일 실시예에서, 3D 방송 서비스를 위한 비디오 컴포지션 정보는 ATSC 시스템의 PSI/PSIP 에 포함되어 전송될 수 있다. 이 경우, 비디오 컴포지션 정보는 PSI에 포함된 프로그램 맵 테이블 (Program Map Table; PMT) 정보 또는 PSIP에 포함된 가상 채널 테이블 (Virtual Channel Table; VCT) 정보에 포함되어 전송될 수 있다.
본 발명의 다른 실시예에서, 3D 방송 서비스를 위한 비디오 컴포지션 정보 DVB 시스템의 시그널링 정보에 포함되어 전송될 수 있다. 이 경우, 비디오 컴포지션 정보는 PMT 정보 또는 서비스 디스크립션 테이블 (Service Description Table; SDT) 정보에 포함되어 전송될 수 있다.
도 2는 본 발명의 일 실시예에 따른, 3DTV 서비스 로케이션 디스크립터의 신택스 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 3DTV 서비스 로케이션 디스크립터는 descriptor_tag 필드, descriptor_length 필드, PCR_PID 필드, number_elements 필드, elementary_PID 필드, left_right_view 필드, primary_video_flag 필드, stream_type 필드, resolution_type 필드, stereo_format_type 필드, filter_type 필드, number_horizontal_taps 필드, hor_coefficient_den 필드, hor_coefficient_num 필드, number_vertical_taps 필드, ver_coefficient_den 필드 및/또는 ver_coefficient_num 필드를 포함할 수 있다.
descriptor_tag 필드는, 이 필드가 속한 디스크립터의 식별하는 역할을 한다.
descriptor_length 필드는, 이 필드를 뒤따르는 본 디스크립터에 속한 데이터의 길이를 바이트(byte)로 나타낸다.
PCR_PID 필드는, PCR 필드를 포함하는 트랜스포트 스트림의 패킷 식별자 (Packet Identifier; PID)를 가리킨다.
number_elements 필드는, 3D 방송 서비스를 구성하는 비디오 엘러먼트들의 수를 나타낸다. 방송 수신기는 3DTV 서비스 로케이션 디스크립터를 수신하여 3D 방송 서비스를 구성하는 비디오 엘러먼트들의 수만큼 이하의 필드들에 포함된 정보를 파싱할 수 있다.
elementary_PID 필드는, 비디오 엘러먼트의 PID를 나타낸다. 3DTV 서비스 로케이션 디스크립터는 elementary_PID 필드의 PID를 갖는 비디오 엘러먼트에 대한 이하의 정보들을 정의한다. 방송 수신기는 3DTV 서비스 로케이션 디스크립터로부터 해당 PID를 갖는 비디오 엘러먼트의 3D 비디오 디스플레이를 위한 정보를 획득할 수 있다.
left_right_view 필드는, 비디오 엘러먼트(element)가 left view의 비디오 데이터인지 right view의 비디오 데이터인지를 나타낸다.
primary_video_flag 필드는, 비디오 엘러먼트가 2D 레거시 디바이스에서도 디스플레이 가능한 비디오 데이터인지를 나타낸다. 예를 들면, flag 값이 ‘1’이면 primary video data이고, ‘0’인 경우에는 하프-레졸루션의 Secondary video data를 나타낼 수 있다.
stream_type 필드는, 비디오 엘러먼트에 대한 코딩 타입을 나타낸다. 예를 들면, JPEG, MPEG-2, MPEG-4, H.264/AVC 및/또는 H.264/MVC 등의 코딩 타입을 나타낼 수 있다.
resolution_type 필드는, 비디오 엘러먼트의 레졸루션에 대한 정보를 나타낸다. 예를 들면, 프라이머리 비디오 데이터 및/또는 세컨더리 비디오 데이터의 비디오 데이터가 가로 방향 또는 세로 방향으로 풀-레졸루션인지, 하프-레졸루션인지 여부를 나타낼 수 있다. 예를 들면, resolution_type 필드의 값이 “00” 인 경우, 비디오 데이터가 풀 레졸루션임을 나타내고, “01” 인 경우, 수직 (세로 방향) 으로 하프 레졸루션임을 나타내고, “10” 인 경우, Horizontally Half-Resolution 수평 (가로 방향) 으로 하프 레졸루션임을 나타내고, “11” 인 경우, 수평과 수직 방향으로 하프 레졸루션임을 나타낸다. 즉, 이 경우에는 1/4 레졸루션임을 나타낼 수도 있다.
stereo_format_type 필드는, 프라이머리 비디오 데이터와 세컨더리 비디오 데이터가 어떤 포멧에 따라 멀티플렉싱되어야 하는지를 나타낸다. 스테레오스코픽 디스플레이 포멧에는 side-by-side 방식, top-bottom 방식, checherboard 방식, vertical line interlace 방식, horizontal line interlace 방식, frame sequential 방식 등이 존재한다. 일 실시예로서, 방송 수신기 또는 디스플레이 장비가 좌/우 비디오 데이터에 대해 하프-레졸루션에 기반한 포멧만을 지원하는 경우 이 필드를 사용하여 recommended 스테레오스코픽 디스플레이 format 정보를 알 수 있다.
filter_type 필드는, 비디오 데이터를 리사이징하는 경우 필터링에 대한 정보를 나타낸다. 예를 들면, 하프-레졸루션의 세컨더리 비디오 데이터를 풀-레졸루션의 프라이머리 비디오 데이터에 맞도록 doubling을 수행하는 경우 또는 풀-레졸루션의 프라이머리 비디오 데이터를 하프-레졸루션의 세컨더리 비디오 데이터에 맞도록 절반을 줄이는 경우 사용되는 필터의 타입에 대한 정보를 나타낼 수 있다. 일 실시예로서, 비디오 데이터를 리사이징하는 경우 필터의 적용 방향(가로 방향, 세로 방향), 리사이징시 리사이징 비율(예를 들어, doubling 또는 half reducing)에 대한 정보, 필터의 종류(예를 들면, bilinear interpolation, bicubic interpolation 등) 등을 나타낼 수 있다. filter_type 필드에 포함된 필터링 정보는 이하에서 리사이징 정보로 지칭될 수도 있다.
number_horizontal_taps 필드는, horizontal 필터링을 수행하는 경우 적용되는 필터의 크기로서, 필터의 파라미터 개수를 나타낸다.
hor_coefficient_den 필드 및/또는 hor_coefficient_num 필드는, 필터 계수를 나타내며, 각각의 필터 계수는 hor_codefficient_den 값을 hor_coefficient_num 값으로 나눈 값을 사용할 수 있다(필터 계수 = hor_codefficient_den/ hor_coefficient_num).
number_vertical_taps 필드는, vertical 필터링을 수행하는 경우 적용되는 필터의 크기로서, 필터의 파라미터 개수를 나타낸다.
ver_coefficient_den 필드 및/또는 ver_coefficient_num 필드는, 필터 계수를 나타내며, 각각의 필터 계수는 ver_codefficient_den 값을 ver_coefficient_num 값으로 나눈 값을 사용할 수 있다(필터 계수 = ver_codefficient_den/ ver_coefficient_num).
3DTV 서비스 로케이션 디스크립터에 포함된 필터 관련 정보는 수평 방향, 수직 방향의 필터링이 수행됨을 나타낼 수 있다.
3DTV 서비스 로케이션 디스크립터는 TVCT 내에 위치할 수 있으며, 해당 virtual channel을 구성하는 3D 비디오 컴포넌트들에 대한 정보를 시그널링할 수 있다.
도 3은 본 발명의 일 실시예에 따른, Terrestrial Virtual Channel Table (TVCT)에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치 및 service_type 필드에 대한 정의를 나타낸 도면이다.
TVCT는 virtual channel들의 속성을 포함하고 있는 테이블이다. 본 발명의 일 실시예에 따르면, 3DTV 서비스 로케이션 디스크립터는 TVCT에 포함되어 전송될 수 있다.
TVCT는 table_id 필드, section_syntax_indicator 필드, private_indicator 필드, section_length 필드, transport_stream_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, protocol_version 필드, num_channels_in_section 필드, short_name 필드, major_channel_number 필드, minor_channel_number 필드, modulation_mode 필드, carrier_frequency 필드, channel_TSID 필드, program_number 필드, ETM_location 필드, access_controlled 필드, hidden 필드, hide_guide 필드, service_type 필드, source_id 필드, descriptors_length 필드, additional_descriptors_length 필드 및/또는 CRC_32 필드를 포함할 수 있다.
table_id 필드는, 테이블 섹션의 타입을 가리킨다. 예를 들면, TVCT를 가리키기 위해 그 값은 0xC8일 수 있다.
section_syntax_indicator 필드는, 1 비트로 구성되며 그 값은 1로 고정된다.
private_indicator 필드는, 1로 설정된다.
section_length 필드는, 12 비트로 구성되며, 처음 두 비트는 00이다. 이 필드는 섹션의 바이트 수를 나타내며, 이 필드 이후부터 CRC까지의 길이를 나타낸다.
transport_stream_id 필드는, 16 비트로 구성되며, MPEG-2 전송 스트림(Transport stream, TS) ID 이다. 이 필드에 의해 다른 TVCT와 구분이 가능하다.
version_number 필드는, Virtual Channel의 버전을 나타낸다. VCT에 변경된 사항이 있을 때마다 1씩 증가한다. 버전 값이 31이 도달하면 그 다음 버전 값은 0이 된다. 이 필드의 값은 MGT의 동일 필드값과 동일한 값일 수 있다.
current_next_indicator 필드는, 1 비트로 구성되며 VCT가 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다.
section_number 필드는, 섹션의 개수를 나타낸다. TVCT의 첫번째 섹션의 값은 0x00이고 추가적인 섹션마다 값은 1씩 증가한다.
last_section_number 필드는, 마지막 섹션의 숫자를 의미한다. 즉, 전체 TVCT에서 가장 높은 section_number를 갖는 섹션의 숫자를 의미한다.
protocol_version 필드는, 미래에 현재 프로토콜에서 정의된 것과 다른 테이블 종류를 허락하는 기능을 한다. 현재 프로토콜에서는 0만이 유효한 값이다. 0이 아닌 값은 구조적으로 다른 테이블을 위해 후 버전에서 사용될 것이다.
num_channels_in_section 필드는, VCT 섹션에서 virtual channel의 개수를 나타낸다. 그 값은 섹션 길이에 의해 제한된다.
short_name 필드는, virtual channel의 이름을 나타낸다.
major_channel_number 필드는, for 반복문 내에서 해당 차례에 정의되는 virtual channel의 major 채널 번호를 나타낸다. 각 virtual channel은 major 채널 번호와 minor 채널 번호로 이루어진다. major 채널 번호는 minor 채널 번호와 함께 해당 virtual channel에 대해 사용자에게 참조 번호로 동작한다. 예를 들면, major 채널 번호는 1 부터 99까지의 값을 갖고, major/minor 채널 번호 쌍은 TVCT 내에서 중복된 값을 갖지 않는다.
minor_channel_number 필드는, 0부터 999까지의 값을 ㄱ갖는다. minor 채널 번호는 major 채널 번호와 함께 two-part 채널 번호로 동작한다. 예를 들면, 서비스 타입이 ATSC_digital_television 또는 ATSC_audio_only 인 경우에는 minor 채널 번호는 1부터 99까지의 값을 갖는다. major/minor 채널 번호 쌍은 TVCT 내에서 중복된 값을 갖지 않는다.
modulation_mode 필드는, 해당 virtual channel과 관련된 전송 캐리어의 변조 모드를 나타낸다.
carrier_frequency 필드는, 캐리어 주파수를 나타낼 수 있다.
channel_TSID 필드는, 0x0000으로부터 0xFFFF의 값을 가지며, 이 virtual channel에 의해 참조되는 MPEG-2 프로그램을 전달하는 TS와 관련된 MPEG-2 TSID이다.
program_number 필드는, TVCT에서 정의된 virtual channel과 MPEG-2 PROGRAM ASSOCIATION 및 TS PROGRAM MAP 테이블을 연관짓는다.
ETM_location 필드는, Extended Text Message (ETM)의 존재와 위치를 나타낸다.
access_controlled 필드는, 플래그 필드로써, 1인 경우 해당 virtual channel과 관련된 이벤트가 접근 제어됨을 나타낼 수 있다. 0인 경우 접근이 제한되지 않음을 나타낸다.
hidden 필드는, 플래그 필드로써, 1인 경우 사용자에 의해 해당 번호가 직접 입력되더라도 접근이 허용되지 않는다. hidden virtual channel은 사용자가 채널 서핑을 하는 경우 스킵되며, 정의되지 않은 것처럼 보여진다.
hide_guide 필드는, 플래그 필드로써, hidden channel에 대해 0으로 설정되면 EPG 디스플레이에 그 virtual channel과 event가 보여질 수 있다. hidden 비트가 설정되지 않으면 이 필드는 무시된다. 따라서 non-hidden 채널과 그 이벤트는 hide_guide 비트의 상태와 관계없이 EPG 디스플레이에 속하게된다.
service_type 필드는, 해당 virtual channel에 의해 전달되는 서비스의 타입을 확인한다.
source_id 필드는, virtual channel과 관련된 프로그래밍 소스를 확인한다. 여기서, 소스는 비디오, 텍스트, 데이터, 또는 오디오 프로그래밍을 중 어느 하나 일 수 있다. source id 0은 예약된 값이며, 0x0001로부터 0x0FFF까지는 VCT를 전달하는 TS 내에서 유일한 값을 갖는다. 또한 0x1000로부터 0xFFFF까지는 지역 레벨에서 유일한 값을 갖는다.
descriptors_length 필드는, 해당 virtual channel을 위한 뒤따르는 디스크립터의 길이를 바이트 단위로 나타낸다.
descriptor() 내에는 디스크립터가 포함되어 있지 않거나 또는 1개 이상의 디스크립터가 포함될 수 있다.
additional_descriptors_length 필드는, 뒤따르는 VCT 디스크립터 리스트의 총 길이를 바이트 단위로 나타낸다.
CRC_32 필드는, 디코더 내의 레지스터의 zero output이 되도록 하는 CRC value를 나타낸다.
본 발명은 TVCT에 3DTV 서비스 로케이션 디스크립터를 포함시켜 전송하여, 특정 서비스에 대해 일관된 프라이머리 비디오 데이터, 세컨더리 비디오 데이터 및/또는 필터링 정보 등을 시그널링 할 수 있다. 이 경우, 서비스에 대해 시간에 따라 해당 정보를 갱신할 필요없이 동일 서비스에 대해 유지할 수 있으므로 데이터 전송 효율면에서 유리한 효과를 가진다.
본 발명의 일 실시예는, service_type 필드를 통하여, 본 버추어 채널을 통하여 제공되는 방송이 3D 서비스임을 식별할 수 있다. 예를 들면, service_type 필드가 “0x11” 로 설정되어 있는 경우, 방송 수신기는 본 채널을 통한 방송 서비스가 3D 서비스임을 인식할 수 있다.
본 발명의 일 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 이용해 수신기가 프라이머리 및 세컨더리 비디오 데이터를 이용해 3D 비디오를 재구성하는 방법은 다음과 같다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터에서 stereo format 정보를 획득한 후 프라이머리 비디오 엘레먼트에 대한 filter 정보를 이용해 Primary Video에 대해 1/2 크기의 리사이징 (resizing) 을 수행한다. 방송 수신기는 리사이징된 프라이머리 비디오와 수신된 세컨더리 비디오를 결합하여 3D 비디오를 재구성한다. 이때, stereo format 정보를 이용하여, 프라이머리 비디오와 세컨더리 비디오의 결합방식을 결정할 수 있다. 이후, 방송 수신기는 수신기의 display type에 따라 format conversion 등을 수행할 수 있다.
본 발명의 다른 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 이용해 수신기가 프라이머리 및 세컨더리 비디오 데이터를 이용해 3D 비디오를 재구성하는 방법은 다음과 같다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터에서 stereo format 정보를 획득한 후 세컨더리 비디오 엘레먼트에 대한 filter 정보를 이용해 세컨더리 비디오에 대해 더블링 (doubling) 을 수행한다. 여기서 더블링은 하프 레졸루션의 영상을 풀 레졸루션의 영상으로 만드는 것을 의미할 수 있다.
방송 수신기는 더블링된 세컨더리 비디오와 수신된 프라이머리 비디오를 stereo format 정보에 의해 결합하여 3D 비디오를 재구성한다. 이후 방송 수신기는 수신기의 display type에 따라 format conversion 등을 수행할 수 있다.
본 발명의 일 실시예에 따른, 방송 수신기가 프라이머리 비디오 엘레먼트 및/또는 세컨더리 비디오 엘레먼트를 처리하는 방법은 아래와 같다.
방송 수신기는 TVCT의 service_type 필드를 이용해 해당 virtual channel에서 3DTV service를 제공 여부를 알아낸다. service_type 필드가 3D 방송 서비스 임를 나타내는 경우, 방송 수신기는 서비스 로케이션 디스크립터 (service location descriptor) 또는 3DTV 서비스 로케이션 디스크립터 (3DTV service location descriptor) 를 이용해 프라이머리 비디오 엘레먼트의 elementary_PID 정보를 수신한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터 에서 세컨더리 비디오 엘레먼트의 elementary_PID 정보를 획득한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터에 포함된 정보를 통해 프라이머리 및/또는 세컨더리 비디오 엘레먼트에 대한 stereo 구성 정보, 좌/우 배치, resizing에 대한 정보를 파악한다.
방송 수신기에서 2D 모드로 방송 서비스를 시청하는 경우에는, 방송 수신기는 프라이머리 비디오 엘레먼트의 elementary_PID 정보에 해당하는 스트림만을 디코딩 & 디스플레이 한다.
방송 수신기에서 3D 모드로 시청하는 경우, 방송 수신기는 프라이머리 비디오 엘레먼트의 elementary_PID 정보 및 세컨더리 비디오 엘레먼트의 elementary_PID 정보에 해당하는 비디오 스트림을 동시에 디코딩 한다.
방송 수신기는 Stereo 구성 정보 등을 이용해 프라이머리 및/또는 세컨더리 비디오 스트림의 포맷 변환 및 출력을 제어하여 3D 화면을 시청자에게 보여준다.
도 4는 본 발명의 다른 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 나타낸 도면이다.
본 발명의 다른 실시예에 따른 3DTV 서비스 로케이션 디스크립터는 descriptor_tag 필드, descriptor_length 필드, left_right_view 필드, primary_video_flag 필드, resolution_type 필드, stereo_format_type 필드, filter_type 필드, number_horizontal_taps 필드, hor_coefficient_den 필드, hor_coefficient_num 필드, number_vertical_taps 필드, ver_coefficient_den 필드 및/또는 ver_coefficient_num 필드를 포함할 수 있다.
각 필드가 나타내는 정보는 도 2에 도시된 동일한 명칭을 가지는 필드의 정보와 유사하므로 전술한 설명으로 대체하기로 한다.
본 발명의 다른 실시예로, 3DTV 서비스 로케이션 디스크립터는 프로그램 맵 테이블 (Program Map Table; PMT) 에 포함될 수 있으며, 3D 방송 프로그램을 구성하는 각 엘레먼트에 대한 정보를 시그널링 할 수 있다.
도 5는 본 발명의 일 실시예에 따른, 프로그램 맵 테이블 (Program Map Table; PMT) 에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치를 나타낸 도면이다.
본 발명에 따른 프로그램 맵 테이블은 PMT는 다음을 포함한다.
table_id 필드, section_syntax_indicator 필드, section_length 필드, program_number 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, PCR_PID 필드, program_info_length 필드, stream_type 필드, elementary_PID 필드, ES_info_length 필드 및/또는 CRC_32 필드를 포함할 수 있다.
table_id 필드는, 8 비트 필드로써, TS_program_map_section 임을 나타내기 위하여 0x02의 값으로 설정될 수 있다.
section_syntax_indicator 필드는, 1 비트로써, 1로 설정된다.
section_length 필드는, 12 비트로 구성되며, 처음 두 비트는 00이다. 이 필드는 섹션의 바이트 수를 나타내며, 이 필드 이후부터 CRC까지의 길이를 나타낸다.
program_number 필드는, 16 비트로 구성된다. 이는 어느 프로그램에 program_map_PID가 적용가능한지 나타낸다. 하나의 프로그램 정의는 오직 하나의 TS_program_map_section에 의해서만 전송된다.
version_number 필드는, Virtual Channel의 버전을 나타낸다. VCT에 변경된 사항이 있을 때마다 1씩 증가한다. 버전 값이 31이 도달하면 그 다음 버전 값은 0이 된다. 이 필드의 값은 MGT의 동일 필드값과 동일한 값을 가질 수 있다.
current_next_indicator 필드는, 1 비트로 구성되며 VCT가 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다.
section_number 필드는 섹션의 넘버를 식별한다. 예를 들면, PMT를 위한 본 필드의 값은 0x00으로 설정된다.
last_section_number 필드는 마지막 섹션의 넘버를 식별한다. 예를 들면, PMT를 위한 본 필드의 값은 0x00으로 설정된다.
PCR_PID 필드는, 13 비트로 구성되며, 프로그램 번호에 의해 상술되는 프로그램에 대해 유효한 PCR 필드를 포함하는 TS의 PID를 의미한다.
program_info_length 필드는, 12 비트로 구성될 수 있으며, 처음 두 비트는 00의 값을 갖는다. 나머지 10 비트는 이 필드 이후에 따라오는 디스크립터를 바이트 수로 나타낸다.
stream_type 필드는, 8 비트로 구성될 수 있으며, 기본 PID의 PID 값을 갖는 패킷에 의해 전송되는 프로그램 엘리먼트의 타입을 나타낸다.
elementary_PID 필드는, 13 비트로 구성될 수 있으며, 관련된 프로그램 엘리먼트를 포함하는 TS의 PID를 나타낸다.
ES_info_length 필드는, 12 비트로 구성될 수 있으며, 첫 두 비트는 00이다. 나머지 10 비트는 이 필드 이후에 따라오는 관련 프로그램 엘리먼트의 디스크립터를 바이트 수로 나타낸다.
본 발명의 실시예에 따르면, ES_info_length 필드를 뒤따르는 디스크립터가 3DTV 서비스 로케이션 디스크립터가 될 수 있다.
CRC_32 필드는, 디코더 내의 레지스터의 zero output이 되도록 하는 CRC value를 나타낸다.
PMT에 3DTV 서비스 로케이션 디스크립터를 삽입하여 전송하므로써, 3D 방송 프로그램을 구성하는 엘레먼트 별로 프라이머리 비디오 데이터, 세컨더리 비디오 데이터 및/또는 필터링 정보 등을 시그널링 할 수 있다.
본 발명의 일 실시예에 따른 방송 수신기가 3DTV 서비스 로케이션 디스크립터를 이용해 수신기가 프라이머리 및 세컨더리 비디오 데이터를 이용해 3D 비디오를 재구성하는 방법은 다음과 같다.
방송 수신기는 PMT의 stream_type 및 각 elementary stream에 해당하는 3DTV 서비스 로케이션 디스크립터를 이용해 해당 스트림의 프라이머리 또는 세컨더리 비디오 스트림인지 여부를 판단한다. 이 때, 3DTV 서비스 로케이션 디스크립터의 존재를 통해 해당 프로그램이 3DTV 서비스를 제공하는지를 알 수 있다.
방송 수신기는 프라이머리 비디오에 해당하는 PID_P (Packet Identifier for Primary Video) 와 세컨더리 비디오에 해당하는 PID_S (Packet Identifier for Secondary Video)를 파악한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터를 통해 프라이머리 및/또는 세컨더리 비디오 스트림에 대한 stereo 구성 정보, 좌/우 배치, resizing에 대한 정보를 획득한다.
방송 수신기는 program_number 필드를 이용해 TVCT를 통해 제공되는 정보와의 mapping을 수행한다. 이 과정에서 방송 수신기는 이 프로그램이 어느 virtual channel을 통해 제공되는지를 알 수 있다.
방송 수신기에서 2D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P에 해당하는 스트림만을 디코딩하고 디스플레이 한다.
방송 수신기에서 3D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P 및 PID_S에 해당하는 비디오 스트림을 동시에 디코딩 한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터를 통해 획득한 정보를 이용해 프라이머리 및/또는 세컨더리 비디오 스트림의 포맷 변환 수행 및 출력을 제어하며 결과적으로 3D 화면을 시청자에게 보여준다.
도 6은 본 발명의 다른 실시예에 따른, 3DTV 서비스 로케이션 디스크립터를 나타낸 도면이다.
본 발명의 실시예에 따른 3DTV 서비스 로케이션 디스크립터는 descriptor_tag 필드, descriptor_length 필드, number_elements 필드, component_tag 필드, left_right_view 필드, primary_video_flag 필드, stream_type 필드, resolution_type 필드, stereo_format_type 필드, filter_type 필드, number_horizontal_taps 필드, hor_coefficient_den 필드, hor_coefficient_num 필드, number_vertical_taps 필드, ver_coefficient_den 필드 및/또는 ver_coefficient_num 필드를 포함할 수 있다.
component_tag 필드는, 본 디스크립터와 관련된 컴포넌트 스트림을 식별한다.
나머지 각 필드가 나타내는 정보는 도 2에 도시된 동일한 명칭을 가지는 필드의 정보와 유사하므로 전술한 설명으로 대체하기로 한다.
본 발명의 또 다른 실시예의 3DTV 서비스 로케이션 디스크립터는 서비스 디스크립션 테이블 (Service Description Table; SDT) 에 포함될 수 있으며, 3D 방송 프로그램을 구성하는 각 엘레먼트에 대한 정보를 시그널링 할 수 있다.
다른 예로, stream_type은 SDT 내에 포함될 수 있는, component descriptor내의 stream_content와 component_type 필드에 의해 대체될 수 있으며 이 경우에 3DTV 서비스 로케이션 디스크립터 내에서는 생략이 가능하다. 또한, component descriptor 및 PMT의 ES_loop 상의 ES와 연계관계를 나타내기 위해서 component_tag를 이용할 수 있다. PMT의 ES_Loop descriptor로 stream identifier descriptor내의 component_tag 필드에 동일한 값을 갖게 함으로써 SDT내의 component descriptor 및 3DTV 서비스 로케이션 디스크립터와의 연결관계를 나타낼 수 있다.
또한 3DTV 서비스 로케이션 디스크립터 내에서 loop을 통해 복수 개의 엘레먼트들에 대한 정보를 포함할 수 있도록 하였는데, 이 loop을 없애고 하나의 엘레먼트에 대한 정보만을 포함하도록 descriptor를 구성할 수도 있다. 이 경우, 3D 방송 서비스를 구성하는 엘레먼트들에, 동일한 3D 비디오 구성 정보가 적용될 수 있다.
도 7은 본 발명의 일 실시예에 따른, 서비스 디스크립션 테이블 (Service Description Table; SDT) 에 포함되는 3DTV 서비스 로케이션 디스크립터의 위치를 나타낸 도면이다.
서비스 디스크립션 테이블은 DVB-SI에서 특정 트랜스포트 스트림에 포함된 서비스들을 설명하는 테이블이다.
본 발명의 일 실시예에 따른 서비스 디스크립션 테이블은 table_id 필드, section_syntax_indicator 필드, section_length 필드, transport_stream_id 필드, version_number 필드, current_next_indicator 필드, section_number 필드, last_section_number 필드, original_network_id 필드, service_id 필드, EIT_schedule_flag 필드, EIT_present_following_flag 필드, running_status 필드, free_CA_mode 필드, descriptors_loop_length 필드 및/또는 CRC_32 필드를 포함할 수 있다.
table_id 필드는, 테이블을 식별하는 식별자이다. 예를 들면, table_id 필드의 특정값이 이 섹션이 서비스 디스크립션 테이블에 속한다는 것을 나타낸다.
section_syntax_indicator 필드는, 1 비트 필드로써, 1로 설정된다.
section_length 필드는, 첫 두 비트는 00으로 설정된다. 이 필드 이후부터 CRC를 포함하는 섹션의 바이트 수를 나타낸다.
transport_stream_id 필드는, TS (Transport Stream) 를 구별하는 레이블 역할을 한다.
version_number 필드는, sub_table의 버전 번호를 나타낸다. sub_table에 변경된 사항이 있을 때마다 1씩 증가한다.
current_next_indicator 필드는, sub_table이 현재 적용 가능한 것일 경우 값이 1로 설정된다. 만약 0으로 설정되어 있다면, 이는 아직 적용할 수 없으며 다음 테이블이 유효함을 의미한다.
section_number 필드는, 섹션의 번호를 나타낸다. 첫 번째 섹션은 0x00의 값을 가지며, 동일 table_id, 동일 transport_stream_id 및 동일 original_network_id를 갖는 추가 섹션마다 값이 1씩 증가한다.
last_section_number 필드는, 이 섹션이 일부분인 해당 sub_table의 마지막 섹션(즉 가장 높은 section_number)의 번호를 나타낸다.
original_network_id 필드는, 전송 시스템의 network_id를 확인하는 레이블이다.
service_id 필드는, TS 내에 포함된 다른 서비스와 구별 짓는 레이블 역할을 한다. 이는 program_map_section의 program_number와 동일하다.
EIT_schedule_flag 필드는, 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT 스케쥴 정보가 포함되어 있음을 나타낸다. 0이면 포함되어 있지 않음을 나타낸다.
EIT_present_following_flag 필드는, 1로 설정되면 현재 TS 내에 해당 서비스를 위한 EIT_present_following 정보가 포함되어 있음을 나타낸다. 0이면 EIT present/following 정보가 현재 TS에 포함되어 있지 않음을 나타낸다.
running_status 필드는, 서비스의 상태를 나타낸다.
free_CA_mode 필드는, 0으로 설정되면 해당 서비스의 모든 요소 스트림들이 스크램블되지 않음을 나타낸다. 1로 설정되면, 하나 또는 그 이상의 스트림이 CA 시스템에 의해 제어되고 있음을 의미한다.
descriptors_loop_length 필드는, 따라오는 디스크립터의 전체 길이를 바이트 단위로 나타낸다.
본 발명의 또 다른 실시예에서는, 3DTV 서비스 로케이션 디스크립터가 descriptors_loop_length 필드를 뒤따르는 디스크립터 영역에 포함될 수 있다.
CRC_32 필드는, 디코더에서 레지스터의 zero output을 위한 CRC value를 나타낸다.
본 발명의 일 실시예에 따르면, descriptors_loop_length 필드를 뒤따르는 디스크립터 영역에는 DVB SI의 서비스 디스크립터 (Service Descriptor) 에 포함된 service_type 필드를 통하여, 본 서비스가 3D 방송 서비스 임을 나타낼 수 있다.
도 8은 본 발명의 일 실시예에 따른, service_type 필드의 값에 따른 정의를 나타낸 도면이다.
예를 들면, service_type 필드가 “0x12” 의 값을 가지는 경우, 이는 본 서비스 디스크립션 테이블이 묘사하는 서비스가 3D 방송 서비스 임을 나타낼 수 있다.
service_type 필드가 가지는 값에 따라 정의된 내용은 도 8에 나타낸 설명으로 대체한다.
service_type 값은 서비스 디스크립터 (Service Descriptor) 에 포함되어서 서비스 디스크립션 테이블 (SDT)의 Descriptor Loop에 포함될 수 있다. 2D 비디오 서비스 만을 지원하는 기존 수신기와의 호환성을 보장하기 위하여 서비스 구성을 다음과 같이 할 수 있다.
본 발명의 일 실시예에 따르면, 2D 비디오 서비스와 3D 비디오 서비스를 각각 정의하되 두 서비스를 구성하는 스트림들은 공유하여 사용한다. 이 경우 3D 비디오 서비스를 위한 서비스 타입은 본 발명에서 제안한 새로운 값을 이용할 수 있으며, 서비스를 구성하는 프라이머리 비디오 스트림은 2D 서비스와 3D 서비스가 공유한다. 3D 비디오 서비스는 세컨더리 비디오 스트림을 추가적으로 포함하여 하프 (Half) 또는 풀 레졸루션 (Full Resolution) 3DTV 방송 서비스를 제공할 수 있다.
본 발명의 다른 실시예로, 별도의 서비스로 구성하지 않고 하나의 서비스로 구성하는 방안도 가능하다. 이 경우 세컨더리 비디오 스트림에 별도의 값이 할당되어 있으므로 기존 2D 수신기는 이를 인지하지 못하므로 무시하고 프라이머리 비디오 스트림만으로 풀 레졸루션 서비스를 문제없이 제공하는 것이 가능하다. 3D 비디오 서비스를 지원하는 수신기는 세컨더리 비디오 스트림을 인식하여 프라이머리 비디오 스트림의 영상과 조합을 통하여 하프 또는 풀 레졸루션의 서비스를 제공하는 것이 가능하다.
도 9는 본 발명의 일 실시예에 따른, 컴포넌트 디스크립터 (component descriptor) 를 나타낸 도면이다.
본 발명의 일 실시예에 따른, 컴포넌트 디스크립터는 descriptor_tag 필드, descriptor_length 필드, stream_content 필드, component_type 필드, component_tag 필드, ISO 639-2 [3]_language_code 필드 및/또는 text_char 필드를 포함할 수 있다.
descriptor_tag 필드는, 이 필드가 속한 디스크립터의 식별하는 역할을 한다.
descriptor_length 필드는, 이 필드를 뒤따르는 본 디스크립터에 속한 데이터의 길이를 바이트(byte)로 나타낸다.
stream_content 필드는, 스트림에 포함되는 비디오, 오디오 또는 데이터의 타입을 나타낸다.
component_type 필드는, 비디오, 오디오 또는 데이터 컴포넌트의 타입을 나타낸다.
component_tag 필드는, 스트림 식별 디스크립터 (stream identifier descriptor)의 component_tag 와 동일한 값을 가지는 필드이다.
ISO 639-2 [3]_language_code 필드는, 컴포넌트의 언어 또는 이 디스크립터에 포함되는 문자 디스크립터의 언어를 식별한다.
text_char 필드는, 컴포넌트 스트림의 문자 디스크립터 (text 를 식별한다.
본 디스트립터는 DVB 시스템의 서비스 디스크립션 테이블 (SDT) 또는/및 이벤트 정보 테이블 (Event Information Table) 에 포함될 수 있다.
도 10은 본 발명의 일 실시예에 따른, stream_content 및 component_type의 정의를 나타낸 도면이다.
stream_content는 stream 의 종류를 나타내는 것으로 MPEG-2 video의 경우 0x01 그리고 H.264 video의 경우 0x05로 정의될 수 있다. 이러한 스트림 내에서의 component type을 도 10에 도시된 바와 같이, 정의 할 수 있다. 3D 서비스를 위한 프라이머리 비디오 스트림에 대해서는 기존에 정의된 값을 활용 가능하다. 3D 서비스를 위한 세컨더리 비디오 스트림에 해당하는 component type을 도 10에 도시된 바와 같이 추가적으로 정의할 수 있다.
예를 들면, stream_content의 값이 “0x01”이고 component_type의 값이 “0x13” 인 경우, 3D 서비스를 위한 세컨더리 비디오 스트림은 MPEG-2 로 코딩되었으며, 하프 레졸루션의 영상이며, 초당 25 프레임이 디스플레이 되는 영상임을 나타낼 수 있다.
예를 들면, stream_content의 값이 “0x01”이고 component_type의 값이 “0x14” 인 경우, 3D 서비스를 위한 세컨더리 비디오 스트림은 MPEG-2 로 코딩되었으며, 하프 레졸루션의 영상이며, 초당 30 프레임이 디스플레이 되는 영상임을 나타낼 수 있다.
예를 들면, stream_content의 값이 “0x05”이고 component_type의 값이 “0x13” 인 경우, 3D 서비스를 위한 세컨더리 비디오 스트림은 AVC/H.264 로 코딩되었으며, 하프 레졸루션의 영상이며, 초당 25 프레임이 디스플레이 되는 영상임을 나타낼 수 있다.
예를 들면, stream_content의 값이 “0x05”이고 component_type의 값이 “0x14” 인 경우, 3D 서비스를 위한 세컨더리 비디오 스트림은 AVC/H.264 로 코딩되었으며, 하프 레졸루션의 영상이며, 초당 30 프레임이 디스플레이 되는 영상임을 나타낼 수 있다.
본 발명의 일 실시예에 따른 방송 수신기가 PMT로 3DTV 서비스 로케이션 디스크립터를 이용해 수신기가 프라이머리 및 세컨더리 비디오 데이터를 이용해 3D 비디오를 재구성하는 방법은 다음과 같다.
방송 수신기는 3D 비디오 스트림의 식별을 SDT를 통하여 진행하고, 각 3D 비디오 스트림에 대한 상세 정보는 PMT 상에 포함된 디스크립터를 통해 수신할 수 있다.
방송 수신기는 SDT의 서비스 디스크립터 (Service Descriptor) 의 service_type 필드를 이용해 해당 channel에서 3DTV 서비스 제공 여부를 알아낸다. 또는, 방송 수신기는 SDT의 컴포넌트 디스크립터 (Component Descriptor) 를 통해 시그널링된 ES의 component 중에 3D 서비스를 위한 스트림이 있는 것을 통해 3DTV 서비스 제공 여부를 파악할 수도 있다.
방송 수신기는 SDT의 컴포넌트 디스크립터 (Component Descriptor)에서 시그널링하는 엘레멘터리 스트림 중에서 프라이머리 비디오에 해당하는 스트림의 존재를 파악한다 (예를 들면, 풀 레졸루션을 가지는 비디오 스트림이 프라이머리 비디오 스트림이 될 수 있다). 이는 stream_content 및 component_type을 이용해서 해당 엘레멘터리 스트림이 3D 방송 서비스의 프라이머리 비디오에 해당함을 알 수 있다. 이 경우, component_tag_P 정보를 통하여 프라이머리 비디오를 식별할 수 있다.
방송 수신기는 SDT의 컴포넌트 디스크립터 (Component Descriptor)에서 시그널링하는 엘레멘터리 스트림 중에서 세컨더리 비디오에 해당하는 스트림의 존재를 파악한다 (예를 들면, 하프 레졸루션을 가지는 비디오 스트림이 세컨더리 비디오 스트림이 될 수 있다). 이는 stream_content 및 component_type을 이용해서 해당 엘레멘터리 스트림이 3D 방송 서비스의 세컨더리 비디오에 해당함을 알 수 있다. 이 경우, component_tag_S 정보를 통하여 세컨더리 비디오를 식별할 수 있다.
방송 수신기는 SDT의 service_id 필드의 값과 일치하는 program_number 필드를 가진 PMT를 찾아 파싱한다.
방송 수신기는 PMT의 엘레멘터리 스트림들 중에서 ES descriptor loop의 Stream Identifier Descriptor의 component_tag 필드의 값이 Component_Tag_P인 것을 찾아 3D 프라이머리 비디오 컴포넌트의 elementary PID 정보를 수신한다 (예를 들면, 해당 elementary PID를 PID_P로 표시할 수 있다).
방송 수신기는 PMT의 엘레멘터리 스트림들 중에서 ES descriptor loop의 Stream Identifier Descriptor의 component_tag 필드의 값이 Component_Tag_S인 것을 찾아 3D 세컨더리 비디오 컴포넌트의 elementary PID 정보를 수신한다 (예를 들면, 해당 elementary PID를 PID_S로 표시할 수 있다).
방송 수신기는 PMT의 ES Loop에서 상기 식별한 PID_S에 부가된 3DTV 서비스 로케이션 디스크립터를 통해 프라이머리 및/또는 세컨더리 비디오 엘레먼트에 대한 stereo 구성 정보, 좌/우 배치, resizing에 대한 정보를 획득할 수 있다.
방송 수신기에서 2D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P에 해당하는 스트림만을 디코딩하고 디스플레이 한다.
방송 수신기에서 3D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P 및 PID_S에 해당하는 비디오 스트림을 동시에 디코딩 한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터를 통해 획득한 정보를 이용해 프라이머리 및/또는 세컨더리 비디오 스트림의 포맷 변환 수행 및 출력을 제어하며 결과적으로 3D 화면을 시청자에게 보여 줄 수 있다.
SDT의 컴포넌트 디스크립터 (component descriptor)로 부터 3D 프라이머리 및/또는 세컨더리 비디오 스트림의 PID를 획득하는 과정을 기술하였다.
본 발명의 다른 실시예에 따른 방송 수신기가 SDT로 3DTV 서비스 로케이션 디스크립터를 전송하여, 수신기가 프라이머리 및 세컨더리 비디오 데이터를 이용해 3D 비디오를 재구성하는 방법은 다음과 같다.
방송 수신기는 SDT의 서비스 디스크립터 (Service Descriptor) 의 service_type 필드를 이용해 해당 서비스에서 3DTV 서비스 제공 여부를 알아낸다. 혹은 3DTV 서비스 로케이션 디스크립터의 존재에 의해서 수신기는 3D 방송 서비스임을 인지할 수 있다.
3D 방송 서비스를 제공하는 경우, 방송 수신기는 3DTV 서비스 로케이션 디스크립터를 이용해 3D 프라이머리 비디오의 component_tag 정보를 수신한다. (예를 들면, 수신하는 component_tag 정보는 component_tag_P 가 될 수 있다.)
방송 수신기는 3DTV 서비스 로케이션 디스크립터를 이용해 3D Secondary Video의 component_tag 정보를 수신한다. (예를 들면, 수신하는 component_tag 정보는 component_tag_S가 될 수 있다.)
방송 수신기는 SDT의 service_id 필드의 값과 일치하는 program_number 필드를 가진 PMT를 찾아 파싱한다.
방송 수신기는 PMT의 엘레멘터리 스트림들 중에서 ES descriptor loop의 Stream Identifier Descriptor의 component_tag 필드의 값이 Component_Tag_P인 것을 찾아 3D 프라이머리 비디오 컴포넌트의 elementary PID 정보를 수신한다. (예를 들면, 수신하는 elementary PID 정보는 PID_P 가 될 수 있다.)
방송 수신기는 PMT의 엘레멘터리 스트림들 중에서 ES descriptor loop의 Stream Identifier Descriptor의 component_tag 필드의 값이 Component_Tag_S인 것을 찾아 3D 세컨더리 비디오 컴포넌트의 elementary PID 정보를 수신한다. (예를 들면, 수신하는 elementary PID 정보는 PID_S 가 될 수 있다.)
방송 수신기는 SDT를 통해 획득한 3DTV 서비스 로케이션 디스크립터를 통해 프라이머리 및/또는 세컨더리 비디오 엘레먼트에 대한 stereo 구성 정보, 좌/우 배치, resizing에 대한 정보를 획득한다.
방송 수신기에서 2D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P에 해당하는 스트림만을 디코딩하고 디스플레이 한다.
방송 수신기에서 3D 모드로 방송 서비스를 시청하는 경우, 방송 수신기는 PID_P 및 PID_S에 해당하는 비디오 스트림을 동시에 디코딩 한다.
방송 수신기는 3DTV 서비스 로케이션 디스크립터를 통해 획득한 정보를 이용해 프라이머리 및/또는 세컨더리 비디오 스트림의 포맷 변환 수행 및 출력을 제어하며 결과적으로 3D 화면을 시청자에게 보여준다.
디코딩된 프라이머리 및/또는 세컨더리 비디오 영상을 포맷팅하여 출력하는 방법은 여러 가지 실시 예가 가능하다. 예를 들면, 방송 수신기의 디스플레이 능력/타입에 따라, spatially multiplexed format (side-by-side, top bottom, line interlacing 등) 출력을 위해서 수신된 정보를 통해 리사이징 (resizing) 을 수행하여 포맷팅을 수행하는 경우, temporally multiplexed format (frame sequential, field sequential 등) 출력을 위해서 수신된 정보를 통해 리사이징을 수행하여 포맷팅하는 경우가 있다. 또한, 방송 수신기는 디스플레이가 지원하는 프레임 레이트 (frame rate) 를 맞춰주기 위해서 프레임 레이트 변환을 수행할 수 있다.
도 11는 본 발명의 일 실시예에 따른, 방송 수신기의 구조를 나타낸 도면이다.
본 발명의 일 실시예에 따른 방송 수신기는 튜너 및 복조부 (11010), VSB 디코더(11020), TP 디멀티플렉서 (11030), 시스템 정보 프로세서 (PSI/PISP/SI processor; 11040), 3D 비디오 디코더(11050) 및/또는 아웃풋 포매터(11060)를 포함할 수 있다. 3D 비디오 디코더(11050)는 프라이머리 비디오 디코더(11052) 및/또는 세컨더리 비디오 디코더(11054)를 포함할 수 있다.
방송 수신기는 튜너 및 복조부 (11010) 및/또는 VSB 디코더(11020)을 통해 방송 신호를 수신한다. VSB 디코더(11020)는 그 명칭에 구애받지 않고, OFDM 디코더 등으로 해석될 수도 있다.
TP 디멀티플렉서 (11030)는 필터링을 통해 방송 신호로부터 비디오 데이터, 시스템 정보 등을 추출하여 출력한다. 시스템 정보는 PMT, TVCT 또는/및 SDT을 포함할 수 있다.
시스템 정보 프로세서(11040)는 시스템 정보를 수신하고, 수신된 시스템 정보를 파싱하여 3D 비디오 컴퍼지션 정보를 획득한다. 방송 수신기는 시스템 정보 프로세서(11040)를 통해 3D 방송 서비스의 제공 여부를 판단하여, 3D 방송 서비스의 제공 여부에 따라 TS 디멀티플렉서(11030)에서 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터를 출력하도록 한다.
3D 비디오 디코더(11050)는 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터를 디코딩한다.
아웃풋 포매터(11060)는 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터를 프로세싱하여 3D 비디오 데이터를 출력한다. 아웃풋 포매터(11060)는 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터 중 적어도 하나에 대하여 필터링을 통한 리사이징, 비디오 포메팅, 프레임 레이트 컨버젼 등의 비디오 데이터 프로세싱을 수행할 수 있다.
아웃풋 포매터(11060)는 수신된 3D 비디오 컴퍼지션 정보에 포함된 리사이징 정보(또는 필터 정보)에 따라서 리사이징을 수행할 수 있다. 리사이징 정보에는 필터의 종류에 대한 정보가 포함될 수 있으며, 이 경우 필터 종류에 해당하는 필터에 대한 속성 등의 정보가 아웃풋 포매터(11060) 또는 도시되지 않은 저장매체에 저장되어 있을 수도 있다.
도 12는 본 발명의 일 실시예에 따른, IPTV에서의 3D 서비스 획득 과정을 나타낸 도면이다.
ITF(IPTV Terminal Function)는 Push/Pull 모드로 서비스 프로바이더로부터 Service Provider Discovery를 위한 정보를 제공 받는다(s12010). Service Provider Discovery는 IPTV를 제공하는 서비스 프로바이더들이 자신들의 서비스에 대한 정보를 제공하는 서버를 찾는 과정이다. 예를 들면, Service Provider Discovery는 다음과 같은 방식으로 서비스 프로바이더 별 서비스 정보 서버를 제공한다. 즉, 수신기는 SD Server(Service Discovery Server)에 대한 정보(SP Discovery 정보)를 받을 수 있는 주소 목록을 다음과 같은 방식으로 찾게된다.
일실시예로, 수신기는 미리 자동 또는 수동 설정된 주소로부터 SP (Service Provider) Discovery 정보를 수신한다. 이 때, ITF에 미리 설정된 주소로부터 해당 정보를 수신하거나, 사용자가 수동으로 특정 주소를 설정하여 사용자가 원하는 SP Discovery 정보를 수신할 수 있다.
다른 실시예로, 수신기는 DHCP 기반 SP Discovery 를 수행할 수 있다. 즉, 수신기는 DHCP option을 사용하여 SP Discovery 정보를 얻을 수 있다.
또 다른 실시예로, 수신기는 DNS SRV 기반의 SP Discovery 를 수행할 수 있다. 즉, 수신기는 DNS SRV 메커니즘을 이용하여 쿼리를 던져 SP Discovery 정보를 얻어올 수 있다.
수신기는 위와 같은 방법으로 획득한 주소의 서버에 접속하여, SP (Service Provider) 의 Service Discovery에 필요한 정보를 담은 Service Provider Discovery Record 로 구성된 정보를 받는다. 수신기는 Service Provider Discovery Record 로 구성된 정보를 통하여 서비스 탐색 단계를 진행한다. Service Provider Discovery와 관련된 데이터는 Push 또는 Pull, 어느 형태로든 제공하는 것이 가능하다.
수신기는 SP Discovery record의 정보를 바탕으로, 서비스 프로바이더의 접속 주소 (예를 들면, SPAttachmentLocator로 지정된 주소) 의 SP Attachment Server에 접속하여 ITF 등록 절차(Service Attachment절차)를 수행한다(s12020). 이때 ITF에서 서버로 전달하는 정보는, 예를 들면, ITFRegistrationInputType 레코드의 형태로 전달될 수 있으며, ITF는 HTTP GET method의 query Term 형태로 이러한 정보를 제공하여 Service Attachment를 수행할 수도 있다.
일실시예로, 수신기는 선택적으로 SPAuthenticationLocator로 지정되는 SP의 Authentication service server에 접속하여 별도의 인증절차를 수행한 이후, Service Attachement를 수행할 수도 있다. 이 경우 수신기는 상기 Service Attachment의 경우와 유사한 형태의 ITF 정보를 서버에 전송하여 인증을 수행할 수 있다.
수신기는 ProvisioningInfoTable의 형태의 데이터를 서비스 프로바이더로부터 수신할 수 있다(s12030). 이 과정은 생략될 수도 있다.
수신기는 ITFRegistrationInputType 레코드 등 Service Attachment 과정에서 서버로 전송하는 데이터에 자신의 ID와 위치정보를 포함하여 제공한다(s12040). Service Attachment 서버는 수신기가 제공한 정보를 바탕으로 수신기가 가입한 서비스를 특정 지을 수 있다. Service Attachment 서버는 이를 바탕으로 수신기가 받아야 할 Service Information을 획득할 수 있는 주소를 ProvisioningInfoTable 형태로 제공할 수 있다. 예를 들면, 이 주소를 MasterSI Table의 접속정보로 이용 가능하다. 이러한 방식은, 가입자 별로 맞춤형으로 서비스를 구성하여 제공하는 것이 가능하게 하는 효과가 있다.
수신기는 서비스 프로바이더로부터 수신한 정보를 바탕으로, VirtualChannelMap Table (s12050), VirtualChannelDescription Table (s12060) 및/또는 SourceTable (s12070)을 수신할 수 있다.
VirtualChannelMap Table 은 VirtualChannelMap에 대한 접속 정보 및 버전을 관리하는 Master SI Table Record와 패키지 형태의 서비스 목록을 제공한다. VirtualChannelDescription Table은 각 채널의 상세 정보를 담고 있다. SourceTable은 실제 서비스를 Access할 수 있는 접속 정보를 담고 있다. VirtualChannelMap Table, VirtualChannelDescription Table 및 SourceTable는 service information으로 분류될 수 있다. 이러한 service information에는 전술한 디스크립터의 정보들이 더 포함될 수 있다. 다만, 이 경우에는 IPTV 의 service information scheme에 맞도록 정보의 형태는 변경될 수 있다.
도 13은 본 발명의 일실시예에 따른, IPTV를 위한 SI (Service Information) 테이블의 구조를 나타낸 도면이다.
도 13은 Service Provider discovery, attachment metadata components, Services Discovery metadata components 및 이들의 관계를 도시하고 있다. 도 13에 도시된 화살표시 과정을 따라 수신기는 수신한 데이터를 처리할 수 있다.
ServiceProviderInfo 는 서비스 프로바이더와 관련된 정보인 SP descriptive information, 인증과 관련된 정보를 제공하는 위치에 대한 정보인 Authentication location, attachment 위치와 관련된 정보인 Attachment location을 포함하고 있다.
수신기는 Authentication location 정보를 이용하여, 서비스 프로바이더와 관련된 인증을 수행할 수 있다.
Attachment location에 포함된 정보를 이용하여, ProvisioningInfo 를 수신할 수 있는 서버에 접속할 수 있다. ProvisioningInfo에는 Master SI Table 를 수신할 수 있는 서버 주소를 포함하는 Master SI Table location, 시청자가 제공받을 수 있는 채널에 대한 정보를 포함하는 Available channel, Subscribe된 채널에 관련한 정보를 포함하는 Subscribed channel, 긴급 상황 경보와 관련된 정보를 포함하는 EAS (Emergency Alert System) location 및/또는 EPG (Electronic Program Guide) 와 관련된 위치 정보를 포함하는 EPG data location을 포함할 수 있다. 특히, 수신기는 Master SI Table location 정보를 이용하여, Master SI Table을 수신할 수 있는 주소로 접속할 수 있다.
Master SI Table Record는 각 VirtualChannelMap을 받을 수 있는 위치 정보와 각 VitualChannelMap들의 버전 정보를 담고 있다.
VirtualChannelMap은 VirtualChannelMapIdentifier로 식별되며, VituralChannelMapVersion은 VictualChannelMap의 버전 정보를 가진다. MasterSITable로 부터 시작된 화살표 방향으로 연결된 모든 테이블 중 어느 하나의 테이블이 변경될 경우 이러한 변경 여부는 해당 테이블의 버전 번호의 중가 및 그 상위의 모든 테이블(MasterSI 테이블까지)의 버전 번호의 증가를 수반하게 된다. 따라서 MasterSITable을 모니터링 함으로써 전체 SI 테이블 상의 변화를 바로 파악할 수 있게 된다. 예를 들어 SourceTable에 변경이 발생할 경우, 이 변경은 SourceTable의 버전인 SourceVersion을 증가시키게 되고 이 변화는 SourceTable에 대한 레퍼런스를 포함하는 VirtualChannelDescriptionTable의 변경을 가져오게된다. 이러한 식으로 하위 테이블의 변화는 상위 테이블로 전파되어 최종적으로 MasterSITable의 변경을 가져온다.
Master SI Table은 하나의 서비스 제공자를 위하여 하나만 존재할 수도 있다. 하지만 서비스의 구성이 지역별 혹은 가입자 (혹은 가입자 그룹) 별로 다를 경우, 이러한 각 단위별 맞춤형 서비스를 제공하기 위하여 이를 별도의 Master SI Table Record를 구성하는 것이 효율적일 수 있다. 이 경우 Service Attachment 단계를 통해 가입자의 지역 및 가입 정보 등에 맞는 맞춤형 서비스를 Master SI table을 통해 제공하는 것이 가능하다.
Master SI Table Record는 VitrualChannelMap 목록을 제공한다. VitrualChannelMap은 VirtualChannelMapIdentifier로 식별될 수 있다. 각 VirtualChannelMap은 하나 이상의 VirtualChannel을 가질 수 있으며, VirtualChannel에 대한 상세정보를 얻을 수 있는 위치를 지정한다. VirtualChannelDescriptionLocation은 채널 상세 정보를 담고 있는 VirtualChannelDescriptionTable의 위치를 지정하는 역할을 한다.
VirtualChannelDescriptionTable은 VirtualChannel의 상세 정보를 담고 있으며, VirtualChannelMap상의 VirtualChannelDescriptionLocation에 해당 정보를 제공하는 위치에 접속할 수 있다.
VirtualChannelServiceID는 VirtualChannelDescriptionTable에 포함되며, VirtualChanneldescription에 해당하는 서비스를 식별하는 역할을 한다. 수신기는 VirtualChannelServiceID 통해 VirtualChannelDescriptionTable를 찾을 수 있다. Multicast 방식으로 복수개의 VirtualChannelDescriptionTable들을 전달받는 경우, 해당 스트림에 join하여 테이블들을 계속 수신하면서 특정 VirtualChannelServiceID 에 의하여 식별되는 VirtualChannelDescriptionTable를 찾는다.
Unicast의 경우, VirtualChannelServiceID를 파라미터로서, 서버에 전달하여 원하는 VirtualChannelDescriptionTable 만을 받아올 수 있다.
SourceTable은 실제 서비스를 접속하는 데 필요한 접속 정보 (예를 들면, IP 주소, 포트, AV 코덱, 전송 프로토콜 등) 및/또는 서비스별 Source 정보를 제공한다. 하나의 Source가 여러 VirtualChannel 서비스를 위하여 활용될 수 있으므로, 서비스별로 Source 정보를 분리하여 제공하는 것이 효율적일 수 있다.
상기의 MasterSITable, VirtualChannelMapTable, VirtualChannelDescriptionTable, 그리고 SourceTable는 논리적으로 네 개의 분리된 flow를 통해 전달되며 Push/Pull의 어떤 방식이라도 무방하다.
그러나, MasterSITable은 버전 관리를 위하여 Multicast 로 전송할 수 있으며, 수신기는 항상 MasterSITable을 전송하는 스트림을 수신하여 버전 변화를 모니터링할 수 있다.
도 14는 본 발명의 일실시예에 따른, SourceReferenceType의 XML 스키마를 나타낸 도면이다.
본 발명의 일실시예에 따른 SourceReferenceType의 XML 스키마는 Virtual Channel Service의 media source 정보를 담고 있는 source element를 레퍼런스하는 구조이다.
SourceReferenceType은 SourceId, SourceVersion 및/또는 SourceLocator 정보를 포함한다.
SourceId는 레퍼런스하는 Source element의 식별자이다.
SourceVersion은 레퍼런스하는 Source element의 버전이다.
SourceLocator는 레퍼런스하는 Source element를 포함하는 Source Table을 받을 수 있는 위치를 제공한다. 일실시예로, DefaultSourceLocator와 본 element가 동시에 존재할 경우 본 element가 default값을 override하게 된다.
도 15은 본 발명의 일실시예에 따른, SourceType의 XML 스키마를 나타낸 도면이다.
본 발명에 따른 SourceType의 XML 스키마는 VirtualChannelService의 media source를 획득하는데 필요한 정보를 담고 있는 것을 일실시예로 한다.
SourceType은 SourceId, SourceVersion, TypeOfSource, IpSourceDefinition 및/또는 RfSourceDefinition 정보를 포함한다.
SourceId는 레퍼런스하는 Source element의 식별자이다. 일실시예로, 이 식별자는 유일하게 이 Souce element를 식별할 수 있어야 한다.
SourceVersion은 레퍼런스하는 Source element의 버전이다. 일실시예로, Source element의 내용이 변경될 때마다 값이 증가하여야 한다.
TypeOfSource 는 해당 Source의 성격을 나타내는 값이다. 예를 들면, HD (High Definition), SD (Standard Definition), PIP (Picture in Picture), Barker 등의 속성을 나타낼 수 있다.
일실시예로, Barker 채널은 광고 혹은 홍보용의 채널로써 해당 채널의 권한이 없어서 시청할 수 없을 때, 이 채널로 자동 선택되며 해당 채널의 홍보와 가입 안내의 역할을 수행한다.
IpSourceDefinition은 IP망을 통해 전달되는 media source의 접속 정보를 제공한다. 일실시예로, IpSourceDefinition은 Multicast IP주소, 전송 프로토콜 및/또는 각종 파라메터들을 알려줄 수 있다.
RfSourceDefinition은 케이블TV망을 통해 전달되는 media source의 접속 정보를 제공할 수 있다.
도 16은 본 발명의 일실시예에 따른, 3D 방송 서비스를 위한 프라이머리 또는 세컨더리 비디오 영상에 대한 정보를 시그널링하기 위해 확장한 TypeOfSourceType XML Schema 를 나타낸 도면이다.
예를 들면, 3D 방송 서비스를 위한 하프 레졸루션의 세컨더리 비디오의 Source 정보를 시그널링 하기 위하여 TypeOfSource를 확장하여 “HalfResolution2DSecondaryVideofor3D” 타입을 추가하여서 3D 방송 서비스를 위한 하프 레졸루션의 세컨더리 비디오의 source 인 경우를 구분할 수 있도록 하고자 한다.
일 실시예로, 3D 서비스를 구성할 경우의 video composition 정보를 시그널링 하기 위하여 IPSourceDefinition 및 RFSourceDefinition을 다음과 같이 확장할 수 있다. 이 단계에서 정보를 제공하는 것은 ATSC나 DVB 방송의 경우 채널 또는 서비스 단위로 video composition 정보를 제공해주는 것과 유사하다고 볼 수 있다. IPTV에서는 하나의 서비스가 다양한 미디어 소스로 구성될 수 있고 이를 전술한 바와 같은 융통성 있는 구조로 다수의 소스를 지정할 수 있도록 하고 있다. 따라서 이 Source 레벨의 정보를 확장하여 video composition 정보를 제공함으로써 서비스 단위로 정보를 제공하는 것이 가능하다. 여기서 video composition 정보에는 3DTV 서비스 로케이션 디스크립터에 포함되는 정보가 포함될 수 있다.
도 17은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위한 VideoCompositionInformationFor3DType의 XML Schema diagram을 나타낸 도면이다.
여기서 3D video composition 정보는 전술한 3DTV 서비스 로케이션 디스크립터에 포함되는 정보를 포함하는 정보를 의미한다. VideoCompositionInformationFor3DType 은 video composition 정보를 담기 위해 새롭게 정의한 type으로 앞서 설명한 바와 같이 2개의 2D 영상을 조합하여 3D 비디오 영상을 출력하는 구체적인 방안에 대한 정보를 담고 있다.
본 발명의 일 실시예에 따른 VideoCompositionInformationFor3DType은 PrimaryVideoFlag 필드, ResolutionType 필드, StereoFormatType 필드, FilterType 필드, HorCoefficientDen 필드, HorCoefficientNum 필드, VerCoefficientDen 필드 및/또는 VerCoefficientNum 필드를 포함할 수 있다.
각 필드에 대한 설명은 앞서 기술한 3DTV 서비스 로케이션 디스크립터에 포함되는 유사한 명칭을 가진 필드와 동일하므로, 이에 대한 상세한 설명은 전술한 설명으로 대체한다.
전술한 정보는 2D Source나 3D 컨텐츠를 위한 하프 레졸루션의 세컨더리 비디오의 경우에 모두 제공될 수 있다.
IPTV 수신기는 기존의 2D 서비스에 부가된 하프 레졸루션의 2D 영상을 제공하는 두 개의 스트림을 모두 수신하고, 이를 조합하여 3D 서비스를 제공하는 할 수 있으며, 각각의 스트림을 source의 형태로 구성하여 제공할 수 있다.
도 18은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위한 VideoCompositionInformationFor3DType의 XML Schema를 나타낸 도면이다.
VideoCompositionInformationFor3DType의 XML Schema에 포함되는 내용은 전술한 바와 같으므로, 상세한 설명을 생략하고, 전술한 설명으로 대체한다.
도 19는 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위해 확장한 IPSourceDefinitionType, RFSourceDefinition XML 스키마를 나타낸 도면이다.
도 19는 IpSourceDefinitionType과 에 VideoCompositionInformationFor3DType의 element인 VideoCompositionInformationFor3D element를 추가하여 3D 출력시 두개의 2D video를 composition하는 정보를 제공하도록 하는 방안을 제안하고 있다.
본 발명의 일실시예에 따른 IpSourceDefinitionType은 MediaStream 엘레먼트 (element), RateMode 엘레먼트, ScteSourceId 엘레먼트, MpegProgramNumber 엘레먼트, VideoEncoding 엘레먼트, AudioEncoding 엘레먼트, FecProfile 엘레먼트 및/또는 VideoCompositionInformationFor3DType 엘레먼트를 포함할 수 있다.
MediaStream 엘레먼트는 이 소스의 미디어 스트림을 위한 IP 멀티캐스트 세션 디스크립션을 포함한다. 이 미디어 스트림 엘레먼트는 asBandwidth 속성을 포함한다. asBandwidth 속성의 단위는 초당 킬로비트로 표현될 수 있다. asBandwidth 속성의 해석은 최대 비트 레이트이다.
RateMode 엘레먼트는 프로그래밍 소스 레이트 타입을 포함한다. 예를 들면, constant Bit Rate (CBR) 또는 Variable Bit Rate (VBR)이 될 수 있다.
ScteSourceId 엘레먼트는 MPEG-2 TS의 Source ID를 포함할 수 있다.
MpegProgramNumber 엘레먼트는 MPEG Program Number를 포함할 수 있다.
VideoEncoding 엘레먼트는 미디어 소스의 비디오 인코딩 포맷을 나타낸다.
AudioEncoding 엘레먼트는 프로그래밍 소스에 사용된 오디오 코딩에 대한 디스크립션을 IANA에 등록된 오디오 MIME 타입의 형태로 나타낼 수 있다.
FecProfile 엘레먼트는 가능한 경우 IP FEC Profile을 나타낸다.
VideoCompositionInformationFor3DType 엘레먼트는 프라이머리 및/또는 세컨더리 비디오 엘레먼트에 대한 정보를 시그널링한다. VideoCompositionInformationFor3DType 엘레먼트는 PrimaryVideoFlag 필드, ResolutionType 필드, StereoFormatType 필드, FilterType 필드, HorCoefficientDen 필드, HorCoefficientNum 필드, VerCoefficientDen 필드 및/또는 VerCoefficientNum 필드를 포함할 수 있다. 이들에 대한 상세한 설명은 전술한 바와 같다.
도 20은 본 발명의 일 실시예에 따른, RfSourceDefinitionType에 3D video composition 정보를 담기 위한 RfSourceDefinitionType XML Schema diagram을 나타낸 도면이다.
도 20은 RfSourceDefinitionType 에 VideoCompositionInformationFor3DType의 element인 VideoCompositionInformationFor3D 엘레먼트를 추가하여 3D 출력시 두개의 2D video를 composition하는 정보를 제공하도록 하는 방안을 제안하고 있다.
본 발명의 일실시예에 따른 RfSourceDefinitionType는 FrequencyInKHz 엘레먼트, Modulation 엘레먼트, RfProfile 엘레먼트, DvbTripleId 엘레먼트, ScteSourceId 엘레먼트, MpegProgramNumber 엘레먼트, VideoEncoding 엘레먼트, AudioEncoding 엘레먼트 및/또는 VideoCompositionInformationFor3DType 엘레먼트를 포함한다.
FrequencyInKHz 엘레먼트는 소스의 RF 주파수를 KHz 단위로 나타낸다. 이는 모듈레이션 타입에 관계없이 중앙 주파수를 나타낸다.
Modulation 엘레먼트는 RF 모듈레이션 타입을 나타낸다. 예를 들어 NTSC, QAM-64, QAM-256, 또는 8-VSB 등을 나타낼 수 있다.
RfProfile 엘레먼트는 기본 스트림 형식을 나타낼 수 있다. 예를 들어 SCTE, ATSC, 또는 DVB 등을 나타낼 수 있다.
DvbTripleId 엘레먼트는 방송 스트림을 위한 DVB Triplet identifier를 나타낸다.
ScteSourceId 엘레먼트는 MPEG-2 TS의 Source ID를 포함할 수 있다.
MpegProgramNumber 엘레먼트는 MPEG-2 프로그램 번호를 나타낼 수 있다.
VideoEncoding 엘레먼트는 프로그래밍 소스에 사용된 비디오 코딩의 디스크립션을 나타낼 수 있다.
AudioEncoding 엘레먼트는 프로그래밍 소스에 사용된 오디오 코딩의 디스크립션을 나타낼 수 있다.
VideoCompositionInformationFor3DType 엘레먼트는 프라이머리 및/또는 세컨더리 비디오 엘레먼트에 대한 정보를 시그널링한다. VideoCompositionInformationFor3DType 엘레먼트는 PrimaryVideoFlag 필드, ResolutionType 필드, StereoFormatType 필드, FilterType 필드, HorCoefficientDen 필드, HorCoefficientNum 필드, VerCoefficientDen 필드 및/또는 VerCoefficientNum 필드를 포함할 수 있다. 이들에 대한 상세한 설명은 전술한 바와 같다.
전술한 IPTV의 새로운 시그널링 단을 통한 3D video composition 정보 제공방안 이외에도, IPTV의 미디어들은 기존 디지털 방송과 유사한 형태의 MPEG-2 TS로 구성 되어 IP망을 통하여 전송될 수 있으므로, 본 발명에서 앞서 제안된 TS내의 SI단의 각종 테이블을 통한 3D video composition 정보를 제공하는 방안도 동일하게 적용될 수 있다. 이 경우, 본 발명에서 제안한 ATSC나 DVB전송의 경우와 유사하게 MPEG-2 TS 내에 video composition 정보를 담아서 전송하여 이를 이용하여 적절히 3D 비디오를 출력할 수도 있다.
도 21은 본 발명의 일 실시예에 따른, 3D video composition 정보를 담기 위해 확장한 IpService XML Schema 를 나타낸 도면이다.
본 발명의 일실시예에 따른 IpService는 ServiceLocation 정보, TextualIdentifier 정보, DVBTriplet 정보, MaxBitrate 정보, SI 정보, VideoAttributes 정보, AudioAttributes 정보 및/또는 ServiceAvailabilty 정보를 포함한다.
ServiceLocation 정보는 서비스를 찾을 수 있는 위치를 나타낸다.
TextualIdentifier 정보는 서비스를 나타내는 문자 형식의 ID를 나타낼 수 있다. 만약 도메인 이름을 잃어버린 경우 전후 관계(문맥)에 의해 얻을 수 있다.
DVBTriplet 정보는 서비스를 나타내는 DVB Triplet을 나타낼 수 있다. 이는 TS 내의 서비스 디테일과 매칭될 수 있다.
MaxBitrate 정보는 해당 서비스를 포함하는 TS가 동작하는 최대 비트레이트 (in kbits/s)를 나타낼 수 있다.
SI 정보는 서비스에 대한 서비스 정보를 포함할 수 있다.
SI 정보는 Name 정보, Description 정보, service description location 정보, content genre 정보, country availability 정보, replacement service 정보, mosaic description 정보, announcement support 정보 및/또는 VideoCompositionInformationFor3DType 정보를 포함할 수 있다.
Name 정보는 사용자에게 알려진 서비스의 이름을 텍스트 형식으로 나타낼 수 있다.
Description 정보는 서비스의 문자 디스크립션을 나타낼 수 있다.
ServiceDescriptionLocation 정보는 제공 정보를 전달하는 BCG discovery 엘레먼트를 위한 BCG 레코드의 식별자를 나타낼 수 있다.
ContentGenre 정보는 서비스의 (주된) 장르를 나타낼 수 있다.
CountryAvailability 정보는 서비스가 가능 또는 불가능한 국가의 리스트를 나타낼 수 있다.
ReplacementService 정보는 SI 레코드가 참조하는 서비스를 제공하는데 실패한 경우 다른 서비스로의 연결에 대한 세부사항을 나타낼 수 있다.
MosaicDescription 정보는 모자익 스트림으로 디스플레이되는 서비스, 서비스 패키지에 대한 세부사항을 나타낼 수 있다.
AnnouncementSupport 정보는 서비스에 의해 지원되는 공고를 나타낼 수 있다. 또한 공고의 위치에 대한 링크 정보를 나타낼 수 있다.
VideoCompositionInformationFor3DType 정보는 PrimaryVideoFlag 필드, ResolutionType 필드, StereoFormatType 필드, FilterType 필드, HorCoefficientDen 필드, HorCoefficientNum 필드, VerCoefficientDen 필드 및/또는 VerCoefficientNum 필드를 포함할 수 있다. 이들에 대한 상세한 설명은 전술한 바와 같다.
VideoAttributes 정보는 서비스 운용 기간 중 일부 시점에 사용될 수 있는 비디오 코딩 방법을 나타낼 수 있다.
AudioAttributes 정보는 서비스 운용 기간 중 일부 시점에서 사용될 수 있는 오디오 코딩의 방법을 나타낼 수 있다.
ServiceAvailabilty 정보는 해당 서비스의 제공이 가능 또는 불가능한 지역을 정의할 수 있다.
본 발명의 일 실시예에 따르면, DVB IPTV 시스템에서, 각 IPTV 서비스는 IPService 단위로 DVB SD&S (Service Discovery and Selection) 내에서 표현되며, 그 중에서 SI 엘레먼트는 서비스에 대한 추가적인 상세한 정보를 제공하여 준다. 이 정보들은 DVB SI 상의 SDT 상에 포함된 내용을 대부분 동일하게 제공하고 있다. 이를 확장하여 하기에 도시된 바와 같이 3D video composition 정보를 추가함으로써 이를 제공하고자 한다.
DVB IPTV 시스템에서도 전술한 바와 마찬가지로 MPEG2 TS 형태로 구성하여 이를 IP 망을 통해 전송하여 TS내의 DVB SI 정보를 기존 DVB 방송과 동일한 형태로 이용하는 것이 가능하다.
도 22는 본 발명의 일 실시예에 따른, IPTV 수신기를 나타낸 도면이다.
본 발명에 일 실시예에 따른 IPTV 수신기는 Network Interface (22010), TPC/IP Manager (22020), Service Control Manager (22030), Service Delivery Manager (22040), Content DB (22050), PVR manager (22060), Service Discovery Manager (22070), Service Manager (22080), SI & Metadata DB (22090), PSI & (PSIP and/or DVB-SI) Decoder (22100), DEMUX (22110), Audio and Video Decoder (22120), Native TV Application manager (22130) 및/또는 A/V and OSD Displayer (22140)를 포함한다.
Network Interface (22010)는 IPTV 패킷을 송/수신하는 역할을 한다. Network Interface (22010)는 physical layer 및/또는 data link layer 에서 동작한다.
TPC/IP Manager (22020)는 end to end 패킷 전송에 관여한다. 즉, TPC/IP Manager (22020)는 source에서 destination까지의 패킷 전송을 관리하는 역할을 수행한다. TPC/IP Manager (22020)는 IPTV 패킷들을 적절한 매니저로 분류하여 전송하는 역할을 한다.
Service Control Manager (22030)는 서비스를 선택하고 제어하는 역할을 수행한다. Service Control Manager (22030)는 session을 관리하는 역할을 수행할 수도 있다. 예를 들면, Service Control Manager (22030)는 IGMP (Internet Group Management Protocol) 또는 RTSP을 이용하여 실시간 방송 서비스를 선택할 수 있다. 예를 들면, Service Control Manager (22030)는 RTSP를 이용하여 VOD (Video on Demand) 컨텐츠를 선택할 수 있다. 예를 들면, IMS (IP Multimedia Subsystem) 가 사용되는 경우, Service Control Manager (22030)는 SIP (session initiation protocol)를 사용하여 IMS 게이트웨이를 통한 세션 초기화 및/또는 매니징을 수행한다. 주문형 전송뿐만 아니라 TV 방송 또는 오디오 방송에 의한 전송을 제어하기 위해서는 RTSP 프로토콜이 사용된다. RTSP 프로토콜은 지속적인 TCP 컨넥션을 사용하며 실시간 미디어 스트리밍에 대해 트릭 모드 컨트롤을 지원한다.
Service Delivery Manager (22040)는 실시간 스트리밍 및/또는 컨텐트 다운로드의 핸들링에 관여한다. Service Delivery Manager (22040)는 추후 사용을 위하여 Content DB (22050) 으로부터 컨텐츠를 retrieving한다. Service Delivery Manager (22040)는 MPEG-2 Transport Stream (TS)와 함께 사용되는 Real-Time Transport Protocol (RTP) / RTP Control Protocol (RTCP) 를 이용할 수 있다. 이 경우, MPEG-2 패킷은 RTP를 이용하여 encapsulated 된다. Service Delivery Manager (22040)는 RTP 패킷을 파싱하고, 파싱된 패킷을 DEMUX (22110) 으로 보낸다. Service Delivery Manager (22040)는 RTCP를 이용하여 네트워크 reception에 대한 피드백을 전송하는 역할을 수행할 수 있다. MPEG-2 Transport packets은 RTP의 사용 없이, UDP (user datagram protocol) 을 이용하여 직접 전송될 수 있다. Service Delivery Manager (22040)는 컨텐츠 다운로딩을 위하여, HTTP (hypertext transfer protocol) 또는 FLUTE (File Delivery over Unidirectional Transport) 을 전송 프로토콜으로 사용할 수 있다. Service Delivery Manager (22040)는 3D video composition 정보를 전송하는 스트림을 처리하는 역할을 수행할 수 있다. 즉, 전술한 3D video composition 정보가 스트림으로 전송되는 경우, 이에 대한 처리는 Service Delivery Manager (22040)에서 수행될 수 있다.
Content DB (22050)는 컨텐츠 다운로드 시스템에 의해 전송된 컨텐츠나 생방송 미디어 티비로부터 녹화된 컨텐츠에 대한 데이터 베이스이다.
PVR manager (22060) 는 생방송 스트리밍 컨텐츠를 녹화하고 재생하는 역할을 한다. 녹화된 컨텐츠에 대해 필요한 모든 메타 데이터를 수집하고, 보다 나은 사용자 환경을 위한 추가적인 정보를 수집한다. 예를 들면 썸네일 이미지 또는 인덱스 등이 포함될 수 있다.
Service Discovery Manager (22070) 는 양방향 IP 네트워크를 통해 IPTV 서비스에 대한 탐색을 가능하게 한다. 선택 가능한 서비스에 대한 모든 정보를 제공한다.
Metadata Manager (22080)는 메타데이터의 처리를 관리한다.
SI & Metadata DB (22090) 는 메타 데이터 DB 와 연계하여 메타 데이터를 관리한다.
PSI & (PSIP and/or DVB-SI) Decoder (22100)는 PSI 제어모듈이다. 여기에는 PSI 뿐만 아니라 PSIP 또는 DVB-SI도 포함될 수 있으며 아래에서 PSI는 이들을 포함하는 개념으로 사용된다. PSI & (PSIP and/or DVB-SI) Decoder (22100)는 PSI 테이블을 위한 PID들을 세팅하고 이를 DEMUX (22110)로 전달한다. DEMUX (22110) 으로부터 전달된 PSI private 섹션을 디코딩하고 그 결과는 오디오 및 비디오 PID를 세팅하여 입력 TP를 역다중화에 사용된다.
DEMUX (22110)는 입력 TP(transport packets)로부터 오디오, 비디오 및 PSI 테이블을 역다중화한다. PSI & (PSIP and/or DVB-SI) Decoder (22100)에 의해 PSI 테이블을 역다중화하도록 제어되며 PSI 테이블 섹션을 생성하고 이를 PSI & (PSIP and/or DVB-SI) Decoder (22100)로 출력한다. 또한 A/V TP를 역다중화하도록 제어된다.
Audio and Video Decoder (22120)는 비디오 및/또는 오디오 elementary stream packets를 디코딩 할 수 있다. Audio Decoder (22122) 및/또는 Video Decoder (27124)를 포함한다. Audio Decoder (22122)는 오디오 elementary stream packets을 디코딩한다. Video Decoder (22124)는 비디오 elementary stream packets을 디코딩한다.
Native TV Application manager (22130)는 UI Manager (22132) 및/또는 Service Manager (22134)를 포함한다. Native TV Application manager (22130)는 TV 스크린 위에 Graphic User Interface를 지원한다. Native TV Application manager (22130)는 리모트 컨트롤러 또는 front panel에 의한 사용자 키(key)를 수신할 수 있다. Native TV Application manager (22130)는 TV 시스템의 상태를 관리할 수 있다. Native TV Application manager (22130)는 3D OSD를 구성하고, 출력을 제어하는 역할을 할 수 있다.
UI Manager (22132)는 TV 스크린에 User Interface를 디스플레이하기 위한 제어를 수행할 수 있다.
Service Manager (22134)는 서비스와 관련된 매니저를 제어하는 역할을 수행한다. 예를 들면, Service Manager (22080)는 Service Control Manager (22030), Service Delivery Manager (22040), IG-OITF client, Service Discovery Manager (22070), 및/또는 Metadata manager (22080)을 제어할 수 있다. Service Manager (22134)는 3D video composition 정보를 처리하여, 3D 비디오 영상의 디스플레이를 제어한다.
A/V and OSD Displayer (22140)는 오디오 데이터와 비디오 데이터를 수신하여, 비디오 데이터를 디스플레이하는 것을 제어하고, 오디오 데이터의 재생을 제어한다. A/V and OSD Displayer (22140)는 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터를 프로세싱하여 3D 비디오 데이터를 출력한다. A/V and OSD Displayer (22140)는 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터 중 적어도 하나에 대하여 필터링을 통한 리사이징, 비디오 포메팅, 프레임 레이트 컨버젼 등의 비디오 데이터 프로세싱을 수행할 수 있다. A/V and OSD Displayer (22140)는 OSD를 출력하는 것을 제어한다. A/V and OSD Displayer (22140)는 3D 서비스의 경우, 좌우 영상을 수신하여 이를 Stereoscopic video로 출력하는 3D Output Formatter의 역할을 수행할 수 있다. 이 과정에서 3D OSD도 함께 조합하여 출력하는 것이 가능할 것이다. 3D PIP 서비스를 위한 PIP scalar의 역할을 수행할 수도 있다.
도 23은 본 발명의 일 실시예에 따른, IPTV 수신기의 기능 블록들을 나타낸 도면이다.
본 발명의 일실시예에 따른 IPTV 수신기의 기능 블록들은 케이블 모뎀, DSL 모뎀(23010), 이더넷 NIC(Ethernet NIC, 23020), IP 네트워크 스택(23030), XML 파서(23040), 파일 처리기(23050), EPG 처리기(23060), SI 처리기(23070), 저장 장치(23080), SI 디코더(23090), EPG 디코더(23100), ITF 동작 제어기(23110), 채널 서비스 매니저(23120), 어플리케이션 매니저(23130), MPEG-2 역다중화기(23140), MPEG-2 PSI/PSIP 파서(23150), 오디오/비디오 디코더(23160) 및/또는 디스플레이 모듈(23170)을 포함할 수 있다.
본 발명에서 주로 다루어지는 Block들은 굵은 선으로 표시되었으며, 실선 화살표는 Data path를, 점선 화살표는 Control signal path를 나타낸다. 각 부에 대한 설명은 다음과 같다.
케이블 모뎀, DSL 모뎀(23010)은 물리 계층에서 ITF가 IP Network과 연결되는 인터페이스, 물리적 매체을 통해서 전송된 신호를 복조하여, 디지털 신호를 복원한다.
이더넷 NIC(Ethernet NIC, 23020)는 물리 인터페이스를 통하여 전송 받은 신호를 IP 데이터로 복원하는 모듈이다.
IP 네트워크 스택(23030)은 IP 프로토콜 스택에 따른 각 layer의 처리 모듈이다.
XML 파서(23040)는 전송 받은 IP 데이터 중, XML 문서를 파싱하는 모듈이다.
파일 처리기(23050)는 전송 받은 IP 데이터 중, FLUTE등을 통하여 파일 형태로 전송된 데이터를 처리하는 모듈이다.
EPG 처리기(23060)는 전송 받은 File 형태의 데이터 중, IPTV EPG 데이터에 해당하는 부분을 처리하여 저장 장치에 저장하도록 하는 모듈이다.
SI 처리기(23070)는 전송 받은 File 형태의 데이터 중, IPTV SI 데이터에 해당하는 부분을 처리하여 저장 장치에 저장하도록 하는 모듈이다.
저장 장치(23080)는 SI, EPG 등 저장이 필요한 데이터를 저장하는 저장 장치이다.
SI 디코더(23090)는 Channel Map 정보가 필요할 경우, 저장 장치(18080)로부터 SI 데이터를 가져와 분석하여, 필요한 정보를 복원하는 장치이다.
EPG 디코더(23100)는 EPG 정보가 필요할 경우, 저장 장치(23080)로부터 EPG 데이터를 가져와 분석하여, 필요한 정보를 복원하는 장치이다.
ITF 동작 제어기(23110)는 채널 변경, EPG 디스플레이 등의 ITF의 동작을 제어하는 주제어부이다.
채널 서비스 매니저(23120)는 사용자로부터의 입력을 받아 채널 변경의 동작을 관장하는 모듈이다.
어플리케이션 매니저(23130)는 사용자로부터의 입력을 받아 EPG 디스플레이 등의 어플리케이션 서비스를 관장하는 모듈이다.
MPEG-2 역다중화기(23140)는 전송받은 IP 데이터그램에서 MPEG-2 전송 스트림 데이터를 추출하여 각 PID에 따라 해당하는 모듈로 전달하는 모듈이다.
MPEG-2 PSI/PSIP 파서(23150)는 전송받은 IP 데이터그램 내의 MPEG-2 전송 스트림의 각 data (오디오/비디오 등)의 PID 정보 등, 프로그램 엘리먼트를 접속할 수 있는 정보를 담은 PSI/PSIP 데이터를 추출 및 파싱하는 모듈이다.
오디오/비디오 디코더(23160)는 전달받은 오디오 및 비디오 데이터를 디코드하여 디스플레이 모듈로 전달하는 모듈이다.
디스플레이 모듈(23170)은 입력 받은 AV 신호 및 OSD 신호등을 조합하여 처리하여 이를 screen과 speaker를 통하여 출력한다. 디스플레이 모듈(23170)은 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터를 프로세싱하여 3D 비디오 데이터를 출력한다. 디스플레이 모듈(23170)은 3D 비디오 컴퍼지션 정보에 따라 프라이머리 비디오 데이터 및 세컨더리 비디오 데이터 중 적어도 하나에 대하여 필터링을 통한 리사이징, 비디오 포메팅, 프레임 레이트 컨버젼 등의 비디오 데이터 프로세싱을 수행할 수 있다. 또한, 3D 비디오의 경우 L/R 영상을 분리하여 포맷터를 통하여 3D 영상으로 출력하는 등의 역할을 수행한다. 또한 3D depth 관련 정보를 이용하여, OSD를 3D 영상과 함께 디스플레이될 수 있도록 처리하는 역할을 수행할 수 있다.
도 24는 본 발명의 일 실시예에 따른, 3D 방송 서비스를 위한 방송 신호 처리 방법을 나타낸 순서도이다.
방송 송신기는 3D 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터를 인코딩한다(s24010).
방송 송신기는 인코딩된 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 인코딩한다(s24020). 시그널링 정보는 좌영상 방송 데이터 또는/및 우영상 방송 데이터가 풀 레졸루션 (full resolution) 영상인지 하프 레졸루션 (half resolution) 영상인지 나타내는 레졸루션 타입 정보를 포함할 수 있다.
레졸루션 타입 정보는 3D 비디오 컴포넌트들에 대한 정보를 시그널링하는 3DTV 서비스 로케이션 디스크립터에 포함되어 시그널링 정보로 인코딩되며, 상기 3DTV 서비스 로케이션 디스크립터는 프로그램 맵 테이블 (Program Map Table; PMT) 및/또는 서비스 디스크립션 테이블 (Service Description Table; SDT)에 포함될 수 있다.
시그널링 정보는 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나의 데이터가 2D 수신기를 위한 2D 비디오 방송 데이터로 제공되는지를 나타내는 정보를 더 포함할 수 있다.
레졸루션 타입 정보는 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 하프 레졸루션 영상인 경우, 수직 하프 레졸루션, 수평 하프 레졸루션, 또는 수직 및 수평 하프 레졸루션인지를 나타낼 수 있다.
3DTV 서비스 로케이션 디스크립터는 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나가 하프 레졸루션이고, 나머지 하나가 풀 레졸루션인 경우, 하프 레졸루션인 영상 방송 데이터를 풀 레졸루션으로 더블링 (doubling) 에 사용되는 필터의 종류 또는 상기 풀 레졸루션인 영상 방송 데이터를 하프 레졸루션으로 리듀싱 (reducing) 에 사용되는 필터의 종류를 나타내는 필터 타입 정보를 더 포함할 수 있다.
3DTV 서비스 로케이션 디스크립터는 필터의 크기를 나타내는 필터 크기 정보를 더 포함할 수 있다.
3DTV 서비스 로케이션 디스크립터는 방송 신호에 포함된 영상 방송 데이터가 좌영상 방송 데이터인지 우영상 방송 데이터인지 가리키는 정보를 더 포함할 수 있다.
방송 송신기는 인코딩된 3D 비디오 방송 데이터와 인코딩된 시그널링 정보를 포함하는 방송 신호를 생성한다(s24030).
방송 송신기는 생성된 방송 신호를 전송한다(s24040)
이상에서 설명한 본 발명 따르면, 3DTV 신호를 구성하는 필수 요소들은 좌영상 및 우영상에 해당하는 두 개의 비디오 스트림이며 이 중 하나는 2D legacy device와의 호환성을 가지도록 시그널링할 수 있다.
또한, 본 발명에 따르면, 대역폭의 제약에 의해 다른 시점의 영상 데이터를 풀 레졸루션으로 전송하기 어려운 경우, 효과적인 압축을 위해 하프 레졸루션으로 전송하고, 이를 디코딩하는 데에 필요한 정보를 효과적으로 전송할 수 있다.
또한, 본 발명에 따르면, PSI, PSIP 및/또는 DVB SI 체계를 이용해 3D 방송 서비스를 위해 추가적으로 전송되는 비디오 데이터에 대한 signaling 및 해당 데이터에 대한 정보를 전송할 수 있다.
아울러 추가적인 데이터 (secondary video)에 대한 resolution 정보, 코덱 정보, resizing 할 때 권장하는 필터링 기술에 대한 정보 등을 signaling 함으로써 수신기가 보다 양질의 3D 서비스를 제공할 수 있는 방법을 제공한다.
본 발명에 따른 방법 발명은 모두 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
전술한 바와 같이, 상기 발명의 실시를 위한 최선의 형태에서, 관련된 사항을 기술하였다.
본 발명은 3D 방송 시스템 분야에 적용될 수 있다.

Claims (15)

  1. 3D (3-dimentional) 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터를 인코딩하는 단계;
    상기 인코딩된 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 인코딩하는 단계;
    상기 인코딩된 3D 비디오 방송 데이터와 상기 인코딩된 시그널링 정보를 포함하는 방송 신호를 생성하는 단계; 및
    상기 생성된 방송 신호를 전송하는 단계;
    를 포함하며,
    여기서, 상기 시그널링 정보는 상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 풀 레졸루션 (full resolution) 영상인지 하프 레졸루션 (half resolution) 영상인지 나타내는 레졸루션 타입 정보를 포함하는,
    3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  2. 제 1 항에 있어서, 상기 레졸루션 타입 정보는,
    3D 비디오 컴포넌트들에 대한 정보를 시그널링하는 3DTV 서비스 로케이션 디스크립터에 포함되어 시그널링 정보로 인코딩되며, 상기 3DTV 서비스 로케이션 디스크립터는 프로그램 맵 테이블 (Program Map Table; PMT) 및/또는 서비스 디스크립션 테이블 (Service Description Table; SDT)에 포함되는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  3. 제 1 항에 있어서, 상기 시그널링 정보는,
    좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나의 데이터가 2D 수신기를 위한 2D 비디오 방송 데이터로 제공되는지를 나타내는 정보를 더 포함하는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  4. 제 1 항에 있어서, 상기 레졸루션 타입 정보는,
    상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 하프 레졸루션 영상인 경우, 수직 하프 레졸루션, 수평 하프 레졸루션, 또는 수직 및 수평 하프 레졸루션인지를 나타내는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  5. 제 2 항에 있어서, 상기 3DTV 서비스 로케이션 디스크립터는,
    상기 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나가 하프 레졸루션이고, 나머지 하나가 풀 레졸루션인 경우, 하프 레졸루션인 영상 방송 데이터를 풀 레졸루션으로 더블링 (doubling) 에 사용되는 필터의 종류 또는 상기 풀 레졸루션인 영상 방송 데이터를 하프 레졸루션으로 리듀싱 (reducing) 에 사용되는 필터의 종류를 나타내는 필터 타입 정보를 더 포함하는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  6. 제 5 항에 있어서, 상기 3DTV 서비스 로케이션 디스크립터는,
    상기 필터의 크기를 나타내는 필터 크기 정보를 더 포함하는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  7. 제 2 항에 있어서, 상기 3DTV 서비스 로케이션 디스크립터는,
    상기 방송 신호에 포함된 영상 방송 데이터가 좌영상 방송 데이터인지 우영상 방송 데이터인지 가리키는 정보를 더 포함하는 것을 특징으로 하는 3D (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법.
  8. 3D (3-dimentional) 효과를 나타내기 위한 좌영상을 포함하는 좌영상 방송 데이터와 우영상을 포함하는 우영상 방송 데이터를 포함하는 3D 비디오 방송 데이터와 3D 비디오 방송 데이터의 시그널링을 위한 시그널링 정보를 포함하는 방송 신호를 수신하는 수신부;
    상기 시그널링 정보에 포함된 상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 풀 레졸루션 (full resolution) 영상인지 하프 레졸루션 (half resolution) 영상인지 나타내는 레졸루션 타입 정보를 파싱하는 시스템 정보 프로세서;
    상기 좌영상 방송 데이터와 우영상 방송 데이터를 디코딩하는 비디오 디코더; 및
    상기 레졸루션 타입 정보를 이용하여, 디코딩된 좌영상 방송 데이터 및 우영상 방송 데이터 중 어느 하나의 영상 방송 데이터를 풀 레졸루션 영상 또는 하프 레졸루션 영상으로 더블링 (doubling) 또는 리듀싱 (reducing) 하여, 3D 디스플레이를 위한 3D 영상을 형성하는 포맷터;
    를 포함하는 3D 방송 서비스 수신 장치.
  9. 제 8 항에 있어서, 상기 시스템 정보 프로세서는,
    시그널링 정보에 포함된 프로그램 맵 테이블 (Program Map Table; PMT) 및/또는 서비스 디스크립션 테이블 (Service Description Table; SDT)을 파싱하고, 상기 파싱된 PMT 및/또는 SDT에 포함된 3D 비디오 컴포넌트들에 대한 정보를 시그널링하는 3DTV 서비스 로케이션 디스크립터에 포함된 상기 레졸루션 타입 정보를 파싱하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  10. 제 8 항에 있어서, 상기 시스템 정보 프로세서는,
    상기 시그널링 정보에 포함된 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나의 데이터가 2D 수신기를 위한 2D 비디오 방송 데이터로 제공되는지를 나타내는 정보를 파싱하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  11. 제 8 항에 있어서, 상기 레졸루션 타입 정보는,
    상기 좌영상 방송 데이터 또는/및 상기 우영상 방송 데이터가 하프 레졸루션 영상인 경우, 수직 하프 레졸루션, 수평 하프 레졸루션, 또는 수직 및 수평 하프 레졸루션인지를 나타내는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  12. 제 9 항에 있어서, 상기 시스템 정보 프로세서는,
    상기 3DTV 서비스 로케이션 디스크립터에 포함된, 상기 좌영상 방송 데이터와 우영상 방송 데이터 중 어느 하나가 하프 레졸루션이고, 나머지 하나가 풀 레졸루션인 경우, 하프 레졸루션인 영상 방송 데이터를 풀 레졸루션으로 더블링 (doubling) 에 사용되는 필터의 종류 또는 상기 풀 레졸루션인 영상 방송 데이터를 하프 레졸루션으로 리듀싱 (reducing) 에 사용되는 필터의 종류를 나타내는 필터 타입 정보를 파싱하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  13. 제 12 항에 있어서, 상기 시스템 정보 프로세서는,
    상기 3DTV 서비스 로케이션 디스크립터에 포함된, 상기 필터의 크기를 나타내는 필터 크기 정보를 파싱하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  14. 제 9 항에 있어서, 상기 시스템 정보 프로세서는,
    상기 3DTV 서비스 로케이션 디스크립터에 포함된, 상기 방송 신호에 포함된 영상 방송 데이터가 좌영상 방송 데이터인지 우영상 방송 데이터인지 가리키는 정보를 파싱하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
  15. 제 9 항에 있어서, 상기 시스템 정보 프로세서는,
    상기 SDT에 포함된 서비스의 종류를 나타내는 서비스 타입 정보를 해석하거나, 상기 3DTV 서비스 로케이션 디스크립터의 존재여부로 상기 방송 신호가 3D 방송 서비스를 위한 것임을 인지하는 것을 특징으로 하는 3D 방송 서비스 수신 장치.
PCT/KR2011/006490 2010-09-01 2011-09-01 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치 WO2012030176A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020137008337A KR101909032B1 (ko) 2010-09-01 2011-09-01 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
US13/819,982 US9549228B2 (en) 2010-09-01 2011-09-01 Broadcast signal processing method and device for 3-dimensional (3D) broadcasting service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US37938010P 2010-09-01 2010-09-01
US61/379,380 2010-09-01

Publications (2)

Publication Number Publication Date
WO2012030176A2 true WO2012030176A2 (ko) 2012-03-08
WO2012030176A3 WO2012030176A3 (ko) 2012-05-03

Family

ID=45773403

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/006490 WO2012030176A2 (ko) 2010-09-01 2011-09-01 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치

Country Status (3)

Country Link
US (1) US9549228B2 (ko)
KR (1) KR101909032B1 (ko)
WO (1) WO2012030176A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150037200A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 비디오 스트림 송/수신 장치 및 비디오 스트림 송/수신 방법
WO2016153273A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140021231A (ko) * 2012-08-09 2014-02-20 한국전자통신연구원 증강방송 메타데이터 전송 장치, 사용자 단말, 증강방송 메타데이터 전송 방법과 재생 방법
US20160227271A1 (en) * 2013-10-01 2016-08-04 Lg Electronics Inc. Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
US9930382B2 (en) 2014-02-10 2018-03-27 Lg Electronics Inc. Method and apparatus for transmitting/receiving broadcast signal for 3-dimensional (3D) broadcast service
KR101797506B1 (ko) 2014-02-21 2017-11-15 엘지전자 주식회사 방송 신호 송신 장치 및 방송 신호 수신 장치
WO2017007258A1 (ko) * 2015-07-08 2017-01-12 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US10171849B1 (en) 2015-07-08 2019-01-01 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method
CN105025346B (zh) * 2015-07-20 2018-12-07 深圳Tcl数字技术有限公司 数字电视节目参数的获取方法及系统
US10285114B2 (en) * 2015-07-29 2019-05-07 Qualcomm Incorporated Techniques for broadcasting service discovery information
CN113114687B (zh) * 2021-04-14 2022-07-15 深圳维盟科技股份有限公司 一种iptv合流方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049873A (ko) * 2008-11-04 2010-05-13 한국전자통신연구원 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
KR20100086440A (ko) * 2009-01-22 2010-07-30 한국전자통신연구원 지상파 디지털멀티미디어방송에서 비실시간 스테레오스코픽 서비스 수행 방법 및 지상파 디지털멀티미디어방송 수신 장치
WO2010095443A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
CN102484729B (zh) * 2009-04-07 2016-08-24 Lg电子株式会社 广播发送器、广播接收器及其3d视频数据处理方法
JP5463747B2 (ja) * 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
CN103155568B (zh) * 2010-07-08 2016-07-27 杜比实验室特许公司 用于使用参考处理信号进行多层图像和视频传输的系统和方法
KR20120058700A (ko) * 2010-11-27 2012-06-08 전자부품연구원 디지털 방송의 전송 모드 제공 및 인지 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100049873A (ko) * 2008-11-04 2010-05-13 한국전자통신연구원 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
KR20100086440A (ko) * 2009-01-22 2010-07-30 한국전자통신연구원 지상파 디지털멀티미디어방송에서 비실시간 스테레오스코픽 서비스 수행 방법 및 지상파 디지털멀티미디어방송 수신 장치
WO2010095443A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150037200A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 비디오 스트림 송/수신 장치 및 비디오 스트림 송/수신 방법
KR102139532B1 (ko) * 2013-09-30 2020-07-30 엘지전자 주식회사 비디오 스트림 송/수신 장치 및 비디오 스트림 송/수신 방법
WO2016153273A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US10070162B2 (en) 2015-03-23 2018-09-04 Lg Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method, and broadcast signal reception method

Also Published As

Publication number Publication date
KR101909032B1 (ko) 2018-10-17
WO2012030176A3 (ko) 2012-05-03
US20130162771A1 (en) 2013-06-27
KR20140004069A (ko) 2014-01-10
US9549228B2 (en) 2017-01-17

Similar Documents

Publication Publication Date Title
WO2012030176A2 (ko) 3d (3-dimentional) 방송 서비스를 위한 방송 신호 처리 방법 및 장치
WO2012023789A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2012036532A2 (en) Method and apparatus for processing a broadcast signal for 3d (3-dimensional) broadcast service
WO2012030158A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional display
WO2012030177A2 (ko) 디지털 수신기 및 디지털 수신기에서의 3d 컨텐트 처리 방법
WO2015126144A1 (ko) 파노라마 서비스를 위한 방송 신호 송수신 방법 및 장치
WO2011093676A2 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2011093677A2 (en) Method and apparatus for transmitting digital broadcasting stream using linking information about multi-view video stream, and method and apparatus for receiving the same
WO2016182371A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2009125961A1 (en) Method of transmitting and receiving broadcasting signal and apparatus for receiving broadcasting signal
WO2015126214A1 (ko) 3d 방송 신호를 처리하는 방법 및 장치
WO2016204481A1 (ko) 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
WO2011112053A2 (ko) 비실시간 방송 서비스 처리 시스템 및 그 처리방법
WO2015065037A1 (ko) Hevc 기반의 ip 방송 서비스 제공을 위한 방송 신호 송수신 방법 및 장치
WO2012077987A2 (ko) 디지털 방송 신호 수신 장치 및 방법
WO2012036464A2 (ko) 방송 수신기 및 3d 비디오 데이터 처리 방법
WO2017043863A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2011132883A2 (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
WO2015152635A9 (ko) 신호 송수신 장치 및 신호 송수신 방법
WO2015034306A1 (ko) 디지털 방송 시스템에서 고화질 uhd 방송 컨텐츠 송수신 방법 및 장치
WO2011132879A2 (ko) 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신 장치
WO2013162256A1 (ko) 3d 서비스를 위한 신호 처리 장치 및 방법
WO2016171496A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
WO2013032221A1 (ko) 디지털 방송 신호 처리 방법 및 장치
WO2017135673A1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11822151

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 13819982

Country of ref document: US

NENP Non-entry into the national phase in:

Ref country code: DE

ENP Entry into the national phase in:

Ref document number: 20137008337

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 11822151

Country of ref document: EP

Kind code of ref document: A2