WO2013055032A1 - 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법 - Google Patents

융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법 Download PDF

Info

Publication number
WO2013055032A1
WO2013055032A1 PCT/KR2012/006694 KR2012006694W WO2013055032A1 WO 2013055032 A1 WO2013055032 A1 WO 2013055032A1 KR 2012006694 W KR2012006694 W KR 2012006694W WO 2013055032 A1 WO2013055032 A1 WO 2013055032A1
Authority
WO
WIPO (PCT)
Prior art keywords
content stream
content
descriptor
video
stream
Prior art date
Application number
PCT/KR2012/006694
Other languages
English (en)
French (fr)
Inventor
이주영
김성훈
최진수
김진웅
홍석진
오정근
곽진석
이민석
강동욱
정경훈
Original Assignee
한국전자통신연구원
(주)카이미디어
(주)디티브이인터랙티브
국민대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120087603A external-priority patent/KR101965385B1/ko
Application filed by 한국전자통신연구원, (주)카이미디어, (주)디티브이인터랙티브, 국민대학교 산학협력단 filed Critical 한국전자통신연구원
Priority to US14/351,109 priority Critical patent/US9615143B2/en
Publication of WO2013055032A1 publication Critical patent/WO2013055032A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Definitions

  • the present invention relates to an apparatus and method related to a converged 3DTV represented by a content stream related to a reference video and a content stream related to an additional video. More specifically, the present invention relates to a method for accessing a content stream independently transmitted according to a heterogeneous broadcasting scheme. An apparatus and method are presented.
  • ATSC A / 153 (Mobile Handheld) standard can simultaneously provide terrestrial mobile DTV (MDTV) broadcasting service by inserting / transmitting time division mobile stream along with main service stream for fixed DTV in RF 6MHz.
  • MDTV terrestrial mobile DTV
  • In-band mobile TV service is a North American terrestrial broadcasting standard.
  • the MDTV service uses a portion of the 19.39 Mbps bandwidth, which is an ATSC data rate, and provides a broadcast service to mobile / portable TV viewers using an IP datagram based transmission technology.
  • two broadcast services are simultaneously provided in an independent form by time-dividing and transmitting the frames of all broadcasts corresponding to about 19.39 Mbps using ATSC main broadcast stream (MPEG-2 TS) packets and MDTV mobile stream packets (IP datagrams).
  • MPEG-2 TS ATSC main broadcast stream
  • MDTV mobile stream packets IP datagrams
  • a reference video video used in a fixed 2D service
  • an additional video along with a reference video
  • the proposed scheme requires additional band allocation to transmit the additional video stream even if the reference video is transmitted through the ATSC main broadcast stream to ensure backward compatibility with the existing fixed 2D broadcast. For this reason, the amount of data used for transmitting each of the 2D screen information is inevitably reduced, resulting in a problem of deteriorating existing 2D broadcast service quality.
  • the receiver In order to implement a 3DTV system using the ATSC main reference video and M / H additional video, the receiver must receive a content stream related to the reference video and a content stream related to the additional video on the ATSC main channel and the M / H channel, respectively.
  • the conventional ATSC main broadcasting and M / H broadcasting are independent heterogeneous broadcasting schemes, there is a need for a method of identifying and accessing the reference video and the additional video stream in each broadcast stream.
  • the present invention provides an apparatus and method for accessing a content stream associated with a reference video and a content stream associated with an additional view for a converged 3DTV.
  • the present invention provides an apparatus and method for accessing a content stream related to a reference video and a content stream related to an additional video through signaling in a converged 3DTV combining fixed broadcasting and mobile broadcasting.
  • Contents providing apparatus includes a content stream generating unit for generating a first content stream corresponding to the reference video and a second content stream corresponding to the additional video; A descriptor generator for generating descriptors related to the first content stream and the second content stream; And a data transmitter for transmitting the first content stream, the second content stream, and the descriptor to a content reproducing apparatus.
  • a content reproducing apparatus includes a first content stream corresponding to a reference video, a second content stream corresponding to an additional video, and a descriptor associated with the first content stream and the second content stream.
  • Receiving data receiving unit And a service provider for providing a 2D broadcast service or a 3D broadcast service based on the first content stream and the second content stream using the descriptor.
  • a method of providing content includes generating a second content stream in a first content stream and an additional video corresponding to a reference video; Generating descriptors associated with the first content stream and the second content stream; The method may include transmitting the first content stream, the second content stream, and the descriptor to a content reproducing apparatus.
  • a content reproduction method comprising: receiving, from a content providing device, a first content stream corresponding to a reference video, a second content stream corresponding to an additional video, and a descriptor; And providing a 2D broadcast service or a 3D broadcast service based on the first content stream and the second content stream by using the descriptor.
  • the content stream associated with the reference video and the additional stream related to the additional video may be accessed.
  • a content stream related to a reference video and a content stream related to an additional video may be accessed through signaling.
  • FIG. 1 is a diagram illustrating an operation for accessing a content stream according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a system configuration actually implemented according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a detailed configuration of a content providing device and a content reproducing apparatus according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a structure of a descriptor according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a practical example of a descriptor according to an embodiment of the present invention.
  • FIG. 6 is a diagram showing an actual example of another descriptor according to another embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a content providing method according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a content reproduction method according to an embodiment of the present invention.
  • ATSC-M / H Mobile / Handheld
  • a / 153 North America's next-generation mobile DTV standard
  • ATSC-M / H Mobile / Handheld
  • a / 153 North America's next-generation mobile DTV standard
  • the ATSC main broadcast is commonly referred to as the ATSC A / 53 high-definition DTV transmission / reception standard, which is a North American fixed DTV transmission method.
  • AU Access Unit
  • AU is a basic unit of audio / video encoding of an elementary stream, and is mainly composed of frame units for audio and video.
  • RTP Realtime Transport Protocol
  • RTCP RTP Control Protocol
  • RTP Control Protocol refers to a standard for transmitting synchronization information of an audio / video stream or a state of a transmission network for RTP transmission.
  • RTCP_SR RTCP Sender Report
  • NTP Network Time Protocol
  • UTC Coordinated Universal Time
  • PTS Presentation Timestamp
  • PES is a 33-bit time stamp transmitted on a PES header to synchronize the presentation time of an audio / video AU in an ATSC 8-VSB fixed broadcasting network.
  • a packetized elementary stream refers to a packet obtained by dividing each ES into a specific length for transmission of an audio / video elementary stream (ES) in an ATSC main broadcasting network.
  • the header of the PES includes the PTS.
  • 8-VSB & M / H converged 3DTV system is based on ATSC A / 153 M / H standard to provide high quality 3D broadcasting / high definition 2D broadcasting / mobile broadcasting service by maximizing frequency efficiency while maintaining backward compatibility with existing broadcasting system. It can target 8-VSB and M / H converged 3DTV technologies that can deliver simultaneously within 6MHz of one channel bandwidth.
  • the 8-VSB broadcasting standard can be used for transmitting the reference video, and the existing M / H broadcasting standard can be used for transmitting the additional video.
  • FIG. 1 is a diagram illustrating an operation for accessing a content stream according to an embodiment of the present invention.
  • the content providing apparatus 101 may generate a first content stream corresponding to the reference video and a second content stream corresponding to the additional video.
  • the reference video may be expressed as a left image
  • the additional image may be expressed as a right image.
  • the content providing apparatus 101 may generate a first content stream corresponding to a stationary broadcast and a second content stream corresponding to a mobile broadcast. That is, the reference video may be transmitted in the fixed broadcast standard, and the additional video may be transmitted in the mobile broadcast standard.
  • the fixed broadcast may include a content stream conforming to the ATSC main broadcast standard
  • the mobile broadcast may include a content stream conforming to the M / H broadcast standard.
  • the left image and the right image may be changed with each other.
  • the content providing apparatus 101 may generate descriptors related to the first content stream and the second content stream.
  • the content providing device 101 may transmit the first content stream, the second content stream, and the descriptor to the content playback device 102.
  • the content providing device 101 may transmit the reference video and the additional video to the content reproducing device 102. Then, the content reproducing apparatus 102 may implement a 2D broadcast service or a 3D broadcast service using the transmitted reference video and the additional video. In detail, the content reproducing apparatus 102 may implement a 2D broadcast service using only the reference image. Alternatively, the content playback device 102 may implement a 3D broadcast service using both the reference video and the additional video. In this case, if the reference video and the additional video are transmitted according to different broadcasting standards and thus show different timing information, the content providing apparatus 101 reproduces the content based on a synchronization time point between the reference video and the additional video for 3D broadcasting. Synchronization information can be provided along with it.
  • FIG. 2 is a diagram showing a system configuration actually implemented according to an embodiment of the present invention.
  • an ATSC & M / H fused 3DTV system is shown.
  • the system may provide a 2D broadcast service and a 3D broadcast service together.
  • the first content stream transmitted through the fixed broadcast standard corresponds to the reference video
  • the second content stream transmitted through the mobile broadcast standard corresponds to the additional video.
  • the component 201 may identify a program in which a 2D program and a 3D program are shared.
  • the reference video content for the 2D HD program may be encoded in MPEG-2 through the component 202.
  • the additional video content for the 2D mobile / handheld program may be encoded in H.264 through the component 203.
  • the MPEG-2 encoded reference video content at component 202 may be packetized into MPEG-TS packets via component 204.
  • the additional video content encoded by the H.264 in the component 205 may be packetized into an IP packet through the component 205.
  • the packetized reference video content and additional video content may be multiplexed through the component 206.
  • the multiplexed reference video content and additional video content may be demultiplexed through the component 207. Then, the component 208 may receive the reference video content corresponding to the ATSC main broadcast standard and play back the 2D HD display which is the component 211.
  • the component 209 may receive additional video content corresponding to the M / H broadcasting standard and reproduce the additional video content on the mobile 2D display, which is the component 212.
  • the component 210 may receive the reference video content corresponding to the ATSC main broadcast standard and the additional video content corresponding to the M / H broadcast standard and play the same on the 3D display which is the component 213. In this case, 3D broadcasting is possible.
  • FIG. 3 is a diagram illustrating a detailed configuration of a content providing device and a content reproducing apparatus according to an embodiment of the present invention.
  • the content providing apparatus 301 may include a content stream generator 303, a descriptor generator 304, and a data transmitter 305.
  • the content stream generator 303 may generate a first content stream corresponding to the reference video and a second content stream corresponding to the additional video.
  • the reference video may be transmitted through the fixed broadcast standard
  • the additional video may be transmitted through the mobile broadcast standard.
  • the reference image corresponds to the left image
  • the additional image corresponds to the right image.
  • the fixed broadcast may include a content stream conforming to the ATSC main broadcast standard
  • the mobile broadcast may include a content stream conforming to the M / H broadcast standard.
  • the descriptor generator 304 may generate descriptors related to the first content stream and the second content stream. In one example, the descriptor generator 304 may generate a descriptor including identification information for identifying the first content stream and the second content stream. The descriptor generator 304 may generate a descriptor including synchronization information for synchronizing the first content stream with the second content stream. In addition, the descriptor generator 304 may generate a descriptor including additional information for improving the quality of the first content stream or the second content stream. The descriptor generator 304 may generate a descriptor including information indicating whether an image included in the first content stream or the second content stream is cropped. The descriptor will be described in detail with reference to FIGS. 4 and 5.
  • the data transmitter 305 may transmit the first content stream, the second content stream, and the descriptor to the content reproducing apparatus.
  • the descriptor may be included in at least one of the first content stream or the second content stream and transmitted.
  • the content reproducing apparatus 302 may include a data receiver 306 and a service provider 307.
  • the data receiver 306 may receive the first content stream, the second content stream, and the descriptor from the content providing device 301.
  • the service provider 307 may provide a 2D broadcast service or a 3D broadcast service based on the first content stream and the second content stream by using the descriptor received from the content providing device 301.
  • the first content stream may correspond to the reference video
  • the second content stream may correspond to the additional video.
  • FIG. 4 is a diagram illustrating a structure of a descriptor according to an embodiment of the present invention.
  • the descriptor 400 may include identification information 401 for identifying a content stream related to a reference video or a content stream related to an additional video.
  • the content reproducing apparatus 302 knows the identification information of the content stream of either of the reference video or the additional video
  • the content providing device 301 may omit the identification information already known to the descriptor.
  • the stream identification information of the base view video and the additional view video is transmitted in the form of a descriptor of a table such as PMT of MPEG-2 TS or ATCT A / 65 TVCT in the ATSC main broadcast stream
  • the reference video includes a corresponding descriptor. It becomes a video stream of a program, and the descriptor may include only identification information of an additional video stream of an M / H broadcasting network.
  • the additional view video is a video stream of a service including the descriptor.
  • the descriptor may include only identification information of the reference video stream of the ATSC main broadcasting network.
  • the descriptor 400 may include synchronization information 402 for synchronizing a content stream related to the reference video and a content stream related to the additional video.
  • the synchronization information may include (i) an NTP synchronization scheme, (ii) a time stamp pairing scheme, and (iii) a time stamp offset scheme. The synchronization information will be described in detail with reference to FIGS. 6 to 8.
  • the descriptor 400 may include additional information 403 for improving the quality of the content stream related to the reference video or the content stream related to the additional video. Additional information 403 for improving the quality of the content stream may be included or omitted depending on the matter. Meanwhile, the descriptor 400 may include information indicating whether an image included in the content stream related to the reference video or the content stream related to the additional video is cropped.
  • FIG. 5 is a diagram illustrating a practical example of a descriptor according to an embodiment of the present invention.
  • MH_Hybrid_Stereoscopic_Video_Descriptor may provide information on whether a corresponding program is a 2D (monoscopic) service or an M / H converged stereoscopic service.
  • the stereoscopic service means a service capable of implementing a 3D service by providing a base view video and an additional view video according to heterogeneous broadcast standards.
  • the MH_Hybrid_Stereoscopic_Video_Descriptor can provide information on what kind of stereoscopic service.
  • MH_Hybrid_Stereoscopic_Video_Descriptor provides information necessary for identifying 3D video and identifying content streams related to the base video and the additional video.
  • MH_Hybrid_Stereoscopic_Video_Descriptor optionally provides additional information for improving image quality of M / H images.
  • the MH_Hybrid_Stereoscopic_Video_Descriptor may be transmitted through signaling channels such as TVCT, PMT, and EIT. If the program does not have MH_Hybrid_Stereoscopic_Video_Descriptor, the program is considered to be not an M / H converged 3DTV service.
  • Stereoscopic_service_type is information identifying whether a corresponding M / H service is a monoscopic service or a stereoscopic service and a type of stereoscopic service. Stereoscopic_service_type may be specified by Table 1 below.
  • the syntax 501 indicates identification information for identifying a content stream corresponding to the reference video or a content stream corresponding to the additional video.
  • PID Program ID
  • the fixed broadcast may be an ATSC main broadcast.
  • the PID may be an identifier of an MPEG-2 TS packet.
  • Stereoscopic_service_id, IP_version_flag, component_destination_IP_address, and component_destination_UDP_port_num are identification information for identifying a content stream associated with an additional video.
  • stereoscopic_service_id, IP_version_flag, component_destination_IP_address, and component_destination_UDP_port_num are identification information for identifying a content stream corresponding to the mobile broadcast.
  • the mobile broadcast may be M / H.
  • the stereoscopic_service_id represents an M / H service ID for transmitting a content stream related to an additional video for a stereoscopic service.
  • IP_version_flag is set to '0', it means that the component_destination_IP_address field is IPv4. If IP_version_flag is set to '1', this means that an IPv6 format IP address is used in the A / 153 Part 3 standard.
  • component_destination_IP_address is a component destination IP address of a content stream associated with an additional video. At this time, the content stream associated with the additional video may be transmitted according to the mobile broadcast standard.
  • the component_destination_IP_address is used to identify a content stream related to the additional video together with the component_destination_UDP_port_num field.
  • component_destination_UDP_port_num is a component destination UDP port number of a content stream associated with an additional video.
  • PID or M / H video stream identification information may be omitted in some cases.
  • the reference video is a video stream of a program including the descriptor. May include only identification information of the additional video stream of the M / H broadcasting network.
  • the additional video is a video stream of a service including the descriptor
  • the descriptor is a reference video stream of the ATSC main broadcasting network. Only identification information of may be included.
  • the syntax 501 may transmit only stereoscopic_service_id in which IP_version_flag, component_flag, component_destination_IP_address, and component_destination_UDP_port_num are omitted for identifying an M / H additional video video stream.
  • an image stream belonging to an M / H service corresponding to stereoscopic_service_id may be used.
  • PID or M / H video stream identification information if a descriptor is included in the PMT or TVCT table of the ATSC main broadcasting network and delivered, and only stereoscopic_service_id is specified for M / H video stream identification, In the descriptor of FIG. 5, only the stereoscopic_service_id may be included in the syntax 501.
  • the content reproducing apparatus 102 may identify a content stream related to the base view video and the additional view video to be used for 3D video synthesis. Then, the content reproducing apparatus 102 extracts a content stream related to the base view video and the additional view video according to the identification information, decodes the corresponding stream, and then synthesizes / outputs the 3D image by synchronizing between the decoded reference video and the additional view video. can do.
  • the syntax 502 may include information indicating whether the additional video is cropped. For example, although the M / H standard supports 16: 9 image resolution, the actual display screen ratio may be slightly different from 16: 9. The current M / H specification also supports a resolution of 15.6: 9. When receiving an M / H image having a resolution slightly different from 16: 9, it is necessary to signal information about an area included in the 15.6: 9 image so that the content reproducing apparatus can perform 3D image synthesis. .
  • the encoded M / H image is not exactly 16: 9 image, it may be defined whether the additional image transmitted to the content reproducing apparatus is cropped through the additional_view_cropped_flag field.
  • additional_view_cropped_flag indicates whether a part of the original video is excluded or the original video is reduced as it is with respect to the additional video transmitted to the content reproducing apparatus.
  • leftview_flag 1
  • the video stream of ATSC main broadcast corresponding to the reference video may be used as the left image
  • the M / H video stream corresponding to the additional video may be used as the left image
  • the syntax 503 denotes synchronization information for synchronizing a content stream related to the reference video and a content stream related to the additional video.
  • the base view video and the additional view video are transmitted in different broadcast standards and have different timing information.
  • the playback time of the additional video may represent a playback time that is not synchronized with each other in relation to the reference video.
  • the syntax 503 may include synchronization information for synchronizing the base view video and the additional view video in the unit of an access unit.
  • the synchronization information may be expressed in three cases as follows.
  • the syntax 503 may be expressed as follows.
  • the time stamp pairing method utilizes as a synchronization information a time stamp pair composed of a time stamp corresponding to an access unit of a reference video and a time stamp corresponding to an access unit of an additional video to be output at any same point in time for 3DTV service. it means. Synchronization between the base view video and the additional view video may be performed using a time stamp of the base view video and a time stamp of the additional view video provided as synchronization information at an arbitrary synchronization point. The synchronization may be accurately corrected based on the reference clock of the reference video or the reference clock of the additional video.
  • the time stamp pairing method uses a time stamp of the AU of left and right images as synchronization information and converts a time stamp of a content to be reproduced into a form suitable for a reference clock by using synchronization information when reconstructing.
  • the restoration reference clock for 3D reproduction is set to NTP clock of MDTV
  • the left image (ATSC-Main) PTS is converted into NTP Timestamp form.
  • the restoration reference clock is set to the PCR clock
  • the RTP timestamp of the right image MDTV is converted into the PTS form.
  • the syntax 503 may be expressed as follows.
  • the frame rate of the main content stream corresponding to the reference video and the additional content stream corresponding to the additional video is the same, and the clock rates of the MPEG-2 system PTS and the MDTV system RTP timestamp are the same.
  • the content reproducing apparatus may convert the PTS of the reference video (ATSC-Main) into an NTP Timestamp form when the restoration reference clock for 3D playback uses the NTP clock of MDTV.
  • the content reproducing apparatus converts the RTP timestamp of the additional video (MDTV) into the PTS form.
  • the NTP synchronization method In addition to the PTS of the main content stream corresponding to the ATSC main broadcasting standard and the RTP timestamp of the additional content stream corresponding to the MDTV broadcasting standard, the NTP synchronization method additionally transmits an NTP timestamp generated separately for synchronization of the main content stream and the additional content stream. It means the way.
  • the syntax 503 may be expressed as follows.
  • the NTP synchronization method includes a PTS of a content stream associated with a reference video corresponding to the 8-VSB broadcast standard and an RTP timestamp of a content stream associated with an additional video corresponding to the M / H broadcast standard and a content stream and an additional video related to the reference video.
  • a PTS of a content stream associated with a reference video corresponding to the 8-VSB broadcast standard and an RTP timestamp of a content stream associated with an additional video corresponding to the M / H broadcast standard and a content stream and an additional video related to the reference video.
  • syntax 504 means additional information for improving the quality of the content stream related to the reference video or the content stream related to the additional video.
  • the additional information may include binocular disparity information between the image corresponding to the left and right eyes of the user viewing the image, metadata for post-processing of the receiver, or an enhancement layer using scalable video coding.
  • binocular disparity information is as follows. Since stereoscopic stereoscopic images are photographed by two cameras arranged with a certain distance difference at the same time, the reference image and the additional two images have a very large correlation with each other. In this case, the image quality of the 3DTV additional image may be improved from the parallax compensated reference image by using a high correlation between the reference image and the additional image.
  • the content providing apparatus may calculate / estimate the information about the binocular disparity vector of the reference image and the additional image as the left and right images scaled to the same resolution size, and deliver the information to the content reproducing apparatus in the form of additional information.
  • the content reproducing apparatus may improve the quality of the low resolution additional video to be close to the quality of the 8-VSB reference video by using the transmitted additional information.
  • Additional information for improving the image quality may be defined by the syntax 504.
  • the additional information for picture quality improvement may be transmitted through the 8-VSB MPEG-TS to which the PID is assigned, and the PID may be delivered to the content reproducing apparatus through the signaling descriptor.
  • VEI_flag represents the presence or absence of additional information for improving image quality.
  • VEI_PID represents a PID of MPEG-TS that transmits VEI for improving image quality.
  • VEI_flag of MH_Hybrid_Stereoscopic_Video_Descriptor is True
  • 8-VSB MPEG-2 Video stream and M / H AVC Video stream are respectively processed in the corresponding decoder, and the output video of the AVC decoder and VEI are input to the VEI decoder.
  • Image quality can be improved by inputting the output image of MPEG-2 decoder and the output image of VEI decoder to 3D Video Formatter, generating 3D Video and outputting it to the screen, and the left and right selection of output image depends on leftview_flag .
  • FIG. 6 is a diagram showing an actual example of another descriptor according to another embodiment of the present invention.
  • FIG. 6 illustrates a syntax including simpler information as compared to the syntax illustrated in FIG. 5. Each description described in the syntax of FIG. 6 may refer to FIG. 5.
  • FIG. 7 is a diagram illustrating a content providing method according to an embodiment of the present invention.
  • the content providing apparatus may generate a first content stream corresponding to the reference video and a second content stream corresponding to the additional video (701).
  • the content providing apparatus may generate descriptors related to the first content stream and the second content stream. For example, the content providing apparatus may generate a descriptor including identification information for identifying the first content stream and the second content stream. The content providing apparatus may generate a descriptor including synchronization information for synchronizing the first content stream with the second content stream. In addition, the content providing apparatus may generate a descriptor including additional information for improving the quality of the first content stream or the second content stream. The content providing apparatus may generate a descriptor including information indicating whether an image included in the first content stream or the second content stream is cropped.
  • the content providing apparatus may transmit the first content stream, the second content stream, and the descriptor to the content reproducing apparatus.
  • the content providing apparatus may include the descriptor in at least one of the first content stream or the second content stream and transmit the descriptor to the content reproducing apparatus.
  • FIG. 7 Parts not described in FIG. 7 may refer to descriptions of FIGS. 1 to 6.
  • FIG. 8 is a diagram illustrating a content reproduction method according to an embodiment of the present invention.
  • the content reproducing apparatus may provide a 2D broadcast service or a 3D broadcast service based on the first content stream and the second content stream using parameters included in the descriptor.
  • FIG. 8 Parts not described in FIG. 8 may refer to descriptions of FIGS. 1 to 6.
  • Methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

융합형 3DTV에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법이 개시된다. 컨텐츠 제공 장치는 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성하는 컨텐츠 스트림 생성부; 상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성하는 디스크립터 생성부; 및 상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 데이터 전송부를 포함할 수 있다.

Description

융합형 3DTV에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법
본 발명은 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림으로 표현되는 융합형 3DTV과 관련된 장치 및 방법에 관한 것으로, 보다 구체적으로는 이종의 방송 방식에 따라 독립적으로 전송되는 컨텐츠 스트림에 접근하는 장치 및 방법을 제시한다.
ATSC A/153(Mobile Handheld) 규격은 RF 6MHz 한 채널내에서 기존의 고정형 DTV를 위한 메인 서비스 스트림과 함께 시분할 방식의 모바일 스트림을 삽입/전송함으로써 지상파 mobile DTV(MDTV) 방송 서비스를 동시에 제공할 수 있는(in-band mobile TV 서비스) 북미 지상파 방송규격 이다. 이때 MDTV 서비스는 ATSC 데이터 전송률인 19.39 Mbps 대역폭의 일부를 사용하고, IP 데이터그램(datagram) 기반의 전송 기술을 활용하여 이동/휴대용 TV 시청자들에게 방송 서비스를 제공할 수 있다.
구체적으로, ATSC 메인 방송 스트림 (MPEG-2 TS) 패킷과 MDTV 모바일 스트림 패킷 (IP datagram)으로 약 19.39Mbps에 해당되는 전체 방송의 프레임을 시분할하여 전송함으로써 2개의 방송 서비스를 독립적인 형태로 동시 제공이 가능하다. 이와 같은 방송 환경에서 3DTV 서비스를 제공하는 방법으로 ATSC 메인 방송 스트림 (MPEG-2 TS)의 패킷에 스테레오 영상 합성에 필요한 기준영상(고정형 2D 서비스 시 이용되는 영상) 스트림과 부가영상(기준영상과 함께 3D 영상 합성을 위해 이용되는 영상) 스트림을 각각 독립된 스트림으로 전송하는 여러 제안 방식이 존재한다. 그러나 상기 제안 방식은 기존 고정 2D 방송과의 역방향 호환성을 보장하기 위해 기준영상을 ATSC 메인 방송 스트림을 통해 전송하더라도 부가영상 스트림 전송을 위해서 추가적인 대역 할당이 필요하다. 이러한 이유로 인해 각각의 2차원 화면 정보를 전송하기 위해 사용되는 데이터의 전송량을 감소시킬 수 밖에 없어서 결과적으로 기존의 2D 방송 서비스 품질이 저하되는 문제가 발생한다.
위 문제를 해결하기 위해 3D 영상합성을 위한 부가영상을 별도로 전송하지 않고, 2D 모바일 서비스 스트림을 이용하여 부가영상을 전송하는 고정 및 이동 융합형 3DTV 기술은 부가영상 전송을 위한 추가 대역폭 할당 없이 3DTV 서비스를 제공할 수 있는 장점이 있다.
ATSC 메인 기준영상과 M/H 부가영상을 이용한 3DTV 시스템을 구현하기 위해서 수신기는 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림을 각각 ATSC 메인 채널과 M/H 채널에서 수신하여야 한다. 그러나 종래의 ATSC 메인 방송 및 M/H 방송은 독립된 이종의 방송 방식이므로, 각각의 방송스트림 내 기준영상과 부가영상 스트림에 대한 식별 및 접근 방법이 필요하다.
본 발명은 융합형 3DTV를 위한 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림에 접근하는 장치 및 방법을 제공한다.
본 발명은 고정형 방송과 모바일 방송이 결합된 융합형 3DTV에서 시그널링을 통해 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림에 접근하는 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 컨텐츠 제공 장치는 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성하는 컨텐츠 스트림 생성부; 상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성하는 디스크립터 생성부; 및 상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 데이터 전송부를 포함할 수 있다.
본 발명의 일실시예에 따른 컨텐츠 재생 장치는 컨텐츠 제공 장치로부터 기준 영상에 대응하는 제1 컨텐츠 스트림, 부가 영상에 대응하는 제2 컨텐츠 스트림 및 상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 수신하는 데이터 수신부; 및 상기 디스크립터를 이용하여 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공하는 서비스 제공부를 포함할 수 있다.
본 발명의 일실시예에 따른 컨텐트 제공 방법은 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 제2 컨텐츠 스트림을 생성하는 단계; 상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성하는 단계; 상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 단계를 포함할 수 있다.
본 발명의 일실시예에 따른 컨텐트 재생 방법은 컨텐츠 제공 장치로부터 기준 영상에 대응하는 제1 컨텐츠 스트림, 부가 영상에 대응하는 제2 컨텐츠 스트림 및 디스크립터를 수신하는 단계; 및 상기 디스크립터를 이용하여 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공하는 단계를 포함할 수 있다.
본 발명의 일실시예에 따르면, 융합형 3DTV를 위한 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림에 접근할 수 있다.
본 발명의 일실시예에 따르면, 고정형 방송과 모바일 방송이 결합된 융합형 3DTV에서 시그널링을 통해 기준 영상과 관련된 컨텐츠 스트림과 부가 영상과 관련된 컨텐츠 스트림에 접근할 수 있다.
도 1은 본 발명의 일실시예에 따른 컨텐츠 스트림의 접근을 위한 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 실제 구현된 시스템 구성을 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 컨텐츠 제공 장치와 컨텐츠 재생 장치의 세부 구성을 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 디스크립터의 구조를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 디스크립터의 실제 예시를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 다른 디스크립터의 실제 예시를 도시한 도면이다.
도 7은 본 발명의 일실시예에 따른 컨텐츠 제공 방법을 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 컨텐츠 재생 방법을 도시한 도면이다.
이하에서, 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
본 발명의 실시예들을 설명하기 이전에, 본 발명에서 사용하는 용어에 대해 간단히 설명하고자 한다.
먼저, ATSC-M/H(Mobile/Handheld)는 북미 차세대 모바일 DTV 규격(A/153)으로 6MHz 대역폭을 통해 총 19.39Mbps의 전송률을 지원할 수 있는 ATSC 시스템에서 HD 콘텐츠 전송 시 생성되는 여유 공간에 모바일 콘텐츠를 추가하여 전송하는 기술을 의미한다.
그리고, ATSC 메인 방송은 북미 고정형 DTV 송출 방식인 ATSC A/53 고화질 DTV 송수신 규격을 통칭한다.
AU (Access Unit: 액세스 유닛)는 기본 스트림(Elementary Stream)의 오디오/비디오 인코딩 기본 단위이며, 주로 오디오 및 비디오의 경우 프레임 단위로 구성된다.
RTP(Realtime Transport Protocol: 실시간 전송 프로토콜)는 IP망을 통해 오디오/비디오 데이터를 전송하기 위한 규격을 의미한다.
RTCP(RTP Control Protocol: RTP 제어 프로토콜)는 RTP 전송을 위해 전송망의 상태나 오디오/비디오 스트림의 동기 정보를 전송하기 위한 규격을 의미한다.
RTCP_SR(RTCP Sender Report: RTCP 송신기 리포트)는 송신자가 수신자에게 주기적으로 전송된 전송망 상태 및 타이밍 정보를 전송하기 위해 사용하는 RTCP 전송 패킷 타입을 의미한다.
NTP(Network Time Protocol: 네트워크 타임 프로토콜)는 네트웍으로 연결되어 있는 컴퓨터들끼리 클록 시각을 동기화시키는데 사용되는 프로토콜이다. 그리고, NTP는 컴퓨터 클록 시간을 1/1000 초 이하까지 동기화시키기 위해 협정 세계시각(UTC)을 사용한다.
PTS(Presentation Timestamp: 프리젠테이션 타임 스탬프)는 ATSC 8-VSB 고정 방송망에서 오디오/비디오 AU의 프리젠테이션(Presentation) 시간에 대한 동기를 수행하기 위해 PES 헤더에 실어 전송하는 33-bit 타임 스탬프를 의미한다.
PES(Packetized Elementary Stream: 패킷화된 기본 스트림)는 ATSC 메인 방송망에서 오디오/비디오 ES(Elementary Stream)의 전송을 위해 각 ES를 특정 길이로 분할한 패킷을 의미한다. 이때, PES의 헤더는 PTS를 포함한다.
8-VSB & M/H 융합형 3DTV 시스템은 ATSC A/153 M/H규격 기반으로 기존 방송 시스템과 역호환성을 유지하면서 주파수 효율성을 극대화한 방식으로 고화질 3D방송/고화질 2D 방송/모바일 방송 서비스를 6MHz 한 채널 대역폭 내에 동시에 제공할 수 있는 8-VSB 및 M/H 융합형 3DTV 기술을 구향할 수 있다. 기준영상 전송을 위해 8-VSB 방송 규격을 이용하고 부가영상 전송을 위해 기존 M/H 방송 규격을 이용할 수 있다.
도 1은 본 발명의 일실시예에 따른 컨텐츠 스트림의 접근을 위한 동작을 설명하기 위한 도면이다.
도 1을 참고하면, 컨텐츠 제공 장치(101)와 컨텐츠 재생 장치(102)가 도시된다. 컨텐츠 제공 장치(101)는 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성할 수 있다. 3DTV 방송을 위해 기준 영상은 좌영상으로 표현되고, 부가 영상은 우영상으로 표현될 수 있다.
일례로, 컨텐츠 제공 장치(101)는 고정형 방송(stationary broadcast)에 대응하는 제1 컨텐츠 스트림 및 모바일 방송(mobile broadcast)에 대응하는 제2 컨텐츠 스트림을 생성할 수 있다. 즉, 기준 영상은 고정형 방송 규격으로 전송될 수 있고, 부가 영상은 모바일 방송 규격으로 전송될 수 있다.
일례로, 고정형 방송은 ATSC 메인 방송 규격을 따르는 컨텐츠 스트림을 포함할 수 있고, 모바일 방송은 M/H 방송 규격을 따르는 컨텐츠 스트림을 포함할 수 있다. 본 발명에서 좌영상과 우영상은 서로 변경될 수도 있다.
그리고, 컨텐츠 제공 장치(101)는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성할 수 있다. 컨텐츠 제공 장치(101)는 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치(102)에 전송할 수 있다
이와 같이, 컨텐츠 제공 장치(101)는 기준 영상과 부가 영상을 컨텐츠 재생 장치(102)에 전송할 수 있다. 그러면, 컨텐츠 재생 장치(102)는 전송된 기준 영상과 부가 영상을 이용하여 2D 방송 서비스 또는 3D 방송 서비스를 구현할 수 있다. 구체적으로, 컨텐츠 재생 장치(102)는 기준 영상만을 이용하여 2D 방송 서비스를 구현할 수 있다. 또는, 컨텐츠 재생 장치(102)는 기준 영상과 부가 영상을 모두 이용하여 3D 방송 서비스를 구현할 수 있다. 이 때, 기준 영상과 부가 영상이 서로 다른 방송 규격에 따라 전송되고 이에 따라 서로 다른 타이밍 정보를 나타낸다면, 컨텐츠 제공 장치(101)는 3D 방송을 위해 기준 영상과 부가 영상 간에 동기 시점을 기준으로 재생할 수 있도록 동기 정보를 함께 제공할 수 있다.
도 2는 본 발명의 일실시예에 따른 실제 구현된 시스템 구성을 도시한 도면이다.
도 2를 참고하면, ATSC & M/H 융합형 3DTV 시스템이 도시된다. 시스템은 2D 방송 서비스와 3D 방송 서비스를 함께 제공할 수 있다. 고정형 방송 규격을 통해 전송되는 제1 컨텐츠 스트림은 기준 영상에 해당하고, 모바일 방송 규격을 통해 전송되는 제2 컨텐츠 스트림은 부가 영상에 해당한다.
구성 요소(201)는 2D 프로그램과 3D 프로그램이 공유된 프로그램을 식별할 수 있다. 여기서, 2D HD 프로그램을 위한 기준 영상 컨텐츠는 구성 요소(202)를 통해 MPEG-2로 인코딩될 수 있다. 그리고, 2D 모바일/핸드헬드 프로그램을 위한 부가 영상 컨텐츠는 구성 요소(203)를 통해 H.264로 인코딩될 수 있다.
구성 요소(202)에서 MPEG-2로 인코딩된 기준 영상 컨텐츠는 구성 요소(204)를 통해 MPEG-TS 패킷으로 패킷화될 수 있다. 그리고, 구성 요소(205)에서 H.264로 인코딩된 부가 영상 컨텐츠는 구성 요소(205)를 통해 IP 패킷으로 패킷화될 수 있다. 패킷화된 기준 영상 컨텐츠 및 부가 영상 컨텐츠는 구성 요소(206)를 통해 다중화될 수 있다.
다중화된 기준 영상 컨텐츠 및 부가 영상 컨텐츠는 구성 요소(207)를 통해 역다중화될 수 있다. 그러면, 구성 요소(208)에서는 ATSC 메인 방송 규격에 대응하는 기준 영상 컨텐츠를 수신하여, 구성 요소(211)인 2D HD 디스플레이로 재생할 수 있다.
그리고, 구성 요소(209)에서는 M/H 방송 규격에 대응하는 부가 영상 컨텐츠를 수신하여 구성 요소(212)인 모바일 2D 디스플레이로 재생할 수 있다.
한편, 구성 요소(210)에서는 ATSC 메인 방송 규격에 대응하는 기준 영상 컨텐츠와 M/H 방송 규격에 대응하는 부가 영상 컨텐츠를 수신하여 구성 요소(213)인 3D 디스플레이로 재생할 수 있다. 이 경우, 3D 방송이 가능하다.
도 3은 본 발명의 일실시예에 따른 컨텐츠 제공 장치와 컨텐츠 재생 장치의 세부 구성을 도시한 도면이다.
도 3을 참고하면, 컨텐츠 제공 장치(301)는 컨텐츠 스트림 생성부(303), 디스크립터 생성부(304) 및 데이터 전송부(305)를 포함할 수 있다.
컨텐츠 스트림 생성부(303)는 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성할 수 있다. 여기서, 기준 영상은 고정형 방송 규격을 통해 전송될 수 있고, 부가 영상은 모바일 방송 규격을 통해 전송될 수 있다. 그리고, 기준 영상은 좌영상에 해당하고, 부가 영상은 우영상에 해당한다. 일례로, 고정형 방송은 ATSC 메인 방송 규격을 따르는 컨텐츠 스트림을 포함할 수 있고, 모바일 방송은 M/H 방송 규격을 따르는 컨텐츠 스트림을 포함할 수 있다.
디스크립터 생성부(304)는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터(descriptor)를 생성할 수 있다. 일례로, 디스크립터 생성부(304)는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 디스크립터를 생성할 수 있다. 그리고, 디스크립터 생성부(304)는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 디스크립터를 생성할 수 있다. 또한, 디스크립터 생성부(304)는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 디스크립터를 생성할 수 있다. 그리고, 디스크립터 생성부(304)는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 정보를 포함하는 디스크립터를 생성할 수 있다. 디스크립터에 대해서는 도 4 및 도 5에서 구체적으로 설명하기로 한다.
데이터 전송부(305)는 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송할 수 있다. 일례로, 디스크립터를 제1 컨텐츠 스트림 또는 상기 제2 컨텐츠 스트림 중 적어도 하나에 포함시켜 전송할 수 있다.
그리고, 컨텐츠 재생 장치(302)는 데이터 수신부(306) 및 서비스 제공부(307)를 포함할 수 있다.
데이터 수신부(306)는 컨텐츠 제공 장치(301)로부터 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 수신할 수 있다.
서비스 제공부(307)는 컨텐츠 제공 장치(301)로부터 수신한 디스크립터를 이용하여 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공할 수 있다. 앞서 설명하였듯이, 제1 컨텐츠 스트림은 기준 영상에 대응하고, 제2 컨텐츠 스트림은 부가 영상에 대응할 수 있다.
도 4는 본 발명의 일실시예에 따른 디스크립터의 구조를 도시한 도면이다.
도 4를 참고하면, 디스크립터(400)는 기준 영상과 관련된 컨텐츠 스트림 또는 부가 영상과 관련된 컨텐츠 스트림을 식별하기 위한 식별 정보(401)를 포함할 수 있다. 이 때, 컨텐츠 재생 장치(302)가 기준 영상 또는 부가 영상 중 어느 한쪽 영상의 컨텐츠 스트림의 식별 정보를 알고 있는 경우, 컨텐츠 제공 장치(301)는 디스크립터에 이미 알고 있는 식별 정보를 생략할 수 있다. 일례로, ATSC 메인 방송 스트림 내 MPEG-2 TS의 PMT 또는 ATSC A/65의 TVCT와 같은 테이블의 디스크립터 형태로 기준 영상과 부가 영상의 스트림 식별정보를 전송하는 경우, 기준 영상은 해당 디스크립터를 포함하는 프로그램의 비디오 스트림이 되고, 상기 디스크립터는 M/H 방송망의 부가 영상 스트림의 식별 정보만을 포함할 수 있다.
다른 일례로, M/H 방송 스트림 내 SMT나 SLT와 같은 테이블의 디스크립터를 통해 기준 영상과 부가 영상의 스트림 식별정보를 전송하는 경우, 부가 영상은 해당 디스크립터를 포함하는 서비스의 비디오 스트림이 되고, 상기 디스크립터는 ATSC 메인 방송망의 기준 영상 스트림의 식별 정보만을 포함할 수 있다.
그리고, 디스크립터(400)는 기준 영상과 관련된 컨텐츠 스트림 및 부가 영상과 관련된 컨텐츠 스트림의 동기화를 위한 동기 정보(402)를 포함할 수 있다. 일례로, 동기 정보는 (i) NTP 동기 방식, (ii) 타임 스탬프 패어링 방식 및 (iii) 타임 스탬프 오프셋 방식을 포함할 수 있다. 동기 정보에 대해서는 도 6 내지 도 8에서 구체적으로 설명하기로 한다.
또한, 디스크립터(400)는 기준 영상과 관련된 컨텐츠 스트림 또는 부가 영상과 관련된 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보(403)를 포함할 수 있다. 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보(403)는 사항에 따라서 포함되거나 또는 생략될 수 있다. 한편, 디스크립터(400)는 기준 영상과 관련된 컨텐츠 스트림 또는 부가 영상과 관련된 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 정보를 포함할 수 있다.
도 5는 본 발명의 일실시예에 따른 디스크립터의 실제 예시를 도시한 도면이다.
도 5를 참고하면, 디스크립터를 정의한 신택스(syntax)를 나타낸다.
먼저, MH_Hybrid_Stereoscopic_Video_Descriptor는 해당 프로그램이 2D (모노스코픽)서비스인지 또는 M/H 융합형 스테레오스코픽 서비스인지 여부에 대한 정보를 제공할 수 있다. 여기서, 스테레오스코픽 서비스은 이종의 방송 규격에 따라 기준 영상과 부가 영상을 제공함으로써 3D 서비스를 구현할 수 있는 서비스를 의미한다. 그리고, MH_Hybrid_Stereoscopic_Video_Descriptor는 어떤 종류의 스테레오스코픽 서비스인지에 대한 정보를 제공할 수 있다.
해당 프로그램이 스테레오스코픽 서비스일 경우, MH_Hybrid_Stereoscopic_Video_Descriptor는 기준 영상과 부가 영상과 관련된 컨텐츠 스트림의 식별 및 3D 영상 합성에 필요한 정보를 제공한다. 또한, MH_Hybrid_Stereoscopic_Video_Descriptor는 선택적으로 M/H 영상의 화질 개선을 위한 부가 정보를 제공한다. MH_Hybrid_Stereoscopic_Video_Descriptor는 TVCT, PMT, EIT 등의 시그널링 채널을 통해 전송될 수 있다. 만약, MH_Hybrid_Stereoscopic_Video_Descriptor가 없는 프로그램일 경우, 해당 프로그램은 M/H 융합형 3DTV 서비스가 아닌 것으로 간주된다.
Stereoscopic_service_type는 해당 M/H용 Service가 모노스코픽 서비스인지 스테레오스코픽 서비스인지 여부 및 스테레오스코픽 서비스의 종류를 구분하는 정보이다. Stereoscopic_service_type는 하기 표 1에 의해 구체화될 수 있다.
Figure PCTKR2012006694-appb-I000001
신택스(501)는 기준 영상에 대응하는 컨텐츠 스트림 또는 부가 영상에 대응하는 컨텐츠 스트림을 식별하기 위한 식별 정보를 나타낸다.
PID(Program ID)는 기준 영상에 대응하는 컨텐츠 스트림을 식별하기 위한 식별 정보이다. 일례로, 기준 영상이 고정형 방송 규격으로 전송되는 경우, PID는 고정형 방송에 대응하는 컨텐츠 스트림을 식별하기 위한 식별 정보이다. 여기서, 고정형 방송은 ATSC 메인 방송일 수 있다. PID는 MPEG-2 TS 패킷의 식별자일 수 있다.
Stereoscopic_service_id, IP_version_flag, component_destination_IP_address 및 component_destination_UDP_port_num는 부가 영상과 관련된 컨텐츠 스트림을 식별하기 위한 식별 정보이다. 일례로, 부가 영상이 모바일 방송 규격으로 전송되는 경우, Stereoscopic_service_id, IP_version_flag, component_destination_IP_address 및 component_destination_UDP_port_num는 모바일 방송에 대응하는 컨텐츠 스트림을 식별하기 위한 식별 정보이다. 여기서, 모바일 방송은 M/H일 수 있다.
Stereoscopic_service_id는 스테레오스코픽 서비스를 위한 부가 영상과 관련된 컨텐츠 스트림이 전송되는 M/H Service id를 나타낸다.
IP_version_flag는 ‘0’으로 셋팅되면 component_destination_IP_address 필드가 IPv4임을 의미한다. 그리고, IP_version_flag는 ‘1’로 설정되면 A/153 Part 3 규격에서 IPv6 형식의 IP 주소가 사용될 경우를 의미한다.
component_destination_IP_address는 부가 영상과 관련된 컨텐츠 스트림의 component destination IP 주소이다. 이 때, 부가 영상과 관련된 컨텐츠 스트림은 모바일 방송 규격에 따라 전송될 수 있다. 그리고, component_destination_IP_address는 component_destination_UDP_port_num 필드와 함께 부가 영상과 관련된 컨텐츠 스트림을 식별할 때 사용된다.
component_destination_UDP_port_num는 부가 영상과 관련된 컨텐츠 스트림의 component destination UDP port 번호이다.
신택스(501)에서 경우에 따라 PID나 또는 M/H 비디오 스트림 식별정보를 생략할 수 있다. 일례로, ATSC 메인 방송 스트림 내 MPEG-2 TS의 PMT 또는 ATSC A/65의 TVCT와 같은 테이블 내에 디스크립터를 삽입하여 전송하는 경우, 기준 영상은 해당 디스크립터를 포함하는 프로그램의 비디오 스트림이 되고, 상기 디스크립터는 M/H 방송망의 부가 영상 스트림의 식별 정보만을 포함할 수 있다.
다른 일례로, M/H 방송 스트림 내 SMT나 SLT와 같은 테이블 내에 디스크립터를 삽입하여 전송하는 경우, 부가 영상은 해당 디스크립터를 포함하는 서비스의 비디오 스트림이 되고, 상기 디스크립터는 ATSC 메인 방송망의 기준 영상 스트림의 식별 정보만을 포함할 수 있다.
그리고, 신택스(501)에서 M/H 부가영상 비디오 스트림 식별을 위해 IP_version_flag, component_flag, component_destination_IP_address, component_destination_UDP_port_num을 생략한 stereoscopic_service_id 만을 전송할 수 있다. 이 경우 stereoscopic_service_id에 대응하는 M/H 서비스에 속한 영상 스트림을 이용할 수 있다. 앞서 설명한 PID나 또는 M/H 비디오 스트림 식별정보를 생략하는 과정의 일례로, 디스크립터가 ATSC 메인 방송망의 PMT 또는 TVCT 테이블에 포함되어 전달되고, M/H 비디오 스트림 식별을 위해 stereoscopic_service_id만 명시하는 경우, 도 5의 디스크립터에는 신택스(501) 내에 stereoscopic_service_id만을 포함시킬 수 있다.
상기 설명한 바와 같이 신택스(501)에 따라 컨텐츠 재생 장치(102)는 3D 영상합성에 이용할 기준 영상과 부가 영상과 관련된 컨텐츠 스트림을 식별할 수 있다. 그러면, 컨텐츠 재생 장치(102)는 식별정보에 따라 기준 영상과 부가 영상과 관련된 컨텐츠 스트림을 추출하고 해당 스트림을 디코딩 한 후, 디코딩 된 기준 영상과 부가 영상 간의 동기화를 수행하여 3D 영상을 합성/출력할 수 있다.
신택스(502)는 부가 영상이 크롭되었는 지 여부를 나타내는 정보를 포함할 수 있다. 예를 들어, M/H 규격은 16:9 비율의 영상 해상도를 지원하지만, 규격상 실제 디스플레이 화면의 비율은 16:9와 조금 다를 수 있다. 현재 M/H 규격은 15.6:9 비율의 해상도도 지원한다. 이와 같이 16:9와 조금 다른 해상도의 M/H 영상을 수신하는 경우, 컨텐츠 재생 장치가 3D 영상의 합성을 수행할 수 있도록 15.6:9 영상이 포함하고 있는 영역에 대한 정보를 시그널링할 필요가 있다.
일례로, 인코딩된 M/H 영상이 정확히 16:9 영상이 아닌 경우, additional_view_cropped_flag 필드를 통해 컨텐츠 재생 장치에 전송된 부가 영상이 크롭되었는 지 여부가 정의될 수 있다.
구체적으로, 컨텐츠 재생 장치에 전송된 부가 영상이 원본 영상에서 좌우 가장자리 크롭 후 인코딩된 영상인지, 아니면 원본 영상의 수직-수평 비율을 미세하게 왜곡하여 원래 영상을 그대로 포함하는 영상인지를 여부를 판단할 수 있다. 즉, additional_view_cropped_flag는 컨텐츠 재생 장치에 전송된 부가 영상과 관련하여, 원본 영상의 일부가 제외된 것인지 또는 원본 영상을 그대로 축소한 것인지 여부를 나타낸다.
구체적으로, additional_view_cropped_flag가 “1”일 경우 M/H 영상의 인코딩 이전에 좌우 가장자리 크롭이 이루어졌음을 의미하며, “0” 일 경우 인코딩된 M/H 영상이 축소되어 원래 영상의 정보를 모두 포함하고 있음을 의미한다.
한편, leftview_flag는 1일 경우 기준 영상에 대응하는 ATSC 메인 방송의 비디오 스트림을 좌영상, 0일 경우 부가 영상에 대응하는 M/H 비디오 스트림을 좌영상으로 이용할 수 있다.
그리고, 신택스(503)는 기준 영상과 관련된 컨텐츠 스트림 및 부가 영상과 관련된 컨텐츠 스트림의 동기화를 위한 동기 정보를 의미한다. 일반적으로, 기준 영상과 부가 영상은 서로 다른 방송 규격으로 전송되어 서로 다른 타이밍 정보를 가지고 있다. 그래서, 부가 영상의 재생 시간은 기준 영상과 관련하여 서로 동기화되지 않은 재생 시간을 나타낼 수 있다. 이와 같이, 기준 영상과 부가 영상을 이용하여 3D 방송 서비스를 구현할 수 있도록, 신택스(503)에 기준 영상과 부가 영상을 액세스 유닛인 프레임 단위로 동기화하기 위한 동기 정보를 포함할 수 있다.
본 발명의 일실시예에 따르면, 동기 정보는 다음과 같은 3가지의 경우로 표현될 수 있다.
(i) 타임 스탬프 페어링 방식
타임 스탬프 페어링 방식의 경우, 신택스(503)는 다음과 같이 표현될 수 있다.
타임 스탬프 페어링 방식은 3DTV 서비스를 위해 임의의 동일 시점에 출력해야 하는 기준 영상의 액세스 유닛에 대응하는 타임 스탬프와 부가 영상의 액세스 유닛에 대응하는 타임 스탬프로 구성된 타임 스탬프 페어를 동기 정보로 활용하는 것을 의미한다. 기준 영상과 부가 영상 간의 동기화는 임의의 동기화 시점에서 동기 정보로 제공되는 기준 영상의 타임 스탬프와 부가 영상의 타임 스탬프를 이용하여 수행될 수 있다. 그리고, 동기화는 기준 영상의 기준 클럭 또는 부가 영상의 기준 클럭에 기초하여 정확하게 보정될 수 있다.
그리고, 타임 스탬프 페어링 방식은 좌우영상의 AU의 타임 스탬프를 동기 정보로 이용하고, 복원할 때 동기 정보를 이용하여 재생하고자 하는 컨텐츠의 타임 스탬프를 기준 클럭에 적합한 형태로 변환하는 것을 의미한다. 이 때, 3D 재생을 위한 복원 기준 클럭을 MDTV의 NTP clock으로 설정하는 경우, 좌영상(ATSC-Main) PTS를 NTP Timestamp 형태로 변환한다. 그리고, 복원 기준 클럭을 PCR clock으로 설정하는 경우, 우영상(MDTV)의 RTP timestamp를 PTS 형태로 변환한다.
(ii) 타임 스탬프 오프셋 방식
타임 스탬프 오프셋 방식의 경우, 신택스(503)는 다음과 같이 표현될 수 있다.
기준 영상에 대응하는 메인 컨텐츠 스트림과 부가 영상에 대응하는 부가 컨텐츠 스트림의 프레임 레이트가 같고 MPEG-2 시스템 PTS와 MDTV 시스템 RTP timestamp의 클럭 레이트가 같다.
이에 따라, 타임 스탬프 오프셋 방식은 3DTV 서비스를 위해 임의의 동일 시점에 출력해야 하는 기준 영상 및 부가 영상의 액세스 유닛에 대응하는 타임 스탬프의 오프셋을 동기 정보로 이용한다. 기준 영상의 타임 스탬프는 PTS이고, 부가 영상의 타임 스탬프는 RTP Timestamp이다. 그리고, 타임 스탬프 오프셋 방식은 복원할 때 동기 정보를 이용하여 재생하고자 하는 컨텐츠의 타임 스탬프를 기준 클럭에 적합한 형태로 변환할 수 있다. 여기서, 타임 스탬프는 기준 영상인 경우 PTS이고, 부가 영상인 경우 RTP Timestamp이다.
컨텐츠 재생 장치는 3D 재생을 위한 복원 기준 클럭을 MDTV의 NTP clock을 이용할 경우 기준 영상(ATSC-Main)의 PTS를 NTP Timestamp 형태로 변환할 수 있다. 반대로, 복원 기준 클럭을 PCR clock을 이용할 경우, 컨텐츠 재생 장치는 부가 영상(MDTV)의 RTP timestamp를 PTS 형태로 변환한다.
(iii) NTP 동기 방식
NTP 동기 방식은 ATSC 메인 방송 규격에 대응하는 메인 컨텐츠 스트림의 PTS와 MDTV 방송 규격에 대응하는 부가 컨텐츠 스트림의 RTP Timestamp 이외에, 메인 컨텐츠 스트림과 부가 컨텐츠 스트림의 동기화를 위해서 별도로 생성된 NTP Timestamp를 추가적으로 전송하는 방식을 의미한다.
NTP 동기 방식의 경우, 신택스(503)는 다음과 같이 표현될 수 있다.
NTP 동기 방식은 8-VSB 방송 규격에 대응하는 기준 영상과 관련된 컨텐츠 스트림의 PTS와 M/H 방송 규격에 대응하는 부가 영상과 관련된 컨텐츠 스트림의 RTP Timestamp 이외에, 기준 영상과 관련된 컨텐츠 스트림 및 부가 영상과 관련된 컨텐츠 스트림의 동기화를 위해서 별도로 생성된 NTP Timestamp를 추가적으로 전송하는 방식을 의미한다.
또한, 신택스(504)는 기준 영상과 관련된 컨텐츠 스트림 또는 부가 영상과 관련된 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 의미한다.
M/H 융합형 3DTV의 경우 기준 영상과 부가 영상의 방송망이 다르기 때문에 좌우 영상 간의 해상도 차이가 발생할 수 있다. 해상도 차이가 클 경우, 시청에 방해가 될 수 있으며 이를 극복하기 위해 낮은 해상도의 영상 화질을 개선하기 위해 부가 정보를 전송할 수 있다. 부가 정보는 영상을 시청하는 사용자의 좌안과 우안에 대응하는 영상 간의 양안시차 정보, 수신기의 후처리를 위한 메타데이터, 또는 Scalable Video Coding을 이용한 Enhancement Layer 등을 포함할 수 있다.
화질 개선용 부가 정보의 일례로 양안시차 정보는 다음과 같다. 스테레오스코픽 입체영상은 같은 시간에 특정 거리의 차이를 가지고 배치된 두 대의 카메라를 통해 촬영되기 때문에 기준 영상과 부가 두 영상은 서로 매우 큰 상관도를 가진다. 이 때, 기준영상과 부가영상 사이의 높은 상관성을 이용하여 시차 보상된 기준 영상으로부터 3DTV용 부가 영상의 화질이 개선될 수 있다.
컨텐츠 제공 장치에서 기준영상과 부가영상의 양안 시차 벡터에 대한 정보를 같은 해상도 크기로 스케일링된 좌우 영상으로 계산/추정하고, 이를 부가 정보의 형태로 컨텐츠 재생 장치에 전달할 수 있다. 컨텐츠 재생 장치는 전송된 부가정보를 이용하여 저해상도의 부가 영상의 화질을 8-VSB 기준 영상의 화질에 가깝게 향상시킬 수 있다.
화질을 개선하기 위한 부가 정보가 신택스(504)로 정의될 수 있다. 화질개선용 부가 정보는 PID가 부여된 8-VSB MPEG-TS를 통해 전송되고, 시그널링 디스크립터를 통해 PID를 컨텐츠 재생 장치에 전달될 수 있다.
VEI_flag는 화질을 개선하기 위한 부가 정보의 유무를 나타낸다. VEI_PID는 화질을 개선하기 위한 VEI를 전송하는 MPEG-TS의 PID를 나타낸다. 이상에서, 설명된 신택스에 따른 서비스 시나리오의 일례는 다음과 같다.
(i) 8-VSB 단말기에서 채널을 변경할 경우 PAT를 통해 변경하고자 하는 Service id와 PMT의 PID를 구한다.
(ii) PAT를 통해 구해진 PMT의 PID를 이용하여 해당 PMT를 찾는다. 그런 다음, Main stream의 Video와 Audio PID를 구해 디코더에 전달한다.
(iii) TVCT에서 PMT의 Service id를 갖는 Channel 또는 PMT에서 전송되는 MH_Hybrid_Stereoscopic_Video_Descriptor를 찾아 해당 channel이 M/H Hybrid Stereoscopic service인지 확인한다. 그리고, 부가 영상이 M/H의 어느 Service로 오는지 알기 위해 해당 M/H의 Service id를 구한다.
(iv) M/H 단말기에서 FIC를 Parsing하여 위에서 찾은 Service가 전송되는 Ensemble을 찾고, 해당 Ensemble로 Tuning하여 해당 Service의SMT를 (최대 delay time = 1936ms ) 통해 부가 영상의 Video 정보를 구해 해당 Decoder에 전달한다.
(v) MH_Hybrid_Stereoscopic_Video_Descriptor의 VEI_flag가 True일 경우, VEI_PID를 VEI Decoder에 전달한다.
(vi) MH_Hybrid_Stereoscopic_Video_Descriptor의 VEI_flag가 False일 경우, 8-VSB의 MPEG-2 Video 스트림과, M/H의 AVC Video스트림을 각각 해당 Decoder에 넣어 처리한 후의 출력을 3D Video Formatter에 입력하고 3D Video를 생성하여 화면에 출력하며, 출력 영상의 좌우 선택은 leftview_flag에 따른다.
(vii) MH_Hybrid_Stereoscopic_Video_Descriptor의 VEI_flag가 True일 경우, 8-VSB의 MPEG-2 Video 스트림과, M/H의 AVC Video스트림을 각각 해당 Decoder에 넣어 처리하고, AVC 디코더의 출력 영상과 VEI를 VEI 디코더에 입력하여 화질개선을 수행할 수 있도록 한 후, MPEG-2 디코더의 출력영상과 VEI 디코더의 출력 영상을 3D Video Formatter에 입력하고 3D Video를 생성하여 화면에 출력하며, 출력 영상의 좌우 선택은 leftview_flag에 따른다.
도 6은 본 발명의 다른 실시예에 다른 디스크립터의 실제 예시를 도시한 도면이다.
도 6은 도 5에 도시된 신택스에 비해 보다 간단한 정보를 포함하는 신택스를 도시하고 있다. 도 6의 신택스에 기재된 각 설명은 도 5를 참고할 수 있다.
도 7은 본 발명의 일실시예에 따른 컨텐츠 제공 방법을 도시한 도면이다.
도 7을 참고하면, 컨텐츠 제공 장치는 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성할 수 있다(701).
그리고, 컨텐츠 제공 장치는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성할 수 있다(702). 일례로, 컨텐츠 제공 장치는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 디스크립터를 생성할 수 있다. 그리고, 컨텐츠 제공 장치는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 디스크립터를 생성할 수 있다. 또한, 컨텐츠 제공 장치는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 디스크립터를 생성할 수 있다. 그리고, 컨텐츠 제공 장치는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 정보를 포함하는 디스크립터를 생성할 수 있다.
또한, 컨텐츠 제공 장치는 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송할 수 있다(703). 일례로, 컨텐츠 제공 장치는 디스크립터를 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림 중 적어도 하나에 포함시켜 컨텐츠 재생 장치에 전송할 수 있다.
도 7에서 설명되지 않은 부분은 도 1 내지 도 6의 설명을 참고할 수 있다.
도 8은 본 발명의 일실시예에 따른 컨텐츠 재생 방법을 도시한 도면이다.
도 8을 참고하면, 컨텐츠 재생 장치는 컨텐츠 제공 장치로부터 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 수신할 수 있다(801). 이 때, 디스크립터는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함할 수 있다. 또한, 디스크립터는 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함할 수 있다. 그리고, 디스크립터는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함할 수 있다. 또한, 디스크립터는 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 정보를 포함할 수 있다.
그리고, 컨텐츠 재생 장치는 디스크립터에 포함된 파라미터를 이용하여 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공할 수 있다(802).
도 8에서 설명되지 않은 부분은 도 1 내지 도 6의 설명을 참고할 수 있다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (25)

  1. 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성하는 컨텐츠 스트림 생성부;
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성하는 디스크립터 생성부;
    상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 데이터 전송부
    를 포함하는 컨텐츠 제공 장치.
  2. 제1항에 있어서,
    상기 디스크립터 생성부는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 장치.
  3. 제1항에 있어서,
    상기 디스크립터 생성부는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 장치.
  4. 제1항에 있어서,
    상기 디스크립터 생성부는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 장치.
  5. 제1항에 있어서,
    상기 디스크립터 생성부는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 크롭 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 장치.
  6. 제1항에 있어서,
    상기 데이터 전송부는,
    상기 디스크립터를 상기 제1 컨텐츠 스트림 또는 상기 제2 컨텐츠 스트림 중 적어도 하나에 포함시켜 전송하는 것을 특징으로 하는 컨텐츠 제공 장치.
  7. 제1항에 있어서,
    상기 기준 영상은, 고정형 방송 규격으로 전송되고, 상기 부가 영상은 모바일 방송 규격으로 전송되는 컨텐츠 제공 장치.
  8. 컨텐츠 제공 장치로부터 기준 영상에 대응하는 제1 컨텐츠 스트림, 부가 영상에 대응하는 제2 컨텐츠 스트림 및 상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 수신하는 데이터 수신부;
    상기 디스크립터를 이용하여 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공하는 서비스 제공부
    를 포함하는 컨텐츠 재생 장치.
  9. 제8항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 컨텐츠 재생 장치.
  10. 제8항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 컨텐츠 재생 장치.
  11. 제8항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 컨텐츠 재생 장치.
  12. 제8항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 크롭 정보를 포함하는 것을 특징으로 하는 컨텐츠 재생 장치.
  13. 제8항에 있어서,
    상기 기준 영상은, 고정형 방송 규격으로 전송되고, 상기 부가 영상은 모바일 방송 규격으로 전송되는 컨텐츠 재생 장치.
  14. 기준 영상에 대응하는 제1 컨텐츠 스트림 및 부가 영상에 대응하는 제2 컨텐츠 스트림을 생성하는 단계;
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림과 관련된 디스크립터를 생성하는 단계;
    상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 단계
    를 포함하는 컨텐츠 제공 방법.
  15. 제14항에 있어서,
    상기 디스크립터를 생성하는 단계는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 방법.
  16. 제14항에 있어서,
    상기 디스크립터를 생성하는 단계는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 방법.
  17. 제14항에 있어서,
    상기 디스크립터를 생성하는 단계는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 방법.
  18. 제14항에 있어서,
    상기 디스크립터를 생성하는 단계는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 크롭 정보를 포함하는 디스크립터를 생성하는 것을 특징으로 하는 컨텐츠 제공 방법.
  19. 제14항에 있어서,
    상기 제1 컨텐츠 스트림, 제2 컨텐츠 스트림 및 디스크립터를 컨텐츠 재생 장치에 전송하는 단계는,
    상기 디스크립터를 상기 제1 컨텐츠 스트림 또는 상기 제2 컨텐츠 스트림 중 적어도 하나에 포함시켜 전송하는 것을 특징으로 하는 컨텐츠 제공 방법.
  20. 제14항에 있어서,
    상기 기준 영상은, 고정형 방송 규격으로 전송되고, 상기 부가 영상은 모바일 방송 규격으로 전송되는 컨텐츠 제공 방법.
  21. 컨텐츠 제공 장치로부터 기준 영상에 대응하는 제1 컨텐츠 스트림, 부가 영상에 대응하는 제2 컨텐츠 스트림 및 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림과 관련된 디스크립터를 수신하는 단계;
    상기 디스크립터를 이용하여 상기 제1 컨텐츠 스트림 및 제2 컨텐츠 스트림에 기초한 2D 방송 서비스 또는 3D 방송 서비스를 제공하는 단계
    를 포함하는 컨텐츠 재생 방법.
  22. 제21항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 식별하기 위한 식별 정보를 포함하는 컨텐츠 재생 장치.
  23. 제21항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림과 제2 컨텐츠 스트림을 동기화하기 위한 동기 정보를 포함하는 컨텐츠 재생 방법.
  24. 제21항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림의 화질을 개선하기 위한 부가 정보를 포함하는 컨텐츠 재생 방법.
  25. 제21항에 있어서,
    상기 디스크립터는,
    상기 제1 컨텐츠 스트림 또는 제2 컨텐츠 스트림에 포함된 영상이 크롭되었는 지 여부를 나타내는 크롭 정보를 포함하는 것을 특징으로 하는 컨텐츠 재생 방법.
PCT/KR2012/006694 2011-10-10 2012-08-23 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법 WO2013055032A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/351,109 US9615143B2 (en) 2011-10-10 2012-08-23 Device and method for providing content by accessing content stream in hybrid 3D TV, and device and method for reproducing content

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20110103262 2011-10-10
KR10-2011-0103262 2011-10-10
KR1020120087603A KR101965385B1 (ko) 2011-10-10 2012-08-10 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법
KR10-2012-0087603 2012-08-10

Publications (1)

Publication Number Publication Date
WO2013055032A1 true WO2013055032A1 (ko) 2013-04-18

Family

ID=48082052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/006694 WO2013055032A1 (ko) 2011-10-10 2012-08-23 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2013055032A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167632A1 (ko) * 2015-04-17 2016-10-20 삼성전자 주식회사 방송 서비스를 위한 서비스 시그널링을 송수신하는 방법 및 장치
US11317138B2 (en) 2015-04-17 2022-04-26 Samsung Electronics Co., Ltd. Method and apparatus for transmitting or receiving service signaling for broadcasting service

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066191A (ko) * 2007-12-18 2009-06-23 한국전자통신연구원 영상정보의 분리 전송을 이용한 3차원 입체방송 송수신장치 및 그 방법
KR20090102116A (ko) * 2008-03-25 2009-09-30 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
KR20100042771A (ko) * 2008-10-17 2010-04-27 삼성전자주식회사 영상처리장치 및 영상처리방법
KR20110014821A (ko) * 2009-08-06 2011-02-14 한국방송공사 입체방송을 위한 계층적 방송 시스템 및 방법
KR20110088334A (ko) * 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066191A (ko) * 2007-12-18 2009-06-23 한국전자통신연구원 영상정보의 분리 전송을 이용한 3차원 입체방송 송수신장치 및 그 방법
KR20090102116A (ko) * 2008-03-25 2009-09-30 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
KR20100042771A (ko) * 2008-10-17 2010-04-27 삼성전자주식회사 영상처리장치 및 영상처리방법
KR20110014821A (ko) * 2009-08-06 2011-02-14 한국방송공사 입체방송을 위한 계층적 방송 시스템 및 방법
KR20110088334A (ko) * 2010-01-28 2011-08-03 삼성전자주식회사 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 생성 방법 및 장치, 3차원 멀티미디어 서비스를 제공하기 위한 데이터스트림 수신 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167632A1 (ko) * 2015-04-17 2016-10-20 삼성전자 주식회사 방송 서비스를 위한 서비스 시그널링을 송수신하는 방법 및 장치
US11317138B2 (en) 2015-04-17 2022-04-26 Samsung Electronics Co., Ltd. Method and apparatus for transmitting or receiving service signaling for broadcasting service

Similar Documents

Publication Publication Date Title
WO2010053246A2 (en) Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
WO2013019042A1 (ko) 실시간으로 전송되는 기준 영상과 별도로 전송되는 부가 영상 및 콘텐츠를 연동하여 3d 서비스를 제공하기 위한 전송 장치 및 방법, 및 수신 장치 및 방법
WO2012128563A2 (ko) 이종망 기반 연동형 방송콘텐츠 송수신 장치 및 방법
WO2012099359A2 (ko) 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
WO2012077982A2 (ko) 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
WO2011108903A2 (ko) 복수 전송 계층 연동형 3dtv 방송 서비스 제공을 위한 송신 및 수신 방법, 송신 및 수신 장치
WO2012064123A2 (ko) 3dtv 서비스에서의 영상 압축 규격 결정 방법 및 장치
KR101965385B1 (ko) 융합형 3dtv에서 컨텐츠 스트림에 접근하는 컨텐츠 제공 장치 및 방법, 그리고 컨텐츠 재생 장치 및 방법
WO2013154402A1 (en) Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
WO2012121572A2 (ko) 프로그램 연동형 스테레오스코픽 방송 서비스를 제공하기 위한 송신 장치 및 방법, 및 수신 장치 및 방법
WO2013154397A1 (en) Transmitting system and receiving apparatus for providing hybrid service, and service providing method thereof
JP2011019224A (ja) デジタル放送システムのステレオスコピックビデオ送受信方法およびその装置
WO2013025032A1 (ko) 수신 장치 및 그 수신 방법
WO2013154350A1 (en) Receiving apparatus for providing hybrid service, and hybrid service providing method thereof
WO2016129981A1 (ko) 미디어 데이터를 송수신하는 방법 및 장치
WO2012070715A1 (ko) 디지털 방송의 전송 모드 제공 및 인지 방법
WO2012121571A2 (ko) 비실시간 스테레오스코픽 방송 서비스 송신 및 수신 장치, 그리고 송신 및 수신 방법
WO2011049372A2 (en) Method and apparatus for generating stream and method and apparatus for processing stream
WO2016017961A1 (ko) 방송 신호 송수신 방법 및 장치
WO2012144857A2 (en) Receiver for receiving and displaying a plurality of streams through separate routes, method for processing the plurality of streams and transmitting method thereof
WO2011046271A1 (en) Broadcast receiver and 3d video data processing method thereof
WO2011159093A2 (en) Hybrid delivery mechanism in a multimedia transmission system
WO2012070716A1 (ko) 디지털 방송에서 서비스 호환 방식 전송 방법
WO2012015288A2 (en) Method and apparatus for transmitting and receiving extended broadcast service in digital broadcasting
US20130007833A1 (en) Image data transmitter, image data transmission method, image data receiver, and image data reception method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12839339

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14351109

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12839339

Country of ref document: EP

Kind code of ref document: A1