WO2012108210A1 - ビデオストリームの映像のデータ作成装置及び再生装置 - Google Patents

ビデオストリームの映像のデータ作成装置及び再生装置 Download PDF

Info

Publication number
WO2012108210A1
WO2012108210A1 PCT/JP2012/000899 JP2012000899W WO2012108210A1 WO 2012108210 A1 WO2012108210 A1 WO 2012108210A1 JP 2012000899 W JP2012000899 W JP 2012000899W WO 2012108210 A1 WO2012108210 A1 WO 2012108210A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
video stream
view video
frame
picture
Prior art date
Application number
PCT/JP2012/000899
Other languages
English (en)
French (fr)
Inventor
泰治 佐々木
洋 矢羽田
智輝 小川
遠間 正真
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to MX2013008310A priority Critical patent/MX2013008310A/es
Priority to CA2823289A priority patent/CA2823289A1/en
Priority to BR112013020175A priority patent/BR112013020175A2/pt
Priority to US13/983,657 priority patent/US9025941B2/en
Priority to JP2012556803A priority patent/JP6008292B2/ja
Publication of WO2012108210A1 publication Critical patent/WO2012108210A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Definitions

  • the present invention relates to a technique for encoding and decoding for video recording or transmission, and reproduction and reproduction, and more particularly to a data creation apparatus for 3D video data and a reproduction apparatus thereof.
  • MPEG-4 AVC / H. MPEG-4 MVC (Multiview Video Coding) is a method for compressing and encoding 3D video.
  • this MPEG-4 MVC format compression encoding method it is possible to generate a 3D video stream that realizes compression encoding with a high compression rate.
  • the present invention has been made in view of the above problems, and while maintaining reproduction on an existing reproduction apparatus that supports MPEG-2 format video streams, the video stream corresponding to 3D video is reduced in data amount. It is an object of the present invention to provide a data creation device that generates a reduced amount of data, and a playback device for such a video stream.
  • a data creation device includes a first frame image group that shows a view over time at a first viewpoint, and a second frame image group that shows a view over time at a second viewpoint.
  • a data generation apparatus for compression encoding wherein the first encoding means for generating an MPEG-2 format stream by compressing and encoding the first frame image group, and a base conforming to the MPEG-4 MVC format
  • a second encoding unit that generates a view video stream and a dependent-view video stream; and a transmission unit that transmits the streams generated by the first and second encoding units, and the second encoding unit.
  • a stream composed of pseudo data with a reduced total data amount is generated.
  • a frame of the MPEG-2 format stream at the same time as a corresponding frame of the base-view video stream is referred to as the dependent-view stream.
  • a stream obtained by compression-encoding each frame constituting the second frame image group is generated.
  • the playback device includes an acquisition unit that acquires a stream transmitted by the data creation device, and a decoder that decodes the MPEG-2 format stream included in the stream acquired by the acquisition unit.
  • a first decoding unit that obtains a first frame image group; a base-view video stream included in the stream acquired by the acquiring unit; and a first frame at the same time as a corresponding frame of the base-view video stream
  • a second decoding unit that obtains the second frame image group by decoding a dependent-view video stream included in the stream using the frame decoded by one decoding unit as a reference image; and the first and second frames Reproduction means for reproducing the first and second frame image groups obtained by the decoding means.
  • the Rukoto wherein the Rukoto.
  • the data creation device reduces the data amount of the video stream corresponding to 3D video while maintaining the playback on the existing playback device that supports the MPEG-2 format video stream. Can be generated.
  • the playback device can play back a video stream corresponding to the 3D video.
  • the figure which shows the reference relationship of the picture of a video stream The figure which shows the compression encoding system by the MPEG-4 MVC format.
  • the conceptual diagram in the case of producing
  • the conceptual block diagram of a PES packet The figure which shows the data structure of TS packet which comprises a transport stream.
  • the conceptual diagram of the Side-by-Side system The figure which shows an example of an internal structure of the view video stream of MPEG-4 MVC format.
  • the conceptual diagram of the internal structure of the access unit of a video stream The figure which shows the structure of the video access unit of each picture of a base view video stream, and each picture of the image video stream for right eyes.
  • the figure which shows the GOP structure of a base view video stream and a dependent view video stream The figure which shows the structure of the video access unit contained in dependent GOP.
  • a 2D compatible video stream is an MPEG-2 video
  • a multi-view video stream is an MPEG-4 MVC format compression encoding system
  • the video attributes to be matched and fields for indicating the video attributes are shown.
  • the figure which shows a name The figure which shows the example of the relationship of PTS, DTS, and picture type allocated to each video access unit of a 2D compatibility video stream in a transport stream, a base view video stream, and a dependent view video stream.
  • regenerating apparatus which concerns on this Embodiment.
  • the 2D playback portion of the playback device decodes and plays back the MPEG-2 format stream using an existing decoding method
  • the 3D playback portion includes a base-view video stream and a video stream conforming to MPEG-4 MVC.
  • the pent-view video stream is decoded and reproduced in a decoding format corresponding to the new encoding.
  • FIG. 21 shows the data structure of the transport stream created by the broadcast system in the present embodiment. As shown in the figure, the transport stream is composed of a 2D compatible video stream A and a multi-view video stream B.
  • the latter multi-view video stream B is composed of a base-view video stream B1 and a dependent-view video stream B2.
  • the 2D compatible video stream A is created by compressing and coding the left-eye image
  • the base-view video stream B1 is created by compressing and coding a monochrome image such as black (hereinafter referred to as “black image”).
  • the dependent-view video stream B2 is generated by compressing and encoding the difference between the left-eye image and the right-eye image.
  • the base-view video stream B1 is a compression-encoded black image, it cannot be used as a reference image when generating the dependent-view video stream B2. This point is different from the existing MPEG-4 MVC format, and the reference image is set to the frame image of the 2D compatible video stream A at the same time.
  • both 2D video and 3D video can be transmitted, and the base view video stream B1 compresses and encodes a black image, so that the bit rate is extremely low.
  • both 2D video and 3D video can be transmitted in the range of the existing allocated frequency band.
  • the dependent-view video stream is decoded with reference to the frame image of the base-view video stream.
  • the MPEG-2 compatible stream is decoded. That is, the dependent-view video stream can be decoded using the frame image of the left-eye image as a reference image.
  • FIG. 26 is a block diagram of a functional configuration of the data creation device 2601 according to the present embodiment.
  • the data creation device 2601 receives a left-eye image, a right-eye image, and a black image that constitute a 3D video as inputs, and includes a transformer including a 2D-compatible video stream, a base-view video stream, and a dependent-view video stream in a data format described later. Output the port stream.
  • the data creation device 2601 includes a 2D compatible video encoder 2602, a Dec (2D compatible video decoder) 2603, an extended multi-view video encoder 2604, and a multiplexer 2610.
  • the extended multi-view video encoder 2604 includes a base-view video encoder 2605, a 2D compatible video frame memory 2608, and a dependent-view video encoder 2609.
  • the 2D compatible video encoder 2602 receives the left-eye image as an input, compresses and encodes it in the MPEG-2 format, and generates and outputs a 2D compatible video stream.
  • Dec 2603 decodes the compression-encoded picture in the 2D compatible video stream, and outputs a decoded picture obtained as a result and 2D compatible video encoding information 2606.
  • a picture is an image constituting a frame or a field, and is a unit of encoding.
  • the decoded picture is stored in the 2D compatible video frame memory 2608 of the extended multiview video encoder 2604.
  • the 2D compatible video encoding information 2606 is input to the base view video encoder 2605.
  • the 2D compatible video encoding information 2606 includes attribute information (resolution, aspect ratio, frame rate, progressive / interlaced distinction, etc.), picture attribute information (picture type, etc.) of the corresponding picture, GOP of the decoded 2D compatible video stream. (Group of Pictures) structure and configuration including 2D compatible video frame memory management information.
  • the 2D compatible video frame memory management information includes the decoded picture memory address stored in the 2D compatible video frame memory 2608, the display order information (PTS (Presentation Time Stamp) and temporal_reference) of the corresponding picture, and the code order information (code order of the file). Or DTS (Decoding Time Stamp).
  • the extended multi-view video encoder 2604 receives the decoded picture output from the Dec 2603, the 2D-compatible video encoding information, the right-eye image, and the black image, performs compression encoding, and performs the base-view video stream, the dependent Dent-view video stream is output.
  • the base view video encoder 2605 has a function of outputting the data compressed and encoded in accordance with the MPEG-4 MVC format as a base view video stream, and compresses and encodes a black image according to the 2D compatible video encoding information 2606. , A base-view video stream and base-view video encoding information 2607 are output.
  • Base view video encoding information 2607 includes base view video stream attribute information (resolution, aspect ratio, frame rate, progressive or interlaced distinction, etc.), picture attribute information (picture type, etc.) of the corresponding picture, GOP structure, and base
  • the configuration includes view video frame memory management information.
  • the base-view video encoder 2605 sets the attribute information of the base-view video stream to the same value as the video attribute information included in the 2D compatible video encoding information 2606. Furthermore, the base-view video encoder 2605 determines a picture type for compression coding of pictures at the same display time in accordance with picture attribute information (picture type, etc.) and GOP structure included in the 2D compatible video coding information 2606. Thus, the black image is compression encoded. For example, if the picture type indicated by the 2D compatible video encoding information 2606 of the picture at time a is an I picture and the picture is the first picture of the GOP, the base view video encoder 2605 displays a black image indicating the same display time. The video access unit is compressed and encoded so as to be an I picture, and is used as a video access unit at the head of the GOP of the base-view video stream.
  • the base-view video encoder 2605 compresses and encodes a black image indicating the same display time so as to become a B picture. To do. At this time, the DTS and PTS of the base-view video stream are matched with the DTS and PTS of the picture corresponding to the view showing the same time of the 2D compatible video stream, respectively.
  • the base-view video frame memory management information includes a memory address of the frame memory 2608 that stores a decoded picture obtained by decoding a 2D-compatible video stream based on the 2D-compatible video frame memory management information, and the decoded picture
  • This is information obtained by converting and associating a syntax element indicating display order information and code order information into a syntax element conforming to the rules of the compression encoding method of the base-view video stream.
  • the syntax element is an element that defines attribute information necessary for encoding in the MPEG-2 or MPEG-4 MVC format compression encoding system. For example, header information such as macroblock type, motion vector, conversion coefficient, etc. It is an element to show.
  • the dependent-view video encoder 2609 has a function of compressing and encoding in accordance with the MPEG-4 MVC format to generate a dependent-view video stream, and is based on information included in the base-view video encoding information 2607
  • the right-eye image is compressed and encoded, and a dependent-view video stream is output.
  • the dependent-view video encoder 2609 performs compression encoding using the decoded picture in the 2D compatible video frame memory as an inter-view reference.
  • inter-view reference refers to referring to a picture showing a view from different viewpoints.
  • the dependent-view video encoder 2609 determines a reference picture ID for performing inter-view reference based on the base-view video frame memory management information of the base-view video encoding information 2607.
  • the dependent-view video encoder 2609 sets the same value as the value of the attribute information of the base-view video stream included in the base-view video encoding information 2607 as the video attribute information of the dependent-view video stream.
  • the dependent-view video encoder 2609 determines the picture type of the image to be encoded based on the attribute information (for example, picture type) of the picture stored in the base-view video encoding information 2607 and the GOP structure. Then, the right-eye image is compression-encoded. For example, if the picture type indicated by the base-view video encoding information 2607 of the picture at time a is an I picture and the head of the GOP, the dependent-view video encoder 2609 sets the picture type of the picture at the same time a as an anchor picture. Then, the right-eye image is compression-encoded to obtain a video access unit at the head of the dependent GOP.
  • the attribute information for example, picture type
  • the dependent-view video encoder 2609 sets the picture type of the picture at the same time a as an anchor picture. Then, the right-eye image is compression-encoded to obtain a video access unit at the head of the dependent GOP.
  • An anchor picture is a picture that does not refer to a picture temporally prior to the own picture and can be reproduced by jumping from the own picture. If the picture type indicated by the base-view video encoding information 2607 of the picture at time b is a B picture, the dependent-view video encoder 2609 sets the picture type of the picture at the same time b to B picture, and The image is compressed and encoded.
  • the DTS and PTS of the dependent-view video stream are compression-encoded to match the DTS and PTS of the picture corresponding to the view to be displayed at the same time of the base-view video stream.
  • the multiplexer 2610 divides the output 2D compatible video stream, base-view video stream, and dependent-view video stream into PES (Packetized Elementary Stream) packets, divides them in units of TS packets, and multiplexes them as a transport stream Output.
  • PES Packetized Elementary Stream
  • the playback device In order to allow the playback device to identify each video stream from the stream data of the multiplexed transport stream, the 2D compatible video stream, the base view video stream, and the dependent view video stream are: Separate PIDs are set.
  • FIG. 22 shows video attributes to be matched in each compression encoding method in the MPEG-2 format and MPEG-4 MVC format compression encoding, and field names for indicating the video attributes.
  • the resolution, aspect ratio, The frame rate and the value of the video attribute indicating progressive or interlace are configured to be the same between pictures of the respective encoding formats.
  • FIG. 25 shows a GOP configuration of a 2D compatible video stream, a base view video stream, and a dependent view video stream in the present embodiment.
  • the 2D compatible video stream, the base view video stream, and the dependent view video stream are all configured to have the same number of GOPs. That is, when the picture of the 2D compatible video stream is the head of the GOP, the picture of the base view video stream having the same value of the PTS and the picture of the dependent view video stream having the same value of the PTS are respectively the GOP head, Must be at the beginning of the dependent GOP.
  • entry map information indicating where the GOP head picture is on the file may be stored as management information.
  • the entry map information is stored as a separate information file as a management information file.
  • both the base view position and the dependent view position at the same time are entered. Try to register on the map. In this way, the 3D video jump-in reproduction is facilitated by referring to the entry map.
  • FIG. 36 shows the relationship between the structure of the transport stream and the PMT (Program Map Table) packet.
  • a transport stream including a 3D video stream signaling information for performing 3D video decoding processing is included in a system packet such as a PMT packet.
  • the descriptor includes a 3D information descriptor for performing signaling such as the relationship between each video stream and the start / end of 3D video playback of the present system, and a 3D stream descriptor set for each video stream. It is the composition which includes.
  • FIG. 37 shows the structure of the 3D information descriptor.
  • the 3D information descriptor includes a playback method, a left-eye video type, a 2D compatible video PID, a base view video PID, and a dependent view video PID.
  • the playback method is information for signaling the playback method of the playback device.
  • the playback device plays back 2D video of only the 2D compatible video stream.
  • the playback apparatus When the value of the playback method is “1”, it indicates 3D video playback using 2D compatible video and dependent view video (that is, the 3D video playback method described in this embodiment).
  • the playback apparatus performs 3D video playback of the 2D compatible video stream, base-view video stream, and dependent-view video stream by the playback method described in this embodiment. Note that a 3D video playback method in the present embodiment will be described later.
  • the playback device plays back the 3D video of the video stream as a video stream compressed and encoded in the normal MPEG-4 MVC format.
  • the playback device When the value of the playback method is “3”, this indicates that a 2D compatible video stream or a base-view video stream is double-played, and the playback device performs double playback.
  • the doubling reproduction is to output one of the left and right views at a certain time a to both the L and R planes.
  • Playback by this playback method is equivalent to 2D video playback as a user viewing screen, but since the frame rate does not change during 3D video playback, the playback device is connected to a display or the like via HDMI (High-Definition Multimedia Interface) or the like. In this case, re-authentication does not occur and seamless connection playback between the 2D video playback section and the 3D video playback section can be realized.
  • HDMI High-Definition Multimedia Interface
  • the left-eye video type is information indicating which of the multi-view video streams the left-eye image is compression-coded (the other video stream becomes the right-eye image).
  • the value of the reproduction method is “0”, the value of this field has no meaning to refer to.
  • the value of the reproduction method is “1”, it indicates which of the 2D compatible video and the dependent view video is the image for the left eye. That is, when the value of the playback method is “1” and the value of the left-eye video type is “0”, it indicates that the 2D compatible video stream is a video stream corresponding to the left-eye image.
  • the playback method value is “2” or “3”
  • the playback apparatus refers to the value of the left-eye video type to determine which video stream corresponds to the left-eye image. Judgment can be made.
  • the 2D compatible video PID, the base view video PID, and the dependent view video PID indicate the PID of each video stream in the transport stream. With this information, the decoding target stream can be identified.
  • FIG. 39 shows a 3D stream descriptor.
  • the field name of the 3D descriptor includes a base view video type, a reference destination type, and a referenced type.
  • the base view video type indicates which video is compressed and encoded in the base view video stream.
  • the value of the base view video type is “0”, it indicates whether one of the left-eye image or the right-eye image data of the 3D video is compression-encoded, and when it is “1”, A black image is compressed and encoded as a dummy video that is replaced by a 2D compatible video stream and is not output to a plane.
  • the reference destination type indicates the type of the video stream to which the dependent-view video stream is referred to as an inter-view reference.
  • the value of the reference destination type is “0”, it indicates that the picture of the base view video stream is the inter-view reference destination, and when the value is “1”, the picture of the 2D compatible video stream is the inter-view reference destination. It shows that.
  • the case where the value of the reference destination type is “1” indicates that the reference method is based on the 3D video method in the present embodiment.
  • the referenced type indicates whether the corresponding video stream is referenced between views. If the reference is not made, the inter-view reference process can be skipped, so that the load of the decoding process can be reduced. Note that all or a part of the information of the 3D information descriptor and the 3D stream descriptor may be stored in supplementary data of each video stream instead of the PMT packet.
  • FIG. 23 shows an example of the relationship among PTS, DTS, and picture type assigned to each video access unit of the 2D compatible video stream, base-view video stream, and dependent-view video stream in the transport stream.
  • the data creation device 2601 converts the DTS and PTS values of the 2D compatible video stream picture and the dependent view video stream picture generated by compressing and encoding the left-eye image at the same time into the same DTS and PTS values, respectively. Set. Also, the same values as the PTS, DTS, and POC of the picture of the dependent-view video stream are set for the PTS, DTS, and POC of the picture of the base-view video stream to be reproduced at the same time.
  • the picture of the base-view video stream having the same value of PTS, DTS, and POC is referred to.
  • the picture reference ID (ref_idx_l0 or ref_idx_l1) specified from each macroblock of the picture of the dependent-view video stream has the same POC value.
  • a value indicating the base view picture that is held is set.
  • FIG. 27 is a diagram showing a data creation flow of the data creation device 2601. The data creation flow will be described below.
  • the variable N is a variable for storing the frame number of the frame image to be compressed and encoded.
  • step S2701 it is checked whether or not the Nth frame exists in the left-eye image. If it does not exist (step S2701: NO), it is determined that there is no more data to be compressed and encoded, and the process ends.
  • step S2701 the number of images to be compression encoded (hereinafter referred to as “one encoded number”) is determined in one compression encoding flow (steps S2702 to S2706) (step “1 encoded number” hereinafter).
  • the maximum number of video access units (the maximum number of GOPs, for example, 30 frames) set as one GOP is set as one encoded number.
  • the last GOP of the video stream it is assumed that the number of frames to be encoded is less than the maximum number of GOPs depending on the length of the input video stream. In this case, the remaining number of frames is set as one encoded number. To do.
  • the 2D compatible video encoder 2602 generates 2D compatible video streams for one encoded number (step S2703).
  • the 2D compatible video stream is generated by the compression encoding according to the compression encoding method of the 2D compatible video stream from the Nth frame of the left-eye image by one encoded number, and output.
  • the 2D compatible video decoder 2603 performs decoding processing of 2D compatible video streams for one encoded number (step S2704).
  • a decoded picture and 2D compatible video encoding information obtained by decoding compressed picture data for one encoded number from the Nth frame are output.
  • the base view video encoder 2605 generates base view video streams for one encoded number (step S2705). Specifically, based on 2D compatible video encoding information, base view video stream attribute information (resolution, aspect ratio, frame rate, progressive or interlaced distinction, etc.) as base view encoding information 2607, Set picture attribute information (picture type, etc.), GOP (Group of Pictures) structure, and 2D compatible video frame memory management information for each picture. Generate a video stream. Also, the set base-view encoding information 2607 is output.
  • base view video stream attribute information resolution, aspect ratio, frame rate, progressive or interlaced distinction, etc.
  • Set picture attribute information picture type, etc.
  • GOP Group of Pictures
  • the dependent view video encoder 2609 generates a dependent view video stream for one encoded number (step S2706). Specifically, based on the base-view video encoding information output in step S2705, the attribute information of the dependent-view video stream (resolution, aspect ratio, frame rate, progressive or interlaced distinction, etc.), Set picture attribute information (picture type, etc.), GOP (Group of Pictures) structure, and 2D compatible video frame memory management information for each picture.
  • the attribute information of the dependent-view video stream resolution, aspect ratio, frame rate, progressive or interlaced distinction, etc.
  • Set picture attribute information picture type, etc.
  • GOP Group of Pictures
  • the dependent-view video stream encoder 2609 does not refer to the picture of the base-view video stream, but performs the same display in the 2D-compatible video frame memory 2608 when encoding using inter-picture predictive encoding.
  • the dependent-view video stream is compressed and encoded for one encoded number from the Nth frame of the right-eye image using inter-picture predictive encoding while referring to the picture obtained by decoding the 2D compatible video stream indicating the time. Is generated.
  • the multiplexer 2610 converts the 2D compatible video stream, base view video stream, and dependent view video stream into PES packets. Next, the PES packet is divided into TS packets, and a multiplexed transport stream is generated. Thereafter, one encoded number is added to N (step S2707).
  • step S2707 When the process of step S2707 is completed, the process returns to step S2701 and the process is repeated.
  • the number of encoded sheets in one flow can be changed.
  • the value of one encoded sheet in step S2702 may be set to be small. For example, when the number of reordering at the time of video encoding is two, if compression encoding is executed in units of four, it will not be affected by reordering. It is assumed that the number of reordering is a compression encoding method with two pictures and the picture types are I1, P4, B2, B3, P7, B5, and B6 (numbers are in display order). When the number of encoded images is 3, since the picture of P4 cannot be processed, the compression encoding process of B2 and B3 cannot be performed.
  • the number of encoded images is set to 4, the P4 picture can be processed, so that the B2 and B3 compression encoding processes can be performed.
  • the number of encoded sheets may be set to an optimal number according to the characteristics of the image within the maximum number of GOPs for each compression encoding flow.
  • FIG. 28 is a block diagram showing a functional configuration of the playback device 2823.
  • the playback device 2823 includes a PID filter 2801, a 2D compatible video decoder 2821, an extended multi-view video decoder 2822, a first plane 2808, and a second plane 2820.
  • the PID filter 2801 filters the input transport stream.
  • the PID filter 2801 determines the TS packet whose PID value matches the PID value required for reproduction, from the TS packet, to the 2D compatible video decoder 2821 or the extended multi-view video decoder 2822 according to the PID value. Forward.
  • the PID of the 2D compatible video stream is 0x1011
  • the PID of the base-view video stream of the multi-view video stream is 0x1012
  • the PID of the dependent-view video stream of the multi-view video stream is 0x1013
  • the PID value of the TS packet is When the PID value included in the TS packet matches the predetermined PID value, the TS packet is transferred to the corresponding decoder.
  • the first plane 2808 is a plane memory that holds a picture decoded by the 2D compatible video decoder 2821 and output according to the value of the PTS.
  • the second plane 2820 is a plane memory that holds a picture decoded by the extended multi-view video decoder 2822 and output according to the value of the PTS.
  • the 2D compatible video decoder 2821 has basically the same decoding function as the MPEG-2 format decoder which is a compression encoding method of 2D video
  • the extended multi-view video decoder 2822 is a 3D video that realizes inter-view reference.
  • the decoder has basically the same decoding function as the MPEG-4 MVC format decoder, which is a compression encoding method.
  • a general decoder of MPEG-2 format compression encoding system is a video decoder 2901
  • a general decoder of MPEG-4 MVC format compression encoding system is a multi-view video decoder 2902.
  • the video decoder 2901 and the multi-view video decoder 2902 will be described with reference to FIG. Thereafter, different portions between the 2D compatible video decoder 2821 and the video decoder 2901 and different portions between the extended multi-view video decoder 2822 and the multi-view video decoder 2902 will be mainly described.
  • the video decoder 2901 includes TB (Transport Stream Buffer) (1) 2802, MB (Multiplexing Buffer) (1) 2803, EB (Elementary Stream Buffer) (1) 2804, D1 (2D compatible video compression video decoder) 2805. , And O (Re-ordering Buffer) 2806.
  • TB (1) 2802 is a buffer that temporarily accumulates TS packets as they are when TS packets including a video stream are output from the PID filter 2801.
  • MB (1) 2803 is a buffer for temporarily storing PES packets when outputting a video stream from TB (1) 2802 to EB (1) 2804.
  • TB (1) 2802 to MB (1) 2803 When data is transferred from TB (1) 2802 to MB (1) 2803, the TS header and adaptation field of the TS packet are removed.
  • EB (1) 2804 is a buffer for storing pictures (I picture, B picture, P picture) in a compression-encoded state.
  • pictures I picture, B picture, P picture
  • the PES header is removed.
  • D1 (2805) creates a picture of the frame image by decoding each video access unit of the video elementary stream at a predetermined DTS time.
  • the picture decoded in D1 (2805) is output to the plane 2808 or O2806.
  • DTS and PTS are different, such as P picture and I picture, they are output to O2806, and when the values of DTS and PTS are the same as B picture, they are output to plane 2808 as they are.
  • O2806 is a buffer for performing reordering when the values of DTS and PTS of the decoded picture are different, that is, when the decoding order and display order of the pictures are different.
  • D1 (2805) performs decoding processing with reference to the picture data stored in O2806.
  • Switch 2807 switches between outputting an image buffered in O2806 or outputting directly from D1 (2805) when outputting the decoded picture to plane 2808.
  • the multi-view video decoder 2902 includes TB (2) 2809, MB (2) 2810, EB (2) 2811, TB (3) 2812, MB (3) 2813, EB (3) 2814, A decoding switch 2815, an inter-view buffer 2816, a D2 (multiview video compression video decoder) 2817, a DPB (decoded picture buffer) 2818, and an output plane switch 2819 are included.
  • TB (2) 2809, MB (2) 2810, and EB (2) 2811 have the same functions as TB (1) 2802, MB (1) 2803, and EB (1) 2804, respectively, but the data to be buffered Is the base view video stream.
  • TB (3) 2812, MB (3) 2813, and EB (3) 2814 have the same functions as TB (1) 2802, MB (1) 2803, and EB (1) 2804, respectively, but the data to be buffered Is a dependent-view video stream.
  • the switch 2815 extracts the data of the video access unit to which the DTS is assigned according to the value of the DTS from the EB (2) 2811 and the EB (3) 2814, and configures the 3D video access unit. ).
  • D2 (2817) performs a decoding process on the 3D video access unit transferred via the switch 2815, and creates a picture of the frame image.
  • the decoded picture of the base-view video decoded by D2 (2817) is temporarily stored in the Inter-view buffer 2816.
  • D2 (2817) performs a decoding process on the picture of the dependent-view video stream with reference to the decoded picture of the base-view video stream having the same PTS value stored in the Inter-view buffer 2816.
  • the multi-view video decoder 2902 creates a reference picture list for designating a picture for performing inter-view reference based on the picture type and the syntax element of the picture of the base-view video stream and the picture of the dependent-view video stream.
  • D2 transfers the decoded picture of the base view and the decoded picture of the dependent view stored in the inter-view buffer 2816 to the DPB 2818, and outputs it via the output plane switch 2819 according to the value of the PTS.
  • the DPB 2818 is a buffer that temporarily stores decoded pictures.
  • D2 (2817) is used to refer to a picture that has already been decoded when decoding a video access unit such as a P picture or a B picture using the inter picture predictive coding mode.
  • the output plane switch 2819 performs a process of outputting the decoded picture to an appropriate plane. For example, when the base-view video stream indicates the left-eye image and the dependent-view video stream indicates the right-eye image, the base-view video stream picture is set to the left-eye image plane and the dependent-view video The stream picture is output to the right-eye image plane.
  • the 2D compatible video decoder 2821 shown in FIG. 28 not only transfers the picture decoded in D1 (2805) to the O2806 or the switch 2807, but also in the inter-view buffer 2816 of the extended multi-view video decoder 2822 based on the DTS value. Forward.
  • the extended multi-view video decoder 2822 has the same basic structure as that of the multi-view video decoder 2902. Therefore, the description of the common parts of functions will be omitted and the different parts will be described.
  • the extended multi-view video decoder 2822 converts the picture transferred according to the DTS value from the 2D compatible video decoder 2821 to the same value in the PTS and DTS of the base-view video stream that has been decoded previously in the inter-view buffer 2816. Overwrite the area where the decoded picture is stored. Therefore, the extended multi-view decoder 2822 can refer to the decoded picture of the 2D-compatible video stream as if it were the decoded picture of the base-view video stream when decoding the picture of the dependent-view video stream.
  • the address management on the Inter-view buffer 2816 need not be changed from the management of the decoded picture of the conventional base-view video stream.
  • the extended multi-view video decoder 2822 outputs to the second plane 2820 out of the video stored in the DPB 2818, so that only the picture of the dependent-view video stream is output according to the value of the PTS. To control. The pictures of the base view video stream are not output to the plane because they are not related to display.
  • the 2D-compatible video decoder 2821 outputs the picture of the 2D-compatible video stream to the first plane 2808 according to the value of the PTS
  • the extended multi-view video decoder 2822 outputs the dependent view of the multi-view video stream.
  • the picture of the video stream is output to the second plane 2820 according to the value of PTS.
  • FIG. 30 is a diagram illustrating a flow of decoding processing and output processing in 3D video by the playback device 2823.
  • the playback device 2823 determines whether there is a picture in EB (1) 2804 (step S3001). If there is no picture (step S3001: No), it is determined that the transfer of the video stream has ended, and the processing is ended.
  • the playback device 2823 uses the extended multi-view video decoder 2822 to perform base-view video stream decoding processing (step S3002). Specifically, in accordance with the value of DTS, a picture attached to the corresponding DTS is extracted from EB (2), decoded, and stored in Inter-view buffer 2816.
  • the management of pictures in Inter-view buffer 2816 is the same as the management in the conventional MPEG-4 MVC format and will not be described in detail. However, as the management information for creating the reference picture list, the reference destination of PTS and POC and the decoded picture
  • the table information that associates the data address of Inter-view buffer 2816 indicating the internal address is managed internally.
  • the playback device 2823 uses the 2D compatible video decoder 2821 to perform decoding processing of the 2D compatible video stream (step S3003). Specifically, according to the value of DTS, a picture assigned to the corresponding DTS is extracted from EB (1), and decoding processing is performed. At this time, the decoded picture is transferred to O2806 or switch 2807. Further, the decoded picture is also transferred to Inter-view buffer 2816.
  • the extended multi-view video decoder overwrites the transferred picture with the base-view picture to which the same value of DTS and PTS in the Inter-view buffer 2816 is assigned.
  • the picture management of the inter-view buffer 2816 is managed by the memory address of the PTS and the inter-view buffer 2816, for example.
  • the decoded picture is overwritten.
  • management information eg, PTS
  • PTS management information
  • D2 2817
  • D2 can be decoded with reference to the picture obtained by decoding the 2D compatible video stream in the same process as the decoding process of the conventional MPEG-4 MVC dependent view video stream. it can.
  • the extended multi-view video decoder 2822 performs a dependent-view video stream decoding process (step S3004). Specifically, the extended multi-view video decoder 2822 takes out the picture attached to the corresponding DTS from the EB (3) according to the value of the DTS, and stores the picture of the dependent-view video stream in the Inter-view buffer 2816. The decoding process is performed while referring to the picture.
  • the picture referred to at this time is not a picture of the base-view video stream but a picture of the 2D compatible video stream overwritten in step S3003.
  • the playback device 2823 outputs the decoded picture of the 2D-compatible video stream to the first plane 2808 according to the PTS value, and outputs the decoded picture of the dependent-view video stream to the second plane 2820 according to the PTS value (step).
  • D1 decoding process performed by D1 (2805) of the playback apparatus 2823
  • the LSI Large Scale Integration
  • the MPEG-4 MVC format decoding process performed in D2 (2817) is the same as the existing MPEG-4 MVC format process
  • the LSI or software of the existing MPEG-4 MVC format video playback apparatus Can be used.
  • ⁇ Example of usage mode of playback device 2823> Referring to FIG. 5, a 3D digital television 100 that can play back 3D video of a video stream created by the data creation device 2823 and a 2D digital television 300 that can play back only conventional 2D video that does not support playback of 3D video are given as examples. I will explain.
  • the user views 3D video using the 3D digital television 100 and the 3D glasses 200.
  • the 3D digital television 100 can display 2D video and 3D video, and displays video by playing back a stream included in the received broadcast wave. Specifically, a 2D compatible video stream compression-encoded in the MPEG-2 format, a base-view video stream and a dependent-view video stream compression-encoded in accordance with the MPEG-4 MVC format are reproduced.
  • the 3D digital television 100 alternately displays the left-eye image obtained by decoding the 2D-compatible video stream and the right-eye image obtained by decoding the dependent-view video stream.
  • the user can view the image reproduced in this way as a stereoscopic image by wearing the 3D glasses 200 and viewing the image.
  • FIG. 5B shows the time when the left-eye image of the 3D glasses 200 is displayed.
  • the 3D glasses 200 make the liquid crystal shutter corresponding to the left eye transparent and the liquid crystal shutter corresponding to the right eye shielded.
  • (C) in the figure shows when the right eye image is displayed.
  • the liquid crystal shutter corresponding to the right eye is made transparent, and the liquid crystal shutter corresponding to the left eye is shielded from light.
  • the 2D digital television 300 in FIG. 5D corresponds to the playback of 2D video, and 2D video obtained by decoding the 2D compatible video stream among the video streams included in the transport stream created by the data creation device 2601 is displayed. Can be played.
  • the embodiments of the data creation device and the playback device according to the present invention have been described above. However, the illustrated data creation device and the playback device can be modified as follows, and the present invention is described in the above embodiment. Of course, the present invention is not limited to the data creation device and the playback device as shown in FIG.
  • the decoded picture of the 2D compatible video stream having the same PTS value is overwritten on the decoded picture of the base-view video stream of Inter-view buffer 2816 in step S3003.
  • the address reference destination may be changed without performing the overwriting process.
  • the decoded picture of the base view is stored in the DPB 2818.
  • the decoded picture of the base view video stream is not referred to, and may not be stored in the DPB 2818. In this way, it is possible to reduce the amount of memory for storing the pictures of the base-view video stream from the DPB 2818.
  • the base-view video stream is generated by including it in the transport stream, and the decoding process of the pictures of the base-view video stream is performed in the decoding process. Processing may be omitted.
  • the extended multi-view video decoder 2822 analyzes header information (eg, POC acquisition, picture type, ViewID, information acquisition with or without reference, etc.) and Inter-view buffer 2816 without decoding pictures of the base-view video stream. An area where one picture can be stored is secured.
  • the extended multi-view video decoder 2822 stores the decoded picture output from the 2D compatible video decoder having the same value as the PTS and DTS obtained by header information analysis in the reserved area.
  • an extended multi-view video decoder can manage an inter-view buffer 2816.
  • a 2D compatible video stream including the above information may be generated.
  • all or part of the syntax element of the base-view video stream is configured to be stored in the supplementary data of the 2D compatible video stream. That is, information for managing pictures in the Inter-view buffer buffer 2816 (the POC indicating the display order of the MPEG-4 MVC format, the slice_type indicating the picture type, the nal_ref_idc indicating the reference / non-reference of the picture, the base reference picture list) Ref_pic_list_mvc_modification, View ID of base-view video stream, MMCO command) and the like, which are information for creation, are included in the supplementary data of each picture of the 2D compatible video stream.
  • the base-view video stream may not be multiplexed on the transport stream.
  • the picture of the MPEG-4 MVC dependent view video stream directly refers to the picture of the MPEG-2 video stream.
  • the data format is almost the same as the conventional one, so it is compatible with the encoding device and playback device compatible with the conventional MPEG-4 MVC format.
  • the encoding device and the playback device corresponding to the video stream data of the present embodiment can be realized with good performance and a small improvement.
  • the O2806 and DPB2818 memories are handled as separate areas, but the memory space may be shared as shown in FIG.
  • the overwriting process can be omitted.
  • Inter-view buffer 2816 and DPB 2818 are handled as separate buffers, but these may be the same buffer.
  • the decoded picture of the base-view video stream having the same PTS and the same ViewID in DPB2818 may be replaced with the decoded picture of the 2D compatible video stream.
  • the 2D compatible video stream and the base view video stream are P pictures (P3), but the picture of the dependent view video stream is a B picture (B3). ing.
  • the pictures of the 2D compatible video stream, the base view video stream, and the dependent view video stream are all P pictures, and only the I picture and the P picture are included in all the video streams. Therefore, special reproduction processing with the I picture and P picture selected is facilitated.
  • separate PIDs are set as the PID of each video stream in the multiplexing of the transport stream, but the base view video stream and the dependent view video stream are The same PID may be assigned.
  • the access units of the video streams can be merged and transferred in accordance with the specifications of the compression encoding method of the multi-view video stream.
  • the base-view video stream and the dependent video stream are merged according to the specifications of the compression coding system, and the playback device has a configuration as shown in FIG. 45, and the data transfer line of the extended multi-view video decoder is one. What is necessary is just to comprise.
  • the base view video stream and the dependent view video stream may share header (for example, sequence header, picture header) information of each access unit storing pictures at the same time. That is, when header information is provided only in the base-view video stream and the dependent-view video stream is decoded, the header information necessary for decoding is decoded with reference to the header information of the base-view video stream. Also good. Therefore, addition of header information necessary for decoding can be omitted from the dependent-view video stream.
  • header for example, sequence header, picture header
  • the DTS values of the pictures of the 2D compatible video stream and the dependent view video stream at the same display time are equal to each other.
  • the DTS of the picture of the pendant view video stream and the picture of the base view video stream are also set to the same value.
  • the DTS values of pictures in each video stream at the same display time may not be the same.
  • the DTS value of the 2D compatible video stream may be set to a value that is decoded earlier (for example, one frame before) than the base-view / dependent-view video stream.
  • the inter-view buffer overwrite process and the dependent-view video stream picture decoding process can be performed with a margin. it can.
  • the PTS of the picture of the 2D compatible video stream storing the parallax images at the same display time is the same as the PTS of the picture of the dependent view.
  • the decoding process of the 2D compatible video stream is performed in advance. Therefore, the PTS of the pictures of the 2D compatible video stream at the same display time is set to be ahead of the base-view / dependent-view video stream (for example, one frame before).
  • the PTS of the picture of the 2D compatible video stream is set to one frame before the PTS of the picture of the dependent view video stream.
  • the pictures of the base-view video stream of the Inter-view buffer are exchanged, the pictures of the base-view video stream are exchanged with the pictures of the 2D compatible video stream of the PTS having a value indicating the previous frame.
  • the 2D compatible video decoder 2821 outputs the decoded picture of the 2D compatible video stream to the first plane 2808 in accordance with the PTS value in step S3005.
  • the extended multi-view video decoder 2822 may be configured to output both videos using the output plane switch 2819.
  • the multiplexing method is the transport stream, but the present invention is not limited to this.
  • the MP4 system format can be used as a multiplexing method.
  • the input in FIG. 34 is separated into a 2D compatible video stream, a base-view video stream, and a dependent-view video stream as a file multiplexed by MP4 and decoded.
  • the picture of the dependent-view video stream is decoded while referring to the picture in which the picture of the base-view video stream of Inter-view buffer 2816 is overwritten with the picture of the 2D-compatible video stream.
  • time information in each access unit is specified based on the header information (stts, stsz, etc.) of the MP4 system format.
  • the reference picture of the dependent-view video stream is a decoded picture of the 2D compatible video stream, and normal multi-view video Since it is different from the stream structure, the stream type and stream_id given to the PES packet header may be set to be different from the values in the case of the conventional multi-view video stream.
  • the playback device can determine that the playback method is the 3D video playback method according to the present embodiment by referring to the stream type and stream_id, and can change the playback method.
  • step S3003 When the inter-codec reference switch 2824 is ON as shown in FIG. 40, the data transfer described in step S3003 is performed from the 2D compatible video decoder to the inter-view buffer in the extended multi-view video decoder. In this case, data transfer is not performed.
  • the plane selector 2825 includes a first plane 2808 in which picturer is output from the 2D compatible video decoder, a second plane 2820 in which a picture of the base-view video stream of the extended multi-view video decoder is output, and an extended multi-view video decoder dependent. Which plane is output as 2D video, 3D video left-eye image, or 3D video right-eye image to the third plane 2826 in which the view video stream picture is output select.
  • the playback device 2823b changes the playback mode by switching the output from the inter-codec reference switch 2824 and the plane selector 2825 according to the playback method.
  • the playback device 2823b turns off the inter-codec reference switch 2824. Then, the plane selector 2825 selects the first plane 2808 as 2D video.
  • the playback device 2823b turns on the inter-codec reference switch 2824. Then, the plane selector 2825 selects the first plane 2808 or the second plane 2820 as the left-eye image, and selects the third plane 2826 as the right-eye image.
  • the playback device 2823b turns off the inter-codec reference switch 2824. Then, the plane selector 2825 selects the second plane 2820 as the left-eye image and selects the third plane 2826 as the right-eye image.
  • the playback device 2823b turns off the inter-codec reference switch 2824. Then, the plane selector 2825 selects the first plane 2808 as the left-eye image and selects the first plane 2808 as the right-eye image.
  • the playback system when the playback system generates a transport stream that switches from 3D video playback by 2D compatible video stream and dependent-view video stream to 2D video playback of 2D compatible video stream Considering the delay of the decoding process, as shown in FIG. 42, the same video as the 2D compatible video stream may be compressed and encoded into the dependent-view video stream when the playback method changes. Good.
  • a section in which the same video as the 2D compatible stream is compression-coded into a dependent-view video stream is a 2D transition period shown in the upper part of FIG. In this 2D transition section, since playback is performed as 2D video regardless of which method is used, smooth video transition is achieved for the user.
  • the POC value of the picture of the dependent-view video stream indicating the same time display may be set to the value of temporal_reference indicating the display order included in each picture in MPEG-2 format compression encoding.
  • the POC of the dependent-view video stream indicating the same time display may be included in the user data of each picture of the 2D compatible video stream.
  • the value of temporal_reference can also be set to a unique value, so that the degree of freedom of setting in the compression encoding process increases.
  • a high-quality filter 4301 may be applied to the decoding result of the 2D compatible video stream.
  • the high image quality filter 4301 is a filter that reduces block noise like a deblocking filter defined by MPEG-4 AVC.
  • a flag indicating whether to apply the high image quality filter 4301 is prepared. For example, the high image quality filter 430 is applied when the flag indicates ON, and is not applied when the flag is OFF.
  • This flag can be included in the PMT descriptor and supplementary data of the stream.
  • the playback device applies a filter to the inter-view buffer 2816 in the decoding result before transferring the data.
  • This configuration realizes high quality 2D video for 2D compatible video streams.
  • the dependent-view video stream can be decoded while referring to the picture that has been subjected to the high image quality processing, it is possible to improve the quality of the resulting 3D video.
  • the extended multi-view video stream is configured so that a plurality of dependent-view video streams can be processed, and the PTS is the same in the replacement process with the picture of the 2D compatible video stream in the Inter-view buffer 2816.
  • the base view picture having a value may be replaced.
  • the ViewID to be replaced can be specified in the 2D compatible video stream, and instead of always replacing the picture of the base view, it may be selected and replaced from the pictures of the plurality of views.
  • the 2D compatible video stream is described as an MPEG-2 format video stream
  • the multi-view video stream base view video stream and dependent view video stream
  • the type of compression encoding method is not limited to this.
  • the configuration may be changed as appropriate according to the specifications of the compression encoding method.
  • the 2D compatible video stream is MPEG-4 AVC and the multi-view video stream is a new compression encoding method
  • O2806 of the playback device described in FIG. 34 is replaced with DPB, and the picture in the Inter-view buffer 2816 is managed. May be performed in accordance with the configuration of a novel compression encoding method.
  • the left-eye picture and right-eye picture are arranged alternately and alternately in the vertical direction in the screen displayed on the display, and the pixels constituting the left-eye picture are passed through the upper lens called a lenticular lens on the display surface. Only the right eye and the pixels that form the picture for the right eye may be imaged only to the right eye, so that the left and right eyes can see a picture with parallax and can be displayed as a 3D image. Further, instead of the lenticular lens, a device having the same function, for example, a liquid crystal element may be used.
  • a vertically polarized filter is installed on the left-eye pixel on the display side
  • a horizontally polarized filter is installed on the right-eye pixel
  • viewers install a vertically polarized filter on the left eye and a horizontally polarized filter on the right eye. You may use the system called the polarization system using the installed polarized glasses.
  • a depth map in which a depth value is given in pixel units to the 2D video is prepared separately. You may make it produce
  • FIG. 4 schematically shows an example of generating a parallax image of a left-eye image and a right-eye image from a 2D video image and a depth map.
  • the depth map has a depth value corresponding to each pixel in the 2D image.
  • the circular object in the 2D image is information indicating that the circular object is nearby in the depth map (the depth value is High) is assigned, and information indicating that the other area is farther from the circular object (depth value is Low).
  • This information may be represented by a bit string for each pixel, or an image image (for example, “black” indicates that the depth is Low and “white” indicates that the depth is High). Also good.
  • the parallax image can be created by adjusting the parallax amount of the 2D video from the depth value of the depth map. In the example of FIG.
  • the parallax amount of the pixel of the circular object is increased when creating the parallax image.
  • the depth value of the region other than the circular object is Low, the parallax amount of the pixels other than the circular object is reduced, and the left-eye image and the right-eye image are created. If the left-eye image and the right-eye image are displayed using a sequential separation method or the like, stereoscopic viewing is possible.
  • a part or all of the constituent elements constituting each of the above-described devices may be constituted by one system LSI.
  • a system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. It is a computer system comprised including. A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
  • LSI Integrated Circuit
  • IC Integrated Circuit
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used.
  • the data creation device and the playback device may be a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, and the like.
  • a computer program is stored in the RAM or the hard disk unit. Each device achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like. Further, the present invention may be the computer program or the digital signal recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • a data creation device includes a first frame image group that shows a view over time at a first viewpoint, and a second frame image group that shows a view over time at a second viewpoint.
  • a data creation device for compression encoding comprising: a first encoding means for generating a stream in MPEG-2 format by compressing and encoding the first frame image group; a base conforming to the MPEG-4 MVC format; A second encoding unit that generates a view video stream and a dependent-view video stream; and a transmission unit that transmits the streams generated by the first and second encoding units, and the second encoding unit.
  • each frame constituting the second frame image group is compressed and encoded using a frame of the MPEG-2 format stream at the same time as the corresponding frame of the base view video stream as a reference image. Generate stream.
  • the data creation apparatus having this configuration can perform inter-view reference between video streams that have been compression-encoded with different encoding methods.
  • the extended video stream is decoded while referring to the view of the 2D compatible video stream without referring to the picture of the base view stream.
  • Possible video streams can be generated. Therefore, it is possible to generate a video stream with a reduced data amount while maintaining compatibility with the conventional compression encoding method.
  • the second encoding means of the data creation device may generate a stream composed of the pseudo data by compressing and encoding a frame image group composed of the same frame image.
  • the compression encoding of images in the MPEG-2 format and the MPEG-4 MVC format is very high in compression encoding efficiency for images with no difference between the preceding and succeeding images, so that compression encoding with reduced data amount is possible. . Since the data creation apparatus having this configuration uses, as dummy data, data obtained by compressing and encoding an image group that does not change over time, it is possible to generate a video stream that can reduce the data amount of the base-view video stream.
  • the same frame image may be a frame image of a single color image.
  • a monochrome (for example, black with no luminance) image is compression-encoded, a video stream with a reduced data amount can be generated.
  • the second encoding means of the data creation device may generate the base-view video stream at a bit rate lower than the bit rate of the stream obtained by compressing and encoding the first frame image group. Good.
  • the data creation apparatus having this configuration uses a bit rate lower than the bit rate used for compression encoding when generating the dependent-view video stream for compression encoding when generating the base-view video stream, the base-view video stream It is possible to generate a video stream that can reduce the amount of data.
  • the second encoding unit of the data creation device may display a PTS (Presentation Time Stamp) of a picture constituting the frame of the dependent-view video stream at the same time as the corresponding frame of the base-view video stream.
  • the compression encoding may be performed with the same value as the PTS of the picture constituting the frame of the MPEG-2 format stream.
  • the data creation apparatus having this configuration can make the setting values of the PTSs of the compression-encoded pictures of the images corresponding to the first viewpoint frame image and the second viewpoint frame image the same. As a result, it is possible to easily know the correspondence relationship of pictures to be referenced in different compression coding systems, so that a video stream that facilitates inter-view reference between video streams compressed and coded by different compression coding systems is generated. can do.
  • the first encoding unit and the second encoding unit of the data creation device perform compression encoding of the first frame image group and the second frame image group with the same aspect ratio, and generate The attribute information indicating the aspect ratio may be included in each stream.
  • the data creation device having this configuration can make the aspect ratios of video streams generated by different compression encoding methods the same. Accordingly, it is possible to generate a video stream that can simplify the reference image conversion process at the time of decoding processing by inter-view reference between different compression-encoded video streams.
  • the second encoding means of the data creation device may include the MPEG-2 format at the same time as the corresponding frame of the base-view video stream in the DTS of a picture constituting the frame of the dependent-view video stream.
  • the compression coding may be performed with a value indicating a time after N frames (an integer value of N ⁇ 1) from the DTS value of the picture constituting the frame of the stream.
  • the data creation apparatus uses the DTS of the picture obtained by compression-encoding the second frame as the DTS value of each picture when the frame images corresponding to the first viewpoint and the second viewpoint are compression-encoded. It can be set to indicate the time N frames after the DTS of a picture in which one frame is compression-encoded.
  • the reference picture in the first stream data is decoded in advance, so that the writing process to the Inter-view buffer and the decoding process of the picture in the second stream data are performed. Can be performed with a margin.
  • the second encoding unit of the data creation device may determine that the number of frames in the GOP (Group of Pictures) in the base-view video stream and the dependent-view video stream is the same time as the frame.
  • the compression encoding may be performed with the same number as the number of frames in the GOP in the MPEG-2 format stream included.
  • the data creating apparatus having this configuration can match the number of frame images in the GOP of each stream data containing the number of corresponding frame images of the first stream data and the second stream data. Thereby, since the heads of the GOPs of the pictures at the same display time of the first viewpoint and the second viewpoint coincide with each other, it is possible to generate a video stream that can be easily used for special reproduction such as jump reproduction.
  • the second encoding means of the data creation device may, when the picture type of the picture constituting the frame of the MPEG-2 format stream is an I picture, the MPEG-2 format frame
  • the pictures constituting the frame of the base-view video stream at the same time as the constituent pictures may be compression-coded as I pictures.
  • the data creation device having this configuration can set each picture having the same value as the PTS of the picture in the first stream data and the PTS of the picture in the second stream data as an I picture. Therefore, since both the first stream and the second stream can be decoded from the PTS time of the same I picture, it is possible to generate a video stream that can simplify the decoding process during special reproduction such as jump reproduction.
  • a playback device is included in the stream acquired by the data creation device according to the embodiment of the present invention and the stream acquired by the acquisition device.
  • the second frame image group is obtained by decoding the dependent-view video stream included in the stream by using the frame decoded by the first decoding means at the same time as the corresponding frame of the video stream as a reference image.
  • a reproduction means for reproducing an image group is included in the stream acquired by the data creation device according to the embodiment of the present invention and the stream acquired by the acquisition device.
  • the playback device When decoding a dependent-view video stream compressed and encoded in the MPEG-4 MVC format, the playback device having this configuration compresses and encodes the MPEG-2 format instead of the frame image group obtained by decoding the base-view video stream.
  • the decoding process can be performed with reference to the frame image group obtained by decoding the converted first stream data. Accordingly, the dependent-view video stream can be decoded while referring to the image group obtained by decoding different compression-encoded video stream data, so that the video stream is maintained while maintaining data compatibility with the conventional compression encoding method. As a whole, it is possible to reproduce a video stream with a reduced amount of data.
  • the second decoding unit of the playback device may include a PTS picture having the same value as a PTS of a picture constituting a frame of the second frame image group among the frames decoded by the first decoding unit.
  • the decoding process may be performed using a frame constituted by the reference image as a reference image.
  • the playback device configured as described above is a picture in the video stream of the first viewpoint that is compression-encoded in the MPEG-2 format, and is a decoding target of the dependent-view video stream A frame image obtained by decoding a picture having the same value as the PTS of the picture is set as a reference image. Therefore, it is possible to reproduce the frame image of the second viewpoint with reference to the first frame image displayed at the same time. ⁇ 3.
  • data amount compression encoding is performed using redundancy in the spatial direction and temporal direction of moving images.
  • Inter-picture prediction coding is used as a compression coding method using redundancy.
  • inter-picture predictive coding when a certain picture is coded, a picture that is forward or backward in display time order is used as a reference picture. Then, the amount of motion from the reference picture is detected, and the difference between the picture subjected to motion compensation and the picture to be coded is compression-coded.
  • FIG. 1 shows a reference relationship between pictures in a video stream.
  • picture P3 is compression-encoded with reference to picture I0
  • picture B1 and picture B2 are compression-encoded with reference to picture I0 and picture P3, respectively.
  • a right-eye image (R image) and a left-eye image (L image) are prepared, and only the image corresponding to each eye for the user is displayed for each eye.
  • the stereoscopic display is realized by performing display controlled so as to be reflected on the screen.
  • a moving image composed of right-eye images is called a left-view video
  • a moving image composed of left-eye images is called a right-view video.
  • FIG. 13 is a diagram showing an example of a stereoscopic image display.
  • the example which displayed the image for left eyes of the skeleton of the dinosaur which is a target object, and the image for right eyes of the skeleton of the dinosaur which is a target object is shown. If 3D glasses are used to repeat the light and left eye light transmission and shading, the left and right scenes are overlapped by the afterimage reaction of the eyes in the user's brain, and a stereoscopic image exists on the extension line in the center of the face Then you can recognize.
  • 3D video systems that compress and encode left-view video and right-view video include a frame compatible system and a multi-view encoding system.
  • the frame compatible method is a method of performing compression coding by synthesizing each picture corresponding to an image showing a view at the same time of the left view video and the right view video and then synthesizing them into one picture.
  • each picture corresponding to an image showing a view at the same time of the left-view video and the right-view video is compressed in half in the horizontal direction and then arranged in the left and right to form one picture.
  • a video stream is generated by compressing and encoding a moving image based on a synthesized picture by a 2D video compression encoding method (for example, MPEG-2).
  • the video stream is decoded based on the same compression encoding method as that for generating the video stream.
  • Each decoded picture is divided into left and right images, and each of the divided images is expanded in the horizontal direction twice to obtain corresponding pictures of the left view video and the right view video.
  • L image left-view video picture
  • R image right-view video picture
  • the multi-view encoding method is a method for compressing and encoding the left-view video and the right-view video picture as separate pictures without combining them into one picture.
  • the multi-view encoding method is a method for compressing and encoding the left-view video and the right-view video picture as separate pictures without combining them into one picture.
  • FIG. 2 is a diagram showing an encoding method in the MPEG-4 MVC format, which is a multi-view encoding method.
  • the MPEG-4 MVC format video stream is processed simultaneously with the base-view video stream and the base-view video stream that can be played back by a playback device that plays back the conventional MPEG-4 AVC-format video stream.
  • This is a configuration including a dependent-view video stream that realizes playback.
  • the base-view video stream is compression-encoded using inter-picture predictive coding using only the redundancy with the video of the same viewpoint without referring to the video of another viewpoint. Is done.
  • the dependent-view video stream is compression-encoded by inter-picture predictive encoding using redundancy with video from another viewpoint in addition to inter-picture predictive encoding using reference of the same viewpoint video. .
  • the picture of the dependent-view video stream is compression-coded with reference to a picture showing a view at the same time in the base-view video stream.
  • the picture P0 that is the first P picture of the dependent-view video stream refers to the picture I0 that is the I-picture of the base-view video stream.
  • a picture B1 that is a B picture of the dependent-view video stream refers to a picture Br1 that is a Br picture of the base-view video stream.
  • a picture P3 that is a second P picture of the dependent-view video stream indicates that a picture P3 that is a P-picture of the base-view video stream is referred to.
  • the base-view video stream does not refer to the picture of the dependent-view video stream, it can be decoded and reproduced only by this video stream.
  • the dependent-view video stream since the dependent-view video stream is decoded with reference to the base-view video stream, it cannot be played back alone.
  • the dependent-view video stream performs inter-picture predictive coding using a base-view picture of another viewpoint indicating a view at the same time.
  • the right-eye image and the left-eye image at the same time are similar (highly correlated), and the difference is compressed and encoded, so the dependent-view video stream has more data than the base-view video stream. Can be greatly reduced.
  • MPEG-2 transport stream is a standard for multiplexing and transmitting various streams such as video and audio. It is standardized in ISO / IEC13818-1 and ITU-T recommendation H222.0.
  • FIG. 6 is a diagram showing the structure of a digital stream in the MPEG-2 transport stream format.
  • the transport stream 513 is obtained by multiplexing a video TS (Tranport Stream) packet 503, an audio TS packet 506, a subtitle stream TS packet 509, and the like.
  • the video TS packet 503 includes the main video of the program
  • the audio TS packet 506 includes the main audio portion and sub audio of the program
  • the TS packet 509 of the subtitle stream includes subtitle information of the program.
  • the video frame sequence 501 is compression encoded using a video encoding method such as MPEG-2, MPEG-4 AVC.
  • the audio frame sequence 504 is compression-encoded by an audio encoding method such as Dolby AC-3, MPEG-2 AAC, MPEG-4 AAC, HE-AAC.
  • Each stream included in the transport stream is identified by a stream identification ID called PID.
  • PID stream identification ID
  • the playback apparatus can extract the stream to be processed.
  • Information on the correspondence between PID and stream is stored in a descriptor of a PMT packet described below.
  • a video stream 501 composed of a plurality of video frames and an audio stream 504 composed of a plurality of audio frames are converted into PES packet sequences 502 and 505, respectively.
  • the PES packet sequences 502 and 505 are converted into TS packets 503 and 506, respectively.
  • the data of the subtitle stream 507 is converted into a PES packet sequence 508 and further converted into a TS packet 509.
  • the MPEG-2 transport stream 513 is configured by multiplexing these TS packets into one stream. The PES packet and TS packet will be described later.
  • the video stream is data having a hierarchical structure as shown in FIG.
  • a video stream is composed of a plurality of GOPs, and by using this as a basic unit of compression encoding processing, editing of a moving image and random access are possible.
  • GOP is composed of one or more video access units.
  • the video access unit is a unit for storing compression-encoded data of a picture, and stores data of one frame in the case of a frame structure and one field in the case of a field structure.
  • Each video access unit includes an AU identification code, a sequence header, a picture header, supplementary data, compressed picture data, padding data, a sequence end code, and a stream end code.
  • Each of these data is stored in units called NAL units in the case of MPEG-4 AVC.
  • AU identification code is a start code indicating the head of the access unit.
  • the sequence header is a header storing common information in a playback sequence composed of a plurality of video access units, and stores information such as resolution, frame rate, aspect ratio, and bit rate.
  • the picture header is a header that stores information such as the encoding method of the entire picture.
  • Supplementary data is additional information that is not essential for decoding compressed picture data, and stores, for example, closed caption character information or GOP structure information that is displayed on the TV in synchronization with video.
  • Compressed picture data stores compressed and encoded picture data.
  • -Padding data stores data for formatting. For example, it is used as stuffing data for maintaining a predetermined bit rate.
  • the sequence end code is data indicating the end of the playback sequence.
  • the stream end code is data indicating the end of the bit stream.
  • the data structure of the AU identification code, sequence header, picture header, supplemental data, compressed picture data, padding data, sequence end code, and stream end code differs depending on the video encoding method.
  • the AU identification code is the AU delimiter (Access Unit Delimiter)
  • the sequence header is SPS (Sequence Parameter Set)
  • the picture header is PPS (Picture Parameter Set)
  • the compressed picture data is multiple slices Supplementary data corresponds to SEI (Supplemental Enhancement Information), padding data corresponds to FillerData, sequence end code corresponds to End of Sequence, and stream end code corresponds to End of Stream.
  • SEI Supplementary Enhancement Information
  • padding data corresponds to FillerData
  • sequence end code corresponds to End of Sequence
  • stream end code corresponds to End of Stream.
  • the sequence header is sequence_Header, sequence_extension, group_of_picture_header, the picture header is picture_header, picture_coding_extension, the compressed code data is a sequence_decode, and the supplement_data is a sequence_decode. To do. There is no AU identification code, but if the start code of each header is used, the break of the access unit can be determined.
  • each attribute information is not always necessary.
  • the sequence header is necessary only in the video access unit at the head of the GOP, and can be encoded without being added to other video access units.
  • the picture header can be referred to that of the previous video access unit in the code order, and the picture header can be omitted in its own video access unit.
  • I picture data is stored as compressed picture data, and an AU identification code, a sequence header, a picture header, and compressed picture data are always stored. Supplementary data, padding data, sequence end code, and stream end code are stored as needed.
  • AU identification codes and compressed picture data are always stored in video access units other than the GOP head, and supplementary data, padding data, sequence end codes, and stream end codes are appropriately stored as necessary.
  • FIG. 10 is a diagram showing how a video stream is stored in a PES packet sequence.
  • the 10 shows the video frame sequence of the video stream.
  • the second level shows a PES packet sequence.
  • a plurality of Video Presentation Units in the video stream are divided into each picture, and stored in the payload of the PES packet. .
  • Each PES packet has a PES header, and a PTS that is a picture display time and a DTS that is a picture decoding time are stored in the PES header.
  • FIG. 11 is a diagram showing the data structure of TS packets constituting the transport stream.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header, an adaptation field, and a TS payload.
  • the TS header is configured to include transport_priority, PID, adaptation_field_control.
  • the PID is an ID for identifying a stream multiplexed in the transport stream as described above.
  • Transport_priority is information for identifying the type of packet in TS packets having the same PID.
  • Adaptation_field_control is information for controlling the configuration of the adaptation field and the TS payload. There are cases where only one of the adaptation field and the TS payload exists or both, and adaptation_field_control is information indicating the presence / absence thereof.
  • adaptation_field_control value When the adaptation_field_control value is “1”, only the TS payload is present. When the adaptation_field_control value is “2”, only the adaptation field is present. When the adaptation_field_control value is “3”, the payload is “3”. Indicates that both adaptation fields are present.
  • the adaptation field is a storage area for storing information such as PCR (Program Clock Reference) and stuffing data for making the TS packet a fixed length of 188 bytes.
  • PCR Program Clock Reference
  • stuffing data for making the TS packet a fixed length of 188 bytes.
  • a PES packet is divided and stored in the TS payload.
  • TS packets included in the transport stream include packets such as PAT (Program Association Table), PMT, and PCR in addition to packets of each stream such as video, audio, and caption. These packets are called PSI (Program Specific Information).
  • PAT indicates what the PID of the PMT used in the transport stream is, and the PID of the PAT itself is “0”.
  • FIG. 12 is a diagram showing the data structure of the PMT.
  • the PMT includes a PMT header, various descriptors related to the transport stream, and stream information related to each stream such as video / audio / subtitles included in the transport stream.
  • copy control information for instructing permission / non-permission of copying of each stream such as video / audio is recorded.
  • the stream information regarding each stream includes a stream descriptor in which a stream type, a stream PID, and stream attribute information (for example, a frame rate and an aspect ratio) are described in order to identify the compression encoding method of the stream.
  • a stream descriptor in which a stream type, a stream PID, and stream attribute information (for example, a frame rate and an aspect ratio) are described in order to identify the compression encoding method of the stream.
  • the PCR In order to synchronize the arrival time of the TS packet at the decoder and the STC (System Time Clock) which is the time axis of the PTS and DTS, the PCR has an STC time corresponding to the time when the PCR packet is transferred to the decoder. Have information.
  • STC System Time Clock
  • an area to be actually displayed can be designated as a cropping area from among the compression-coded frame areas.
  • the frame_cropping information includes differences between the upper line, the lower line, the left line, and the right line of the cropping area and the upper line, the underline, the left line, and the right line of the compression-coded frame area. Is specified as the crop amount of the top, bottom, left and right.
  • frame_cropping_flag is set to “1”
  • frame_crop_top_offset, frame_crop_left_offset, frame_crop_right, and lower_crop_crop_right crop_crop
  • the vertical and horizontal sizes of the cropping area (display_horizontal_size of sequence_display_extension, display_vertical_size), and the difference between the center of the compression-coded frame area and the center of the cropping area
  • the cropping area is specified using information (frame_center_horizontal_offset, frame_center_vertical_offset of picture_display_extension).
  • an aspect ratio is set as scaling information indicating a scaling method when the cropping area is actually displayed on a television or the like.
  • the playback device uses the aspect ratio information to up-convert the cropping area for display.
  • aspect ratio information (aspect_ratio_idc) is stored in the SPS as the scaling information.
  • the aspect ratio is specified as 4: 3.
  • sequence_header there is attribute information for storing aspect ratio information (aspect_ratio_information) called sequence_header, and the same processing as described above can be realized by appropriately setting the value of this attribute information.
  • FIG. 15 is a diagram showing an example of the internal configuration of a video stream in the MPEG-4 MVC format.
  • the picture of the right-view video stream is compression-coded with reference to the picture at the same display time of the left-view video stream.
  • the pictures P1 and P2 of the right-view video stream refer to the pictures I1 and P2 of the left-view video stream, respectively.
  • the pictures B3, B4, B6, and B7 of the right-view video stream are respectively pictures Br3 and Br4 of the left-view video stream. , Br6, Br7 with reference to compression coding.
  • the second tier in the figure shows the internal structure of the left view video stream.
  • This left-view video stream includes pictures I1, P2, Br3, Br4, P5, Br6, Br7, and P9. These pictures are decoded in the order of time set in the DTS.
  • the first row shows the left eye image displayed on the display or the like.
  • the left-eye image is the second-order decoded picture I1, P2, Br3, Br4, P5, Br6, Br7, P9 in the order of time set in the PTS, that is, I1, Br3, Br4, P2, Br6, Displayed in the order of Br7 and P5.
  • the fourth level shows the internal structure of the right-view video stream.
  • This right-view video stream includes pictures P1, P2, B3, B4, P5, B6, B7, and P8. These pictures are decoded in the order of time set in the DTS.
  • the third row shows a right eye image displayed on a display or the like.
  • the right-eye image has the decoded pictures P1, P2, B3, B4, P5, B6, B7, and P8 in the fourth stage in the order set in the PTS, that is, P1, B3, B4, P2, B6, Displayed in the order of B7 and P5.
  • display of either the left-eye image or the right-eye image in which the same value is assigned to the PTS is delayed by half the interval until the next PTS time.
  • the fifth row shows how the state of the 3D glasses 200 is changed. As shown in the fifth row, the right-eye shutter is closed when viewing the left-eye image, and the left-eye shutter is closed when viewing the right-eye image.
  • FIG. 17 shows the configuration of the video access unit for each picture of the base-view video stream and each picture of the dependent-view video stream. As described above, as shown in the upper part of FIG. 17, in the base-view video stream, each picture is configured as one video access unit.
  • the dependent-view video stream also has one video access unit in the same manner, but the data structure is different from the video access unit of the base-view video stream.
  • the 3D video access unit 1701 is composed of the video access unit of the base-view video stream and the video access unit of the dependent-view video stream having the same PTS value.
  • the playback device performs decoding in units of this 3D video access unit.
  • FIG. 18 shows an example of the relationship between the PTS and the DTS assigned to each video access unit of the base-view video stream and the dependent-view video stream in the video stream.
  • the base-view video stream picture and the dependent-view video stream picture storing the parallax images indicating the same time view are set so that the DTS and the PTS have the same value.
  • the playback device that decodes the pictures of the base-view video stream and the dependent-view video stream can perform decoding and display in units of 3D video access units.
  • FIG. 19 shows the GOP configuration of the base view video stream and the dependent view video stream.
  • the GOP structure of the base view video stream is the same as that of the conventional video stream, and is composed of a plurality of video access units.
  • the dependent view video stream is composed of a plurality of dependent GOPs.
  • the leading picture of the dependent GOP is a picture displayed as a pair with the I picture at the GOP head of the base-view video stream when playing back 3D video, and has the same value as the PTS of the I picture at the GOP head of the base-view video stream This picture is assigned a PTS.
  • FIG. 20 shows the data structure of the video access unit included in the dependent GOP.
  • the dependent GOP head video access unit stores, as compressed picture data, picture data displayed at the same time as the GOP head I picture of the base-view video stream.
  • the sequence header, picture header, and compressed picture data are always stored. Supplementary data, padding data, sequence end code, and stream end code are stored as appropriate.
  • the sub AU identification code is a start code indicating the head of the access unit.
  • the sub-sequence header is a header that stores common information in a playback sequence composed of a plurality of video access units, and stores information such as resolution, frame rate, aspect ratio, and bit rate.
  • the frame rate, resolution, and aspect ratio values of the sub-sequence header are the same as the frame rate, resolution, and aspect ratio of the sequence header included in the video access unit at the GOP head of the corresponding base-view video stream.
  • a video access unit other than the head of the GOP always stores a sub AU identification code and compressed picture data. Supplementary data, padding data, sequence end code, and stream end code are stored as appropriate.
  • the video stream data creation device or playback device creates a stream corresponding to 3D video with a reduced amount of data while maintaining playback on an existing playback device that supports MPEG-2 format video streams. Or, since it can be played back, it is useful for an apparatus for generating and playing back 3D video.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置は、MPEG-2形式のストリームと、MPEG-4 MVC形式に準拠したベースビュービデオストリーム及びディペンデントビュービデオストリームと、を生成する。前記MPEG-2形式のストリームは、前記第1フレーム画像群を圧縮符号化したストリームである。また、前記ベースビュービデオストリームは、前記MPEG-2形式のストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームであり、前記ディペンデントビュービデオストリームは、前記ベースビュービデオストリームの対応するフレームと同時刻のMPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を圧縮符号化したストリームである。

Description

ビデオストリームの映像のデータ作成装置及び再生装置
 本発明は映像を記録又は伝送するための符号化、及び復号して再生する技術に関し、特に3D映像データのデータ作成装置及びその再生装置に関する。
 3D映像を圧縮符号化する方式として、MPEG-4 MVC(Multiview Video Coding)と呼ばれるMPEG-4 AVC/H.264の修正規格(非特許文献1)がある。このMPEG-4 MVC形式の圧縮符号化方式を利用すれば、圧縮率の高い圧縮符号化を実現した3D映像のビデオストリームを生成することができる。
 日本や米国のデジタルテレビ放送では現在、MPEG-2のビデオストリームを用いているので、既存の再生装置での2D映像の再生を維持しながら3D映像のデジタルテレビ放送を提供するためには、一案としてMPEG-2形式のビデオストリームとは別にMPEG-4 MVC形式のビデオストリームを同時に配信することが考えられる。
「MPEG-4 Part 10 Advanced Video Coding」、ISO/IEC、14496-10、2003
しかしながら、MPEG-2ビデオのビデオストリームとMPEG-4 MVC形式のビデオストリームとを配信しようとすると、データ量が増加するので、ビデオストリーム全体が占める帯域が増加する。放送波の使用できる帯域には制約があり、その帯域に収めるためには、ビデオストリーム全体のデータ量を削減することが求められる。
 そこで本発明では、係る問題に鑑みてなされたものであり、MPEG-2形式のビデオストリームに対応した既存の再生装置での再生を維持しながら、3D映像に対応したビデオストリームを、データ量を削減して生成するデータ作成装置、及びこのようなビデオストリームの再生装置を提供することを目的とする。
 上記課題を解決するために本発明に係るデータ作成装置は、第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置であって、前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化手段と、MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化手段と、前記第1、第2符号化手段により生成されたストリームを送出する送出手段とを備え、前記第2符号化手段は、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成することを特徴とする。
 また、本発明に係る再生装置は、前記データ作成装置で送出されたストリームを取得する取得手段と、前記取得手段により取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより前記第1フレーム画像群を得る第1復号手段と、前記取得手段により取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号手段により復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号手段と、前記第1、第2復号手段により得られた前記第1、第2フレーム画像群を再生する再生手段とを備えることを特徴とする。
 上述の構成により、本発明に係るデータ作成装置は、MPEG-2形式のビデオストリームに対応した既存の再生装置での再生を維持しながら、3D映像に対応したビデオストリームを、データ量を削減して生成することができる。
 また、本発明に係る再生装置は、上記の3D映像に対応したビデオストリームを再生することができる。
ビデオストリームのピクチャの参照関係を示す図。 MPEG-4 MVC形式による圧縮符号化方式を示す図。 ベースビューの圧縮符号化方式と、ディペンデントビューの圧縮符号化方式が異なる場合のピクチャ参照を示す図。 2D映像とデプスマップから左目用画像と右目用画像の視差画像を生成する場合の概念図。 再生装置の使用態様を示す図。 トランスポートストリーム形式のデジタルストリームの概念構成図。 ビデオストリームの構造の概念図。 クロッピング領域情報とスケーリング情報の概念図。 クロッピング領域情報とスケーリング情報の具体的な指定方法を示す図。 PESパケットの概念構成図。 トランスポートストリームを構成するTSパケットのデータ構造を示す図。 PMTのデータ構造を示す図。 立体視画像の表示の一例を示す図。 Side-by-Side方式の概念図。 MPEG-4 MVC形式のビュービデオストリームの内部構成の一例を示す図。 ビデオストリームのアクセスユニットの内部構成の概念図。 ベースビュービデオストリームの各ピクチャと右目用画像ビデオストリームの各ピクチャのビデオアクセスユニットの構成を示す図。 ベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTSとDTSの関係を示す図。 ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示す図。 ディペンデントGOPに含まれるビデオアクセスユニットの構成を示す図。 トランスポートストリームのデータ構造を示す図。 本実施の形態において、2D互換ビデオストリームをMPEG-2ビデオ、マルチビュービデオストリームをMPEG-4 MVC形式の圧縮符号化方式としたときに、一致させるビデオ属性とそのビデオ属性を示すための各フィールド名を示す図。 トランスポートストリーム中における2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTS、DTS及びピクチャタイプの関係の例を示す図。 2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームにおいて、特殊再生を容易にするための好適なピクチャタイプの関係を示す図。 2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示す図。 本実施の形態に係るデータ作成装置を示す図。 本実施の形態に係るデータ作成装置のデータ作成フローを示す図。 本実施の形態に係る3D映像を再生する再生装置の構成を示す図。 ビデオデコーダとマルチビュービデオデコーダの機能構成を示すブロック図。 本実施の形態に係る再生装置の3D映像におけるデコード処理と出力処理のフローチャート。 本実施の形態に係る3D映像の再生装置におけるInter-view bufferの管理を示す図。 本実施の形態に係る3D映像の再生装置におけるInter-view bufferの管理の変形例を示す図。 本実施の形態に係る3D映像の再生装置におけるバッファの共用を示す図。 本実施の形態に係る3D映像の再生装置における映像出力処理の変形例を示す図。 本実施の形態に係る3D映像のトランスポートストリームにおけるPTSとDTSの付与方法の変形例を示す図。 トランスポートストリームの構成とPMTパケットの関係を示す図。 3D情報ディスクリプタの構造を示す図。 3D情報ディスクリプタの再生方式を示す図。 3Dストリームディスクリプタの構造を示す図。 本実施の形態に係る3D映像の再生装置において再生方式に従ったスイッチ方法を示す図。 再生方式とコーデック間参照スイッチとプレーンセレクタの関係を示す図。 再生方式の切り替わりをスムーズに遷移するための2D移行区間を示す図。 2D互換ビデオストリームのデコード結果に対する高画質フィルタを適用する場合の符号装置の機能構成を示すブロック図。 2D互換ビデオストリームのデコード結果に対する高画質フィルタを適用する場合の再生装置の機能構成を示すブロック図。 ベースビュービデオとディペンデントビュービデオが同一ストリームで転送される場合の本実施の形態に係る3D映像の再生装置の機能構成を示すブロック図。
<1.実施の形態1>
 <1-1.概要>
 本発明の一実施の形態に係る放送システムは、2D映像として、既存技術であるMPEG-2形式のストリームを生成し、3D映像として、MPEG-4 MVC形式を拡張した新規形式(本明細書において、この形式をMPEG-4 MVCに準拠という。)のベースビュービデオストリームとディペンデントビュービデオストリームとを生成し、送出する。
 受信側では、再生装置の中の、2D再生部分がMPEG-2形式のストリームを既存の復号方式で復号して再生し、3D再生部分が、MPEG-4 MVCに準拠したベースビュービデオストリームとディペンデントビュービデオストリームを、新規符号化に対応した復号形式で復号して再生する。
図21は、本実施の形態における放送システムによって作成されたトランスポートストリームのデータ構造を示している。同図に示されるように、トランスポートストリームは、2D互換ビデオストリームAとマルチビュービデオストリームBとからなる。後者のマルチビュービデオストリームBは、ベースビュービデオストリームB1と、ディペンデントビュービデオストリームB2とからなる。
前記2D互換ビデオストリームAは、左目用画像を圧縮符号化して作成され、ベースビュービデオストリームB1は、黒などの単色映像(以下、「黒画像」という。)を圧縮符号化して作成される。
更に、ディペンデントビュービデオストリームB2は、左目用画像と右目用画像の差分を圧縮符号化して生成される。先に述べたようにベースビュービデオストリームB1は、黒画像を圧縮符号化したものであるので、ディペンデントビュービデオストリームB2を生成する際の参照画像として用いることができない。この点が、既存のMPEG-4 MVC形式と異なっているところであり、参照画像は、2D互換ビデオストリームAの同時刻のフレーム画像に設定されている。
 このようなMPEG-4 MVCに準拠した形式のストリームとすると、2D映像と3D映像の両方を送信できると共に、ベースビュービデオストリームB1が、黒画像を圧縮符号化するので、ビットレートを極端に低くすることができ、結果として既存の割り当てられた周波数帯域の範囲において、2D映像と3D映像の双方を送出できるのである。
MPEG-4 MVC形式で圧縮符号化されたストリームの復号処理では、ベースビュービデオストリームのフレーム画像を参照してディペンデントビュービデオストリームを復号するが、本実施の形態では、MPEG-2互換ストリーム、すなわち、左目用画像のフレーム画像を参照画像として、ディペンデントビュービデオストリームを復号できるようにしている。
MPEG-4 MVCに準拠した形式では、具体的には、復号の際の参照先を、ベースビュービデオストリームから、MPEG-2互換ビデオストリームに変更することを再生側に指示するディスクリプタ等を規定している。
以下、本発明の実施の形態に係るデータ作成装置及び再生装置について図面を参照しながら説明する。
<1-2.データ作成装置>
 <1-2-1.構成>
 以下、本発明に係るデータ作成装置の一実施形態について図を参照しながら説明する。
 図26は本実施の形態に係るデータ作成装置2601の機能構成のブロック図である。
 データ作成装置2601は、3D映像を構成する左目用画像と右目用画像、及び黒画像を入力として、後述するデータフォーマットの2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームからなるトランスポートストリームを出力する。
 データ作成装置2601は、2D互換ビデオエンコーダ2602、Dec(2D互換ビデオデコーダ)2603、拡張マルチビュービデオエンコーダ2604、及びマルチプレクサ2610を備える。
 拡張マルチビュービデオエンコーダ2604は、ベースビュービデオエンコーダ2605、2D互換ビデオフレームメモリ2608、及びディペンデントビュービデオエンコーダ2609を備える。
 2D互換ビデオエンコーダ2602は、左目用画像を入力として、MPEG-2形式で圧縮符号化し、2D互換ビデオストリームを生成して出力する。
 Dec2603は、2D互換ビデオストリーム内の圧縮符号化されたピクチャを復号し、その結果得られる復号ピクチャと、2D互換ビデオ符号化情報2606とを出力する。ここで、ピクチャとは、フレーム又はフィールドを構成する画像であり1つの符号化の単位である。
復号ピクチャは、拡張マルチビュービデオエンコーダ2604の2D互換ビデオフレームメモリ2608に格納される。また、2D互換ビデオ符号化情報2606は、ベースビュービデオエンコーダ2605に入力される。
 2D互換ビデオ符号化情報2606は、復号した2D互換ビデオストリームの、属性情報(解像度、アスペクト比、フレームレート、プログレッシブかインターレースかの区別など)、該当ピクチャのピクチャ属性情報(ピクチャタイプなど)、GOP(Group of Pictures)構造、及び、2D互換ビデオフレームメモリ管理情報の情報を含む構成である。
 2D互換ビデオフレームメモリ管理情報は、2D互換ビデオフレームメモリ2608に格納される復号ピクチャのメモリアドレスと該当ピクチャの表示順情報(PTS(Presentation Time Stamp)やtemporal_reference)と符号順情報(ファイルの符号順やDTS(Decoding Time Stamp))とを関連付した情報である。
 拡張マルチビュービデオエンコーダ2604は、Dec2603から出力される復号ピクチャと、2D互換ビデオ符号化情報と、右目用画像と、黒画像とを入力として、圧縮符号化を行い、ベースビュービデオストリーム、ディペンデントビュービデオストリームを出力する。
 ベースビュービデオエンコーダ2605は、MPEG-4 MVC形式に準拠して圧縮符号化したデータをベースビュービデオストリームとして出力する機能を有し、2D互換ビデオ符号化情報2606に従って、黒画像を圧縮符号化して、ベースビュービデオストリームとベースビュービデオ符号化情報2607とを出力する。
 ベースビュービデオ符号化情報2607は、ベースビュービデオストリームの属性情報(解像度、アスペクト比、フレームレート、プログレッシブかインターレースの区別など)、該当ピクチャのピクチャ属性情報(ピクチャタイプなど)、GOP構造、及びベースビュービデオフレームメモリ管理情報を含む構成である。
 ベースビュービデオエンコーダ2605は、ベースビュービデオ符号化情報2607を出力の際に、ベースビュービデオストリームの属性情報を2D互換ビデオ符号化情報2606に含まれるビデオの属性情報と同じ値にする。さらに、ベースビュービデオエンコーダ2605は、2D互換ビデオ符号化情報2606に含まれるピクチャの属性情報(ピクチャタイプなど)やGOP構造に従って、同一表示時刻のピクチャの圧縮符号化の際のピクチャタイプを決定して、黒画像を圧縮符号化する。例えば、時刻aのピクチャの2D互換ビデオ符号化情報2606で示されるピクチャタイプがIピクチャで、当該ピクチャがGOP先頭のピクチャであれば、ベースビュービデオエンコーダ2605は、同一表示時刻を示す黒画像をIピクチャになるように圧縮符号化し、ベースビュービデオストリームのGOP先頭のビデオアクセスユニットとする。
 また、時刻bのピクチャの2D互換ビデオ符号化情報2606で示されるピクチャタイプがBピクチャの場合は、ベースビュービデオエンコーダ2605は、同一表示時刻を示す黒画像をBピクチャになるように圧縮符号化する。このとき、ベースビュービデオストリームのDTSやPTSを、2D互換ビデオストリームの同時刻を示すビューに対応するピクチャのDTSやPTSにそれぞれ一致させる。
 ベースビュービデオフレームメモリ管理情報は、2D互換ビデオフレームメモリ管理情報を元に、2D互換ビデオストリームを復号して得られた復号ピクチャを格納しているフレームメモリ2608のメモリアドレスと、当該復号ピクチャの表示順情報と符号順情報とを示すsyntax要素をベースビュービデオストリームの圧縮符号化方式の規則に則ったsyntax要素に変換して関連付けした情報である。syntax要素とは、MPEG-2やMPEG-4 MVC形式の圧縮符号化方式における符号化に必要な属性情報を規定した要素で、例えば、マクロブロックタイプ等のヘッダ情報、動きベクトル、変換係数などを示す要素である。
 ディペンデントビュービデオエンコーダ2609は、MPEG-4 MVC形式に準拠して圧縮符号化し、ディペンデントビュービデオストリームを生成する機能を有し、ベースビュービデオ符号化情報2607に含まれる情報を元に、右目用画像を圧縮符号化し、ディペンデントビュービデオストリームを出力する。このとき、ディペンデントビュービデオエンコーダ2609は、ビュー間参照として、2D互換ビデオフレームメモリ内の復号ピクチャを用いて、圧縮符号化を行う。ここで、ビュー間参照とは、異なる視点からのビューを示すピクチャを参照することをいう。
ディペンデントビュービデオエンコーダ2609は、ビュー間参照を実行するための参照ピクチャIDを、ベースビュービデオ符号化情報2607のベースビュービデオフレームメモリ管理情報に基づいて決定する。さらに、ディペンデントビュービデオエンコーダ2609は、ディペンデントビュービデオストリームのビデオの属性情報をベースビュービデオ符号化情報2607に含まれるベースビュービデオストリームの属性情報の値と同じ値を設定する。
 さらに、ディペンデントビュービデオエンコーダ2609は、ベースビュービデオ符号化情報2607に格納されているピクチャの属性情報(例えば、ピクチャタイプ)とGOP構造とに基づいて、符号化対象の画像のピクチャタイプを決定して、右目用画像を圧縮符号化する。例えば、時刻aのピクチャのベースビュービデオ符号化情報2607で示されるピクチャタイプがIピクチャで、GOP先頭であれば、ディペンデントビュービデオエンコーダ2609は、同じ時刻aのピクチャのピクチャタイプをアンカーピクチャにして、右目用画像を圧縮符号化し、ディペンデントGOP先頭のビデオアクセスユニットとする。アンカーピクチャとは、自ピクチャよりも時間的に前のピクチャを参照しないピクチャであり、自ピクチャから飛び込み再生することが可能なピクチャのことである。また、時刻bのピクチャのベースビュービデオ符号化情報2607で示されるピクチャタイプがBピクチャであれば、ディペンデントビュービデオエンコーダ2609は、同じ時刻bのピクチャのピクチャタイプをBピクチャにして、右目用画像を圧縮符号化する。
 このとき、ディペンデントビュービデオストリームのDTSやPTSを、ベースビュービデオストリームの同時刻に表示すべきビューに対応するピクチャのDTSやPTSにそれぞれ一致させて圧縮符号化する。
 マルチプレクサ2610は、出力された2D互換ビデオストリーム、ベースビュービデオストリーム、及びディペンデントビュービデオストリームを、PES(Packetized Elementary Stream)パケット化した後にTSパケット単位で分割し、多重化したトランスポートストリームとして出力する。
 なお、再生装置が、多重化されたトランスポートストリームのストリームデータから、それぞれのビデオストリームを識別できるようにするために、2D互換ビデオストリーム、ベースビュービデオストリーム、及びディペンデントビュービデオストリームは、それぞれ別々のPIDが設定される。
 <1-2-2.データフォーマット>
 次に、データフォーマットについて、図面を参照しながら説明を行う。
 図22に、MPEG-2形式とMPEG-4 MVC形式の圧縮符号化において、各圧縮符号化方式で一致させるビデオ属性と、そのビデオ属性を示すための各フィールド名を示す。
 ディペンデントビュービデオストリームのピクチャの復号の際に、異なる圧縮符号化方式である2D互換ビデオストリームのピクチャを容易に参照できるようにするために、図22に示すビデオストリームの解像度、アスペクト比、フレームレート、及びプログレッシブかインターレースかを示すビデオ属性の値は、それぞれの符号化形式のピクチャ間で同じになるように構成する。
 図25は本実施の形態での2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示している。
 このように、2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOPはすべて同じ枚数になるよう構成する。つまり、2D互換ビデオストリームのピクチャがGOP先頭の場合には、PTSが同じ値を持つベースビュービデオストリームのピクチャと、PTSが同じ値を持つディペンデントビュービデオストリームのピクチャも、それぞれGOP先頭、ディペンデントGOPの先頭でなければならない。
 このように構成することで、飛び込み再生時に、2D互換ビデオストリームがIピクチャであれば、その時刻からすべてのビデオストリームの復号が可能であるため、飛び込み再生時の処理が容易となる。
 トランスポートストリームがファイルとして保存されている場合には、GOP先頭のピクチャがファイル上のどこにあるかを示すエントリマップ情報を管理情報として持つことがある。例えばBlu-ray Discのフォーマットでは、そのエントリマップ情報は管理情報ファイルとして別のファイルとして保存される。
 本実施の形態のトランスポートストリームにおいては、2D互換ビデオストリームのGOP先頭のピクチャの位置が、エントリマップに登録される場合には、同時刻のベースビューの位置もディペンデントビューの位置もエントリマップに登録するようにする。このようにすることで、エントリマップを参照することで、3D映像の飛び込み再生が容易になる。
 図36は、トランスポートストリームの構成とPMT(Program Map Table)パケットの関係を示している。3D映像のストリームを含むトランスポートストリームにおいては、PMTパケットなどのシステムパケット中に、3D映像の復号処理を行う上でのシグナリング情報を含める。図36に示すように、ディスクリプタには、各ビデオストリームの関係や本方式の3D映像再生の開始・終了などのシグナリングを行うための3D情報ディスクリプタと、ビデオストリームごとに設定される3Dストリームディスクリプタを含む構成である。
 図37は、3D情報ディスクリプタの構造を示す。
 3D情報ディスクリプタは、再生方式、左目映像タイプ、2D互換ビデオPID、ベースビュービデオPID、及びディペンデントビュービデオPIDから構成される。
 再生方式は、再生装置の再生方法をシグナリングするための情報である。
 図38を用いて、その再生方式を説明する。
 再生方式の値が「0」の場合は、2D互換ビデオによる2D映像再生を示し、この場合には、再生装置は、2D互換ビデオストリームのみを2D映像再生する。
 再生方式の値が「1」の場合は、2D互換ビデオとディペンデントビュービデオによる3D映像再生(つまり、本実施の形態で説明する3D映像再生方式であること)を示す。この場合は、再生装置は、2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームを本実施の形態で説明する再生方法で3D映像再生を行う。なお、本実施の形態における3D映像の再生方法は後述する。
 再生方式の値が「2」の場合は、ベースビュービデオストリームとディペンデントビュービデオによる3D映像の再生であることを示す。つまり、2D互換ビデオストリームと、3D映像を構成するマルチビュービデオストリームはそれぞれ異なる映像を圧縮符号化して生成したものであり、参照関係にないことを示す。この場合は、再生装置は通常のMPEG-4 MVC形式で圧縮符号化したビデオストリームとして、そのビデオストリームを3D映像再生する。
 再生方式の値が「3」の場合は、2D互換ビデオストリーム又はベースビュービデオストリームをダブリング再生することを示し、再生装置はダブリング再生を行う。ダブリング再生とは、ある時刻aの左右のビューのどちらか一方のピクチャをLとRのどちらのプレーンにも出力することである。この再生方法による再生は、ユーザの視聴画面としては2D映像再生と等しいが、3D映像再生時にフレームレートの変更が発生しないので再生装置がHDMI(High-Definition Multimedia Interface)等でディスプレイ等に接続されている場合に再認証が発生せず、2D映像再生区間と3D映像再生区間とのシームレスな接続再生が実現できる利点がある。
 左目映像タイプは、マルチビュービデオストリームの内、どちらのストリームに左目用画像が圧縮符号化されているか(もう一方のビデオストリームが右目用画像となる)を示す情報である。再生方式の値が「0」の場合は、このフィールドの値は参照する意味がない。再生方式の値が「1」の場合は、2D互換ビデオとディペンデントビュービデオの内、どちらが左目用画像であるかを示す。すなわち、再生方式の値が「1」で左目映像タイプの値が「0」の場合には、2D互換ビデオのストリームが左目用画像に対応したビデオストリームであることを示す。再生装置は、再生方式の値が「2」や「3」の場合も同様にして、左目映像タイプの値を参照することによって、どのビデオストリームが左目用画像に対応したビデオストリームであるかを判断することができる。
 2D互換ビデオPID、ベースビュービデオPID、及びディペンデントビュービデオPIDは、トランスポートストリーム内の各ビデオストリームのPIDを示す。この情報により、復号対象のストリームを識別できる。
 図39は、3Dストリームディスクリプタを示す。
 3Dディスクリプタのフィールド名として、ベースビュービデオタイプ、参照先タイプ、被参照タイプがある。
 ベースビュービデオタイプは、ベースビュービデオストリームにどの映像が圧縮符号化されているかを示す。ベースビュービデオタイプの値が「0」の場合は、3D映像の左目用画像もしくは右目用画像を圧縮符号化したデータのどちらかが圧縮符号化されているかを示し、「1」の場合は、2D互換ビデオストリームによって置き換えられプレーンへ出力されないダミー映像として黒画像を圧縮符号化していることを示す。
 参照先タイプは、ディペンデントビュービデオストリームがビュー間参照の参照先のビデオストリームのタイプを示す。参照先タイプの値が「0」の場合は、ベースビュービデオストリームのピクチャをビュー間参照先としていることを示し、「1」の場合は、2D互換ビデオストリームのピクチャをビュー間参照先としていることを示す。つまり、参照先タイプの値が「1」の場合が本実施の形態における3D映像方式による参照方式であることを示す。
 被参照タイプは、該当ビデオストリームがビュー間参照されるか否かを示す。参照されないのであれば、ビュー間参照の処理をスキップすることができるため復号処理の負荷を軽減できる。なお、3D情報ディスクリプタと3Dストリームディスクリプタの情報の全て又は一部は、PMTパケットではなく、各ビデオストリームの補足データ等に格納されてもよい。
 図23はトランスポートストリーム中における2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTS、DTS及びピクチャタイプの関係の例を示している。
 データ作成装置2601は、同時刻の左目画像を圧縮符号化して生成した2D互換ビデオストリームのピクチャとディペンデントビュービデオストリームのピクチャとのDTS及びPTSの値を、それぞれ同じDTS及びPTSの値に設定する。また、同時刻に再生されるべきベースビュービデオストリームのピクチャのPTS、DTS、及びPOCに対しても、ディペンデントビュービデオストリームのピクチャのPTS、DTS、及びPOCとそれぞれ同じ値を設定する。
 ディペンデントビュービデオストリームのピクチャのビュー間参照では、この同じ値のPTS、DTS、POCを持つベースビュービデオストリームのピクチャを参照する。具体的には、ディペンデントビュービデオストリームのピクチャのビュー間参照では、ディペンデントビュービデオストリームのピクチャの各マクロブロックから指定されるピクチャ参照ID(ref_idx_l0もしくはref_idx_l1)は、POCが同じ値を持つベースビューピクチャを示す値が設定される。
 <1-2-3.動作>
 図27はデータ作成装置2601のデータ作成フローを示す図である。以下、そのデータ作成フローを説明する。
 変数Nは、圧縮符号化対象のフレーム画像のフレーム番号を記憶する変数である。
 まず、変数Nを初期化する(N=0)。次に、左目用画像にN番目のフレームが存在するかをチェックする(ステップS2701)。存在しない場合(ステップS2701:No)は、圧縮符号化すべきデータがなくなったと判断して、処理を終了する。
 ステップS2701でYesの場合には、1回の圧縮符号化フロー(ステップS2702~ステップS2706)で、圧縮符号化する画像の枚数(以下、「1符号化枚数」と呼ぶ。)を決定する(ステップS2702)。1つのGOPとして設定するビデオアクセスユニットの最大数(最大GOP枚数、例えば30フレーム)を1符号化枚数と設定する。ビデオストリームの最後のGOPは、入力するビデオストリームの長さによって符号化するフレームの枚数が最大GOP枚数に足りない場合が想定されるので、この場合には残りのフレーム枚数を1符号化枚数とする。
 次に、2D互換ビデオエンコーダ2602は、1符号化枚数分の2D互換ビデオストリームの生成を行う(ステップS2703)。左目用画像のN番目のフレームから1符号化枚数分だけ、2D互換ビデオストリームの圧縮符号化方式に従って、圧縮符号化して、2D互換ビデオストリームを生成して出力する。
 さらに、2D互換ビデオデコーダ2603は、1符号化枚数分の2D互換ビデオストリームの復号処理を行う(ステップS2704)。ステップS2703にて出力された2D互換ビデオストリームに対して、N番目フレームから1符号化枚数分、圧縮ピクチャデータを復号して得られる復号ピクチャと2D互換ビデオ符号化情報とを出力する。
 ベースビュービデオエンコーダ2605は、1符号化枚数分のベースビュービデオストリームの生成を行う(ステップS2705)。具体的には、2D互換ビデオ符号化情報を元に、ベースビュー符号化情報2607としてベースビュービデオストリームの属性情報(解像度、アスペクト比、フレームレート、プログレッシブかインターレースかの区別など)、GOP内の各ピクチャのピクチャ属性情報(ピクチャタイプなど)、GOP(Group of Pictures)構造、及び、2D互換ビデオフレームメモリ管理情報を設定し、黒画像を、1符号化枚数分、圧縮符号化して、ベースビュービデオストリームを生成する。また、設定したベースビュース符号化情報2607を出力する。
 次に、ディペンデントビュービデオエンコーダ2609は、1符号化枚数分のディペンデントビュービデオストリームの生成を行う(ステップS2706)。具体的には、ステップS2705で出力したベースビュービデオ符号化情報を元に、ディペンデントビュービデオストリームの属性情報(解像度、アスペクト比、フレームレート、プログレッシブかインターレースかの区別など)、GOP内の各ピクチャのピクチャ属性情報(ピクチャタイプなど)、GOP(Group of Pictures)構造、及び、2D互換ビデオフレームメモリ管理情報を設定する。
 さらに、ディペンデントビュービデオストリームエンコーダ2609は、ピクチャ間予測符号化を用いて符号化を行う際に、ベースビュービデオストリームのピクチャを参照するのではなく、2D互換ビデオフレームメモリ2608内の同一表示時刻を示す2D互換ビデオストリームを復号したピクチャを参照しながら、ピクチャ間予測符号化を用いて右目用画像のN番目のフレームから1符号化枚数分、圧縮符号化して、ディペンデントビュービデオストリームを生成する。
 マルチプレクサ2610は、2D互換ビデオストリーム、ベースビュービデオストリーム、及びディペンデントビュービデオストリームを、PESパケット化する。次にPESパケットをTSパケット単位に分割し、多重化したトランスポートストリームを生成する。その後、Nに1符号化枚数を加算する(ステップS2707)。
 ステップS2707の処理が完了したら、ステップS2701に戻って処理を繰り返す。
 なお、1回のフローでの符号化枚数は変更することができる。枚数を少なくしたい場合は、ステップS2702の1符号化枚数の値を小さくなるように設定すればよい。例えば、ビデオ符号化時のリオーダリングの枚数が2枚の場合には、4枚単位で圧縮符号化を実行すれば、リオーダリングの影響を受けない。リオーダリングの枚数が2枚の圧縮符号化方式で、ピクチャタイプがI1、P4、B2、B3、P7、B5、B6(数字は表示順)の場合を想定する。1符号化枚数が3の場合、P4のピクチャが処理できないため、B2、B3の圧縮符号化処理ができない。1符号化枚数を4にすれば、P4のピクチャが処理できるため、B2、B3の圧縮符号化処理ができる。このように、1符号化枚数は、1回の圧縮符号化フローごとに、最大GOP枚数以内で、画像の特性に応じて最適な枚数に設定してもよい。
<1-3.再生装置>
 <1-3-1.構成>
 次に本実施の形態に係る3D映像を再生する再生装置2823の構成について図を参照しながら説明する。
 図28は再生装置2823の機能構成を示すブロック図である。
 再生装置2823は、PIDフィルタ2801、2D互換ビデオデコーダ2821、拡張マルチビュービデオデコーダ2822、第1プレーン2808、及び第2プレーン2820を含む構成である。
 PIDフィルタ2801は、入力されたトランスポートストリームをフィルタリングする。PIDフィルタ2801はTSパケットのうち、TSパケットのPIDの値が、再生に必要とされるPIDの値に一致するものを、PIDの値に従って、2D互換ビデオデコーダ2821又は拡張マルチビュービデオデコーダ2822に転送する。
 どのストリームがどのPIDに対応しているかはPMTパケットのストリーム情報によって判断できる。例えば、2D互換ビデオストリームのPIDが0x1011、マルチビュービデオストリームのベースビュービデオストリームのPIDが0x1012、マルチビュービデオストリームのディペンデントビュービデオストリームのPIDが0x1013とすると、TSパケットのPIDの値を参照し、TSパケットに含まれるPIDの値が予め決められている上記PIDの値と一致する場合に、そのTSパケットをそれぞれ対応するデコーダに転送する。
 第1プレーン2808は、2D互換ビデオデコーダ2821が復号してPTSの値に従って出力したピクチャを保持するプレーンメモリである。
 第2プレーン2820は、拡張マルチビュービデオデコーダ2822が復号してPTSの値に従って出力したピクチャを保持するプレーンメモリである。
 次に2D互換ビデオデコーダ2821と拡張マルチビュービデオデコーダ2822とについて説明する。
 2D互換ビデオデコーダ2821は、2D映像の圧縮符号化方式であるMPEG-2形式のデコーダと基本的には同じ復号機能を有し、拡張マルチビュービデオデコーダ2822は、ビュー間参照を実現する3D映像の圧縮符号化方式であるMPEG-4 MVC形式のデコーダと基本的には同じ復号機能を有する。ここでは、MPEG-2形式の圧縮符号化方式の一般的なデコーダをビデオデコーダ2901、及びMPEG-4 MVC形式の圧縮符号化方式の一般的なデコーダをマルチビュービデオデコーダ2902とする。
 まず、ビデオデコーダ2901及びマルチビュービデオデコーダ2902について図29を用いて説明する。その後で、2D互換ビデオデコーダ2821とビデオデコーダ2901との異なる部分、及び拡張マルチビュービデオデコーダ2822とマルチビュービデオデコーダ2902との異なる部分を重点的に説明する。
 図29に示すように、ビデオデコーダ2901は、TB(TransportStreamBuffer)(1)2802、MB(Multiplexing Buffer)(1)2803、EB(ElementaryStreamBuffer)(1)2804、D1(2D互換ビデオ圧縮映像デコーダ)2805、及びO(Re-ordering Buffer)2806を含む構成である。
 TB(1)2802は、ビデオストリームを含むTSパケットがPIDフィルタ2801から出力された際、TSパケットのまま一旦蓄積されるバッファである。
 MB(1)2803は、TB(1)2802からEB(1)2804にビデオストリームを出力するにあたって、一旦PESパケットを蓄積しておくためのバッファである。TB(1)2802からMB(1)2803にデータが転送される際に、TSパケットのTSヘッダ及びアダプテーションフィールドは取り除かれる。
 EB(1)2804は、圧縮符号化状態にあるピクチャ(Iピクチャ、Bピクチャ、Pピクチャ)が格納されるバッファである。MB(1)2803からEB(1)2804にデータが転送される際にPESヘッダが取り除かれる。
 D1(2805)は、ビデオエレメンタリストリームの個々のビデオアクセスユニットを所定のDTSの時刻で復号することによりフレーム画像のピクチャを作成する。
 D1(2805)で復号されたピクチャはプレーン2808もしくはO2806に出力される。PピクチャやIピクチャのように、DTSとPTSの値が異なる場合には、O2806に出力され、BピクチャのようにDTSとPTSの値が同じ場合には、そのままプレーン2808に出力される。
 O2806は、復号したピクチャのDTSとPTSとの値が異なる場合、すなわち、ピクチャの復号順と表示順が異なる場合にリオーダリングを行うためのバッファである。D1(2805)は、O2806に格納されるピクチャのデータを参照して、復号処理を行う。
 スイッチ2807は、復号されたピクチャをプレーン2808に出力する際に、O2806にバッファリングされた画像を出力するかD1(2805)からの出力を直接出力するかの切り替えを行う。
 次に、マルチビュービデオデコーダ2902について説明する。
 図29に示すように、マルチビュービデオデコーダ2902は、TB(2)2809、MB(2)2810、EB(2)2811、TB(3)2812、MB(3)2813、EB(3)2814、デコードスイッチ2815、Inter-view buffer2816、D2(マルチビュービデオ圧縮映像デコーダ)2817、DPB(Decoded Picture Buffer)2818、及び出力プレーンスイッチ2819とを含む構成である。
 TB(2)2809、MB(2)2810、及びEB(2)2811は、それぞれTB(1)2802、MB(1)2803、及びEB(1)2804と同じ機能を持つが、バッファリングするデータがベースビュービデオストリームである点が異なる。
 TB(3)2812、MB(3)2813、及びEB(3)2814は、それぞれTB(1)2802、MB(1)2803、及びEB(1)2804と同じ機能を持つが、バッファリングするデータがディペンデントビュービデオストリームである点が異なる。
 スイッチ2815は、EB(2)2811とEB(3)2814とからDTSの値に従って、そのDTSが付与されているビデオアクセスユニットのデータを取り出しの、3Dビデオアクセスユニットを構成して、D2(2817)に転送する。
 D2(2817)は、スイッチ2815を介して転送される3Dビデオアクセスユニットに対する復号処理を行い、フレーム画像のピクチャを作成する。
 D2(2817)により復号されたベースビュービデオの復号されたピクチャは、Inter-view buffer2816に一旦格納される。D2(2817)は、ディペンデントビュービデオストリームのピクチャを、Inter-view buffer2816に格納されるPTSが同じ値を持つベースビュービデオストリームの復号ピクチャを参照して、復号処理を行う。
 マルチビュービデオデコーダ2902は、ビュー間参照を行うためのピクチャを指定する参照ピクチャリストを、ベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャのピクチャタイプやsyntax要素に基づいて作成する。
 D2(2817)は、Inter-view buffer2816に格納されるベースビューの復号ピクチャと、ディペンデントビューの復号ピクチャをDPB2818に転送し、PTSの値に従って、出力プレーンスイッチ2819を介して出力する。
 DPB2818は、復号されたピクチャを一時的に保持しておくバッファである。D2(2817)が、ピクチャ間予測符号化モードを用いてPピクチャやBピクチャなどのビデオアクセスユニットを復号する際に、既に復号されたピクチャを参照するために利用する。
 出力プレーンスイッチ2819は、復号されたピクチャを、適切なプレーンへ出力する処理を行う。例えば、ベースビュービデオストリームが、左目用画像を示し、ディペンデントビュービデオストリームが、右目用画像を示す場合には、ベースビュービデオストリームのピクチャを左目用画像のプレーンに、ディペンデントビュービデオストリームのピクチャを右目用画像のプレーンに出力する。
 次に、2D互換ビデオデコーダ2821と拡張マルチビュービデオデコーダ2822について説明する。
 2D互換ビデオデコーダ2821は、ビデオデコーダ2901と基本的な構造は同じであるため、機能の共通部分については説明を省略して、異なる部分を説明する。
 図28で示す2D互換ビデオデコーダ2821はD1(2805)で復号したピクチャをO2806やスイッチ2807に転送するだけでなく、DTSの値に基づいて、拡張マルチビュービデオデコーダ2822のInter-view buffer2816にも転送する。
 拡張マルチビュービデオデコーダ2822は、マルチビュービデオデコーダ2902と基本的な構造は同じであるため、機能の共通部分については説明を省略して、異なる部分を説明する。
 拡張マルチビュービデオデコーダ2822は、2D互換ビデオデコーダ2821から、DTSの値に従って転送されるピクチャを、Inter-view buffer2816内で、先に復号されているベースビュービデオストリームのPTS及びDTSが同じ値を持つ復号ピクチャが格納される領域に上書きして格納する。このため、拡張マルチビューデコーダ2822は、ディペンデントビュービデオストリームのピクチャを復号する際に、2D互換ビデオストリームの復号ピクチャを、あたかもベースビュービデオストリームの復号ピクチャであるとして参照することができる。Inter-view buffer2816上のアドレス管理は、従来のベースビュービデオストリームの復号ピクチャの管理と変更する必要はない。
 また、拡張マルチビュービデオデコーダ2822は、DPB2818に格納された映像の内、第2プレーン2820への出力は、ディペンデントビュービデオストリームのピクチャのみをPTSの値に従って出力するように出力プレーンスイッチ2819を制御する。ベースビュービデオストリームのピクチャは、表示には関係ないのでプレーンに出力しない。
 このようにして、2D互換ビデオデコーダ2821からは、2D互換ビデオストリームのピクチャがPTSの値に従って第1プレーン2808に出力され、拡張マルチビュービデオデコーダ2822からは、マルチビュービデオストリームのディペンデントビュービデオストリームのピクチャがPTSの値に従って第2プレーン2820に出力される。
 このように構成することによって、異なる映像圧縮符号化方式である2D互換ビデオストリームのピクチャを参照して、マルチビュービデオストリームのディペンデントビュービデオストリームを復号することができる。
 <1-3-2.動作>
 図30は再生装置2823の3D映像における復号処理と出力処理のフローを示す図である。
 再生装置2823は、EB(1)2804にピクチャがあるかどうかを判定する(ステップS3001)。ピクチャがなければ(ステップS3001:No)、ビデオストリームの転送が終了したと判断して、処理を終了する。
 EB(1)にピクチャがある場合(ステップS3002:Yes)、再生装置2823は、拡張マルチビュービデオデコーダ2822を利用して、ベースビュービデオストリームの復号処理を行う(ステップS3002)。具体的には、DTSの値に従って、該当するDTSに付与されたピクチャをEB(2)より取り出し、復号処理を行い、Inter-view buffer2816にデータを格納する。Inter-view buffer2816内のピクチャの管理は、従来のMPEG-4 MVC形式における管理と同じであるので詳細は省略するが、参照ピクチャリストを作るための管理情報としてPTS及びPOCと復号ピクチャの参照先を示すInter-view buffer2816のデータアドレスとを関連付けるテーブル情報を内部に持って管理する。
 次に、再生装置2823は、2D互換ビデオデコーダ2821を利用して、2D互換ビデオストリームの復号処理を行う(ステップS3003)。具体的には、DTSの値に従って、該当するDTSに付与されたピクチャをEB(1)より取り出し、復号処理を行う。このとき、O2806やスイッチ2807に復号したピクチャを転送する。さらに、Inter-view buffer2816にも復号したピクチャを転送する。
 拡張マルチビュービデオデコーダは、転送されたピクチャを、Inter-view buffer2816にある同じ値のDTS及びPTSが付与されているベースビューピクチャに上書きする。
 具体的な上書き処理について図31を用いて説明する。
 図31上段のように、Inter-view buffer2816のピクチャの管理は、例えばPTSとInter-view buffer2816のメモリアドレスで管理されているとする。図31上段は、PTS=100におけるベースビュービデオストリームのピクチャが復号された直後の様子を示しており、PTS=100のベースビューの復号ピクチャは、アドレスBから始まるメモリ領域に格納されていることを示す。
 ここで、ステップS3003の処理が行われると、図31下段のようになり、PTS=100のベースビュービデオピクチャが格納されるメモリ領域のアドレスBに対して、PTSが同じ値の2D互換ビデオストリームの復号ピクチャが上書きされる。このように、バッファ内のピクチャ管理を行うための管理情報(例えば、PTS)は変更する必要なく、ピクチャのデータのみを上書きする。これにより、D2(2817)は、従来のMPEG-4 MVC形式のディペンデントビュービデオストリームの復号処理と同じ処理で、2D互換ビデオストリームを復号して得たピクチャを参照しながら復号することができる。
 次に、拡張マルチビュービデオデコーダ2822は、ディペンデントビュービデオストリームの復号処理を行う(ステップS3004)。具体的には、拡張マルチビュービデオデコーダ2822は、DTSの値に従って、該当するDTSに付与されたピクチャをEB(3)より取り出し、ディペンデントビュービデオストリームのピクチャをInter-view buffer2816に格納されるピクチャを参照しながら復号処理を行う。
 このとき参照するピクチャは、ベースビュービデオストリームのピクチャではなく、ステップS3003にて上書きされた2D互換ビデオストリームのピクチャである。
 再生装置2823は、2D互換ビデオストリームの復号ピクチャをPTSの値に従って、第1プレーン2808に出力し、ディペンデントビュービデオストリームの復号ピクチャをPTSの値に従って、第2プレーン2820に出力する(ステップS3005)
 再生装置2823のD1(2805)で行う復号処理は、既存のMPEG-2形式のビデオストリームの復号処理と同じなので、既存のMPEG-2形式のビデオの再生装置のLSI(Large Scale Integration)やソフトウェアを利用することができる。また、D2(2817)で行うMPEG-4 MVC形式の復号処理についても、既存のMPEG-4 MVC形式の処理と同じであるので、既存のMPEG-4 MVC形式のビデオの再生装置のLSIやソフトウェアを利用できる。
<再生装置2823の使用態様の一例>
 図5を用いて、データ作成装置2823で作成したビデオストリームの3D映像を再生できる3Dデジタルテレビ100と、3D映像の再生をサポートしない従来の2D映像のみを再生できる2Dデジタルテレビ300を例に挙げて説明する。
 図5(a)に示すように、ユーザは、3Dデジタルテレビ100と3D眼鏡200を用いて3D映像を視聴する。
 3Dデジタルテレビ100は、2D映像及び3D映像を表示することができるものであり、受信した放送波に含まれるストリームを再生することで映像を表示する。具体的には、MPEG-2形式で圧縮符号化された2D互換ビデオストリームとMPEG-4 MVC形式に準拠して圧縮符号化されたベースビュービデオストリームとディペンデントビュービデオストリームを再生する。
 3Dデジタルテレビ100は、2D互換ビデオストリームを復号して得た左目用画像とディペンデントビュービデオストリームを復号して得た右目用画像とを交互に表示する。
 ユーザは、このようにして再生された映像を、3D眼鏡200を着用して眺めることで立体映像として視聴することができる。
 図5(b)は、3D眼鏡200の左目用画像の表示時を示す。
 画面上に左目用の画像が表示されている瞬間において、3D眼鏡200は、左目に対応する液晶シャッターを透光にし、右目に対応する液晶シャッターは遮光する。
 同図(c)は、右目用画像の表示時を示す。
 画面上に右目用画像が表示されている瞬間において、先ほどと逆に右目に対応する液晶シャッターを透光にし、左目に対応する液晶シャッターを遮光する。
 図5(d)の2Dデジタルテレビ300は、2D映像の再生に対応し、データ作成装置2601で作成したトランスポートストリームに含まれるビデオストリームのうち2D互換ビデオストリームを復号して得られる2D映像を再生することができる。
<2.変形例>
 以上、本発明に係るデータ作成装置及び再生装置の実施の形態を説明したが、例示したデータ作成装置及び再生装置を以下のように変形することも可能であり、本発明が上述の実施の形態で示した通りのデータ作成装置及び再生装置に限らないことは勿論である。
 (1)本実施の形態の再生装置では、ステップS3003にて、Inter-view buffer2816のベースビュービデオストリームの復号ピクチャに対して、PTSの値が同じ2D互換ビデオストリームの復号ピクチャを上書きするとしたが、図32下段のように、上書き処理を行わずにアドレス参照先を変更するようにしてもよい。
 このように処理を行うことによって、上書き処理を省略できるので負荷を軽減できる。
 (2)本実施の形態の再生装置では、ベースビューの復号ピクチャをDPB2818に格納するとしたが、ベースビュービデオストリームの復号ピクチャは参照されないため、DPB2818に格納しないようにしてもよい。このようにすれば、DPB2818からベースビュービデオストリームのピクチャを格納する分のメモリ量を削減することが可能となる。
 (3)本実施の形態では、ベースビュービデオストリームをトランスポートストリームに含めて生成し、復号処理において、ベースビュービデオストリームのピクチャの復号処理を行うとしたが、ベースビュービデオストリームのピクチャの復号処理は省略してもよい。
 拡張マルチビュービデオデコーダ2822は、ベースビュービデオストリームのピクチャの復号をせずに、ヘッダ情報の解析(例えば、POCの取得、ピクチャタイプ、ViewID、参照有り無しの情報取得など)とInter-view buffer2816に1枚分のピクチャが格納できる領域の確保を行う。拡張マルチビュービデオデコーダ2822は、確保した領域に、ヘッダ情報解析で得たPTSやDTSと同じ値を持つ2D互換ビデオデコーダから出力される復号ピクチャを格納する。
 このようにすれば、ピクチャの復号処理をスキップできるので、再生処理全体での処理負荷を軽減できる。
 また、ディペンデントビュービデオストリームのピクチャから、2D互換ビデオストリームのピクチャへのビュー間参照を実現させるため必要な情報、すなわち、拡張マルチビュービデオデコーダがInter-view buffer2816を管理できるようにするための情報を含めた2D互換ビデオストリームを生成するようにしてもよい。
 具体的には、ベースビュービデオストリームのsyntax要素の全てまたは一部を2D互換ビデオストリームの補足データに格納するように構成する。すなわち、Inter-view bufferバッファ2816のピクチャ管理を行うための情報(MPEG-4 MVC形式の表示順を示すPOC、ピクチャタイプを示すslice_type、ピクチャの参照・非参照を示すnal_ref_idc、ベース参照ピクチャリストを作成するための情報であるref_pic_list_mvc_modification、ベースビュービデオストリームのViewID、MMCOコマンド)などを2D互換ビデオストリームの各ピクチャの補足データに含めるようにする。
 このように2D互換ビデオストリームのデータをディペンデントビュービデオストリームから直接参照できるように構成すれば、ベースビュービデオストリームはトランスポートストリーム上に多重化されていなくてもよい。
 この場合、図3で示すように、MPEG-4 MVC形式のディペンデントビュービデオストリームのピクチャはMPEG-2形式のビデオストリームのピクチャを直接参照することになる。
 ただし、MPEG-4 MVC形式のベースビュービデオストリームをトランスポートストリーム上に多重化した場合、データ形式は従来とほぼ同じなので、従来のMPEG-4 MVC形式に対応した符号化装置や再生装置と親和性がよく、少ない改良で本実施の形態のビデオストリームデータに対応した符号化装置や再生装置が実現できる。
 (4)本実施の形態の再生装置では、O2806とDPB2818のメモリは別領域として扱っていたが、図33に示すように、メモリ空間を共用化してもよい。例えば、図33の例では、PTS=100とPTS=200の2D互換ビデオのピクチャは、ステップS3003によって、Inter-view buffer2816のPTSが同じ値のベースビューピクチャに上書きされることになる。このとき、DPB2818にデータを格納する際にDPB2818の管理テーブルの参照先ピクチャのアドレスの設定だけで行い、上書き処理を省略することができる。具体的には、図33の例では、DPB2818のピクチャ管理テーブルにおいては、PTS=100,PTS=200のベースビュー(View_IDが最小値)のピクチャのアドレスは、O2806の管理テーブルのPTS=100、PTS=200に対応した.2D互換ビデオの復号ピクチャのアドレスをそれぞれ示すように設定する。
 このようにすれば、ピクチャを格納するためのメモリ量を削減することができる。
 (5)本実施の形態の再生装置では、Inter-view buffer2816とDPB2818は別のバッファとして扱ったが、これを同じバッファとしてもよい。例えば、DPB2818に統一される場合には、DPB2818内の同一の値のPTSと、同一のViewIDとを持つベースビュービデオストリームの復号ピクチャを2D互換ビデオストリームの復号ピクチャに置き換えればよい。
 (6)本実施の形態における圧縮符号化処理において、2D互換ビデオストリームのピクチャと、同一表示時刻のベースビュービデオストリームのピクチャと、同一表示時刻のディペンデントビュービデオストリームのピクチャにおいて、ひとつでもBピクチャ(Brピクチャを含む)があれば、同一表示時刻の2D互換ビデオストリームのピクチャと、ベースビュービデオストストリームのピクチャと、ディペンデントビュービデオストリームのピクチャとのピクチャタイプをBピクチャ(Brピクチャを含む)にしなければならないという制約を課してもよい。このように構成することによって、IピクチャとPピクチャのみを選択して特殊再生(例えば、飛び込み再生)を行う再生装置において、その特殊再生処理が容易になる。
図24は、特殊再生について説明するための図である。図24上段は、上記の制約が課されていない場合について示している。この場合、表示順で3番目のピクチャにおいて、2D互換ビデオストリームとベースビュービデオストリームは、Pピクチャ(P3)になっているが、ディペンデントビュービデオストリームのピクチャはBピクチャ(B3)となっている。
 これにより、ディペンデントビュービデオストリームの復号を行うために、ディペンデントビュービデオストリームのピクチャBr2を復号する必要があり、また、ベースビュービデオストリームのBr2も復号する必要がある。一方で、図24下段は、上記制約を課した場合について示している。
 この場合には、表示順で3番目のピクチャにおいて、2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームのピクチャはすべてPピクチャとなり、すべてのビデオストリームにおいて、IピクチャとPピクチャのみを復号すればよいため、IピクチャとPピクチャを選択した特殊再生処理が容易になる。
 (7)本実施の形態のデータ作成装置では、トランスポートストリームの多重化において、各ビデオストリームのPIDとして別々のPIDを設定するとしたが、ベースビュービデオストリームとディペンデントビュービデオストリームとに、同一のPIDを割り当てるようにしてもよい。
 このように構成することで、マルチビュービデオストリームの圧縮符号化方式の仕様に合わせて各ビデオストリームのアクセスユニットをマージして転送することができる。
 この場合、ベースビュービデオストリームとディペンデントビデオストリームのマージは圧縮符号化方式の仕様に合わせて行い、再生装置は図45のような構成で、拡張マルチビュービデオデコーダのデータ転送ラインがひとつになるように構成すればよい。
 また、ベースビュービデオストリームとディペンデントビュービデオストリームとにおいて、同時刻のピクチャを格納した各アクセスユニットのヘッダ(例えば、シーケンスヘッダ、ピクチャヘッダ)情報を共有してもよい。すなわち、ヘッダ情報をベースビュービデオストリームのみに設けて、ディペンデントビュービデオストリームを復号する際には、復号に必要なヘッダ情報をベースビュービデオストリームのヘッダ情報を参照しながら復号するようにしてもよい。従って、ディペンデントビュービデオストリームには、復号に必要なヘッダ情報の付加を省略できる。
 (8)本実施の形態のデータ作成装置において、図23にて説明したように、同一表示時刻の2D互換ビデオストリームとディペンデントビュービデオストリームのピクチャのDTSの値はそれぞれ等しく、さらに、ディペンデントビュービデオストリームのピクチャと、ベースビュービデオストリームとのピクチャのDTSもそれぞれ同じ値とした。しかし、同一表示時刻のそれぞれのビデオストリームにおけるピクチャのDTSの値は、同じでなくてもよい。例えば、図35に示すように2D互換ビデオストリームのDTSの値を、ベースビュー・ディペンデントビュービデオストリームよりも先(例えば、1フレーム分前)に復号される値に設定してもよい。
 このように構成することで、2D互換ビデオストリームの復号を前もって行うことができるため、Inter-view bufferへの上書き処理やディペンデントビュービデオストリームのピクチャ復号処理を、余裕を持って行うことができる。
 なお、図35では、同一表示時刻の視差画像を格納する2D互換ビデオストリームのピクチャのPTSについては、ディペンデントビューのピクチャのPTSと同じとしているが、2D互換ビデオストリームの復号処理を前もって行うために、同一表示時刻の2D互換ビデオストリームのピクチャのPTSを、ベースビュー・ディペンデントビュービデオストリームよりも先(例えば、1フレーム分前)になるように設定している。
 このように2D互換ビデオストリームとマルチビュービデオストリーム間でのPTS値を変える場合、例えば、2D互換ビデオストリームのピクチャのPTSを、ディペンデントビュービデオストリームのピクチャのPTSよりも1フレーム前にする場合には、Inter-view bufferのベースビュービデオストリームのピクチャの入れ換え時に、ベースビュービデオストリームのピクチャに対して、1フレーム前を示す値のPTSの2D互換ビデオストリームのピクチャで入れ換えるようにする。
 なお、実データに付与されるPTSやDTSの設定は、図23に示す時刻設定であっても、2D互換ビデオストリームのピクチャのDTSやPTSが先になるように、内部的に値を修正して復号処理を行ってもよい。
 (9)本実施の形態の再生装置では、ステップS3005にて、2D互換ビデオデコーダ2821が、2D互換ビデオストリームの復号ピクチャを、PTSの値に従って第1プレーン2808に出力するとしたが、図34のように、拡張マルチビュービデオデコーダ2822が、出力プレーンスイッチ2819を使って両方の映像を出力するように構成してもよい。
 このように構成することで、既存のマルチビュービデオストリームを使って3D映像を再生するプレーン出力の仕組みをそのまま利用することができる。
 (10)本実施の形態において、多重化方式をトランスポートストリームとしたが、これに限らない。
 例えば、多重化方式としてMP4のシステムフォーマットを用いることができる。図34の入力をMP4で多重化されたファイルとして、2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームにそれぞれ分離して復号する。そして、Inter-view buffer2816のベースビュービデオストリームのピクチャを2D互換ビデオストリームのピクチャに上書きしたピクチャを参照しながらディペンデントビュービデオストリームのピクチャを復号する。ただし、MP4システムフォーマットの場合にはPTSがないので、MP4システムフォーマットのヘッダ情報(stts, stszなど)を元に、各アクセスユニットにおける時刻情報を特定する。
 (11)本実施の形態におけるベースビュービデオストリームやディペンデントビュービデオストリームにおいては、ディペンデントビュービデオストリームの参照先のピクチャを、2D互換ビデオストリームの復号ピクチャとしており、通常のマルチビュービデオストリームの構成と異なるため、ストリームタイプやPESパケットヘッダに付与されるstream_idを、従来のマルチビュービデオストリームの場合の値と異なるように設定してもよい。
 このように構成することで、再生装置は、ストリームタイプやstream_idを参照することにより、本実施の形態における3D映像の再生方式であると判断して、再生方法を変更することができる。
 (12)本実施の形態では、図38で説明したディスクリプタに格納される再生方式について説明したが、この再生方式の切り替え方法については、図40のような構成にして実現してもよい。
 図40の再生装置2823bは図28で説明した再生装置2823と基本的な構造は変わらないが、コーデック間参照スイッチ2824、プレーンセレクタ2825、第3プレーン2826が追加されている。
 コーデック間参照スイッチ2824は、図40で示すようにONの場合には、2D互換ビデオデコーダから拡張マルチビュービデオデコーダ内のInter-view bufferに対してステップS3003で説明したデータ転送を行い、OFFの場合には、データ転送を行わない。
 プレーンセレクタ2825は、2D互換ビデオデコーダからピクチャタが出力される第1プレーン2808、拡張マルチビュービデオデコーダのベースビュービデオストリームのピクチャが出力される第2プレーン2820、拡張マルチビュービデオデコーダのディペンデントビュービデオストリームのピクチャが出力される第3プレーン2826に対して、どのプレーンを2D映像として出力するのか、3D映像の左目用画像として出力するのか、または3D映像の右目用画像として出力するのかを選択する。
 再生方式に従って、コーデック間参照スイッチ2824とプレーンセレクタ2825での出力を切り替えることで、再生装置2823bは再生モードを変更する。
 図38の再生方式の例に対して、具体的な再生方法の切り替えについて図41を用いて説明する。
 コーデック間参照スイッチ2824のON、OFFの切り替えとプレーンセレクタ2825でのプレーンの選択例を図41下段に記している。
 再生装置2823bは、再生方式の値が「0」の場合、コーデック間参照スイッチ2824をOFFにする。そして、プレーンセレクタ2825は、2D映像として第1プレーン2808を選択する。
 再生装置2823bは、再生方式の値が「1」の場合、コーデック間参照スイッチ2824をONにする。そして、プレーンセレクタ2825は、左目用画像として第1プレーン2808又は第2プレーン2820を選択し、右目用画像として第3プレーン2826を選択する。
 再生装置2823bは、再生方式の値が「2」の場合、コーデック間参照スイッチ2824をOFFにする。そして、プレーンセレクタ2825は、左目用画像として第2プレーン2820を選択し、右目用画像として第3プレーン2826を選択する。
 再生装置2823bは、再生方式の値が「3」の場合、コーデック間参照スイッチ2824をOFFにする。そして、プレーンセレクタ2825は、左目用画像として第1プレーン2808を選択し、右目用画像として第1プレーン2808を選択する。
 (13)本実施の形態において、再生方式が、2D互換ビデオストリームとディペンデントビュービデオストリームによる3D映像再生から2D互換ビデオストリームの2D映像再生に切り替わるようなトランスポートストリームを生成する場合には、復号処理の遅延を考慮して、図42に示すように、再生方式が変わる時点で、2D互換ビデオストリームと同じ映像をディペンデントビュービデオストリームに圧縮符号化しておくように構成してもよい。2D互換ストリームと同じ映像をディペンデントビュービデオストリームに圧縮符号化する区間を図42上段に示す2D移行期間とする。この2D移行区間においては、どちらの方式で再生しても2D映像として再生されるため、ユーザにとってはスムーズな映像遷移となる。これは、2D映像再生から3D映像再生に切り替わる場合においても2D移行区間を設けてもよい。また、図37のシグナリング情報を示す「再生方式」の値が「0」と、その他の値(「1」、「2」又は「3」)との間で切り替わるそれぞれの場合において、2D移行区間を設けるようにしてもよい。
 (14)MPEG-2形式の圧縮符号化における各ピクチャに含まれる表示順を示すtemporal_referenceの値に、同一時刻表示を示すディペンデントビュービデオストリームのピクチャのPOCの値を設定してもよい。
 このようにすることで、PTSを使わずにビデオES内の値でMPEG-2形式のビデオストリームの圧縮符号化及び復号処理ができる。
 または、2D互換ビデオストリームの各ピクチャのユーザデータに、同時刻表示を示すディペンデントビュービデオストリームのPOCを含めてもよい。
 このようにすることで、temporal_referenceの値を独自の値に設定することもできるため、圧縮符号化処理における設定の自由度が増える。
 (15)本実施の形態において、図43、図44に示すように2D互換ビデオストリームの復号結果に対して、高画質フィルタ4301を適用するようにしてもよい。
 高画質フィルタ4301は、MPEG-4 AVCで規定されているデブロッキングフィルタのようなブロックノイズを軽減するようなものなどである。高画質フィルタ4301を適用するか否かを示すフラグを用意する。そして、例えばフラグがONを示す場合に高画質フィルタ430を適用し、OFFの場合に適用しないとする。
 このフラグは、PMTのディスクリプタやストリームの補足データ等に含めることができる。
 再生装置は、このフラグがONであれば、復号結果において、Inter-view buffer2816に、データを転送する前にフィルタを適用する。
 このように構成することで、2D互換ビデオストリームに対する2D映像の高画質化を実現する。また、高画質化処理されたピクチャを参照しながらディペンデントビュービデオストリームの復号処理を行うことができるので、結果3D映像の高画質化も図れる。なお、高画質フィルタ4301は複数あって、用途に応じて、選択できるようにフラグではなく、そのフィルタのタイプを指定できるようにしてもよい。
 (16)本実施の形態において、ディペンデントビュービデオストリームは1つのケースを説明したが、ディペンデントビュービデオストリームは複数あってもよい。
 この場合には、拡張マルチビュービデオストリームは、複数のディペンデントビュービデオストリームを処理できるように構成して、Inter-view buffer2816における2D互換ビデオストリームのピクチャとの置き換え処理においては、PTSが同じ値を持つベースビューのピクチャに対して置き換えられるようにしてもよい。または、2D互換ビデオストリームで、置き換えるViewIDを指定できるようにして、常にベースビューのピクチャを置き換えるのではなく、複数ビューのピクチャの中から選択して置き換えられるようにしてもよい。
 (17)本実施の形態において、2D互換ビデオストリームをMPEG-2形式のビデオストリーム、マルチビュービデオストリーム(ベースビュービデオストリームとディペンデントビュービデオストリーム)をMPEG-4 MVC形式のビデオストリームとして説明したが、圧縮符号化方式の種類はこれに限らない。
 本実施の形態の再生装置及びデータ作成装置において、圧縮符号化方式の仕様に合わせて、構成を適宜変更してもよい。例えば、2D互換ビデオストリームをMPEG-4 AVCとし、マルチビュービデオストリームが新規な圧縮符号化方式の場合、図34で記した再生装置のO2806をDPBに置き換え、Inter-view buffer2816内のピクチャの管理は新規な圧縮符号化方式の構成に従って行えばよい。
 (18)本実施の形態のビデオストリームを用いた3D映像を視聴する方法として、ユーザが液晶シャッターを備えた3D眼鏡を用いる方法を例示したが、3D映像の視聴方法はこれに限られない。
 例えば、ディスプレイに表示する画面中の縦方向に左目用のピクチャと右目用のピクチャを同時に交互に並べ、ディスプレイ表面にレンチキュラーレンズと呼ばれる蒲鉾上のレンズを通して、左目用のピクチャを構成する画素は左目だけに結像し、右目用のピクチャを構成する画素は右目だけに結像するようにすることで、左右の目に視差のあるピクチャを見せ、3D映像としてみせるようにしてもよい。また、レンチキュラーレンズの代わりに、同様の機能を持たせたデバイス、例えば液晶素子を用いてもよい。
 また、ディスプレイ側の左目用の画素には縦偏光のフィルタ、右目用の画素には横偏光のフィルタを設置し、視聴者は、左目用には縦偏光、右目用には横偏光のフィルタを設置した偏光メガネを用いた偏光方式と呼ばれる方式を用いてもよい。
 なお、視差画像を用いた立体視においては、右目用画像と左目用画像を用意する場合に、2D映像に対して画素単位で奥行き値が与えられたデプスマップを別途用意して、2D映像とデプスマップに基づいて左目用画像と右目用画像の視差画像を生成するようにしてもよい。
 図4は2D映像とデプスマップから左目用画像と右目用画像の視差画像を生成する例を模式的に示している。
 デプスマップは2D映像内のそれぞれの画素に対応した奥行き値をもっており、図4の例では、2D映像の円形の物体は、デプスマップでは円形の物体が近くにあることを示す情報(奥行き値がHigh)が割り当てられ、それ以外の領域は円形の物体より遠くにある(奥行き値がLow)ことを示す情報が割り当てられている。この情報は、画素ごとのビット列で表してもよいし、画像イメージ(例えば「黒」を奥行きがLowであることを示し、「白」を奥行きがHighであることを示す画像イメージ)で表してもよい。視差画像は、デプスマップの奥行き値から、2D映像の視差量を調整することによって作成することができる。図4の例では、2D映像内の円形の物体の奥行き値がHighであるため、視差画像を作成するときには、円形の物体の画素の視差量を大きくする。一方、円形物体以外の領域は、奥行き値がLowであるため、円形の物体以外の画素の視差量を小さくして、左目用画像、右目用画像を作成する。この左目用画像と右目用画像を、継時分離方式等を使って表示すれば立体視が可能となる。
 (19)上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory )などを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。
 (20)上記のデータ作成装置及び再生装置は、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、などから構成されるコンピュータシステムとしてもよい。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (21)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 (22)上記実施の形態及び上記変形例をそれぞれ適宜組み合わせるとしてもよい。
 (23)以下、更に本発明の一実施形態に係るデータ作成装置及び再生装置の構成及びその変形例と各効果について説明する。
  (a)本発明の一実施形態に係るデータ作成装置は、第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置であって、前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化手段と、MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化手段と、前記第1、第2符号化手段により生成されたストリームを送出する送出手段とを備え、前記第2符号化手段は、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する。
この構成のデータ作成装置は、異なる符号化方式で圧縮符号化されたビデオストリーム間でビュー間参照をすることができる。これにより、3D映像を構成する拡張ビデオストリームにおいて、ディペンデントビュービデオストリームを復号する際に、ベースビューストリームのピクチャを参照せず、2D互換ビデオストリームのビューを参照しながら拡張ビデオストリームを復号可能なビデオストリームを生成することができる。従って、従来の圧縮符号化方式と互換性を保ちながらデータ量を削減したビデオストリームを生成することができる。
 (b)また、データ作成装置の前記第2符号化手段は、前記疑似データからなるストリームを、同一のフレーム画像から構成されるフレーム画像群を圧縮符号化して生成するとしてもよい。
 MPEG-2形式やMPEG-4 MVC形式における画像の圧縮符号化は、前後の画像に差がない画像では、圧縮符号化効率が非常に高いので、データ量を削減した圧縮符号化が可能となる。この構成のデータ作成装置は、経時的変化のない画像群を圧縮符号化したデータをダミーデータとして用いるので、ベースビュービデオストリームのデータ量を削減することができるビデオストリームを生成することができる。
 (c)また、前記同一のフレーム画像は、単色画像のフレーム画像であるとしてもよい。
これにより、単色(例えば、輝度のない黒色)の画像を圧縮符号化するので、データ量を削減したビデオストリームを生成することができる。
 (d)また、データ作成装置の前記第2符号化手段は、前記第1フレーム画像群を圧縮符号化して得られるストリームのビットレートより低いビットレートで、前記ベースビュービデオストリームを生成するとしてもよい。
 この構成のデータ作成装置は、ディペンデントビュービデオストリームを生成する際の圧縮符号化に用いるビットレートより低いビットレートをベースビュービデオストリーム生成の際の圧縮符号化に用いるので、ベースビュービデオストリームのデータ量を削減することができるビデオストリームを生成することができる。
 (e)また、データ作成装置の第2符号化手段は、ディペンデントビュービデオストリームのフレームを構成するピクチャのPTS(Presentation Time Stamp)を、前記ベースビュービデオストリームの対応するフレームと同時刻のMPEG-2形式のストリームのフレームを構成するピクチャのPTSと同じ値にして圧縮符号化するとしてもよい。
 この構成のデータ作成装置は、第1視点のフレーム画像と第2視点のフレーム画像のそれぞれ対応する画像の圧縮符号化されたピクチャのPTSの設定値を同じにすることができる。これにより、異なる圧縮符号化方式において参照するピクチャの対応関係を容易に知ることができるので、異なる圧縮符号化方式で圧縮符号化されたビデオストリーム間のビュー間参照が容易となるビデオストリームを生成することができる。
 (f)また、データ作成装置の前記第1符号化手段及び前記第2符号化手段は、前記第1フレーム画像群及び前記第2フレーム画像群の圧縮符号化を同一のアスペクト比で行い、生成する前記各ストリームに前記アスペクト比を示す属性情報を含めるとしてもよい。
 この構成のデータ作成装置は、異なる圧縮符号化方式で生成されたビデオストリームのアスペクト比を同じにすることができる。これにより、異なる圧縮符号化されたビデオストリーム間のビュー間参照による復号処理時に参照画像の変換処理が簡素化できるビデオストリームを生成することができる。
 (g)また、データ作成装置の前記第2符号化手段は、ディペンデントビュービデオストリームのフレームを構成するピクチャのDTSに、前記ベースビュービデオストリームの対応するフレームと同時刻のMPEG-2形式のストリームのフレームを構成するピクチャのDTSの値よりNフレーム分(N≧1の整数値)後の時刻を示す値にして圧縮符号化するとしてもよい。
 この構成のデータ作成装置は、第1視点と第2視点との対応するフレーム画像を圧縮符号化する際の各ピクチャのDTSの値として、第2フレームを圧縮符号化したピクチャのDTSが、第1フレームを圧縮符号化したピクチャのDTSよりNフレーム分後の時刻を示すように設定することができる。これにより、ディペンデントビュービデオストリームを復号する際に、第1ストリームデータ内の参照ピクチャが予め復号されるので、Inter-view bufferへの書き込み処理や、第2ストリームデータ内のピクチャの復号処理を、余裕をもって行うことができる。
 (h)また、データ作成装置の前記第2符号化手段は、ベースビュービデオストリーム及びディペンデントビュービデオストリームにおけるGOP(Group of Pictures)内のフレームの数が、前記フレームと同時刻のフレームを含む前記MPEG-2形式のストリームにおけるGOP内のフレームの数と同じ数にして圧縮符号化するとしてもよい。
 この構成のデータ作成装置は、第1ストリームデータと第2ストリームデータとのそれぞれ対応するフレーム画像数を収めた各ストリームデータのGOPにおけるフレーム画像数を一致させることができる。これにより、第1視点と第2視点の同一表示時刻のピクチャのGOPの先頭が一致するので飛び込み再生などの特殊再生時が容易に行えるビデオストリームを生成することができる。
 (i)また、データ作成装置の前記第2符号化手段は、前記MPEG-2形式のストリームのフレームを構成するピクチャのピクチャタイプがIピクチャである場合には、前記MPEG-2形式のフレームを構成するピクチャと同時刻のベースビュービデオストリームのフレームを構成するピクチャをIピクチャとして圧縮符号化するとしてもよい。
 この構成のデータ作成装置は、第1ストリームデータ内のピクチャのPTSと第2ストリームデータ内のピクチャのPTSとが同じ値を持つピクチャをそれぞれIピクチャとすることができる。従って、第1ストリーム及び第2ストリームは共に同じIピクチャのPTSの時刻から復号が可能なため、飛び込み再生などの特殊再生時の復号処理が簡素化できるビデオストリームを生成することができる。
 (j)本発明の一実施形態に係る再生装置は、本発明の一実施形態に係るデータ作成装置で送出されたストリームを取得する取得手段と、前記取得手段により取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより前記第1フレーム画像群を得る第1復号手段と、前記取得手段により取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号手段により復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号手段と、前記第1、第2復号手段により得られた前記第1、第2フレーム画像群を再生する再生手段とを備える。
 この構成の再生装置は、MPEG-4 MVC形式で圧縮符号化されたディペンデントビュービデオストリームを復号する際に、ベースビュービデオストリームを復号したフレーム画像群の代わりにMPEG-2形式で圧縮符号化された第1ストリームデータを復号したフレーム画像群を参照して復号処理を行うことができる。従って、異なる圧縮符号化したビデオストリームデータを復号した画像群を参照しながら、ディペンデントビュービデオストリームを復号することができるので、従来の圧縮符号化方式とデータ互換性を保ちながら、ビデオストリーム全体としては、データ量を削減したビデオストリームの再生を行うことができる。
 (k)また、前記再生装置の前記第2復号手段は、前記第1復号手段により復号されたフレームのうち、前記第2フレーム画像群のフレームを構成するピクチャのPTSと同じ値のPTSのピクチャで構成されるフレームを参照画像として、復号処理を行うとしてもよい。
 この構成の再生装置は、ディペンデントビュービデオストリームを復号する際に、MPEG-2形式で圧縮符号化された第1視点のビデオストリーム内のピクチャであり、ディペンデントビュービデオストリームの復号対象のピクチャのPTSと同じ値を持つピクチャを復号化したフレーム画像を参照画像とする。従って、同一時刻表示の第1フレーム画像を参照して、第2視点のフレーム画像を再現することができる。
<3.補足説明>
 <映像圧縮技術の説明>
  <2D映像圧縮技術>
 本実施の形態に係るデータ作成装置及び再生装置で使用する2D映像を圧縮符号化する規格であるMPEG-2、及びMPEG-4 AVC(MPEG-4 MVC形式のベースとなる圧縮符号化方式)の符号化方法について簡単に説明する。
 これらの圧縮符号化においては、動画像の空間方向及び時間方向の冗長性を利用してデータ量の圧縮符号化を行う。
 冗長性を利用して圧縮符号化する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対照のピクチャとの差分を圧縮符号化する。
 図1はビデオストリームのピクチャ間の参照関係を示している。図1では、ピクチャP3はピクチャI0を参照して圧縮符号化され、ピクチャB1とピクチャB2はそれぞれピクチャI0とピクチャP3を参照して圧縮符号化されている。このように時間的な冗長性を利用することで、圧縮率の高い圧縮符号化を実現できる。
  <3D映像圧縮技術>
 次に、視差画像を用いて3D映像としてディスプレイ等で再生する方法、マルチビュー符号化方式であるMPEG-4 MVC形式の圧縮符号化について簡単に説明する。
 視差画像を使った立体視の方式では、右目用画像(R画像)と、左目用画像(L画像)とを各々用意し、ユーザに対してそれぞれの目に対応した画像だけが、それぞれの目に映るように制御した表示を行うことで立体視を実現する。
 右目用画像で構成される動画像をレフトビュービデオといい、左目用画像で構成される動画像をライトビュービデオという。
 図13は、立体視画像の表示の一例を示す図である。対象物たる恐竜の骨格の左目用画像と、対象物たる恐竜の骨格の右目用画像を表示した例を示している。3D眼鏡を用いて、右目及び左目の透光、遮光から繰り返されれば、ユーザの脳内では、目の残像反応により左右のシーンの重合せがなされ、顔の中央の延長線上に立体映像が存在すると認識することができる。
 レフトビュービデオとライトビュービデオを圧縮符号化する3Dの映像方式には、フレーム互換方式とマルチビュー符号化方式がある。
 フレーム互換方式は、レフトビュービデオとライトビュービデオの同時刻のビューを示す画像に対応する各ピクチャをそれぞれ間引きまたは縮小した上で一つのピクチャに合成して、圧縮符号化を行う方式である。一例として、図14に示すような、Side-by-Side方式がある。Side-by-Side方式では、レフトビュービデオとライトビュービデオの同時刻のビューを示す画像に対応する各ピクチャをそれぞれ水平方向に1/2に圧縮した上で、左右に並べることで一つのピクチャに合成する。合成されたピクチャによる動画像を、2D映像の圧縮符号化方式(例えばMPEG-2)によって圧縮符号化することによってビデオストリームを生成する。一方、再生時は、ビデオストリームを、ビデオストリーム生成と同じ圧縮符号化方式に基づいて復号する。復号された各ピクチャは、左右画像に分割されて、分割した画像それぞれを水平方向に2倍に伸長して、レフトビュービデオとライトビュービデオとのそれぞれ対応するピクチャを得る。得たレフトビュービデオのピクチャ(L画像)とライトビュービデオのピクチャ(R画像)を交互に表示することによって、図13に示すような立体視画像を得ることができる。
 これに対してマルチビュー符号化方式は、レフトビュービデオとライトビュービデオのピクチャを1つのピクチャには合成せずに、それぞれ別々のピクチャのまま圧縮符号化する方式である。
 これに対してマルチビュー符号化方式は、レフトビュービデオとライトビュービデオのピクチャを1つのピクチャには合成せずに、それぞれ別々のピクチャのまま圧縮符号化する方式である。
 図2は、マルチビュー符号化方式であるMPEG-4 MVC形式による符号化方式を示す図である。
 MPEG-4 MVC形式のビデオストリームは、従来のMPEG-4 AVC形式のビデオストリームを再生する再生装置において再生可能なベースビュービデオストリームと、ベースビュービデオストリームと同時に処理することで別視点の映像の再生を実現するディペンデントビュービデオストリームを含む構成である。
 ベースビュービデオストリームは、図2のベースビュービデオストリームに示すように、別視点の映像を参照せず同一視点の映像との冗長性のみを利用してピクチャ間予測符号化を用いて圧縮符号化される。
 一方、ディペンデントビュービデオストリームは、同一視点の映像の参照を利用したピクチャ間予測符号化に加えて、別視点の映像との冗長性を利用したピクチャ間予測符号化によって圧縮符号化される。
 ディペンデントビュービデオストリームのピクチャは、ベースビュービデオストリーム内の同時刻のビューを示すピクチャを参照して圧縮符号化される。
 図2の矢印は参照関係を示しており、ディペンデントビュービデオストリームの先頭のPピクチャであるピクチャP0は、ベースビュービデオストリームのIピクチャであるピクチャI0を参照する。ディペンデントビュービデオストリームのBピクチャであるピクチャB1は、ベースビュービデオストリームのBrピクチャであるピクチャBr1を参照する。ディペンデントビュービデオストリームの二つ目のPピクチャであるピクチャP3は、ベースビュービデオストリームのPピクチャであるピクチャP3を参照することを示す。
 ベースビュービデオストリームは、ディペンデントビュービデオストリームのピクチャを参照していないため、このビデオストリームだけで復号し、再生することができる。
 一方、ディペンデントビュービデオストリームは、ベースビュービデオストリームを参照しながら復号するため、このビデオストリーム単独では再生することはできない。ただし、ディペンデントビュービデオストリームは、同一時刻のビューを示す別視点のベースビューのピクチャを用いて、ピクチャ間予測符号化を行う。一般的に同一時刻の右目用画像と左目用画像とは類似性があり(相関性が大きい)、その差分を圧縮符号化するのでディペンデントビュービデオストリームはベースビュービデオストリームに比べてデータ量を大幅に削減できる。
 <ストリームデータの説明>
 デジタルテレビの放送波等での伝送では、MPEG-2トランスポートストリーム形式のデジタルストリームが使われている。
 MPEG-2トランスポートストリームとは、ビデオやオーディオなど様々なストリームを多重化して伝送するための規格である。ISO/IEC13818-1及びITU-T勧告H222.0において標準化されている。
 図6は、MPEG-2トランスポートストリーム形式のデジタルストリームの構成を示す図である。
 本図に示すようにトランスポートストリーム513は、ビデオのTS(Taransport Stream)パケット503、オーディオのTSパケット506、字幕ストリームのTSパケット509などを多重化して得られる。ビデオのTSパケット503は番組の主映像を、オーディオのTSパケット506は番組の主音声部分や副音声を、字幕ストリームのTSパケット509は番組の字幕情報を含む。
 ビデオフレーム列501は、MPEG-2、MPEG-4 AVCなどの映像の符号化方式を使って圧縮符号化される。オーディオのフレーム列504は、ドルビーAC-3、MPEG-2 AAC、MPEG-4 AAC、HE-AACなどの音声の符号化方式で圧縮符号化される。
 トランスポートストリームに含まれる各ストリームはPIDと呼ばれるストリーム識別IDによって識別される。このPIDのパケットを抽出することで再生装置は、処理対象のストリームを抽出することができる。PIDとストリームの対応関係の情報は、以降で説明するPMTパケットのディスクリプタに格納される。
 トランスポートストリームを生成するために、まず、複数のビデオフレームからなるビデオストリーム501、複数のオーディオフレームからなるオーディオストリーム504を、それぞれPESパケット列502及び505に変換する。次にPESパケット列502及び505を、それぞれTSパケット503及び506に変換する。同様に字幕ストリーム507のデータをそれぞれPESパケット列508に変換し、更にTSパケット509に変換する。MPEG-2トランスポートストリーム513はこれらのTSパケットを1本のストリームに多重化することで構成される。PESパケット、TSパケットについては後述する。
 <ビデオストリームのデータ構成>
 次に、映像を上述の符号化方式で圧縮符号化して得られるビデオストリームのデータ構成について説明する。
 ビデオストリームは、図7に示すような階層構造のデータである。ビデオストリームは、複数のGOPから構成されており、これを圧縮符号化処理の基本単位とすることで動画像の編集やランダムアクセスが可能となる。
 GOPは1つ以上のビデオアクセスユニットにより構成されている。ビデオアクセスユニットは、ピクチャの圧縮符号化データを格納する単位であり、フレーム構造の場合は1フレーム、フィールド構造の場合の1フィールドのデータが格納される。各ビデオアクセスユニットは、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、及びストリーム終端コードを含む構成である。これら各データはMPEG-4 AVCの場合には、NALユニットと呼ばれる単位で格納される。
 AU識別コードはアクセスユニットの先頭を示す開始符号である。
 シーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダであり、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。
 ピクチャヘッダはピクチャ全体の符号化の方式などの情報を格納したヘッダである。
 補足データは圧縮ピクチャデータの復号には必須ではない付加情報であり、例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。
 圧縮ピクチャデータには、圧縮符号化されたピクチャのデータが格納される。
 パディングデータは、形式を整えるためのデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。
 シーケンス終端コードは、再生シーケンスの終端を示すデータである。
 ストリーム終端コードは、ビットストリームの終端を示すデータである。
 AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードのデータ構成は、ビデオの符号化方式によって異なる。
 MPEG-4 AVCの場合、AU識別コードは、AUデリミタ(Access Unit Delimiter)、シーケンスヘッダはSPS(Sequence Paramter Set)に、ピクチャヘッダはPPS(Picture Parameter Set)に、圧縮ピクチャデータは複数個のスライス、補足データはSEI(Supplemental Enhancement Information)、パディングデータはFillerData、シーケンス終端コードはEnd of Sequence、ストリーム終端コードはEnd of Streamに対応する。
 そして、MPEG-2形式の場合であれば、シーケンスヘッダはsequence_Header、sequence_extension、group_of_picture_headerに、ピクチャヘッダはpicture_header、picture_coding_extension、圧縮ピクチャデータは複数個のスライス、補足データはuser_data、シーケンス終端コードはsequence_end_codeに対応する。AU識別コードは存在しないが、それぞれのヘッダのスタートコードを使えば、アクセスユニットの切れ目を判断できる。
 各属性情報のデータは常に必要ではなく、例えば、シーケンスヘッダはGOP先頭のビデオアクセスユニットでのみ必要で、それ以外のビデオアクセスユニットには付加せずに符号化することができる。また、ピクチャヘッダは符号順で前のビデオアクセスユニットのものを参照するようにして、自身のビデオアクセスユニット内にはピクチャヘッダを省略することもできる。
 また、図16に示すようにGOP先頭のビデオアクセスユニットには、圧縮ピクチャデータとしてIピクチャのデータが格納され、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず格納される。補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードは必要に応じて適宜格納される。一方、GOP先頭以外のビデオアクセスユニットには、AU識別コード、圧縮ピクチャデータが必ず格納され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードを必要に応じて適宜格納される。
 図10は、PESパケット列に、ビデオストリームがどのように格納されるかを示す図である。
 図10の第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。
 図10中のyy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。
 各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTSやピクチャのデコード時刻であるDTSが格納される。
 図11は、トランスポートストリームを構成するTSパケットのデータ構造を示す図である。
 TSパケットは、4ByteのTSヘッダと、アダプテーションフィールドとTSペイロードから構成される188Byte固定長のパケットである。TSヘッダは、transport_priority、PID、adaptaion_field_controlを含む構成である。PIDは前述したとおりトランスポートストリームに多重化されているストリームを識別するためのIDである。
 transport_priorityは、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。
 adaptation_field_controlは、アダプテーションフィールドとTSペイロードの構成を制御するための情報である。アダプテーションフィールドとTSペイロードはどちらかだけが存在する場合と両方が存在する場合があり、adaptation_field_controlはその有無を示す情報である。
 adaptation_field_controlの値が「1」の場合は、TSペイロードのみが存在し、adaptation_field_controlの値が「2」の場合は、アダプテーションフィールドのみが存在し、adaptation_field_controlの値が「3」の場合は、TSペイロードとアダプテーションフィールドの両方が存在することを示す。
 アダプテーションフィールドは、PCR(Program Clock Reference)などの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロードにはPESパケットが分割されて格納される。
 トランスポートストリームに含まれるTSパケットの種別には、映像・音声・字幕などの各ストリームのパケット以外にもPAT(Program Association Table)、PMT、PCRなどのパケットがある。これらのパケットはPSI(Program Specific Information)と呼ばれる。
 PATはトランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは「0」である。
 図12はPMTのデータ構造を示す図である。
 PMTは、PMTヘッダ、トランスポートストリームに関する各種ディスクリプタ、及びトランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームに関するストリーム情報とを備える。
 PMTヘッダには、PMTに含まれるデータの長さなどの情報が記録される。
 トランスポートストリームに関するディスクリプタには、例えば、映像・音声などの各ストリームのコピーを許可・不許可を指示するコピーコントロール情報などが記録される。
 各ストリームに関するストリーム情報は、ストリームの圧縮符号化方式などを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(例えば、フレームレート、アスペクト比)が記載されたストリームディスクリプタを含む構成である。
 PCRは、TSパケットのデコーダへの到着時刻とPTS、DTSの時間軸であるSTC(System Time Clock)との同期を取るために、そのPCRパケットがデコーダに転送される時刻に対応するSTC時間の情報を持つ。
 ところで、MPEG-2形式、MPEG-4 MVC形式の符号化方式では、圧縮符号化されたフレームの領域のうち、実際に表示する領域を変更することができる。
 このため、MPEG-2形式のビデオストリームのピクチャをビュー間参照によって参照しながらMPEG-4 MVC形式のディペンデントビュービデオストリームのピクチャを復号する際には、同時刻のビューにおいてクロッピング範囲やスケーリングが同じ範囲やスケーリングを示す値になるように、属性情報を調整する必要がある。
 クロッピング領域情報とスケーリング情報について図8を参照しながら説明する。
 図8のように、圧縮符号化されたフレーム領域の中から実際に表示する領域を、クロッピング領域として指定することができる。例えば、MPEG-4 AVCの場合には、SPSに格納されるframe_cropping情報を使って指定する。frame_cropping情報は、図9の左方の図ように、クロッピンング領域の上線、下線、左線、右線と、圧縮符号化されたフレーム領域の上線、下線、左線、右線とのそれぞれの差分を、上下左右のクロップ量として指定する。具体的には、クロッピング領域を指定する場合には、frame_cropping_flagに「1」を設定し、frame_crop_top_offset、frame_crop_bottom_offset、frame_crop_left_offset、frame_crop_right_offsetにそれぞれ上、下、左、右のクロップ量を指定する。
 MPEG-2形式の場合には、図9の右図のように、クロッピング領域の縦横のサイズ(sequence_display_extensionのdisplay_horizontal_size, display_vertical_size)と、圧縮符号化されたフレーム領域の中心とクロッピング領域の中心との差分情報(picture_display_extensionのframe_centre_horizontal_offset、frame_centre_vertical_offset)を使ってクロッピング領域を指定する。 また、クロッピング領域を実際にテレビなどに表示する際のスケーリング方法を示すスケーリング情報としてアスペクト比が設定される。再生装置は、アスペクト比の情報を使って、クロッピング領域をアップコンバートして表示を行う。MPEG-4 AVCの場合には、このスケーリング情報として、SPSにアスペクト比の情報(aspect_ratio_idc)が格納される。例えば、1440x1080のクロッピング領域を、1920x1080に拡大して表示するためには、アスペクト比を4:3と指定する。この場合水平方向に4/3倍にアップコンバート(1440x4/3=1920)され、1920x1080のサイズに拡大されて表示される。
 MPEG-2形式の場合にも同様にsequence_headerというアスペクト比の情報(aspect_ratio_information)を格納する属性情報があり、この属性情報の値を適宜設定することによって上記と同様の処理が実現できる。
 <MPEG-4 MVC形式のビデオストリームのデータ構成>
 次に、MPEG-4 MVC形式のビデオストリームについて説明する。
 図15は、MPEG-4 MVC形式のビデオストリームの内部構成の一例を示す図である。
 同図において、ライトビュービデオストリームのピクチャは、レフトビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮符号化されている。ライトビュービデオストリームのピクチャP1、P2は、それぞれレフトビュービデオストリームのピクチャI1、P2を参照し、ライトビュービデオストリームのピクチャB3、B4、B6、B7はそれぞれ、レフトビュービデオストリームのピクチャBr3、Br4、Br6、Br7を参照しながら圧縮符号化されている。
 同図の第2段目は、レフトビュービデオストリームの内部構成を示す。このレフトビュービデオストリームには、ピクチャI1、P2、Br3、Br4、P5、Br6、Br7、P9が含まれている。これらのピクチャは、DTSに設定された時刻順に復号されたピクチャである。
 第1段目は、ディスプレイ等に表示される左目用画像を示す。左目用画像は、第2段目の復号されたピクチャI1、P2、Br3、Br4、P5、Br6、Br7、P9をPTSに設定された時刻順、すなわち、I1、Br3、Br4、P2、Br6、Br7、P5の順に表示される。
 第4段目は、ライトビュービデオストリームの内部構成を示す。このライトビュービデオストリームには、ピクチャP1、P2、B3、B4、P5、B6、B7、P8が含まれている。これらのピクチャは、DTSに設定された時刻順に復号されたピクチャである。
 第3段目は、ディスプレイ等に表示される右目用画像を示す。右目用画像は、第4段目の復号されたピクチャP1、P2、B3、B4、P5、B6、B7、P8をPTSに設定された時刻順、すなわち、P1、B3、B4、P2、B6、B7、P5の順に表示される。ただし、PTSに同じ値が付された左目用画像と右目用画像のうちどちらか一方の表示を、次のPTSの時間までの間隔の半分の時間分だけ遅延させて行う。
 第5段目は、3D眼鏡200の状態をどのように変化させるかを示す。この第5段目に示すように、左目用画像の視聴時は、右目のシャッターを閉じ、右目用画像の視聴時は、左目のシャッターを閉じる。
 次に、ベースビュービデオストリームとディペンデントビュービデオストリームのアクセスユニットの関係について説明する。
 図17はベースビュービデオストリームの各ピクチャとディペンデントビュービデオストリームの各ピクチャのビデオアクセスユニットの構成を示している。前述したとおり、図17上段のように、ベースビュービデオストリームは、各ピクチャが1つのビデオアクセスユニットとして構成される。
 図17下段のように、ディペンデントビュービデオストリームも同様に、各ピクチャが1つのビデオアクセスユニットを構成するが、ベースビュービデオストリームのビデオアクセスユニットとはデータ構造が異なる。
 ベースビュービデオストリームのビデオアクセスユニットと、PTSの値が同じディペンデントビュービデオストリームのビデオアクセスユニットとによって、3Dビデオアクセスユニット1701を構成する。再生装置は、この3Dビデオアクセスユニット単位で復号を行う。
 図18はビデオストリーム中におけるベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTSとDTSとの関係の例を示している。
 同時刻のビューを示す視差画像を格納するベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャとは、DTS及びPTSが同じ値を持つように設定される。
 このように構成することで、ベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャを復号する再生装置は、3Dビデオアクセスユニット単位で復号して表示を行うことができる。
 図19はベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示している。
 ベースビュービデオストリームのGOP構造は、従来のビデオストリームの構成と同じであり、複数のビデオアクセスユニットで構成される。
 また、ディペンデントビュービデオストリームは、複数のディペンデントGOPから構成される。
 ディペンデントGOPの先頭ピクチャは、3D映像を再生する際に、ベースビュービデオストリームのGOP先頭のIピクチャとペアで表示されるピクチャであり、ベースビュービデオストリームのGOP先頭のIピクチャのPTSと同じ値のPTSが付与されたピクチャである。
 図20は、ディペンデントGOPに含まれるビデオアクセスユニットのデータ構成を示す。
 図20に示すようにディペンデントGOP先頭のビデオアクセスユニットは、圧縮ピクチャデータとして、ベースビュービデオストリームのGOP先頭のIピクチャと同時刻に表示されるピクチャのデータが格納され、サブAU識別コード、サブシーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず格納される。補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードは適宜格納される。
 サブAU識別コードは、アクセスユニットの先頭を示す開始符号である。
 サブシーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダであり、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。サブシーケンスヘッダのフレームレート、解像度、アスペクト比の値は、対応するベースビュービデオストリームのGOP先頭のビデオアクセスユニットに含まれるシーケンスヘッダのフレームレート、解像度、アスペクト比と同じである。
 GOP先頭以外のビデオアクセスユニットは、サブAU識別コード、圧縮ピクチャデータが必ず格納される。補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードは適宜格納される。
 本発明に係る映像ストリームのデータ作成装置又は再生装置は、MPEG-2形式のビデオストリームに対応した既存の再生装置での再生を維持しながら、データ量を削減した3D映像に対応したストリームを作成又は再生できるので、3D映像の生成、再生する装置等に有用である。
 2601 データ作成装置
 2602 2D互換ビデオエンコーダ
 2603 2D互換ビデオデコーダ
 2604 拡張マルチビュービデオエンコーダ
 2605 ベースビュービデオエンコーダ
 2606 2D互換ビデオ符号化情報
 2607 ベースビュービデオ符号化情報
 2608 2D互換ビデオフレームメモリ
 2609 ディペンデントビュービデオエンコーダ
 2610 マルチプレクサ
 2801 PIDフィルタ
 2802 TB(1)
 2803 MB(1)
 2804 EB(1)
 2805 D1(2D互換ビデオ圧縮映像デコーダ)
 2806 O(Re-ordering Buffer)
 2807 スイッチ
 2808 第1プレーン
 2809 TB(2)
 2810 MB(2)
 2811 EB(2)
 2812 TB(3)
 2813 MB(3)
 2814 EB(3)
 2815 デコードスイッチ
 2816 Inter-view buffer
 2817 D2(マルチビュービデオ圧縮映像デコーダ)
 2818 DPB
 2819 出力プレーンスイッチ
 2820 第2プレーン
 2821 2D互換ビデオデコーダ
 2822 拡張マルチビュービデオデコーダ
 2823 再生装置
 2901 ビデオデコーダ
 2902 マルチビュービデオデコーダ

Claims (19)

  1.  第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置であって、
     前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化手段と、
     MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化手段と、
     前記第1、第2符号化手段により生成されたストリームを送出する送出手段と
    を備え、
    前記第2符号化手段は、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
    一方、前記ディペンデントビュービデオストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する
     ことを特徴とするデータ作成装置。
  2.  前記第2符号化手段は、
     前記疑似データからなるストリームを、同一のフレーム画像から構成されるフレーム画像群を圧縮符号化して生成する
     ことを特徴とする請求項1記載のデータ作成装置。
  3.  前記同一のフレーム画像は、単色画像のフレーム画像である
     ことを特徴とする請求項2記載のデータ作成装置。
  4.  前記第2符号化手段は、
     前記第1フレーム画像群を圧縮符号化して得られるストリームのビットレートより低いビットレートで、前記ベースビュービデオストリームを生成する
     ことを特徴とする請求項1記載のデータ作成装置。
  5.  前記第2符号化手段は、
    ディペンデントビュービデオストリームのフレームを構成するピクチャのPTS(Presentation Time Stamp)を、前記ベースビュービデオストリームの対応するフレームと同時刻のMPEG-2形式のストリームのフレームを構成するピクチャのPTSと同じ値にして圧縮符号化する
     ことを特徴とする請求項3記載のデータ作成装置。
  6.  前記第1符号化手段及び前記第2符号化手段は、
    前記第1フレーム画像群及び前記第2フレーム画像群の圧縮符号化を同一のアスペクト比で行い、生成する前記各ストリームに前記アスペクト比を示す属性情報を含める
     ことを特徴とする請求項5記載のデータ作成装置。
  7.  前記第2符号化手段は、
     ディペンデントビュービデオストリームのフレームを構成するピクチャのDTSに、前記ベースビュービデオストリームの対応するフレームと同時刻のMPEG-2形式のストリームのフレームを構成するピクチャのDTSの値よりNフレーム分(N≧1の整数値)後の時刻を示す値にして圧縮符号化する
    ことを特徴とする請求項5記載のデータ作成装置。
  8.  前記第2符号化手段は、
     ベースビュービデオストリーム及びディペンデントビュービデオストリームにおけるGOP(Group of Pictures)内のフレームの数が、
     前記フレームと同時刻のフレームを含む前記MPEG-2形式のストリームにおけるGOP内のフレームの数と同じ数にして圧縮符号化する
    ことを特徴とする請求項5記載のデータ作成装置。
  9.  前記第2符号化手段は、
    前記MPEG-2形式のストリームのフレームを構成するピクチャのピクチャタイプがIピクチャである場合には、前記MPEG-2形式のフレームを構成するピクチャと同時刻のベースビュービデオストリームのフレームを構成するピクチャをIピクチャとして圧縮符号化する
    ことを特徴とする請求項5記載のデータ作成装置。
  10.  請求項1記載のデータ作成装置で送出されたストリームを取得する取得手段と、
    前記取得手段により取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより前記第1フレーム画像群を得る第1復号手段と、
    前記取得手段により取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号手段により復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号手段と、
    前記第1、第2復号手段により得られた前記第1、第2フレーム画像群を再生する再生手段と
    を備える
     ことを特徴とする再生装置。
  11.   前記第2復号手段は、
     前記第1復号手段により復号されたフレームのうち、前記第2フレーム画像群のフレームを構成するピクチャのPTSと同じ値のPTSのピクチャで構成されるフレームを参照画像として、復号処理を行う
     ことを特徴とする請求項10記載の再生装置。
  12. 第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ符号化方法であって、
    前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化ステップと、
    MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化ステップと、
    前記第1、第2符号化ステップにより生成されたストリームを送出する送出ステップと
    を含み、
    前記第2符号化ステップは、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
    一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する
    ことを特徴とするデータ符号化方法。
  13. 第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置に圧縮符号化処理を実行させるためのプログラムであって、
    前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化ステップと、
    MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化ステップと、
    前記第1、第2符号化ステップにより生成されたストリームを送出する送出ステップと
    を含み、
    前記第2符号化ステップは、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
    一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する
    ことを特徴とするプログラム。
  14. 第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置に圧縮符号化処理を実行させるためのプログラムを記録した記録媒体であって、
    前記データ作成装置に、
    前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化ステップと、
    MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化ステップと、
    前記第1、第2符号化ステップにより生成されたストリームを送出する送出ステップと
    を実行させ、
    前記第2符号化ステップは、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
    一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する
    プログラムを記録した記録媒体。
  15. 第1視点における経時的なビューを示す第1フレーム画像群と、第2視点における経時的なビューを示す第2フレーム画像群とを圧縮符号化するデータ作成装置を構成する集積回路であって、
    前記第1フレーム画像群を圧縮符号化することによりMPEG-2形式のストリームを生成する第1符号化手段と、
    MPEG-4 MVC形式に準拠し、ベースビュービデオストリームとディペンデントビュービデオストリームとを生成する第2符号化手段と、
    前記第1、第2符号化手段により生成されたストリームを送出する送出手段と
    を備え、
    前記第2符号化手段は、前記ベースビュービデオストリームとして、前記第1フレーム画像群を圧縮符号化して得られるストリームとフレーム数が同一であって、総データ量を少なくした疑似データからなるストリームを生成し、
    一方、前記ディペンデントビューストリームとして、前記ベースビュービデオストリームの対応するフレームと同時刻の前記MPEG-2形式のストリームのフレームを参照画像として前記第2フレーム画像群を構成する各フレームを圧縮符号化したストリームを生成する
    ことを特徴とする集積回路。
  16. 請求項1記載のデータ作成装置で送出されたストリームを取得する取得ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより、前記第1フレーム画像群を得る第1復号ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号ステップにより復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号ステップと、
    前記第1、第2復号ステップにより得られた前記第1、第2フレーム画像群を再生する再生ステップと
    を含む
    ことを特徴とする再生方法。
  17. 請求項1記載のデータ作成装置で送出されたストリームの再生処理を再生装置に実行させるためのプログラムであって、
    前記再生装置に、
    前記送出されたストリームを取得する取得ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより、前記第1フレーム画像群を得る第1復号ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号ステップにより復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号ステップと、
    前記第1、第2復号ステップにより得られた前記第1、第2フレーム画像群を再生する再生ステップと
    を実行させる
    ことを特徴とするプログラム。
  18. 請求項1記載のデータ作成装置で送出されたストリームの再生処理を再生装置に実行させるためのプログラムを記録した記録媒体であって、
    前記再生装置に、
    前記送出されたストリームを取得する取得ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより、前記第1フレーム画像群を得る第1復号ステップと、
    前記取得ステップにより取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号ステップにより復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号ステップと、
    前記第1、第2復号ステップにより得られた前記第1、第2フレーム画像群を再生する再生ステップと
    を実行させるプログラムを記録した記録媒体。
  19. 請求項1記載のデータ作成装置で送出されたストリームを再生する再生装置を構成する集積回路であって、
    前記送出されたストリームを取得する取得手段と、
    前記取得手段により取得された前記ストリームに含まれるMPEG-2形式のストリームを復号することにより前記第1フレーム画像群を得る第1復号手段と、
    前記取得手段により取得された前記ストリームに含まれるベースビュービデオストリームを復号し、かつ、前記ベースビュービデオストリームの対応するフレームと同時刻の前記第1復号手段により復号されたフレームを参照画像として、前記ストリームに含まれるディペンデントビュービデオストリームを復号することにより、前記第2フレーム画像群を得る第2復号手段と、
    前記第1、第2復号手段により得られた前記第1、第2フレーム画像群を再生する再生手段と
    を備える
    ことを特徴とする集積回路。
PCT/JP2012/000899 2011-02-10 2012-02-10 ビデオストリームの映像のデータ作成装置及び再生装置 WO2012108210A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
MX2013008310A MX2013008310A (es) 2011-02-10 2012-02-10 Dispositivo de creacion de datos y dispositivo de reproduccion para imagen de video en flujo de video.
CA2823289A CA2823289A1 (en) 2011-02-10 2012-02-10 Data creation device and playback device for video picture in video stream
BR112013020175A BR112013020175A2 (pt) 2011-02-10 2012-02-10 dispositivo de criações de dados e dispositivo de reprodução para imagem de vídeo em fluxo de vídeo
US13/983,657 US9025941B2 (en) 2011-02-10 2012-02-10 Data creation device and playback device for video picture in video stream
JP2012556803A JP6008292B2 (ja) 2011-02-10 2012-02-10 ビデオストリームの映像のデータ作成装置及び再生装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161441383P 2011-02-10 2011-02-10
US61/441,383 2011-02-10

Publications (1)

Publication Number Publication Date
WO2012108210A1 true WO2012108210A1 (ja) 2012-08-16

Family

ID=46638430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000899 WO2012108210A1 (ja) 2011-02-10 2012-02-10 ビデオストリームの映像のデータ作成装置及び再生装置

Country Status (7)

Country Link
US (1) US9025941B2 (ja)
JP (1) JP6008292B2 (ja)
BR (1) BR112013020175A2 (ja)
CA (1) CA2823289A1 (ja)
MX (1) MX2013008310A (ja)
TW (1) TW201242373A (ja)
WO (1) WO2012108210A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI596933B (zh) * 2013-03-13 2017-08-21 蘋果公司 用於快速切換的編碼解碼器技術

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101803970B1 (ko) * 2011-03-16 2017-12-28 삼성전자주식회사 컨텐트를 구성하는 장치 및 방법
CN107534790B (zh) * 2015-05-19 2020-06-23 索尼公司 图像处理装置、图像处理方法、接收装置及发送装置
US12212751B1 (en) 2017-05-09 2025-01-28 Cinova Media Video quality improvements system and method for virtual reality
US10944971B1 (en) * 2017-05-22 2021-03-09 Cinova Media Method and apparatus for frame accurate field of view switching for virtual reality
US10594758B2 (en) * 2017-12-15 2020-03-17 Cisco Technology, Inc. Latency reduction by sending audio and metadata ahead of time

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040455A (ja) * 2002-07-03 2004-02-05 Nippon Television Network Corp 伝送再生方法、伝送方法、及びそのシステム
JP2008500790A (ja) * 2004-05-21 2008-01-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 3次元立体ビデオ付加データを用いた3次元立体デジタル放送の送/受信装置及びその方法
WO2010067810A1 (ja) * 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7133449B2 (en) * 2000-09-18 2006-11-07 Broadcom Corporation Apparatus and method for conserving memory in a fine granularity scalability coding system
KR100392384B1 (ko) * 2001-01-13 2003-07-22 한국전자통신연구원 엠펙-2 데이터에 엠펙-4 데이터를 동기화시켜 전송하는장치 및 그 방법
JP2006237656A (ja) * 2003-02-28 2006-09-07 Secom Co Ltd 符号化信号分離・合成装置、差分符号化信号生成装置、差分符号化信号抽出装置、符号化信号分離・合成方法、符号化信号分離・合成プログラム
KR101366092B1 (ko) * 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
JP2010245970A (ja) * 2009-04-08 2010-10-28 Sony Corp 再生装置、再生方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040455A (ja) * 2002-07-03 2004-02-05 Nippon Television Network Corp 伝送再生方法、伝送方法、及びそのシステム
JP2008500790A (ja) * 2004-05-21 2008-01-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 3次元立体ビデオ付加データを用いた3次元立体デジタル放送の送/受信装置及びその方法
WO2010067810A1 (ja) * 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI596933B (zh) * 2013-03-13 2017-08-21 蘋果公司 用於快速切換的編碼解碼器技術

Also Published As

Publication number Publication date
MX2013008310A (es) 2013-09-06
US20130315573A1 (en) 2013-11-28
JP6008292B2 (ja) 2016-10-19
CA2823289A1 (en) 2012-08-16
BR112013020175A2 (pt) 2016-11-08
JPWO2012108210A1 (ja) 2014-07-03
US9025941B2 (en) 2015-05-05
TW201242373A (en) 2012-10-16

Similar Documents

Publication Publication Date Title
WO2012111325A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
JP5906462B2 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
JP6229962B2 (ja) 符号化装置及び符号化方法
JP5336666B2 (ja) 符号化方法、表示装置、復号方法
US9357200B2 (en) Video processing device and video processing method
JP6008292B2 (ja) ビデオストリームの映像のデータ作成装置及び再生装置
WO2013099290A1 (ja) 映像再生装置、映像再生方法、映像再生プログラム、映像送信装置、映像送信方法及び映像送信プログラム
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
US20140078256A1 (en) Playback device, transmission device, playback method and transmission method
JP2011211605A (ja) 画像再生装置、画像再生方法及び画像再生用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12744696

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2823289

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: MX/A/2013/008310

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 2012556803

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13983657

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013020175

Country of ref document: BR

122 Ep: pct application non-entry in european phase

Ref document number: 12744696

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 112013020175

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130807