WO2012169204A1 - 送信装置、受信装置、送信方法及び受信方法 - Google Patents

送信装置、受信装置、送信方法及び受信方法 Download PDF

Info

Publication number
WO2012169204A1
WO2012169204A1 PCT/JP2012/003750 JP2012003750W WO2012169204A1 WO 2012169204 A1 WO2012169204 A1 WO 2012169204A1 JP 2012003750 W JP2012003750 W JP 2012003750W WO 2012169204 A1 WO2012169204 A1 WO 2012169204A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
encoding
encoded
stream
video
Prior art date
Application number
PCT/JP2012/003750
Other languages
English (en)
French (fr)
Inventor
智輝 小川
洋 矢羽田
泰治 佐々木
西 孝啓
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2012169204A1 publication Critical patent/WO2012169204A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Definitions

  • the present invention relates to a technique for encoding and decoding an image included in a multi-stream.
  • MVC Multi View Coding
  • MPEG-4 AVC Motion Picture Experts Group-4 Advanced Video Coding
  • FIG. 49 is a diagram for explaining an encoding system based on MPEG-4 MVC.
  • MPEG-4 MVC a “basic view (base view) video stream” that is compatible with playback from conventional devices and an “expanded view (video)” that enables playback of video from a different viewpoint by processing simultaneously with the basic view.
  • Pentent view) video stream a “basic view (base view) video stream” that is compatible with playback from conventional devices and an “expanded view (video)” that enables playback of video from a different viewpoint by processing simultaneously with the basic view.
  • Pentent view) video stream ”.
  • the basic view video stream is compressed using inter-picture predictive coding using only temporal redundancy.
  • the extended view video stream is compressed by inter-picture predictive encoding using inter-viewpoint redundancy in addition to inter-picture predictive encoding using temporal temporal redundancy.
  • the pictures of the extended view video stream are compressed with reference to the pictures at the same display time of the basic view video stream.
  • the first P0 picture of the extended view video stream refers to the I0 picture of the basic view video stream
  • the B1 picture of the extended view video stream refers to the Br1 picture of the basic view video stream
  • two of the extended view video streams refers to the P3 picture of the basic view video stream.
  • inter-view reference referring to pictures of different views is hereinafter referred to as “inter-view reference”, and referring to pictures of the same view is referred to as “in-view reference”.
  • the extended view video stream since the basic view video stream does not refer to the extended view video stream, it can be played back only with the basic view video stream.
  • the extended view video stream since the extended view video stream refers to the basic view video stream, it cannot be played back only with the extended view video stream.
  • the extended view video stream can significantly reduce the amount of data compared to the basic view video stream, and perform efficient coding. (See Patent Document 1).
  • 3D video distribution is also starting to be performed on broadcast waves. Therefore, as described above, high compression can be realized by using the MPEG-4 MVC encoding method.
  • 3D playback is not supported, but on devices that support MPEG-4 AVC 2D video playback, the basic view is compatible with MPEG-4 AVC, so only the basic view is played back as 2D video. Is possible.
  • the MPEG-2 video stream is used as one viewpoint video, and when the extended view video stream is referred between views, the picture of the MPEG-2 video stream is referred to. Therefore, it is considered to make the video from another viewpoint.
  • the basic view video stream can be a screen that is unrelated to the video, such as a black screen, and the utilization rate of the broadcast wave band can be suppressed, and 2D video playback and 3D video playback are possible. Is possible.
  • the obtained image may be different from the image before encoding, and may be an unintended image on the broadcast side. Then, when an image from another viewpoint is generated using the unintended image, there is a problem in that 3D video results in unintended 3D display on the broadcast side.
  • the present invention provides a transmission device, a reception device, and a transmission method capable of generating an image intended on the broadcast side even when other related images using 2D images are encoded and decoded. And it aims at providing a receiving method.
  • the present invention is a transmitting apparatus that encodes and transmits an image sequence for one program, and does not cause an error with an image before encoding when generating a reference image.
  • First encoding means for encoding each 2D image included in the image sequence by a first encoding method using discrete cosine transform, an image related to each of the 2D images, and a corresponding 2D image as a reference image
  • Second encoding means for encoding with the second encoding method, and multiplexing means for multiplexing each image encoded by each of the first encoding means and the second encoding means as a transport stream
  • the transmission means for transmitting the transport stream, and the 2D image is MPEG-2 Video (Moving Picture Experts Group-2 Video) is encoded and decoded, and an image related to the 2D image is generated by generating a base-view video stream and a dependent-view video stream with reference to the base-view video stream.
  • MPEG-2 Video Moving Picture Experts Group-2 Video
  • the second encoding means encodes and decodes an image included in the dependent-view video stream, and is included in the dependent-view video stream. Instead of referring to an image included in a stream, a corresponding 2D image is referred to in the 2D image sequence.
  • the transmission apparatus refers to the picture of the MPEG-2 video stream encoded by the first encoding method, and encodes the picture in the MPEG-4 MVC dependent-view video stream. Therefore, the receiving side device refers to the picture of the MPEG-2 video stream and decodes the picture of the MPEG-4 MVC dependent view video stream so that the image intended by the broadcast side, that is, before encoding, An image without error can be obtained, and stereoscopic viewing intended by the broadcasting side can be obtained even in 3D playback.
  • FIG. 3 is a diagram for explaining usage of the playback devices 10 and 11. It is a figure which shows the structure of the digital stream of a transport stream format. It is a figure explaining the structure of a video stream. It is a figure explaining the internal structure of the access unit of a video stream. It is a figure explaining cropping area information and scaling information. It is a figure explaining the specific designation
  • PMT It is a figure explaining the data structure of PMT. It is a figure which shows an example of the display of a stereoscopic vision image. It is a figure explaining a Side-by-Side system. It is a figure explaining the stereoscopic vision system by a multi view encoding system. It is a figure explaining the structure of the video access unit of each picture of a base view video stream, and each picture of a right-eye image
  • FIG. 3 is a block diagram illustrating a configuration of a transmission device 2701.
  • FIG. 3 is a block diagram showing a configuration of a 2D compatible video encoder 2702.
  • FIG. 3 is a block diagram illustrating a configuration of a transmission device 3701.
  • FIG. 3 is a block diagram illustrating a configuration of a transmission device 3701.
  • FIG. 33 is a block diagram illustrating a configuration of a playback device 3801.
  • FIG. 38 is a block diagram illustrating a modified example of the playback device 3801.
  • 3 is a block diagram illustrating a configuration of a transmission device 4001.
  • FIG. 25 is a block diagram showing a configuration of a playback apparatus 4101.
  • FIG. 20 is a block diagram showing a configuration of a transmission apparatus 4201.
  • 24 is a block diagram showing a configuration of a playback device 4301.
  • FIG. 21 is a flowchart showing the operation of the playback device 4301.
  • 3 is a block diagram illustrating a configuration of a transmission device 4501.
  • FIG. 38 is a block diagram illustrating a configuration of a playback device 4601.
  • FIG. 38 is a block diagram illustrating a configuration of a transmission device 4901.
  • FIG. 25 is a block diagram showing the structure of a playback device 5001. It is a figure explaining the encoding system by a multi view video codec (
  • the MPEG-2 standard stipulates that the inverse discrete cosine transform used when generating a reference image may cause an error when encoding and decoding an MPEG-2 video stream. is there.
  • the image before encoding and the image decoded by the inverse discrete cosine transform in which an error occurs do not completely match. Therefore, in the encoding and decoding of the extended view video stream image that refers to the image of the MPEG-2 video stream, there is a possibility that an image unintended by the broadcast side on the receiving device side may be obtained. This is because a difference between a reference image (an image in which an error has occurred) and an image to be encoded in order to refer to an image in which an error has occurred is an original difference (an image in which no error has occurred and an image to be encoded) This is because they are different from each other. In this case, the inventors have found that an image unintended by the broadcast side is used for 3D reproduction, and a problem arises that a stereoscopic image unintended by the broadcast side is obtained in 3D reproduction.
  • the transmission apparatus that encodes and transmits an image sequence of one program, which is an aspect of the present invention, uses inverse discrete cosine transform that does not cause an error from the image before encoding when generating a reference image.
  • First encoding means for encoding each 2D image included in the image sequence by the first encoding method, and second encoding using an image related to each of the 2D images as a reference image
  • Second encoding means for encoding in a system, multiplexing means for multiplexing each image encoded by each of the first encoding means and the second encoding means as a transport stream, and the transport stream
  • the 2D image is in MPEG-2 Video (Moving Picture Experts Group-2 Video) system.
  • the image related to the 2D image is encoded and decoded, and is encoded with an encoding method that generates a base-view video stream and a dependent-view video stream with reference to the base-view video stream.
  • the second encoding means is included in the base-view video stream when encoding the image included in the dependent-view video stream.
  • a corresponding 2D image is referred to in the 2D image sequence.
  • Embodiment 1 Embodiment 1 of the present invention will be described below with reference to the drawings.
  • the right eye and the left eye have a slight difference in appearance between the image seen from the right eye and the image seen from the left eye due to the difference in position. Using this difference, a human can recognize a visible image as a solid.
  • a planar image is made to look like a three-dimensional image using human parallax.
  • the time-separation method is a method in which left-eye video and right-eye video are alternately displayed in the time axis direction, and left and right scenes are superimposed in the brain by an afterimage reaction of the eyes to be recognized as a stereoscopic video.
  • FIG. 1 schematically shows an example of generating parallax images of a left-eye video and a right-eye video from a 2D video and a depth map.
  • the depth map has a depth value corresponding to each pixel in the 2D video image.
  • the circular object of the 2D video image is assigned information indicating that the depth map has a high depth.
  • the area is assigned information indicating that the depth is low.
  • This information may be stored as a bit string for each pixel, or may be stored as an image (for example, “black” indicates that the depth is low and “white” indicates that the depth is high).
  • the parallax image can be created by adjusting the parallax amount of the 2D video from the depth value of the depth map. In the example of FIG. 1, since the depth value of a circular object in 2D video is high, when creating a parallax image, the amount of parallax of the pixels of the circular object is increased, and the depth value is low in regions other than the circular object.
  • the left-eye image and the right-eye image are created by reducing the amount of parallax of the pixels of the circular object. If the left-eye image and the right-eye image are displayed using a time separation method or the like, stereoscopic viewing is possible.
  • the playback device in this embodiment is a device that decodes 2D video or 3D video and transfers the video to a display.
  • a digital television will be described as an example.
  • the digital television includes a 3D digital television (playback device) 10 capable of viewing 3D video and a 2D digital television (playback device) 11 capable of playing only 2D video that does not support playback of 3D video. .
  • FIG. 2A is a diagram showing a form of usage of the playback device. As shown in the figure, the 3D digital television 10 and the 3D glasses 20 are configured and can be used by the user.
  • the playback device 10 can display 2D video and 3D video, and displays video by playing back a stream included in the received broadcast wave.
  • the playback device 10 of the present embodiment realizes stereoscopic viewing by wearing 3D glasses 20 by a user.
  • the 3D glasses 20 include a liquid crystal shutter, and allow a user to view a parallax image by the continuous separation method.
  • the parallax image is a set of videos composed of a video that enters the right eye and a video that enters the left eye, and performs stereoscopic viewing so that only pictures corresponding to each eye enter the user's eyes.
  • FIG. 2B shows the display time of the left-eye video.
  • the 3D glasses 20 described above transmit the liquid crystal shutter corresponding to the left eye and shield the liquid crystal shutter corresponding to the right eye.
  • FIG. 4C shows the time when the right-eye video is displayed.
  • the liquid crystal shutter corresponding to the right eye is made transparent, and the liquid crystal shutter corresponding to the left eye is shielded from light.
  • the left and right pictures are alternately output in the time axis direction in the previous time separation method, but one screen is displayed.
  • the left-eye picture and right-eye picture are alternately arranged in the vertical direction at the same time, and the pixels constituting the left-eye picture are focused on the left eye through the upper lens called the lenticular lens on the display surface.
  • a device having a similar function for example, a liquid crystal element may be used.
  • the left eye pixel has a vertically polarized filter
  • the right eye pixel has a horizontally polarized filter
  • the viewer has polarized glasses with a vertically polarized filter for the left eye and a horizontally polarized filter for the right eye.
  • the 2D digital television 11 cannot realize stereoscopic vision, unlike playback device 10, as shown in FIG.
  • the 2D digital television 11 can display only 2D video, and can reproduce a stream included in the received broadcast wave only as 2D video.
  • MPEG-2 transport stream format Digital stream in MPEG-2 transport stream format is used for transmission on digital television broadcast waves.
  • the MPEG-2 transport stream is a standard for multiplexing and transmitting various streams such as video and audio. It is standardized in ISO / IEC13818-1 and ITU-T recommendation H222.0.
  • FIG. 3 is a diagram showing the structure of a digital stream in the MPEG-2 transport stream format.
  • a transport stream is obtained by multiplexing a video stream, an audio stream, a subtitle stream, and the like.
  • the video stream stores the main video of the program
  • the audio stream stores the main audio portion and sub-audio of the program
  • the subtitle stream stores the subtitle information of the program.
  • the video stream is encoded and recorded using a method such as MPEG-2, MPEG-4 AVC.
  • the audio stream is compressed and encoded and recorded by a method such as Dolby AC-3, MPEG-2 AAC, MPEG-4 AAC, HE-AAC.
  • moving image compression coding such as MPEG-2, MPEG-4 AVC, SMPTE VC-1, etc.
  • data amount is compressed using redundancy in the spatial direction and temporal direction of moving images.
  • inter-picture predictive coding is used as a method of using temporal redundancy.
  • inter-picture predictive coding when a certain picture is coded, a picture that is forward or backward in display time order is used as a reference picture. Then, the amount of motion from the reference picture is detected, and the amount of data is compressed by removing the redundancy in the spatial direction from the difference value between the motion compensated picture and the picture to be coded.
  • a picture that does not have a reference picture and performs intra-picture predictive coding using only a picture to be coded is called an I picture.
  • a picture is a unit of encoding that includes both a frame and a field.
  • a picture that is inter-picture prediction encoded with reference to one already processed picture is called a P picture
  • a picture that is inter-picture predictively encoded with reference to two already processed pictures at the same time is called a B picture.
  • a picture that is referred to by other pictures in the B picture is called a Br picture.
  • a field having a frame structure and a field having a field structure are referred to as a video access unit here.
  • the video stream has a hierarchical structure as shown in FIG.
  • the video stream is composed of a plurality of GOPs (Group of Pictures). By using this as a basic unit of the encoding process, editing of moving images and random access are possible.
  • a GOP is composed of one or more video access units.
  • the video access unit is a unit for storing coded data of a picture, and stores data of one frame in the case of a frame structure and one field in the case of a field structure.
  • Each video access unit includes an AU identification code 41, a sequence header 42, a picture header 43, supplementary data 44, compressed picture data 45, padding data 46, a sequence end code 47, a stream end code 48, and the like.
  • each data is stored in units called NAL units.
  • the AU identification code 41 is a start code indicating the head of the access unit.
  • the sequence header 42 is a header that stores common information in a playback sequence composed of a plurality of video access units, and stores information such as resolution, frame rate, aspect ratio, and bit rate.
  • the picture header 43 is a header that stores information such as a coding scheme of the entire picture.
  • the supplemental data 44 is additional information that is not essential for decoding the compressed data, and stores, for example, closed caption character information and GOP structure information displayed on the TV in synchronization with the video.
  • the compressed picture data 45 stores compression-encoded picture data.
  • the padding data 46 stores meaningless data for adjusting the format. For example, it is used as stuffing data for maintaining a predetermined bit rate.
  • the sequence end code 47 is data indicating the end of the reproduction sequence.
  • the stream end code 48 is data indicating the end of the bit stream.
  • the contents of the AU identification code 41, sequence header 42, picture header 43, supplemental data 44, compressed picture data 45, padding data 46, sequence end code 47, and stream end code 48 differ depending on the video encoding method.
  • the AU identification code 41 is an AU delimiter (Access Unit Delimiter)
  • the sequence header 42 is SPS (Sequence Parameter Set)
  • the picture header 43 is PPS (Picture Parameter Set)
  • the compressed picture data 45 corresponds to a plurality of slices
  • the supplemental data 44 corresponds to SEI (Supplemental Enhancement Information)
  • the padding data 46 corresponds to FillerData
  • the sequence end code 47 corresponds to End of Sequence
  • the stream end code 48 corresponds to End of Stream.
  • the sequence header 42 is sequence_Header, sequence_extension, group_of_picture_header, the picture header 43 is picture_header, picture_coding_extension, the compressed picture data 45 is a plurality of slices, and the supplemental data 44 is a sequence_adder data 44.
  • sequence_end_code corresponds to sequence_end_code.
  • the AU identification code 41 does not exist, but it is possible to determine the break of the access unit by using the start code of each header.
  • sequence header 42 may be necessary only in the video access unit at the head of the GOP and may not be present in other video access units.
  • the picture header 43 may refer to that of the previous video access unit in the code order, and there may be no picture header in its own video access unit.
  • the video access unit at the head of the GOP stores I picture data as compressed picture data 45, and an AU identification code 41, a sequence header 42, a picture header 43, and compressed picture data 45 are stored. It is always stored, and supplementary data 44, padding data 46, sequence end code 47, and stream end code 48 may be stored.
  • a video access unit other than the head of the GOP always stores an AU identification code 41 and compressed picture data 45, a picture header 43, supplementary data 44, padding data 46, a sequence end code 47, a stream.
  • a termination code 48 may be stored.
  • sequence end code 47 or the stream end code 48 described above need not be stored other than the end of the sequence or the end of the stream.
  • the encoded frame area and the actual display area can be changed.
  • a region F11 that is actually displayed from the encoded frame region (outer frame) can be designated as a “cropping region”.
  • the frame_cropping information indicates the difference between the upper line / underline / left line / right line of the cropping area F11 and the upper line / underline / left line / right line of the encoded frame area F10. Specified as crop amount for top, bottom, left and right.
  • frame_cropping_flag is set to 1, and frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset_ / line_crop_h
  • the vertical and horizontal sizes of the cropping area F11 (display_horizontal_size of sequence_display_extension, display_vertical_size), the center of the encoded frame area F10, and the center of the cropping area F10 and the cropping area F11
  • the cropping area F11 can be specified using the difference information (frame_center_horizontal_offset, frame_center_vertical_offset of picture_display_extension).
  • scaling information indicating a scaling method when the cropping region F11 is actually displayed on a television or the like. This is set as an aspect ratio, for example.
  • the playback apparatus up-converts the cropping area F11 and performs display.
  • aspect ratio information (aspect_ratio_idc) is stored in the SPS as scaling information.
  • an aspect ratio of 4: 3 is designated.
  • aspect ratio information (aspect_ratio_information) is stored in the sequence_header.
  • Each stream included in the transport stream is identified by a stream identification ID called PID.
  • PID stream identification ID
  • the composite apparatus can extract the target stream.
  • the correspondence between the PID and the stream is stored in a descriptor of a PMT (Program Map Table) packet described below.
  • FIG. 3 schematically shows how the transport stream 30 is multiplexed.
  • a video stream 31 composed of a plurality of video frames and an audio stream 34 composed of a plurality of audio frames are converted into PES (Packetized Elementary Stream) packet sequences 32 and 35, respectively, and converted into TS (Transport Stream) packets 33 and 36, respectively.
  • PES Packetized Elementary Stream
  • TS Transport Stream
  • the data of the subtitle stream 37 is converted into a PES packet sequence 38 and further converted into a TS packet 39.
  • the MPEG-2 transport stream 30 is configured by multiplexing these TS packets into one stream.
  • FIG. 8 shows in more detail how the video stream is stored in the PES packet sequence 81.
  • the first level in the figure shows a video frame sequence 80 of the video stream.
  • the second level shows the PES packet sequence 81.
  • a plurality of Video Presentation Units in the video stream, I picture, B picture, and P picture are divided for each picture and stored in the payload of the PES packet .
  • Each PES packet has a PES header, and a PTS (Presentation Time-Stamp) that is a display time of a picture and a DTS (Decoding Time-Stamp) that is a decoding time of a picture are stored in the PES header.
  • PTS Presentation Time-Stamp
  • DTS Decoding Time-Stamp
  • FIG. 9 shows the data structure of TS packets 90 constituting the transport stream.
  • the TS packet 90 is a 188-byte fixed-length packet composed of a 4-byte TS header 91 and a data storage unit 92. Further, the data storage unit 92 includes an adaptation field 93 and a TS payload 94.
  • the TS header 91 includes transport_priority 95, PID 96, adaptation_field_control 97, and the like.
  • PID 96 is an ID for identifying the stream multiplexed in the transport stream as described above.
  • the transport_priority 95 is information for identifying the type of packet in TS packets having the same PID.
  • Adaptation_field_control 97 is information for controlling the configuration of the adaptation field 93 and the TS payload 94.
  • adaptation_field_control 97 indicates the presence / absence thereof.
  • adaptation_field_control 97 is 1, only TS payload 94 is present.
  • adaptation_field_control 97 is 2, only adaptation field 93 is present.
  • adaptation_field_control 97 is 3, both TS payload 94 and adaptation field 93 are adapted. Indicates that it exists.
  • the adaptation field 93 is a storage area for storing data such as PCR and stuffing data for making the TS packet 90 a fixed length of 188 bytes.
  • the PES packet is divided and stored.
  • TS packets included in the transport stream include PAT (Program Association Table), PMT (Program Map Table), PCR (Program Clock Reference), and the like in addition to video, audio, and subtitle streams. These packets are called PSI (Program Specific Information).
  • PAT indicates what the PID of the PMT used in the transport stream is, and the PID of the PAT itself is registered as 0.
  • the PMT has PID of each stream such as video / audio / subtitles included in the transport stream and stream attribute information corresponding to each PID, and has various descriptors related to the transport stream.
  • the descriptor includes copy control information for instructing permission / non-permission of copying of the AV stream.
  • the PCR is information on the STC time corresponding to the timing at which the PCR packet is transferred to the decoder.
  • FIG. 10 is a diagram for explaining the data structure of the PMT in detail.
  • a PMT header 101 describing the length of data included in the PMT is arranged at the top of the PMT 100.
  • a plurality of descriptors 102,..., 103 relating to the transport stream are arranged behind the transport stream.
  • the copy control information described above is described as a descriptor.
  • a plurality of pieces of stream information 104,..., 105 relating to each stream included in the transport stream are arranged after the descriptor.
  • Each stream information includes a stream type 106 for identifying a compression codec of the stream, a stream PID 107, and stream descriptors 108,..., 109 in which stream attribute information (frame rate, aspect ratio, etc.) is described.
  • FIG. 11 shows the user's face on the left side, and the right side shows an example when the dinosaur skeleton as the object is viewed from the left eye and an example when the dinosaur skeleton as the object is viewed from the right eye. ing. If the right eye and the left eye are repeatedly transmitted and blocked, the left and right scenes are overlapped by the afterimage reaction of the eyes in the user's brain, and it can be recognized that there is a stereoscopic image on the extended line in the center of the face. .
  • an image entering the left eye is referred to as a left eye image (L image), and an image entering the right eye is referred to as a right eye image (R image).
  • L image left eye image
  • R image right eye image
  • a moving image in which each picture is an L image is referred to as a left view video
  • a moving image in which each picture is an R image is referred to as a right view video.
  • the 3D video format that synthesizes the left-view video and the right-view video and compresses and encodes them includes a frame compatible format and a multi-view encoding format.
  • the first frame compatible method is a method of performing normal moving image compression coding by thinning out or reducing the corresponding pictures of the left-view video and right-view video and combining them into one picture.
  • each picture corresponding to the left-view video and the right-view video is compressed in half in the horizontal direction, and then combined into one picture by arranging them side by side.
  • a moving image based on the combined picture is streamed by performing normal moving image compression encoding.
  • the stream is decoded into a moving image based on a normal moving image compression encoding method.
  • Each picture of the decoded moving image is divided into left and right images, and each picture corresponding to left-view video and right-view video is obtained by extending the picture in the horizontal direction twice.
  • the obtained left-view video picture (L image) and right-view video picture (R image) are alternately displayed to obtain a stereoscopic image as shown in FIG.
  • the above-described MPEG-4 MVC is an example of the multi-view encoding method.
  • the multi-view encoding method is a video stream obtained by digitizing left-view video and right-view video and compressing and encoding them.
  • FIG. 13 is a diagram illustrating an example of an internal configuration of a left-view video stream and a right-view video stream for stereoscopic viewing using a multi-view encoding method.
  • the second row in the figure shows the internal structure of the left-view video stream.
  • This stream includes picture data of picture data I1, P2, Br3, Br4, P5, Br6, Br7, and P9. These picture data are decoded according to Decode Time Stamp (DTS).
  • DTS Decode Time Stamp
  • the first row shows a left eye image.
  • the decoded picture data I1, P2, Br3, Br4, P5, Br6, Br7, and P9 are reproduced in the order of I1, Br3, Br4, P2, Br6, Br7, and P5 in accordance with the PTS, so that the left-eye image Will be played.
  • a picture that does not have a reference picture and performs intra-picture predictive coding using only a picture to be coded is called an I picture.
  • a picture is a unit of encoding that includes both a frame and a field. Also, a picture that is inter-picture prediction encoded with reference to one already processed picture is referred to as a P picture, and a picture that is inter-picture predictively encoded while simultaneously referring to two already processed pictures is referred to as a B picture. In the B picture, pictures that are referenced from other pictures are called Br pictures.
  • the fourth row shows the internal structure of the left-view video stream.
  • This left-view video stream includes picture data P1, P2, B3, B4, P5, B6, B7, and P8. These picture data are decoded according to DTS.
  • the third row shows a right eye image. The right-eye image is reproduced by reproducing the decoded picture data P1, P2, B3, B4, P5, B6, B7, and P8 in the order of P1, B3, B4, P2, B6, B7, and P5 according to the PTS. Will be played.
  • the display of one of the pair of the left-eye image and the right-eye image with the same PTS is displayed for half the time of the PTS interval (hereinafter referred to as “3D display delay”). Just display with a delay.
  • the fifth row shows how the state of the 3D glasses 20 is changed. As shown in the fifth row, the right-eye shutter is closed when the left-eye image is viewed, and the left-eye shutter is closed when the right-eye image is viewed.
  • left-view video stream and right-view video stream are compressed by inter-view prediction encoding using correlation characteristics between viewpoints in addition to inter-picture prediction encoding using temporal correlation characteristics.
  • Pictures in the right-view video stream are compressed with reference to pictures at the same display time in the left-view video stream.
  • the first P picture of the right-view video stream refers to the I picture of the left-view video stream
  • the B picture of the right-view video stream refers to the Br picture of the left-view video stream
  • two of the right-view video streams The P picture of the eye refers to the P picture of the left view video stream.
  • the compression-encoded left-view video stream and right-view video stream that can be decoded independently are called “base-view video streams”.
  • the base-view video stream has the same configuration as the video stream described in FIG.
  • the left-view video stream and the right-view video stream are compression-encoded based on the inter-frame correlation characteristics with the individual picture data constituting the base-view video stream, and the base-view video stream is decoded.
  • a video stream that is decoded and can be decoded is called a “dependent view video stream”.
  • the base-view video stream and the dependent-view video stream are collectively referred to as a “multi-view video stream”. Note that the base-view video stream and the dependent-view video stream may be stored and transmitted as separate streams, or may be multiplexed into the same stream such as MPEG2-TS.
  • FIG. 14 shows the configuration of video access units for each picture of the base-view video stream and each picture of the right-eye video video stream.
  • each picture is configured as one video access unit in the base-view video stream as shown in the upper part of FIG.
  • each picture in the dependent-view video stream also constitutes one video access unit, but the data structure is different from the video access unit of the base-view video stream. Further, as shown in the lower part of FIG.
  • the video access unit of the base-view video stream constitutes a 3D video access unit 1701 by the video access unit of the dependent-view video stream corresponding to the display time, and the video decoder described later is Then, decoding and display are performed in units of the 3D video access unit.
  • each picture in one view here, a video access unit
  • a group of pictures at the same time in a multiview here.
  • FIG. 15 shows an example of the relationship between the display time (PTS) and the decode time (DTS) assigned to each video access unit of the base-view video stream and the dependent-view video stream in the AV stream.
  • the base-view video stream picture and the dependent-view video stream picture storing the parallax images at the same time are set to have the same DTS / PTS.
  • This can be realized by setting the decoding / display order of the base view picture and the dependent view picture that are in the reference relationship of the inter-picture prediction coding to the same.
  • the video decoder that decodes the pictures of the base-view video stream and the dependent-view video stream can perform decoding and display in units of 3D video access units.
  • FIG. 16 shows the GOP configuration of the base view video stream and the dependent view video stream.
  • the GOP structure of the base-view video stream is the same as that of the conventional video stream, and is composed of a plurality of video access units.
  • the dependent-view video stream is composed of a plurality of dependent GOPs 160, 161,.
  • Each dependent GOP includes a plurality of video access units U160, U161, U162,.
  • the leading picture of each dependent GOP is a picture displayed as a pair with the I picture at the beginning of the GOP in the base-view video stream when playing back 3D video, and is the same as the PTS of the I picture at the beginning of the GOP in the base-view video stream A picture to which a PTS is assigned.
  • FIGS. 17A and 17B show the configuration of the video access unit included in the dependent GOP.
  • the dependent GOP head video access unit stores, as compressed picture data 175, picture data displayed at the same time as the GOP head I picture of the base-view video stream.
  • the identification code 171, the subsequence header 172, the picture header 173, and the compressed picture data 175 are always stored, and the supplementary data 174, padding data 176, the sequence end code 177, and the stream end code 178 may be stored.
  • the frame rate, resolution, and aspect ratio values of the sub-sequence header 172 are the same as the frame rate, resolution, and aspect ratio of the sequence header included in the video access unit at the head of the GOP of the corresponding base-view video stream.
  • the video access units other than the head of the GOP always store the sub AU identification code 171, 175 compressed picture data, and the picture header 173, supplementary data 174, padding data 176, sequence end code 177.
  • the stream end code 178 may be stored.
  • the sub AU identification code 171 is a start code indicating the head of the access unit.
  • the data structure of the transport stream in the present embodiment will be described with reference to FIG.
  • a 2D compatible video stream, a base-view video stream of a multi-view video stream, and a dependent-view video stream are converted into TS packets after being converted into PES packets.
  • the 2D compatible video stream is the video stream described with reference to FIG. 4 and the like configured in a format that can be reproduced as 2D video by the 2D video playback device.
  • the 2D video playback device is a playback device that plays back 2D video such as broadcast waves, which does not support playback of 3D video.
  • An example is the 2D digital television described with reference to FIG.
  • the 2D compatible video stream is described as a video stream encoded with an MPEG-2 video codec.
  • the multi-view video stream is a video stream encoded with a codec that realizes inter-view reference as described above, and is described here as MPEG-4 MVC.
  • the right side of FIG. 18 shows which video source is compressed and encoded by each video stream.
  • the original image of the left eye constituting the 3D image is compression-coded according to the MPEG-2 video codec.
  • monochrome video such as black is compression-coded at a low bit rate according to the MPEG-4 MVC video codec.
  • the original image of the right eye composing the 3D image is compression-encoded according to the MPEG-4 MVC video codec.
  • the dependent-view video stream is compressed using the inter-view reference, but the picture referred to as the inter-view reference is not a picture of the base view video stream at the same display time (the same PTS), Compression is performed using the pictures of the 2D compatible video stream at the same display time (the same PTS).
  • the video decoder for playing back the video stream replaces the decoded picture of the base-view video stream with the decoded picture of the 2D compatible video stream at the same display time, and decodes the video at the same display time.
  • the picture of the pendant view video stream is decoded with reference to the replaced picture.
  • FIG. 19 shows video attributes to be matched and field names for indicating the video attributes when the 2D compatible video stream is MPEG-2 video and the multi-view video stream is MPEG-4 MVC codec. .
  • FIG. 20 shows the relationship between the structure of the transport stream and the PMT packet in this embodiment.
  • signaling information for performing decoding processing of 3D video in the present embodiment is included in system packets such as PMT packets.
  • the descriptor includes a 3D information descriptor for performing signaling such as the relationship between each video stream and the start / end of 3D video reproduction of this system, and each video.
  • the 3D stream descriptor set for each stream is stored.
  • FIG. 21 shows the structure of the 3D information descriptor 200.
  • the 3D information descriptor 200 includes a playback method 210, a left-eye video type 211, a 2D compatible video PID 212, a base view video PID 213, and a dependent view video PID 214.
  • the playback method 210 is information for signaling the playback method of the playback device.
  • the playback method will be described with reference to FIG.
  • the playback method is “0”
  • 2D video playback by 2D compatible video is indicated.
  • the playback apparatus is instructed to play back 2D video of only the 2D compatible video stream.
  • 3D video reproduction by 2D compatible video and dependent view video that is, the 3D video storage method described in the present embodiment
  • the dependent-view video stream is instructed to perform 3D video playback by the playback method described in this embodiment.
  • the 3D video playback method in the present embodiment will be described later.
  • “2” indicates 3D video playback using a base-view video stream and a dependent-view video. That is, the 2D compatible video stream and the multi-view video stream constituting the 3D video store different videos, and thus do not have a reference relationship.
  • the base-view video stream and the dependent-view video stream are video streams obtained by compressing normal 3D video with a multi-view codec, and the playback apparatus is instructed to play back the video stream in 3D video.
  • “3” indicates that the 2D compatible video stream or the base-view video stream is double playback, and the playback apparatus is instructed to perform double playback.
  • the doubling reproduction is to output one picture at a certain time A to both the L and R planes. This means that the user's viewing screen is equivalent to 2D video playback, but since the frame rate does not change during 3D video playback, re-authentication such as HDMI does not occur, so seamless connection playback with the 3D video playback section Can be realized.
  • the left-eye video type 211 is information indicating which of the video streams stores the left-eye video (the opposite video stream is the right-eye video). A description will be given together with the reproduction method. If the playback method 210 is “0”, this field is ignored. When the playback method 210 is “1”, it indicates which of the 2D compatible video and the dependent view video is the left-eye video. When the playback method 210 is “2”, it indicates which of the base-view video and the dependent-view video is the left-eye video. When the playback method 210 is “3”, it indicates which of the 2D compatible video and the base view video is the left-eye video.
  • the 2D compatible video PID 212, the base view video PID 213, and the dependent view video PID 214 indicate the PID of each video stream stored in the transport video stream. This information can be used to determine which PID stream to use for decoding.
  • FIG. 23 shows the 3D stream descriptor 201.
  • the 3D stream descriptor 201 includes a base view video type 230, a reference destination type 231, and a referenced type 232.
  • the base view video type 230 indicates what video is encoded in the base view video stream. “0” indicates whether left-eye video or right-eye video of 3D video is stored, and “1” includes black and other attached video and is replaced by a 2D compatible video stream and used for output to a plane. Indicates that a dummy video that is not to be stored is stored.
  • the reference destination type 231 indicates the type of video stream that the dependent-view video stream uses as a reference destination for inter-view reference. 0 indicates that the picture of the base-view video stream is used as an inter-view reference, and 1 indicates that a picture of the 2D compatible video stream is referred between views. That is, “1” indicates the reference method based on the 3D video method in the present embodiment.
  • the referenced type 232 indicates whether or not the corresponding video stream is referred between views. If it is not referenced, the processing of inter-view reference can be skipped, so the mounting load can be reduced.
  • 3D information descriptor 200 and the 3D stream descriptor 201 may be stored in supplementary data of each video stream instead of the PMT packet.
  • various tables (MGT, VCT, EIT, ETT) and descriptors defined in the US broadcasting standard (ATSC: Advanced Television Systems Committee) (A / 65: 2009: Program And System Information Protocol Protocol For Terrestrial Broadcast And And Cable Standard) May be stored and transmitted.
  • FIG. 24 shows an example of the relationship between the display time (PTS), decoding time (DTS), and picture type assigned to each video access unit of the 2D compatible video stream, base-view video stream, and dependent-view video stream in the transport stream. Show.
  • the 2D-compatible video stream picture and the dependent-view video stream picture storing the parallax images at the same time are configured to have the same DTS / PTS.
  • This can be realized by setting the decoding / display order of the pictures of the 2D compatible video stream and the dependent view picture that are in the reference relationship of the inter-picture prediction coding to the same.
  • a base having the same PTS / DTS, and in the case of MPEG-4 MVC, POC ( Picture Order Count. Index number in the video stream indicating the display order).
  • a picture of the view video stream is prepared.
  • the inter-view reference of the picture of the dependent-view video stream is encoded with a configuration that refers to the picture of the base-view video stream having the same PTS / DTS / POC.
  • the picture reference ID (ref_idx_l0 or ref_idx_l1) specified from each macroblock of the picture of the dependent-view video stream is the base view of the same POC. It is configured to show a picture.
  • the value of temporal_reference indicating the display order included in each picture is the POC of the dependent view video stream having the same PTS / DTS for storing the parallax images at the same time. You may comprise so that it may become the same. By doing so, the encoding / decoding process can be performed with the values in the video ES without using the PTS, so that the mounting process becomes easy.
  • the POC of the dependent-view video stream having the same PTS / DTS that stores the parallax images at the same time may be stored in the user data. By doing in this way, since the value of temporal_reference can also be set to an original value, the degree of freedom in the encoding process is increased.
  • the picture of the base view video stream at the same display time is also an I picture
  • the picture of the dependent view video stream at the same display time is an anchor picture (own picture).
  • the picture may be configured such that it is a picture that does not refer to a picture that is earlier than the previous picture (that is, a picture that can be reproduced by jumping in from its own picture). By doing so, if the 2D compatible video stream is an I picture at the time of jumping playback, all video streams can be decoded from that time, so that the processing at the jumping playback is easy.
  • the special reproduction process is facilitated in a reproduction apparatus that performs special reproduction by selecting only an I picture and a P picture.
  • the 2D compatible video stream and the base-view video stream are P pictures (P3).
  • the picture of the dependent-view video stream is a B picture (B3).
  • the configuration is as shown in FIG.
  • the pictures of the 2D compatible video stream, the base view video stream, and the dependent view video stream are all P pictures.
  • I picture Since only the picture and the P picture need to be decoded, the special reproduction process in which the I picture and the P picture are selected is facilitated.
  • the picture of the base view video stream and the picture of the 2D compatible video stream having the same PTS / DTS may be configured to have the same picture type.
  • FIG. 26 shows a GOP configuration of a 2D compatible video stream, a base view video stream, and a dependent view video stream in the present embodiment.
  • the GOPs of the 2D compatible video stream, the base-view video stream, and the dependent-view video stream are all configured to be the same number. That is, when the picture of the 2D compatible video stream is the head of the GOP, the picture of the base view video stream at the same display time (the same PTS) and the picture of the dependent view video stream at the same display time (the same PTS) Must be the head of the GOP and the head of the dependent GOP, respectively.
  • the 2D compatible video stream is an I picture at the time of jump playback, all video streams can be decoded from that time, so that the processing at jump playback is easy.
  • entry map information indicating where the GOP head picture is on the file may be stored as management information.
  • the entry map information is stored in a separate file as a management information file.
  • both the base view and the dependent view position at the same time are included in the entry map. Try to register everything. In this way, the 3D video jump-in reproduction is facilitated by referring to the entry map.
  • the transport when the transport stream is stored as a file, the transport including the GOP heads of the corresponding base-view video stream and dependent-view video stream after the transport packet including the GOP head of the 2D-compatible video stream.
  • a packet may be transmitted.
  • the Transport Packet including the GOP head of the 2D compatible video stream first, it is possible to easily perform 3D video jumping reproduction and to obtain a relatively large size only by having an entry map for the 2D compatible video stream.
  • the transmission device 2701 receives the left-eye original image and the right-eye original image constituting the 3D image, and the attached image such as the black screen as inputs, and the 2D-compatible video stream, the base-view video stream, and the dependent described with reference to FIG. A transport stream that stores the view video stream is output.
  • the transmission device 2701 includes a 2D compatible video encoder 2702, a 2D compatible video decoder (Dec) 2703, an extended multiview video encoder 2704, a multiplexer 2710, and a transmission unit 2711.
  • a 2D compatible video encoder 2702 includes a 2D compatible video encoder 2702, a 2D compatible video decoder (Dec) 2703, an extended multiview video encoder 2704, a multiplexer 2710, and a transmission unit 2711.
  • the 2D compatible video encoder 2702 receives the original image of the left eye and performs compression encoding according to the 2D compatible video codec.
  • the codec is MPEG-2 video
  • it is compression-encoded into the MPEG-2 video stream format.
  • a 2D compatible video stream is output.
  • the data structure of the 2D compatible video stream is equal to the structure of the 2D compatible video stream described above.
  • the 2D compatible video encoder 2702 includes a memory 2801, a subtracter 2802, a discrete cosine transform (DCT) unit 2803, a quantization unit 2804, a variable length coding unit 2805, an inverse quantization unit 2806, an inverse DCT.
  • a unit 2807, an adder 2808, and a memory 2809 are included.
  • the memory 2801 stores an input image, that is, an encoding target image.
  • the memory 2809 stores an image (reference image) that is referred to when an image to be encoded is encoded.
  • the subtracter 2802 extracts a difference between the encoding target image and the reference image (hereinafter referred to as a difference image), and outputs the extracted difference image to the DCT unit 2803. Note that when the encoding target image is an I picture, there is no reference image, so the subtracter 2802 outputs the I picture itself as a difference image to the DCT unit 2803.
  • the DCT unit 2803 applies DCT to the difference image received from the subtracter 2802.
  • the DCT conforms to ISO / IEC 230022-2: 2008 and is, for example, an integer DCT in order to prevent an error from occurring when inverse DCT is performed. Since DCT is a known technique, description thereof is omitted here.
  • Quantization unit 2804 Quantization is performed on the difference image subjected to DCT. Since quantization is a known technique, description thereof is omitted here.
  • Variable length coding unit 2805 performs variable length coding on the quantized difference image and outputs the coded difference image. Since variable-length coding is a known technique, description thereof is omitted here.
  • (1-6) Inverse quantization unit 2806 When generating the reference image, the inverse quantization unit 2806 performs inverse quantization on the quantized difference image to generate a difference image before quantization, that is, a difference image subjected to DCT. . Since inverse quantization is a known technique, description thereof is omitted here.
  • the inverse DCT unit 2807 When generating the reference image, the inverse DCT unit 2807 performs inverse DCT on the difference image subjected to inverse quantization, and generates a difference image before being subjected to DCT.
  • the inverse DCT conforms to ISO / IEC 23002-2: 2008, and is paired with the DCT unit 2803. Accordingly, the inverse DCT unit 2807 can generate a difference image before the DCT is performed and a difference image in which no error occurs.
  • reverse DCT is a known technique, description here is abbreviate
  • Adder 2808 generates a reference image by adding a reference image that has already been generated (an image that has already been used as a reference image) and the difference image generated by the inverse DCT unit 2807. The reference image thus stored is stored in the memory 2809.
  • the 2D-compatible video decoder 2703 decodes the 2D-compatible video stream output from the 2D-compatible video encoder 2702 and decodes the compressed and encoded 2D picture data as “decoded picture data” (hereinafter “decoded picture”). ”)” And “2D compatible video coding information” are output.
  • the inverse DCT here is the ISO / IEC 23002-2: It conforms to 2008 and is paired with the DCT unit 2803.
  • the output “decoded picture data” is stored in the 2D compatible video frame memory 2708 of the extended multi-view video encoder 2704.
  • “2D compatible video encoding information” is also input to the extended multi-view video encoder 2704.
  • the 2D compatible video coding information includes attribute information (resolution, aspect ratio, frame rate, progressive / interlace, etc.) of the decoded video stream, picture attribute information (picture type, etc.) of the corresponding picture, GOP, etc.
  • the structure, 2D compatible video frame memory management information, and the like are included.
  • the 2D compatible video frame memory management information includes “memory address of decoded picture data stored in the 2D compatible video frame memory 2708”, “display order information (PTS and temporal_reference) of the picture, and code order information (file information).
  • the table information is a pair of “code order and DTS)”.
  • Extended multi-view video encoder 2704 receives “decoded picture data” output from the 2D compatible video decoder 2703, “2D compatible video encoding information”, “right-eye original image”, and “attached image such as a black screen” as inputs.
  • the base view video stream and the dependent view video stream described with reference to FIG. 18 and the like are output.
  • the extended multi-view video encoder 2704 includes a base-view video encoder 2705, a 2D compatible video frame memory 2708, and a dependent-view video encoder 2709.
  • the base-view video encoder 2705 has a compression encoding function of the base-view video stream in a video codec (for example, MPEG-4 MVC) of a multi-view video stream, and has an attached video such as a black screen according to 2D compatible video encoding information. Is compressed and encoded to create a base-view video stream and output base-view video encoding information.
  • a video codec for example, MPEG-4 MVC
  • the base-view video encoder 2705 determines the base-view picture encoding method based on the 2D-compatible video encoding information output from the Dec 2703. Specifically, video attribute information (resolution, resolution, aspect ratio, frame rate, progressive / interlace) included in the 2D compatible video encoding information is the same as the video attribute information (resolution, aspect ratio, frame rate, progressive / interlace). Determine aspect ratio, frame rate, progressive / interlace).
  • the base-view video encoder 2705 determines a coding method for pictures at the same display time according to picture attribute information (picture type, etc.) and GOP structure included in the 2D compatible video coding information, and thus a black screen or the like.
  • the attached video of is compressed and encoded. For example, if the picture type of the picture at time A included in the 2D compatible video coding information is an I picture and the head of the GOP, the base view video encoder 2705 sets the picture type of the picture at the same time A as an I picture, In the structure of the video access unit at the head of the GOP, attached video such as a black screen is compression-coded.
  • the base view video encoder 2705 sets the picture type of the picture at the same time B to B picture, Compress the attached video.
  • the 2D compatible video stream and the base-view video stream are encoded so that the code order of the pictures at the same display time is the same so that the DTS and the PTS are the same.
  • the base view video coding information includes attribute information (resolution, aspect ratio, frame rate, progressive / interlace, etc.), picture attribute information (picture type, etc.) of the corresponding picture, GOP,
  • the structure, base view video frame memory management information, and the like are stored.
  • the base-view video frame memory management information is converted into a table according to the codec syntax and data structure of the base-view video stream without changing the frame memory address based on the 2D-compatible video frame memory management information.
  • the field indicating the display order is temporal_reference
  • MPEG-4 MVC it is a POC (Picture order count)
  • syntax is matched with the structure of the base view video stream. That is, when the entry of the picture A of the 2D compatible video stream is in the 2D compatible video frame memory management information, the management information other than the address of the frame memory of the entry of the picture A of the 2D compatible video stream is changed to the 2D compatible video stream. Is converted into syntax information of a picture of a base-view video stream that has the same display order version (same PTS) as that of picture A, and stored.
  • the 2D compatible video frame memory 2708 stores “decoded picture data” decoded by Dec 2703, that is, a reference image to be referred to when a dependent view picture is encoded.
  • the dependent-view video encoder 2709 has a compression encoding function of the dependent-view video stream in the video codec (for example, MPEG-4 MVC) of the multi-view video stream, and the base output from the base-view video encoder 2705.
  • the view video encoding information the original right-eye image is compressed and a dependent-view video stream is output.
  • the dependent-view video encoder 2709 uses the decoded picture data in the 2D-compatible video frame memory (the picture obtained by decoding the 2D-compatible video stream) for inter-view reference and performs compression.
  • the reference picture ID for performing the inter-view reference is determined by using the base view video frame memory management information of the base view video coding information.
  • Dependent view video encoder 2709 determines the encoding method of the dependent view picture based on the base view video encoding information.
  • the video attribute information of the dependent-view video stream is the same as the video attribute information (resolution, aspect ratio, frame rate, progressive / interlace) stored in the base-view video encoding information. (Resolution, aspect ratio, frame rate, progressive / interlace).
  • the picture attribute information (picture type, etc.) and GOP structure stored in the base-view video encoding information the encoding method of the picture at the same display time is determined, and the right-eye video is compression-encoded.
  • the dependent-view video encoder 2709 sets the picture type of the picture at the same time A as an anchor picture.
  • the right eye image is compression-encoded with the structure of the video access unit at the head of the dependent GOP.
  • the picture type of the picture at time B included in the base-view video encoding information is B picture
  • the dependent-view video encoder 2709 sets the picture type of the picture at the same time B to B picture, and the right-eye video Is compressed and encoded.
  • the base-view video stream and the dependent-view video stream are encoded so that the code order of the pictures at the same display time is the same so that the DTS and the PTS are the same.
  • the dependent-view video encoder 2709 includes a memory 2901, a subtracter 2902, a discrete cosine transform (DCT) unit 2903, a quantization unit 2904, a variable length coding unit 2905, and an inverse quantization. Part 2906, inverse DCT part 2907, adder 2908 and memory 2909. These components are the same as those of the 2D compatible video encoder 2702 shown in FIG. The difference is that the subtracter 2902 further refers to the 2D compatible video frame memory 2708 as a reference image, and thus the basic functions are the same as those of the 2D compatible video encoder 2702. Omitted.
  • DCT discrete cosine transform
  • the multiplexer 2710 divides the output 2D compatible video stream, base-view video stream, and dependent-view video stream into PES packets, divides them into TS packets, multiplexes them into a transport stream, and outputs them. .
  • the 2D compatible video stream, the base-view video stream, and the dependent-view video stream are set to different PIDs and transferred. However, the same PID is allocated to the base-view video stream and the dependent-view video stream, and the access units of the video streams are merged and transferred in accordance with the codec specifications of the multi-view video stream. good.
  • the multiplexer 2710 gives encoding information indicating that an inverse DCT that does not cause an error is used when encoding the left-eye image when multiplexing. Specifically, the multiplexer 2710 stores the encoding information in the supplemental data (user_data) of the video access unit for each video access unit included in the MPEG-2 ES (elementary stream). That is, encoding information is assigned to each 2D image. An example is shown in FIG. The encoded information is specified in “user_data” defined by “extensions_and_user_data (2)” shown in FIG.
  • the encoding information indicating that an inverse DCT that does not cause an error is used here is given by the multiplexer 2710, but the same information may be given by the 2D compatible video encoder 2702.
  • FIG. 31 is a diagram showing a configuration of the playback apparatus 10 according to the present embodiment, particularly a configuration related to a function of decoding a transport stream.
  • the playback device 10 includes a PID filter 3101, a 2D compatible video decoder 3102, an extended multiview video decoder 3103, a first plane 3104, and a second plane 3105.
  • the PID filter 3101 filters the input transport stream.
  • the PID filter 3101 transfers TS packets whose PID matches the PID required for reproduction to the 2D compatible video decoder 3102 and the extended multi-view video decoder 3103 according to the PID.
  • the first plane 3104 is a plane memory that holds picture data decoded by the 2D compatible video decoder 3102 and output at the display timing.
  • the second plane 3105 is a plane memory that holds picture data decoded by the extended multi-view video decoder 3103 and output at display timing.
  • the 2D compatible video decoder 3102 basically has the same structure as a general decoder of a 2D video codec (MPEG-2, MPEG-4 AVC, VC1, etc.).
  • the 2D compatible video decoder 3102 includes a separation unit 3111, a determination unit 3112, a TB (Transport Stream Buffer) 3113, an MB (Multiplexing Buffer) 3114, an EB (Elementary Stream Buffer) 3115, a 2D compatible video compressed video decoder (Dec) 3116d, O (Re-Re) (Buffer) 3117, an output processing unit 3118, and a switch 3119.
  • the TB 3113 is a buffer that temporarily accumulates TS packets as they are when TS packets including a video stream are output from the PID filter 3101.
  • the MB 3114 is a buffer for temporarily storing PES packets when outputting a video stream from the TB 3113 to the EB 3115.
  • the EB 3115 is a buffer that stores pictures in an encoded state (I picture, B picture, P picture).
  • the separation unit 3111 removes the TS header and the adaptation field of the TS packet when data is transferred from the TB 3113 to the MB 3114.
  • the separation unit 3111 removes the PES header when data is transferred from the MB 3114 to the EB 3115.
  • the determination unit 3112 receives user_data included in the video ES from the 2D compatible video compressed video decoder 3116. The determination unit 3112 determines whether or not encoded information whose value is “1” is stored in the received user_data. Specifically, the determination unit 3112 determines whether or not encoded information having a value “1” is assigned to each video included in the video ES.
  • the determination unit 3112 notifies the determination result to the 2D compatible video compression video decoder (Dec) 3116.
  • the 2D compatible video compressed video decoder 3116 creates a frame / field image by decoding each video access unit of the video elementary stream at a predetermined decoding time (DTS).
  • DTS decoding time
  • the 2D compatible video compression video decoder 3116 has at least one inverse DCT function out of the two types of inverse DCT functions, ie, the inverse DCT function conforming to ISO / IEC 230022-2: 2008, and the inverse DCT that does not comply, that is, an error is recognized. It has a DCT function.
  • the 2D compatible video compressed video decoder 3116 analyzes the header of each video access unit in the 2D compatible video compressed video decoder 3116, acquires user_data by the analysis, and outputs the acquired user_data to the determination unit 3112.
  • the decoding method of the 2D compatible video compression video decoder 3116 is switched according to the stream attribute.
  • the 2D compatible video compression video decoder 3116 receives a determination result indicating that encoded information having a value of “1” is stored from the determination unit 3112, the 2D compatible video compressed video decoder 3116 sends the ISO / IEC 23002-2: 2008 The video elementary stream is decoded using the function of the compliant inverse DCT.
  • the 2D compatible video compression video decoder 3116 outputs the decoded frame / field image to the first plane 3104 or O3117.
  • the timings of DTS and PTS are different like P picture and I picture, they are outputted to O3117, and when the timings of DTS and PTS are the same like B pictures, they are outputted as they are to first plane 3104. .
  • This switching process is performed by the switch 3119.
  • the decoded picture is transferred to the O 3117 or the switch 3119.
  • data is transferred to the inter-view reference buffer 3139 of the extended multi-view video decoder 3103 at the DTS timing.
  • the transferred picture data is stored in the inter-view reference buffer 3139 at an address where a picture of the base-view video stream of the same DTS / PTS is stored. That is, the picture of the base-view video stream is overwritten with the picture of the 2D-compatible video stream having the same DTS / PTS in the inter-view reference buffer 3139. Details of the inter-view reference buffer 3139 will be described later.
  • O3117 is a buffer for performing reordering when the decoded picture has a code order (DTS) and a display order (PTS) different from each other.
  • the 2D compatible video compressed video decoder 3116 performs decoding processing with reference to the picture data stored in the O 3117.
  • Output processing unit 3118 The output processing unit 3118 performs reordering in O3117. Further, the output processing unit 3118 controls switching of the switch 3119 in order to switch the image output to the first plane 3104.
  • Switch 3119 The switch 3119 switches the image output to the first plane 3104 under the control of the output processing unit 3118.
  • Extended multi-view video decoder 3103 basically has the same structure as a general decoder of a video codec (such as MPEG-4 MVC) of 3D video that realizes inter-view reference.
  • a video codec such as MPEG-4 MVC
  • the extended multi-view video decoder 3103 includes a separator 3131, TB 3132, MB 3133, EB 3134, TB 3135, MB 3136, EB 3137, decode switch 3138, inter-view reference buffer 3139, multi-view video compressed video decoder (Dec) 3140, DPB (Decoded Picture Buffer) 3141 , An output processing unit 3142 and an output plane switch 3143.
  • (4-1) TB3132, MB3133, EB3134 TB3132, MB3133, and EB3134 have the same functions as TB3113, MB3114, and EB3115, except that the data to be buffered is a base-view video stream.
  • (4-2) TB3135, MB3136, EB3137 TB3135, MB3136, and EB3137 have the same functions as TB3113, MB3114, and EB3115, except that the data to be buffered is a dependent-view video stream.
  • the separation unit 3131 removes the TS header and the adaptation field of the TS packet when data is transferred from the TB 3132 to the MB 3133.
  • the separator 3131 removes the PES header when data is transferred from the MB 3133 to the EB 3134.
  • the decode switch 3138 extracts the data of the video access unit to which the DTS is assigned from the EB 3134 and the EB 3137 at the timing of DTS, constitutes a 3D video access unit, and transfers the data to the multi-view video compressed video decoder 3140.
  • Inter-view reference buffer 3139 stores an image referred to by inter-view reference when a dependent view picture is decoded.
  • Multi-view video compression video decoder 3140 The multi-view video compressed video decoder 3140 performs a decoding process on the 3D video access unit transferred from the decode switch 3138 to create a frame / field image.
  • the multi-view video compressed video decoder 3140 is compliant with MPEG-4 MVC and has an inverse DCT function that does not cause an error (an arithmetic method similar to inverse DCT called integer conversion).
  • the multi-view video compressed video decoder 3140 switches the decoding method as appropriate according to the codec method of the multi-view video stream.
  • the decoded video of the base-view video picture decoded by the multi-view video compressed video decoder 3140 is temporarily stored in the inter-view reference buffer 3139.
  • the multi-view video compressed video decoder 3140 performs decoding processing on the pictures of the dependent-view video stream with reference to the decoded picture data of the base-view video stream having the same PTS stored in the inter-view reference buffer 3139.
  • the structure of the reference picture list for designating a picture is determined by the picture type and the syntax of the pictures of the base-view video stream and the dependent-view video stream.
  • the multi-view video compression video decoder 3140 transfers the decoded picture data of the base view and the decoded picture data of the dependent view stored in the inter-view reference buffer 3139 to the DPB, and responds at the display timing (PTS) timing.
  • the frame / field image is output to the output plane switch 3143.
  • the extended multi-view video decoder 3103 refers to the picture data output from the 2D compatible video decoder 3102 at the DTS timing between views.
  • the buffer 3139 the area of the base view video stream having the same DTS / PTS is overwritten and stored, and the picture data is assumed to be decoded picture data of the base view video stream. The decoding process of the inter-view reference of the dependent view picture is performed.
  • the address management on the inter-view reference buffer 3139 is completely different from the management of the decoded picture of the conventional base view video stream, and only the data portion of the picture is replaced.
  • the contents of this overwriting process are specifically shown in FIG.
  • FIG. 32 it is assumed that the management of the pictures in the inter-view reference buffer 3139 is managed by, for example, the PTS and the memory address on the memory.
  • the DPB 3141 is a buffer that temporarily stores the decoded frame / field image.
  • the multi-view video compression video decoder 3140 decodes a video access unit such as a P picture or a B picture that has been subjected to inter-picture prediction encoding in the same view, it is used to refer to the already decoded picture.
  • Output processing unit 3142 controls the output plane switch 3143 so that only the picture of the dependent-view video stream is output at the PTS timing for the output to the second plane among the video stored in the DPB 3141. Since the pictures of the base-view video stream are output from the 2D compatible video decoder 3102 to the first plane, they are unnecessary and are discarded without being output to the plane.
  • Output plane switch 3143 The output plane switch 3143 outputs the decoded frame / field video to the second plane 3105.
  • the transmission device 2701 determines whether there is a left-eye original image to be compression-encoded (step S5).
  • the transmission device 2701 determines the number of sheets to be encoded in one encoding flow (step S10). Specifically, the transmission apparatus 2701 determines the smaller value of the maximum number of GOPs and the remaining number of original picture images to be encoded as one encoded number.
  • the transmission device 2701 uses the 2D compatible video encoder 2702 to generate 2D compatible video streams for one encoded number.
  • a 2D-compatible video stream is generated by compression-encoding according to the codec of the 2D-compatible video stream by one encoding number from the Nth frame of the left-eye original video image (step S15).
  • the 2D compatible video encoder 2702 since the 2D compatible video encoder 2702 performs inverse DCT conforming to ISO / IEC 23002-2: 2008 when generating a reference image, it generates a reference image that does not cause an error from the image before compression coding. is doing.
  • the transmission device 2701 uses the 2D compatible video decoder 2703 to perform the decoding process of the 2D compatible video stream for one encoded number, and stores the decoded picture in the 2D compatible video frame memory 2708 (step S20). Specifically, the 2D compatible video decoder 2703 decodes data for one encoded number of the generated 2D compatible video stream, and generates “decoded picture” and “2D compatible video encoding information”. To do. At this time, since the 2D compatible video decoder 2703 performs inverse DCT conforming to ISO / IEC 23002-2: 2008 when performing decoding, it generates a reference image that does not cause an error from the image before compression coding. ing.
  • the transmission device 2701 uses the base view video encoder 2705 to generate base view video streams for one encoded number (step S25). Specifically, the base-view video encoder 2705 determines video attributes, picture structures, and the like based on the generated 2D compatible video encoding information, compresses and encodes the attached video by the number of encoded images, A base-view video stream and base-view video coding information are generated.
  • the transmission device 2701 uses the dependent-view video encoder 2709 to generate a dependent-view video stream for one encoded number (step S30). Specifically, the dependent-view video encoder 2709 determines a video attribute, a picture structure, and the like based on the generated base-view video encoding information, and uses a 2D compatible video frame memory for inter-view reference. Using the picture data (decoded picture data) stored in 2708, the right-eye original video image is compression-encoded for one encoded number of frames to generate a dependent-view video stream.
  • the transmitter 2701 indicates that the value is “1” when multiplexing is performed using the multiplexer 2710, that is, the inverse DCT that causes no error is used when compressing and encoding the left-eye image.
  • the encoded information is stored in the user data area of the MPEG-2 ES (step S35).
  • the transmission device 2701 uses the multiplexer 2710 to divide the generated 2D compatible video stream, base-view video stream, and dependent-view video stream into PES packets, divide them into TS packets, and multiplex them as transport streams (Step S40).
  • step S5 If it is determined that there is no left-eye original image to be compression-encoded (“No” in step S5), the transmission device 2701 ends the process.
  • the number of encodings in one flow may be set to be variable.
  • the value of one encoded sheet in step S10 may be set to be small.
  • the reordering is a two-encoding method and the picture types are I1, P4, B2, B3, P7, B5, B6,.
  • the number of encoded images is 3, the P4 picture cannot be processed, so the B2 and B3 encoding processes cannot be performed. If the number of encoded images is set to 4, the P4 picture can be processed, and the B2 and B3 encoding processes can be performed.
  • the value of the number of one encode may be changed as appropriate according to the encoding method.
  • the playback device 10 determines whether there is a picture of the 2D compatible video stream to be decoded (step S100). Specifically, the playback device 10 determines whether there is data in the EB 3115.
  • step S100 If it is determined that a picture of the 2D compatible video stream exists (“Yes” in step S100), the playback device 10 uses the determination unit 3112 to determine whether encoded information having a value “1” exists in the ES header. It is determined whether or not (step S105).
  • the playback device 10 uses the extended multi-view video decoder 3103 to decode the picture of the base-view video stream. And stored in the inter-view reference buffer 3139 (step S110). Specifically, the multi-view video compressed video decoder 3140 of the extended multi-view video decoder 3103 reads out the picture attached to the corresponding DTS from the EB 3134 at the DTS timing, performs decoding processing, and stores the data in the inter-view reference buffer 3139. Is stored. Management of pictures in the inter-view reference buffer 3139 follows the codec rules of the multi-view video stream. For example, in the case of MPEG-4 MVC, management information is provided so as to create a reference picture list. For example, table information that associates a PTS / POC (display time) with a data address is managed internally.
  • the playback device 10 uses the 2D compatible video decoder 3102 to decode the picture of the 2D compatible video stream, and overwrites the picture of the base view stream having the same DTS in the inter-view reference buffer 3139 (step S115).
  • the 2D compatible video compressed video decoder 3116 of the 2D compatible video decoder 3102 reads a picture attached to the DTS from the EB 3115 at the DTS timing, and performs a decoding process.
  • the decoded picture data is transferred to the O 3117 and the switch 3119, and the decoded picture data is also transferred to the inter-view reference buffer 3139.
  • the transfer destination is an area in the inter-view reference buffer 3139 in which the base view stream picture to which the same DTS / PTS is assigned is stored, and the base view stream picture is overwritten.
  • the playback device 10 decodes the picture of the dependent-view video stream using the extended multi-view video decoder 3103 (step S120). Specifically, the multi-view video compressed video decoder 3140 of the extended multi-view video decoder 3103 reads a picture attached to the corresponding DTS from the EB 3137 at the DTS timing, and performs a decoding process. At this time, the multi-view video compression video decoder 3140 performs decoding with reference to the picture stored in the inter-view reference buffer 3139.
  • the picture data used for the inter-view reference by the picture of the dependent-view video stream is not the picture of the same DTS / PTS of the base-view video stream, but the picture of the 2D compatible video stream having the same DTS / PTS overwritten. .
  • the playback device 10 uses the output processing unit 3118 and the output processing unit 3142 to output the decoded picture of the 2D-compatible video stream to the first plane 3104 at the PTS timing, and the decoded picture data of the dependent-view video stream as PTS. Is output to the second plane at the timing (step S125).
  • Reproduction of 3D video can be realized by storing the left-eye and right-eye video constituting the 3D video in respective streams, and decoding / outputting.
  • the playback device 10 uses the 2D compatible video decoder 3102 to decode the picture of the 2D compatible video stream ( Step S130). At this time, the 2D compatible video decoder 3102 does not store the decoded picture in the inter-view reference buffer 3139.
  • the playback device 10 uses the output processing unit 3118 to output the decoded picture of the 2D-compatible video stream to the first plane 3104 at the PTS timing (step S135). As a result, when there is no encoded information having a value of “1”, the playback device 10 can output 2D video.
  • step S100 When it is determined that no picture of the 2D compatible video stream exists (“No” in step S100), the playback device 10 ends the process.
  • the playback apparatus 10 performs the decoding process on the pictures of the base-view video stream.
  • the present invention is not limited to this.
  • the playback device 10 may skip the decoding process of the pictures of the base view video stream.
  • the extended multi-view video decoder 3103 does not decode the picture of the base-view video stream, but analyzes header information (for example, POC acquisition, picture type, ViewID, information acquisition with or without reference, etc.) and inter-view reference
  • An area of the buffer 3139 is reserved, and a picture output from a 2D compatible video decoder having the same PTS / DTS is stored therein. Thereby, since the decoding process of the picture of a base view video stream can be skipped, the processing load in the whole reproduction process can be reduced.
  • the decoded picture data of the base view and the decoded picture data of the dependent view are stored in the DPB 3141.
  • the decoding process of the picture of the base view video stream is skipped as described above, Since the decoded picture data of the base-view video stream is not referred to and is unnecessary, the multi-view video compressed video decoder 3140 may not be stored in the DPB 3141. In this way, it is possible to reduce the amount of memory for storing the pictures of the base view video stream from the DPB 3141.
  • the playback apparatus 10 overwrites the decoded picture data of the base view video stream in the inter-view reference buffer 3139 with the decoded picture data of the same PTS of the 2D compatible video stream. It is not limited to.
  • the playback device 10 may perform the process by rewriting the address without performing the copy process. By performing the processing in this way, it is possible to suppress the use of the bandwidth associated with the data copy in the memory and reduce the processing load on the playback device.
  • the memories of O3117 and DPB 3141 are handled as separate areas, but the present invention is not limited to this.
  • the memory space may be shared.
  • An example is shown in FIG.
  • the address is rewritten. For example, in FIG.
  • the inter-view reference buffer 3139 and the DPB 3141 are handled as separate buffers, but the present invention is not limited to this. These may be one buffer.
  • the decoded picture data of the 2D compatible video stream is replaced with a buffer when unified with the DPB 3141, the decoded picture data of the base view video stream with the same PTS and the same View ID in the DPB 3141 is replaced.
  • the 3D video reproduction of this embodiment can be realized.
  • the reference destination of the dependent-view video stream is the decoded picture data of the 2D compatible video stream, and the normal multi-view video stream
  • the stream type and the stream_id assigned to the PES packet header may be set to be different from those in the case of the conventional multi-view video stream.
  • a switch may be provided between the 2D compatible video decoder 3102 and the inter-view reference buffer 3139.
  • the playback device 10 when there is encoded information having a value “1” in the ES header, the playback device 10 is turned on, that is, the 2D compatible video decoder 3102 and the inter-view reference buffer 3139 are connected. If the switch does not exist, the switch is turned off, that is, the switch is controlled so that the 2D compatible video decoder 3102 and the inter-view reference buffer 3139 are not connected.
  • the multiplexing method is the transport stream, but the present invention is not limited to this.
  • an MP4 system format may be used.
  • the input format is an MP4 file
  • the 2D compatible video stream, the base view video stream / the dependent view video stream are separated and decoded, and the pictures of the base view video stream are converted into the 2D compatible video in the inter-view reference buffer. It suffices if replacement with the stream picture can be realized.
  • the time information in each access unit can be specified by using the header information (stts, stsz, etc.) of the MP4 system format.
  • the base-view video stream may not be multiplexed on the transport stream.
  • information that allows the extended multi-view video decoder to manage the inter-view reference buffer 3139 is provided.
  • Store in 2D compatible video stream For example, all or part of the syntax of the base-view video stream is stored in the supplementary data of the 2D compatible video stream.
  • information for managing pictures in the inter-view reference buffer 3139 (POC indicating display order in MPEG-4 MVC, slice_type indicating picture type, nal_ref_idc indicating reference / non-reference of picture, base reference picture list) Ref_pic_list_mvc_modification, View ID of base-view video stream, MMCO command) and the like, which are information for creation, are stored in supplementary data of each picture of the 2D compatible video stream.
  • the playback device 10 when the encoded information having a value of “1” does not exist in the ES header, the playback device 10 outputs 2D video, but the present invention is not limited to this.
  • the 2D compatible video decoder 3102 may perform decoding by inverse DCT that recognizes an error, or decode by inverse DCT that does not recognize an error. You may go.
  • the reproducing apparatus may further determine whether or not the apparatus has an inverse DCT function that does not recognize an error. If it is determined that the function is present, the playback apparatus performs decoding by inverse DCT that does not recognize an error. If it is determined that the playback device does not have a function, the playback device may perform decoding by inverse DCT that recognizes an error, or may decode only a 2D-compatible video stream.
  • the playback device performs decoding using the inverse DCT that recognizes an error.
  • the 2D compatible video stream may be decoded.
  • the playback device 10 outputs the pictures of the 2D compatible video stream from the 2D compatible video decoder 3102 to the first plane at the PTS timing, and the multiview video decoder 3103 outputs the multiview video.
  • the dependent-view video stream picture of the stream is output to the second plane at the PTS timing. For example, if the left-eye video is stored in the 2D compatible video stream and the right-eye video is stored in the dependent-view video stream, the left-eye video is output from the first plane, and the right-eye video is output from the second plane. It is possible to realize 3D video playback.
  • the transmission apparatus 3701 includes a deblocking unit 3702 illustrated in FIG. 37 in addition to the components of the transmission apparatus 2701 described in Embodiment 1.
  • the deblocking unit 3702 is a deblocking filter defined by MPEG-4 AVC, and reduces block noise for the decoding result of the 2D compatible video stream.
  • the deblocking unit 3702 reduces block noise in the decoding result of the 2D compatible video stream, and stores the picture of the high quality 2D compatible video stream with reduced noise in the 2D compatible video frame memory 2708.
  • Playback device 3801 In addition to the components of the playback device 10 shown in Embodiment 1, the playback device 3801 has a deblocking unit 3802 shown in FIG.
  • the determination unit 3112 further notifies the deblocking unit 3802 of the determination result.
  • the deblocking unit 3802 is a deblocking filter defined by MPEG-4 AVC, and reduces block noise for the decoding result of the 2D compatible video stream.
  • the deblocking unit 3802 reduces block noise with respect to the decoding result of the 2D compatible video stream, and outputs a high-quality 2D compatible video stream picture with reduced block noise to the first plane 3104 or O3117.
  • the deblocking unit 3802 when the deblocking unit 3802 receives a determination result indicating that encoded information having a value “1” is stored from the determination unit 3112, the deblocking unit 3802 expands the high-quality picture with reduced block noise into an extended multi-picture. Data is also transferred to the inter-view reference buffer 3139 of the view video decoder 3103.
  • the change is step S20 shown in FIG. Specifically, the transmission device 3701 uses the deblocking unit 3702 to reduce the block noise before storing the decoded picture in the 2D compatible video frame memory 2708, and the high-quality 2D with reduced block noise.
  • the picture of the compatible video stream is stored in the 2D compatible video frame memory 2708.
  • the change is step S115 shown in FIG. Specifically, the playback device 3801 uses the deblocking unit 3802 to reduce block noise and overwrite the block picture before overwriting the decoded picture with the base view stream picture having the same DTS in the inter-view reference buffer 3139.
  • the picture of the high-quality 2D compatible video stream with reduced noise is overwritten with the picture of the base view stream having the same DTS in the inter-view reference buffer 3139.
  • the playback device 3801 outputs a picture of a high-quality 2D compatible video stream with reduced block noise to the first plane 3104 or O3117 and the inter-view reference buffer 3139. It is not limited to this.
  • the deblocking unit 3802 may be arranged at the position shown in FIG. 39 to reduce block noise only for the picture output to the inter-view reference buffer 3139.
  • the playback device 3801 plays back 2D video using only the picture output from the second plane.
  • the playback device 3801 can play back a high-quality 2D video when receiving a transport stream that has been compression-encoded using inverse DCT without causing an error.
  • each of the transmission device 3701 and the playback device 3801 reduces block noise, thereby improving the quality of 2D video for a 2D compatible video stream. It will also lead to higher quality of 3D video.
  • MPEG-2 video generally tends to generate block noise
  • block technologies such as MPEG-4 AVC and MPEG-4 MVC, which are newer than MPEG2, are less likely to generate block noise.
  • MPEG-4 AVC and MPEG-4 MVC which are newer than MPEG2
  • MPEG-4 MVC which are newer than MPEG2
  • the video output from MPEG2 video contains a lot of block noise, whereas it is compressed by MPEG-4 MVC.
  • the pendant view video does not contain much block noise.
  • the left-eye video composed of the MPEG2 video includes block noise, but does not include the dependent view.
  • the quality of video for the left and right eyes is close.
  • transmitting apparatus 4001 changes dependent view video encoder 2709 to dependent view video encoder 4004 among the constituent elements of transmitting apparatus 2701 shown in Embodiment 1, and further adds new constituent elements.
  • the down converter 4002 converts a high-quality image into a low-quality image. Specifically, when receiving an original image (image) in which one pixel is composed of 12 bits, the down-converter 4002 extracts the upper 8 bits for each pixel and outputs them to the 2D compatible video encoder 2702.
  • an image in which one pixel is composed of p (p is an integer of 1 or more) bits is referred to as a p-bit image.
  • the 2D compatible video encoder 2702 encodes the extracted 8-bit image
  • the Dec 2703 generates an 8-bit decoded picture by a decoding process.
  • Shift processing unit 4003 shifts the 8-bit decoded picture generated in Dec 2703 to the left by 4 bits. As a result, 0 is stored in the lower 4 bits of the 12 bits.
  • the shift processing unit 4003 stores the 12-bit image obtained by the left shift in the 2D compatible video frame memory 2708.
  • the dependent-view video encoder 4004 generates a compression-coded image consisting of lower 8 bits from a 12-bit original image (image). Specifically, the dependent-view video encoder 4004 acquires a difference between a 12-bit original image (image) and a 12-bit image stored in the 2D compatible video frame memory 2708. The dependent-view video encoder 4004 performs compression encoding on the lower 8 bits of the acquired difference.
  • the playback apparatus 4101 is obtained by adding the shift processing unit 4102, the adder 4103, and the plane 4104 shown in FIG. 41 except for the first plane 3104 and the second plane 3105 among the components of the playback apparatus 10 shown in the first embodiment. It is.
  • the transport stream transmitted from the transmission apparatus 4001 includes a picture of an 8-bit 2D compatible video stream and an 8-bit dependent-view video stream. It has become.
  • Shift processing unit 4102 shifts the 8-bit picture decoded by the 2D compatible video decoder 3102 to the left by 4 bits. As a result, 0 is stored in the lower 4 bits of the 12 bits.
  • Adder 4103 adds the 12-bit image shifted to the left and the 8-bit image decoded by the extended multi-view video decoder 3103, and outputs the result to the plane 4104.
  • Plane 4104 is a plane memory that holds 12-bit picture data that is the result of addition by the adder 4103.
  • the first change is that after step S10 shown in FIG. 33, processing is performed prior to executing step S15. Specifically, after step S10, prior to executing step S15, the transmission device 4001 uses the down converter 4002 to down-convert a 12-bit image into an upper 8-bit image.
  • the second change is step S20 shown in FIG. Specifically, before storing the decoded picture in the 2D compatible video frame memory 2708, the transmission apparatus 4001 uses the shift processing unit 4003 to shift the left of the 8-bit decoded picture by 4 bits, The result is stored in the 2D compatible video frame memory 2708.
  • step S125 the playback device 4101 shifts the 8-bit picture decoded by the 2D compatible video decoder 3102 to the left by 4 bits using the shift processing unit 4102 at the PTS timing, and then adds the adder 4103.
  • the shifted image and the 8-bit image decoded by the extended multi-view video decoder 3103 are added, and the addition result is output to the plane 4104.
  • one pixel is composed of 12 bits in the input image.
  • the present invention is not limited to this.
  • one pixel may be composed of 10 bits, and may be down-converted to upper 8 bits by the down converter 4002. That is, a high-quality image has only to be one pixel and a bit length longer than 8 bits.
  • the down converter 4002 extracts the upper 8 bits, and the shift processing unit 4003 and the shift processing unit 4102 only need to shift left by a difference of 8 bits from the bit length constituting one pixel.
  • the transmission device 4001 converts a high-quality image into a low-quality image and transmits the 2D video on the playback device 4101 side even when it is transmitted. High image quality can be realized.
  • an 8-bit 2D compatible video stream is transmitted as a format in accordance with a conventional broadcasting system, and information for extending to 12 bits in a dependent-view video stream is transmitted, so that a conventional decoder (that is, a conventional decoder) TV receivers can only decode and play back 2D compatible video streams, while new decoders with extended multiview decoders (new TVs and recorders with new decoders) are dependent.
  • a conventional decoder that is, a conventional decoder
  • new decoders with extended multiview decoders new TVs and recorders with new decoders
  • transmission apparatus 4201 changes multiplexer 2710 to multiplexer 4203 among the constituent elements of transmission apparatus 2701 shown in Embodiment 1, and has expansion section 4202 as a new constituent element. .
  • the image input to the 2D compatible video encoder 2702 is a 2D video (2K) of HD size with 1920 ⁇ 1080 pixels, and the image input to the dependent view video encoder 2709 has a pixel count.
  • the 3840 ⁇ 2160 2D video (4K) is 4 times the HD size.
  • the image input to the base view video encoder 2705 is an attached video such as a black screen, but the number of pixels is 3840 ⁇ 2160.
  • the 2K image input to the 2D compatible video encoder 2702 is generally a resized (reduced) 4K image input to the dependent view video encoder 2709.
  • the enlargement unit 4202 is a scaler defined by MPEG-4 AVC. For example, 2D video (2K) having an HD size of 1920 ⁇ 1080 pixels and 3840 having a pixel number four times the HD size. The image is enlarged to a 2160 image (4K).
  • the expansion unit 4202 stores the 2D video expanded to 4K in the 2D compatible video frame memory 2708.
  • the dependent view video encoder 2709 can compress and encode the input 2D video (4K) with reference to the 2D video expanded to 4K.
  • Multiplexer 4203 The multiplexer 4203, similar to the multiplexer 2710, divides the 2D compatible video stream, base-view video stream, and dependent-view video stream into PES packets, divides them into TS packets, multiplexes them into transport streams, and outputs them. .
  • the multiplexer 2710 gives encoding information and scaler information indicating a scaler method to the user data of the MPEG-2 ES (elementary stream) when multiplexing.
  • the playback device 4301 changes the determination unit 3112 to a determination unit 4303 among the components of the playback device 10 shown in Embodiment 1, and further includes an enlargement unit 4302 as a new component. ing.
  • Determination unit 4303 The determination unit 4303 has the following functions in addition to the functions of the determination unit 3112 described in Embodiment 1.
  • the determination unit 4303 determines whether or not enlargement by the method indicated by the scaler information is possible, and outputs the result to the enlargement unit 4302.
  • the enlargement unit 4302 is a scaler defined by MPEG-4 AVC. Like the enlargement unit 4202, the enlargement unit 4302 can output 2D video (2K) having an HD size of 1920 ⁇ 1080 pixels and an HD size of pixels. The image is enlarged to a 4840 ⁇ 3840 ⁇ 2160 image (4K).
  • the expansion unit 4302 expands the decoded picture decoded by the Dec 3116 to 4K using the method indicated by the scaler information,
  • the 2D image obtained by enlarging is stored in the inter-view reference buffer 3139.
  • the first change is step S20 shown in FIG. Specifically, before storing the decoded picture in the 2D compatible video frame memory 2708, the transmission device 4201 uses the enlargement unit 4202 to enlarge the 2D video (2K) into a 2D image (4K).
  • the second change is step S35 shown in FIG. Specifically, the transmission device 4201 assigns encoded information and scaler information indicating a scaler method to user data of the MPEG-2 ES.
  • the playback device 4301 determines whether or not there is a picture (2K) of the 2D compatible video stream to be decoded (step S200). Specifically, the playback device 4301 determines whether there is data in the EB 3115.
  • the playback device 4301 uses the determination unit 4303 to add the encoded information having a value “1” to the ES header. It is determined whether or not it exists (step S205).
  • the playback apparatus 4301 uses the determination unit 4303 to determine whether or not the encoding information can be expanded by the method indicated by the scaler information. Is determined (step S210).
  • the playback device 4301 uses the extended multi-view video decoder 3103 to decode the picture of the base-view video stream and stores it in the inter-view reference buffer 3139. (Step S215).
  • the playback device 4301 uses the Dec 3116 of the 2D compatible video decoder 3102 to decode the picture of the 2D compatible video stream, and further expands and expands the decoded picture using the enlargement unit 4302 in the method indicated by the scaler information.
  • the picture is overwritten with the picture of the base view stream having the same DTS in the inter-view reference buffer 3139 (step S220).
  • the playback apparatus 4301 uses the extended multi-view video decoder 3103 to refer to the enlarged picture stored in the inter-view reference buffer 3139 and decode the picture of the dependent-view video stream (step S225).
  • the playback device 4301 uses the output processing unit 3142 to output the decoded 4K decoded picture to the second plane at the PTS timing (step S230).
  • the playback device 4301 decodes the picture of the 2D compatible video stream using the 2D compatible video decoder 3102 (step S235). At this time, the 2D compatible video decoder 3102 does not store the decoded picture in the inter-view reference buffer 3139.
  • the playback device 4301 uses the output processing unit 3118 to output the decoded picture of the 2D compatible video stream to the first plane 3104 at the PTS timing (step S240). Accordingly, when there is no encoded information whose value is “1” and when the specified information cannot be enlarged, the playback device 4301 can output 2D video having a size of 2K.
  • step S200 When it is determined that no picture of the 2D compatible video stream exists (“No” in step S200), the playback device 4301 ends the process.
  • the transmission apparatus 4201 refers to a 2D compatible video stream compatible with conventional broadcasting and a 2D compatible video stream to efficiently achieve higher image quality such as 4K2K. It is possible to transmit the video as a dependent view video.
  • the playback device 4301 can convert a 2K1K image into a 4K2K image.
  • the transmission apparatus 4201 and the playback apparatus 4301 play back 2K1K video as a 2D compatible video stream in a conventional playback apparatus that does not have an extended multiview video decoder, and 4K2K or the like in a new playback apparatus that has an extended multiview video decoder. It is possible to play back high-quality video.
  • the transmission apparatus 4501 includes an expansion section 4202 as an expansion section 4502 and a dependent view video encoder 2709 as a dependent view video encoder 4503 among the components of the transmission apparatus 4201 described in Embodiment 4. Each has been changed.
  • the image input to the 2D compatible video encoder 2702 is a Side-by-Side original (SbS), and the image input to the dependent-view video encoder 2709 is composed of FHD right-eye video and left-eye video.
  • the image input to the base view video encoder 2705 is an attached video (4K1K) such as a black screen.
  • the enlargement unit 4502 is a scaler that enlarges the image decoded by Dec 2703 twice in the horizontal direction.
  • the picture decoded in Dec 2703 is a Side-by-Side decoded picture, that is, an image before division in which the right video and the left video are reduced in half in the horizontal direction.
  • the enlargement unit 4502 enlarges this image twice in the horizontal direction so that each of the right image and the left image has an image size to be displayed.
  • the enlargement unit 4502 stores the image (SbS) enlarged twice in the horizontal direction in the 2D compatible video frame memory 2708.
  • the dependent-view video encoder 4503 can compress and encode the input video (LR) with reference to the image that is doubled in the horizontal direction.
  • the dependent-view video encoder 4503 compresses and encodes an input original picture (LR) with reference to an image (SbS) enlarged twice in the horizontal direction stored in the 2D compatible video frame memory 2708. It is. Specifically, the dependent-view video encoder 4503 acquires the difference between the input video (LR) and the decoded picture (image (SbS)) stored in the 2D compatible video frame memory 2708. The dependent-view video encoder 4004 performs compression encoding on the acquired difference.
  • the playback device 4601 includes an enlargement unit 4302 as an enlargement unit 4602 and a multi-view video compression video decoder (Dec) 3140 as multi-view video compression among the components of the playback device 4301 shown in the fourth embodiment.
  • the video decoder (Dec) 4603 is changed to have a cropping unit 4604 as a new component.
  • an image input to the 2D compatible video decoder 3102 is a Side-by-Side original image (SbS) that is compression-encoded
  • an image input to the extended multi-view video decoder 3103 is an FHD original image.
  • a difference image a difference between the (LR) and the original image (SbS) (hereinafter referred to as a difference image) is compression-encoded.
  • the image input to the base view video encoder 2705 is a video obtained by compression-coding the attached video (4K1K).
  • the enlargement unit 4602 is a scaler that enlarges the image decoded by Dec 3116 twice in the horizontal direction. Specifically, when it is determined by the determination unit 4303 that expansion by the method indicated by the scaler information is possible, the enlargement unit 4602 converts the decoded picture decoded by the Dec 3116 in the horizontal direction by the method indicated by the scaler information. The image is enlarged twice in the direction, and the enlarged image is stored in the inter-view reference buffer 3139.
  • the picture decoded by Dec 3116 is a Side-by-Side decoded picture, that is, an image before division in which the right video and the left video are reduced in half in the horizontal direction.
  • the enlargement unit 4602 enlarges this image twice in the horizontal direction so that each of the right image and the left image has an image size to be displayed.
  • Multi-view video compression video decoder 4603 refers to the image doubled in the horizontal direction stored in the inter-view reference buffer 3139, and encodes the encoded right-eye video included in the dependent view stream. Each of the difference images and the difference images for the encoded left-eye video is decoded.
  • the multi-view video compression video decoder 4603 decodes the difference image for the encoded right-eye video with reference to the image corresponding to the right-eye image among the images that are doubled in the horizontal direction. Then, the difference image for the encoded left-eye video is decoded with reference to the image corresponding to the left-eye image among the images magnified twice in the horizontal direction. The multi-view video compressed video decoder 4603 alternately outputs the decoded right eye image and left eye image to the DPB 3141.
  • Cropping unit 4604 The cropping unit 4604 outputs the decoded right-eye image and left-eye image output to the second plane alternately.
  • the playback device 4601 enables playback of 3D video by alternately displaying the right eye image and the left eye image output from the cropping unit 4604.
  • the first change is step S20 shown in FIG. Specifically, before storing the decoded picture in the 2D compatible video frame memory 2708, the transmission apparatus 4201 uses the enlargement unit 4502 to enlarge the decoded image twice in the horizontal direction.
  • the second change is step S35 shown in FIG. Specifically, the transmission apparatus 4501 adds encoding information and scaler information indicating a scaler method to MPEG-2 ES user data.
  • step S220 shown in FIG. Specifically, the playback device 4601 enlarges the picture decoded using the Dec 3116 of the 2D compatible video decoder 3102 twice horizontally in the method indicated by the scaler information using the enlargement unit 4602, and displays the enlarged picture.
  • the picture of the base view stream having the same DTS in the inter-view reference buffer 3139 is overwritten.
  • the playback device 4601 uses the cropping unit 4604 to alternately output the right eye image and the left eye image held in the second plane.
  • the video (image) processed by the 2D compatible video encoder 2702 and the 2D compatible video decoder 3102 is a Side-by-Side image, but is not limited thereto.
  • the video (image) processed by the 2D compatible video encoder 2702 and the 2D compatible video decoder 3102 may be a Top and Bottom system.
  • the enlargement unit 4502 and the enlargement unit 4602 enlarge the image twice in the vertical direction of the decoded picture.
  • the Dec 4603 does not output the attached image to the DPB 3141, but instead outputs the picture that has been doubled in the horizontal direction output from the 2D compatible video decoder 3102 to the DPB 3141. It may be output.
  • the Dec 4603 when the Dec 4603 outputs a picture doubled in the horizontal direction output from the 2D compatible video decoder 3102 to the DPB 3141 instead of outputting the attached image to the DPB 3141, the Dec 4603
  • the decoding may be performed as follows.
  • Dec 4603 decodes only the difference instead of decoding the right-eye image itself and the left-eye image itself, and before the image is output by the cropping unit 4604, the decoded right-eye and left-eye difference images are doubled in the horizontal direction.
  • the right-eye image itself and the left-eye image itself may be generated using the picture.
  • the playback device 4601 adds the right-eye difference image and the image corresponding to the right eye among the pictures doubled in the horizontal direction by the adder, and the left-eye difference image and the horizontal direction Are added to the image corresponding to the left eye of the picture magnified twice to generate the right eye image itself and the left eye image itself.
  • the decoding of the difference image described above is a modified example in which a picture doubled in the horizontal direction output from the 2D compatible video decoder 3102 is output to the DPB 3141 instead of outputting the attached image to the DPB 3141.
  • it is not limited to this.
  • the same configuration as described above (adder added) 3D video reproduction can be realized by the configuration) and operation.
  • the playback device 4601 refers to the Side-by-Side method (or Top and Bottom method) image that has been doubled in the horizontal direction, and depends on the image. It is possible to generate 3D video images by generating right and left eye images from the right eye and left eye difference images included in the view video stream.
  • transmission apparatus 4901 includes base view video decoder (Dec) 4902, adder 4903, and subtractor 4904 in addition to the same components as transmission apparatus 2701 shown in Embodiment 1.
  • Dec base view video decoder
  • Subtracter 4904 The subtractor 4904 calculates the difference between the video decoded in Dec 2703 and the left-eye original after the left-eye original is encoded into MPEG2 by the 2D-compatible video encoder 2702 to become a 2D-compatible video stream.
  • the subtractor 4904 outputs the calculated result (difference image of the left eye) to the base view video encoder 2705.
  • the base view video encoder 2705 performs compression coding on the difference image of the left eye.
  • Base-view video decoder 4902 decodes the base-view video stream output from the base-view video encoder 2705, and outputs a decoded picture obtained by decoding the compression-encoded left-eye difference image.
  • Adder 4903 adds the decoded picture output from the 2D compatible video decoder 2703 and the decoded picture output from the base-view video decoder 4902 to generate a reference picture (L), and the generated reference picture (L) Are stored in the 2D compatible video frame memory 2708.
  • the dependent-view video encoder 2709 refers to the reference picture (L) that is a higher quality video than the video decoded by Dec 2703 when the input right-eye original image (R) is compression-encoded. Compression encoding.
  • the 2D compatible video stream is obtained by encoding the left eye original image, and the base view video stream is encoded by the difference image between the encoded 2D compatible video stream and the left eye original image.
  • the original right-eye image is encoded with reference to the reference picture (L) recorded in the 2D compatible video frame memory 2708.
  • the playback device 5001 has a third plane 4802 and an adder 4803 in addition to the components of the playback device 10 shown in the first embodiment.
  • the determination unit 3112 of the playback device 5001 outputs the determination result to the output processing unit 3118 in addition to the functions described in the first embodiment.
  • the output processing unit 3118 of the playback device 5001 indicates that encoded information whose value is “1” is stored as a result of determination by the determination unit 3112 in addition to the functions described in the first embodiment.
  • the output destination of the image (decoded picture) stored in the first plane is controlled to be the adder 4803.
  • the output source of the image stored in the inter-view reference buffer 3139 is different from the other embodiments.
  • the third plane 4802 is a plane memory that holds a picture (difference image of the left eye) of the base-view video stream that is decoded by the extended multi-view video decoder 3103 and output at the display timing.
  • Adder 4803 adds the picture (left-eye image) output from the first plane 3104 and the picture (left-eye difference image) output from the third plane.
  • the left eye image generated by the adder 4803 is stored in the inter-view reference buffer 3139.
  • the multi-view video compressed video decoder 3140 refers to the image output from the adder 4803 and decodes the dependent view stream.
  • the first change is step S20 shown in FIG. Specifically, the transmission device 4901 performs decoding processing of 2D compatible video streams for one encoded number using the 2D compatible video decoder 2703, and converts base encoded video streams for one encoded number using the base view video decoder 4902. Each decoding process is performed, the decoded pictures are added using an adder 4903, and the result is stored in the 2D compatible video frame memory 2708.
  • the second change is step S25 shown in FIG. Specifically, the transmission device 4901 generates a left-eye difference image using the subtractor 4904, and compresses and encodes the difference image generated using the base-view video encoder 2705 to generate a base-view video stream.
  • the last change is that the processing order of the changed step S20 and the changed step S25 is switched.
  • the first change is step S115. Specifically, the playback device 5001 decodes the picture of the 2D compatible video stream using the 2D compatible video decoder 3102 and adds the picture decoded in step S110 using the adder 4803, and the result is displayed between the views. The base view stream picture having the same DTS in the reference buffer 3139 is overwritten.
  • the second change is step S125.
  • the playback device 5001 uses the output processing unit 3118 and the output processing unit 3142 to convert the decoded picture (left-eye image) of the 2D-compatible video stream to the PTS. It outputs to the first plane 3104 at the timing, outputs the decoded picture (right eye) of the dependent-view video stream to the second plane at the timing of PTS, and further outputs the decoded picture (difference image of the left-eye) of the base-view video stream Output to the third plane at the timing of PTS. Further, using the output processing unit 3118, the playback device 5001 then outputs the decoded picture (left-eye image) stored in the first plane and the adder 4803 to the decoded picture stored in the third plane. (Left eye difference image) is added to generate a left eye image with reduced noise.
  • the transmission device 4901 compresses the left-eye original image with MPEG2 when transmitting the 3D video image using the left-eye original image and the right-eye original image. And can be played with compatibility.
  • the left-eye video is compressed with MPEG2 and the right-eye video is compressed with a new compression technology such as MPEG-4 AVC or MPEG-4 MVC
  • noise block noise etc.
  • the new compression technology makes it difficult to detect block noise with a deblocking filter, etc.
  • the balance between the left and right images is different, and the 3D viewer May feel uncomfortable. Therefore, in the sixth embodiment, the difference between the MPEG2 compressed 2D compatible video stream and the left-eye original image is compressed as a base view video stream, and a video obtained by decoding the 2D compatible video stream and the base view video stream are reproduced. Since the decoded video is added, the block noise described above can be reduced by adding it to the base view video stream, so that it is possible to reduce the difference in the balance (how noise is generated) of the 3D video to be played back. .
  • the 2D compatible video stream is described as MPEG-2 video
  • the multi-view video stream base view video stream and dependent view video stream
  • MPEG-4 MVC video base view video stream and dependent view video stream
  • the type is not limited to this.
  • the playback device and the transmission device in each embodiment it is possible to cope with this by appropriately changing the configuration according to the characteristics of the codec. For example, when the 2D compatible video stream is MPEG-4 AVC and the multi-view video stream is “new codec”, the playback device changes the re-ordering buffer to DPB, and the picture data in the inter-view reference buffer Management may be performed according to the configuration of the “new codec”.
  • the transmission apparatus stores the encoded information in the user data for each video access unit of the MPEG-2 ES, but the present invention is not limited to this.
  • the transmitting apparatus For each of a plurality of GOPs in the MPEG-2 ES, stores the encoding information only in the user data of the head video access unit included in the GOP, that is, only the head image of the GOP is encoded. Information may be given.
  • the receiving apparatus analyzes the content of the encoded information given to the head image of the GOP for each of a plurality of GOPs in the MPEG-2 ES, and performs processing according to the result.
  • the transmission apparatus may store the encoded information in the PES header when each encoded 2D image is converted into a PES packet.
  • the receiving apparatus analyzes the content of the encoded information included in the PES packet and performs processing according to the result.
  • the transmission apparatus may store the encoded information in an MPEG-4 MVC SEI (Supplemental Enhancement Information) message, instead of storing the encoded information in the MPEG-2 ES.
  • the transmission apparatus may store the SEI message of the video access unit for each of the video access units constituting the dependent view, or the head included in the GOP for each of the plurality of GOPs.
  • Encoding information may be stored only in the SEI message of the video access unit.
  • the content of the encoded information may be determined in the extended multi-view video decoder, and the result may be notified to the 2D compatible view video decoder.
  • the extended multi-view video decoder may transmit the encoded information to the 2D compatible view. It may be passed to the video decoder, and the 2D compatible view video decoder may determine the content of the encoded information.
  • the transmission apparatus may store the encoded information in a system packet (PMT: ProgramMap Table) or in an EIT (Event Information Table). Since the PMT is analyzed before starting the decoding of the program, the receiving apparatus can know the determination result of the content of the encoded information before starting the decoding of the program. In addition, since the EIT is information that can be acquired before the program starts, the receiving device may determine the content of the encoded information before the program starts and store the result in a memory or the like. You may judge the content of the encoding information with respect to the said program at the time of a program start.
  • PMT ProgramMap Table
  • EIT Event Information Table
  • the transmitting apparatus may store the encoded information in various tables (MGT) defined in A / 65: 2009: Program And And System Information For Protocol, Broadcast, And Cable Standard of Advanced Broadcasting Systems (ATSC: ATSC). , VCT, EIT, ETT) or a descriptor.
  • MCT Program And And System Information For Protocol, Broadcast, And Cable Standard of Advanced Broadcasting Systems
  • EIT EIT
  • ETT ETT
  • VCT is a table defined as Virtual Channel Table, and attribute information of each channel (channel number, channel transmission path, video stream used, etc.)
  • the encoded information may be stored in both the PMT and the EIT. Since the EIT is information distributed before the start of the program and there is a possibility that the content of the encoded information may be changed immediately before the program, the receiving device uses the encoding stored in both the PMT and the EIT at the start of the program. When the contents of the information are compared and the contents are different, the contents of the encoded information stored in the PMT are preferentially processed.
  • the encoding information is always transmitted from the transmission device to the reception device, but the present invention is not limited to this.
  • Encoding information may not always be transmitted.
  • the receiving apparatus knows in advance that an inverse DCT that does not cause an error is used when an MPEG-2 ES image (left-eye image) transmitted from the transmitting apparatus is encoded.
  • the receiving apparatus stores information as to whether or not an inverse DCT that does not cause an error in encoding of an MPEG-2 ES image is used for each channel for receiving video.
  • the transmission device transmits a single type of transport stream.
  • the single type of stream is, for example, a stream for 3D display using a 2D video (a stream for 3D) in the first embodiment, and a 2D video (2K) in the fourth embodiment.
  • This is a stream (4K2K stream) to be enlarged (4K) for display.
  • the transmission device may transmit multiple types of streams.
  • a case where the transmission apparatus transmits a 3D stream and a 4K2K stream will be described.
  • the transmitting device includes a stream identifier for identifying whether the stream to be transmitted is a 3D stream or a 4K2K stream in the stream to be transmitted.
  • the stream identifier is stored in supplementary data (user_data) of each video access unit of the MPEG-2 ES.
  • the stream identifier may be stored only in the video access unit corresponding to the first image of the GOP for each of the plurality of MPEG-2 ES GOPs.
  • it may be stored in the SEI of all the MPEG-4 MVC images, or may be stored only in the top image of the GOP for each GOP.
  • the stream identifier may be stored in the PMT, may be stored in the EIT, or may be stored in both the PMT and the EIT.
  • the receiving apparatus performs processing related to 3D display or processing related to 4K2K according to the content of the stream identifier stored in the received stream.
  • the transmitting apparatus may transmit encoder identification information for identifying the 2D compatible video encoder that generated the 2D compatible video stream, instead of transmitting the encoded information.
  • encoder identification information for identifying the 2D compatible video encoder that generated the 2D compatible video stream.
  • an identifier of a provider (manufacturer) that provides a 2D compatible video encoder is given to the encoder identifier.
  • the 2D compatible video encoder may use an inverse DCT in which an error occurs.
  • the receiving apparatus uses the encoder identifier transmitted from the transmitting apparatus to identify the provider of the 2D compatible video encoder used to generate the MPEG-2 ES, and matches the provider of the 2D compatible video decoder provided by itself. Determine whether to do. If they match, the receiving apparatus performs the same processing as when the value of the encoded information is “1”. If they do not match, the receiving apparatus performs the same process as when the value of the encoded information is “0”.
  • the encoding algorithm and the decoding algorithm when generating the reference screen may be different for each provider (manufacturer). Therefore, if the provider of the 2D compatible video encoder is specified, it is determined whether or not the decoding algorithm used by the 2D compatible video decoder provided by the provider is the same as the algorithm used by the 2D compatible video encoder. Can be determined. If they are the same, the image decoded by the decoding algorithm used in the 2D compatible video decoder matches the image decoded by the 2D compatible video encoder for generating the reference screen.
  • the minimum error (the 2D compatible video encoder decodes for generating the reference screen). The error can be reduced by the same error).
  • the playback device 4301 when there is no encoded information whose value is “1”, the playback device 4301 outputs 2D video having a size of 2K.
  • the present invention is not limited to this.
  • the playback device 4301 may decode the image by inverse DCT conversion that recognizes an error, and perform enlargement by the enlargement unit 4302.
  • the 2D compatible video encoder is obtained by decoding an image obtained by compressing and decoding a reference image, but is not limited thereto.
  • the 2D compatible video encoder may store the received image itself as a reference image in a memory instead of obtaining a reference image by decoding.
  • a CPU Central Processing Unit
  • a program describing the procedure of the method may be stored in a recording medium and distributed.
  • Each configuration according to each of the above embodiments may be realized as an LSI (Large Scale Integration) that is an integrated circuit. These configurations may be made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI Large Scale Integration
  • IC Integrated Circuit
  • system LSI super LSI
  • ultra LSI ultra LSI
  • the method of circuit integration is not limited to LSI, and circuit integration may be performed with a dedicated circuit or a general-purpose processor.
  • an FPGA Field Programmable Gate Array
  • a reconfigurable processor ReConfigurable Processor
  • the calculation of these functional blocks can be performed using, for example, a DSP (Digital Signal Processor) or a CPU (Central Processing Unit). Further, these processing steps can be processed by being recorded on a recording medium as a program and executed.
  • a transmitting apparatus that encodes and transmits an image sequence for one program which is one embodiment of the present invention, is an inverse discrete in which no error occurs with an image before encoding when generating a reference image.
  • the transmission means for transmitting the transport stream, and the 2D image is MPEG-2 Video (Moving Picture Experts Group-2 Video).
  • the image related to the 2D image is an encoding scheme that generates a base-view video stream and a dependent-view video stream with reference to the base-view video stream.
  • the second encoding means is encoded and decoded and included in the dependent-view video stream, and the second encoding means converts the image included in the dependent-view video stream into the base-view video stream.
  • a corresponding 2D image is referred to in the 2D image sequence.
  • the transmitting apparatus refers to the picture of the MPEG-2 video stream encoded by the first encoding method, and encodes the picture in the MPEG-4 MVC dependent-view video stream. Therefore, the receiving side device refers to the picture of the MPEG-2 video stream and decodes the picture of the MPEG-4 MVC dependent view video stream so that the image intended by the broadcast side, that is, before encoding, An image without error can be obtained, and stereoscopic viewing intended by the broadcasting side can be obtained even in 3D playback.
  • the multiplexing means may perform the multiplexing so that the transport stream includes encoding information indicating that the encoding has been performed by the first encoding method.
  • the transmission apparatus transmits the encoded information indicating that it has been encoded by the first encoding method
  • the reception-side apparatus indicates that it has been encoded by the first encoding method.
  • a decoding method that does not cause an error can be used to obtain an image having no error compared to that before encoding. Therefore, for example, a 2D image can be reproduced as an intended 3D video on the broadcast side by using the 2D image as one viewpoint and referring to the 2D image as an image with no error from that before encoding.
  • the multiplexing means may store the encoded information in a PMT (Program Map Table) multiplexed as a transport stream to be generated.
  • PMT Program Map Table
  • the transmission apparatus since the transmission apparatus stores the encoded information in the PMT, the reception-side apparatus can confirm the presence / absence of the encoded information before decoding the video stream.
  • the 2D image may be an image at one viewpoint when stereoscopically viewed, and the image related to the 2D image may be an image at another viewpoint when stereoscopically viewed. .
  • the transmission device encodes the 2D image as one viewpoint and the image related to the 2D image as the other viewpoint, so that the reception side device can perform the 3D video intended by the broadcast side. Can be played.
  • the multiplexing means may store the encoding information in a video access unit corresponding to the 2D image for each 2D image included in the image sequence.
  • the transmission apparatus since the transmission apparatus stores the encoded information for each image in the corresponding video access unit, the reception-side apparatus can check the presence / absence of the encoded information for each image. As a result, the transmission device can provide a video intended by the broadcast side to the reception side device for each image.
  • the multiplexing means includes the GOP header included in the GOP. You may store in.
  • the transmission apparatus since the transmission apparatus stores the encoded information in units of GOP for 2D images, the reception side apparatus can confirm the presence or absence of the encoded information in units of GOP.
  • the multiplexing unit may store the encoded information in an access unit corresponding to the image.
  • the transmission apparatus since the transmission apparatus stores the encoded information in the access unit, the reception-side apparatus confirms the presence or absence of the encoded information for the access unit of each image in the dependent-view video stream. Can do.
  • the multiplexing means is included in the GOP for each GOP (Group of Pictures) that is a set of images correlated when the images included in the dependent-view video stream are encoded.
  • the encoded information may be stored in the access unit corresponding to the first image.
  • the transmission apparatus since the transmission apparatus stores the encoded information in GOP units for the dependent-view video stream, the reception side apparatus can confirm the presence or absence of the encoded information in GOP units.
  • the multiplexing means may store the encoded information in a PES header when each encoded 2D image is packetized into a PES (Packetized Elementary Stream) packet.
  • PES Packetized Elementary Stream
  • the transmission apparatus since the transmission apparatus stores the encoded information in the PES header, the reception-side apparatus can confirm the presence or absence of the encoded information for the PES header.
  • the multiplexing means may store the encoded information in an EIT (Event Information Table) multiplexed as a transport stream to be generated.
  • EIT Event Information Table
  • the transmission apparatus since the transmission apparatus stores the encoded information in the EIT, the reception-side apparatus can confirm the presence / absence of the encoded information before the start of the program.
  • the first encoding means uses a plurality of inverse discrete cosine transforms that allow an error with an image before encoding when generating a reference image, instead of the first encoding method.
  • Each of the 2D images included in the image sequence is encoded by one of the encoding methods, and the multiplexing means is encoded to the transport stream by the one encoding method.
  • the multiplexing may be performed so as to include identification information indicating.
  • the receiving apparatus since the transmission apparatus transmits identification information indicating that it has been encoded by one of the plurality of encoding systems, the receiving apparatus determines which of the plurality of encoding systems. Since it is possible to know whether or not encoding has been performed by the encoding method, the receiving-side apparatus can determine whether or not decoding can be performed using a decoding method corresponding to the encoded encoding method.
  • the encoding method for generating a base-view video stream and a dependent-view video stream with reference to the base-view video stream is MPEG-4 MVC (Moving Picture Experts Group-4 Multi View). (Coding) method.
  • the transmission apparatus can encode an image related to the 2D image by the MPEG-4 MVC method.
  • a receiving apparatus that receives an encoded image according to an embodiment of the present invention uses an inverse discrete cosine transform in which no error occurs with an image before encoding when generating a reference image.
  • a transport stream including a sequence of 2D images encoded by the encoding method and a sequence of images related to each 2D image encoded by the second encoding method using the 2D image as a reference image is received.
  • Second decoding means for decoding by two decoding methods wherein the 2D image is encoded and decoded by a MPEG-2 Video (Moving Picture Experts Group-2 Video) method, and is related to the 2D image
  • the image to be encoded is encoded and decoded by a coding method that generates a base-view video stream and a dependent-view video stream with reference to the base-view video stream, and is included in the dependent-view video stream
  • the second decoding means refers to a corresponding 2D image in the sequence of 2D images instead of referring to an image included in a base-view video stream when decoding an image. To do.
  • the receiving apparatus refers to the picture of the MPEG-2 video stream and decodes the picture in the MPEG-4 MVC dependent-view video stream.
  • an image without error can be obtained, and stereoscopic viewing intended by the broadcasting side can be obtained even in 3D playback.
  • the transport stream when each 2D image is encoded by the first encoding method, the transport stream includes encoding information indicating that, and the receiving device further includes: Determining means for determining whether or not the encoded information is included in the transport stream, and when the first decoding means determines that the encoded information is included, the first decoding means
  • the decoding may be performed by one decoding method.
  • the transport apparatus includes encoding information indicating that encoding has been performed according to the first encoding method, no error occurs when the transport stream is decoded. Since the decoding method is used, it is possible to obtain an image having no error from that before encoding. Therefore, for example, a 2D image can be reproduced as an intended 3D video on the broadcast side by using the 2D image as one viewpoint and referring to the 2D image as an image with no error from that before encoding.
  • the encoding information is stored in a PMT (Program Map Table) included in the transport stream when each 2D image is encoded by the first encoding method.
  • the determination unit may determine whether or not the encoded information is stored in the PMT before decoding of an image by the first decoding unit and the second decoding unit is started.
  • the receiving apparatus can confirm the presence / absence of the encoded information before decoding the video stream.
  • the 2D image may be an image at one viewpoint when stereoscopically viewed, and the image related to the 2D image may be an image at another viewpoint when stereoscopically viewed. .
  • the receiving device decodes the encoded stream using the 2D image as one viewpoint and the image related to the 2D image as the other viewpoint, so that the 3D video intended by the broadcast side is reproduced. it can.
  • the encoding information is a video corresponding to the 2D image for each 2D image included in the transport stream.
  • the determination means determines whether or not the encoding information is stored in the video access unit of the image to be decoded at the time of decoding of the image by the first decoding means and the second decoding means. It may be determined.
  • the receiving apparatus since the video access unit corresponding to the encoded information for each image is stored, the receiving apparatus can check the presence or absence of the encoded information for each image. As a result, the receiving apparatus can decode the video intended by the broadcast side for each image.
  • the encoding information is a set of correlated 2D images at the time of encoding each 2D image.
  • Each GOP Group of Pictures
  • the determination unit encodes the GOP header included in the GOP when decoding is performed on a GOP basis. It may be determined whether or not information is stored.
  • the receiving apparatus can confirm the presence / absence of encoded information for each GOP for a 2D image.
  • the encoding information when each 2D image is encoded by the first encoding method, includes an access unit corresponding to each image included in the dependent-view video stream.
  • the determination unit stores the encoding information in the access unit corresponding to an image related to the 2D image to be decoded. It may be determined whether or not.
  • the receiving apparatus can confirm the presence / absence of the encoded information in the access unit of each image in the dependent-view video stream.
  • each 2D image is encoded by the first encoding method
  • the encoding information is correlated when the image included in the dependent-view video stream is encoded.
  • Each GOP Group of Pictures
  • the determination unit performs the decoding when the GOP is decoded. Then, it may be determined whether or not the encoded information is stored in the access unit corresponding to the head image included in the GOP.
  • the receiving apparatus can confirm the presence / absence of encoded information for each GOP for the dependent-view video stream.
  • the encoding information includes PES (Packetized Elementary Stream) of each 2D image constituting the transport stream. Is stored in the PES header included in the PES, and the determination unit includes the encoding information in the PES header for the 2D image to be decoded when the first decoding unit decodes the 2D video. It may be determined whether it is stored.
  • PES Packetized Elementary Stream
  • the receiving apparatus can confirm the presence / absence of the encoded information for the PES header.
  • the encoded information is stored in an EIT (Event Information Table) included in the transport stream when each 2D image is encoded by the first encoding method.
  • the determination unit may determine whether or not the encoded information is stored in the EIT when the reception unit starts receiving a transport stream constituting a program or before the reception starts.
  • the receiving apparatus can confirm the presence or absence of the encoded information before the program starts.
  • the reception apparatus further includes determination means for determining whether or not the identification information is included in the transport stream, and the first decoding means includes the first decoding means.
  • the decoding method corresponding to the one encoding method is used for the previous encoding by the one encoding method. It may decode the column of the 2D image.
  • the receiving device receives the identification information indicating that encoding has been performed using one of the plurality of encoding schemes, so that the encoding apparatus can perform encoding using any one of the plurality of encoding schemes. You can know whether or not Therefore, the receiving apparatus can determine whether or not decoding can be performed using a decoding scheme corresponding to the encoding scheme that has been encoded.
  • the encoding scheme for generating a base-view video stream and a dependent-view video stream with reference to the base-view video stream is MPEG-4 MVC (Moving Picture Experts Group-4 Multi View). (Coding) method.
  • the receiving apparatus can decode an image related to the 2D image by the MPEG-4 MVC method.
  • the present invention can be applied to an apparatus that transmits and receives 2D programs and 3D programs as one stream.

Abstract

 2D画像を用いた関連する他の画像の符号化及び復号を行った場合でも、放送側の意図する画像を生成できる送信装置を提供する。一の番組についての画像列を符号化して、送信する送信装置は、前記画像列に含まれる各2D画像を、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により符号化し、前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化し、それぞれの方式により符号化された各画像をトランスポートストリームとして多重化する。

Description

送信装置、受信装置、送信方法及び受信方法
 本発明は、マルチストリームに含まれる画像を符号化及び復号する技術に関するものである。
 マルチストリームを符号化及び復号する技術として、例えば、MPEG-4 AVC(Moving Picture Experts Group-4 Advanced Video Coding)標準に基づいた多視点符号化(MVC:Multi View Coding)がある(以下、MPEG-4 MVC)。
 図49は、MPEG-4 MVCによる符号化方式を説明する図である。MPEG-4 MVCでは、従来の機器との再生互換性のある「基本ビュー(ベースビュー)ビデオストリーム」と、基本ビューと同時に処理することで別視点の映像の再生を実現する「拡張ビュー(ディペンデントビュー)ビデオストリーム」から構成される。基本ビュービデオストリームは、図49に示すように、時間方向の冗長性のみを利用してピクチャ間予測符号化を用いて圧縮されている。一方で、拡張ビュービデオストリームは、この時間方向の冗長性を利用したピクチャ間予測符号化に加えて、視点間の冗長性を利用したピクチャ間予測符号化によって圧縮されている。拡張ビュービデオストリームのピクチャは、基本ビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮されている。例えば、拡張ビュービデオストリームの先頭P0ピクチャは、基本ビュービデオストリームのI0ピクチャを参照し、拡張ビュービデオストリームのB1ピクチャは、基本ビュービデオストリームのBr1ピクチャを参照し、拡張ビュービデオストリームの二つ目のP3ピクチャは、基本ビュービデオストリームのP3ピクチャを参照している。ここで、異なるビューのピクチャを参照することを、以降では「ビュー間参照」と呼び、同じビューのピクチャを参照することを「ビュー内参照」と呼ぶ。
 図49に示すように、基本ビュービデオストリームは、拡張ビュービデオストリームを参照していないため、基本ビュービデオストリームのみで再生することができる。反対に拡張ビュービデオストリームは、基本ビュービデオストリームを参照しているため、拡張ビュービデオストリームのみでは再生することはできない。しかしながら、ビュー内参照及びビュー間参照の双方を用いた予測符号化を行うことで、拡張ビュービデオストリームは基本ビュービデオストリームに比べてデータ量を大幅に削減でき、効率の良い符号化を行うことができる(特許文献1参照)。
特表2009-509454号公報
 ところで、放送波においても、3D映像の配信が行われ始めている。そこで、上述したように、MPEG-4 MVCの符号化方式を利用すれば、高圧縮を実現することができる。また、3D再生に対応していないが、MPEG-4 AVCの2D映像再生に対応している機器では、基本ビューはMPEG-4 AVCと互換が取れているので、基本ビューのみを2D映像として再生することが可能である。
 しかし、すべての機器でMPEG-4 AVCの2D映像再生が実現できるわけではない。ビデオコーデックには、MPEG-4 AVCに対応していない機器の場合には、MPEG-4 MVCを使っても、基本ビューを2D映像として再生することはできない。この互換性問題を回避するために、MPEG-4 MVCとは別に、MPEG-2ビデオを別途配信する場合には、放送波の帯域におさめるために、それぞれのビデオストリームのビットレートを低くしなければならず、画質の劣化を招くことになってしまう。
 そこで、放送波の帯域を確保するために、3D映像の再生では、MPEG-2ビデオストリームを一の視点の映像とし、拡張ビュービデオストリームがビュー間参照時にはMPEG-2ビデオストリームのピクチャを参照して、他の視点での映像とすることが考えられている。こうすることで、基本ビュービデオストリームは、黒画面等、映像とは無関係の画面とすることができ、放送波の帯域の利用率を抑えることができるとともに、2D映像の再生及び3D映像の再生が可能となる。
 しかしながら、MPEG-2ビデオストリームの復号方法によっては、得られる画像が、符号化前の画像と誤差が生じ、放送側の意図しない画像となる場合がある。そして、その意図しない画像を用いて他の視点での画像を生成すると、3D映像においても放送側の意図しない3D表示となるという問題がある。
 そこで、本発明は、上記問題に鑑みて、2D画像を用いた関連する他の画像の符号化及び復号を行った場合でも、放送側の意図する画像を生成できる送信装置、受信装置、送信方法及び受信方法を提供することを目的とする。
 上記目的を達成するために、本発明は、一の番組についての画像列を符号化して、送信する送信装置であって、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により、前記画像列に含まれる各2D画像を符号化する第1符号化手段と、前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化する第2符号化手段と、前記第1符号化手段及び前記第2符号化手段それぞれにより符号化された各画像をトランスポートストリームとして多重化する多重化手段と、前記トランスポートストリームを送信する送信手段とを備え、前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、前記第2符号化手段は、ディペンデントビュービデオストリームに含まれる画像を符号化する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照することを特徴とする。
 上記構成によると、送信装置は、第1符号化方式により符号化したMPEG-2ビデオストリームのピクチャを参照して、MPEG-4 MVCのディペンデントビュービデオストリームにおけるピクチャの符号化を行う。そのため、受信側の装置では、MPEG-2ビデオストリームのピクチャを参照して、MPEG-4 MVCのディペンデントビュービデオストリームのピクチャを復号することで、放送側が意図する画像、つまり符号化前と誤差のない画像を得ることができるとともに、3D再生においても放送側が意図する立体視が得られる。
2D映像とデプスマップから左目映像と右目映像の視差画像を生成する例を説明する図である。 再生装置10、11の使用行為を説明する図である。 トランスポートストリーム形式のデジタルストリームの構成を示す図である。 ビデオストリームの構造を説明する図である。 ビデオストリームのアクセスユニットの内部構成を説明する図である。 クロッピング領域情報とスケーリング情報を説明する図である。 クロッピング領域情報とスケーリング情報の具体的な指定方法を説明する図である。 PESパケットの構成を説明する図である。 トランスポートストリームを構成するTSパケットのデータ構造を説明する図である。 PMTのデータ構造を説明する図である。 立体視画像の表示の一例を示す図である。 Side-by-Side方式を説明する図である。 マルチビュー符号化方式による立体視方式を説明する図である。 ベースビュービデオストリームの各ピクチャと右目映像ビデオストリームの各ピクチャのビデオアクセスユニットの構成を説明する図である。 ベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTSとDTSの関係を説明する図である。 ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示す図である。 ディペンデントGOPに含まれるビデオアクセスユニットの構成を説明する図である。 トランスポートストリームのデータ構造を説明する図である。 2D互換ビデオストリームをMPEG-2ビデオ、マルチビュービデオストリームをMPEG-4 MVCのコーデックとした場合に一致させるビデオ属性とそのビデオ属性を示すための各フィールド名を示す図である。 本実施の形態におけるトランスポートストリームの構成とPMTパケットの関係を説明する図である。 3D情報ディスクリプタの構造を示す図である。 3D情報ディスクリプタの再生方式を説明する図である。 3Dストリームディスクリプタの構造を説明する図である。 トランスポートストリーム中における2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てるPTS、DTSおよびピクチャタイプの関係の例を示す図である。 2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームにおいて、特殊再生を容易にするための好適なピクチャタイプの関係を説明する図である。 2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示す図である。 送信装置2701の構成を示すブロック図である。 2D互換ビデオエンコーダ2702の構成を示すブロック図である。 ディペンデントビュービデオエンコーダ2709の構成を示すブロック図である。 MPEG-2のESヘッダの構造を示す図である。 再生装置10の構成を示すブロック図である。 再生装置10におけるビュー間参照バッファの管理を説明する図である。 送信装置2701の動作を示す流れ図である。 再生装置10の動作を示す流れ図である。 再生装置10におけるビュー間参照バッファの管理の変形例を説明する図である。 再生装置10におけるバッファの共用化方法を説明する図である。 送信装置3701の構成を示すブロック図である。 再生装置3801の構成を示すブロック図である。 再生装置3801の変形例を示すブロック図である。 送信装置4001の構成を示すブロック図である。 再生装置4101の構成を示すブロック図である。 送信装置4201の構成を示すブロック図である。 再生装置4301の構成を示すブロック図である。 再生装置4301の動作を示す流れ図である。 送信装置4501の構成を示すブロック図である。 再生装置4601の構成を示すブロック図である。 送信装置4901の構成を示すブロック図である。 再生装置5001の構成を示すブロック図である。 マルチビュービデオコーデック(MPEG-4 MVC)による符号化方式を説明する図である。
 (本発明の基礎となった知見)
 通常、MPEG-2の規格では、MPEG-2ビデオストリームの符号化及び復号時において、参照画像を生成する際に用いられる逆離散コサイン変換は、誤差を生じるものであってもよい旨の規定がある。
 誤差の生じる逆離散コサイン変換を用いた場合、符号化前の画像と、誤差の生じる逆離散コサイン変換により復号された画像とは、完全に一致するものではない。そのため、MPEG-2ビデオストリームの画像を参照する拡張ビュービデオストリームの画像の符号化や復号においても、受信装置側で放送側が意図しない画像が得られる可能性がある。なぜなら、誤差の生じた画像を参照するために参照画像(誤差が生じた画像)と、符号化対象の画像との差分は、本来の差分(誤差が生じていない画像と符号化対象の画像との差分)とは異なるからである。そうすると、放送側が意図しない画像を3D再生に用いることとなり、3D再生において放送側が意図しない立体視像が得られるという問題が生じることを、発明者らは知見した。
 そこで、発明者が鋭意検討し、MPEG-2ビデオストリームの符号化及び復号時の処理について、その処理方法を見直すことで、上記問題を解決する、本発明に至った。
 本発明の一態様である、一の番組についての画像列を符号化して、送信する送信装置は、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により、前記画像列に含まれる各2D画像を符号化する第1符号化手段と、前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化する第2符号化手段と、前記第1符号化手段及び前記第2符号化手段それぞれにより符号化された各画像をトランスポートストリームとして多重化する多重化手段と、前記トランスポートストリームを送信する送信手段とを備え、前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、前記第2符号化手段は、ディペンデントビュービデオストリームに含まれる画像を符号化する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照することを特徴とする。
 1.実施の形態1
 以下、本発明に係る実施の形態1について、図面を参照しながら説明する。
 1.1 準備
 先ず始めに、立体視の原理について簡単に述べる。立体視の実現法としては、ホログラフィ技術を用いる方法と、視差画像を用いる方式とがある。
 まず、1つ目のホログラフィ技術の特徴としては、人間が通常物体を認識するのと全く同じように物体を立体として再現することができるが、動画生成に関しては、技術的な理論は確立しているが、ホログラフィ用の動画をリアルタイムで生成する膨大な演算量を伴うコンピューター、及び1mmの間に数千本の線を引けるだけの解像度を持った表示装置が必要であるが、現在の技術での実現は非常に難しく、商用として実用化されている例はほとんどない。
 次に、2つ目の視差画像を用いる方式について説明する。一般に右目と、左目は、その位置の差に起因して、右目から見える像と左目から見える像には見え方に若干の差がある。この差を利用して人間は目に見える像を立体として認識できるのである。視差画像を用いて立体表示をする場合には、人間の視差を利用し平面の画像があたかも立体に見えるようにしている。
 この方式のメリットは、高々右目用と左目用の2つの視点の映像を準備するだけで立体視を実現できることにあり、技術的には、左右のそれぞれの目に対応した絵を、いかにして対応した目にだけ見せることができるかの観点から、継時分離方式を始めとするいくつかの技術が実用化されている。
 継時分離方式とは、左目用映像及び右目用映像を時間軸方向で交互に表示させ、目の残像反応により左右のシーンを脳内で重ね合わさせて、立体映像として認識させる方法である。
 また、視差画像を用いた立体視においては、右目に入る映像と左目に入る映像をそれぞれ用意する方式の他に、2D映像に対して画素単位で奥行き値が与えられたデプスマップを別途用意して、2D映像とデプスマップに基づいて左目映像と右目映像の視差画像をプレーヤやディスプレイで生成する方法がある。図1は2D映像とデプスマップから左目映像と右目映像の視差画像を生成する例を模式的に示している。デプスマップは2D映像内のそれぞれの画素に対応して奥行き値をもっており、図1の例では、2D映像の円形の物体は、デプスマップでは奥行きが高いことを示す情報が割り当てられ、それ以外の領域は奥行きが低いことを示す情報が割り当てられている。この情報は、画素ごとのビット列で格納しても良いし、画像イメージ(例えば「黒」を奥行きが低いことを示し、「白」を奥行きが高いことを示す画像イメージ)として格納しても良い。視差画像は、デプスマップの奥行き値から、2D映像の視差量を調整することによって作成することができる。図1の例では、2D映像内の円形の物体の奥行き値は高いため、視差画像を作成するときには、円形の物体の画素の視差量を大きくし、円形物体以外の領域は、奥行き値が低いため、円形の物体の画素の視差量を小さくして、左目映像、右目映像を作成する。この左目映像と右目映像を、継時分離方式等を使って表示すれば立体視が可能となる。
 以上が立体視の原理についての説明である。
 次に、本実施の形態における再生装置の使用形態について説明する。
 本実施の形態における再生装置は、2D映像もしくは3D映像を復号してディスプレイに映像を転送する装置である。ここでは、例としてデジタルテレビを挙げて説明する。
 デジタルテレビには、図2に示すように3D映像が視聴可能な3Dデジタルテレビ(再生装置)10と、3D映像の再生をサポートしない2D映像のみを再生できる2Dデジタルテレビ(再生装置)11がある。
 図2(a)は、再生装置の、使用行為についての形態を示す図である。本図に示すように、3Dデジタルテレビ10と3D眼鏡20とから構成され、ユーザによる使用が可能となる。
 再生装置10は、2D映像及び3D映像を表示することができるものであり、受信した放送波に含まれるストリームを再生することで映像を表示する。
 本実施形態の再生装置10は、3D眼鏡20をユーザが着用することで立体視を実現するものである。3D眼鏡20は、液晶シャッターを備え、継時分離方式による視差画像をユーザに視聴させる。視差画像とは、右目に入る映像と、左目に入る映像とから構成される一組の映像であり、それぞれの目に対応したピクチャだけがユーザの目に入るようにして立体視を行わせる。図2(b)は、左目用映像の表示時を示す。画面上に左目用の映像が表示されている瞬間において、前述の3D眼鏡20は、左目に対応する液晶シャッターを透過にし、右目に対応する液晶シャッターは遮光する。同図(c)は、右目用映像の表示時を示す。画面上に右目用の映像が表示されている瞬間において、先ほどと逆に右目に対応する液晶シャッターを透光にし、左目に対応する液晶シャッターを遮光する。
 また、2D映像及び3D映像を表示することができる別の方法の再生装置としては、先ほどの継時分離方式では左右のピクチャを時間軸方向で交互に出力していたのに対して、一画面中の縦方向に左目用のピクチャと右目用のピクチャを同時に交互に並べ、ディスプレイ表面にレンチキュラーレンズと呼ばれる蒲鉾上のレンズを通して、左目用のピクチャを構成する画素は左目だけに結像し、右目用のピクチャを構成する画素は右目だけに結像するようにすることで、左右の目に視差のあるピクチャを見せ、3Dとしてみることができる方式がある。なお、レンチキュラーレンズだけでなく、同様の機能を持たせたデバイス、例えば液晶素子を用いてもよい。また左目用の画素には縦偏光のフィルタ、右目用の画素には横偏光のフィルタを設置し、視聴者は、左目用には縦偏光、右目用には横偏光のフィルタを設置した偏光メガネを用いてディスプレイを見ることによって立体視が可能となる偏光方式がある。
 視差画像を用いた立体視のための方法はこの他にも2色分離方式などさまざまな技術が提案されており、本実施の例においては、継時分離方式を例として用いて説明するが、視差画像を用いる限りこの方式に限定するものではない。
 2Dデジタルテレビ11は、図2の(d)に示すように、再生装置10と異なり、立体視を実現できない。2Dデジタルテレビ11は、2D映像のみを表示することができるものであり、受信した放送波に含まれるストリームを2D映像としてのみ再生できる。
 以上が、再生装置の使用形態についての説明である。
 次に、デジタルテレビの放送波等で伝送される一般的なストリームの構造について説明する。
 デジタルテレビの放送波等での伝送では、MPEG-2トランスポートストリーム形式のデジタルストリームが使われている。MPEG-2トランスポートストリームとは、ビデオやオーディオなど様々なストリームを多重化して伝送するための規格である。ISO/IEC13818-1およびITU-T勧告H222.0において標準化されている。
 図3は、MPEG-2トランスポートストリーム形式のデジタルストリームの構成を示す図である。本図に示すようにトランスポートストリームは、ビデオストリーム、オーディオストリーム、字幕ストリームなどを多重化することで得られる。ビデオストリームは番組の主映像を、オーディオストリームは番組の主音声部分や副音声を、字幕ストリームは番組の字幕情報を格納している。ビデオストリームは、MPEG-2、MPEG-4 AVCなどの方式を使って符号化記録される。オーディオストリームは、ドルビーAC-3、MPEG-2 AAC、MPEG-4 AAC、HE-AACなどの方式で圧縮・符号化記録されている。
 ビデオストリームの構成について説明する。MPEG-2、MPEG-4 AVC、SMPTE VC-1などの動画圧縮符号化においては、動画像の空間方向および時間方向の冗長性を利用してデータ量の圧縮を行う。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対照のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。
 ここでは、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャとよび、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼び、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
 また、ビデオストリームは、図4に示すような階層構造を有している。ビデオストリームは、複数のGOP(Group of Pictures)から構成されており、これを符合化処理の基本単位とすることで動画像の編集やランダムアクセスが可能となっている。GOPは1つ以上のビデオアクセスユニットにより構成されている。ビデオアクセスユニットは、ピクチャの符合化データを格納する単位であり、フレーム構造の場合は1フレーム、フィールド構造の場合の1フィールドのデータが格納される。各ビデオアクセスユニットは、AU識別コード41、シーケンスヘッダ42、ピクチャヘッダ43、補足データ44、圧縮ピクチャデータ45、パディングデータ46、シーケンス終端コード47、ストリーム終端コード48などから構成される。各データはMPEG-4 AVCの場合は、NALユニットと呼ばれる単位で格納される。
 AU識別コード41は、アクセスユニットの先頭を示す開始符号である。シーケンスヘッダ42は、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダであり、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。ピクチャヘッダ43は、ピクチャ全体の符合化の方式などの情報を格納したヘッダである。補足データ44は、圧縮データの復号に必須ではない付加情報であり、例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。圧縮ピクチャデータ45には、圧縮符号化されたピクチャのデータが格納される。パディングデータ46は、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コード47は、再生シーケンスの終端を示すデータである。ストリーム終端コード48は、ビットストリームの終端を示すデータである。
 AU識別コード41、シーケンスヘッダ42、ピクチャヘッダ43、補足データ44、圧縮ピクチャデータ45、パディングデータ46、シーケンス終端コード47、ストリーム終端コード48の中身の構成は、ビデオの符合化方式によって異なる。
 例えば、MPEG-4 AVCの場合であれば、AU識別コード41は、AUデリミタ(Access Unit Delimiter)、シーケンスヘッダ42はSPS(Sequence Paramter Set)に、ピクチャヘッダ43はPPS(Picture Parameter Set)に、圧縮ピクチャデータ45は複数個のスライス、補足データ44はSEI(Supplemental Enhancement Information)、パディングデータ46はFillerData、シーケンス終端コード47はEnd of Sequence、ストリーム終端コード48はEnd of Streamに対応する。
 例えば、MPEG-2の場合であれば、シーケンスヘッダ42はsequence_Header、sequence_extension、group_of_picture_headerに、ピクチャヘッダ43はpicture_header、picture_coding_extension、圧縮ピクチャデータ45は複数個のスライス、補足データ44はuser_data、シーケンス終端コード47はsequence_end_codeに対応する。AU識別コード41は存在しないが、それぞれのヘッダのスタートコードを使えば、アクセスユニットの切れ目を判断できる。
 各データは常に必要ではなく、例えば、シーケンスヘッダ42はGOP先頭のビデオアクセスユニットでのみ必要で、それ以外のビデオアクセスユニットにはなくてもよい、としてもよい。また、符号化方式によっては、ピクチャヘッダ43は符号順で前のビデオアクセスユニットのものを参照して、自身のビデオアクセスユニット内にピクチャヘッダがなくても良い。
 また、図5(a)に示すようにGOP先頭のビデオアクセスユニットは、圧縮ピクチャデータ45としてIピクチャのデータが格納され、AU識別コード41、シーケンスヘッダ42、ピクチャヘッダ43、圧縮ピクチャデータ45が必ず格納され、補足データ44、パディングデータ46、シーケンス終端コード47、ストリーム終端コード48が格納されていても良い。図5(b)に示すようにGOP先頭以外のビデオアクセスユニットは、AU識別コード41、圧縮ピクチャデータ45が必ず格納され、ピクチャヘッダ43、補足データ44、パディングデータ46、シーケンス終端コード47、ストリーム終端コード48が格納されていても良い。
 また、前述のシーケンス終端コード47あるいはストリーム終端コード48はシーケンスの終端やストリームの終端以外では格納される必要はない。
 次に、クロッピング領域情報とスケーリング情報について図6を参照しながら説明する。
 ビデオ符号化方式によっては、符号化されたフレームの領域と、実際に表示に使う領域を変更することができる。図6のように、符号化されたフレーム領域(外枠)の中から実際に表示する領域F11を、「クロッピング領域」として指定することが出来る。例えば、MPEG-4 AVCの場合には、SPSに格納されるframe_cropping情報を使って指定できる。frame_cropping情報は、図7(a)のように、クロッピング領域F11の上線/下線/左線/右線と、符号化されたフレーム領域F10の上線/下線/左線/右線との差分を、上下左右のクロップ量として指定する。より具体的には、クロッピング領域F11を指定する場合には、frame_cropping_flagを1に設定し、frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset / frame_crop_right_offsetに上線/下線/左線/右線のクロップ量を指定する。MPEG-2の場合には、図7(b)のように、クロッピング領域F11の縦横のサイズ(sequence_display_extensionのdisplay_horizontal_size, display_vertical_size)と、符号化されたフレーム領域F10の中心とクロッピング領域F11の中心との差分情報(picture_display_extensionのframe_centre_horizontal_offset, frame_centre_vertical_offset)を使ってクロッピング領域F11を指定できる。
 また、ビデオ符号化方式によっては、クロッピング領域F11を実際にテレビなどに表示する際のスケーリング方法を示すスケーリング情報が存在する。これは、例えばアスペクト比として設定される。再生装置はそのアスペクト比の情報を使って、クロッピング領域F11をアップコンバートして表示を行う。例えば、MPEG-4 AVCの場合には、スケーリング情報として、SPSにアスペクト比の情報(aspect_ratio_idc)が格納される。MPEG-4 AVCの場合、1440×1080のクロッピング領域を、1920×1080に拡大して表示するためには、アスペクト比は4:3を指定する。この場合水平方向に4/3倍にアップコンバート(1440×4/3=1920)され、1920×1080に拡大されて表示される。MPEG-2の場合にも同様にsequence_headerにアスペクト比の情報(aspect_ratio_information)が格納されている。
 以上がビデオストリームの構成の説明である。
 トランスポートストリームに含まれる各ストリームはPIDと呼ばれるストリーム識別IDによって識別される。このPIDのパケットを抽出することで複合装置は、対象のストリームを抽出することが出来る。PIDとストリームの対応は以降で説明するPMT(Program Map Table)パケットのディスクリプタに格納される。
 図3は、トランスポートストリーム30がどのように多重化されるかを模式的に示している。まず、複数のビデオフレームからなるビデオストリーム31、複数のオーディオフレームからなるオーディオストリーム34を、それぞれPES(Packetized Elementary Stream)パケット列32および35に変換し、TS(Transport Stream)パケット33および36に変換する。同じく字幕ストリーム37のデータをそれぞれPESパケット列38に変換し、更にTSパケット39に変換する。MPEG-2トランスポートストリーム30はこれらのTSパケットを1本のストリームに多重化することで構成される。
 図8は、PESパケット列81に、ビデオストリームがどのように格納されるかを更に詳しく示している。本図における第1段目はビデオストリームのビデオフレーム列80を示す。第2段目は、PESパケット列81を示す。本図の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time-Stamp)やピクチャの復号時刻であるDTS(Decoding Time-Stamp)が格納される。
 図9は、トランスポートストリームを構成するTSパケット90のデータ構造を示している。TSパケット90は、4ByteのTSヘッダ91と、データ格納部92とから構成される188Byte固定長のパケットである。さらに、データ格納部92は、アダプテーションフィールド93とTSペイロード94から構成されている。TSヘッダ91は、transport_priority 95、PID 96、adaptaion_field_control 97などから構成される。PID 96は前述したとおりトランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priority 95は、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。adaptation_field_control 97は、アダプテーションフィールド93とTSペイロード94の構成を制御するための情報である。アダプテーションフィールド93とTSペイロード94はどちらかだけが存在する場合と両方が存在する場合があり、adaptation_field_control 97はその有無を示す。adaptation_field_control 97が1の場合は、TSペイロード94のみが存在し、adaptation_field_control 97が2の場合は、アダプテーションフィールド93のみが存在し、adaptation_field_control 97が3の場合は、TSペイロード94とアダプテーションフィールド93の両方が存在することを示す。
 アダプテーションフィールド93は、PCRなどの情報の格納や、TSパケット90を188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロード94にはPESパケットが分割されて格納される。
 トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。これらのパケットはPSI(Program Specific Information)と呼ばれる。PATはトランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、トランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またトランスポートストリームに関する各種ディスクリプタを持つ。ディスクリプタにはAVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、TSパケットのデコーダへの到着時刻とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
 図10は、PMTのデータ構造を詳しく説明する図である。PMT100の先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダ101が配置される。その後ろには、トランスポートストリームに関する複数のディスクリプタ102、・・・、103が配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関する複数のストリーム情報104、・・・、105が配置される。各ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ106、ストリームのPID107、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタ108、・・・、109から構成される。
 以上がデジタルテレビの放送波等で伝送される一般的なストリームの構造の説明である。
 次に、立体視に使う視差画像を実現するための一般的な映像フォーマットについて説明する。
 視差画像を使った立体視の方式では、右目に入る映像と、左目に入る映像とを各々用意し、それぞれの目に対応したピクチャだけが入るようにして立体視を行う。図11は、ユーザの顔を左側に描き、右側には、対象物たる恐竜の骨格を左目から見た場合の例と、対象物たる恐竜の骨格を、右目から見た場合の例とを示している。右目及び左目の透光、遮光が繰り返されれば、ユーザの脳内では、目の残像反応により左右のシーンの重合せがなされ、顔の中央の延長線上に立体映像が存在すると認識することができる。
 視差画像のうち、左目に入る画像を左目画像(L画像)といい、右目に入る画像を右目画像(R画像)という。そして、各々のピクチャが、L画像になっている動画像をレフトビュービデオといい、各々のピクチャがR画像になっている動画像をライトビュービデオという。
 レフトビュービデオとライトビュービデオを合成して圧縮符号化する3Dの映像方式には、フレーム互換方式とマルチビュー符号化方式がある。
 まず1つ目のフレーム互換方式は、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ間引きまたは縮小した上で一つのピクチャに合成して、通常の動画像圧縮符号化を行う方式である。一例としては、図12に示すような、Side-by-Side方式がある。Side-by-Side方式では、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ水平方向に1/2に圧縮した上で、左右に並べることで一つのピクチャに合成する。合成されたピクチャによる動画像は、通常の動画像圧縮符号化が行われてストリーム化される。一方再生時は、ストリームを通常の動画像圧縮符号化方式に基づいて動画像に復号化される。復号化された動画像の各ピクチャは、左右画像に分割されて、それぞれ水平方向に2倍に伸長されることによって、レフトビュービデオとライトビュービデオの対応する各ピクチャが得られる。得られたレフトビュービデオのピクチャ(L画像)とライトビュービデオのピクチャ(R画像)を交互に表示することによって、図12に示すような立体視画像を得ることができる。フレーム互換方式にはSide-by-Side方式の他に、左右画像を上下に並べるTop and Bottom方式や、ピクチャ内の1ライン毎に左右画像を交互に配置するLine Alternative方式などがある。
 次に、2つ目のマルチビュー符号化方式について説明する。マルチビュー符号化方式は、前述したMPEG-4 MVCが例である。マルチビュー符号化方式では、レフトビュービデオ、ライトビュービデオをデジタル化し、圧縮符号化することにより得られるビデオストリームである。
 図13は、マルチビュー符号化方式による立体視のためのレフトビュービデオストリーム、ライトビュービデオストリームの内部構成の一例を示す図である。
 本図の第2段目は、レフトビュービデオストリームの内部構成を示す。このストリームには、ピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9というピクチャデータが含まれている。これらのピクチャデータは、Decode Time Stamp(DTS)に従いデコードされる。第1段目は、左目画像を示す。そうしてデコードされたピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9をPTSに従い、I1、Br3、Br4、P2、Br6、Br7、P5の順序で再生することで、左目画像が再生されることになる。本図において、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャとそれぞれ呼ばれる。
 第4段目は、レフトビュービデオストリームの内部構成を示す。このレフトビュービデオストリームは、P1、P2、B3、B4、P5、B6、B7、P8というピクチャデータが含まれている。これらのピクチャデータは、DTSに従いデコードされる。第3段目は、右目画像を示す。そうしてデコードされたピクチャデータP1、P2、B3、B4、P5、B6、B7、P8をPTSに従い、P1、B3、B4、P2、B6、B7、P5の順序で再生することで、右目画像が再生されることになる。ただし、継時分離方式の立体視再生では、同じPTSが付された左目画像と右目画像とのペアうち一方の表示を、PTSの間隔の半分の時間(以下、「3D表示ディレイ」という)分だけ遅延して表示する。
 第5段目は、3D眼鏡20の状態をどのように変化させるかを示す。この第5段目に示すように、左目画像の視聴時は、右目のシャッターを閉じ、右目画像の視聴時は、左目のシャッターを閉じていることがわかる。
 これらのレフトビュービデオストリーム、ライトビュービデオストリームは、時間方向の相関特性を利用したピクチャ間予測符号化に加えて、視点間の相関特性を利用したビュー間予測符号化によって圧縮されている。ライトビュービデオストリームのピクチャは、レフトビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮されている。
 例えば、ライトビュービデオストリームの先頭Pピクチャは、レフトビュービデオストリームのIピクチャを参照し、ライトビュービデオストリームのBピクチャは、レフトビュービデオストリームのBrピクチャを参照し、ライトビュービデオストリームの二つ目のPピクチャは、レフトビュービデオストリームのPピクチャを参照している。
 そして、圧縮符号化されたレフトビュービデオストリーム及びライトビュービデオストリームのうち、単体で復号化が可能になるものを“ベースビュービデオストリーム”という。ベースビュースビデオストリームは、図4で説明したビデオストリームと同じ構成を持つ。また、レフトビュービデオストリーム及びライトビュービデオストリームのうち、ベースビュービデオストリームを構成する個々のピクチャデータとのビュー間でのフレーム間相関特性に基づき圧縮符号化されており、ベースビュービデオストリームが復号された上で復号可能になるビデオストリームを、“ディペンデントビュービデオストリーム”という。また、ベースビュービデオストリームとディペンデントビュービデオストリームを合わせて、”マルチビュービデオストリーム”と呼ぶ。なおベースビュービデオストリームとディペンデントビュービデオストリームは、それぞれ別々のストリームとして格納や伝送されてもよいし、例えばMPEG2-TSなどの同一のストリームに多重化されてもよい。
 ベースビュービデオストリームとディペンデントビュービデオストリームのアクセスユニットの関係について説明する。図14はベースビュービデオストリームの各ピクチャと右目映像ビデオストリームの各ピクチャのビデオアクセスユニットの構成を示している。前述したとおり、図14上段のように、ベースビュービデオストリームは、各ピクチャが1つのビデオアクセスユニットとして構成される。図14下段のように、ディペンデントビュービデオストリームも同様に、各ピクチャが1つのビデオアクセスユニットを構成するが、ベースビュービデオストリームのビデオアクセスユニットとはデータ構造が異なる。また、図14下段のように、ベースビュービデオストリームのビデオアクセスユニットは、表示時刻で対応するディペンデントビュービデオストリームのビデオアクセスユニットによって、3Dビデオアクセスユニット1701を構成し、後述するビデオデコーダは、この3Dビデオアクセスユニット単位でデコードおよび表示を行う。なお、MPEG-4 MVCのビデオコーデックでは、1つのビューにおける各ピクチャ(ここでいうビデオアクセスユニット)を「ビューコンポーネント」と定義し、マルチビューにおける同一時刻のピクチャ群(ここでいう3Dビデオアクセスユニット)を「アクセスユニット」と定義しているが、本実施の形態では図14で説明した定義で説明を行う。
 図15はAVストリーム中におけるベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てる表示時刻(PTS)、デコード時刻(DTS)の関係の例を示している。
 同時刻の視差画像を格納するベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャは、同一のDTS/PTSになるように設定される。これは、ピクチャ間予測符合化の参照関係にあるベースビューピクチャとディペンデントビューピクチャのデコード/表示順を同一に設定することで実現できる。このように構成することで、ベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャをデコードするビデオビコーダは、3Dビデオアクセスユニット単位でデコードおよび表示を行うことができる。
 図16はベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示している。ベースビュービデオストリームのGOP構造は、従来のビデオストリームの構成と同じであり、複数のビデオアクセスユニットで構成される。また、ディペンデントビュービデオストリームは、従来のビデオストリームと同様に、複数のディペンデントGOP160、161、・・・から構成される。また、各ディペンデントGOPは、複数のビデオアクセスユニットU160、U161、U162、・・・から構成される。各ディペンデントGOPの先頭ピクチャは、3D映像を再生する際に、ベースビュービデオストリームのGOP先頭のIピクチャとペアで表示されるピクチャであり、ベースビュービデオストリームのGOP先頭のIピクチャのPTSと同じPTSが付与されたピクチャである。
 図17(a)、(b)は、ディペンデントGOPに含まれるビデオアクセスユニットの構成を示している。図17(a)に示すようにディペンデントGOP先頭のビデオアクセスユニットは、圧縮ピクチャデータ175として、ベースビュービデオストリームのGOP先頭のIピクチャと同時刻に表示されるピクチャのデータが格納され、サブAU識別コード171、サブシーケンスヘッダ172、ピクチャヘッダ173、圧縮ピクチャデータ175が必ず格納され、補足データ174、パディングデータ176、シーケンス終端コード177、ストリーム終端コード178が格納されていても良い。サブシーケンスヘッダ172のフレームレート、解像度、アスペクト比の値は、対応するベースビュービデオストリームのGOP先頭のビデオアクセスユニットに含まれるシーケンスヘッダのフレームレート、解像度、アスペクト比と同じである。図17(b)に示すように、GOP先頭以外のビデオアクセスユニットは、サブAU識別コード171、175圧縮ピクチャデータが必ず格納され、ピクチャヘッダ173、補足データ174、パディングデータ176、シーケンス終端コード177、ストリーム終端コード178が格納されていても良い。サブAU識別コード171はアクセスユニットの先頭を示す開始符号である。
 以上が立体視に使う視差画像を実現するための一般的な映像フォーマットについての説明である。
(3D映像を格納するデータフォーマット)
 次に、本実施の形態に係る3D映像を格納するデータフォーマットについて、図面を参照しながら説明を行う。
 図18を参照して本実施の形態におけるトランスポートストリームのデータ構造について説明する。本実施の形態におけるトランスポートストリームには、2D互換ビデオストリーム、マルチビュービデオストリームのベースビュービデオストリームとディペンデントビュービデオストリームが、PESパケット化された後、TSパケットに分割して格納されている。2D互換ビデオストリームは、2D映像再生装置が2D映像として再生可能なフォーマットで構成される図4等を用いて説明したビデオストリームである。ここで2D映像再生機器とは、3D映像の再生をサポートしていない、放送波などの2D映像を再生する再生機器である。図2(d)で説明した2Dデジタルテレビがその例である。本実施の形態では2D互換ビデオストリームはMPEG-2ビデオのコーデックで符号化されたビデオストリームであるとして説明を行う。マルチビュービデオストリームは、前述したとおりビュー間参照を実現するコーデックで符号化されたビデオストリームであり、ここではMPEG-4 MVCとして説明を行う。
 ここで、図18の右側は、各ビデオストリームがどのビデオソースを圧縮符号化したかを示している。2D互換ビデオストリームには、3D映像を構成する左目の原画映像が、MPEG-2ビデオのコーデックに従って圧縮符号化されている。ベースビュービデオストリームには、黒などの単色映像が、MPEG-4 MVCビデオのコーデックに従って低ビットレートで圧縮符号化されている。ディペンデントビュービデオストリームには、3D映像を構成する右目の原画映像が、MPEG-4 MVCビデオのコーデックに従って圧縮符号化されている。ここで、ディペンデントビュービデオストリームは、ビュー間参照を使って圧縮されるが、ビュー間参照として参照するピクチャには、同一表示時刻(PTSが同じ)のベースビュービデオストリームのピクチャではなく、同一表示時刻(PTSが同じ)の2D互換ビデオストリームのピクチャを使って、圧縮される。後述するが、本実施の形態におけるビデオストリームを再生するビデオデコーダは、ベースビュービデオストリームのデコード済みピクチャを、同一表示時刻の2D互換ビデオストリームのデコード済みピクチャで置き換えを行い、同一表示時刻のディペンデントビュービデオストリームのピクチャは、置き換えられたピクチャを参照して復号を行う。このような構成にすることで、右目映像と左目映像の相関を使って圧縮符号化することで、ディペンデントビュービデオストリームのビットレートを低くすることが可能となる。また、ベースビュービデオストリーム自体は、黒画面等の単色の映像を圧縮するため、ビットレートを極端に小さくすることができるため、全体のビットレートには影響がない。
 このようにディペンデントビュービデオストリームのピクチャが、2D互換ビデオストリームのピクチャを参照する構成を実現するために、ビデオストリームの次のような属性値は同じになるように構成する。属性値は、「解像度」「アスペクト比」「フレームレート」「プログレッシブ or インターレース」の値である。図19に、2D互換ビデオストリームをMPEG-2ビデオ、マルチビュービデオストリームをMPEG-4 MVCのコーデックとしたときに、一致させるビデオ属性と、そのビデオ属性を示すための各フィールド名を示している。
 図20は、本実施の形態におけるトランスポートストリームの構成とPMTパケットの関係を示している。本実施の形態における3D映像を格納するトランスポートストリームにおいては、PMTパケットなどのシステムパケット中に、本実施の形態における3D映像のデコード処理を行う上でのシグナリング情報が含まれている。図20に示すように、図10で示すPMTとの相違は、ディスクリプタに、各ビデオストリームの関係や本方式の3D映像再生の開始・終了などのシグナリングを行うための3D情報ディスクリプタと、各ビデオストリーム毎に設定される3Dストリームディスクリプタが格納されることである。
 図21は、3D情報ディスクリプタ200の構造を示す。3D情報ディスクリプタ200は、再生方式210、左目映像タイプ211、2D互換ビデオPID212、ベースビュービデオPID213、ディペンデントビュービデオPID214から構成される。
 再生方式210は、再生装置の再生方法をシグナリングするための情報である。図22を用いて、その再生方式を説明する。再生方式が「0」の場合は、2D互換ビデオによる2D映像再生を示し、この場合には、2D互換ビデオストリームのみを2D映像再生するように再生装置に指示する。「1」の場合は、2D互換ビデオとディペンデントビュービデオによる3D映像再生(つまり、本実施の形態で説明する3D映像格納方式であること)を示し、2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームを本実施の形態で説明する再生方法で3D映像再生を行うように指示する。本実施の形態における3D映像再生の方法は後述する。「2」の場合は、ベースビュービデオストリームとディペンデントビュービデオによる3D映像再生であることを示す。つまり、2D互換ビデオストリームと、3D映像を構成するマルチビュービデオストリームは異なる映像を格納するため参照関係にないことを示す。この場合は、ベースビュービデオストリームとディペンデントビュービデオストリームを通常の3D映像をマルチビューコーデックで圧縮したビデオストリームであり、そのビデオストリームを3D映像再生するように再生装置に指示する。「3」の場合は、2D互換ビデオストリームか、ベースビュービデオストリームのダブリング再生であることを示し、再生装置にダブリング再生を指示する。ダブリング再生とは、ある時刻Aの1枚ピクチャを、LとRのどちらのプレーンにも出力することである。これはつまり、ユーザの視聴画面としては2D映像再生と等しいが、3D映像再生時におけるフレームレートの変更が発生しないため、HDMI等の再認証が発生しないため、3D映像再生区間とシームレスな接続再生が実現できる。
 左目映像タイプ211は、ビデオストリームの内、どちらのストリームに左目映像が格納されているか(反対側のビデオストリームが右目映像となる)を示す情報である。再生方式とともに説明する。再生方式210が「0」であれば、このフィールドは無視される。再生方式210が「1」の場合は、2D互換ビデオとディペンデントビュービデオの内、どちらが左目映像であるかを示す。再生方式210が「2」の場合は、ベースビュービデオとディペンデントビュービデオの内、どちらが左目映像であるかを示す。再生方式210が「3」の場合は、2D互換ビデオ、ベースビュービデオの内、どちらが左目映像であるかを示す。
 2D互換ビデオPID212、ベースビュービデオPID213、ディペンデントビュービデオPID214は、トランスポートビデオストリーム内に格納される各ビデオストリームのPIDを示す。この情報を使って、どのPIDのストリームを使って、デコードをするべきかを決定できる。
 図23は、3Dストリームディスクリプタ201を示す。
 3Dストリームディスクリプタ201は、ベースビュービデオタイプ230、参照先タイプ231、被参照タイプ232が存在する。
 ベースビュービデオタイプ230は、ベースビュービデオストリームに何の映像が符号化されているかを示す。「0」は3D映像の左目映像もしくは右目映像のどちらかが格納されているかを示し、「1」は黒映像などの付属映像が含まれ2D互換ビデオストリームによって置き換えられプレーンへの出力には利用されないダミー映像を格納していることを示す。
 参照先タイプ231は、ディペンデントビュービデオストリームがビュー間参照の参照先としているビデオストリームのタイプを示す。0であれば、ベースビュービデオストリームのピクチャをビュー間参照としていることを示し、1であれば、2D互換ビデオストリームのピクチャをビュー間参照していることを示す。つまり、「1」が本実施の形態における3D映像方式による参照方式であることを示している。
 被参照タイプ232は、該当ビデオストリームがビュー間参照されるか否かを示す。参照されないのであれば、ビュー間参照の処理をスキップすることが出来るため実装負荷を軽減できる。
 なお、3D情報ディスクリプタ200と3Dストリームディスクリプタ201の情報の全てまたは一部は、PMTパケットではなく、各ビデオストリームの補足データ等に格納されても良い。あるいは、米国の放送規格(ATSC:Advanced Television Systems Committee)のA/65:2009: Program And System Information Protocol For Terrestrial Broadcast And Cable規格で規定されている各種テーブル(MGT、VCT、EIT、ETT)やデスクリプタとして格納し、伝送されても良い。
 図24はトランスポートストリーム中における2D互換ビデオストリームとベースビュービデオストリームとディペンデントビュービデオストリームの各ビデオアクセスユニットに割り当てる表示時刻(PTS)、デコード時刻(DTS)およびピクチャタイプの関係の例を示している。
 本実施の形態では、同時刻の視差画像を格納する2D互換ビデオストリームのピクチャとディペンデントビュービデオストリームのピクチャは、同一のDTS/PTSになるように構成する。これは、ピクチャ間予測符合化の参照関係にある2D互換ビデオストリームのピクチャとディペンデントビューピクチャのデコード/表示順を同一に設定することで実現できる。また、ディペンデントビュービデオストリームのピクチャに対して、同一のPTS/DTS、またMPEG-4 MVCの場合はPOC(=Picture Order Count。表示順番を示すビデオストリーム内のインデックス番号。)を持つベースビュービデオストリームのピクチャが用意されている。ディペンデントビュービデオストリームのピクチャのビュー間参照は、この同一のPTS/DTS/POCを持つベースビュービデオストリームのピクチャを参照する構成で符号化されている。具体的には、ディペンデントビュービデオストリームのピクチャのビュー間参照では、ディペンデントビュービデオストリームのピクチャの各マクロブロックから指定されるピクチャ参照ID(ref_idx_l0もしくはref_idx_l1)は、同一POCのベースビューピクチャを示すように構成されている。
 なお、2D互換ビデオストリームがMPEG-2の場合に各ピクチャに含まれる表示順番を示すtemporal_referenceの値は、同時刻の視差画像を格納する同一PTS/DTSを持つディペンデントビュービデオストリームのPOCと同じなるように構成しても良い。このようにすることで、PTSを使わずにビデオES内の値でエンコード・デコード処理が出来るために実装処理が容易になる。また、2D互換ビデオストリームの各ピクチャには、同時刻の視差画像を格納する同一PTS/DTSを持つディペンデントビュービデオストリームのPOCをユーザデータに格納しても良い。このようにすることで、temporal_referenceの値を独自の値に設定することもできるため、エンコード処理に自由度が増える。
 また、2D互換ビデオストリームがIピクチャの場合には、同じ表示時刻のベースビュービデオストリームのピクチャもIピクチャになるようにし、同じ表示時刻のディペンデントビュービデオストリームのピクチャをアンカーピクチャ(自ピクチャよりも時間的に前のピクチャを参照しないピクチャ。つまり、自ピクチャから飛び込み再生することが可能なピクチャ)であるように構成してもよい。このようにすることで、飛び込み再生時に、2D互換ビデオストリームがIピクチャであれば、その時刻からすべてのビデオストリームのデコードが可能であるため、飛び込み再生時の処理が容易である。
 なお、2D互換ビデオストリームのピクチャと、同一表示時刻のベースビュービデオストリームのピクチャと、同一表示時刻のディペンデントビュービデオストリームのピクチャにおいて、ひとつでもBピクチャ(Brピクチャを含む)があれば、すべてのピクチャのタイプをBピクチャ(Brピクチャを含む)にしなければならないとしても良い。このように構成することによって、IピクチャとPピクチャのみを選択して特殊再生を行う再生装置において、その特殊再生処理が容易になる。例えば、図25(a)では、上記の制約が守られていないため、表示順で3番目のピクチャにおいて、2D互換ビデオストリームとベースビュービデオストリームは、Pピクチャ(P3)になっているが、ディペンデントビュービデオストリームのピクチャはBピクチャ(B3)となっている。これにより、ディペンデントビュービデオストリームのデコードを行うために、ディペンデントビュービデオストリームのピクチャBr2をデコードする必要があり、また、ベースビュービデオストリームのBr2もデコードする必要が出てきてしまう。そこで、上記の制約を守り、図25(b)のように構成する。この場合には、表示順で3番目のピクチャにおいて、2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームのピクチャはすべてPピクチャとなり、この場合には、すべてのビデオストリームにおいて、IピクチャとPピクチャのみをデコードすればよいため、IピクチャとPピクチャを選択した特殊再生処理が容易になる。
 なお、特殊再生処理を簡易にするために、ベースビュービデオストリームのピクチャと、同一PTS/DTSを持つ2D互換ビデオストリームのピクチャは、ピクチャタイプが同じになるように構成してもよい。
 図26は本実施の形態での2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOP構成を示している。このように、2D互換ビデオストリーム、ベースビュービデオストリームとディペンデントビュービデオストリームのGOPはすべて同じ枚数になるよう構成する。つまり、2D互換ビデオストリームのピクチャがGOP先頭の場合には、同一表示時刻(PTSが同じ)のベースビュービデオストリームのピクチャと、同一表示時刻(PTSが同じ)のディペンデントビュービデオストリームのピクチャも、それぞれGOP先頭、ディペンデントGOPの先頭でなければならない。このように構成することで、飛び込み再生時に、2D互換ビデオストリームがIピクチャであれば、その時刻からすべてのビデオストリームのデコードが可能であるため、飛び込み再生時の処理が容易である。
 トランスポートストリームがファイルとして格納される場合には、GOP先頭のピクチャがファイル上のどこにあるかを示すエントリマップ情報を管理情報として持つことがある。例えばBlu-ray Discのフォーマットでは、そのエントリマップ情報は管理情報ファイルとして別のファイルに格納される。本実施の形態のトランスポートストリームにおいては、2D互換ビデオストリームのGOP先頭のピクチャの位置が、エントリマップに登録される場合には、同一時刻のベースビューもディペンデントビューの位置もエントリマップにすべて登録するようにする。このようにすることで、エントリマップを参照することで、3D映像の飛び込み再生が容易になる。
 あるいは、トランスポートストリームがファイルとして格納される場合には、2D互換ビデオストリームのGOP先頭を含むTranaport Packetよりも後に、対応するベースビュービデオストリームとディペンデントビュービデオストリームの各GOP先頭を含むTransport Packetを伝送するようにしても良い。このように、2D互換ビデオストリームのGOP先頭を含むTransport Packetを先に伝送することによって、2D互換ビデオストリームに対するエントリマップのみを持つだけで、3D映像の飛び込み再生が容易になるとともに、比較的サイズが大きくなるエントリマップをベースビュービデオストリームとディペンデントビュービデオストリーム用に保持する必要がなくなるという利点がある。
 以上が、本実施の形態に係る映像フォーマットの説明である。
 1.2 構成
 1.2.1 送信装置2701
 次に本実施の形態に係る送信装置2701について図27を参照しながら説明を行う。
 送信装置2701は、3D映像を構成する左目原画映像と右目原画映像、および黒画面等の付属映像を入力として、図18等を使って説明した2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームを格納するトランスポートストリームを出力する。
 送信装置2701は、図27に示すように、2D互換ビデオエンコーダ2702、2D互換ビデオデコーダ(Dec)2703、拡張マルチビュービデオエンコーダ2704、マルチプレクサ2710及び送信部2711から構成される。
 (1)2D互換ビデオエンコーダ2702
 2D互換ビデオエンコーダ2702は、左目原画の映像を入力として、2D互換ビデオのコーデックに従って、圧縮符号化するものである。コーデックがMPEG-2ビデオの場合は、MPEG-2ビデオストリームのフォーマットに圧縮符号化する。そして2D互換ビデオストリームを出力する。この2D互換ビデオストリームのデータ構造は、前述の2D互換ビデオストリームの構造と等しい。
 2D互換ビデオエンコーダ2702は、図28に示すように、メモリ2801、減算器2802、離散コサイン変換(DCT)部2803、量子化部2804、可変長符号化部2805、逆量子化部2806、逆DCT部2807、加算器2808及びメモリ2809から構成されている。
 (1-1)メモリ2801、2809
 メモリ2801は、入力された画像、つまり符号化対象の画像を格納するものである。また、メモリ2809は、符号化対象の画像を符号化する際に参照する画像(参照画像)を格納するものである。
 (1-2)減算器2802
 減算器2802は、符号化対象画像と、参照画像との差分(以下、差分画像という。)を抽出し、抽出した差分画像をDCT部2803へ出力するものである。なお、符号化対象画像がIピクチャである場合には、参照画像が存在しないので、減算器2802は、Iピクチャそのものを差分画像としてDCT部2803へ出力する。
 (1-3)DCT部2803
 DCT部2803は、減算器2802から受け取った差分画像に対して、DCTを施す。ここで、逆DCTを施した場合に誤差が生じないようにするために、DCTは、ISO/IEC 23002-2:2008に準拠するものであり、例えば整数DCTとする。なお、DCTについては、既知の技術であるので、ここでの説明は省略する。
 (1-4)量子化部2804
 DCTが施された差分画像に対して、量子化を施す。なお、量子化については、既知の技術であるので、ここでの説明は省略する。
 (1-5)可変長符号化部2805
 可変長符号化部2805は、量子化された差分画像に対して可変長符号化を施し、符号化された差分画像を出力する。なお、可変長符号化については、既知の技術であるので、ここでの説明は省略する。
 (1-6)逆量子化部2806
 逆量子化部2806は、参照画像を生成する際に、量子化された差分画像に対して逆量子化を施して、量子化前の差分画像、つまりはDCTが施された差分画像を生成する。なお、逆量子化については、既知の技術であるので、ここでの説明は省略する。
 (1-7)逆DCT部2807
 逆DCT部2807は、参照画像を生成する際に、逆量子化が施された差分画像に対して、逆DCTを施し、DCTが施される前の差分画像を生成する。ここで、逆DCTは、ISO/IEC 23002-2:2008に準拠するものであり、DCT部2803と対をなすものとする。これにより、逆DCT部2807は、DCTが施される前の差分画像と誤差が生じない差分画像と生成することができる。なお、逆DCTについては、既知の技術であるので、ここでの説明は省略する。
 (1-8)加算器2808
 加算器2808は、既に生成された参照画像(既に参照画像として用いられた画像である。)と、逆DCT部2807で生成された差分画像とを加算することで、参照画像を生成し、生成した参照画像をメモリ2809へ格納する。
 (2)2D互換ビデオデコーダ(Dec)2703
 2D互換ビデオデコーダ2703は、2D互換ビデオエンコーダ2702から出力された2D互換ビデオストリームをデコードして、圧縮符号化された2Dのピクチャデータが復号された「復号ピクチャデータ(以下、「復号ピクチャ」ともいう。)」と「2D互換ビデオ符号化情報」を出力する。
 なお、2D互換ビデオデコーダ2703が2D互換ビデオストリームをデコードする際に、逆量子化及び逆DCTが行われるが、ここでの逆DCTは、逆DCT部2807と同様にISO/IEC 23002-2:2008に準拠するものであり、DCT部2803と対をなすものとする。
 出力された「復号ピクチャデータ」は、拡張マルチビュービデオエンコーダ2704の2D互換ビデオフレームメモリ2708に格納される。また、「2D互換ビデオ符号化情報」も、拡張マルチビュービデオエンコーダ2704に入力される。ここで、2D互換ビデオ符号化情報には、復号したビデオストリームの、属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレースなど)や、該当ピクチャのピクチャ属性情報(ピクチャタイプなど)や、GOP構造、および、2D互換ビデオフレームメモリ管理情報などが含まれる。また、2D互換ビデオフレームメモリ管理情報とは、「2D互換ビデオフレームメモリ2708に格納される復号ピクチャデータのメモリアドレス」と「該当ピクチャの表示順情報(PTSやtemporal_reference)と符号順情報(ファイルの符号順やDTS)」とをペアにしたテーブル情報である。
 (3)拡張マルチビュービデオエンコーダ2704
 拡張マルチビュービデオエンコーダ2704は、2D互換ビデオデコーダ2703から出力される「復号ピクチャデータ」と「2D互換ビデオ符号化情報」と「右目原画映像」および「黒画面等の付属映像」を入力として、図18等を使って説明したベースビュービデオストリーム、ディペンデントビュービデオストリームを出力する。
 拡張マルチビュービデオエンコーダ2704は、図27に示すように、ベースビュービデオエンコーダ2705、2D互換ビデオフレームメモリ2708及びディペンデントビュービデオエンコーダ2709とから構成される。
 (3-1)ベースビュービデオエンコーダ2705
 ベースビュービデオエンコーダ2705は、マルチビュービデオストリームのビデオコーデック(例えば、MPEG-4 MVC)において、ベースビュービデオストリームの圧縮符号化機能を持ち、2D互換ビデオ符号化情報に従って、黒画面等の付属映像を圧縮・符号化して、ベースビュービデオストリームを作成し、また、ベースビュービデオ符号化情報を出力する。
 ベースビュービデオエンコーダ2705は、Dec2703から出力された2D互換ビデオ符号化情報を元に、ベースビューピクチャの符号化方法を決定する。具体的には、2D互換ビデオ符号化情報に含まれるビデオの属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレース)と同じになるように、ベースビュービデオストリームのビデオの属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレース)を決定する。
 また、ベースビュービデオエンコーダ2705は、2D互換ビデオ符号化情報に含まれる、ピクチャの属性情報(ピクチャタイプなど)やGOP構造に従って、同一表示時刻のピクチャの符号化方法を決定して、黒画面等の付属映像を圧縮符号化する。例えば、2D互換ビデオ符号化情報に含まれる時刻AのピクチャのピクチャタイプがIピクチャで、GOP先頭であれば、ベースビュービデオエンコーダ2705は、同じ時刻AのピクチャのピクチャタイプをIピクチャにして、GOP先頭のビデオアクセスユニットの構造にして、黒画面等の付属映像を圧縮符号化する。また、2D互換ビデオ符号化情報に含まれる時刻BのピクチャのピクチャタイプがBピクチャであれば、ベースビュービデオエンコーダ2705は、同じ時刻BのピクチャのピクチャタイプをBピクチャにして、黒画面等の付属映像を圧縮符号化する。2D互換ビデオストリームとベースビュービデオストリームは、DTSとPTSが同じになるように、同一表示時刻のピクチャの、符号順が同じになるようにエンコードする。
 ここで、ベースビュービデオ符号化情報には、ベースビュービデオストリームの、属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレースなど)や、該当ピクチャのピクチャ属性情報(ピクチャタイプなど)や、GOP構造、および、ベースビュービデオフレームメモリ管理情報などが格納される。また、ベースビュービデオフレームメモリ管理情報は、2D互換ビデオフレームメモリ管理情報を元に、フレームのメモリアドレスは変えずに、ベースビュービデオストリームのコーデックのsyntaxやデータ構造に合わせたテーブルに変換して格納する。例えば、MPEG-2の場合には、表示順を示すフィールドはtemporal_referenceであるのに対して、MPEG-4 MVCの場合には、POC(Picture order count)であるため、ディペンデントビューからの参照を容易にするため、syntaxをベースビュービデオストリームの構造に合わせておく。つまり、2D互換ビデオストリームのピクチャAのエントリが、2D互換ビデオフレームメモリ管理情報にある場合には、2D互換ビデオストリームのピクチャAのエントリのフレームメモリのアドレス以外の管理情報を、2D互換ビデオストリームのピクチャAと同じ表示順版(PTSが同じ)になるベースビュービデオストリームのピクチャのシンタックス情報に変換して格納する。
 (3-2)2D互換ビデオフレームメモリ2708
 2D互換ビデオフレームメモリ2708は、Dec2703で復号された「復号ピクチャデータ」、つまりはディペンデントビューのピクチャを符号化する際に参照される参照画像を格納するものである。
 (3-3)ディペンデントビュービデオエンコーダ2709
 ディペンデントビュービデオエンコーダ2709は、マルチビュービデオストリームのビデオコーデック(例えば、MPEG-4 MVC)において、ディペンデントビュービデオストリームの圧縮符号化機能を持ち、ベースビュービデオエンコーダ2705から出力されたベースビュービデオ符号化情報に従って、右目原画映像を圧縮し、ディペンデントビュービデオストリームを出力する。この圧縮処理においては、ディペンデントビュービデオエンコーダ2709は、2D互換ビデオフレームメモリ内の復号ピクチャデータ(2D互換ビデオストリームが復号されたピクチャ)を、ビュー間参照に使って、圧縮を行う。ビュー間参照を実行するための、参照ピクチャIDは、ベースビュービデオ符号化情報のベースビュービデオフレームメモリ管理情報を使って、決定される。
 ディペンデントビュービデオエンコーダ2709は、ベースビュービデオ符号化情報を元に、ディペンデントビューピクチャの符号化方法を決定する。具体的には、ベースビュービデオ符号化情報に格納されるビデオの属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレース)と同じになるように、ディペンデントビュービデオストリームのビデオの属性情報(解像度、アスペクト比、フレームレート、プログレッシブ/インターレース)を決定する。また、ベースビュービデオ符号化情報に格納される、ピクチャの属性情報(ピクチャタイプなど)やGOP構造に従って、同一表示時刻のピクチャの符号化方法を決定して、右目映像を圧縮符号化する。例えば、ベースビュービデオ符号化情報に含まれる時刻AのピクチャのピクチャタイプがIピクチャで、GOP先頭であれば、ディペンデントビュービデオエンコーダ2709は、同じ時刻Aのピクチャのピクチャタイプをアンカーピクチャにして、ディペンデントGOP先頭のビデオアクセスユニットの構造にして、右目映像を圧縮符号化する。また、ベースビュービデオ符号化情報に含まれる時刻BのピクチャのピクチャタイプがBピクチャであれば、ディペンデントビュービデオエンコーダ2709は、同じ時刻BのピクチャのピクチャタイプをBピクチャにして、右目映像を圧縮符号化する。ベースビュービデオストリームとディペンデントビュービデオストリームは、DTSとPTSが同じになるように、同一表示時刻のピクチャの、符号順が同じになるようにエンコードする。
 ここで、ディペンデントビュービデオエンコーダ2709は、図29に示すように、メモリ2901、減算器2902、離散コサイン変換(DCT)部2903、量子化部2904、可変長符号化部2905、逆量子化部2906、逆DCT部2907、加算器2908及びメモリ2909から構成されている。これら構成要素は、図28に示す2D互換ビデオエンコーダ2702と同様となっている。異なる点は、減算器2902が参照画像として、さらに、2D互換ビデオフレームメモリ2708を参照する点であるので、基本的な機能は、2D互換ビデオエンコーダ2702と同様であるので、ここでの説明は省略する。
 (4)マルチプレクサ2710
 マルチプレクサ2710は、出力された2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームを、PESパケット化された後にTSパケット単位で分割し、トランスポートストリームに多重化して出力するものである。2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームは、それぞれ別々のPIDに設定されて、転送される。ただし、ベースビュービデオストリームとディペンデントビュービデオストリームに、同一PIDを割り当て、マルチビュービデオストリームのコーデックの仕様に合わせて、各ビデオストリームのアクセスユニットをマージして転送するような構成にしても良い。
 また、マルチプレクサ2710は、多重化する際に、左目画像の符号化を行う際に誤差の生じない逆DCTが用いられていることを示す旨の符号化情報を付与する。具体的には、マルチプレクサ2710は、符号化情報を、MPEG-2のES(エレメンタリストリーム)に含まれるビデオアクセスユニット毎に、当該当該ビデオアクセスユニットの補足データ(user_data)に符号化情報を格納、つまり2D画像毎に符号化情報を付与する。その一例を図30に示す。符号化情報は、図30の(a)に示す“extensions_and_user_data(2)”で定義される“user_data”内で指定される。例えば、符号化情報の値「0」である場合には、誤差の生じない逆DCTが用いられていないことを示し、符号化情報の値「1」である場合には、誤差の生じない逆DCTが用いられていることを示す。
 なお、ここで誤差を生じない逆DCTが用いられていることを示す旨の符号化情報はマルチプレクサ2710によって付与されているが、2D互換ビデオエンコーダ2702で同じ情報が付与されていても良い。
 1.2.2 再生装置10
 次に本実施の形態に係る3D映像を再生する再生装置(3Dデジタルテレビ)10の構成について図31を用いて説明する。
 図31は本実施の形態に係る再生装置10の構成、特にトランスポートストリームをデコードする機能に係る構成を示す図である。
 再生装置10は、図31に示すように、PIDフィルタ3101、2D互換ビデオデコーダ3102、拡張マルチビュービデオデコーダ3103、第1プレーン3104、第2プレーン3105から構成される。
 (1)PIDフィルタ3101
 PIDフィルタ3101は、入力されたトランスポートストリームをフィルタリングする。PIDフィルタ3101はTSパケットのうち、TSパケットのPIDが、再生に必要とされるPIDに一致するものを、PIDにしたがって、2D互換ビデオデコーダ3102、拡張マルチビュービデオデコーダ3103に転送する。どのストリームがどのPIDに対応しているかどうかはPMTパケットによって通知される。例えば、2D互換ビデオストリームのPIDが0x1011、マルチビュービデオストリームのベースビュービデオストリームのPIDが0x1012、マルチビュービデオストリームのディペンデントビュービデオストリームのPIDが0x1013であれば、TSパケットのPIDを参照し、該当のPIDがあれば、そのTSパケットを該当のデコーダに転送する。
 (2)第1プレーン3104、第2プレーン3105
 第1プレーン3104は、2D互換ビデオデコーダ3102がデコードして表示タイミングで出力したピクチャデータを保持するプレーンメモリである。
 第2プレーン3105は、拡張マルチビュービデオデコーダ3103がデコードして表示タイミングで出力したピクチャデータを保持するプレーンメモリである。
 (3)2D互換ビデオデコーダ3102
 2D互換ビデオデコーダ3102は、2D映像のビデオコーデック(MPEG-2、MPEG-4 AVC、VC1など)の一般的なデコーダと基本的には同じ構造を持つ。
 2D互換ビデオデコーダ3102は、分離部3111、判断部3112、TB(TransportStreamBuffer)3113、MB(Multiplexing Buffer)3114、EB(ElementaryStreamBuffer)3115、2D互換ビデオ圧縮映像デコーダ(Dec)3116、O(Re-ordering Buffer)3117、出力処理部3118及びスイッチ3119から構成される。
 (3-1)TB3113、MB3114、EB3115
 TB3113は、ビデオストリームを含むTSパケットがPIDフィルタ3101から出力された際、TSパケットのまま一旦蓄積されるバッファである。
 MB3114は、TB3113からEB3115にビデオストリームを出力するにあたって、一旦PESパケットを蓄積しておくためのバッファである。
 EB3115は、符号化状態にあるピクチャ(Iピクチャ、Bピクチャ、Pピクチャ)が格納されるバッファである。
 (3-2)分離部3111
 分離部3111は、TB3113からMB3114にデータが転送される際に、TSパケットのTSヘッダおよびアダプテーションフィールドを取り除くものである。また、分離部3111は、MB3114からEB3115にデータが転送される際にPESヘッダを取り除くものである。
 (3-3)判断部3112
 判断部3112は、ビデオESに含まれるuser_dataを2D互換ビデオ圧縮映像デコーダ3116から受け取る。判断部3112は、受け取ったuser_dataに値が「1」である符号化情報が格納されているか否かを判断する。具体的には、判断部3112は、ビデオESに含まれる映像毎に当該映像に値が「1」である符号化情報が付与されているか否かを判断する。
 判断部3112は、その判断結果を2D互換ビデオ圧縮映像デコーダ(Dec)3116へ通知する。
 (3-4)2D互換ビデオ圧縮映像デコーダ3116
 2D互換ビデオ圧縮映像デコーダ3116は、ビデオエレメンタリストリームの個々のビデオアクセスユニットを所定の復号時刻(DTS)ごとにデコードすることによりフレーム/フィールド画像を作成するものである。
 2D互換ビデオ圧縮映像デコーダ3116は、ISO/IEC 23002-2:2008に準拠する逆DCTの機能、及び準拠しない、つまり誤差を認める逆DCTという2種類の逆DCTの機能のうち、少なくとも1つの逆DCTの機能を有している。
 以下、ISO/IEC 23002-2:2008に準拠する逆DCTの機能を有する前提で説明を行う。
 2D互換ビデオ圧縮映像デコーダ3116は、2D互換ビデオ圧縮映像デコーダ3116内で各ビデオアクセスユニットのヘッダを解析し、その解析によってuser_dataを取得し、取得したuser_dataを判断部3112へ出力する。
 トランスポートストリームに多重化されるビデオストリームの圧縮符号化形式にはMPEG2、MPEG-4 AVC、VC1などがあるため、ストリームの属性に応じて、2D互換ビデオ圧縮映像デコーダ3116のデコード方法は切り替えられる。ここでは、2D互換ビデオ圧縮映像デコーダ3116は、判断部3112から値が「1」である符号化情報が格納されているという判断結果を受け取った場合には、ISO/IEC 23002-2:2008に準拠する逆DCTの機能を用いてビデオエレメンタリストリームのデコードを行う。
 2D互換ビデオ圧縮映像デコーダ3116は、デコードしたフレーム/フィールド画像は第1プレーン3104もしくはO3117に出力する。PピクチャやIピクチャのように、DTSとPTSのタイミングが異なる場合には、O3117に出力され、BピクチャのようにDTSとPTSのタイミングが同じ場合には、そのまま第1プレーン3104に出力される。この切り替え処理はスイッチ3119によって行われる。
 さらに、2D互換ビデオ圧縮映像デコーダ3116は、判断部3112から値が「1」である符号化情報が格納されているという判断結果を受け取った場合には、復号したピクチャをO3117やスイッチ3119に転送するだけでなく、DTSのタイミングで、拡張マルチビュービデオデコーダ3103のビュー間参照バッファ3139にもデータを転送する。転送されるピクチャデータは、ビュー間参照バッファ3139内で、同一DTS/PTSのベースビュービデオストリームのピクチャが格納されるアドレスに格納される。つまり、ベースビュービデオストリームのピクチャは、ビュー間参照バッファ3139内で、同じDTS/PTSを持つ、2D互換ビデオストリームのピクチャで上書きされることとなる。なお、ビュー間参照バッファ3139の詳細は後述する。
 (3-5)O3117
 O3117は、デコードしたピクチャの符号順(DTS)と表示順(PTS)が異なる場合にリオーダリングを行うためのバッファである。2D互換ビデオ圧縮映像デコーダ3116は、O3117に格納されるピクチャのデータを参照して、復号処理を行う。
 (3-6)出力処理部3118
 出力処理部3118は、 O3117におけるリオーダリングを行う。さらに、出力処理部3118は、第1プレーン3104へ出力される画像の切り替えるためにスイッチ3119の切り替えを制御する。
 (3-7)スイッチ3119
 スイッチ3119は、出力処理部3118の制御により、第1プレーン3104へ出力される画像の切替を行う。
 (4)拡張マルチビュービデオデコーダ3103
 拡張マルチビュービデオデコーダ3103は、ビュー間参照を実現する3D映像のビデオコーデック(MPEG-4 MVCなど)の一般的なデコーダと基本的には同じ構造を持つ。
 拡張マルチビュービデオデコーダ3103は、分離部3131、TB3132、MB3133、EB3134、TB3135、MB3136、EB3137、デコードスイッチ3138、ビュー間参照バッファ3139、マルチビュービデオ圧縮映像デコーダ(Dec)3140、DPB(DecodedPictureBuffer)3141、出力処理部3142及び出力プレーンスイッチ3143から構成される。
 (4-1)TB3132、MB3133、EB3134
 TB3132、MB3133、EB3134は、TB3113、MB3114、EB3115と同じ機能を持つが、バッファリングするデータがベースビュービデオストリームである点が異なる。
 (4-2)TB3135、MB3136、EB3137
 TB3135、MB3136、EB3137は、TB3113、MB3114、EB3115と同じ機能を持つが、バッファリングするデータがディペンデントビュービデオストリームである点が異なる。
 (4-3)分離部3131
 分離部3131は、TB3132からMB3133にデータが転送される際に、TSパケットのTSヘッダおよびアダプテーションフィールドを取り除くものである。また、分離部3131は、MB3133からEB3134にデータが転送される際にPESヘッダを取り除くものである。
 (4-4)デコードスイッチ3138
 デコードスイッチ3138は、EB3134とEB3137からDTSのタイミングで、そのDTSが付与されているビデオアクセスユニットのデータの引き抜き、3Dビデオアクセスユニットを構成して、マルチビュービデオ圧縮映像デコーダ3140に転送する。
 (4-5)ビュー間参照バッファ3139
 ビュー間参照バッファ3139は、ディペンデントビューのピクチャが復号される際にビュー間参照により参照される画像を格納するものである。
 (4-6)マルチビュービデオ圧縮映像デコーダ3140
 マルチビュービデオ圧縮映像デコーダ3140は、デコードスイッチ3138から転送される3Dビデオアクセスユニットに対する復号処理を行いフレーム/フィールド画像を作成する。マルチビュービデオ圧縮映像デコーダ3140は、MPEG-4 MVCに準拠しているものであり、誤差の生じない逆DCTの機能(整数変換と呼ばれる逆DCTに似た演算手法)を有している。マルチビュービデオ圧縮映像デコーダ3140は、マルチビュービデオストリームのコーデック方式に合わせて適宜復号方式を切り替える。マルチビュービデオ圧縮映像デコーダ3140によりデコードされたベースビュービデオのピクチャのデコード映像は、ビュー間参照バッファ3139に一旦格納される。マルチビュービデオ圧縮映像デコーダ3140は、ディペンデントビュービデオストリームのピクチャを、ビュー間参照バッファ3139に格納される同一PTSを持つベースビュービデオストリームの復号ピクチャデータを参照して、復号処理を行う。ビュー間参照を行うために、ピクチャを指定するための参照ピクチャリストの構造は、ベースビュービデオストリームのピクチャとディペンデントビュービデオストリームのピクチャのピクチャタイプやsyntaxによって決定される。マルチビュービデオ圧縮映像デコーダ3140は、ビュー間参照バッファ3139に格納されるベースビューの復号ピクチャデータと、ディペンデントビューの復号ピクチャデータをDPBに転送し、表示タイミング(PTS)のタイミングで対応するフレーム/フィールド画像を出力プレーンスイッチ3143に出力する。
 拡張マルチビュービデオデコーダ3103は、値が「1」である符号化情報がビデオのuser_dataに存在する場合には、2D互換ビデオデコーダ3102から、DTSのタイミングで出力されるピクチャデータを、ビュー間参照バッファ3139内で、同一DTS/PTSを持つベースビュービデオストリームのピクチャが格納される領域に上書きして格納し、そのピクチャデータを、あたかもベースビュービデオストリームの復号ピクチャデータであるとして、同一DTSのディペンデントビューのピクチャのビュー間参照の復号処理を行う。
 ビュー間参照バッファ3139上のアドレス管理は、従来のベースビュービデオストリームの復号ピクチャの管理とまったく変わらず、ピクチャのデータ部分のみが、入れ替わる構成となる。この上書き処理の内容を具体的に図32に示している。図32上段のように、ビュー間参照バッファ3139のピクチャの管理は、例えばPTSとメモリ上のメモリアドレスで管理されているとする。図32上段は、PTS=100のベースビューのピクチャが復号された直後の様子を示しており、ビュー間参照バッファ3139の管理テーブルでは、PTS=100のエントリは、ベースビュービデオの復号ピクチャデータのアドレスを示す。ここで、2D互換ビデオデコーダ3102からDTSのタイミングでピクチャデータが出力されると、図32下段のようになり、PTS=100のベースビュービデオピクチャが格納されるアドレスBに対して、同一PTSの2D互換ビデオストリームの復号ピクチャデータが上書きされる。このように、バッファ内のピクチャ管理を行うための管理情報(ここではPTS)は変更する必要なく、ピクチャデータのみを丸ごと上書きする。よって、例えば、MPEG-4 MVCの場合には、復号時に参照ピクチャリストを作って、ピクチャの参照処理を行うが、そのsyntaxはそのまま適用して、復号することが出来る。
 (4-7)DPB3141
 DPB3141は、復号されたフレーム/フィールド画像を一時的に保持しておくバッファである。マルチビュービデオ圧縮映像デコーダ3140が、同一ビューのピクチャ間予測符号化されたPピクチャやBピクチャなどのビデオアクセスユニットをデコードする際に、既にデコードされたピクチャを参照するために利用する。
 (4-8)出力処理部3142
 出力処理部3142は、DPB3141に格納された映像の内、第2プレーンへの出力は、ディペンデントビュービデオストリームのピクチャのみをPTSのタイミングで出力するように出力プレーンスイッチ3143を制御する。ベースビュービデオストリームのピクチャは、第1プレーンに2D互換ビデオデコーダ3102から出力されるため、不要となるためプレーンに出力されずに破棄される。
 (4-9)出力プレーンスイッチ3143
 出力プレーンスイッチ3143は、復号されたフレーム/フィールド映像を、第2プレーン3105に出力する。
 1.3 動作
 1.3.1 送信装置2701の動作
 ここでは、送信装置2701が行う送信処理について、図33を用いて説明する。
 送信装置2701は、圧縮符号化すべき左目原画が存在するか否かを判断する(ステップS5)。
 存在すると判断する場合には(ステップS5における「Yes」)、送信装置2701は、1回のエンコードフローで、エンコードする枚数を決定する(ステップS10)。具体的には、送信装置2701は、最大GOP枚数とエンコードすべき原画映像の残り枚数の小さいほうの値を1エンコード枚数として決定する。
 送信装置2701は、2D互換ビデオエンコーダ2702を用いて、1エンコード枚数分の2D互換ビデオストリームの生成を行う。左目原画映像のN番目のフレームから1エンコード枚数分だけ、2D互換ビデオストリームのコーデックに従って、圧縮符号化して、2D互換ビデオストリームを生成する(ステップS15)。ここでは、2D互換ビデオエンコーダ2702は、参照画像を生成する際に、ISO/IEC 23002-2:2008に準拠する逆DCTを行うので、圧縮符号化前の画像と誤差の生じない参照画像を生成している。
 送信装置2701は、2D互換ビデオデコーダ2703を用いて、1エンコード枚数分の2D互換ビデオストリームの復号処理を行い、復号したピクチャを2D互換ビデオフレームメモリ2708に格納する(ステップS20)。具体的には、2D互換ビデオデコーダ2703は、生成された2D互換ビデオストリームに対して、1エンコード枚数分のデータを復号して、「復号ピクチャ」と「2D互換ビデオ符号化情報」とを生成する。また、このとき、2D互換ビデオデコーダ2703は、復号を行う際にISO/IEC 23002-2:2008に準拠する逆DCTを行うので、圧縮符号化前の画像と誤差の生じない参照画像を生成している。
 送信装置2701は、ベースビュービデオエンコーダ2705を用いて、1エンコード枚数分のベースビュービデオストリームの生成を行う(ステップS25)。具体的には、ベースビュービデオエンコーダ2705は、生成された2D互換ビデオ符号化情報を元に、ビデオ属性やピクチャ構造等を決定して、付属映像を、1エンコード枚数分、圧縮符号化して、ベースビュービデオストリーム及びベースビュービデオ符号化情報を生成する。
 送信装置2701は、ディペンデントビュービデオエンコーダ2709を用いて、1エンコード枚数分のディペンデントビュービデオストリームの生成を行う(ステップS30)。具体的には、ディペンデントビュービデオエンコーダ2709は、生成されたベースビュービデオ符号化情報を元に、ビデオ属性やピクチャ構造等を決定して、またビュー間参照には、2D互換ビデオフレームメモリ2708に格納されているピクチャデータ(復号ピクチャデータ)を使って、右目原画映像を、1エンコード枚数分、圧縮符号化して、ディペンデントビュービデオストリームを生成する。
 送信装置2701は、マルチプレクサ2710を用いて多重化を行う際に、値が「1」である、つまり左目画像の圧縮符号化を行う際に誤差の生じない逆DCTが用いられていることを示す旨の符号化情報をMPEG-2のESのユーザデータ領域に格納する(ステップS35)。
 送信装置2701は、マルチプレクサ2710を用いて、生成された2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームを、PESパケット化した後にTSパケット単位で分割し、トランスポートストリームとして多重化する(ステップS40)。
 圧縮符号化すべき左目原画が存在しないと判断する場合(ステップS5における「No」)、送信装置2701は、処理を終了する。
 なお、1回のフローでのエンコード枚数は可変に設定してもよい。枚数を少なくしたい場合は、ステップS10における1エンコード枚数の値を小さくなるように設定すればよい。例えば、ビデオエンコード時のリオーダリングの枚数が2枚の場合には、4枚単位でエンコードを実行すれば、リオーダリングの影響を受けなくてすむ。また、例えば、リオーダリングの枚数が2枚の符号化方式で、ピクチャタイプがI1、P4、B2、B3、P7、B5、B6、・・・(数字は表示順)の場合を想定する。1エンコード枚数が3の場合、P4のピクチャが処理できないため、B2、B3のエンコード処理が出来ない。1エンコード枚数を4にすれば、P4のピクチャが処理できるため、B2、B3のエンコード処理が出来る。このようにエンコードの方式によって、1エンコード枚数は適宜値を変えても良い。
 1.3.2 再生装置10の動作
ここでは、受信装置(3Dデジタルテレビ10)の動作について、図34に示す流れ図を用いて説明する。
 再生装置10は、復号対象となる2D互換ビデオストリームのピクチャが存在するか否かを判断する(ステップS100)。具体的には、再生装置10は、EB3115にデータがあるかどうかを判定する。
 2D互換ビデオストリームのピクチャが存在すると判断する場合(ステップS100における「Yes」)、再生装置10は、判断部3112を用いて、値が「1」である符号化情報がESヘッダに存在するか否かを判断する(ステップS105)。
 値が「1」である符号化情報が存在すると判断する場合(ステップS105における「Yes」)、再生装置10は、拡張マルチビュービデオデコーダ3103を用いて、ベースビュービデオストリームのピクチャを復号して、ビュー間参照バッファ3139へ格納する(ステップS110)。具体的には、拡張マルチビュービデオデコーダ3103のマルチビュービデオ圧縮映像デコーダ3140は、DTSのタイミングで、該当DTSに付与されたピクチャをEB3134から読み出し、復号処理を行い、ビュー間参照バッファ3139にデータを格納する。ビュー間参照バッファ3139内のピクチャの管理は、マルチビュービデオストリームのコーデックルールに従う。例えば、MPEG-4 MVCの場合には、参照ピクチャリストを作るように管理情報を持ち、例えばPTS/POC(表示時刻)とデータアドレスを関連付けるテーブル情報を内部にもって管理する。
 再生装置10は、2D互換ビデオデコーダ3102を用いて、2D互換ビデオストリームのピクチャを復号して、ビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする(ステップS115)。具体的には、2D互換ビデオデコーダ3102の2D互換ビデオ圧縮映像デコーダ3116は、DTSのタイミングで、該当DTSに付与されたピクチャをEB3115から読み出し、復号処理を行う。このとき、O3117やスイッチ3119に復号された復号ピクチャデータを転送するとともに、ビュー間参照バッファ3139にも復号された復号ピクチャデータを転送する。転送先は、ビュー間参照バッファ3139の中で、同一DTS/PTSが付与されているベースビューストリームのピクチャが格納された領域であり、ベースビューストリームのピクチャの上書き処理を行う。
 再生装置10は、拡張マルチビュービデオデコーダ3103を用いて、ディペンデントビュービデオストリームのピクチャを復号する(ステップS120)。具体的には、拡張マルチビュービデオデコーダ3103のマルチビュービデオ圧縮映像デコーダ3140は、DTSのタイミングで、該当DTSに付与されたピクチャをEB3137から読み出し、復号処理を行う。このとき、マルチビュービデオ圧縮映像デコーダ3140は、ビュー間参照バッファ3139に格納されるピクチャを参照して復号する。ディペンデントビュービデオストリームのピクチャがビュー間参照に利用するピクチャデータは、ベースビュービデオストリームの同一DTS/PTSのピクチャではなく、上書きされた同一DTS/PTSを持つ2D互換ビデオストリームのピクチャとなる。
 再生装置10は、出力処理部3118及び出力処理部3142を用いて、2D互換ビデオストリームの復号ピクチャをPTSのタイミングで第1プレーン3104に出力し、ディペンデントビュービデオストリームの復号ピクチャデータをPTSのタイミングで第2プレーンに出力する(ステップS125)。3D映像を構成する左目・右目の映像をそれぞれのストリームに格納して、復号・出力することで3D映像の再生を実現できる。
 値が「1」である符号化情報が存在しないと判断する場合(ステップS105における「No」)、再生装置10は、2D互換ビデオデコーダ3102を用いて、2D互換ビデオストリームのピクチャを復号する(ステップS130)。このとき、2D互換ビデオデコーダ3102は、ビュー間参照バッファ3139に復号したピクチャを格納しない。
 再生装置10は、出力処理部3118を用いて、2D互換ビデオストリームの復号ピクチャをPTSのタイミングで第1プレーン3104に出力する(ステップS135)。これにより、値が「1」である符号化情報が存在しない場合には、再生装置10は、2D映像を出力することができる。
 2D互換ビデオストリームのピクチャが存在しないと判断する場合(ステップS100における「No」)、再生装置10は、処理を終了する。
 1.4 変形例
 以上、実施の形態1に基づいて説明したが、本発明は上記の実施の形態1に限られない。例えば、以下のような変形例が考えられる。
 (1)上記実施の形態において、再生装置10は、ベースビュービデオストリームのピクチャのデコード処理を行うとしたが、これに限定されない。
 再生装置10は、ベースビュービデオストリームのピクチャのデコード処理をスキップしても良い。この場合、拡張マルチビュービデオデコーダ3103は、ベースビュービデオストリームのピクチャをデコードしないで、ヘッダ情報の解析(例えば、POCの取得、ピクチャタイプ、ViewID、参照有り無しの情報取得など)とビュー間参照バッファ3139の領域確保をするようにし、そこに同一PTS/DTSを持つ2D互換ビデオデコーダから出力されるピクチャを格納する。これにより、ベースビュービデオストリームのピクチャの復号処理をスキップできるので、再生処理全体での処理負荷を軽減できる。
 また、ベースビューの復号ピクチャデータやディペンデントビューの復号ピクチャデータをDPB3141に格納するとしたが、上記のようにベースビュービデオストリームのピクチャのデコード処理をスキップするのである場合には、DPB3141内のベースビュービデオストリームの復号ピクチャデータは参照されないため不要となるので、マルチビュービデオ圧縮映像デコーダ3140は、DPB3141に格納しないようにしてもよい。このようにすれば、DPB3141からベースビュービデオストリームのピクチャを格納する分のメモリ量を削減することが可能となる。
 (2)上記実施の形態において、再生装置10は、ビュー間参照バッファ3139のベースビュービデオストリームの復号ピクチャデータに対して、2D互換ビデオストリームの同一PTSの復号ピクチャデータを上書きするとしたが、これに限定されない。
 再生装置10は、図35に示すように、コピー処理を行わずにアドレスの書き換えでその処理を代行しても良い。このように処理を行うことによって、メモリ内のデータコピーに伴う帯域の使用を抑制し、再生装置の処理負荷を軽減できる。
 (3)上記実施の形態において、O3117とDPB3141のメモリは別領域として扱っていたが、これに限定されない。図36に示すように、メモリ空間を共用化してもよい。図36にその一例を示す。PTS=100とPTS=200の2D互換ビデオのピクチャについて、同一PTSのビュー間参照バッファ3139のベースビューピクチャに上書きする代わりに、図35で示すようにアドレスの書き換えが行われる。このとき、DPB3141にデータを格納する際もアドレスの書き換えで行うようにする。例えば、図36では、DPB3141のピクチャ管理テーブルにおいては、PTS=100,PTS=200のベースビュー(View_IDが最小値)のピクチャのアドレスは、O3117の管理テーブルが指すアドレスを指すPTS=100、PTS=200の2D互換ビデオの復号ピクチャデータのアドレスを指すように変更する。このようにすれば、再生装置内で復号ピクチャデータの重複を防ぐことが出来、再生装置10に必要なメモリ量を削減することが出来る。
 (4)上記実施の形態において、ビュー間参照バッファ3139とDPB3141とは別のバッファとして扱ったが、これに限定されない。これらを1つのバッファとしても良い。例えば、DPB3141に統一される場合には、2D互換ビデオストリームの復号ピクチャデータを、バッファに置き換える場合には、DPB3141内の同一PTS、同一ViewIDのベースビュービデオストリームの復号ピクチャデータと置き換えることで、本実施の形態の3D映像再生を実現できる。
 (5)上記実施の形態におけるベースビュービデオストリームやディペンデントビュービデオストリームにおいては、ディペンデントビュービデオストリームの参照先を、2D互換ビデオストリームの復号ピクチャデータとしており、通常のマルチビュービデオストリームの構成と異なるため、このようなケースにおいては、ストリームタイプやPESパケットヘッダに付与されるstream_idを、従来のマルチビュービデオストリームの場合の値と異なるように設定しても良い。このように構成することで、再生装置10は、ストリームタイプやstream_idを参照することで、2D互換ビデオストリームのピクチャを用いた3D映像の格納方式であると判断して、そのような再生方法に変更することができるようになる。
 (6)上記実施の形態において、2D互換ビデオデコーダ3102と、ビュー間参照バッファ3139との間にスイッチを設けてもよい。
 この場合、再生装置10は、ESヘッダに値が「1」の符号化情報が存在する場合には、スイッチをON、つまりは2D互換ビデオデコーダ3102と、ビュー間参照バッファ3139とが接続されるようスイッチを制御し、存在しない場合には、スイッチをOFF、つまりは2D互換ビデオデコーダ3102と、ビュー間参照バッファ3139とが接続しないようスイッチを制御する。
 (7)上記実施の形態において、多重化方式をトランスポートストリームとしたが、これに限定されない。例えば、MP4のシステムフォーマットであってもよい。この場合、入力フォーマットをMP4ファイルとして、2D互換ビデオストリーム、ベースビュービデオストリーム/ディペンデントビュービデオストリームに分離してデコードして、ビュー間参照バッファにおいて、ベースビュービデオストリームのピクチャを2D互換ビデオストリームのピクチャに入れ替えが実現できればよい。ただし、MP4システムフォーマットの場合にはPTSがないが、MP4システムフォーマットのヘッダ情報(stts, stszなど)を使えば、各アクセスユニットにおける時刻情報を特定できる。
 (8)上述したように、ベースビュービデオストリームのデコード処理をスキップする場合には、ベースビュービデオストリームはトランスポートストリーム上に多重化されていなくても良い。
 この場合には、ディペンデントビュービデオストリームのピクチャから、2D互換ビデオストリームのピクチャへのビュー間参照を実現させるために、ビュー間参照バッファ3139を拡張マルチビュービデオデコーダが管理できるような情報を2D互換ビデオストリームに格納する。例えば、ベースビュービデオストリームのsyntaxの全てまたは一部を2D互換ビデオストリームの補足データに格納する。例えば、ビュー間参照バッファ3139のピクチャ管理を行うための情報(MPEG-4 MVCでいえば表示順を示すPOC、ピクチャタイプを示すslice_type、ピクチャの参照・非参照を示すnal_ref_idc、ベース参照ピクチャリストを作成するための情報であるref_pic_list_mvc_modification、ベースビュービデオストリームのViewID、MMCOコマンド)などを2D互換ビデオストリームの各ピクチャの補足データに格納する。
 (9)上記実施の形態では、値が「1」である符号化情報がESヘッダに存在しない場合には、再生装置10は、2D映像を出力するとしたが、これに限定されない。
 値が「1」である符号化情報がESヘッダに存在しない場合には、2D互換ビデオデコーダ3102は、誤差を認める逆DCTにより復号を行ってもよいし、誤差を認めない逆DCTにより復号を行ってもよい。
 また、値が「1」である符号化情報がESヘッダに存在する場合であっても、再生装置が誤差を認めない逆DCTの機能を有していない場合が考えられる。そのため、再生装置は、値が「1」である符号化情報が存在すると判断する場合には、さらに自身が誤差を認めない逆DCTの機能を有しているか否かを判断してもよい。機能を有していると判断する場合には、再生装置は、誤差を認めない逆DCTにより復号を行う。機能を有していないと判断する場合には、再生装置は、誤差を認める逆DCTにより復号を行ってもよいし、2D互換ビデオストリームのみ復号を行ってもよい。
 また、値が「1」である符号化情報がESヘッダに存在せず、かつ誤差を認めない逆DCTの機能を有していない場合には、再生装置は、誤差を認める逆DCTにより復号を行ってもよいし、2D互換ビデオストリームのみ復号を行ってもよい。
 誤差を認める逆DCTにより復号を行った場合には、コンテンツ製作者が意図したものと異なる3D映像が再生されることになるが、視聴者は少なくとも3D映像を見ることができるという利点がある。しかしながら、誤差に起因して、3D映像の左右の映像のバランスが不自然になる(例えば、左目と右目の映像のノイズの出方が極端に異なるなど)可能性もある。
 これに対して、2D互換ビデオストリームのみ複合を行う場合には、コンテンツ製作者が意図しない3D映像が再生されることは無いという利点があるが、誤差を黙認すれば本来3Dをデコードし、ユーザーは3Dを視聴できたはずだが、できないという欠点もある。
 1.5 実施の形態1における効果
 以上により再生装置10は、2D互換ビデオデコーダ3102から2D互換ビデオストリームのピクチャをPTSのタイミングで第1プレーンに出力し、拡張マルチビュービデオデコーダ3103からマルチビュービデオストリームのディペンデントビュービデオストリームのピクチャをPTSのタイミングで第2プレーンに出力する。例えば、2D互換ビデオストリームに左目映像、ディペンデントビュービデオストリームに右目映像を格納しておけば、第1プレーンから左目映像、第2プレーンから右目映像をそれぞれ出力するので、再生装置10は、3D映像の再生を実現することが可能となる。
 また、2D互換ビデオストリームのピクチャを圧縮符号化する際に誤差の生じない逆DCTを用いた場合に値が「1」である符号化情報を付与するので、再生装置10は、この情報が有る場合には、復号により圧縮符号化前のピクチャと同一のピクチャを得ることができ、送信者側が意図する3D映像を視聴することができる。
 2.実施の形態2
 ここでは、本発明に係る実施の形態2について、図面を参照しながら、実施の形態1との相違点のみ説明する。
 2.1 構成
 2.1.1 送信装置3701
 送信装置3701は、実施の形態1で示す送信装置2701の構成要素に加えて、図37に示すデブロッキング部3702を有している。
 デブロッキング部3702以外の構成要素については、実施の形態1で既に説明しているので、ここでは、デブロッキング部3702の機能について説明する。
 (1)デブロッキング部3702
 デブロッキング部3702は、MPEG-4 AVCで規定されているデブロッキングフィルタであり、2D互換ビデオストリームのデコード結果に対してブロックノイズを軽減するものである。
 デブロッキング部3702は、2D互換ビデオストリームのデコード結果に対してブロックノイズを軽減し、ノイズが軽減された高画質な2D互換ビデオストリームのピクチャを2D互換ビデオフレームメモリ2708に格納する。
 2.1.2 再生装置3801
 再生装置3801は、実施の形態1で示す再生装置10の構成要素に加えて、図38に示すデブロッキング部3802を有している。
 デブロッキング部3802以外の構成要素については、実施の形態1で既に説明しているので、ここでは、デブロッキング部3802の機能について説明する。なお、判断部3112は、さらに、判断結果をデブロッキング部3802に通知するものとする。
 (1)デブロッキング部3802
 デブロッキング部3802は、MPEG-4 AVCで規定されているデブロッキングフィルタであり、2D互換ビデオストリームのデコード結果に対してブロックノイズを軽減するものである。
 デブロッキング部3802は、2D互換ビデオストリームのデコード結果に対してブロックノイズを軽減し、ブロックノイズが軽減された高画質な2D互換ビデオストリームのピクチャを、第1プレーン3104もしくはO3117に出力する。
 さらに、デブロッキング部3802は、判断部3112から値が「1」である符号化情報が格納されているという判断結果を受け取った場合には、ブロックノイズが軽減された高画質なピクチャを拡張マルチビュービデオデコーダ3103のビュー間参照バッファ3139にもデータを転送する。
 2.2 動作
 2.2.1 送信装置3701の動作について
 ここでは、送信装置3701の動作について実施の形態1に示す送信装置2701の動作との変更点のみを説明する。
 変更点は、図33に示すステップS20である。具体的には、送信装置3701は、復号したピクチャを2D互換ビデオフレームメモリ2708に格納する前に、デブロッキング部3702を用いて、ブロックノイズを軽減し、ブロックノイズが軽減された高画質な2D互換ビデオストリームのピクチャを2D互換ビデオフレームメモリ2708に格納する。
 2.2.2 再生装置3801の動作について
 ここでは、再生装置3801の動作について実施の形態1に示す再生装置10の動作との変更点のみを説明する。
 変更点は、図34に示すステップS115である。具体的には、再生装置3801は、復号したピクチャをビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする前に、デブロッキング部3802を用いて、ブロックノイズを軽減し、ブロックノイズが軽減された高画質な2D互換ビデオストリームのピクチャをビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする。
 2.3 変形例
 以上、実施の形態2に基づいて説明したが、本発明は上記の実施の形態2に限られない。例えば、以下のような変形例が考えられる。
 (1)上記実施の形態2において、再生装置3801は、ブロックノイズが軽減された高画質な2D互換ビデオストリームのピクチャを、第1プレーン3104もしくはO3117、及びビュー間参照バッファ3139に出力したが、これに限定されない。
 デブロッキング部3802を、図39に示す位置に配置して、ビュー間参照バッファ3139に出力されるピクチャに対してのみブロックノイズを軽減してもよい。この場合、再生装置3801は、値が「1」である符号化情報が存在する場合には、第2プレーンから出力されるピクチャのみを用いて2D映像を再生する。これにより、再生装置3801は、誤差が生じない逆DCTを用いた圧縮符号化がされたトランスポートストリームを受信した場合には、高画質な2D映像を再生することができる。
 2.4 実施の形態2の効果
 以上説明したように、送信装置3701及び再生装置3801それぞれにおいて、ブロックノイズの軽減を行うことで、2D互換ビデオストリームに対する2D映像の高画質化を実現するとともに、3D映像の高画質化にもつながることになる。
 また、MPEG-2ビデオは一般にブロックノイズが出やすいのに対して、MPEG2より新しいMPEG-4 AVCやMPEG-4 MVCといった圧縮技術ではブロックノイズが出にくい。このため、MPEG2のブロックノイズをそのままにして、3Dの片目の映像として使用すると、MPEG2ビデオから出力される映像にはブロックノイズが多く含まれるのに対して、MPEG-4 MVCにより圧縮されるディペンデントビュービデオはブロックノイズが多く含まれない。
 つまり、3Dとして視聴した際にMEPG2ビデオからなる左目の映像にはブロックノイズが含まれるのに対して、ディペンデントビューには含まれないため、左右の映像バランスが悪いという課題があった。これに対してMPEG2ビデオに対してブロッキングを適用することにより、左右の目に対する映像の品質が近くなるという利点がある。
 3.実施の形態3
 ここでは、本発明に係る実施の形態3について、図面を参照しながら、実施の形態1との相違点のみ説明する。
 3.1 構成
 3.1.1 送信装置4001
 送信装置4001は、図40に示すように、実施の形態1で示す送信装置2701の構成要素のうちディペンデントビュービデオエンコーダ2709をディペンデントビュービデオエンコーダ4004に変更し、さらに新たな構成要素として、ダウンコンバータ4002及びシフト処理部4003を有している。
 ここでは、実施の形態1で示す送信装置2701との変更点であるダウンコンバータ4002、シフト処理部4003及びディペンデントビュービデオエンコーダ2709について説明する。
 (1)ダウンコンバータ4002
 ダウンコンバータ4002は、高画質の画像を低画質の画像へと変換するものである。具体的には、ダウンコンバータ4002は、1画素が12ビットからなる原画(画像)を受け付けると、各画素について上位8ビットを抽出し、2D互換ビデオエンコーダ2702へ出力する。以下、1画素がp(pは1以上の整数)ビットからなる画像を、pビットの画像という。
 なお、2D互換ビデオエンコーダ2702は、抽出された8ビットの画像をエンコードし、Dec2703は、復号処理により8ビットの復号ピクチャを生成することとなる。
 (2)シフト処理部4003
 シフト処理部4003は、Dec2703で生成された8ビットの復号ピクチャについて、4ビット分、左シフトする。これにより、12ビットのうち下位4ビットには0が格納されることとなる。
 シフト処理部4003は、左シフトにより得られる12ビットの画像を2D互換ビデオフレームメモリ2708へ格納する。
 (3)ディペンデントビュービデオエンコーダ4004
 ディペンデントビュービデオエンコーダ4004は、12ビットの原画(画像)から下位8ビットからなる圧縮符号化された画像を生成するものである。具体的には、ディペンデントビュービデオエンコーダ4004は、12ビットの原画(画像)と、2D互換ビデオフレームメモリ2708に格納されている12ビットの画像の差分を取得する。ディペンデントビュービデオエンコーダ4004は、取得した差分についての下位8ビットについて圧縮符号化を行う。
 3.1.2 再生装置4101
 再生装置4101は、実施の形態1で示す再生装置10の構成要素のうち第1プレーン3104及び第2プレーン3105を除き、図41に示すシフト処理部4102、加算器4103及びプレーン4104を加えたものである。
 以下、シフト処理部4102、加算器4103及びプレーン4104について説明する。
 なお、送信装置4001から送信されたトランスポートストリームには、8ビットの2D互換ビデオストリームのピクチャ及び8ビットのディペンデントビュービデオストリームが含まれているので、復号される各ピクチャは8ビットからなっている。
 (1)シフト処理部4102
 シフト処理部4102は、2D互換ビデオデコーダ3102で復号された8ビットのピクチャに対して、4ビット分、左シフトする。これにより、12ビットのうち下位4ビットには0が格納されることとなる。
 (2)加算器4103
 加算器4103は、左シフトされた12ビットの画像と、拡張マルチビュービデオデコーダ3103で復号された8ビットの画像とを加算し、その結果をプレーン4104へ出力する。
 (3)プレーン4104
 プレーン4104は、加算器4103で加算された結果である12ビットのピクチャデータを保持するプレーンメモリである。
 3.2 動作
 3.2.1 送信装置4001の動作について
 ここでは、送信装置4001の動作について実施の形態1に示す送信装置2701の動作との変更点のみを説明する。
 第1の変更点は、図33に示すステップS10後において、ステップS15を実行するに先立って処理を行うことである。具体的には、ステップS10後において、ステップS15を実行するに先立って、送信装置4001は、ダウンコンバータ4002を用いて、12ビットの画像を上位8ビットの画像へとダウンコンバートする。
 第2の変更点は、図33に示すステップS20である。具体的には、送信装置4001は、復号したピクチャを2D互換ビデオフレームメモリ2708に格納する前に、シフト処理部4003を用いて、8ビットの復号ピクチャについて、4ビット分、左シフトし、その結果を2D互換ビデオフレームメモリ2708に格納する。
 3.2.2 再生装置4101の動作について
 ここでは、再生装置4101の動作について実施の形態1に示す再生装置10の動作との変更点のみを説明する。
 変更点は、図34に示すステップS125である。具体的には、再生装置4101は、2D互換ビデオデコーダ3102で復号された8ビットのピクチャについて、PTSのタイミングで、シフト処理部4102を用いて4ビット分左シフトし、その後、加算器4103を用いて、シフト後の画像と、拡張マルチビュービデオデコーダ3103で復号された8ビットの画像とを加算し、加算結果である画像をプレーン4104へ出力する。
 3.3 変形例
 以上、実施の形態3に基づいて説明したが、本発明は上記の実施の形態3に限られない。例えば、以下のような変形例が考えられる。
 (1)上記実施の形態3において、入力される画像について1画素は12ビットからなるもとしたが、これに限定されない。
 例えば、1画素は10ビットからなるものとし、ダウンコンバータ4002により上位8ビットへとダウンコンバートしてもよい。つまり、高画質の画像は1画素、8ビットより大きなビット長であればよい。ダウンコンバータ4002は、上位8ビットを抽出し、シフト処理部4003及びシフト処理部4102は、1画素を構成するビット長から8ビットの差分だけ左へシフトすればよい。
 3.4 実施の形態3の効果
 以上説明したように、送信装置4001は、高画質画像を低画質の画像へと変換して、送信した場合であっても、再生装置4101側で2D映像の高画質化を実現することができる。
 例えば、8ビットの2D互換ビデオストリームは従来の放送方式に従ったフォーマットとして伝送し、ディペンデントビュービデオストリームで12ビットに拡張するための情報を伝送することにより、従来のデコーダ(つまり従来のTVなどの受像機)では2D互換ビデオストリームだけをデコードして、再生することができるのに対して、拡張マルチビューデコーダを持つ新しいデコーダ(新しいデコーダを持つ新しいTVやレコーダなど)はディペンデントビュービデオストリームもデコードすることによって、12ビットの高画質な映像を再生することが可能となる。
 4.実施の形態4
 ここでは、本発明に係る実施の形態4について、図面を参照しながら、実施の形態1との相違点のみ説明する。
 4.1 構成
 4.1.1 送信装置4201
 送信装置4201は、図42に示すように、実施の形態1で示す送信装置2701の構成要素のうちマルチプレクサ2710をマルチプレクサ4203に変更し、さらに新たな構成要素として、拡大部4202を有している。
 以下、実施の形態1で示す送信装置2701との変更点である拡大部4202及びマルチプレクサ4203の機能について説明する。なお、2D互換ビデオエンコーダ2702に入力される画像は、画素数が1920×1080であるHDサイズである2D映像(2K)とし、ディペンデントビュービデオエンコーダ2709に入力される画像は、画素数がHDサイズの4倍である3840×2160の2D映像(4K)とする。また、ベースビュービデオエンコーダ2705に入力される画像は、黒画面等の付属映像であるが、その画素数は、3840×2160である。
 この時、2D互換ビデオエンコーダ2702に入力される2Kの画像は、ディペンデントビュービデオエンコーダ2709に入力される4Kの画像がリサイズ(縮小)されたものであることが一般的である。
 (1)拡大部4202
 拡大部4202は、MPEG-4 AVCで規定されているスケーラーであり、例えば、画素数が1920×1080であるHDサイズである2D映像(2K)を、画素数がHDサイズの4倍である3840×2160の画像(4K)へと拡大するものである。
 拡大部4202は、4Kへと拡大した2D映像を2D互換ビデオフレームメモリ2708へ格納する。
 これにより、ディペンデントビュービデオエンコーダ2709は、4Kに拡大された2D映像を参照して、入力された2D映像(4K)を圧縮符号化することができる。
 (2)マルチプレクサ4203
 マルチプレクサ4203は、マルチプレクサ2710と同様に、2D互換ビデオストリーム、ベースビュービデオストリーム、ディペンデントビュービデオストリームを、PESパケット化された後にTSパケット単位で分割し、トランスポートストリームに多重化して出力する。
 このとき、マルチプレクサ2710は、多重化する際に、MPEG-2のES(エレメンタリストリーム)のユーザデータに、符号化情報と、スケーラーの方式を示すスケーラー情報を付与する。
 4.1.2 再生装置4301
 再生装置4301は、図43に示すように、実施の形態1で示す再生装置10の構成要素のうち判断部3112を判断部4303に変更し、さらに新たな構成要素として、拡大部4302を有している。
 以下、実施の形態1で示す送信装置2701との変更点である拡大部4302及び判断部4303の機能について説明する。
 (1)判断部4303
 判断部4303は、実施の形態1で示す判断部3112の機能に加えて、以下の機能を有する。
 判断部4303は、スケーラー情報で示される方式よる拡大が可能であるかどうかを判断し、その結果を拡大部4302へ出力する。
 (2)拡大部4302
 拡大部4302は、MPEG-4 AVCで規定されているスケーラーであり、拡大部4202と同様に、画素数が1920×1080であるHDサイズである2D映像(2K)を、画素数がHDサイズの4倍である3840×2160の画像(4K)へと拡大するものである。
 拡大部4302は、判断部4303でスケーラー情報で示される方式よる拡大が可能であると判断された場合、スケーラー情報で示される方式で、Dec3116で復号された復号ピクチャを、4Kへと拡大し、拡大して得られた2D画像をビュー間参照バッファ3139へ格納する。
 4.2 動作
 4.2.1 送信装置4201の動作について
 ここでは、送信装置4201の動作について実施の形態1に示す送信装置2701の動作との変更点のみを説明する。
 第1の変更点は、図33に示すステップS20である。具体的には、送信装置4201は、復号したピクチャを2D互換ビデオフレームメモリ2708に格納する前に、拡大部4202を用いて、2D映像(2K)を、2D画像(4K)へと拡大する。
 第2の変更点は、図33に示すステップS35である。具体的には、送信装置4201は、MPEG-2のESのユーザデータに、符号化情報と、スケーラーの方式を示すスケーラー情報を付与する。
 4.2.2 再生装置4301の動作について
 ここでは、再生装置4301の動作について、図44に示す流れ図を用いて説明する。
 再生装置4301は、復号対象となる2D互換ビデオストリームのピクチャ(2K)が存在するか否かを判断する(ステップS200)。具体的には、再生装置4301は、EB3115にデータがあるかどうかを判定する。
 2D互換ビデオストリームのピクチャ(2K)が存在すると判断する場合(ステップS200における「Yes」)、再生装置4301は、判断部4303を用いて、値が「1」である符号化情報がESヘッダに存在するか否かを判断する(ステップS205)。
 値が「1」である符号化情報が存在すると判断する場合(ステップS205における「Yes」)、再生装置4301は、判断部4303を用いて、スケーラー情報で示される方式で拡大可能であるか否かを判断する(ステップS210)。
 拡大可能であると判断する場合(ステップS210における「Yes」)、再生装置4301は、拡張マルチビュービデオデコーダ3103を用いて、ベースビュービデオストリームのピクチャを復号して、ビュー間参照バッファ3139へ格納する(ステップS215)。
 再生装置4301は、2D互換ビデオデコーダ3102のDec3116を用いて2D互換ビデオストリームのピクチャを復号し、さらに、拡大部4302を用いて復号されたピクチャをスケーラー情報で示される方式で拡大し、拡大したピクチャをビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする(ステップS220)。
 再生装置4301は、拡張マルチビュービデオデコーダ3103を用いて、ビュー間参照バッファ3139に格納されている拡大されたピクチャを参照して、ディペンデントビュービデオストリームのピクチャを復号する(ステップS225)。
 再生装置4301は、出力処理部3142を用いて、復号した4Kの復号ピクチャをPTSのタイミングで第2プレーンに出力する(ステップS230)。
 値が「1」である符号化情報が存在しないと判断する場合(ステップS205における「No」)、及び指定された方式で拡大可能でないと判断する場合(ステップS210における「No」)、再生装置4301は、2D互換ビデオデコーダ3102を用いて、2D互換ビデオストリームのピクチャを復号する(ステップS235)。このとき、2D互換ビデオデコーダ3102は、ビュー間参照バッファ3139に復号したピクチャを格納しない。
 再生装置4301は、出力処理部3118を用いて、2D互換ビデオストリームの復号ピクチャをPTSのタイミングで第1プレーン3104に出力する(ステップS240)。これにより、値が「1」である符号化情報が存在しない場合、及び指定された方式で拡大できない場合には、再生装置4301は、サイズが2Kである2D映像を出力することができる。
 2D互換ビデオストリームのピクチャが存在しないと判断する場合(ステップS200における「No」)、再生装置4301は、処理を終了する。
 4.3 実施の形態4の効果
 以上説明したように、 送信装置4201は、従来の放送と互換を持つ2D互換ビデオストリームと、2D互換ビデオストリームを参照して効率的に4K2Kなどより高画質な映像をディペンデントビュービデオとして伝送することが可能となる。
 また、再生装置4301は、2K1Kの画像を4K2Kの画像へと変換することができる。
 送信装置4201及び再生装置4301によって、拡張マルチビュービデオデコーダを持たない従来の再生装置では、2D互換ビデオストリームとして2K1Kの映像が再生され、拡張マルチビュービデオデコーダを持つ新しい再生装置では4K2Kなどのよる高画質な映像を再生することが可能となる。
 5.実施の形態5
 ここでは、本発明に係る実施の形態5について、図面を参照しながら、実施の形態1及び実施の形態4との相違点のみ説明する。
 5.1 構成
 5.1.1 送信装置4501
 送信装置4501は、図45に示すように、実施の形態4で示す送信装置4201の構成要素のうち拡大部4202を拡大部4502に、ディペンデントビュービデオエンコーダ2709をディペンデントビュービデオエンコーダ4503に、それぞれ変更したものである。
 以下、実施の形態4で示す送信装置4201との変更点である拡大部4502及びディペンデントビュービデオエンコーダ4503の機能について説明する。なお、2D互換ビデオエンコーダ2702に入力される画像は、Side-by-Side方式の原画(SbS)とし、ディペンデントビュービデオエンコーダ2709に入力される画像は、FHDの右目映像及び左目映像から構成される原画(LR)とする。また、ベースビュービデオエンコーダ2705に入力される画像は、黒画面等の付属映像(4K1K)である。
 (1)拡大部4502
 拡大部4502は、Dec2703で復号された画像を横方向について2倍に拡大するスケーラーである。ここで、Dec2703で復号されたピクチャは、Side-by-Side方式の復号ピクチャ、つまり右映像及び左映像が横方向に1/2に縮小された、分割前の画像である。拡大部4502は、この画像について、横方向に2倍に拡大することで、右映像及び左映像それぞれが表示すべき画像サイズとする。
 拡大部4502は、横方向について2倍に拡大した画像(SbS)を2D互換ビデオフレームメモリ2708へ格納する。
 これにより、ディペンデントビュービデオエンコーダ4503は、横方向について2倍に拡大された画像を参照して、入力された映像(LR)を圧縮符号化することができる。
 (2)ディペンデントビュービデオエンコーダ4503
 ディペンデントビュービデオエンコーダ4503は、2D互換ビデオフレームメモリ2708に格納された横方向について2倍に拡大された画像(SbS)を参照して、入力された原画(LR)を圧縮符号化するものである。具体的には、ディペンデントビュービデオエンコーダ4503は、入力された映像(LR)と、2D互換ビデオフレームメモリ2708に格納されている復号ピクチャ(画像(SbS))の差分を取得する。ディペンデントビュービデオエンコーダ4004は、取得した差分について圧縮符号化を行う。
 5.1.2 再生装置4601
 再生装置4601は、図46に示すように、実施の形態4で示す再生装置4301の構成要素のうち拡大部4302を拡大部4602に、マルチビュービデオ圧縮映像デコーダ(Dec)3140をマルチビュービデオ圧縮映像デコーダ(Dec)4603に、それぞれ変更し、新たな構成要素としてクロッピング部4604を有している。
 以下、実施の形態4で示す再生装置4301との変更点である拡大部4602、Dec4603及びクロッピング部4604の機能について説明する。なお、2D互換ビデオデコーダ3102に入力される画像は、Side-by-Side方式の原画(SbS)が圧縮符号化されたものとし、拡張マルチビュービデオデコーダ3103に入力される画像は、FHDの原画(LR)と原画(SbS)との差分(以下、差分画像という。)が圧縮符号化されたものとする。また、ベースビュービデオエンコーダ2705に入力される画像は、付属映像(4K1K)が圧縮符号化されたものである。
 (1)拡大部4602
 拡大部4602は、Dec3116で復号された画像を横方向について2倍に拡大するスケーラーである。具体的には、拡大部4602は、判断部4303でスケーラー情報で示される方式よる拡大が可能であると判断された場合、スケーラー情報で示される方式で、Dec3116で復号された復号ピクチャを、横方向について2倍に拡大し、拡大した画像をビュー間参照バッファ3139へ格納する。ここで、Dec3116で復号されたピクチャは、Side-by-Side方式の復号ピクチャ、つまり右映像及び左映像が横方向に1/2に縮小された、分割前の画像である。拡大部4602は、この画像について、横方向に2倍に拡大することで、右映像及び左映像それぞれが表示すべき画像サイズとする。
 (2)マルチビュービデオ圧縮映像デコーダ(Dec)4603
 マルチビュービデオ圧縮映像デコーダ4603は、ビュー間参照バッファ3139に格納されている横方向に2倍に拡大された画像を参照して、ディペンデントビューストリームに含まれる符号化された右目映像についての差分画像及び符号化された左目映像についての差分画像それぞれを、復号するものである。
 具体的には、マルチビュービデオ圧縮映像デコーダ4603は、符号化された右目映像についての差分画像を、横方向に2倍に拡大された画像のうち右目画像に対応する画像を参照して復号し、符号化された左目映像についての差分画像を、横方向に2倍に拡大された画像のうち左目画像に対応する画像を参照して復号する。マルチビュービデオ圧縮映像デコーダ4603は、復号した右目画像、及び左目画像を交互に、DPB3141へ出力する。
 (3)クロッピング部4604
 クロッピング部4604は、第2プレーンに出力された、復号された右目画像、及び左目画像を交互に出力するものである。
 これにより、再生装置4601は、クロッピング部4604で出力された右目画像、及び左目画像を交互に表示することにより3D映像の再生を可能とする。
 5.2 動作
 5.2.1 送信装置4501の動作について
 ここでは、送信装置4501の動作について実施の形態1に示す送信装置2701の動作との変更点のみを説明する。
 第1の変更点は、図33に示すステップS20である。具体的には、送信装置4201は、復号したピクチャを2D互換ビデオフレームメモリ2708に格納する前に、拡大部4502を用いて、復号した画像を、横方向に2倍に拡大する。
 第2の変更点は、図33に示すステップS35である。具体的には、送信装置4501は、MPEG-2のESのユーザデータに、符号化情報と、スケーラーの方式を示すスケーラー情報を付与する。
 5.2.2 再生装置4601の動作について
 ここでは、再生装置4601の動作について、図44に示す流れ図における変更点のみを説明する。
 変更点は、図44に示すステップS220である。具体的には、再生装置4601は、2D互換ビデオデコーダ3102のDec3116を用いて復号したピクチャを、拡大部4602を用いてスケーラー情報で示される方式で横に2倍に拡大し、拡大したピクチャをビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする。
 なお、図44には図示していないが、再生装置4601は、クロッピング部4604を用いて、第2プレーンに保持されている右目画像及び左目画像を交互に出力する。
 5.3 変形例
 以上、実施の形態5に基づいて説明したが、本発明は上記の実施の形態5に限られない。例えば、以下のような変形例が考えられる。
 (1)上記実施の形態5において、2D互換ビデオエンコーダ2702及び2D互換ビデオデコーダ3102で処理される映像(画像)は、Side-by-Side方式の画像としたが、これに限定されない。
 2D互換ビデオエンコーダ2702及び2D互換ビデオデコーダ3102で処理される映像(画像)は、Top and Bottom方式であってもよい。この場合、拡大部4502及び拡大部4602は、復号されたピクチャの縦方向に2倍に拡大することとなる。
 (2)上記実施の形態5において、付属映像について、Dec4603は、当該付属画像をDPB3141に出力する代わりに、2D互換ビデオデコーダ3102から出力された横方向に2倍に拡大されたピクチャをDPB3141に出力してもよい。
 (3)また、Dec4603は、当該付属画像をDPB3141に出力する代わりに、2D互換ビデオデコーダ3102から出力された横方向に2倍に拡大されたピクチャをDPB3141に出力する場合、Dec4603は、差分画像の復号について、以下のように動作してもよい。
 Dec4603は、右目画像そのもの及び左目画像そのものを復号する代わりに、差分のみ復号し、クロッピング部4604で画像を出力する前に、復号した右目及び左目差分画像それぞれと、横方向に2倍に拡大されたピクチャとを用いて、右目画像そのもの及び左目画像そのものを生成してもよい。具体的には、再生装置4601は、加算器により、右目の差分画像と、横方向に2倍に拡大されたピクチャのうち右目に対応する画像とを加算し、左目の差分画像と、横方向に2倍に拡大されたピクチャのうち左目に対応する画像とを加算して、右目画像そのもの及び左目画像そのものを生成する。
 また、上記に示す差分画像の復号は、当該付属画像をDPB3141に出力する代わりに、2D互換ビデオデコーダ3102から出力された横方向に2倍に拡大されたピクチャをDPB3141に出力する場合の変形例としているが、これに限定されない。ベースビューストリームとして、付属映像の代わりに2D互換ビデオエンコーダ2702が受け取る映像について横方向に2倍に拡大された映像を入力して受け付けた場合においても、上記と同様の構成(加算器を追加した構成)及び動作で、3D映像の再生を実現できる。
 5.4 実施の形態5の効果
 以上により、再生装置4601は、横方向に2倍に拡大されたSide-by-Side方式(若しくは、Top and Bottom方式)の画像を参照して、ディペンデントビュービデオストリームに含まれる右目及び左目の差分画像から右目及び左目それぞれの画像を生成し、3D映像の再生を実現することが可能となる。
 6.実施の形態6
 ここでは、本発明に係る実施の形態6について、図面を参照しながら、他の実施の形態との相違点のみ説明する。
 6.1 構成
 6.1.1 送信装置4901
 送信装置4901は、図47に示すように、実施の形態1で示す送信装置2701と同様の構成要素に加えて、ベースビュービデオデコーダ(Dec)4902、加算器4903及び減算器4904を備える。
 (1)減算器4904
 減算器4904は、左目用の原画が2D互換ビデオエンコーダ2702によってMPEG2にエンコードされ2D互換ビデオストリームとなった後、Dec2703でデコードされた映像と、左目用の原画との差分を算出する。減算器4904は、算出した結果(左目の差分画像)をベースビュービデオエンコーダ2705へ出力する。
 ベースビュービデオエンコーダ2705では、この左目の差分画像について圧縮符号化を行う。
 (2)ベースビュービデオデコーダ(Dec)4902
 ベースビュービデオデコーダ4902は、ベースビュービデオエンコーダ2705から出力されたベースビュービデオストリームをデコードして、圧縮符号化された左目の差分画像が復号された復号ピクチャを出力する。
 (3)加算器4903
 加算器4903は、2D互換ビデオデコーダ2703から出力された復号ピクチャと、ベースビュービデオデコーダ4902から出力された復号ピクチャを加算して、参照ピクチャ(L)を生成し、生成した参照ピクチャ(L)を2D互換ビデオフレームメモリ2708へ格納する。
 これにより、ディペンデントビュービデオエンコーダ2709では、入力された右目原画(R)について圧縮符号化する際に、Dec2703でデコードされた映像よりも高画質な映像となる参照ピクチャ(L)を参照して圧縮符号化することができる。
 また、多重化される各ストリームについては、2D互換ビデオストリームは左目原画が符号化されたものであり、ベースビュービデオストリームは符号化された前記2D互換ビデオストリームと左目原画の差分画像が符号化されたものであり、ディペンデントビュービデオストリームは右目原画が、2D互換ビデオフレームメモリ2708に記録されている参照ピクチャ(L)を参照しながら符号化されたものである。
 6.1.2 再生装置5001
 再生装置5001の構成要素は、図48に示すように、実施の形態1で示す再生装置10の構成要素に加えて、第3プレーン4802、加算器4803を有している。
 また、再生装置5001の判断部3112は、実施の形態1で示す機能に加えて、判断結果を出力処理部3118へも出力する。
 再生装置5001の出力処理部3118は、実施の形態1で示す機能に加えて、判断部3112による判断結果が値が「1」である符号化情報が格納されているという旨のものであれば、第1プレーンに格納されている画像(復号ピクチャ)の出力先を加算器4803とするよう制御する。
 また、本実施の形態6では、ビュー間参照バッファ3139に格納される画像の出力元が他の実施の形態と異なる。
 (1)第3プレーン4802
 第3プレーン4802は、拡張マルチビュービデオデコーダ3103がデコーダして表示タイミングで出力した、ベースビュービデオストリームのピクチャ(左目の差分画像)を保持するプレーンメモリである。
 (2)加算器4803
 加算器4803は、第1プレーン3104から出力されたピクチャ(左目の画像)と、第3プレーンから出力されたピクチャ(左目の差分画像)とを加算するものである。
 これらピクチャを加算することで、ノイズが緩和された左目画像を生成することができる。
 また、加算器4803で生成された左目画像はビュー間参照バッファ3139に格納される。
 これにより、マルチビュービデオ圧縮映像デコーダ3140は、加算器4803から出力された画像を参照して、ディペンデントビューストリームの復号を行うこととなる。
 6.2 動作
 6.2.1 送信装置4901の動作について
 ここでは、送信装置4901の動作について、図33に示す流れ図における変更点のみを説明する。
 第1の変更点は、図33に示すステップS20である。具体的には、送信装置4901は、2D互換ビデオデコーダ2703を用いて1エンコード枚数分の2D互換ビデオストリームの復号処理を、ベースビュービデオデコーダ4902を用いて1エンコード枚数分のベースビュービデオストリームの復号処理を、それぞれ行い、それぞれで復号したピクチャを加算器4903を用いて加算し、その結果を2D互換ビデオフレームメモリ2708に格納する。
 第2の変更点は、図33に示すステップS25である。具体的には、送信装置4901は、減算器4904を用いて左目の差分画像の生成を行い、ベースビュービデオエンコーダ2705を用いて生成した差分画像を圧縮符号化してベースビュービデオストリームを生成する。
 最後の変更点は、変更されたステップS20と、変更されたステップS25の処理順序を入れ替える点である。
 6.2.2 再生装置5001の動作について
 ここでは、再生装置5001の動作について、図34に示す流れ図における変更点のみを説明する。
 第1の変更点は、ステップS115である。具体的には、再生装置5001は、2D互換ビデオデコーダ3102を用いて2D互換ビデオストリームのピクチャを復号し、加算器4803を用いてステップS110で復号したピクチャと加算し、その結果を、ビュー間参照バッファ3139における同一DTSをもつベースビューストリームのピクチャに上書きする。
 第2の変更点は、ステップS125であり、具体的には、再生装置5001は、出力処理部3118及び出力処理部3142を用いて、2D互換ビデオストリームの復号ピクチャ(左目の画像)をPTSのタイミングで第1プレーン3104に出力し、ディペンデントビュービデオストリームの復号ピクチャ(右目)をPTSのタイミングで第2プレーンに出力し、さらに、ベースビュービデオストリームの復号ピクチャ(左目の差分画像)をPTSのタイミングで第3プレーンに出力する。さらに、その後、再生装置5001は、出力処理部3118を用いて、第1プレーンに格納されている復号ピクチャ(左目の画像)と加算器4803へ出力し、第3プレーンに格納されている復号ピクチャ(左目の差分画像)と加算して、ノイズが緩和された左目画像を生成する。
 6.3  実施の形態6の効果
 以上説明したように、送信装置4901では、左目原画と右目原画を用いて3D映像を送信する際に、左目原画はMPEG2で圧縮することによって、従来の再生装置で再生できる互換性と実現することができる。
 また、左目の映像をMPEG2で圧縮し、右目の映像をMPEG-4 AVCやMPEG-4 MVCなどの新しい圧縮技術で圧縮した場合、MPEG2で圧縮する際のノイズ(ブロックノイズなど)と、新しい圧縮技術で圧縮する際のノイズとの特性が異なる(新しい圧縮技術ではデブロッキングフィルタなどでブロックノイズは検知しずらい)ため、左右の映像のバランス(ノイズの出方)が異なり、3Dの視聴者が違和感を抱くことがある。そこで、本実施の形態6では、MPEG2で圧縮された2D互換ビデオストリームと、左目原画の差分をベースビュービデオストリームとして圧縮し、再生時には2D互換ビデオストリームをデコードした映像と、ベースビュービデオストリームをデコードした映像を加算するため、前述のブロックノイズをベースビュービデオストリームとの加算によって緩和することができるため、再生される3D映像のバランス(ノイズの出方)が異なることを緩和することができる。
 7.変形例
 以上、各実施の形態に基づいて説明したが、本発明は上記の各実施の形態に限られない。例えば、以下のような変形例が考えられる。
 (1)上記各実施の形態において、2D互換ビデオストリームをMPEG-2ビデオ、マルチビュービデオストリーム(ベースビュービデオストリームとディペンデントビュービデオストリーム)をMPEG-4 MVCビデオとして説明したが、コーデックの種類はこれに限らないことは言うまでもない。各実施の形態における再生装置、送信装置において、コーデックの特性に合わせて、構成を適宜変更することで対応ができる。例えば、2D互換ビデオストリームをMPEG-4 AVCで、マルチビュービデオストリームが「新コーデック」の場合には、再生装置においては、Re-ordering BufferをDPBと変更し、ビュー間参照バッファ内のピクチャデータの管理は「新コーデック」の構成に従って行えばよい。
 (2)上記各実施の形態において、送信装置は、符号化情報を、MPEG-2のESのビデオアクセスユニット毎にユーザデータに格納したが、これに限定されない。
 送信装置は、MPEG-2のESにおける複数のGOPそれぞれに対して、当該GOPに含まれる先頭のビデオアクセスユニットのユーザデータにのみに符号化情報を格納、つまりGOPの先頭画像にのみに符号化情報を付与してもよい。この場合、受信装置では、MPEG-2のESにおける複数のGOPそれぞれに対して、当該GOPの先頭画像に付与された符号化情報の内容を解析し、その結果に応じた処理を行う。
 または、送信装置は、符号化された各2D画像をPESパケット化する際に、PESヘッダに符号化情報を格納してもよい。この場合、受信装置では、PESパケットに含まれる符号化情報の内容を解析し、その結果に応じた処理を行う。
 また、送信装置は、符号化情報を、MPEG-2のESに格納するのではなく、MPEG-4 MVCのSEI(Supplemental Enhancement Information) メッセージに格納してもよい。この場合、送信装置は、ディペンデントビューを構成するビデオアクセスユニットそれぞれに対して当該ビデオアクセスユニットのSEIメッセージに格納してもよいし、複数のGOPそれぞれに対して、当該GOPに含まれる先頭のビデオアクセスユニットのSEIメッセージにのみに符号化情報を格納してもよい。また、受信装置では、拡張マルチビュービデオデコーダにおいて符号化情報の内容を判断し、その結果を2D互換ビュービデオデコーダへ通知してもよいし、拡張マルチビュービデオデコーダが符号化情報を2D互換ビュービデオデコーダへ引き渡し、2D互換ビュービデオデコーダが符号化情報の内容を判断してもよい。
 または、送信装置は、符号化情報を、システムパケット(PMT:ProgramMapTable)内に格納してもよいし、EIT(Event Information Table)に格納してもよい。 PMTは、番組のデコードを開始する前に解析されるので、受信装置は、符号化情報の内容の判断結果を、番組のデコードを開始する前に知ることができる。また、EITは、番組開始以前に取得可能な情報であるため、受信装置は、番組開始前に符号化情報の内容を判断しておき、その結果をメモリ等に記憶していてもよいし、番組開始時点で当該番組に対する符号化情報の内容を判断してもよい。
 または、送信装置は、符号化情報を、米国の放送規格(ATSC:Advanced Television Systems Committee)のA/65:2009: Program And System Information Protocol For Terrestrial Broadcast And Cable規格で規定されている各種テーブル(MGT、VCT、EIT、ETT)やデスクリプタとして格納してもよい。 PMTやEITで伝送するのと同様の効果が期待できるほか、VCTはVirtual Channel Tableとして定義されているテーブルで、各チャンネルの属性情報(チャンネル番号、チャンネルの伝送経路や使用されているビデオストリームやオーディオストリームの種類などが含まれる)の1つとして符号化情報を保持することによって、当該チャンネルに切り替えた際に符号化情報の内容を判断することが可能となる。
 または、符号化情報は、PMT及びEITの双方に格納されてもよい。EITは番組開始以前から配信されている情報であり、番組直前に符号化情報の内容が変更される可能性もあるため、受信装置では、番組開始時にPMT及びEITの双方に格納された符号化情報の内容を比較し、内容が異なる場合には、PMTに格納された符号化情報の内容を優先して、処理を行う。
 (3)上記各実施の形態では、符号化情報は、送信装置から受信装置へ常に送信されるものとしたが、これに限定されない。
 符号化情報は、常に送信されなくてもよい。この場合、受信装置は、送信装置から送信されるMPEG-2のESの画像(左目画像)を符号化する際には誤差の生じない逆DCTが用いられていることを、予め知っている。例えば、受信装置は、映像を受信するチャンネル毎に、MPEG-2のESの画像の符号化に誤差の生じない逆DCTが用いられているか否かの情報を対応付けて記憶している。
 (4)上記各実施の形態では、送信装置は、単一種類のトランスポートストリームを送信するものとしたが、これに限定されない。ここで、単一種類のストリームとは、例えば、実施の形態1では、2D映像を用いて3D表示するためのストリーム(3D用ストリーム)であり、実施の形態4では、2D映像(2K)を拡大(4K)して表示するためのストリーム(4K2K用ストリーム)である。
 送信装置は、複数種類のストリームを送信してもよい。ここでは、送信装置が、3D用ストリーム及び4K2K用ストリームを送信する場合について説明する。
 送信装置は、送信対象のストリームが3D用ストリームであるか4K2K用ストリームであるかを識別するためのストリーム識別子を、当該送信対象のストリームに含める。例えば、ストリーム識別子は、MPEG-2のESのビデオアクセスユニット毎に当該ビデオアクセスユニットの補足データ(user_data)に格納される。または、ストリーム識別子は、MPEG-2のESの複数のGOPそれぞれに対して当該GOPの先頭画像に対応するビデオアクセスユニットにのみ格納されてもよい。または、MPEG-4 MVCの全ての画像それぞれのSEIに格納されてもよいし、GOP毎に、当該GOPの先頭の画像にのみに格納されてもよい。さらには、ストリーム識別子は、PMTに格納されてもよいし、EITに格納されてもよいし、PMT及びEITの双方に格納されてもよい。
 この場合、受信装置では、受信したストリームに格納されたストリーム識別子の内容に応じて、3D表示に係る処理又は4K2Kに係る処理を行う。
 (5)上記各実施の形態において、送信装置は、符号化情報を送信する代わりに、2D互換ビデオストリームを生成した2D互換ビデオエンコーダを識別するためのエンコーダ識別情報を送信してもよい。ここで、エンコーダ識別子には、例えば2D互換ビデオエンコーダを提供する提供元(製造元)の識別子が与えられる。また、この場合の2D互換ビデオエンコーダには、誤差が生じる逆DCTが用いられていてもよい。
 受信装置は、送信装置から送信されたエンコーダ識別子を用いて、MPEG-2のESの生成に用いられた2D互換ビデオエンコーダの提供元を特定し、自身が備える2D互換ビデオデコーダの提供元と一致するかどうかを判断する。一致する場合には、受信装置は、符号化情報の値が「1」である場合と同様の処理を行う。一致しない場合には、受信装置は、符号化情報の値が「0」である場合と同様の処理を行う。
 通常、符号化のアルゴリズム、及び参照画面を生成する際の復号のアルゴリズムは、提供者(製造者)毎に異なっていることがある。そこで、2D互換ビデオエンコーダの提供元が特定されれば、当該提供者が提供する2D互換ビデオデコーダで用いられる復号のアルゴリズムが、2D互換ビデオエンコーダで用いられたアルゴリズムと同一となるか否かを判別することができる。同一となる場合には、2D互換ビデオデコーダで用いられる復号のアルゴリズムで復号した画像と、2D互換ビデオエンコーダが参照画面の生成のために復号した画像とは一致するものとなる。そうすると、2D互換ビデオエンコーダには、誤差が生じる逆DCTが用いられ多場合であっても、受信装置で復号した場合には最小限の誤差(2D互換ビデオエンコーダが参照画面の生成のために復号した場合の誤差と同一)で抑えることができる。
 (6)上記実施の形態4において、値が「1」である符号化情報が存在しない場合には、再生装置4301は、サイズが2Kである2D映像を出力するとしたが、これに限定されない。
 値が「1」である符号化情報が存在しない場合には、再生装置4301は、誤差を認める逆DCT変換により画像の復号し、拡大部4302による拡大を行ってもよい。
 (7)上記各実施の形態において、2D互換ビデオエンコーダは、参照画像を圧縮復号化された画像を復号することで得ていたが、これに限定されない。
 2D互換ビデオエンコーダは、復号により参照画像を得る代わりに、入力として受け付けた画像そのものを参照画像としてメモリに格納してもよい。
 (8)上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。
 また、当該手法の手順を記述したプログラムを記録媒体に格納して、頒布するようにしてもよい。
 (9)上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適応などが可能性としてあり得る。
 (10)上記実施の形態及び変形例を組み合わせるとしてもよい。
 8.補足
 (1)本発明の一実施態様である、一の番組についての画像列を符号化して、送信する送信装置は、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により、前記画像列に含まれる各2D画像を符号化する第1符号化手段と、前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化する第2符号化手段と、前記第1符号化手段及び前記第2符号化手段それぞれにより符号化された各画像をトランスポートストリームとして多重化する多重化手段と、前記トランスポートストリームを送信する送信手段とを備え、前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、前記第2符号化手段は、ディペンデントビュービデオストリームに含まれる画像を符号化する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照することを特徴とする。
 この構成によると、送信装置は、第1符号化方式により符号化したMPEG-2ビデオストリームのピクチャを参照して、MPEG-4 MVCのディペンデントビュービデオストリームにおけるピクチャの符号化を行う。そのため、受信側の装置では、MPEG-2ビデオストリームのピクチャを参照して、MPEG-4 MVCのディペンデントビュービデオストリームのピクチャを復号することで、放送側が意図する画像、つまり符号化前と誤差のない画像を得ることができるとともに、3D再生においても放送側が意図する立体視が得られる。
 (2)ここで、前記多重化手段は、前記トランスポートストリームに、前記第1符号化方式により符号化された旨を示す符号化情報を含めるよう前記多重化を行うとしてもよい。
 この構成によると、送信装置は、前記第1符号化方式により符号化された旨を示す符号化情報を、送信するので、受信側の装置では、第1符号化方式により符号化したことを示す符号化情報が含められたトランスポートストリームを復号する際には誤差の生じない復号方式を用いることで、符号化前と誤差のない画像を得ることができる。そのため、例えば、2D画像を一の視点とし、当該2D画像を参照して、符号化前と誤差のない画像を他の視点とすることで、放送側の意図する3D映像を再生できる。
 (3)ここで、前記多重化手段は、生成すべきトランスポートストリームとして多重化されるPMT(Program Map Table)に前記符号化情報を格納するとしてもよい。
 この構成によると、送信装置は、符号化情報をPMTに格納するので、受信側の装置では、映像のストリームをデコードする前に当該符号化情報の有無を確認することができる。
 (4)ここで、前記2D画像は、立体視する場合における一の視点での画像であり、前記2D画像に関連する画像は、立体視する場合における他の視点での画像であるとしてもよい。
 この構成によると、送信装置は、2D画像を一の視点とし、前記2D画像に関連する画像を他の視点として、それぞれ符号化することで、受信側の装置は、放送側の意図する3D映像を再生できる。
 (5)ここで、前記多重化手段は、前記画像列に含まれる前記2D画像毎に、当該2D画像に対応するビデオアクセスユニットに前記符号化情報を格納するとしてもよい。
 この構成によると、送信装置は、符号化情報を画像毎に、対応するビデオアクセスユニットに格納するので、受信側の装置では、画像毎に当該符号化情報の有無を確認することができる。これにより、送信装置は、画像単位に、放送側が意図する映像を受信側の装置に提供することができる。
 (6)ここで、前記多重化手段は、各2D画像の符号化時に相関関係のある2D画像の集合であるGOP(Group of Pictures)毎に、前記符号化情報を当該GOPに含まれるGOPヘッダに格納するとしてもよい。
 この構成によると、送信装置は、2D画像についてのGOP単位に、符号化情報を格納するので、受信側の装置では、GOP単位に符号化情報の有無を確認できる。
 (7)ここで、前記多重化手段は、前記ディペンデントビュービデオストリームに含まれる画像毎に、当該画像に対応するアクセスユニットに前記符号化情報を格納するとしてもよい。
 この構成によると、送信装置は、符号化情報をアクセスユニットに格納するので、受信側の装置では、ディペンデントビュービデオストリーム内の各画像のアクセスユニットについて当該符号化情報の有無を確認することができる。
 (8)ここで、前記多重化手段は、前記ディペンデントビュービデオストリームに含まれる画像の符号化時に相関関係のある画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれる先頭の画像に対応するアクセスユニットに前記符号化情報を格納するとしてもよい。
 この構成によると、送信装置は、ディペンデントビュービデオストリームについてのGOP単位に、符号化情報を格納するので、受信側の装置では、GOP単位に符号化情報の有無を確認できる。
 (9)ここで、前記多重化手段は、符号化された各2D画像をPES(Packetized Elementary Stream)パケット化する際に、前記符号化情報をPESヘッダに格納するとしてもよい。
 この構成によると、送信装置は、符号化情報をPESヘッダに格納するので、受信側の装置では、PESヘッダについて当該符号化情報の有無を確認することができる。
 (10)ここで、前記多重化手段は、前記符号化情報を、生成すべきトランスポートストリームとして多重化されるEIT(Event Information Table)に格納するとしてもよい。
 この構成によると、送信装置は、EITに符号化情報を格納するので、受信側の装置では、番組の開始前に当該符号化情報の有無を確認することができる。
 (11)ここで、前記第1符号化手段は、前記第1符号化方式の代わりに、参照画像を生成する際に符号化前の画像との誤差を許容する逆離散コサイン変換が用いられる複数の符号化方式のうち一の符号化方式により、前記画像列に含まれる各2D画像を符号化し、前記多重化手段は、前記トランスポートストリームに、前記一の符号化方式により符号化された旨を示す識別情報を含めるよう前記多重化を行うとしてもよい。
 この構成によると、送信装置は、複数の符号化方式のうち一の符号化方式により符号化された旨を示す識別情報を送信するので、受信側の装置では、複数の符号化方式のうちどの符号化方式により符号化が行われたかを知ることができるので、受信側の装置は、符号化が行われた符号化方式に対応する復号方式で復号できるかどうか判断することができる。
 (12)ここで、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する前記符号化方式は、MPEG-4 MVC(Moving Picture Experts Group-4 Multi View Coding)方式であるとしてもよい。
 この構成によると、送信装置は、前記2D画像に関連する画像を、MPEG-4 MVC方式で符号化することができる。
 (13)本発明の一実施態様である、符号化された画像を受信する受信装置は、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により符号化された2D画像の列と、2D画像を参照画像とする第2符号化方式で符号化された、2D画像それぞれに関連する画像からなる列とを含むトランスポートストリームを受信する受信手段と、前記トランスポートストリームに含まれる符号化された2D画像それぞれについて、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1復号方式による復号を行う第1復号手段と、前記トランスポートストリームに含まれる、2D画像それぞれに関連する画像について、対応する2D画像を参照画像とする第2復号方式で復号を行う第2復号手段とを備え、前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、前記第2復号手段は、画像を復号する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照することを特徴とする。
 この構成によると、受信装置は、MPEG-2ビデオストリームのピクチャを参照して、MPEG-4 MVCのディペンデントビュービデオストリームにおけるピクチャの復号を行うので、放送側が意図する画像、つまり符号化前と誤差のない画像を得ることができるとともに、3D再生においても放送側が意図する立体視が得られる。
 (14)ここで、前記トランスポートストリームには、各2D画像が前記第1符号化方式による符号化がされている場合にはその旨を示す符号化情報が含まれ、前記受信装置は、さらに、前記トランスポートストリームに前記符号化情報が含まれているか否かを判定する判定手段を備え、前記第1復号手段は、前記符号化情報が含まれていると判定される場合に、前記第1復号方式による前記復号を行うとしてもよい。
 この構成によると、受信装置は、第1符号化方式により符号化したことを示す符号化情報がトランスポートストリームに含まれている場合には、トランスポートストリームを復号する際には誤差の生じない復号方式を用いるので、符号化前と誤差のない画像を得ることができる。そのため、例えば、2D画像を一の視点とし、当該2D画像を参照して、符号化前と誤差のない画像を他の視点とすることで、放送側の意図する3D映像を再生できる。
 (15)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれるPMT(Program Map Table)に格納されており、前記判定手段は、前記第1復号手段及び前記第2復号手段による画像の復号が開始される前に、前記PMTに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、符号化情報はPMTに格納されているので、映像のストリームをデコードする前に当該符号化情報の有無を確認することができる。
 (16)ここで、前記2D画像は、立体視する場合における一の視点での画像であり、前記2D画像に関連する画像は、立体視する場合における他の視点での画像であるとしてもよい。
 この構成によると、受信装置は、2D画像を一の視点とし、前記2D画像に関連する画像を他の視点として、それぞれ符号化されたストリームを復号するので、放送側の意図する3D映像を再生できる。
 (17)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれる2D画像毎に当該2D画像に対応するビデオアクセスユニットに格納されており、前記判定手段は、前記第1復号手段及び前記第2復号手段による画像の復号時に復号対象の画像のビデオアクセスユニットに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、符号化情報を画像毎に対応するビデオアクセスユニットが格納されているので、受信装置は、画像毎に当該符号化情報の有無を確認することができる。これにより、受信装置は、画像単位に、放送側が意図する映像を復号することができる。
 (18)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、各2D画像の符号化時において相関関係のある2D画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれるGOPヘッダに格納されており、前記判定手段は、GOP単位で復号が行われる際に、当該GOPに含まれる前記GOPヘッダに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、2D画像についてのGOP単位に、符号化情報の有無を確認できる。
 (19)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、前記ディペンデントビュービデオストリームに含まれる画像毎に対応するアクセスユニットに格納されており、前記判定手段は、前記第1復号手段で2D映像が復号される際に、復号対象の2D画像に関連する画像に対応する前記アクセスユニットに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、ディペンデントビュービデオストリーム内の各画像のアクセスユニットにおいて当該符号化情報の有無を確認することができる。
 (20)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、前記ディペンデントビュービデオストリームに含まれる画像の符号化時において相関関係のある画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれる先頭の画像に対応するアクセスユニットに格納されており、前記判定手段は、GOP単位で復号が行われる際に、当該GOPに含まれる先頭の画像に対応する前記アクセスユニットに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、ディペンデントビュービデオストリームについてのGOP単位に、符号化情報の有無を確認できる。
 (21)ここで、前記符号化情報は、各2D画像が前記第1復号方式による符号化がされている場合には、前記トランスポートストリームを構成する各2D画像のPES(Packetized Elementary Stream)それぞれについて、当該PESに含まれるPESヘッダに格納されており、前記判定手段は、前記第1復号手段で2D映像が復号される際に、復号対象の2D画像に対する前記PESヘッダに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、PESヘッダについて当該符号化情報の有無を確認することができる。
 (22)ここで、前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれるEIT(Event Information Table)に格納されており、前記判定手段は、前記受信手段が番組を構成するトランスポートストリームを受信開始した時、又は受信開始前に、前記EITに前記符号化情報が格納されているか否かを判定するとしてもよい。
 この構成によると、受信装置は、EITに符号化情報が格納されているので、番組開始前に符号化情報の有無を確認することができる。
 (23)ここで、前記トランスポートストリームには、前記第1符号化方式により符号化された前記2D画像の列の代わりに、参照画像を生成する際に符号化前の画像との誤差を許容する逆離散コサイン変換が用いられる複数の符号化方式のうち一の符号化方式により符号化された前記2D画像の列と、当該一の符号化方式により前記2D画像の列が符号化された旨を示す識別情報が含まれており、前記受信装置は、さらに、前記トランスポートストリームに前記識別情報が含まれているか否かを判定する判定手段を備え、前記第1復号手段は、前記第1復号方式による前記復号を行う代わりに、前記識別情報が含まれていると判定される場合に、前記一の符号化方式に対応する復号方式により、当該一の符号化方式により符号化された前記2D画像の列を復号するとしてもよい。
 この構成によると、受信装置は、複数の符号化方式のうち一の符号化方式により符号化された旨を示す識別情報を受信することで、複数の符号化方式のうちどの符号化方式により符号化が行われたかを知ることができる。そのため、受信装置は、符号化が行われた符号化方式に対応する復号方式で復号できるかどうか判断することができる。
 (24)ここで、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する前記符号化方式は、MPEG-4 MVC(Moving Picture Experts Group-4 Multi View Coding)方式であるとしてもよい。
 この構成によると、受信装置は、前記2D画像に関連する画像を、MPEG-4 MVC方式で復号することができる。
 本発明は、2D番組及び3D番組を1つのストリームとして送信する装置、及び受信する装置に適用することが可能である。
   10  3Dデジタルテレビ(再生装置、受信装置)
 2701  送信装置
 2702  2D互換ビデオエンコーダ
 2703  2D互換ビデオデコーダ
 2704  拡張マルチビュービデオエンコーダ
 2705  ベースビュービデオエンコーダ
 2708  2D互換ビデオフレームメモリ
 2709  ディペンデントビュービデオエンコーダ
 2710  マルチプレクサ
 2711  送信部
 2801、2809、2901、2909  メモリ
 2802、2902  減算器
 2803、2903  DCT部
 2804、2904  量子化部
 2805、2905  可変長符号化部
 2806、2906  逆量子化部
 2807、2907  逆DCT部
 2808、2908  加算器
 3101  PIDフィルタ
 3102  2D互換ビデオデコーダ
 3103  拡張マルチビュービデオデコーダ
 3104  第1プレーン
 3105  第2プレーン
 3111、3131  分離部
 3112  判断部
 3113、3132、3135  TB
 3114、3133、3136  MB
 3115、3134、3137  EB
 3116  2D互換ビデオ圧縮映像デコーダ
 3117  O(Re-ordering Buffer)
 3118  出力処理部
 3119  スイッチ
 3138  デコードスイッチ
 3139  ビュー間参照バッファ
 3140  マルチビュービデオ圧縮映像デコーダ
 3141  DPB
 3142  出力処理部
 3143  出力プレーンスイッチ

Claims (26)

  1.  一の番組についての画像列を符号化して、送信する送信装置であって、
     参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により、前記画像列に含まれる各2D画像を符号化する第1符号化手段と、
     前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化する第2符号化手段と、
     前記第1符号化手段及び前記第2符号化手段それぞれにより符号化された各画像をトランスポートストリームとして多重化する多重化手段と、
     前記トランスポートストリームを送信する送信手段とを備え、
     前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、
     前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、
     前記第2符号化手段は、ディペンデントビュービデオストリームに含まれる画像を符号化する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照する
     ことを特徴とする送信装置。
  2.  前記多重化手段は、
     前記トランスポートストリームに、前記第1符号化方式により符号化された旨を示す符号化情報を含めるよう前記多重化を行う
     ことを特徴とする請求項1に記載の送信装置。
  3.  前記多重化手段は、生成すべきトランスポートストリームとして多重化されるPMT(Program Map Table)に前記符号化情報を格納する
     ことを特徴とする請求項2に記載の送信装置。
  4.  前記2D画像は、立体視する場合における一の視点での画像であり、
     前記2D画像に関連する画像は、立体視する場合における他の視点での画像である
     ことを特徴とする請求項3に記載の送信装置。
  5.  前記多重化手段は、前記画像列に含まれる前記2D画像毎に、当該2D画像に対応するビデオアクセスユニットに前記符号化情報を格納する
     ことを特徴とする請求項2に記載の送信装置。
  6.  前記多重化手段は、各2D画像の符号化時に相関関係のある2D画像の集合であるGOP(Group of Pictures)毎に、前記符号化情報を当該GOPに含まれるGOPヘッダに格納する
     ことを特徴とする請求項2に記載の送信装置。
  7.  前記多重化手段は、前記ディペンデントビュービデオストリームに含まれる画像毎に、当該画像に対応するアクセスユニットに前記符号化情報を格納する
     ことを特徴とする請求項2に記載の送信装置。
  8.  前記多重化手段は、前記ディペンデントビュービデオストリームに含まれる画像の符号化時に相関関係のある画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれる先頭の画像に対応するアクセスユニットに前記符号化情報を格納する
     ことを特徴とする請求項2に記載の送信装置。
  9.  前記多重化手段は、符号化された各2D画像をPES(Packetized Elementary Stream)パケット化する際に、前記符号化情報をPESヘッダに格納する
     ことを特徴とする請求項2に記載の送信装置。
  10.  前記多重化手段は、
     前記符号化情報を、生成すべきトランスポートストリームとして多重化されるEIT(Event Information Table)に格納する
     ことを特徴とする請求項2に記載の送信装置。
  11.  前記第1符号化手段は、前記第1符号化方式の代わりに、参照画像を生成する際に符号化前の画像との誤差を許容する逆離散コサイン変換が用いられる複数の符号化方式のうち一の符号化方式により、前記画像列に含まれる各2D画像を符号化し、
     前記多重化手段は、
     前記トランスポートストリームに、前記一の符号化方式により符号化された旨を示す識別情報を含めるよう前記多重化を行う
     ことを特徴とする請求項1に記載の送信装置。
  12.  ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する前記符号化方式は、MPEG-4 MVC(Moving Picture Experts Group-4 Multi View Coding)方式である
     ことを特徴とする請求項1に記載の送信装置。
  13.  符号化された画像を受信する受信装置であって、
     参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により符号化された2D画像の列と、2D画像を参照画像とする第2符号化方式で符号化された、2D画像それぞれに関連する画像からなる列とを含むトランスポートストリームを受信する受信手段と、
     前記トランスポートストリームに含まれる符号化された2D画像それぞれについて、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1復号方式による復号を行う第1復号手段と、
     前記トランスポートストリームに含まれる、2D画像それぞれに関連する画像について、対応する2D画像を参照画像とする第2復号方式で復号を行う第2復号手段とを備え、
     前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、
     前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、
     前記第2復号手段は、画像を復号する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照する
     ことを特徴とする受信装置。
  14.  前記トランスポートストリームには、各2D画像が前記第1符号化方式による符号化がされている場合にはその旨を示す符号化情報が含まれ、
     前記受信装置は、さらに、
     前記トランスポートストリームに前記符号化情報が含まれているか否かを判定する判定手段を備え、
     前記第1復号手段は、前記符号化情報が含まれていると判定される場合に、前記第1復号方式による前記復号を行う
     ことを特徴とする請求項13に記載の受信装置。
  15.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれるPMT(Program Map Table)に格納されており、
     前記判定手段は、前記第1復号手段及び前記第2復号手段による画像の復号が開始される前に、前記PMTに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  16.  前記2D画像は、立体視する場合における一の視点での画像であり、
     前記2D画像に関連する画像は、立体視する場合における他の視点での画像である
     ことを特徴とする請求項15に記載の受信装置。
  17.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれる2D画像毎に当該2D画像に対応するビデオアクセスユニットに格納されており、
     前記判定手段は、前記第1復号手段及び前記第2復号手段による画像の復号時に復号対象の画像のビデオアクセスユニットに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  18.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、各2D画像の符号化時において相関関係のある2D画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれるGOPヘッダに格納されており、
     前記判定手段は、GOP単位で復号が行われる際に、当該GOPに含まれる前記GOPヘッダに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  19.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、前記ディペンデントビュービデオストリームに含まれる画像毎に対応するアクセスユニットに格納されており、
     前記判定手段は、前記第1復号手段で2D映像が復号される際に、復号対象の2D画像に関連する画像に対応する前記アクセスユニットに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  20.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、前記ディペンデントビュービデオストリームに含まれる画像の符号化時において相関関係のある画像の集合であるGOP(Group of Pictures)毎に、当該GOPに含まれる先頭の画像に対応するアクセスユニットに格納されており、
     前記判定手段は、GOP単位で復号が行われる際に、当該GOPに含まれる先頭の画像に対応する前記アクセスユニットに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  21.  前記符号化情報は、各2D画像が前記第1復号方式による符号化がされている場合には、前記トランスポートストリームを構成する各2D画像のPES(Packetized Elementary Stream)それぞれについて、当該PESに含まれるPESヘッダに格納されており、
     前記判定手段は、前記第1復号手段で2D映像が復号される際に、復号対象の2D画像に対する前記PESヘッダに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  22.  前記符号化情報は、各2D画像が前記第1符号化方式による符号化がされている場合には、トランスポートストリームに含まれるEIT(Event Information Table)に格納されており、
     前記判定手段は、前記受信手段が番組を構成するトランスポートストリームを受信開始した時、又は受信開始前に、前記EITに前記符号化情報が格納されているか否かを判定する
     ことを特徴とする請求項14に記載の受信装置。
  23.  前記トランスポートストリームには、前記第1符号化方式により符号化された前記2D画像の列の代わりに、参照画像を生成する際に符号化前の画像との誤差を許容する逆離散コサイン変換が用いられる複数の符号化方式のうち一の符号化方式により符号化された前記2D画像の列と、当該一の符号化方式により前記2D画像の列が符号化された旨を示す識別情報が含まれており、
     前記受信装置は、さらに、
     前記トランスポートストリームに前記識別情報が含まれているか否かを判定する判定手段を備え、
     前記第1復号手段は、前記第1復号方式による前記復号を行う代わりに、前記識別情報が含まれていると判定される場合に、前記一の符号化方式に対応する復号方式により、当該一の符号化方式により符号化された前記2D画像の列を復号する
     ことを特徴とする請求項13に記載の受信装置。
  24.  ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する前記符号化方式は、MPEG-4 MVC(Moving Picture Experts Group-4 Multi View Coding)方式である
     ことを特徴とする請求項13に記載の受信装置。
  25.  第1符号化手段と第2符号化手段と多重化手段と送信手段とを備え、一の番組についての画像列を符号化して、送信する送信装置で用いられる送信方法であって、
     前記第1符号化手段が、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により、前記画像列に含まれる各2D画像を符号化する第1符号化ステップと、
     前記第2符号化手段が、前記2D画像それぞれに関連する画像を、対応する2D画像を参照画像とする第2符号化方式で符号化する第2符号化ステップと、
     前記多重化手段が、前記第1符号化ステップ及び前記第2符号化ステップそれぞれにより符号化された各画像をトランスポートストリームとして多重化する多重化ステップと、
     前記送信手段が、前記トランスポートストリームを送信する送信ステップとを含み、
     前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、
     前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、
     前記第2符号化ステップは、ディペンデントビュービデオストリームに含まれる画像を符号化する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照する
     ことを特徴とする送信方法。
  26.  受信手段と判定手段と第1復号手段と第2復号手段とを備え、符号化された画像を受信する受信装置で用いられる受信方法であって、
     前記受信手段が、 参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1符号化方式により符号化された2D画像の列と、2D画像を参照画像とする第2符号化方式で符号化された、2D画像それぞれに関連する画像からなる列とを含むトランスポートストリームを受信する受信ステップと、
     前記第1復号手段が、前記トランスポートストリームに含まれる符号化された2D画像それぞれについて、参照画像を生成する際に符号化前の画像と誤差が生じない逆離散コサイン変換が用いられる第1復号方式による復号を行う第1復号ステップと、
     前記第2復号手段が、前記トランスポートストリームに含まれる、2D画像それぞれに関連する画像について、対応する2D画像を参照画像とする第2復号方式で復号を行う第2復号ステップとを含み、
     前記2D画像は、MPEG-2 Video(Moving Picture Experts Group-2 Video)方式で符号化及び復号されるものであり、
     前記2D画像に関連する画像は、ベースビュービデオストリームと、当該ベースビュービデオストリームを参照してディペンデントビュービデオストリームとを生成する符号化方式で符号化及び復号され、且つディペンデントビュービデオストリームに含まれるものであり、
     前記第2復号ステップは、画像を復号する際に、ベースビュービデオストリームに含まれる画像を参照する代わりに、前記2D画像の列のうち、対応する2D画像を参照する
     ことを特徴とする受信方法。
PCT/JP2012/003750 2011-06-08 2012-06-08 送信装置、受信装置、送信方法及び受信方法 WO2012169204A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011128152 2011-06-08
JP2011-128152 2011-06-08

Publications (1)

Publication Number Publication Date
WO2012169204A1 true WO2012169204A1 (ja) 2012-12-13

Family

ID=47295787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003750 WO2012169204A1 (ja) 2011-06-08 2012-06-08 送信装置、受信装置、送信方法及び受信方法

Country Status (2)

Country Link
JP (1) JPWO2012169204A1 (ja)
WO (1) WO2012169204A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105379258A (zh) * 2013-07-14 2016-03-02 Lg电子株式会社 在数字广播系统中发送和接收用于表达高质量色彩的超高清晰度广播信号的方法和设备
JP2017069935A (ja) * 2015-09-30 2017-04-06 日立マクセル株式会社 放送受信装置
JP2017069934A (ja) * 2015-09-29 2017-04-06 日立マクセル株式会社 放送受信装置
JP2019024270A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 番組コンテンツの伝送、受信、および表示方法、および送受信システム
CN111263196A (zh) * 2013-12-16 2020-06-09 松下电器(美国)知识产权公司 发送方法、接收方法、发送装置以及接收装置
US10708647B2 (en) 2015-09-25 2020-07-07 Maxell, Ltd. Broadcast receiving apparatus
US11895353B2 (en) 2015-09-25 2024-02-06 Maxell, Ltd. Broadcast receiving apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512096A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 非リアルタイムベースのデジタル実感放送送受信システム及びその方法
JP2010245968A (ja) * 2009-04-08 2010-10-28 Sony Corp 記録装置、記録方法、再生装置、再生方法、記録媒体、およびプログラム
JP2011019224A (ja) * 2009-07-07 2011-01-27 Korea Electronics Telecommun デジタル放送システムのステレオスコピックビデオ送受信方法およびその装置
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010512096A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 非リアルタイムベースのデジタル実感放送送受信システム及びその方法
JP2010245968A (ja) * 2009-04-08 2010-10-28 Sony Corp 記録装置、記録方法、再生装置、再生方法、記録媒体、およびプログラム
JP2011019224A (ja) * 2009-07-07 2011-01-27 Korea Electronics Telecommun デジタル放送システムのステレオスコピックビデオ送受信方法およびその装置
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530780A (ja) * 2013-07-14 2016-09-29 エルジー エレクトロニクス インコーポレイティド デジタル放送システムにおける高品質の色感表現のための超高画質放送信号送受信方法及び装置
US10057633B2 (en) 2013-07-14 2018-08-21 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra high-definition broadcasting signal for expressing high-quality color in digital broadcasting system
CN105379258A (zh) * 2013-07-14 2016-03-02 Lg电子株式会社 在数字广播系统中发送和接收用于表达高质量色彩的超高清晰度广播信号的方法和设备
CN111263196A (zh) * 2013-12-16 2020-06-09 松下电器(美国)知识产权公司 发送方法、接收方法、发送装置以及接收装置
US11895353B2 (en) 2015-09-25 2024-02-06 Maxell, Ltd. Broadcast receiving apparatus
US11445239B2 (en) 2015-09-25 2022-09-13 Maxell, Ltd. Broadcast receiving apparatus
US11102541B2 (en) 2015-09-25 2021-08-24 Maxell, Ltd. Broadcast receiving apparatus
US10708647B2 (en) 2015-09-25 2020-07-07 Maxell, Ltd. Broadcast receiving apparatus
JP2017069934A (ja) * 2015-09-29 2017-04-06 日立マクセル株式会社 放送受信装置
JP2020061780A (ja) * 2015-09-29 2020-04-16 マクセル株式会社 放送システム
JP2020061779A (ja) * 2015-09-29 2020-04-16 マクセル株式会社 受信装置
JP2020145743A (ja) * 2015-09-30 2020-09-10 マクセル株式会社 表示装置
JP2020061781A (ja) * 2015-09-30 2020-04-16 マクセル株式会社 受信装置
JP2020061782A (ja) * 2015-09-30 2020-04-16 マクセル株式会社 放送システム
JP2020145744A (ja) * 2015-09-30 2020-09-10 マクセル株式会社 放送システム
JP2017069935A (ja) * 2015-09-30 2017-04-06 日立マクセル株式会社 放送受信装置
JP2020080566A (ja) * 2015-10-01 2020-05-28 マクセル株式会社 表示制御方法
JP2020102850A (ja) * 2015-10-01 2020-07-02 マクセル株式会社 表示制御方法
JP2019024269A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 表示制御方法および受信装置
JP2019024270A (ja) * 2015-10-01 2019-02-14 マクセル株式会社 番組コンテンツの伝送、受信、および表示方法、および送受信システム

Also Published As

Publication number Publication date
JPWO2012169204A1 (ja) 2015-02-23

Similar Documents

Publication Publication Date Title
JP5336666B2 (ja) 符号化方法、表示装置、復号方法
JP6229962B2 (ja) 符号化装置及び符号化方法
US9277217B2 (en) Video coding device for coding videos of a plurality of qualities to generate streams and video playback device for playing back streams
WO2012111325A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
US20120050476A1 (en) Video processing device
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
US20140089962A1 (en) Image playback device, image playback method, image playback program, image transmission device, image transmission method and image transmission program
KR101977260B1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법 및 수신장치
US20140002621A1 (en) Video processing device and video processing method
WO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
JP6008292B2 (ja) ビデオストリームの映像のデータ作成装置及び再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12796387

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013519393

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12796387

Country of ref document: EP

Kind code of ref document: A1