WO2012147350A1 - 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法 - Google Patents

高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法 Download PDF

Info

Publication number
WO2012147350A1
WO2012147350A1 PCT/JP2012/002853 JP2012002853W WO2012147350A1 WO 2012147350 A1 WO2012147350 A1 WO 2012147350A1 JP 2012002853 W JP2012002853 W JP 2012002853W WO 2012147350 A1 WO2012147350 A1 WO 2012147350A1
Authority
WO
WIPO (PCT)
Prior art keywords
video stream
picture
gradation
bit
pixel
Prior art date
Application number
PCT/JP2012/002853
Other languages
English (en)
French (fr)
Inventor
智輝 小川
泰治 佐々木
洋 矢羽田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/113,283 priority Critical patent/US9392246B2/en
Priority to EP12777289.5A priority patent/EP2717565A4/en
Priority to JP2013511934A priority patent/JP5914888B2/ja
Priority to CN201280020329.3A priority patent/CN103503070B/zh
Publication of WO2012147350A1 publication Critical patent/WO2012147350A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/808Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal
    • H04N9/8081Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal involving data reduction
    • H04N9/8082Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal involving data reduction using predictive coding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • G11B20/1251Formatting, e.g. arrangement of data block or words on the record carriers on discs for continuous data, e.g. digitised analog information signals, pulse code modulated [PCM] data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1262Formatting, e.g. arrangement of data block or words on the record carriers with more than one format/standard, e.g. conversion from CD-audio format to R-DAT format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00072Time or data compression or expansion the compressed signal including a video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B2020/1264Formatting, e.g. arrangement of data block or words on the record carriers wherein the formatting concerns a specific kind of data
    • G11B2020/1289Formatting of user data

Definitions

  • Color depth recording technology is to reproduce the color depth of the original image with data of a certain bit length by assigning a predetermined bit width to the gradation of each color in the RGB color space or YCrCb color space.
  • This is a technique for recording on a recording medium.
  • An image recorded on an existing recording medium and used for playback and display is represented by an 8-bit pixel bit value, that is, each of luminance Y, red difference Cr, and blue difference Cb as a gradation bit string having an 8-bit length.
  • video recorded on a DVD or Blu-ray Disc has an 8-bit gradation in each color in the color space. That is, the original picture has gradations exceeding 8 bits, but when recorded on a DVD or Blu-ray Disc, the gradations of each color of the video are recorded rounded to 8 bits.
  • the bit width of 8 bits is a value determined in consideration of the number of gradations that can be expressed by a TV display device and the processing capability of the LSI at the time when the recording medium standard was established. In the distribution of movie works using the recording medium, there is a room for improvement in image quality because it cannot be denied that quality degradation will occur due to the occurrence of this rounding.
  • rounding to 8 bits is only an example, and in a moving image encoding method, irreversible conversion is generally used because of a required specification that a high compression rate is required. There was a reduction in display quality due to conversion errors in the process.
  • the technical problem targeted by the present application is not limited to the case where DVD or Blu-ray is a recording medium as a recording destination.
  • the technical problem to be solved by the present application is to eliminate the deterioration of display quality when trying to transmit an image through any medium such as a broadcast medium and a communication medium. It is a technical barrier that a person skilled in the art always faces when trying to put it into practical use in the field.
  • An object of the present invention is to enhance color depth expression.
  • the invention that can solve the above problems includes a base video stream and an enhancement video stream,
  • the base video stream is obtained by performing lossy conversion on the original image
  • the enhancement video stream includes shift parameters and picture data
  • the bit string indicating the pixel gradation of the picture in the enhancement video stream indicates a difference between the bit string indicating the pixel gradation in the original image and the bit string indicating the pixel gradation of the picture data in the base video stream
  • the shift parameter defines a shift operation to be performed on the playback device side when adding a bit string indicating the pixel gradation of the picture in the base video stream and a bit string indicating the pixel gradation of the picture in the enhancement video stream. It is.
  • the enhancement video stream indicates a difference between the gradation bit string of the picture in the original image and the bit string indicating the pixel gradation of the picture in the base view video stream
  • the conversion error generated in the process of generating the base view video stream is This is expressed as a gradation bit string of pixels of the enhancement video stream. Therefore, by combining the bit string indicating the pixel gradation of the picture in the enhancement video stream and the gradation bit string in the picture of the base-view video stream, an image that is not inferior to the original image can be restored.
  • the shift parameter is set so as to increase the color depth targeting only a specific picture, and the shift parameter is recorded on the recording medium separately from the base video stream. There is no increase in the size of the decoder and the size of the plain memory.
  • a gradation bit string recorded on a Blu-ray Disc It is a figure which shows the principle of color depth expansion. It is a figure which shows pixel shift amount b. This indicates a case where the original image is a natural image or the bit rate at the time of compression is not sufficient, and a bit string that is compressed and decoded contains a lot of errors.
  • the change in the amount of allocated bit of picture data in 8 frames, the pixel bit value of luminance Y, red difference Cr, blue difference Cb in each frame at the time of this change, and the color depth is extended to the pixel bit value of such original image
  • the setting of the shift range when doing this is shown.
  • a change in the amount of allocated bit of picture data in eight frames, a gradation bit width of a pixel of the Base video picture, and a gradation bit width of a pixel of the enhancement video picture in each frame at the time of the change are shown.
  • 2 shows an example of an internal configuration of a recording apparatus.
  • An example of an internal structure of the stream generation part provided with the video encoder for color depth expansion is shown.
  • the process of positive conversion by the adding unit 16 is shown.
  • the procedure for generating the Base video stream and the Enhancement video stream is shown.
  • regenerating apparatus is shown.
  • An example of an internal structure of the video decoding part 23 and the color depth expansion part 24 is shown.
  • FIG. 4 shows a home theater system in which a recording medium and a playback apparatus according to a second embodiment are used.
  • An optical disk application format based on a file system is shown.
  • An example of an internal structure of an enhancement video stream is shown.
  • An example of a clip information file is shown.
  • An example of an internal structure of playlist information is shown. Shows playlists in the BDMV directory and playlists with extended color depth.
  • the configuration of the playback apparatus 1002 is shown. It shows how an ATC sequence is restored from data blocks constituting a color depth extended interleaved stream file.
  • An example of extent start point information in Base video clip information and an example of extent start point information in Enhancement video clip information are shown. It is a figure for demonstrating the source packet number of the arbitrary data blocks in ATC sequence 1 and 2.
  • FIG. 2 shows an exemplary internal configuration of a system target decoder 104.
  • An example of the stored contents of the color depth extension plane is shown. It is a figure which shows the internal structure of a plane synthetic
  • An example of the internal configuration of the color depth extension unit 24 when applied to a playback device is shown.
  • An example of the internal configuration of the color depth extension unit 24 when the variation in the first embodiment is applied is shown.
  • the play item reproduction procedure is shown.
  • An ATC sequence restoration procedure is shown.
  • An example of an internal structure of an index table is shown. It is a flowchart which shows the process sequence of a color depth expansion program.
  • An optical disk recording method will be described. It is a flowchart which shows the process sequence of an authoring process. The processing procedure of an AV file writing process is shown.
  • FIG. 52 shows an example of an internal configuration of a broadcasting apparatus that can implement the invention of an encoding method.
  • a picture in the Base video stream is compared with a picture in the PinP video stream.
  • a plurality of picture data in the Base video stream and a plurality of picture data in the Enhancement video stream are shown.
  • An example of the internal structure of a picture in a PinP video stream is shown.
  • It is a flowchart which shows the process sequence of a stream encoding method. The processing procedure of a macroblock encoding method is shown. It is a figure which shows the internal structure of a receiver.
  • An example of an internal structure of the system target decoder 104 concerning 4th Embodiment is shown.
  • regenerating apparatus in 5th Embodiment is shown. This is an internal configuration in which an AV stream capturing unit is added to acquire a PinP video stream from the network.
  • the recording medium provided with the above problem solving means can be implemented as a package medium for selling contents over the counter.
  • the invention of the reproducing apparatus provided with the above problem solving means can be implemented as a player device for reproducing the package medium, and the invention of the integrated circuit can be implemented as a system LSI incorporated in the player device.
  • the invention of the reproduction method can be implemented as a time series procedure realized by this player device.
  • the invention of the program can be implemented as an executable program recorded in a computer-readable recording medium and installed in a player device.
  • the first embodiment relates to an improvement for increasing the color depth when an original image is encoded and recorded on a commercially available package medium.
  • the basic countermeasure is to increase the pixel bit value when encoding the original image following the progress of the display device.
  • the expansion of the pixel bit width for encoding not only increases the cost of the display device, but also increases the capacity of the recording medium to be recorded, the size of the decoder, and the size of the memory in the playback device. Insufficient capacity and increased cost of playback device.
  • whether or not an error with the original image occurs with a value of 8 bits depends on the intensity of movement in the image and the complexity of the pattern, so uniformly increasing the bit width of the bit of the pixel gradation is It's not a wise idea.
  • the purpose of the invention described in the first embodiment (hereinafter referred to as “the present invention”) is to reproduce the gentleness of gradation of an original image without incurring a shortage of recording medium capacity or an increase in cost of a reproducing apparatus. It is to provide a recording medium that can be used.
  • the recording medium in the aspect is A recording medium, A base video stream and an enhancement video stream are recorded,
  • the base video stream is obtained by performing lossy conversion on the original image
  • the enhancement video stream includes shift parameters and picture data
  • the bit string indicating the pixel gradation of the picture in the enhancement video stream indicates a difference between the bit string indicating the pixel gradation in the original image and the bit string indicating the pixel gradation of the picture data in the base video stream
  • the shift parameter defines a shift operation to be performed on the playback device side when adding a bit string indicating the pixel gradation of the picture in the base video stream and a bit string indicating the pixel gradation of the picture in the enhancement video stream.
  • a gradation bit string shift operation suitable for color depth expansion is realized by introducing an existing decoder or plane memory can do.
  • enhancement video streams can be handled by existing decoder models and player models, so recording media and playback devices that can extend color depth by utilizing design know-how cultivated in product development so far Can be commercialized.
  • the product development cycle can be shortened, and the product model can be changed frequently.
  • product manufacturers can always send new products to the market, and can succeed in establishing a corporate brand image and acquiring market share.
  • the shift operation is An operation for expanding the bit width of the pixel gradation of the picture in the base video stream to the bit width of the gradation bit string of the pixel in the original image
  • the shift parameter is a shift count designation;
  • the shift count is specified by adding a bit string indicating the pixel gradation of the picture in the enhancement video stream to a bit string indicating the pixel gradation of the picture in the base video stream. It is desirable to indicate whether the shift should be shifted upward.
  • This sub-conceptualization clarifies how the shift parameter affects the gradation bit string of the picture of the base video stream.
  • the gradation bit string of the pixel in the original image is reproduced by shifting the bit position of the base video stream in the upper direction. Will be.
  • the shift operation is An operation for expanding the bit width of the pixel gradation of the picture in the base video stream to the bit width of the gradation bit string of the pixel in the original image
  • the shift parameter specifies the target bit position
  • the designation of the target bit position is as follows: Indicate how many bits of the enhancement video stream gradation bit string should be shifted when adding the enhancement video stream gradation bit string to the gradation bit string of the base video stream picture whose bit width has been expanded. Is desirable. This sub-conceptualization clarifies how the shift parameter affects the gradation bit string of the picture of the enhancement video stream.
  • the shift amount for picture data of a certain frame is determined according to the most significant bit of the error range, if the 8-bit gradation in the pixel of the enhancement video stream is shifted according to the shift amount, the range of conversion error in the irreversible conversion is reduced.
  • the tone value of a pixel of the enhancement video stream is exceeded, the tone bit value of the picture of the enhancement video stream is shifted to the most significant bit of the error range.
  • the plurality of picture data in the base video stream and the plurality of picture data in the enhancement video stream constitute a group of pictures, and each group of pictures constitutes a plurality of frames, and each frame in the plurality of frames It is desirable to have a shift parameter corresponding to as a parameter sequence.
  • This sub-conceptualization clarifies how the shift parameters are stored and how they should be supplied to the playback device. In this way, in the moving image content, shift parameters are stored together in units of group of pictures, which are units of random access, and the use efficiency of the shift parameters is increased.
  • the playback device in the aspect is A playback device that reads and plays back a base video stream and an enhancement video stream from a recording medium,
  • the base video stream is obtained by performing lossy conversion on the original image
  • the enhancement video stream includes shift parameters and picture data
  • the bit string indicating the pixel gradation of the picture in the enhancement video stream indicates a difference between the bit string indicating the pixel gradation in the original image and the bit string indicating the pixel gradation of the picture data in the base video stream
  • the shift parameter defines a shift operation to be performed on the playback device side when adding a bit string indicating the pixel gradation of the picture in the base video stream and a bit string indicating the pixel gradation of the picture in the enhancement video stream
  • a video decoder that obtains a gradation bit string for each pixel constituting picture data in the base video stream by decoding the base video stream;
  • Color depth extension that performs color depth extension by performing bit
  • the color depth extension unit A first shift circuit that expands the bit width of the pixel gradation in the base video stream by shifting the gradation bit string that is the decoding result of the base video stream by the video decoder in the upper direction; A subtraction unit that converts the bit string indicating the pixel gradation into a signed bit string by subtracting the correction value from the bit string indicating the pixel gradation of the picture in the enhancement video stream; It is desirable to include an adding unit that adds signed data obtained by converting the gradation bit string of the enhancement video stream to the gradation bit string for each pixel of the picture data constituting the base video stream.
  • This sub-conceptualization supports that the color depth extension can be implemented using existing hardware elements, and a detailed description will be given later. Since the color depth extension unit can be implemented by a generally known hardware element, the implementation of the color depth extension function becomes more realistic.
  • the first shift circuit shifts a gradation bit string that is a decoding result of the base video stream based on a shift parameter
  • the color depth extension unit preferably includes a second shift circuit that shifts the gradation bit sequence to which the signed bit is added by the addition unit and extends the gradation bit sequence to the bit width of the gradation bit sequence in the original image.
  • the color depth extension unit A second shift circuit that shifts a signed bit string obtained by converting the grayscale bit string of the enhancement video stream in accordance with a shift amount indicated by the shift parameter;
  • the adding unit is It is desirable to add the shifted signed bit string to the gradation bit string for each pixel of the picture data constituting the base video stream. This is a low-level conceptualization that makes it possible to minimize the truncation error described later.
  • the video decoder A first video decoder for decoding a base video stream; Playback device It is desirable to have a second video decoder that decodes the enhancement video stream. This is a subordinate conception for effectively utilizing the hardware resources in a playback apparatus having two or more video decoders for stereoscopic playback.
  • Video decoder sub-conceptualization 2 The video decoder It is a multi-view video decoder, and it is desirable to decode both the picture data constituting the base video stream and the picture data constituting the enhancement video stream. This is a low-level conception for effectively utilizing existing hardware resources in a playback apparatus in which a multi-view video decoder is mounted for stereoscopic playback or multi-angle playback.
  • the picture data in the base video stream and the picture data in the enhancement video stream constitute a group of pictures.
  • the group of pictures constitutes a plurality of frames, and a shift parameter corresponding to each frame is provided as a parameter sequence.
  • the video decoder When decoding any picture in the base video stream, the picture data in the enhancement video stream, which is to be reproduced at the same time as the picture in the base video stream, is decoded, and the shift parameter corresponding to the picture data Is preferably extracted from the parameter sequence and set in the color depth extension unit. This is a sub-conceptualization for switching the shift parameter with frame accuracy and performing more precise color depth extension.
  • the recording apparatus in the aspect A recording device for writing a base video stream and an enhancement video stream to a recording medium, First encoding means for obtaining a base video stream composed of pixels of gradation bits having a predetermined bit width by performing irreversible conversion on an original image; Decoding means for obtaining an uncompressed picture composed of pixels of a gradation bit string having a bit width shorter than the gradation bit string of pixels in the original image by decoding the base video stream obtained by performing the irreversible conversion; A calculation unit that calculates a difference between a gradation bit string for each pixel in the original image and a gradation bit string of a pixel of a picture in the base video stream; Second encoding means for creating an enhancement video stream using the calculated difference as a gradation bit string of pixels of picture data.
  • the calculation unit includes: A shift circuit that shifts a gradation bit string of individual pixels constituting an uncompressed picture of the base video stream in an upper direction; A subtracting unit for subtracting the shifted gradation bit string from the gradation bit string for each pixel in the original image; An addition unit that obtains a difference by adding a predetermined correction value to the subtraction result,
  • the second encoding means is It is desirable to create an enhancement video stream that includes the addition result and the shift value that the shift circuit used for the shift.
  • the present invention introduces two types of video streams.
  • the first is a Base video stream, which is generated by irreversible conversion on an original image.
  • the other is the enhancement video stream, and the gradation bit string of each pixel of the picture in the enhancement video stream is the difference between the pixel gradation bit string in the original image and the bit string indicating the pixel gradation of the picture in the Base video stream.
  • the difference here includes the difference by the irreversible transformation as described above.
  • FIG. 1A shows an N-bit gradation bit string in an original image
  • FIG. 1B shows an 8-bit gradation bit string to be recorded when recording on a Blu-rayOnlyReadOnly disc and DVD-Video
  • (C) shows an 8-bit gradation obtained by performing irreversible conversion on the N-bit gradation and decoding the conversion result.
  • a hatched portion in the figure indicates a conversion error caused by irreversible conversion.
  • FIG. 1 three gradation bit strings are drawn. This is because a bit string (gradation bit string 1801) consisting of N bits indicating the color depth of each color of each pixel constituting the original image to be recorded on Blu-rayDisc, and the above-described gradation bit string 1801 are compressed for Blu-rayDisc.
  • the 8-bit bit string (gradation bit string 1802) and gradation bit string 1802 obtained by rounding off the upper 8 bits or the 9th bit of the N bits are compressed with a compression technique such as MPEG2 or MPEG-4AVC. Further, there are three 8-bit bit strings (gradation bit string 1803) obtained by further decoding.
  • the gradation bit string 1801 constituting the original picture and the gradation bit string 1803 constituting the video reproduced from the Blu-ray disc are compared, the information on the lower (N-8) bits is lost before the compression described above. Further, due to irreversible compression, the gradation bit string 1803 includes an error in the lower bits.
  • the extension of the color depth is to restore a bit string as close as possible to the N-bit bit string constituting the original image by adding additional information to the bit string obtained by the above-described compression / decoding.
  • the lower bit information of 1803 is restored.
  • FIG. 2A shows an N-bit gradation 1801 in an original image
  • FIG. 2B shows an 8-bit gradation of a picture to be recorded on a Blu-ray-ReadOnly disc and DVD-Video converted to an N-bit gradation
  • N-bit gradation 1803 obtained by (C) shows an 8-bit enhancement video stream gradation 1901 obtained by subtracting the N-bit gradation 1803 of the Base video stream from the N-bit gradation 1801 of the original image.
  • the bit string of the gradation bit string 1803 is bit-shifted to the left (upward direction) by the shift amount b specified by the shift parameter to be N bits.
  • shift amount b means a shift operation to be performed on the playback device side when adding a bit string indicating the pixel gradation of the picture in the Base video stream and a bit string indicating the pixel gradation of the picture in the Enhancement video stream
  • Such parameters include “designation of shift count” and “designation of target bit position”.
  • “Designation of shift count” is a count number indicating how many times the shift operation should be performed
  • target bit position is how many bits of the gradation bit string in the original image should be shifted. This is a target position for bit value movement by shift operation.
  • N-8 By performing a shift operation in the upper direction (N-8) times, 0s corresponding to (N-8) bits are arranged in the lower bits after the shift.
  • the gradation bit string 1803 converted to N bits is subtracted from the bit string of the gradation bit string 1801 of the original image.
  • the gradation bit string 1803 converted to N bits has a lower (N-8) bit of 0000, whereas the upper (N-8) bit of the original image is anything. There is a non-zero value of.
  • the gradation 1803 is the upper 8 bits of the N-bit gradation of the original image
  • the upper 8 bits of the N-bit gradation are the 8-bit gradation that should be recorded on a Blu-ray ReadOnly disc or DVD-Video.
  • the lower order (N-8) bits should become a conversion error in irreversible conversion.
  • the bit string indicated by the gradation bit string 1901 obtained as a result is a bit string for correcting (N-8) bits lost in the original image and errors included in compression. Therefore, after converting the bit string indicated by the gradation bit string 1803 to N bits and adding the bit string indicated by the gradation bit string 1901, the original N-bit gradation bit string 1801 is restored.
  • a video stream composed of picture data whose pixel bit value is the gradation bit string 1803 is a “Base video stream”.
  • a video stream composed of picture data having a pixel bit value in the gradation bit string 1901 is an “Enhancement video stream”.
  • FIG. 3 is a diagram illustrating the pixel shift amount b. In order to simplify the explanation, the description will be made assuming that the N bits of the original picture are 12 bits.
  • FIG. 3A shows the 12-bit gradation of the original image
  • FIG. 3B shows the ideal 8-bit gradation to be recorded on a Blu-ray ReadOnly disc and DVD-Video.
  • C shows an 8-bit gradation obtained by performing irreversible conversion on a 12-bit gradation.
  • D shows the 8-bit gradation obtained by subtracting the gradation of the Base video stream picture converted into the 12-bit gradation from the gradation bit string of the original image.
  • the color information of each color of each pixel of the original picture has an information amount of 12 bits as indicated by a gradation bit string 3701.
  • the lower 4 bits of the gradation bit string 3701 are truncated and converted to 8 bits as indicated by the gradation bit string 3702.
  • an 8-bit original image composed of 8-bit color information indicated by a gradation bit string 3702 is compressed by a coding method such as MPEG2, and the decoded one becomes a gradation bit string 3703.
  • the lower 4 bits of the bit string indicated by the gradation bit string 3703 contain errors due to lossy compression.
  • the gradation bit string 3704 surrounded by a broken-line frame becomes a bit string to be restored when the color depth is expanded.
  • the gradation bit string of the enhancement video stream in FIG. 3 will be described with a specific calculation example.
  • the bit string 3701 is 100111011100, and when this is converted into an 8-bit Base video stream, the gradation bit string of the Base video stream is ideally the upper 8 bits of the gradation bit string of the pixels in the original image, that is, 10011101. Is. However, in reality, the 8-bit gradation of the Base video stream that should be 10011101 due to an error due to lossy conversion is 10010010.
  • the 8-bit gradation of the picture in the Base video stream is converted to 12-bit gradation, and 100100100000 converted from the gradation bit string 100111011100 of the original image to 12 bits is subtracted.
  • the bit string 10111100 of (d) is obtained. If such a bit string 10111100 is recorded on the recording medium as gradations in the enhancement video stream, the original 12 bits can be obtained by combining the 8-bit gradation of the enhancement video stream and the 8-bit gradation of the base video stream including an error. The gradation can be reproduced.
  • the original image is a natural image, or the bit rate at the time of compression is not sufficient, and there are many errors in the compressed and decoded bit string.
  • the gradation bit string 3701 of the original image and the gradation bit string 3702 converted to 8 bits for Blu-ray are the same as before, but after irreversible compression, the decoded gradation bit string is the case of FIG. And different.
  • the gradation bit string 3703 in FIG. 3 has been described as including errors in the lower 4 bits, but FIG. 4 includes errors in the lower 5 bits of the decoded bit string 3801.
  • the lower 9 bits of the gradation bit string 3701 include an error.
  • the upper 8 bits corresponding to the most significant bit (MSB) side among the 9 bits are set as the compression target as the enhancement video stream, and 1 bit on the LSB side of 9 bits is discarded.
  • 1 bit corresponding to the least significant bit (LSB) is not compressed as an enhancement video stream, but priority is given to restoring higher bits as color depth information. Should.
  • the shift amount b with respect to the bit value of the pixel indicates a guideline for how many bits should be corrected in 12 bits of the original image.
  • the gradation bit string of the enhancement video stream in FIG. 4 will be described with a specific calculation example.
  • the conversion result should be “10011101” which is the upper 8 bits of the 12-bit gradation.
  • the conversion result is 10001010 due to the conversion error of irreversible conversion.
  • a gradation bit string of the enhancement video stream is generated so that this error can be canceled out.
  • 8 bits of the Base video stream are expanded to 12 bits, and the expanded 12-bit gradation is subtracted from the 12-bit gradation of the original image.
  • the subtraction result is 100111100, which is 9 bits.
  • the upper 8 bits “10011110” are used as the gradation of the enhancement video stream.
  • the most significant bit of the error range, that is, the ninth bit is designated as the shift amount.
  • the shift amount b is designated as a shift count. That is, the designation of the shift count by the shift amount b is performed by adding the bit string indicating the pixel gradation of the picture in the enhancement video stream to the bit string indicating the pixel gradation of the picture in the Base video stream. Indicates how many times the gradation bit string should be shifted upward.
  • the shift amount b is a designation of the target bit position.
  • the target bit position is specified by the shift amount b.
  • the gradation bit of the picture of the Base video stream is shifted using the shift amount for each frame, and the gradation bit string of the picture of the enhancement video stream is changed. Introduce what to shift.
  • the latter bit manipulation is used to minimize the influence of bit value truncation in expressing the difference between the original image and the Base video stream picture within 8 bits which is the bit width of the enhancement video stream. .
  • the first is in the Base video stream.
  • the second is in the enhancement video stream.
  • the enhancement video stream is not sent to the decoder after the packet identifier filter in the existing player, it can be said that there is no influence on the existing player.
  • the first storage location or the second storage location may be used, but in the present embodiment, the second storage location is selected with priority given to the operation guarantee in the existing playback device.
  • the storage form of the shift amount “b” for this enhancement video stream will be described.
  • the shift amount set for each frame / field is combined in a predetermined unit, converted into a single parameter sequence, and stored in the video stream.
  • the shift amount for each frame / field is combined in a random access unit in the recording medium, and the combined shift amount is incorporated as a shift amount sequence in the random access unit in the enhancement video stream.
  • the unit of random access is GOP (group of pictures)
  • the unit of random access is Become a browsing unit.
  • the encryption unit is a random access unit.
  • the Base video stream and the enhancement video stream are divided into a plurality of data blocks, and these data blocks are interleaved so as to adapt the playback processing by the playback device.
  • a stream file obtained by interleaving a plurality of data blocks constituting the Base video stream and a plurality of data blocks constituting the Enhancement video stream is referred to as a “color depth extended interleaved stream file”.
  • FIG. 5 shows a color depth extended interleaved stream file.
  • the middle part of the figure shows the internal structure of the color depth extended interleaved stream file.
  • the color depth extended stereoscopic interleaved stream file has a Base video data block and an enhancement data block alternately. It is composed by arranging.
  • the color depth extended interleaved stream file is formed by alternately arranging data blocks of Base video and data blocks of Enhancement video.
  • the Base video data block stores pictures of the Base video stream
  • the Enhancement video data block stores pictures of the Enhancement video stream. Upward arrows sr1, sr2, sr3,... Indicate the stored contents of these data blocks.
  • a plurality of pictures in the Base video stream are stored in the Base video data block.
  • a plurality of pictures in the enhancement video stream are stored in the Base video data block.
  • the picture types of pictures in the Base video stream include IDR pictures, P pictures, and B pictures, which constitute a GOP.
  • the base video stream and the enhancement video stream have the same number of pictures.
  • the picture to be displayed in each frame in the base video stream and the picture to be displayed in each frame in the enhancement video stream have the same DTS, PTS is set, and it is intended to be decoded at the same frame time and displayed at the same frame time.
  • FIG. 6 shows a picture of the Base video stream, a picture of the Enhancement video stream, and a picture of the original image.
  • each pixel is composed of N bits of luminance Y, N bits of red difference Cr, and N bits of blue difference Cb.
  • each pixel includes 8-bit luminance Y, 8-bit red difference Cr, and 8-bit blue difference Cb.
  • the picture data of the enhancement video stream is configured such that each pixel has N-8 bit luminance, N-8 bit red difference Cr, and N-8 bit blue difference Cb.
  • Arrows cr1, 2, and 3 indicate which part of the original image the pixel bit values of the Base video stream picture and the Enhancement video stream picture constitute.
  • the pixel bit value of the picture of the Base video stream constitutes the upper bit value of the pixel bit value of the picture of the original image
  • the pixel bit value of the picture of the enhancement video stream is This constitutes the lower bit value of the pixel bit value of the image. That is, the 8-bit value of the Base video stream represents the upper bits of the original image
  • the gradation bit string of the enhancement video stream represents the difference between the gradation bit string of the Base video stream and the gradation bit string of the pixels in the original image.
  • base video stream pictures and enhancement video stream pictures are recorded on a recording medium, and the playback device follows the arrows cr1, 2, 3, 4, 5, 6
  • the pixel bit value of the original image and the pixel bit value of the picture of the enhancement video stream can be restored to restore the pixel bit value of the original image.
  • FIG. 4B shows the gradient change in the N-bit gradation of the original image.
  • N of N bits is 12 bits, and gradation expression in a numerical range of 4096 becomes possible. Therefore, in (b), the gradation change is shown by a graph in which the horizontal axis is the x coordinate and the vertical axis is the gradation value from 0 to 4095.
  • FIG. 4C shows the gradient change in the pictures of the Base video stream. With a bit width of 8 bits, 256 gradations can be expressed.
  • (c) shows a gradation change in a graph in which the horizontal axis is the x coordinate and the vertical axis is the gradation value from 0 to 255.
  • the change in gradation becomes discrete at a change of 256 gradations, and a fine pattern in the image cannot be expressed with sufficient accuracy.
  • the change in gradation of 4096 gradations eases this discreteness, and the change in gradient looks smooth.
  • the color depth by the N bits of the pixels in the original image is expressed by a combination of the pixel bit value in the picture of the Base video stream and the pixel bit value in the picture of the enhancement video stream.
  • the color depth extension will be described with specific examples to deepen technical understanding.
  • the specific example assumed here is to encode sports content that moves rapidly, and the video content is as shown in FIG.
  • FIG. 7 shows the pattern of the original image and the pattern in the picture of the Base video stream.
  • FIG. 7B is an example of an image based on a picture of the Base video stream.
  • the block frame in (b) indicates a macro block in which an error has occurred during conversion from N bits to 8 bits.
  • FIG. 7A shows this complementation result. In FIG. 7A, there is no error. Therefore, by recording the enhancement video stream together with the pictures of the base video stream on the recording medium, the reproduction apparatus executes the reproduction of the original image.
  • mosaic-like errors e.g., MPEG2 video
  • MPEG2 video e.g., MPEG2 video
  • FIG. 7A shows this complementation result. In FIG. 7A, there is no error. Therefore, by recording the enhancement video stream together with the pictures of the base video stream on the recording medium, the reproduction apparatus executes the reproduction of the original image.
  • the fineness of the uniform picture is reproduced with a resolution of 4096 gradations as shown in FIG. It will be.
  • the original image can be reproduced with beauty close to that of a natural image.
  • FIG. 8 shows changes in the amount of allocated bit data of picture data in eight frames, the gradation bit widths of the pixels of the Base video picture, and the gradation bit widths of the pixels of the enhancement video picture at each change.
  • the first row in FIG. 8 is a graph with the vertical axis representing the allocated bit amount of each frame and the horizontal axis representing the time axis.
  • the second level shows the bit gradation of the Base video stream picture and the Enhancement video stream picture in each frame.
  • the bit width of each picture of the Base video stream is 8 bits.
  • the bit width of the pixel of the picture of the enhancement video stream is 4 bits, 2 bits, and 0 bits in frame (1), frame (2), and frame (3).
  • Frames (4) and (5) have a bit width of 3 bits and 1 bit
  • frames (6), (7) and (8) have 2 bits, 0 bits and 3 bits.
  • FIG. 9 shows the change in the amount of allocated bit of picture data in eight frames, the pixel bit values of luminance Y, red difference Cr, blue difference Cb in each frame at the time of the change, and the pixel bit values of the original image.
  • the shift range is set when the color depth is extended.
  • the first row in FIG. 9 shows graphics with the vertical axis representing the allocated bit amount of each frame and the horizontal axis representing the time axis.
  • the allocated bit amount increases in frame (1), and the allocated bit amount decreases in the order of frames (2) and (3).
  • the allocation bit amount “high”, the allocation bit amount “low”, the allocation bit amount “high”, and the allocation bit amount “low” are repeated. That's it.
  • the allocated bit amount in frame (1) is the highest, followed by frames (2) and (6), and then in claims (3) and (7). This is in accordance with the complexity of the pattern and the intensity of movement in each frame.
  • the difference in the error range for each frame is expressed with the accuracy of the frame as the difference in the shift amount / the pixel bit value of the enhancement video stream.
  • the third row shows the most significant bit in a range where a conversion error has occurred in the irreversible conversion in the gradation of luminance Y, red difference Cr, and blue difference Cb.
  • the fourth row in FIG. 9 shows where the gradation bit string of the enhancement video stream is arranged in the 12-bit range.
  • Frame (1), Frame (2), and Frame (3) are 12 bits, 10 bits, and 8 bits, so the Y, Cr, and Cb gradation bit strings in the pictures of the enhancement video stream are 12 bits each. It is arranged at bit, 10th bit, and 8th bit.
  • the gradation bit string of the enhancement video stream is arranged at the 11th and 9th bits, and in frames (6), (7), and (8), the gradation bit string of the picture of the enhancement video stream Arranged at the 10th, 8th, and 11th bits.
  • the bit position of the bit string indicating the pixel gradation of the picture in the enhancement video stream changes according to the shift amount set for each frame.
  • the difference in the error range for each frame is expressed with the accuracy of the frame as the difference in the shift amount for each frame and the pixel bit value of the enhancement video stream, and it can be seen that the sports content is reproduced with high quality.
  • This reproduction of frame accuracy and pixel accuracy is one of the specific modes of color depth extension as described above.
  • FIG. 10 shows an example of the internal configuration of the recording apparatus.
  • the recording apparatus includes an import unit 1 that imports original image data composed of N-bit pixel bit values, a stream generation unit 2 that generates a Base video stream and an enhancement video stream from the original image data, A writing unit 3 for writing the base video stream and the enhancement video stream to the recording medium, and a drive unit 4 for loading the recording medium.
  • FIG. 11 shows an example of the internal configuration of the stream generation unit 2 including a video encoder for color depth extension. As shown in the figure, the stream generation unit 2 encodes the first shift circuit 11 that shifts the N-bit pixel bit value of the original image to 8 bits, and encodes the image data in which the pixel bit value is converted to 8 bits.
  • the video decoder 13 that decodes the encoding result of the 1 video encoder 12 and the first video encoder 12 to obtain image data composed of the 8-bit pixel bit value, and the 8-bit pixel bit value obtained by the decoding of the video decoder 13
  • a second shift circuit 14 that obtains image data composed of N-bit pixel bit values by shifting upward, and N obtained by shifting the second shift circuit 14 from the N-bit pixel bit values constituting the original image data.
  • a subtractor 15 that subtracts the bit pixel bit value, an adder 16 that adds a correction value to the N-bit pixel bit value that is a subtraction result of the subtractor 15, and an adder 1 Results 8 and pixel bit value of the bit is an addition, it performs encoding processing second shift circuit 14 with respect to the shift amount at the time of performing a shift, and a second video encoder 17 to obtain the Enhancement video stream.
  • the original image consisting of multiple pictures has a bit length of N bits for each color of each pixel.
  • the N-bit original image is converted from N bits to 8 bits by the first shift circuit, then input to the first video encoder and output as a Base video stream.
  • the Base video stream output from the first video encoder is decoded by a video decoder, and 8-bit video is output.
  • This 8-bit image is an image in which each color of each pixel is composed of the gradation bit string 1803 of FIG. 1, and each bit string becomes an N-bit image by the second shift circuit.
  • subtraction processing is performed for each N-bit gradation bit of each color output from the N-bit original image and the second shift circuit.
  • the subtraction processing referred to here corresponds to subtracting the N-bit gradation bit string 1803 from the gradation bit string 1801 described in FIG. 2 for each color of each pixel.
  • the correction value is added as necessary to obtain a positive value, and then the second video encoder And an enhancement video stream is output.
  • the addition unit 16 performs positive conversion on the difference between the bit string indicating the pixel gradation of the picture in the Base video stream and the pixel gradation bit in the enhancement video stream.
  • FIG. 12 shows the process of positive conversion by the adding unit 16.
  • FIG. 12A shows a numerical range of 12 bits of the original image.
  • B shows the numerical range of the gradation of the 12-bit Base video stream.
  • C shows a subtraction result, and
  • (d) shows a numerical range to be expressed as an enhancement video stream.
  • the subtraction result is represented by signed 8 bits and falls within the numerical range of -127 to +127.
  • the subtraction result becomes a positive value of 0 to +254. be able to.
  • the difference of ⁇ 127 to +127 can be reproduced by subtracting 127 from the pixel gradation of the enhancement video stream.
  • Whether or not an error has occurred in the process of conversion to an N-bit pixel bit value can be obtained by subtracting the N-bit gradation obtained by shifting the 8-bit gradation upward from the N-bit gradation of the original image. Judgment is made by checking whether the subtraction result is 0 or not. Further, by inputting the subtraction result to the priority encoder, the subtraction result can be converted into an N-bit value indicating the upper bits of the error range. By doing so, it is possible to acquire a shift amount unique to an arbitrary frame.
  • the recording apparatus can be industrially produced by embodying each component in the recording apparatus as described above with a hardware integrated element such as an ASIC.
  • a general-purpose computer architecture such as CPU, code ROM, or RAM
  • a program in which the processing procedure of each component as described above is described in computer code is pre-installed in the code ROM.
  • the CPU in the hardware integrated device must execute the processing procedure of this program.
  • FIG. 13 is a flowchart showing the processing procedure of the recording method.
  • step S1 each pixel of the picture in the original image is converted to N-bit gradation, and in step S2, a set in units of 1 second among the pictures of the original image is set as an encoding target. Thereafter, the process proceeds to a loop of step S3 to step S8.
  • This loop is a set of pictures of the original image, and the GOP is obtained by compressing and encoding what is to be encoded (step S3), generating pictures of the Base video stream and the enhancement video stream (step S4), Wait for the GOP to accumulate a predetermined amount (step S5). Thereafter, the GOP of the base video and the GOP of the enhancement video are converted into data blocks, interleaved, and then recorded on the recording medium (step S6).
  • Step S7 defines a loop end condition, and it is determined whether or not it is determined whether or not the next encoding target remains in the original image. If it remains, in step S8, the next set to be encoded is acquired from the picture set of the original image, and the process returns to step S3. By executing this loop, pictures of the Base video stream and pictures of the Enhancement video stream are recorded on the recording medium.
  • FIG. 14 shows the procedure for generating the Base video stream and the Enhancement video stream.
  • a variable (i) in this flowchart is a control variable for specifying a picture to be processed. Therefore, in the subsequent flowcharts, the picture (i) to be processed in the process of the i-th loop will be described. Further, a frame in which the picture (i) is to be displayed is represented as a frame (i), and a shift amount unique to the frame (i) is defined as a shift amount (i).
  • Step S10 defines a loop structure that repeats the processing of Steps S11 to S18 for each of the pictures constituting the GOP.
  • the object of this repetition is assumed to be picture (i).
  • step S11 the 8-bit gradation in the picture (i) is expanded and converted into an N-bit gradation
  • step S12 the N-bit gradation of the Base video stream picture is subtracted from the N-bit gradation of the original image.
  • the subtraction result is set as an error range.
  • step S13 it is determined whether or not the error range exists in 8 bits or less in the N-bit gradation original image.
  • step S14 an 8-bit error range or 8 bits including the error range is set as an 8-bit gradation. If it determines with No in step S13, it will transfer to step S15. In step S15, 8 bits are cut out from the most significant bit of the error range to obtain an 8-bit gradation. In step S16, the correction value is added to the 8-bit gradation to perform positive conversion, and in step S17, the addition result is set to the 8-bit gradation of the picture of the enhancement video stream. In step S18, the most significant bit of the error range is described in the shift amount sequence as the shift amount (i) of frame (i).
  • FIG. 15 shows an example of the internal configuration of the playback apparatus.
  • the color depth extending unit 24 for obtaining the image data consisting of the N-bit pixel bit value the plane memory 25 storing the image data consisting of the N-bit pixel bit value Interface
  • the chair 26 is configured.
  • the color depth extension unit that reconstructs N-bit video from the above Base video stream and Enhancement video stream will be described.
  • FIG. 16 shows an example of the internal configuration of the video decoding unit 23 and the color depth extending unit 24.
  • the video decoding unit 23 includes a first video decoder 31 that decodes the Base video stream and a second video decoder 32 that decodes the enhancement video stream.
  • the color depth extension unit 24 encodes the first shift circuit 33 that shifts the pixel gradation of the Base video stream upward by the shift amount b, and subtracts the correction value from the 8-bit value indicating the gradation of the picture in the enhancement video stream.
  • the second shift circuit 36 is shifted to the upper direction by 1) to make an N-bit gradation.
  • each color of each pixel is shifted by the first shift circuit as much as indicated by the image shift amount b (corresponding to the process of shifting the gradation bit value 1803 to the left and inserting 0 in the lower order in FIG. 2).
  • the color depth of each color of each pixel of the enhancement video is subtracted from the correction value and then added to the above-mentioned shifted base video.
  • the second shift circuit 36 adds only (N-8-1) bits. After being shifted, it is output as an N-bit image.
  • the correction value is the same as the correction value used at the time of encoding described in FIG. The reason why the correction value is added by the adding unit 16 is to make the subtraction result into individual pixel gradations of the enhancement video stream.
  • the subtraction result between the N-bit gradation of the pixels of the original image and the 8-bit gradation obtained by decoding the Base video stream may be a negative value. Therefore, as a value used in common with decoding, a predetermined correction value is added to the 8-bit gradation bit to obtain a positive value. In this way, the subtraction result can be used as a pixel of the enhancement video stream.
  • the configuration of the color depth extension unit in FIG. 16 that shifts the bit string indicating the pixel gradation of the picture in the Base video stream by the shift amount is to make N which is the color depth after extension variable.
  • N the color depth after extension variable
  • the gradation of the Base video stream is shifted upward by the bit value of the shift amount b, and the gradation of the enhancement video stream that has been made positive is added, and then The addition result must be shifted by N-8-1.
  • the second shift circuit 36 is the difference between the bit width of the gradation bit string of the pixel in the original image and the bit width of the gradation bit string of the Base video stream (N-8-1). Therefore, the configuration of the color depth extension unit in FIG. 18 is a configuration suitable for changing “N”, which is the color depth after extension.
  • FIG. 17 is a flowchart illustrating a color depth extension procedure when a bit string indicating the pixel gradation of a picture in the Base video stream is shifted by the shift amount b of the Base video stream.
  • a variable (i) in this flowchart is a control variable for specifying a picture to be processed. Therefore, in the subsequent flowcharts, the picture (i) to be processed in the process of the i-th loop will be described. Further, a frame in which the picture (i) is to be displayed is represented as a frame (i), and a shift amount unique to the frame (i) is defined as a shift amount (i).
  • Step S21 is waiting to determine whether or not the GOP of the Base video stream and the GOP of the enhancement video stream have been read out, and step S22 determines whether or not the decoding of the pictures of the Base video stream and the enhancement video stream has been completed. It is. If Steps S21 and S22 are Yes, the shift amount for the GOP is extracted from the GOP to which the picture of the Base video stream belongs in Step S23, and the 8-bit gradation of the pixels of the picture in the Base video stream is shifted upward by the shift amount. Shift to N-bit gradation.
  • step S24 the correction value is subtracted from the 8-bit gradation in the picture of the enhancement video stream to convert it into a signed bit value
  • step S25 the enhancement is subtracted from the N-bit gradation value obtained by the upward shift.
  • the signed bit value of picture (i) of the video stream is added.
  • step S26 the addition result is shifted upward by N-8-1.
  • step S27 the picture (i) having the N bit value as the addition result as the bit gradation value of the pixel is written in the plane memory.
  • Step S28 is a determination as to whether or not there are remaining pictures in the GOP. If this step is Yes, the process proceeds to step S22.
  • Step S40 is executed when Step S28 is determined to be Yes, and it is determined whether or not the reproduction is finished. If not completed, the process returns to step S21.
  • FIG. 18 is a derivation of an apparatus for reconstructing N-bit video from the Base video stream and the Enhancement video stream.
  • This derived configuration uses the shift amount b for each frame as the target bit position. That is, the shift amount b indicates what bit the most significant bit of the conversion error exists in the N-bit gradation bit sequence of the original image, so the gradation bit sequence of the enhancement video stream is converted to this shift amount b.
  • the bit width “8” of the gradation bit string of the enhancement video stream must be subtracted from the shift amount b, and the subtraction result “b ⁇ 8” must be the shift count number.
  • the adder in the figure realizes this N-8 calculation. Compared with FIG.
  • the internal configuration of the color depth extension unit in this figure does not require input of the pixel value shift amount b to the first shift circuit because the shift amount of the first shift circuit is always fixed.
  • the difference is that the second shift circuit 36 required before outputting the N-bit image is not required.
  • the color depth extension unit 24 converts the 8-bit gradation in the picture of the 8-bit Base video stream into the 8 + b-bit gradation, and the correction value from the 8-bit gradation in the enhancement picture.
  • a subtracting section 34 that subtracts a signed bit value
  • a second shift circuit 36 that shifts the pixel gradation bit string of the enhancement video stream converted into the signed bit string by subtraction of the subtracting section 34 by (b-8) in the upper direction.
  • the addition unit 35 adds the shift result of the second shift circuit 36 to the 8 + b bit gradation in the picture of the Base video stream, and converts the result into a pixel of N bit gradation.
  • the pixel value shift amount b is set to “10”.
  • the bit string constituting each color of the video decoded by the first video decoder 31 does not contain much error, that is, only the lower 4 bits of the 12-bit gradation bit string constituting the gradation bit string contain an error.
  • the pixel value shift amount b is set to “4”.
  • N-8 becomes -4 the enhancement video stream is not shifted by the second shift circuit 36, and the 8-bit gradation bit of the enhancement video stream obtained by the decoding of the video decoder is the first described above. This is added to the output of the shift circuit.
  • the internal configuration of FIG. 18 in which the bit string indicating the pixel gradation of the picture in the enhancement video stream is shifted by the shift amount b is a configuration for fixing N as the color depth.
  • the picture of the Base video stream is shifted by N-8, and the picture gradation of the enhancement video stream after the positive value is shifted by (b-8).
  • the second shift circuit shifts the gradation bit string of the enhancement video stream to the target bit position specified by the shift amount b in the bit width of the gradation bit string of the pixel in the original image. Therefore, the configuration of the color depth extension unit in FIG. 18 is a configuration that is suitable for fixing “N”, which is the color depth after extension.
  • a variable (i) in this flowchart is a control variable for specifying a picture to be processed. Therefore, in the subsequent flowcharts, the picture (i) to be processed in the process of the i-th loop will be described. Further, a frame in which the picture (i) is to be displayed is represented as a frame (i), and a shift amount unique to the frame (i) is defined as a shift amount (i).
  • Step S31 is waiting to determine whether the GOP of the Base video stream and the GOP of the enhancement video stream have been read.
  • Step S32 determines whether the decoding of the pictures of the Base video stream and the enhancement video stream has been completed. It is. If step S31 and step S32 are Yes, it will transfer to step S33.
  • step S33 the 8-bit gradation of the picture pixels in the Base video stream is shifted upward by the shift amount to obtain an N-bit gradation.
  • step S34 the 8-bit gradation in the picture of the enhancement video stream is converted to a signed bit value by subtracting the correction value, and in step S35, the enhancement is subtracted from the N-bit gradation value obtained by the shift in the upper direction.
  • the signed bit value of the picture of the video stream is added.
  • step S36 it is determined whether or not the shift amount b (i) for the frame (i) of the enhancement video stream is 8 or more. If it is less than 8, step S37 is skipped. If it is equal to or greater than 8, in step S37, the gradation bit string of the picture of the enhancement video stream is shifted upward by (N-8). In step S38, a picture with the N bit value as the addition result as the bit gradation value of the pixel is written into the plane memory. Step S39 is for determining whether or not there are remaining pictures in the GOP. If this step is Yes, the process proceeds to step S32. Step S40 is executed when Step S39 is determined to be Yes, and determines whether or not the reproduction has ended. If not completed, the process returns to step S21.
  • FIG. 20 shows a conversion process of how the luminance Y, red difference Cr, and blue difference Cb of a pixel existing at coordinates (x, y) in a picture after color depth extension is converted.
  • the first level shows a 1920 ⁇ 1080 picture Base (i) composed of pixel bit values of 8 bit gradation ⁇ 3.
  • the second level is the luminance Y (x, y), red difference Cr (x, y), and blue difference Cb (x, y) constituting the pixel existing at (x, y) in this picture Base (i). Indicates.
  • the third row shows a shift process for these luminance Y (x, y), red color difference Cr (x, y), and blue color difference Cb (x, y).
  • Luminance Y (x, y), red difference Cr (x, y), and blue difference Cb (x, y) are shifted by the amount of shift b (i) corresponding to Base (i). ), 8-bit values of red difference Cr (x, y) and blue difference Cb (x, y) are shifted upward.
  • the fourth row shows the luminance Y (x, y), red difference Cr (x, y), blue color existing in (x, y) in the picture Enhanced (i) of the enhancement video stream displayed in the frame (i).
  • the lower bit setting using the difference Cb (x, y) is shown.
  • the brightness Y (x, y), the red difference Cr (x, y), and the blue difference Cb (x, y) are obtained by reducing the correction value.
  • the pixel bit value of Enhanced (i) with the correction value reduced in this way is set as the least significant bit, and a pixel bit value of 12 bits ⁇ 3 is obtained.
  • the fifth row shows a picture that has been extended in color depth by arranging 1920 ⁇ 1080 pixels of 12-bit gradation.
  • An arrow set1 indicates pixel setting using a pixel bit value after color depth extension.
  • FIG. 21 shows what parameters are used in the process of extending the color depth shown in FIG.
  • the first level shows a picture in the Base video stream, a picture in the enhancement video stream, and a shift amount sequence.
  • enhancement video stream, shift amount sequence, picture Base (i) to be displayed in frame (i) in the Base video stream, picture Enhanced (i) to be displayed in frame (i) in the enhancement video stream Are set to have the same value of PTS and displayed in frame (i).
  • b (i) exists as a shift amount in the frame.
  • Left-downward arrows cu1, 2, and 3 schematically indicate how the picture Base (i), the picture Enhanced (i), and the shift amount b (i) are set.
  • b (i) unique to frame (i) is selected as the shift amount parameter
  • (x, y) of picture Enhanced (i) It can be seen that the pixel bit value at is used as the lower bit.
  • An arrow set2 in the figure indicates that an image generated through the above process is used as a pixel bit value after color depth extension. As described above, the lower bits are set for each pixel.
  • an image that is not inferior to the original image is restored by combining the bit string indicating the pixel gradation of the picture in the enhancement video stream and the gradation bit string in the picture of the base video stream. Therefore, if the display capability of the display device can express a color depth with a gradation exceeding 8 bits, video content that can fully display that display capability will be sent to society. Can do. Thereby, the contents industry and the display device manufacturing industry can be activated, and the domestic industry can be promoted.
  • This embodiment is an embodiment for realizing distribution of a movie work using the Base video stream and the Enhancement video stream described in the first embodiment.
  • FIG. 22 shows a home theater system in which the recording medium and the playback apparatus according to the first embodiment are used.
  • the disc medium 1001 is an optical recording for storing the Base video stream and the enhancement video stream shown in the above embodiments in the Blu-ray ReadOnly disc application format, Blu-ray Rewritable application format, and AVC-HD application format. It is a medium.
  • the playback device 1002 reads the Base video stream and the Enhancement video stream according to the program, playlist information, and stream information specified in the application format, and performs decoding processing on these streams. Then, a pixel gradation bit string for one screen is output to the display device according to the current reproduction mode.
  • the playback apparatus 1002 can be set to either a normal mode (non-color depth extension mode) or a color depth extension mode.
  • the pixel bit value output from the playback device 1002 in the color depth extension mode has an N-bit gradation
  • the pixel bit value output from the playback device 1002 in the non-color depth extension mode has an 8-bit gradation.
  • the display device 1003 receives a pixel bit value for one screen sent from the playback device 1002 through the inter-device interface, and displays an image by driving the display element of the display panel according to the pixel bit value.
  • This image display includes a normal mode (non-color depth extension mode) with 8-bit gradation and a color depth extension mode with 12-bit gradation. This completes the description of the home theater system. Next, details of the disk medium will be described.
  • FIG. 23 shows an example of the internal configuration of a disk medium, which is a multilayered optical disk.
  • the first row shows an example of a multilayered optical disk
  • the second row is a drawing in which spiral tracks existing on each recording layer are stretched in the horizontal direction.
  • the spiral tracks in these recording layers are treated as one continuous volume area.
  • the volume area is composed of a lead-in located on the innermost circumference, a lead-out located on the outermost circumference, a recording area of the recording layer 1, a recording area of the recording layer 2, and a recording area of the recording layer 3.
  • the recording area of the recording layer 1, the recording area of the recording layer 2, and the recording area of the recording layer 3 constitute one continuous logical address space.
  • the volume area is assigned a serial number in units of accessing the optical disc from the beginning, and this number is called a logical address.
  • Reading data from the optical disk is performed by designating a logical address.
  • a read-only disc such as a Blu-ray ReadOnly disc
  • sectors having consecutive logical addresses are also continuous in physical arrangement on the optical disc. That is, the data of sectors with consecutive logical addresses can be read without seeking.
  • continuous reading is not possible at the boundary of the recording layer even if logical addresses are continuous. Therefore, it is assumed that the logical address of the layer boundary is registered in advance in the recording apparatus.
  • file system management information is recorded immediately after the lead-in area, followed by a partition area managed by the file system management information.
  • the file system is a mechanism for expressing data on a disc in units called directories or files. In the case of a Blu-ray ReadOnly disc, it is recorded in UDF (Universal Disc Format). Even in the case of a personal computer (PC) that is used daily, data recorded on the hard disk in a directory or file structure is expressed on the computer by passing through a file system called FAT or NTFS, thereby improving usability.
  • This file system makes it possible to read out logical data recorded in the same way as a normal PC using a directory and file structure.
  • the fourth row shows the area allocation in the file system area managed by the file system.
  • a non-AV data recording area exists on the inner circumference side.
  • An AV data recording area exists immediately after the non-AV data recording area.
  • the fifth row shows the recorded contents of these non-AV data recording areas and AV data recording areas.
  • In the AV data recording area there are extents constituting the AV file.
  • In the non-AV data recording area there are extents constituting non-AV files other than AV files.
  • FIG. 24 shows an optical disc application format based on the file system.
  • BDMV directory is a directory in which data such as transport stream and management information handled by Blu-ray ReadOnly disc is recorded. Under the BDMV directory, there are five subdirectories called “BDJO directory”, “JAR directory”, “PLAYLIST directory”, “CLIPINF directory”, and “STREAM directory”. In the BDMV directory, “index.bdmv” , “MovieObject.bdmv” are arranged.
  • Index.bdmv (fixed file name) stores the index table.
  • the index table defines a correspondence between a plurality of title numbers that can be stored in the title number register in the playback apparatus and a program file that defines the operation mode.
  • the title numbers in the title number register are 0, 1 to 999, and an indefinite value (0xFFFF).
  • Title number 0 is the title number of the top menu title.
  • the top menu title is a title that can be called by a menu call operation by the user.
  • the title number of indefinite value (0xFFFF) is the title number of the first play title.
  • the first play title is a title that displays a warning to a viewer, a logo display by a content provider, or the like immediately after loading a recording medium.
  • the index table has an entry (title index) corresponding to each title number, and by describing a program file that defines the operation mode in each title index, each title can select what operation mode. It specifies in detail whether to work with.
  • “MovieObject.bdmv (fixed file name)” stores one or more movie objects.
  • a movie object is a program file that defines the control procedure to be performed by the playback device in an operation mode (HDMV mode) mainly controlled by a command interpreter.
  • HDMV mode operation mode
  • a user can use one or more commands, GUI menu calls, and title calls. Contains a mask flag that specifies whether to mask these calls.
  • BDJO directory there is a program file (xxxxx.bdjo [“xxxxx” is variable, extension “bdjo” is fixed]) with the extension bdjo.
  • This program file stores a BD-J object that is a program file that defines a control procedure to be performed by the playback device in the operation mode of the object-oriented programming language.
  • the Java (registered trademark) application is actually the Java (registered trademark) archive file (YYYYY.jar) stored in the JAR directory under the BDMV directory.
  • the application is, for example, a Java (registered trademark) application, and includes one or more xlet programs loaded in a heap area (also referred to as work memory) of the virtual machine.
  • An application is configured from the xlet program and data loaded in the work memory.
  • playlist information file (xxxxx.mpls [“xxxxx” is variable, and the extension “mpls” is fixed]) with the extension mpls.
  • a playlist information file with an extension mpls and stored in the BDMV directory is called an “mpls file”.
  • Extents that make up the files in the above directories are recorded in the non-AV data area.
  • the "STREAM directory” is a directory that stores stream files. This directory stores stream files in the format xxxxx.m2ts ([xxxxx is variable, extension "m2ts" is fixed]).
  • the A stream file having an extension of m2ts and stored in the BDMV directory is referred to as an “m2ts file”.
  • the CLREXT directory is an extended version of the program file, playlist information file, clip information file, and stream file existing in the BDMV directory.
  • Color depth extension compatible program file color depth extension playlist information file, color depth extension clip information file
  • This color depth extended interleaved stream file is a color depth extended interleaved stream file created by interleaving the Base video stream and the Enhancement video stream.
  • an extended function determination file exists in the CLREXT directory. This is used for determining the capability of the extended function when the color depth extension program file performs processing suitable for the color depth extension.
  • the color depth extension compatible clip information file, color depth extension compatible playlist information file, color depth extension compatible program file, and extended function determination file are recorded on the inner circumference side of the spiral track.
  • the color depth extension stream file is recorded on the outer peripheral side of the spiral track. The recording is performed in this manner, before the color depth extension stream file is read, the color depth extension compatible clip information file, the color depth extension compatible playlist information file, the color depth extension compatible program file, and the extended function determination file are loaded into the memory. Because.
  • FIG. 25 shows the interrelationship between the color depth extended interleaved stream file, the m2ts file, and the file base.
  • the first level shows an m2ts file
  • the second level shows a data block on the recording medium.
  • the data block includes a part of the transport stream (main TS) including the Base video stream (Base data block) and a part of the transport stream (sub TS) including the enhancement video stream (Enhancement data block).
  • the Base data block is accessed in both the non-color depth extension mode and the color depth extension mode (data blocks B [1] and B [2] in FIG. 25), and is accessed only in the non-color depth extension mode.
  • the Base data block is commonly used in the non-color depth extension mode and the color depth extension mode, but among the Base data blocks, those placed at the boundary of the recording layer are B [x] ce and B [x ] ne and separated. This is because in the vicinity of the layer boundary, the reproduction path in the non-color depth extension mode and the reproduction path in the color depth extension mode must be separated in order to secure a continuous length.
  • the enhancement data block is composed of data blocks E [1], E [2], and E [3].
  • the third row shows an interleaved stream file
  • the fourth row shows a file Base
  • the fifth row shows a file enhancement.
  • the file Base is a file composed of a data block B [x] ne (non-color depth Extension) and a data block B [x], and is reproduced in the non-color depth extension mode.
  • clip information corresponding to this file Base there is clip Base information.
  • the file enhancement is a file composed of E [x] and is accessed in the color depth extension mode.
  • Clip enhancement information exists as clip information corresponding to this file enhancement.
  • the clip Base information includes a basic entry map that is an entry map for randomly accessing the I picture and IDR picture at the head of the GOP in the Base video stream.
  • the clip enhancement information includes an extension entry map that is an entry map for randomly accessing the I picture and IDR picture at the head of the GOP in the enhancement video stream. Since these clip base information and clip enhancement information exist, the file base and the file enhancement are handled as separate AV clips.
  • B [1], B [2], B [3] ce, and B [4] ce among the data blocks that make up this interleaved stream file are the extents of the file Base.
  • the eye indicates that E [1], E [2], E [3], and E [4] among the data blocks constituting the interleaved stream file become extents of the file enhancement.
  • the file base, file enhancement, and m2ts file are composed of one or more extents. Extents can be freely changed in data length except that the lower limit of the data length is defined.
  • the data length serving as the lower limit is defined based on a BD-3D player model that is a player model for stereoscopic playback.
  • the extent of the file Base has the same lower limit as the extent EXT1 [n] that is the file extent of the BaseView video stream in the BD-3D player model.
  • the lower limit value of EXT1 [n] of the file Base including the base video stream is the jump period from the last extent of each Base data block to the first extent of the next Enhancement data block during playback in the color depth extension mode.
  • a jump period from the last extent of the enhancement data block to the first extent of the next Base data block is determined so as not to cause double buffer underflow.
  • the double buffer here includes a first read buffer and a second read buffer.
  • the first read buffer is the same as the read buffer of the 2D mode playback device for Blu-ray ReadOnly discs.
  • the jump from the last extent constituting the nth Base data block to the first extent constituting the pth Enhancement data block is time TFjump3D (n), and the pth Enhancement data Assume that the jump from the last extent constituting the block to the first extent constituting the (n + 1) th Base data block requires time TBjump3D (n).
  • TFjump3D (n) and TBjump3D (n) are jump times in the 3D playback mode in the BD-3D player model.
  • Each Base data block is read to the first read buffer at the speed Rud3D, each enhancement data block is read to the second read buffer at the speed Rud3D, and the Base data block is averaged from the read buffer 1 to the video decoder.
  • the lower limit value of EXT1 [n] is expressed by the following condition A expression.
  • EXT1 [n] lower limit value of EXT1 [n] ⁇ (Rud3D ⁇ Rbext3D) / (Rud3D-Rbext3D) ⁇ (TFjump3D (n) + EXT2 [n] / (Rud3D + TBjump3D (n))
  • the extent constituting the file enhancement has the same lower limit as EXT2 [n], which is the file extent of the dependent view video stream in the BD-3D player model.
  • the lower limit value of EXT2 [n] is the jump period from the extent of one enhancement data block to the extent of the next base data block and the next enhancement data block from the extent of the base data block at the time of reproduction in the color depth extension mode.
  • the lower limit of EXT2D is the buffer underflow of the read buffer in the playback device during the jump period from the last extent of each Base data block to the first extent of the next Base data block during playback in non-color depth extended mode. Is determined so as not to occur.
  • FIG. 25B shows the internal configuration of the main TS
  • FIG. 25C shows an example of the internal configuration of the sub-TS.
  • the main TS includes one Base video stream, 32 PG streams, 32 IG streams, and 32 audio streams.
  • the sub-TS includes one enhancement video stream, 32 PG streams, and 32 IG streams.
  • one or more of a video stream, an audio stream, a presentation graphics stream (PG), and an interactive graphics stream are multiplexed on the main TS.
  • main audio audio stream There are two types of audio streams: main audio audio stream and sub audio stream.
  • the main audio stream is an audio stream that should be the main audio when performing mixing reproduction
  • the sub audio stream is an audio stream that should be the sub audio when performing mixing reproduction.
  • the sub audio stream has information for downsampling for mixing and information for gain control.
  • Presentation graphics stream is a graphics stream suitable for subtitle display that can achieve precise synchronization with video by adopting a pipeline in the decoder. By realizing the decoding operation by the pipeline, precise synchronization with the moving image is realized. Therefore, the use of the PG stream is not limited to character reproduction such as subtitles. Any graphics playback that requires precise synchronization, such as displaying a mascot character of a movie work and synchronizing it with a moving image, should be adopted as a playback target by the PG stream. Can do.
  • the interactive graphics (IG) stream is a graphics stream that can display a menu as the video stream is played, and can display a pop-up menu according to a user operation by providing information on an interactive operation.
  • video streams There are two types of video streams: a picture-in-picture main screen video and a sub-screen video.
  • a common configuration of the video stream constituting the parent screen image and the video stream constituting the child screen image will be described.
  • moving image compression encoding such as MPEG-2, MPEG-4AVC, SMPTE VC-1, etc.
  • data amount is compressed by using redundancy in the spatial direction and temporal direction of moving images.
  • inter-picture predictive coding is used as a method of using temporal redundancy.
  • inter-picture predictive coding when a certain picture is coded, a picture that is forward or backward in display time order is used as a reference picture. Then, the amount of motion from the reference picture is detected, and the amount of data is compressed by removing the redundancy in the spatial direction for the difference value between the motion compensated picture and the picture to be encoded.
  • a picture that does not have a reference picture and performs intra-picture predictive coding using only a picture to be coded is called an intra (I) picture.
  • a picture is a unit of encoding that includes both a frame and a field.
  • a picture that is inter-picture prediction encoded with reference to one already processed picture is called a pre-detective (P) picture, and a picture that is inter-picture predictive encoded by simultaneously referring to two already processed pictures.
  • a field having a frame structure and a field having a field structure are referred to as a video access unit here.
  • Each stream included in the AV clip is identified by PID.
  • PID For example, an array x1011 for a video stream used for movie images, an array x1100 to 0x111F for an audio stream, an array x1200 to 0x121F for presentation graphics, an array x1400 to 0x141F for an interactive graphics stream, Arrays x1B00 to 0x1B1F are allocated to video streams used for sub-screen images, and arrays x1A00 to 0x1A1F are allocated to audio streams used for sub-audio mixed with the main audio.
  • FIG. 26 is a diagram illustrating a process of generating the main TS.
  • This figure (a) is a figure which shows typically how the main TS is multiplexed.
  • a video stream 501 composed of a plurality of video frames and an audio stream 504 composed of a plurality of audio frames are converted into PES packet sequences 502 and 505, respectively, and converted into TS packets 503 and 506, respectively.
  • the data of the presentation graphics stream 507 and the interactive graphics 510 are converted into PES packet sequences 508 and 511, respectively, and further converted into TS packets 509 and 512.
  • the AV clip 513 is configured by multiplexing these TS packets into one stream.
  • FIG. 26B shows in more detail how the video stream is stored in the PES packet sequence.
  • the first level in the figure shows a video frame sequence of the video stream.
  • the second level shows a PES packet sequence.
  • I-pictures, B-pictures, and P-pictures which are multiple Video Presentation Units in the video stream, are divided for each picture and stored in the payload of the PES packet .
  • Each PES packet has a PES header, and a PTS (Presentation Time-Stamp) that is a picture display time and a DTS (Decoding Time-Stamp) that is a picture decoding time are stored in the PES header.
  • PTS Presentation Time-Stamp
  • DTS Decoding Time-Stamp
  • FIG. 26 (c) shows the format of the TS packet that is finally written in the AV clip.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header having information such as a PID for identifying a stream and a 184-byte TS payload for storing data.
  • the PES packet described above is divided into TS payloads.
  • a 4-byte TP_Extra_Header is added to a TS packet, forms a 192-byte source packet, and is written to an AV clip.
  • TP_Extra_Header describes information such as ATS (Arrival_Time_Stamp).
  • ATS indicates the transfer start time of the TS packet to the PID filter of the system target decoder 1503 described later.
  • source packets are arranged as shown in the lower part of FIG. 28C, and the number incremented from the head of the AV clip is called SPN (source packet number).
  • TS packets included in AV clips include PAT (Program Association Table), PMT (Program Map Table), PCR (Program Clock Reference), etc., in addition to video, audio, and subtitle streams.
  • the PAT indicates what PMT PID is used in the AV clip, and is registered in the PAT array of the PAT itself.
  • the PMT has the PID of each stream such as video, audio, and subtitles included in the AV clip, the stream attribute information corresponding to each PID, and various descriptors related to the AV clip.
  • the descriptor includes copy control information for instructing permission / non-permission of copying of the AV clip.
  • PCR supports ATS (Arrival Time Clock) which is the time axis of ATS and ATS where the PCR packet is transferred to the decoder in order to synchronize STC (System Time Clock) which is the time axis of PTS / DTS Has STC time information.
  • ATS Arriv Time Clock
  • STC System Time Clock
  • a PAT packet and a PMT packet are stored at the head of the main TS of the AV clip.
  • FIG. 26 (d) is a diagram for explaining the data structure of the PMT in detail.
  • a PMT header describing the length of data included in the PMT is arranged at the head of the PMT.
  • a plurality of table descriptors related to the AV clip are arranged.
  • the above-described copy control information and the like are described as a table descriptor.
  • a plurality of pieces of stream information regarding each stream included in the AV clip are arranged.
  • the stream information is composed of a stream descriptor in which a stream type, a stream PID, and stream attribute information (frame rate, aspect ratio, etc.) are described to identify the compression codec of the stream.
  • the sub TS is different from the main TS in that only the enhancement video stream for color depth extension is stored.
  • the Base video stream and the Enhancement video stream are converted into the NAL unit format and then converted into the MPEG2-TS format. Since both the Base video stream and the enhancement video stream are converted to the NAL unit format and recorded on the recording medium, a part of the Base video stream and a part of the enhancement video stream are recorded together and sent to the video decoder. The mixed treatment is allowed.
  • FIG. 27 shows an example of the internal configuration of the enhancement video stream.
  • the first level shows a plurality of GOPs
  • the second level shows a plurality of video access units constituting the GOP.
  • These video access units correspond to picture data, and are displayed in individual display frames (Frame (1) to Frame (number_of_displayed_frames_in_GOP) in the figure) in the GOP.
  • the third level shows an example of the internal configuration of the video access unit.
  • the video access unit includes a video access unit delimiter, a sequence parameter set, a picture parameter set, a SEI (Supplemental Enhancement Information) message, a slice data sequence obtained by subtraction from the gradation bit sequence of pixels in the original image, a sequence end code, Each stream end code is configured as a NAL unit and arranged.
  • sequence parameter set (SPS) stored in one NAL unit and the picture parameter set (PPS) stored in one NAL unit will be described.
  • the sequence number exists in the sequence parameter set (SPS) stored in one NAL unit, and the sequence number reference also exists in the picture parameter set (PPS) stored in one NAL unit.
  • SPS sequence parameter set
  • PPS picture parameter set
  • the NAL unit that stores the PPS belongs to either the Base video stream sequence or the Enhancement video stream sequence in one bitstream stored in the interleaved stream file. You can specify what to do. Therefore, by using the reference of the sequence number, the NAL unit storing the PPS can be classified into the sequence of the Base video stream and the sequence of the enhancement video stream.
  • the SPS number reference is arranged in both the NAL unit and the slice header, it can be known whether each slice data belongs to the base video stream sequence or the enhancement video stream sequence. it can. In addition, since the reference of the PPS number exists in the slice header, it is possible to know to which picture each slice data belongs. Using these as clues, the slice data is integrated for each of the same sequence and the same picture, so that each of the picture data, that is, the base picture data and the enhancement picture data is restored from the NAL unit. be able to.
  • the frame number is present in the slice header that has been made into NAL units, it is possible to know which frame each slice data belongs to, and using these as clues, the same frame can be obtained from a mixed NAL unit.
  • the set of base picture data and enhancement picture data that constitutes can be restored.
  • the shift amount sequence includes the shift amount (1) of the pixel bit value of the picture of the frame (1), the shift amount (2) of the pixel bit value of the picture of the frame (2), and the pixel bit value of the picture of the frame (3).
  • Each shift amount in the shift amount sequence in FIG. 27 is associated with each of the pictures arranged in the display order, and defines a shift amount specific to the frame in which the picture is to be displayed.
  • clip information is prepared as dedicated information in order to enable random access of the main TS and sub-TS.
  • This clip information is stored in the clip information file in the file configuration described above.
  • the clip information file is AV clip management information as shown in FIG. 28A, has a one-to-one correspondence with the AV clip, and includes clip information, stream attribute information, and an entry map.
  • the clip information includes clip Base information for the main TS including the Base video stream and clip enhancement information for the sub-TS including the enhancement video stream, and these are stored in the clip information file.
  • FIG. 28 shows the internal structure of the clip information file.
  • Clip information includes a system rate, a playback start time, and a playback end time as shown in FIG.
  • extent start point information is included as information for accessing the interleaved stream file.
  • the system rate indicates the maximum transfer rate of the AV clip to the PID filter of the system target decoder described later.
  • the ATS interval included in the AV clip is set to be equal to or less than the system rate.
  • the playback start time is the PTS of the first video frame of the AV clip, and the playback end time is set by adding the playback interval of one frame to the PTS of the video frame at the end of the AV clip.
  • the attribute information for each stream included in the AV clip is registered for each PID.
  • the attribute information has different information for each video stream, audio stream, presentation graphics stream, and interactive graphics stream.
  • the video stream attribute information includes the compression codec used to compress the video stream, the resolution of the individual picture data constituting the video stream, the aspect ratio, and the frame rate. It has information such as how much it is.
  • the audio stream attribute information includes the compression codec used to compress the audio stream, the number of channels included in the audio stream, the language supported, and the sampling frequency. With information. These pieces of information are used for initialization of the decoder before the player reproduces it.
  • the entry map includes entry map header information 1101, a PTS indicating the display time of each I picture of the video stream included in the AV clip, and the SPN of the AV clip starting from each I picture.
  • Is table information a pair of PTS and SPN information indicated by one row of the table is referred to as an entry point.
  • a value incremented for each entry point with the head set to 0 is referred to as an entry point ID (hereinafter referred to as EP_ID).
  • EP_ID entry point ID
  • entry map header information 1101 is stored at the top of the entry map, and information such as the PID and the number of entry points of the video stream pointed to by the corresponding entry map is stored here.
  • FIG. 4D shows an example of the internal structure of the extent start point information table.
  • the extent start point information table is composed of number_of_extent_start_points and number_of_extent_start_points SPN_start_points.
  • “Number_of_extent_start_points” indicates the number of extents belonging to the related AV stream file.
  • the number_of_extent_start_points of the pair of the extent start point information table in the clip base information and the extent start point information table in the clip enhancement information have the same value.
  • SPN_extent_start (SPN_extent_start [0] to SPN_extent_start [number_of_extent_start_point]) is composed of number_of_extent_start_point + 1 SPN_extent_start.
  • SPN_extent_start is indicated by the extent identifier [extent_id], and is a 32-bit value indicating the source packet number of the source packet at which the extent_id-th extent in the AV stream file starts.
  • the playback path defined by the playlist file is a so-called “multipath”.
  • Multipath refers to a playback path (main path) defined for a main transport stream including a base video stream, and a playback path defined for a subordinate transport stream including an enhancement video stream (main path). Sub-pass). If the playback path of the Base video stream is specified in this multi-pass and the playback path of the dependent video stream is specified in the sub-pass, the combination of the Base video stream for the color depth extension mode and the enhancement video stream is suitable. Can be specified.
  • the playlist information has a hierarchical structure of play item information-stream information-transport stream, and the ratio of the combination of the transport stream and stream information and the play item information has a one-to-many relationship.
  • FIG. 29 shows an example of the internal structure of playlist information.
  • the playlist information includes “main path information” indicating the definition of the playback path for the main TS, “sub path information” indicating the definition of the playback path for the subordinate TS, and the playback section. "Playlist mark information” and "extension data” for setting entry marks and link points. As shown in FIG.
  • the main path in the playlist is composed of one or more play items 1201, and each play item indicates a playback section for an AV clip.
  • Each play item 1201 is identified by a play item ID, and is described in the order to be reproduced in the play list.
  • the playlist includes a playlist mark 1202 indicating a playback start point.
  • the play list mark 1202 can be given to the playback section defined by the play item, is attached to a position that can be a playback start point for the play item, and is used for cue playback.
  • the playlist mark information includes a time stamp indicating where the mark point is in the play item, and attribute information indicating the attribute of the mark point. This attribute information includes the mark point defined by the playlist mark information. Indicates whether it is a link point or an entry mark.
  • the link point is a mark point that can be linked by a link command but is not a selection target when the chapter skip operation is performed by the user.
  • the entry mark is a mark point that can be linked by a link command and is a selection target when a chapter skip operation is performed by the user.
  • the link command embedded in the button information of the IG stream specifies the cue position in the form of indirect reference via playlist mark information.
  • the play item includes a clip information reference 1301 that specifies clip information to be referred to when the video stream is reproduced using the file name (clip_information_file_name) of the clip information file, and a point at which reproduction is to be started on the STC time axis of the video stream ( In_Time), AV clip playback start time 1302, AV clip playback end time 1303 specifying the time point (Out_Time) at which playback should end on the STC time axis of the video stream, connection condition 1310, and basic A stream selection table 1305. Since the playback start time and playback end time are time information, the player refers to the entry map of the clip information file, acquires the SPN corresponding to the specified playback start time and playback end time, and specifies the read start position. To perform playback processing.
  • the connection condition 1310 indicates the forward play item and the connection type.
  • the connection condition 1310 of the play item is “1”, it indicates that the AV clip indicated by the play item does not guarantee seamless connection with the AV clip indicated by the play item before the play item.
  • the play item connection condition 1310 is “5” or “6”, it is guaranteed that the AV clip indicated by the play item is seamlessly connected to the AV clip indicated by the play item before the play item.
  • the connection condition 1310 of “5” is a seamless connection with a clean break.
  • “clean break” means that STC continuity between play items may be interrupted, that is, the beginning of the AV clip of the connected play item after the video display time at the end of the AV clip of the pre-connected play item.
  • the video display time start time may be discontinuous.
  • the AV clip of the play item before connection is input to the PID filter of the system target decoder 1503 to be described later, and the AV clip of the play item after connection is input to the PID filter of the system target decoder 1503 and played back, It is necessary to create an AV clip so that the decoding of the system target decoder 1503 does not fail.
  • connection condition 1310 of “6” is “seamless connection where continuity exists in ATS and PTS”, and one AV is obtained when the pre-connection play item AV clip and the post-connection play item AV clip are combined. It must be playable as a clip. That is, the STC continues and the ATC also continues between the AV clip of the play item before connection and the AV clip of the play item after connection.
  • the basic stream selection table 1305 includes a plurality of stream entries 1309, and the stream entry 1309 includes a stream selection number 1306, stream path information 1307, and stream identification information 1308.
  • the stream selection number 1306 is a number that is sequentially incremented from the top of the stream entry 1309 included in the basic stream selection table, and is used for stream identification in the player.
  • the stream identification information 1308 is information such as PID, and indicates a stream multiplexed in the AV clip to be referred to.
  • attribute information of each stream is recorded at the same time.
  • the attribute information is information indicating the nature of each stream, and includes, for example, language attributes in the case of audio, presentation graphics, and interactive graphics.
  • the playlist can have one or more sub-paths as shown in FIG. 29 (d).
  • the subpaths are assigned IDs in the order of registration in the playlist, and are used as subpath IDs to identify the subpaths.
  • the sub path indicates a series of reproduction paths that are reproduced in synchronization with the main path.
  • the sub play item has clip information 1301 to be reproduced, a reproduction start time 1302 and a reproduction end time 1303 in the same manner as the play item, and the reproduction start time 1302 and the reproduction end time 1303 of the sub play item are on the same time axis as the main path. expressed.
  • the presentation graphics 1 that is multiplexed in the AV clip of the sub play item # 2 that is reproduced in synchronization with the reproduction section is reproduced in the reproduction section of the play item # 2.
  • the sub play item has a field called SP connection condition having the same meaning as the connection condition of the play item.
  • the AV clip at the sub play item boundary where the SP connection condition is “5” or “6” needs to follow the same conditions as the connection condition “5” or “6”.
  • the extension data in FIG. 29 (e) is an information element that exists only in the color depth extended playlist, and includes an extended stream selection table.
  • the extension stream selection table has a stream entry and stream attribute of the enhancement video stream, and instructs the playback device to demultiplex the enhancement video stream by this stream entry.
  • FIG. 30 shows a playlist defined by a playlist file (mpls file) recorded in the BDMV directory and a color depth extended playlist.
  • the first level is playlist information of the BDMV directory
  • the second level is a bases data block
  • the third level is a color depth extended playlist
  • the fourth level is an enhancement data block.
  • Arrows rf1, rf2, and rf3 indicate playback paths by combining the file name 00001 described in clip_information_file_name in the play item information of the playlist information of the BDMV directory and the extension m2ts.
  • a playback path on the Base video side is configured by the data blocks B [1], B [2], and B [3] ne.
  • Arrows rf4, rf5, rf6, and rf7 indicate playback paths specified by the play item information of the color depth extended playlist information.
  • a playback path on the Base video side is configured using B [1], B [2], B [3] ce, and B [4] ce.
  • Arrows rf8, rf9, rf10, and rf11 indicate playback paths specified by the sub play item information of the color depth extended playlist information.
  • the playback path on the enhancement video side is configured using E [1], E [2], E [3], and E [4].
  • the data block that constitutes the playback path specified by these play item information and sub play item information can be opened by combining the file name described in clip_information_file_name in the play item information and the extension ceif. Can be read.
  • clip_information_file_name in the play item information of the playlist in the BDMV directory describes the file name of the m2ts file.
  • Clip_information_file_name in the play item information of the color depth extended playlist describes the file name of the file Base.
  • the file Base is a virtual file, and its file name is the same as that of the interleaved stream file. Therefore, the file name of the interleaved stream file may be described in clip_information_file_name in the play item information.
  • Ref_to_subclip_entry_id in the stream registration information of the extension stream selection table describes the file name of the file enhancement.
  • the file name of the file enhancement is obtained by adding 1 to the identification number of the interleaved stream file.
  • the interleaved stream file is selected from the m2ts file, the file Base, and the file enhancement. Since it can be opened as a file, the decoder can handle an interleaved stream file in the same way as a normal stream file. Therefore, it is possible to actively incorporate interleaved stream files into the base video stream and enhancement video stream storage methods.
  • the Base video stream and the Enhancement video stream are integrated as one multi-path using the main path information and sub path information of the playlist information. Therefore, the Base video stream and the Enhancement video stream can be recorded in the Out-of-MUX format instead of the color depth extended interleaved stream file format as shown in the first embodiment. It can be stored and recorded in different stream files on the same recording medium, or can be stored and recorded in different stream files on different recording media.
  • the enhancement video stream for color depth extension and playlist information corresponding to color depth extension can be stored in the Out-of-MUX format, record only the Base video stream on a Blu-ray ReadOnly disc.
  • An enhancement video stream can be provided as a privilege for a user who sells the package medium and purchases the package medium.
  • the playback device when a Blu-ray ReadOnly disc, which is a package medium on which only the Base video stream is recorded, is loaded into the playback device, the playback device includes an AV clip including an enhancement video stream corresponding to this Base video stream, The corresponding clip information file, color depth extension playlist information file, and color depth extension compatible program are downloaded from the server.
  • Color depth extension can be realized by forming a virtual package in which these downloaded files and files on a Blu-ray / ReadOnly disc are integrated.
  • FIG. 31 shows the configuration of the playback apparatus 1002. It can be said that the internal configuration of this figure has the color depth extension unit described so far as the core, and the components for ensuring the function as a playback device are arranged at the front, rear, and peripheral parts thereof.
  • This playback apparatus includes a disk drive 100, a reading unit 101, a first read buffer 102a, a second read buffer 102b, an ATS restoration unit 103, a system target decoder 104, a plane memory set 105a, a plane synthesis unit 105b, an inter-device interface 106, A playback control unit 107, a management information memory 108, a register set 110, a program execution unit 111, a program memory 112, an extended function memory 113, a device specific processing unit 114, an index memory 115, a program management unit 116, and a user event processing unit 117 Has been.
  • the disk drive 100 reads data from a Blu-ray ReadOnly disc based on a request from the playback control unit 107, as in a normal disc drive, but the AV clip read from the Blu-ray ReadOnly disc is the first read buffer 102a. They are different in that they are transferred to the second read buffer 102b.
  • the playback control unit 107 alternately sends a read request for an AV clip containing a Base video stream and an AV clip containing an Enhancement video stream.
  • the disc drive 100 transfers the AV clip data including the Base video stream to the first read buffer 102a while switching the AV clip data including the enhancement video stream to the second read buffer 102b.
  • speed performance is required.
  • the reading unit 101 loads a recording medium on which content constituting a stereoscopic video is recorded, and executes reading from the recording medium.
  • the reading unit executes random access from an arbitrary time point on the time axis of the video stream. Specifically, when playback from an arbitrary time point on the time axis of the video stream is commanded, the source packet number of the access unit corresponding to the arbitrary time point is searched using the entry map. By the search, the source packet number of the source packet storing the access unit delimiter for the access unit is specified. Reading from the source packet number and decoding are executed. In the scene jump, random access is executed by executing the search using time information indicating a branch destination.
  • the first read buffer 102aa is a buffer in which TS packets constituting the main TS read from the disk drive 100 are stored.
  • the second read buffer 102b is a buffer in which TS packets constituting the sub-TS read from the disk drive 100 are stored.
  • the ATC sequence restoration unit 103 separates the ATC sequence constituting the Base video stream and the ATC sequence constituting the Enhancement video stream from the source packets in the interleaved stream file read from one recording medium, and 2 The data is written to each of the two read buffers. By doing so, the playback apparatus can process the ATC sequence constituting the Base video stream and the ATC sequence constituting the Enhancement video stream as if they were read from different recording media.
  • the system target decoder 104 performs demultiplexing processing on the source packet read to the first read buffer 102a and the source packet read to the second read buffer 102b to perform stream decoding processing.
  • the system target decoder 104 decodes the decoded Base video stream and Enhancement video stream to extend the color depth.
  • the plane memory set 105a is composed of a plurality of plane memories. These plane memories constitute a layer model, and the contents stored in each plane memory are used for layer synthesis. An uncompressed one-screen gradation bit string is written into these plane memories. This writing is performed when the playback start time indicated in the presentation time stamp of each access unit comes.
  • the plane synthesis unit 105b performs layer synthesis in a plurality of plane memories.
  • the process of superimposing the pixel values of the pixel data stored in the plane memory between layers in the layer model of the plane memory is executed for all combinations between the layers in the layer model. That is done.
  • the process of superimposing the pixel values of the pixel data stored in the plane memory of the two layers is applied to all combinations of the two layers in the layer model. It is done by executing against.
  • the pixel value of the line unit of the plane memory located in a certain layer is multiplied by the transmittance ⁇ as a weight
  • the pixel value of the line unit of the plane memory located in the lower layer is multiplied by (1 ⁇ transmission ⁇ ) Is added to the pixel values that have been weighted with luminance, and the addition result is used as the pixel value of the pixel in line units in the hierarchy.
  • the layer composition is realized by repeatedly performing the superimposition between the hierarchies between the line-unit pixels located in two adjacent hierarchies of the layer model.
  • the device-to-device interface 106 proceeds to the data transmission phase through the negotiation phase and performs data transmission.
  • the capabilities including decoding capability, playback capability, and display frequency
  • the counterpart device are ascertained and set in the player setting register to determine the transmission method for subsequent transmissions.
  • Including a mutual authentication phase Through the negotiation phase, one line of uncompressed and plain text pixel data in the layer-combined picture data is transferred to the display device at a high transfer rate according to the horizontal synchronization period in the display device.
  • the pixel data to be transferred is obtained by extending each of luminance Y, red difference Cr, and blue difference Cb from 8 bits to N bits. Therefore, in the transmission phase when the color depth extension mode is set, the transmission / reception unit 209 transmits the bit width of the pixel bit value to the display device prior to transmission.
  • audio data in uncompressed / plaintext format is sent to other devices (including not only the display device but also an amplifier and a speaker) connected to the playback device. Forward.
  • devices such as a display device, an amplifier, and a speaker can receive uncompressed / plaintext picture data and uncompressed / plaintext audio data, and can realize reproduction output.
  • the counterpart device has a decoding capability, it is possible to pass-through transmission of a video stream and an audio stream. In pass-through transmission, a video stream and an audio stream can be transmitted in a compressed / encrypted format.
  • the playback control unit 107 has a function of controlling the playback of AV clips by controlling the drive 100 and the system target decoder 104. Based on a playback command from the program execution unit 111 and a notification from the user event processing unit 117, the playback control unit 107 interprets playlist information and controls playback processing of the AV clip. For such control, a playback control engine for interpreting playlist information and a playback engine for playback control of AV clips are provided. The playback control unit 107 performs a playback operation with reference to the system parameters.
  • the AV including the Base video stream of the play item that is the playback target in the playlist When playback of a playlist that targets an AV clip including a Base video stream whose color depth is extended is instructed by the program execution unit 111 or the like, the AV including the Base video stream of the play item that is the playback target in the playlist.
  • the clip is specified, and the AV clip including the enhancement video stream for performing color expansion of the Base video stream is specified.
  • the AV clip including the enhancement video stream can be identified by association using the name of the AV clip including the Base video stream or association using a separate management file. After that, it interprets the entry map of the corresponding clip information file, and based on the extent start type that indicates which extent is located first, the AV clip including the Base video stream from the playback start point and the enhancement video
  • the disk drive 100 is requested to alternately read AV clips including streams. When reproduction is started, after the first extent is read into the first read buffer 102a or the second read buffer 102b, transfer from the first read buffer 102
  • the management information memory 108 stores information (current playlist information, current clip information) that is a processing target of the playback control unit 107 among a plurality of playlist information and clip information recorded on the recording medium.
  • the register set 110 includes a plurality of player status registers, a plurality of player setting registers, and a general purpose register.
  • Each player status register and player setting register is a register having a word length of 32 bits.
  • Each register having a 32-bit length is given a register number, and a register to be accessed is specified by using this register number.
  • the player status register (Player Status Register: PSR) 110a is set to an initial value when an optical disc is loaded, and the validity of the stored value when the status of the playback device changes such as a change of the current play item. Is a register to be determined.
  • the stored value includes a current title number, a current playlist number, a current play item number, a current stream number, a current chapter number, and the like. Since the initial value is stored when the optical disk is loaded, the stored value is temporary. If the optical disk is ejected or the playback apparatus is turned off, the stored value loses its validity.
  • the player setting register (Player Setting Register: PSR) 110b is different from the player state register in that power supply measures are taken. Since power supply measures are taken, the stored value is saved in a non-volatile memory when the playback device is turned off, and the stored value is restored when the playback device is powered on.
  • a 32-bit length bit string stored in the player status register and player setting register of a predetermined register number, and the value in an arbitrary bit range [bx: by] is the value of the operating system when the program operates. It is treated as an environment variable (system parameter).
  • the system parameters in the player status register and player setting register are as follows.
  • the SPRM (16) audio stream language code and the SPRM (18) subtitle stream language code are items that can be set through the setup menu when the player draws the setup menu using the on-screen display. Indicates the default language code for. For example, if the SPRM (16) audio stream language code is English, when playing a playlist, search for a stream entry having the same language code from the play item stream selection table and select the audio stream. Can be added to the BD program file.
  • the playback control unit 107 plays back while checking the status of the system parameters.
  • SPRM (1), SPRM (2), SPRM (21), and SPRM (22) indicate an audio stream number, a subtitle stream number, a sub-screen video stream number, and a sub audio stream number, respectively. This corresponds to the stream selection number 606 described above.
  • the playback control unit 107 switches the audio stream to be played back by referring to the stream entry 609 that matches the stream selection number 606 from the stream selection table 605 of the play item currently being played back. In this manner, which audio / subtitle / small-screen video stream is to be reproduced is switched.
  • General purpose register (GPR) 110c is a hardware resource for storing a numerical value as an operand when the MPU of the playback apparatus performs an arithmetic operation or a bit operation.
  • the player status register is prohibited from writing a value by a program, but the general-purpose register can perform such writing.
  • this general purpose register is used as a color depth extension capability register.
  • the color depth extension capability register indicates whether the processing capability of the extended function realized by the color depth extension exists.
  • the extended function has a plurality of types, and the presence or absence of processing capability can be set for each of these extended functions.
  • a 32-bit length bit string stored in the general-purpose register with a given register number, and the value in an arbitrary bit range [bx: by] is a player variable (general-purpose variable) for the program to operate.
  • Target parameter: GPRM GPRM
  • the program execution unit 111 is a processor that executes a program stored in a BD program file.
  • the command execution module 111a includes a command interpreter, and executes HDMV mode control by decoding and executing navigation commands constituting the movie object.
  • the bytecode execution module 111b is a platform part of a so-called Java virtual machine, which converts the bytecode constituting the BD-J application stored in the heap memory and the bytecode constituting the system application into native code, and To run.
  • the program memory 112 stores a program to be executed by the program execution unit 111.
  • a program includes a color depth extension program adapted to the color depth extension process.
  • the extended function memory 113 is a memory in which an extended function determination file is stored.
  • the device-specific processing unit 114 executes device-specific functions that are not assumed by the Blu-ray ReadOnly disc player.
  • the color depth extension mode is set and the extension function capability is initialized.
  • the former color depth expansion mode setting is made when a playback device is installed in the Baume Theater system and connected to the display device for the first time.
  • the device specific processing unit 114 acquires the color depth in the display device through the interface between devices. If the pixel gradation on the display device exceeds 8 bits and the color depth can be expressed in 12 bits, a setup menu that prompts you to switch to the color depth extension mode pops up, and then switches to the color depth extension mode. Ask the user whether to do so. If the user selects the color depth extension mode, the device specific processing unit 114 sets the player setting register so that the current mode indicates the color depth extension mode.
  • the display device is set to the color depth extension mode through the inter-device interface. If the display device cannot express the color depth in 12 gradations, or if the user does not wish to select the color depth extension mode, the player setting register is set so that the current mode indicates the non-color depth extension mode. Set.
  • the initialization of the latter extended function capability is performed when the recording medium is loaded. If a recording medium is loaded while the current mode is set to the color depth extension mode, the device specific processing unit 114 initializes the extended function capability for the program loaded from the recording medium. Do. This initialization is performed by setting an initial value in each of the extended function capability registers indicating the presence / absence of capabilities of various extended functions. By doing so, the program loaded from the recording medium can individually determine which of the various confirmation functions applying the color depth extension is executable and which is not executable.
  • the index memory 115 is a memory into which an index table is read when a disk medium is loaded in the playback apparatus.
  • the program management unit 116 selects any one of a plurality of titles defined in the index table as a current title according to the playback device status and user operation, and a current title number that is one of the player status registers. Store in register. Then, the program file corresponding to the current title number is selected, and the navigation command execution module and the bytecode execution module are instructed to make the program file a processing target.
  • the program file includes a program file for the bytecode operation mode and a program file for the navigation command operation mode.
  • the user event processing unit 117 requests the program execution unit 111 and the reproduction control unit 107 to execute processing in response to a user operation through the remote controller. For example, when a button is pressed with the remote controller, the program execution unit 111 is requested to execute a command included in the button. For example, when the fast forward / rewind button is pressed on the remote controller, the playback control unit 107 is instructed to execute fast forward / rewind processing for the AV clip of the playlist currently being played.
  • the recording medium and its playback device are based on the BD-3D application format that realizes stereoscopic playback with MPEG4-MVC and its player model.
  • an enhancement video stream is introduced instead of an enhancement video stream that constitutes a viewpoint image from another viewpoint, a recording medium and playback device for color depth extension can be introduced. Therefore, the authoring environment and playback device operation verification mechanism can utilize the design assets cultivated in the realization of BD-3D. This enables early practical application of the color depth extension content.
  • FIG. 32 (a) is a diagram showing how the ATC sequence is restored from the interleaved stream file.
  • FIG. 2A shows an example of the internal configuration of the reading unit provided with the ATC sequence restoration unit. As described above, the ATC sequence restoration unit is interposed between the two drives and the two read buffers.
  • the arrow B0 in the figure symbolically shows the input of the Base data block and the enhancement data block from one drive, the arrow B1 writes the ATC sequence 1 constituting the Base video stream, and the arrow D1 The writing of the ATC sequence 2 constituting the enhancement video stream is schematically shown.
  • FIG. 30 (b) shows how two ATC sequences obtained by the ATC sequence restoration unit are handled.
  • the middle of the figure shows the PID filter.
  • the left side shows two ATC sequences obtained by the ATC sequence restoration unit.
  • the right side shows Base video stream, Enhancement video stream, PG stream 1, 2 and IG stream 1, 2 obtained by demultiplexing these two ATC sequences.
  • These ATC sequences correspond to the STC sequences by the entry map in the clip information.
  • An arrival time stamp is added to each TS packet constituting the ATS sequence 1 corresponding to the Base video stream and the ATS sequence 2 corresponding to the enhancement video stream.
  • the total data size per unit time constituting elementary streams that are allowed to be reproduced simultaneously in the table is 48 Mbps or less.
  • the total data size per unit time is calculated in a window that is a confirmation frame on the time axis that is based on the arrival time stamp, and the total data size is calculated on the time axis that the window is based on the arrival time stamp. Even if it exists at any time, it is 48 Mbps or less.
  • the bit amount per second is 48Mbit, even if the TS packet supply amount is locally increased to 96Mbit for simultaneous stream reading, the bit amount per second is limited to 48Mbit or less. Therefore, the 96Mbit data supply amount, which is the worst case, will not continue for more than 0.5 seconds.
  • TS packets with a size of 96 Mbit ⁇ 0.5 seconds are always read ahead and supplied to the decoder. If the playback device is configured, underflow of the buffer in the decoder can be avoided.
  • FIG. 33 shows an example of extent start point information in Base video clip information and an example of extent start point information in Enhancement video clip information.
  • A shows extent start point information of Base video clip information and extent start point information of Enhancement video clip information.
  • B shows the Base video data blocks B [0], B [1], B [2]... B [n] constituting the ATC sequence 1, and the enhancement data block E [0] constituting the ATC sequence 2. ], E [1], E [2]... E [n].
  • C shows the number of source packets of the enhancement data block and the number of source packets of the base data block.
  • the head source packet number of the enhancement data block and the head source packet number of the base data block are as shown in (d).
  • the first SPN of E [0] is “0”
  • the first SPN of B [0] is “b1”.
  • the first SPN of E [1] is “b1 + a1” because it is the sum of the source packet number b1 of the preceding E [0] and the source packet number a1 of B [0].
  • FIG. 34 is a diagram for explaining the source packet number of an arbitrary data block in the ATC sequences 1 and 2.
  • the source packet number in the interleaved stream file of E [x] existing in the source packet number of bx is obtained in the ATC sequence 2 of FIG.
  • the first source packet number of E [x] is E [0], B [0], E [1], B [1], E [2], B [2] ... E [x -1] and B [x-1]
  • the total number of source packets is “bx + ax” as shown in FIG.
  • the head source packet number of B [x] is E [0], B [0], E [1], B [1], E [2], B [2]... Since it is the sum of the source packet numbers of the relative source packet numbers of E [x-1], B [x-1], and E [x], “bx + 1 + ax”.
  • FIG. 4C shows a file Base that uses the Base data block as an extent and a file enhancement that uses the Enhancement data block as an extent.
  • the first LBN and continuous length of EXT1 [x], which is the extent of the file Base corresponding to B [x], and the first LBN and continuous length of EXT2 [x], which is the extent of the file enhancement corresponding to E [x] are as follows: Desired.
  • the internal configuration of the system target decoder 104 is a configuration in which unique components for processing a Blu-ray ReadOnly disc are arranged around the video decoder unit 23 and the color depth extension unit 24 shown in the first embodiment. ing.
  • the components of the system target decoder 104 are assigned reference numerals in the 120s to organize the components.
  • the system target decoder 104 includes a first source packet depacketizer 121a, a second source packet depacketizer 121b, PID filters 122a and 122b, a main screen video decoding unit 123, and a child screen.
  • It comprises a video decoder 124, a PG decoder 125, a picture switch 123a, an IG decoder 126, a main audio decoder 127, a sub audio decoder 128, and an image processor 129.
  • the first source depacketizer 121a interprets the source packet stored in the first read buffer 102aa, extracts the TS packet, and sends it to the first PID filter 122a.
  • the second source depacketizer 121b interprets the source packet stored in the first read buffer 102aa, extracts the TS packet, and sends it to the second PID filter 122b.
  • the input time to the decoder is adjusted according to the ATS of each source packet. Specifically, at the moment when the ATC value generated by the ATC counter becomes the same as the ATS value of the source packet, only the TS packet is transferred to the PID filter according to the recording rate of the AV clip.
  • the first PID filter 122a is a TS packet output from the source depacketizer, and the TS packet PID matches the PID required for playback according to the PID. Transfer to IG decoder, PG decoder, audio decoder, sub audio decoder. For example, in the case of a BD-ROM, when the PID included in the TS packet is 0x1011, it is the parent screen video decoder, when the PID is 0x1B00 to 0x1B1F, it is the child screen video decoder, and the PID is 0x1100 to 0x111F.
  • the PID is 0x1400 to 0x141F, the PID is 0x1A00 to 0x1A1F. If the PID is 0x1200 to 0x121F, the PID is transferred to the IG decoder.
  • the second PID filter 122b determines that the TS packet output from the second source depacketizer 121b has the PID of the TS packet that matches the PID required for reproduction, according to the PID. Transfer to Buffer.
  • the first and second PID filters 122b perform demultiplexing according to the display mode.
  • the display mode is the non-color depth extension mode
  • the first PID filter 122a demultiplexes only the TS packets belonging to the Base video stream and outputs the demultiplexed packets to the video decoder.
  • the first PID filter demultiplexes TS packets belonging to the Base video stream
  • the second PID filter demultiplexes TS packets belonging to the Enhancement video stream and outputs them to the video decoder.
  • the main screen video decoder unit 123 is an MPEG4-MVC video decoder.
  • the main screen video decoder unit 123 inputs two streams of a Base video stream and an Enhancement video stream, and executes color depth extension. Perform screen output with.
  • the picture switch 123a determines whether the decoded frame / field image transferred from the parent picture video decoder unit 123 is an 8-bit Base picture or an 8-bit Enhancement picture, and transmits it to the color depth extension unit.
  • the small-screen video decoder 124 has the same configuration as the large-screen video decoder, decodes the input small-screen video stream, and writes a picture to the small-screen video plane at the display time (PTS) timing.
  • PTS display time
  • the PG decoder 125 extracts and decodes the presentation graphics stream from the TS packet input from the source packetizer, and writes the uncompressed graphics data to the PG plane at the display time (PTS) timing.
  • the PG decoder is obtained by decoding a “coded data buffer” that stores functional segments read from a PG stream, a “stream graphics processor” that decodes a screen configuration segment to obtain a graphics object, and "Object buffer” for storing graphics objects, "Composition buffer” for storing screen composition segments, and screen composition segments stored in the composition buffer, based on the control items in these screen composition segments, And a “composition controller” that performs screen composition on the graphics plane using the graphics object obtained in the object buffer.
  • the IG decoder 126 extracts and decodes the interactive graphics stream from the TS packet input from the source packetizer, and writes uncompressed graphics data to the IG plane at the display time (PTS) timing.
  • the IG decoder includes a “coded data buffer” that stores functional segments read from the IG stream, a “stream graphics processor” that obtains graphics objects by decoding screen composition segments, and graphics obtained by decoding.
  • Object buffer for storing objects
  • Composition buffer for storing screen composition segments, and screen composition segments stored in the composition buffer are decoded, and objects based on the control items in these screen composition segments
  • a “composition controller” that performs screen composition on the graphics plane using the graphics object obtained in the buffer.
  • the main audio decoder 127 has a buffer buffer, removes information such as the TS header and PES header while storing data in the buffer, decodes the audio stream, and obtains uncompressed LPCM audio data. Output to the audio mixer at the playback time (PTS) timing. Since there are AC3, DTS, and the like in the compression encoding format of the audio stream multiplexed into the AV clip, the decoding method of the compressed audio is switched according to the attribute of the stream.
  • the sub audio decoder 128 has the same configuration as the main audio decoder, decodes the input sub audio stream, and outputs uncompressed LPCM audio data to the audio mixer at the timing of the display time. Since there are DolbyDigitalPlus, DTS-HD LBR, and the like as the compression encoding format of the audio stream multiplexed with the AV clip, the decoding method of the compressed audio is switched according to the attribute of the stream.
  • the audio mixer 128a mixes the uncompressed audio data output from the main audio decoder and the uncompressed audio data output from the sub audio decoder (superimposes the sound) and outputs the result to a speaker or the like.
  • the image processor 129 decodes the graphics data (PNG / JPEG) transferred from the program execution unit and outputs it to the image plane according to the display time designated by the program execution unit.
  • the color extension compatible video decoder includes TB131, MB132, EB133, TB134, MB135, EB136, compressed video decoder 137, buffer switch 138, DPB139, and picture switch 124.
  • the first TB (Transport Buffer) 131 is a buffer that temporarily accumulates TS packets as they are when TS packets including the Base video stream are output from the first PID filter 122a.
  • the first MB (Muliplexed Bufffer) 132 is a buffer for temporarily storing PES packets when outputting the Base video stream from the TB 131 to the EB 133.
  • the TS header of the TS packet is removed.
  • the first EB (Elementary Buffer) 133 is a buffer in which a video access unit in an encoded state is stored. When data is transferred from the MB 132 to the EB 133, the PES header is removed.
  • the first TB (Transport Buffer) 134 is a buffer that temporarily accumulates TS packets as they are when TS packets including an enhancement video stream are output from the second PID filter 122b.
  • the first MB (Muliplexed Bufffer) 135 is a buffer for temporarily storing PES packets constituting the enhancement video stream when outputting the enhancement video stream from the TB 134 to the EB 136.
  • the TS header of the TS packet is removed.
  • the first EB (Elementary Buffer) 136 is a buffer in which the video access unit of the enhancement video stream in the encoded state is stored. When data is transferred from the MB 135 to the EB 136, the PES header is removed.
  • the compressed video decoder 137 creates a frame / field image by decoding each video access unit of the video elementary stream at a predetermined decoding time (DTS). Since there are MPEG2, MPEG4AVC, VC1 and the like in the compression encoding format of the video stream multiplexed on the AV clip, the decoding method of the compressed video decoder 137 is switched according to the stream attribute.
  • the compressed video decoder 137 transfers the decoded frame / field image to the DPB 139, and transfers the corresponding frame / field image to the picture switch at the display time (PTS) timing.
  • the buffer switch 138 transfers the pictures stored in the first EB and the second EB to the compressed video decoder 137 at the decoding time (DTS) timing assigned to the video access unit. Further, it may be determined whether the next access unit is to be extracted from the first EB or the second EB by using the decode switch information acquired when the compressed video decoder 137 decodes the video access unit.
  • DTS decoding time
  • DPB (Decoded Picture Buffer) 139 is a buffer for temporarily storing decoded frame / field images.
  • the compressed video decoder 137 decodes a video access unit such as a P picture or B picture subjected to inter-picture prediction encoding, it is used to refer to the already decoded picture.
  • the plane memory set includes a small-screen video plane 141, a PG plane 142, an IG plane 143, an image plane 144, and a color depth extension plane 145.
  • the child screen video plane 140 outputs picture data for child screen video obtained by decoding the child screen video stream from the system target decoder 104.
  • the PG plane 141 stores graphics data obtained by decoding the presentation graphics stream from the system target decoder 104.
  • IG plane 142 graphics data obtained by decoding the interactive graphics stream from the system target decoder 104 is stored.
  • the image plane 143 stores image data output from the system target decoder 104.
  • the color depth extension plane memory 144 stores an uncompressed picture in two allocations, an allocation that can store picture data composed of 8-bit gradation values and an allocation that can store picture data composed of 12-bit gradation values.
  • the plain memory is allocated in the former case when the current mode is set to the normal playback mode.
  • the latter allocation is set when the current mode is set to color depth extension.
  • FIG. 36 shows an example of the contents stored in the color depth extension plane.
  • the storage areas of the memory are drawn in a lattice pattern.
  • Each of these lattices means each of the memory elements of the memory.
  • the plain memory is composed of dynamic RAM such as SD-RAM and RD-RAM
  • these storage elements are specified by the ROW address that is the page area in the dynamic RAM and the COLUMN address that is the relative address of the storage element in the page area.
  • Each storage element has a word length of 32 bits. Therefore, the gradation bit string of the pixel component of each pixel constituting the picture is collectively stored in a plurality of storage elements in the page area.
  • a memory controller is connected to the plane memory, and the memory controller plays a role of converting (x, y) coordinates on the screen into addresses to ROW addresses and COLUM addresses of the storage elements.
  • the above-mentioned pixel components include types such as luminance Y, red difference Cr, and blue difference Cb.
  • common pixel components in a plurality of pixels such as a luminance component of a plurality of pixels and a red difference component of a plurality of pixels are used. Are stored in the same page area.
  • FIG. 36 (a) shows the color depth extension allocation.
  • pixel data composed of 12-bit luminance Y, 12-bit red difference Cr, and 12-bit blue difference Cb is stored in a scale of 1920 ⁇ 1080 and 1280 ⁇ 720. It will be.
  • (B) shows the allocation of non-color depth extension. In this allocation, an 8-bit gradation bit string in a picture of the Base video stream is stored. In the color depth extension mode, the bit length increases from 24 bits to 36 bits, so that the size of the plane memory is 1.5 times larger.
  • the system target decoder has an internal configuration that uses MPEG-4MVC as a video codec for color depth extension.
  • MPEG-4MVC Multiview Video Coding
  • MPEG-4MVC Multiple View Video Coding
  • An MPEG-4MVC video stream consisting of an MPEG-4MVCBase video stream and an MPEG-4MVC Non base video stream is input to an MPEG-4MVC decoder and output as an 8-bit Base picture and an 8-bit Enhancement picture. Entered.
  • FIG. 37 is a diagram showing an internal configuration of the plane synthesis unit.
  • the plane adders 144a, b, c, and d crop the metadata of the small-screen video plane, the PG plane, and the IG plane, combine them with the color depth extension plane, and transfer them to the image plane superimposition process.
  • the cropping unit 146a, b, c crops the uncompressed picture data stored in the plane based on the metadata, and the cropping unit 146d that crops the graphics data stores the uncompressed graphics data stored in the plane based on the program API. Cropping.
  • the adders 147a, b, c, d combine the planes.
  • Shift circuits 148a, b, c, and d expand the pixels of the small-screen video plane, PG plane, IG plane, and image plane from 8 bits to N-bit gradation. By extending the gradation of these pixels to N bits, it is possible to synthesize with picture data expanded to N bits.
  • FIG. 38 shows an example of the internal configuration of the color depth extension unit 24 when applied to a playback apparatus.
  • the color depth extension unit 24 includes a first shift circuit 32 that converts a picture of an 8-bit Base video stream into an 8 + b bit picture, and a subtraction unit 34 that subtracts a correction value from the 8-bit Enhancement picture.
  • An addition unit 35 that adds the bit base picture and the subtraction result of the subtraction unit 34, and a second shift circuit 36 that shifts the addition result of the addition unit 35 by the shift amount b to obtain an N-bit picture.
  • FIG. 39 shows an example of the internal configuration of the color depth extension unit 24 when the variation in the first embodiment is applied.
  • the color depth extension unit 24 encodes a first shift circuit 32 that converts a picture of an 8-bit Base video stream into a picture composed of an 8 + b-bit gradation bit string, and subtracts a correction value from the 8-bit Enhancement picture.
  • an addition unit 35 for adding the results.
  • FIG. 40 shows a playitem playback procedure.
  • Step S201 is a determination as to whether or not the current output mode is the color depth extension mode. If the current output mode is the non-color depth extension mode, steps S203 to S206 are executed.
  • step S203 the stream file specified by “XXXXX” described in Clip_Information_file_name of the current play item and the extension “m2ts” is opened.
  • step S204 the entry point corresponding to the packet ID of the video stream is opened. Is used to convert the current PlayItem.In_Time and the current PlayItem.Out_Time into Start_SPN [i] and End_SPN [i].
  • step S205 an extent belonging to the read range [i] for reading the TS packet [i] of the packet ID [i] from Start_SPN [i] to End_SPN [i] is specified, and in step S206, the read range [i] The drive of the recording medium is instructed to continuously read the extents belonging to.
  • step S301 If the current output mode is the color depth extension mode, the process proceeds to a loop from step S301 to step S308.
  • step S301 the stream file specified by “XXXXX” described in Clip_Information_file_name of the current play item and the extension “ceif” is opened.
  • step S302 the current PlayItem.In_Time and the current PlayItem.Out_Time are converted to Start_SPN [i] and End_SPN [i] using the basic entry map corresponding to the Base video stream.
  • step S303 SubPlayItemIn_Time and SubPlayItemOut_Time are converted to Start_SPN [j] and End_SPN [j] using the extension entry map corresponding to the enhancement video stream (step S304).
  • step S305 The extent belonging to the read range [i] for reading the TS packet [i] constituting the Base video stream from Start_SPN [i] to End_SPN [i] is specified (step S305), and the TS packet [1] with the packet ID [j]
  • step S306 The extent belonging to the read range for reading j] from Start_SPN [j] to End_SPN [j] is specified (step S306).
  • step S307 the extents belonging to the reading ranges [i] and [j] are sorted in ascending order of the addresses, and the extents belonging to the reading ranges [i] and [j] are continuously used by using the addresses sorted in step S308. Instruct the drive to read automatically.
  • step S309 the ATC sequence for Base video and the ATC sequence for Enhancement video are respectively restored and sent to the PID filter for Base video and the PID filter for Enhancement video.
  • FIG. 41 shows the ATC sequence restoration procedure.
  • the ATC sequence for Base video is ATC sequence 1
  • the ATC sequence for enhancement video is ATC sequence 2.
  • the variable x is initialized to 1. This variable x indicates the enhancement data block and the base data block. Thereafter, the loop from step S94 to step S96 is repeated.
  • step S93 It is determined whether or not the source packet number bx indicated by the variable x is the source packet number bn indicated by the last numerical value n of the Base data block (step S93). If not, the source packet number From the source packet (bx + ax) indicated by bx + ax to the packet immediately before the source packet (bx + 1 + ax) indicated by bx + 1 + ax is added to the ATC sequence 2 (step S94), and the source packet (bx + 1 + ax) Until the packet immediately before the source packet (bx + 1 + ax + 1) is added to the ATC sequence 1 (step S95) and the variable x is incremented (step S96) until step S93 is determined as Yes. repeat.
  • step S93 If the determination in step S93 is Yes, (number_of_source_packet2-bn) source packets from the source packet number bn are added to the ATC sequence 2 (step S97), and (number_of_source_packet1-an) source packets from the source packet number an Is added to the ATC sequence 1 (step S98).
  • a file entry indicating the first LBN and the continuous length of the Base data block in the number of sectors is generated on the memory, and the file Base is virtually opened (step S99).
  • a file entry indicating the start LBN and the continuous length of the enhancement data block in the number of sectors is generated on the memory, and the file enhancement is virtually opened (step S100).
  • FIG. 42 shows an example of the internal structure of the index table.
  • FIG. 42A shows a combination of each of a plurality of titles and an identifier of a program file to be processed when the title becomes a current title number.
  • the identifiers of n + 2 color depth extension compatible program files are associated with n + 2 titles.
  • a program suitable for color depth extension is activated in accordance with the title selection.
  • FIG. 42 (b) schematically shows processing by the extended function program.
  • the first level of (b) shows the setting of the playback mode in the player status register, the extended function corresponding program, and the extended function capability register in association with each other.
  • the second level shows a color depth extended playlist and an mpls playlist.
  • Arrows ins1 and 2 schematically indicate a play list reproduction instruction by the program.
  • the extended function compatible program refers to the playback mode and the register, and selectively plays back two playlists, so that the combination of the Base video stream and the Enhancement video stream becomes the color depth extended playlist. Will be played back properly.
  • FIG. 43 is a flowchart showing the processing procedure of the color depth extension program.
  • step S31 the GPRM stored value corresponding to the extended function to be executed first is extracted, and in step S32, it is determined whether or not the stored value indicates capability. If the capability is indicated, playback of the playlist specifying the color depth extended interleaved stream file is started in step S34. When the capability is not indicated, playback of the playlist specifying the m2ts stream file is started.
  • step S35 an extended function menu is displayed, and in step S36, the user waits for an extended function selection. If selected, the GPRM value corresponding to the selected extension function is extracted, and it is determined in step S38 whether the value indicates capability. If the capability exists, playback of the playlist specifying the color depth extended interleaved stream file is started in step S40. If the capability does not exist, playback of the playlist specifying the m2ts stream file is started in step S39.
  • the program of the program file selects and plays back the color depth extended interleaved stream file, so the extended function capability exists in the playback device. Only in the case where the color depth expansion compatible playlist is reproduced, if the capability does not exist, a normal playlist is selected and reproduced.
  • the recording method according to the present embodiment creates an AV file that is a stream file and a non-AV file that is a file other than a stream file in real time when an original image having N gradation bits is input. It can be realized as real-time recording in which data is directly written in the AV data recording area and the non-AV data recording area. Not only that, but pre-formatting to create an entire image of the bitstream to be recorded in the volume area in advance, create a master disk based on this bitstream, and press this master disk to mass-produce the optical disk. Includes recording.
  • the recording medium according to the present embodiment is also specified by a recording method using real-time recording and a recording method using preformat recording.
  • the recording apparatus that executes the recording method creates an AV clip in real time and writes it on a Blu-ray-WriteOnce disc, a Blu-ray Rewritable disc, and an AVC-HD disc.
  • the recording device that performs real-time recording is a camera device that captures images using optical devices and obtains original image data expressed in N-bit gradation, and encodes N-bit original image data
  • a stream generation unit that obtains a combination of a Base video stream and an enhancement video stream, an audio encoder that encodes an audio signal to obtain an audio stream, a video stream, an audio stream, etc.
  • Blu-ray WriteOnce disc that stores the MPEG2 digital stream converted into the source packet format in the AV clip file, the source packetizer that converts the TS packets that make up the MPEG2-TS format digital stream into source packets , Blu-ray Rewritable disc, AVC-HD
  • a writing unit for writing to a disk or the like and a control unit are included.
  • the control unit of the recording apparatus performs processing for generating clip information and playlist information on the memory. Specifically, when a recording process is requested by the user, the control unit creates the AV clip stream file and clip information file on the Blu-ray-WriteOnce disc, Blu-ray Rewritable disc, and AVC-HD disc.
  • the control unit of the recording device determines the PTS of the intra picture located at the head and the packet number of the source packet storing the head part of the GOP in this GOP. Acquired, and this set of PTS and packet number is added to the entry map of the clip information file as a set of EP_PTS entry and EP_SPN entry.
  • the stream attribute information in the clip information file is set according to the stream attribute to be recorded. If AV clips and clip information are generated and written to Blu-ray WriteOnce discs, Blu-ray Rewritable discs, and AVC-HD discs as described above, the playback path is set via the basic entry map in this clip information. Create playlist information to be defined and write to Blu-ray WriteOnce disc, Blu-ray Rewritable disc, AVC-HD disc. By executing such processing in the real-time recording technology, a hierarchical structure of AV clip-clip information-playlist information is obtained on Blu-ray WriteOnce disc, Blu-ray Rewritable disc, AVC-HD disc at the time of shooting. be able to.
  • the above is a recording apparatus that executes a recording method by real-time recording. Next, a recording method by preformat recording will be described.
  • the recording method by preformat recording is an optical disc manufacturing method in which the recording device performs the authoring process.
  • the recording device that executes the authoring process consists of an N-bit original image, an import unit that inputs video material, audio material, subtitle material, and menu material for small-screen video, and an N-bit original image.
  • a stream generator that creates a Base video stream and an enhancement video stream, a sub-screen video encoder that encodes video material of a sub-screen video, an audio encoder that encodes audio material, and a PG generator that creates a PG stream from subtitle material
  • An IG generator that creates an Interactive Graphics stream from menu material, a storage for classifying and storing various generated streams on the file system, and a demultiplexer that obtains a transport stream by multiplexing the various generated streams Multiplexer and user pair
  • a reproduction structure of the data to be recorded on the Blu-ray ReadOnly disc and a authoring unit to create a volume image in Blu-ray ReadOnly disc based on this.
  • the storage is a network drive in a local network, and a video stream, an audio stream, etc. are stored as files in a predetermined directory structure of these storages.
  • the encoder is a server computer in the local network, accesses the storage as described above through the local network, and reads various streams and writes transport streams.
  • Files that store N-bit gray scale original images, video streams, audio streams, subtitle streams, transport streams, etc. in each storage in the local network are visually represented by icons, thumbnails, etc. in the GUI.
  • the user performs drag operation, drop operation, and click operation on icons and thumbnails displayed on the GUI of the user interface, so that an N-bit grayscale original image, video stream, audio stream, subtitle stream, transport stream
  • a copy operation, a delete operation, and other editing operations can be executed.
  • FIG. 44 shows an optical disk recording method.
  • FIG. 5A is a flowchart showing a recording method by preformat recording.
  • the optical disc manufacturing method includes an authoring step, a signature step, a media key acquisition step, a media key encryption step, a physical formatting step, an identifier embedding step, a mastering step, and a replication step.
  • the authoring step S201 creates a bit stream representing the entire image of the volume area of the optical disc.
  • AACS ⁇ LA is an organization that manages licenses related to copyright protection technology for next-generation digital home appliances.
  • the authoring site that authors an optical disc using the authoring device and the mastering site that performs mastering using the mastering device receive a license from AACS-LA. It also manages media keys and invalidation information. Then, a part of the bit stream signed from AACS LA is acquired.
  • Media key acquisition step S203 acquires a media key from AACS LA.
  • a unique media key is not always used, and a new one is updated when the number of optical discs manufactured so far reaches a certain number.
  • By updating the media key it is possible to exclude a specific manufacturer or device, and even if the encryption key is broken, it can be invalidated by using the invalidation information.
  • Media key encryption step S204 encrypts the key used for encryption of the bitstream using the media key acquired in the media key acquisition step.
  • Physical format step S205 executes physical formatting on the bitstream.
  • identifier embedding step S206 a unique identifier that cannot be detected by a general device is embedded in the bit stream recorded on the optical disc as a digital watermark. This can prevent mass production of pirated copies due to unauthorized mastering.
  • Mastering step S207 creates an optical disc master.
  • a photoresist layer is formed on a glass substrate, and the photoresist layer is exposed to a laser beam so as to correspond to a desired groove or pit, and is subjected to development processing.
  • This groove or pit represents each bit value of the 8-16 modulated bit stream.
  • an optical disc master is manufactured based on the photoresist in which irregularities corresponding to grooves and pits are formed by such laser cutting.
  • Replication step S208 mass-produces an optical disc that is a duplicate of the master disc of the optical disc.
  • FIG. 5B shows a case where a general user does not mass-produce an optical disc, but a general user uses a PC to record various files described in the above embodiments on a BD-R, BD-RE, etc.
  • the processing procedure of the recording method by format recording is shown.
  • the recording method according to FIG. 4B does not have a physical format (step S205), mastering (step S207), and replication (step S208). Instead, a writing process of each file is performed. (Step S209) exists.
  • FIG. 45 is a flowchart showing the processing procedure of the authoring process.
  • reel sets for the main TS and sub-TS are defined.
  • a “reel” is a file that stores data that is the material of an elementary stream, and exists in a drive on a local network in the authoring system. These reels are images captured by camera devices, audio recorded at the time of shooting, audio recorded afterwards, subtitles for each language, and menu data.
  • a “reel set” is a group of links to a material file that represents a set of elementary streams to be multiplexed in one TS.
  • a reel set is defined for each of the main TS and sub-TS.
  • step S102 the prototype of the play item and the sub play item is defined, and the reproduction order of the play item and the sub play item is defined, thereby defining the prototype of the main path and the sub path.
  • the definition of the prototype of the play item is made by accepting designation of a reel that should be permitted to be reproduced in the play item and designation of In_Time / Out_Time through the GUI in the planar output mode.
  • the definition of the prototype of the sub play item is made by accepting, via the GUI, designation of a reel that should be permitted to be played back by the play item corresponding to the sub play item and designation of In_Time / Out_Time in the color depth extension mode. .
  • Specified reels that should be allowed to be played back consist of a GUI that checks the check box for the material file links in the reel set that should be allowed to play. At this time, a numerical value input field is displayed in association with each reel. Then, the priority order for each reel is received by this numerical value input field, and this is set as the priority order corresponding to the reel.
  • a stream selection table and an extended stream selection table are generated from the above-described reel settings that should be permitted to be reproduced and priority settings.
  • In_Time and Out_Time are specified on the GUI by displaying the time axis of the Base video stream or the enhancement video stream as a graphic, and moving the slide bar along the graphic time axis to set the position of the slide bar.
  • the recording apparatus executes the process of accepting from the user.
  • the definition of the play order of the play item and the sub play item is displayed on the GUI by displaying the picture of the play item In_Time as a thumbnail, and the recording apparatus accepts an operation of setting the play order for the thumbnail from the user.
  • a plurality of elementary streams are obtained by encoding the material file specified by the reel set.
  • a process of generating a Base video stream and an Enhancement video stream from the original image is realized.
  • the plurality of elementary streams include a Base video stream and an enhancement video stream, and an audio stream, a PG stream, and an IG stream to be multiplexed with the Base video stream and the enhancement video stream.
  • step S104 one main TS is obtained by multiplexing, with the Base video stream, the same element belonging to the same reel set as the Base video stream among the elementary streams obtained by encoding.
  • step S105 one sub-TS is obtained by multiplexing the elementary streams obtained by encoding that belong to the same reel set as the enhancement video stream with the enhancement video stream.
  • step S106 a prototype of the clip information file is generated based on the parameters set during encoding and multiplexing.
  • step S107 play item information and sub play item information are generated based on a prototype of the play item, and main path information and sub path information are generated by defining a playback order in these play item information and sub play item information. Then, play list information is defined.
  • the play item is set to be playable in the elementary stream multiplexed in the main TS, which is specified to be played in the planar view output mode in the basic structure of the play item.
  • a stream selection table is generated in the information.
  • In_Time and Out_Time defined in the editing operation described above are described in the play item information in order to define the playback section in the Base video stream.
  • the elementary stream multiplexed in the sub TS is set to be playable so as to be set to be playable in the basic structure of the play item that should be played in the color depth extension mode.
  • An extension stream selection table is generated in the extension data of the list information. Since the play item information and the sub play item information are defined based on the information in the clip information file, they are set based on the prototype of the clip information file.
  • step S108 the main TS, sub TS, clip information file prototype, and playlist information prototype are converted into a directory file group according to a predetermined application format.
  • main TS, sub TS, clip information, play item information, and sub play item information are generated, main TS and sub TS are converted into independent stream files, and clip information is clip information.
  • clip information is clip information.
  • FIG. 46 shows the processing procedure of the AV file writing process.
  • AV file writing is realized by the flowchart of this figure.
  • step S401 xxxxx.ceif is created to create a file entry on the memory of the recording device.
  • step S402 it is determined whether or not an empty continuous sector area can be secured. If it can be secured, in step S403, the source packet sequence constituting the enhancement data block is set to EXT2 [i] in the empty continuous sector area. Only step S404 to step S408 are executed. If it cannot be secured, an exception process is performed in step S409, and then the recording method is terminated.
  • Steps S404 to S408 constitute a loop in which the processes of Steps S404 to S406 and Step S408 are repeated until Step S407 is determined to be No.
  • step S405 only EXT1 [i] writes the source packet sequence constituting the Base data block in the empty continuous sector area.
  • step S406 the start address in which the source packet sequence is written and the allocation identifier indicating the continuous length are added to the file entry and registered as an extent.
  • extent start point information indicating the head source packet number of the written source packet sequence is added to the metadata in the clip base information and the clip enhancement information.
  • Step S407 defines a loop termination condition, and determines whether or not an unwritten source packet exists in the Base data block and the Enhancement data block. If it exists, the process proceeds to step S408 to continue the loop. If it does not exist, the process proceeds to step S410.
  • Step S408 is a determination as to whether or not there is a continuous sector area. If it exists, the process proceeds to step S403, and if it does not exist, the process returns to step S402.
  • step S410 xxxxx.ceif is closed and the file entry is written to the recording medium.
  • step S411 xxxxx.m2ts is created, and a file entry of xxxxx.m2ts is generated in the memory.
  • step S412 an allocation descriptor indicating the start address and the continuous length of the Base data block that is unique in the file 2D is added to the file entry of xxxxx.m2ts.
  • step S413 xxxxx.m2ts is closed and a file entry is written.
  • a player that can reproduce only a video having a color depth of 8 bits for each color and a player that can reproduce a color depth that exceeds 8 bits are discriminated at the navigation level. Select an appropriate stream from, and play it.
  • a conventional 8-bit video stream is played back on a conventional device, and a player supporting a color depth exceeding 8 bits is played back using a conventional 8-bit video stream and an enhancement video stream for color depth extension. It is possible to restore and reproduce the color depth of the original image.
  • the third embodiment relates to capability determination of an extended function that applies color depth extension.
  • the content creator can define various extension functions. These extensions include content provider and content creator logos with extended color depth, menus for privileged functions with extended color depth, and setup menus with extended color depth. There is something to display. In particular, the logo display by extending the color depth strongly impresses the corporate brand, and there is a strong demand for higher image quality.
  • the extended functions as described above are defined by and brought from the content creator, and all playback devices manufactured by the manufacturer support all of these extended functions. Impossible.
  • the reproduction device manufactured by the manufacturer has various variations such as ones with high or low specifications, one integrated with a display device, etc. Even if it has a color depth extension part, In some cases, the extension created by the content creator cannot be supported. Therefore, as an agreement between the content creator and the manufacturer, the manufacturer side clearly indicates the capability of the extended function by using the player variable in the playback device.
  • the object of the invention described in the third embodiment (hereinafter referred to as the present invention) is to provide a playback device that does not consume a reserved area for player variables when determining whether or not an extended function can be supported.
  • the playback device in the aspect reads the setting table indicating the capability setting of the extended function between the time when the recording medium is loaded and the time when the index is read.
  • An initial value described in the setting table is set in a register indicated in the setting table.
  • two or more general-purpose register numbers are associated with a plurality of extended functions, and the playback device uses general-purpose registers specified by two or more consecutive general-purpose register numbers in the setting table. It is desirable to set a predetermined initial value in the target register. This is a low-level conceptualization that avoids "more false detection" described later.
  • GPRM general parameters
  • GPRM general parameters
  • GPRM general parameters
  • GPRM is generally reserved as a part of the memory in the player, and a program composed of a series of command groups, usually called navigation commands, is used to temporarily hold necessary numerical values.
  • navigation commands a program composed of a series of command groups, usually called navigation commands
  • FIG. 47 is a diagram showing a storage format of the extended function capability in a table format.
  • the storage method in FIG. 47 (a) is to associate the GPRM number of the setting destination and the set value with each of a plurality of types of extended functions.
  • the types include functions 1, 2, and 3.
  • the function 1 is associated with GPRM number 123 and a numerical value of 0x12345678.
  • the function 2 is associated with the GPRM number 456 and the numerical value 0x87654321.
  • the device specific processing unit 114 when the extended function 1 indicates color depth extension, when a disc is loaded in a player device corresponding to the extended function determination file, the device specific processing unit 114 first reads the extended function determination file before starting playback, When the player is compatible with the extended function 1, the device specific processing unit 114 sets the setting value 0x12345678 indicated as the setting value in the GPRM 123 indicated by the setting GPRM. If the player does not support the extended function 2, the device specific processing unit 114 does not set a value in the GPRM 456.
  • the disc After the disc is inserted into the player in this way, it is specified by the extended function determination file between the time when the index table is read and the execution of the first program specified by the title number of the first play title in the index table is started.
  • Set the specified value in the GPRM By doing this, after starting playback (after starting the execution of the above-mentioned program), confirm the GPRM value that may have been set by a program consisting of navigation commands and JAVA scripts.
  • GPRM is a memory that is secured as a temporary area to hold variables necessary for the program, so the value at the time of disk insertion is not always initialized to zero.
  • FIG. 47B is a diagram showing a storage format of the extended function capability in a table format.
  • the storage method in this figure is to associate two GPRM numbers and two setting values with each of a plurality of types of extended functions.
  • the extended function types include functions 1, 2, and 3. Of these functions, function 1 corresponds to GPRM number 123, 0x12345678, 999 GPRM, and 0x33112352. You can see that it is attached.
  • the function 2 is associated with the GPRM number 456, the numerical value 0x87654321, the GPRM number 246, and the numerical value 0x43756947.
  • two lines indicating the extended function 1 are continuous, but it is desirable that these are continuous.
  • the setting (GPRM456) of the extended function 2 follows the line (second line) next to the first line of the extended function 1 (setting GPRM123), followed by the setting of the extended function 1 (GPRM999) again. In this case, it is because the player cannot determine how many lines can be set for all GPRMs necessary for setting the extended function 1.
  • the player sets 0x12345678 in the GPRM 123, but when the extended function determination file indicating the storage method 2702 is read. If the player is compatible with the extended function 1, set the GPRM 123 to 0x12345678, set the GPRM 999 to 0x33112352, and the program for determining whether the extended function 1 is compatible can see both the GPRM 123 and the GPRM 999. Therefore, it becomes possible to avoid the erroneous detection and to determine whether or not to deal with it.
  • the player uses the GPRM number and setting value as they are, for example, a specific calculation is performed on the value described in the setting GPR indicated in the extended function determination file, or the hash value
  • the calculated value may be the GPRM number to be set, and for the setting value, for example, a 128-bit setting value is described, a hash value is calculated to calculate a 32-bit numerical value, and this is set in GPRM. May be.
  • FIG. 48 is a flowchart showing a processing procedure for setting the GPRM after the disc medium is inserted into the player and before playback is started.
  • the player reads the extended function determination file (S401).
  • the extended function determination file is processed in order. Specifically, it is determined whether or not the extension function described in the extension function determination file is supported by the player. If it is supported, the GPRM specified in the extension function determination file is added to the GPRM function file. Set the specified value. This process is performed until all the extended functions described in the extended function determination file are determined (S402, S403, S404).
  • the fourth embodiment is an application of the above-described mechanism for extending the color depth, and specifically aims to more effectively replace a part of the parent screen video.
  • FIG. 49 shows an example of an assumed application.
  • face replacement indicates that the main character such as a movie is replaced with another actor, or that the viewer captures the face of the main character taken from the camera.
  • Replace signboard indicates an application that replaces a signboard appearing in a movie for each country where the signboard is viewed, or replaces depending on a sponsor.
  • a child screen video is prepared for the parent screen video, and the child screen video is superimposed on the parent screen video.
  • FIG. 50 shows a picture-in-picture image realized by superimposing the child screen video on the parent screen video.
  • the sub screen video uses the same resolution video as the main screen video.
  • the child screen video is compressed as a video stream up to a portion that does not need to be replaced with respect to the parent screen video even though only a part of the parent screen video is to be replaced as shown in the application example. Therefore, a new problem arises that the amount of data required for the small-screen video increases as compared with the case where the conventional small-screen video with SD resolution is used.
  • An object of the present invention is to provide an encoding method that enables switching between a normal moving picture and a picture-in-picture moving picture without increasing the data amount of the small-screen video.
  • the encoding method in the aspect is An encoding method comprising: A first encoding step of generating a base video stream by performing an encoding process on an original image; Each picture data includes a second encoding step for generating a picture-in-picture video stream composed of picture-in-picture data.
  • picture-in-picture data a part of a picture screen area in the base video stream is a sub-screen area.
  • the second encoding step performs inter-picture predictive encoding processing
  • the pixel block located in the screen area excluding the portion replaced with the child screen area is encoded by inter-picture predictive encoding processing using only individual picture data in the base video stream as a reference image. It is characterized by that.
  • the picture data of the picture-in-picture video stream exists intermittently on the playback time axis of the base video stream,
  • Each picture data constituting the base video stream preferably includes a presence / absence flag indicating whether or not there is picture data of a picture-in-picture video stream to be reproduced at the same time point on the reproduction time axis.
  • processing for the picture-in-picture video stream can be frozen, so that an underflow of the buffer on the picture-in-picture video stream side can be avoided.
  • the decoding method in the aspect is A decryption method comprising: A first decoding step of obtaining uncompressed picture data by decoding a base video stream; A second decoding step including obtaining picture-in-picture data by decoding a picture-in-picture video stream, For picture-in-picture data, inter-picture prediction motion compensation using only individual picture data in the base video stream as a reference image is performed on pixel blocks located in the screen area excluding the child screen area.
  • the picture data of the picture-in-picture video stream exists intermittently on the time axis of the base video stream, Each picture data in the base video stream includes a presence / absence flag indicating whether or not there is picture data of a picture-in-picture video stream to be reproduced at the same time on the time axis, In the second decoding step, it is desirable to switch whether to freeze the processing for the picture-in-picture video stream based on the presence / absence flag.
  • the processing for the picture-in-picture video stream can be frozen, so that a reference picture existing in the decoded data buffer of the picture-in-picture video stream can be used for subsequent processing. It becomes possible.
  • the pixel block is a group of pixels having a predetermined number of horizontal pixels and a predetermined number of vertical pixels.
  • a macro block that is a group of pixels of horizontal 32 pixels ⁇ vertical 32 pixels is used as the pixel block.
  • FIG. 51 shows an example of the internal configuration of an apparatus (encoding apparatus) that performs the encoding method according to the present embodiment.
  • the encoding device includes a first video encoder 41 that encodes an original image to obtain a Base video stream, a video decoder 42 that decodes the Base video stream, and a non-decoding obtained by decoding by the video decoder.
  • a second video encoder 44 to obtain.
  • the original image is compressed as a Base video stream by the first video encoder 41.
  • the Base video stream is decoded by a video decoder, and the decoded picture is recorded as a reference picture in a reference picture buffer.
  • the image in which only the face is replaced is input to the second video encoder 44.
  • the second video encoder 44 compresses the image while referring to the reference picture.
  • the advantage of this method is that the reference picture referenced by the second video encoder 44 is the same except for the compression error due to the lossy compression of the first video encoder 41 except for the face to be replaced. In actual compression, only the face part to be replaced is compressed, and the area other than the face only needs to refer to the reference picture.
  • an MPEG-4MVC video encoder may be used as the first video encoder 41 and the second video encoder 44.
  • MPEG-4MVC technology is a compression technology developed to efficiently compress images of the same object viewed from multiple viewpoints, so referencing videos (multiple views) viewed from multiple viewpoints with each other By performing compression, compression can be performed efficiently.
  • an image in which only a face is replaced with respect to the main screen video is considered to compress a plurality of views, it is exactly the same as the main screen video except for a portion to be replaced, and thus extremely efficient. Can be compressed.
  • the reference picture held in the reference picture buffer is a picture decoded after lossy compression, and therefore, there is a high possibility that the lower bits are different compared to the original image (first implementation). 1), the second video encoder 44 performs encoding including the low-order bit error. Therefore, the PinP video stream output by the second video encoder 44 is other than the face to be replaced. In this area, the difference from the reference picture is also encoded, so that it is closer to the original image, that is, has higher image quality.
  • a secondary object of the present invention is to avoid an increase in processing amount caused by full screen encoding.
  • the encoding method in the aspect is In the second encoding step, generation of replacement information including a plurality of flags in generating picture-in-picture data, Each flag in the replacement information indicates whether each of a plurality of pixel blocks obtained by dividing picture-in-picture data constitutes a child screen area in picture-in-picture. .
  • the decoding method in the aspect is In the second decoding step, replacement information composed of a plurality of flags is acquired in decoding a picture-in-picture stream, and in the acquired replacement information, a reference picture is used for a pixel block corresponding to the flag set to ON. Do not perform the inter-picture prediction motion compensation used, For the pixel block corresponding to the flag set to OFF in the obtained replacement information, inter-picture prediction motion compensation using a reference picture is performed.
  • FIG. 52 shows an example of the internal configuration of an encoding device for obtaining a picture-in-picture video stream.
  • FIG. 52 differs from FIG. 51 in that the reference picture recorded in the reference picture buffer is not a picture obtained by decoding the output of the first video encoder but an original picture.
  • the reference picture referred to by the second video encoder 44 is compared with the image in which only the face is replaced, the parts other than the replaced part are matched including the lower bits in pixel units. Therefore, even when compression is performed using a reference picture, the same portion including the lower bits does not need to be encoded at all, and may be recorded as simply referring to the reference picture. It becomes possible to limit to only a part.
  • FIG. 53 shows an example of the internal configuration of the encoding apparatus for performing the compression process shown in FIG. 52 more efficiently.
  • a place to be replaced in the parent screen video is known in pixel units.
  • compression techniques such as MPEG-4MVC, compression processing is performed in units called macroblocks composed of a minimum of 4 ⁇ 4 pixels.
  • the main screen video and the image in which only the face is replaced are divided into macro blocks composed of 4 ⁇ 4 pixels, and the image replaced with only the main screen video is exactly the same in units of 4 ⁇ 4 macro blocks. It is determined whether it is (marked as “0”) or partly different (marked as “1”), and it is held as replacement information as shown in FIG.
  • the replacement image of only the face is compressed by the second video encoder 44, only the macroblock to be replaced (that is, the macroblock marked as “1”) is to be encoded using the replacement information.
  • the other macroblocks may be processed as simply referring to the reference picture.
  • the second video encoder 44 may be configured to encode picture-in-picture data using only replacement information without using a reference picture buffer.
  • the replacement information flag only needs to indicate whether each macro block is in the sub-screen, so the bit width may be 1 bit. Therefore, replacement information can be created as long as (the number of macroblocks existing in picture data) ⁇ 1 bit size.
  • the individual flags in the replacement information are set as follows.
  • the area of the picture plane that is replaced by the small-screen video is defined by the coordinates (x, y) of the screen configuration entry in the metadata and the vertical and horizontal widths of the small-screen area. Therefore, by converting the coordinates (x, y) in the picture plane and the vertical and horizontal widths of the sub-screen area into macroblock addresses, it is possible to clearly indicate where and where the macroblock exists.
  • the macroblock address in the picture plane is expressed by a combination of the slice number to which the macroblock belongs and the serial number of the macroblock in the slice to which the macroblock belongs.
  • the upper left vertex, upper right vertex, lower left vertex, and lower right vertex of the child screen area are obtained from the coordinates (x, y) of the child screen area in the metadata screen configuration entry and the vertical width and width of the child screen area. If this is converted into a macroblock address, a macroblock belonging to the sub-screen area can be specified.
  • the number of the macroblock Start that is a macroblock including the upper left vertex and the number of the macroblock End that is a macroblock including the upper right vertex are obtained.
  • the number of the slice Start that is a slice including the upper left vertex and the number of the slice End that is a slice including the lower right vertex are obtained.
  • the replacement information flag corresponding to the macro block from the macro block Start to the macro block End is set to “1”, a child screen area exists.
  • the macro block is specified by the replacement information.
  • the macro block Start, the macro block End, the slice Start, and the slice End can be calculated as follows using the screen configuration entry in the metadata.
  • the quotient becomes the macro block Start if the x coordinate of this sub screen area is divided by the number of horizontal pixels in the macro block. .
  • the X coordinate of the upper right vertex in the sub-screen area is the coordinate obtained by adding the horizontal width of the sub-screen area to the x-coordinate of the sub-screen area in the screen configuration entry. Dividing by the number of horizontal pixels at, the quotient becomes the macroblock End.
  • the quotient becomes the slice Start if the y coordinate of this child screen area is divided by the number of vertical pixels in the slice.
  • the Y coordinate of the lower right vertex in the sub screen area is the coordinate obtained by adding the vertical width of the sub screen area to the x coordinate of the sub screen area in the screen configuration entry. If the number of vertical pixels in the slice is divided, the quotient becomes the slice End.
  • the unit of replacement information is a macroblock unit, the present invention is not limited to this, and the replacement information may be a pixel unit or one or more rectangular areas.
  • the invention of the encoding method can be implemented on a transmission device that transmits television broadcast content.
  • This TV broadcast content is in 1TS-2VS format.
  • 1TS-2VS format television broadcast content, a transport stream file including a Base video stream and a picture-in-picture video stream is to be decoded.
  • the PinP video stream may be distributed separately via a network.
  • the transport stream including the Base video stream transmitted by the broadcast wave the transport stream including the picture-in-picture video stream, or the URL indicating where the MP4 file or the like is stored on the network, etc. It is desirable that information (PinP video stream location information) is described. More specifically, PinP video stream location information such as the aforementioned URL is recorded in the following location.
  • Header in Base Video Stream or PinP Video Stream PinP video stream location information can be recorded in a header in the Base video stream or PinP video stream.
  • PinP video stream location information for each frame / field PinP video stream location information for a plurality of frames / fields may be held in a GOP head frame.
  • PinP video stream location information may be recorded in a PMT (Program Map Table).
  • PMT Program Map Table
  • PinP video stream location information may be held as one piece of stream descriptor information of a Base video stream or a PinP video stream.
  • PinP video stream location information (1), (2) and (4) are pre-determined units / sections such as video frame units, sections separated by PMT, play item units
  • the PinP video stream location information may be acquired by, for example, navigation or a JAVA command, and the PinP video stream may be acquired according to the acquired PinP video stream location information.
  • PinP video stream location information is provided for each play item or sub play item. Also good.
  • the location where PinP video stream location information is recorded is not limited to the above.
  • PinP video stream location information can be recorded on a server on the Internet, and the device can acquire it as necessary. May be.
  • Picture-in-picture broadcast Broadcast content realized by a combination of these Base video stream and PinP video stream is called “picture-in-picture broadcast”.
  • picture-in-picture broadcasting switching between an original moving image and a moving image in which a part of the video is replaced is realized by selectively reproducing in accordance with a video stream switching operation by the user.
  • FIG. 54 shows an example of the internal configuration of a broadcast apparatus that can implement the invention of the encoding method.
  • an image storage 50 for storing a plurality of parent screen video streams to be a picture-in-picture parent screen video and a child screen video stream to be a picture-in-picture child screen video, and a parent screen video
  • a playback unit 51 that plays back a stream and a small-screen video stream
  • a combining unit 52 that combines the parent-screen video stream and the small-screen video stream according to metadata
  • a PinP image generation unit 53 that receives user operations and creates metadata.
  • a GUI unit 53a that accepts a user operation
  • a multi-view encoding unit that obtains a Base video stream composed of the original image and a PinP video stream composed of the picture-in-picture image by encoding the original image and the picture-in-picture image 54, Base video stream and PinP video stream Comprising stream an audio stream, a multiplexing unit 55 to obtain the transport stream by multiplexing together with subtitle stream, and a sending unit 56 for sending a transport stream obtained by the multiplexing.
  • the multi-view encoding unit includes the first video encoder, the second video encoder, and the reference picture shown in FIGS.
  • a transport stream in 1TS-2VS format television broadcast content is generated by converting a plurality of video streams and a PMT table into a transport stream packet sequence and multiplexing them.
  • This PMT table includes one or more table descriptors and stream information corresponding to each video stream, and each stream information includes a stream type, a packet identifier, and a stream descriptor.
  • Service type information is described in the table descriptor. The service type information indicates whether the broadcast content is a broadcast content that can be switched to a picture-in-picture video.
  • the PinP video stream generation unit realizes picture-in-picture by combining individual pictures in the child screen video stream with individual pictures in the parent screen video stream according to the metadata.
  • the metadata is metadata for picture-in-picture
  • the metadata includes a playback section entry corresponding to one of the playback sections set for the parent screen video stream, and the playback section entry is the parent section. It includes a header including a reference to a playback section set for the screen video stream, and a plurality of screen configuration entries.
  • the multiple screen configuration entries specify the contents of multiple screen configurations to be made during playback of the playback section set for the corresponding parent screen video stream, and each screen configuration entry is a child to be synthesized. Specifies the screen video, the time stamp indicating the timing of one screen configuration, the horizontal and vertical coordinates of the sub-screen video in screen composition, and the horizontal and vertical widths after scaling when scaling the sub-screen video To do.
  • the designation of the sub-screen video in the metadata entry includes the identifier of the sub-screen video stream and the sub-screen video. This is expressed in combination with the designation of the playback time point on the time axis of the stream.
  • PinP video stream generation unit among the plurality of screen configuration entries in the playback section entry, those having a time stamp corresponding to the current playback time point, in the horizontal position and vertical position, according to the horizontal width and vertical width included in the screen configuration entry Authoring picture-in-picture playback so as to display the enlarged or reduced small-screen video.
  • the PinP video stream generating unit of the playback device includes the horizontal width and vertical position included in the screen configuration entry at a horizontal position and a vertical position having a time stamp corresponding to the current playback time among the plurality of screen configuration entries in the playback section entry.
  • the header in the playback section entry includes a chroma key permission / rejection flag for specifying permission / rejection of chroma key composition by the composition unit, and a chroma key upper limit value.
  • the PinP video stream generation unit performs the processing between the individual picture data constituting the parent screen video stream and the individual picture data constituting the child screen video stream. Perform chroma key composition.
  • the transmissivity is set so that the luminance of the plurality of pixels in the small-screen video is less than the chroma key upper limit of the header in the playback section entry corresponding to the playback section set for the current parent screen video stream.
  • the background portion is treated as a transparent portion so that the parent-screen video can be seen through.
  • FIG. 55 shows a picture in the Base video stream and a picture in the PinP video stream in comparison.
  • This figure (a) is an example of the main screen picture which is a Base video stream
  • this figure (b) is an example of the small picture which is a PinP video stream.
  • the part surrounded by the broken line frame is the small picture and is the part that has been replaced. In this way, an image in which the face portion of the main screen video is replaced is being sent out as a PinP video stream.
  • FIG. 56 shows a plurality of picture data in the Base video stream and a plurality of picture data in the enhancement video stream.
  • the first level is a plurality of pictures in the Base video stream
  • the second level is a plurality of picture data in the enhancement video stream.
  • the pictures in the Base video stream constitute a GOP, and each picture is set to a type of IDR picture, P picture, B picture, and Br picture.
  • Pictures in the PinP video stream are set to types of P picture, B picture, and Br picture.
  • the pixel block of the picture data sub-screen area belonging to the PinP video stream refers to the pixel block of the sub-picture area of other picture data in the same PinP video stream. Permissible.
  • the arrows rp30, rp31, rp32, rp33,... In the figure indicate that the pixel block in the small picture area of the picture data belonging to the PinP video stream is a pixel in the small picture area of the other picture data in the same PinP video stream. Indicates a reference relationship that refers to a block. Rather, with regard to the location of the replacement image, the compression efficiency of the PinP video stream is improved by referring to the previous and subsequent pictures. In other words, it is more desirable to compress the area of the replacement image with reference to the previous and next pictures in the PinP video stream and compress the area other than the replacement image with reference to the Base video stream.
  • the picture-in-picture video stream and the base video stream are composed of the same number of pictures, and the DTS and PTS of each picture in the base video stream and the DTS-PTS of each picture in the enhancement video stream are set at the same time. Is done.
  • the vertical line in the figure indicates that the DTS of the Base video stream and the DTS of the pictures of the enhancement video stream are at the same time.
  • These pictures are assigned picture identifiers in the order of Base video stream picture ⁇ Enhancement video stream picture ⁇ Base video stream picture ⁇ Enhancement video stream picture.
  • the Base video stream is identified by an odd picture identifier
  • the pictures of the enhancement video stream are identified by an even picture identifier.
  • a macroblock is composed of elements such as a macroblock type, a reference picture reference (re_idx), and a motion vector, and a picture to be a reference picture can be specified using the reference picture reference.
  • re_idx reference picture reference
  • a picture to be a reference picture can be specified using the reference picture reference.
  • FIG. 57 shows an example of the internal structure of a picture in the PinP video stream.
  • the picture of this figure shows the example of an image of FIG. 55, and this picture is composed of a plurality of macro blocks.
  • the metadata used by the PinP video stream generation unit for processing editing includes the horizontal and vertical coordinates of the sub-screen video in the screen composition in each screen configuration entry, and the scaled data for scaling the sub-screen video. Since the horizontal and vertical widths are defined, when generating a PinP video stream, it is possible to grasp whether each of the macroblocks constituting the picture in the PinP video stream corresponds to a small-screen video in the picture-in-picture. become. Therefore, when a picture in the PinP video stream is generated, it is determined whether each macroblock in the picture data is within the range of the small-screen video, and this is converted into information in units of macroblocks. Thus, the replacement information can be created.
  • FIG. 58 is a flowchart showing a procedure for generating a PinP video stream.
  • Step S51 sequential picture IDs are assigned to the pictures of the Base video stream and the pictures of the picture-in-picture video stream having the same decoding time and reproduction time.
  • Step S53 defines a loop in which step S54 and step S55 are repeated for each of the slices constituting all the pictures.
  • Step S54 determines whether the slice type is a B picture or an I picture, and step S55 specifies a reference picture from among pictures arranged in the display order in the Base video stream.
  • step S56 the macroblock is encoded using the reference picture thus identified.
  • FIG. 59 shows the processing procedure of the macroblock encoding method.
  • a variable (j) in this flowchart is a control variable for specifying a macroblock to be processed. Therefore, in the following flowcharts, the macro block (j) to be processed in the process of the j-th loop will be described.
  • step S60 the process is repeated for each macro block constituting the slice.
  • step S61 it is determined whether or not the macroblock belongs within the range defined by the upper left coordinates, the vertical width, and the horizontal width of the picture-in-picture. If it belongs, the flag of the macroblock is set to ON in step S62 (step S62), steps S63 to S67 are skipped, and the DCT quantization of the macroblock is executed by moving to step S68.
  • step S69 entropy encoding of the macroblock is performed.
  • step S63 the flag of the macroblock is turned off (step S63), and it is determined whether the slice type is P picture or B picture. If they are different, the process proceeds to step S68. If the slice type is a P picture or a B picture, inter-frame motion compensation is executed for the macroblocks constituting the slice using the picture specified from the Base video stream (step S65). In step S66, the picture reference of the macroblock is set so that only the picture in the Base video stream is assigned to the reference picture.
  • This setting specifies a picture obtained by adding 2m-1 (m is an integer of 1 or more) to its own picture ID as a reference picture, or 2m-1 (m is one or more from its own picture ID) This is done by specifying a picture obtained by subtracting (integer) as a reference picture. Thereafter, the macro block is differentiated in step S67, and the process proceeds to step S68.
  • the necessity of inter-frame motion compensation can be determined at the initial stage of the decoding process.
  • motion compensation is not necessary, pixel blocks are processed together and pixel blocks that require motion compensation can be suitably decoded to decode a PinP video stream, and MVC-SD (MPEG4-MVC It is possible to realize picture-in-picture even with a decoder model that can only process SD image compatible versions).
  • FIG. 60 is a diagram showing an internal configuration of the broadcast content receiving apparatus.
  • the receiving apparatus receives a broadcast wave, a channel selection register 201 that stores channel selection settings in its own apparatus, a video stream number register 202 that stores a current video stream number in its own apparatus, and Receiving section 203 for obtaining a transport stream, extracting TS packets from the transport stream according to the PMT table corresponding to the station setting stored in the channel selection register, and obtaining a video stream, a PinP video stream, an audio stream, and a subtitle stream.
  • a demultiplexing unit 204 a first read buffer 205a for buffering TS packets constituting a video stream, an audio stream, and a subtitle stream; a second read buffer 205b; a base video; Among the streams and the PinP video stream, a system target decoder 206 that decodes one corresponding to the video stream number, a parent screen plane memory 207 that stores picture data obtained by decoding the Base video stream, and a PinP video stream Of PinP plane memory 208 for storing picture data obtained by decoding the image, a switch 209 for switching display contents among the main screen plane memory and the PinP plane memory, and synthesis of picture data and subtitles.
  • Control for performing overall control of the device by setting the channel selection register and the video stream number register in accordance with the combining unit 210, the display unit 211 that displays the combined picture data, and the operation and viewing reservation setting received from the user Part 212 and An operation accepting unit 213 that accepts the operation, a program execution unit 214 that starts an application and executes application signaling with a broadcast service switching as a boundary, and an image memory 215 that stores an image drawn by the application Composed.
  • the register set of the receiving apparatus includes a video stream number register for storing the current video stream number, and the user operates the remote controller key assigned for video switching to set the video stream number to 1. ⁇ 2 ⁇ 1 ⁇ 2
  • FIG. 61 shows an example of the internal configuration of the system target decoder 104 according to the fourth embodiment. This figure has a configuration in which unique components for processing digital broadcast content are arranged around the video decoder unit 23 and the color depth extension unit 24 shown in the first embodiment.
  • the subtitle decoder 304 includes two buffer memories, a coded data buffer and a pixel buffer, and decodes a subtitle stream in the digital broadcast content.
  • the code data buffer stores a graphics object and a text object in an encoded state.
  • the pixel buffer stores uncompressed graphics and uncompressed text obtained by decoding encoded object objects and text objects.
  • the subtitle decoder 107 performs transfer from the pixel buffer to the line memory in accordance with the page composition segment. For this transfer, a list of Regions is defined in the pixel buffer. Region is a region defined on a buffer (Pixel Buffer) in which graphics obtained by subtitle decoding processing (Subtitle Processing) is stored in a subtitle decoder model.
  • the line memory 305 stores uncompressed graphics for a plurality of lines obtained by decoding.
  • the audio decoder 306 performs an audio stream decoder in the broadcast content.
  • first PID filter 122a video decoder unit 123, first transport buffer 131a, second transport buffer 131b, and compressed video decoder 137
  • first transport buffer 131a first transport buffer 131a
  • second transport buffer 131b second transport buffer 131b
  • compressed video decoder 137 compressed video decoder
  • the first PID filter 122a If the current video stream number is “1” when receiving a picture-in-picture broadcast, the first PID filter 122a outputs only the TS video packets that constitute the Base video stream to the video decoder. Then, it is stored in the first TransportTransBuffer 131a. If the current video stream number is “2” at the time of picture-in-picture broadcast reception, the first PID filter 122a outputs only the TS packet existing in the transport stream that constitutes the Base video stream to the video decoder. Then, the TS packet in the first transport buffer 131a is stored, and among the TS packets in the transport stream, those belonging to the enhancement video stream are output to the video decoder and stored in the second transport buffer 131b.
  • the video decoder unit 123 outputs a screen of a video stream corresponding to the current video stream number while inputting two streams of a Base video stream and a PinP video stream. For example, if the current video stream number is “1”, the picture specified by the odd (2m ⁇ 1) picture identifier among the pictures obtained by decoding is used for screen display. When the current video stream number is “2”, a picture of the PinP video stream is selected for display on the screen. Since a picture in the PinP video stream is specified by a 2m picture identifier, the PinP video stream is reproduced by using the picture with the identifier for screen display.
  • the first Transport Buffer 131a stores the TS packet output from the PID filter and provides it for decoding.
  • the second Transport Buffer 131b stores the TS packet output from the second PID filter and provides it for decoding.
  • a series of processing systems from TB 131, MB 132, EB 133 to the compressed video decoder 137 have a master screen video (before replacement).
  • a series of processing systems following TB 134, MB 135, and EB 136 to the compressed video decoder 137 receives a PinP video stream in which a small-screen video (video obtained by replacing only the face) is compressed.
  • the compressed video decoder 137 transfers the decoded frame / field image to the DPB 139, and transfers the corresponding frame / field image to the picture switch 124 at the display time (PTS) timing.
  • Decode picture data of the picture type (IDR type) intended for decoder refresh located at the head of the closed GOP in the Base video stream. In this decoding, all of the coded data buffer and the decoded data buffer are cleared. After decoding the IDR type picture data in this way, the video decoder decodes the subsequent picture data of the Base video stream that has been compression-encoded based on the correlation with the picture data and the picture data of the PinP video stream. . If uncompressed picture data for picture data in the Base video stream is obtained by decoding, the picture data is stored in a decoded data buffer, and the picture data is used as a reference picture.
  • the compressed video decoder uses this reference picture to perform motion compensation on the macroblocks constituting the subsequent picture data of the Base video stream and the macroblocks constituting the picture data of the PinP video stream.
  • the motion compensation processing for each macroblock is to determine the motion prediction mode and the reference frame for each of 16 ⁇ 16, 16 ⁇ 8, 8 ⁇ 16, and direct / skip, and for the B frame, the prediction direction for each mode is determined.
  • the optimum mode is determined from the sub-partition mode, the intra 4 ⁇ 4 mode, and the intra 8 ⁇ 8 mode.
  • the motion search described above is hierarchically performed such as motion search with integer pixel accuracy, motion search with 1/2 pixel accuracy, and motion search with 1/4 pixel accuracy.
  • motion search with integer pixel accuracy a motion vector prediction value is obtained by median prediction, and the search is performed using this as the center of the search.
  • the Base video stream and PinP video stream are each decoded.
  • the macro block picture reference designates only the macro block constituting the parent screen video as the reference picture, the motion block search always searches for the macro block of the parent screen video. Become.
  • the above decoding is performed when the decoding start time indicated in the decoding time stamp of each access unit arrives.
  • the frame / field image thus encoded is transferred to each plane via the picture switch 209.
  • An image obtained by decoding the Base video stream is transferred to the main screen video plane 207, and a video obtained by decoding the Picutrein video picture stream is transferred to the PinP video plane 208.
  • Either the parent screen video plane 207 or the PinP video plane 208 is transmitted to the plane adder 210 via the plane switch 209 according to the plane switching information.
  • the plane switching information is information that determines which of the video in the parent screen video plane and the video in the PinP video plane should be transmitted to the plane adder 210.
  • plane switching information will be described. It is desirable to record the plane switching information in the locations shown in the above (1) to (4).
  • the plane plane switching information in the Base video stream or PinP video stream can be recorded in a header in the Base video stream or PinP video stream. For example, information about which plane is to be output for each frame / field constituting the Base video stream is recorded, and the compressed video decoder 137 includes the PTS assigned to each video frame / field and the parent screen. Which of the stored contents of the video plane 207 and the stored contents of the PinP video plane 208 should be transmitted to the plane adder 210 is input to the plane switch 209 as plane switching information. By doing so, either the stored content of the parent screen video plane 207 or the stored content of the PinP video plane 208 is transmitted to the plane adding unit 210.
  • the plane switching information for a plurality of frames / fields may be held in a GOP head frame.
  • Plane switching information may be recorded in a PMT (Program Map Table).
  • plane switching information may be held as one piece of stream descriptor information of a Base video stream or a PinP video stream.
  • Plane switching information (1), (2), and (4) are only available in predetermined units / sections such as video frame units, sections separated by PMT, and play item units. Although it cannot be switched, it may be switched interactively by navigation or a command by JAVA, for example. That is, the viewer may be able to switch between the main screen video and the image in which only the face is replaced with a remote controller or the like.
  • plane switching information may be held in units of play items or sub play items.
  • the main video plane 301 may be transmitted to the plane adder 210, and in the subsequent play item section, it may be transmitted to the PinP video plane 302.
  • the plane switching information may be recorded in a server on the network so that the device can acquire it as necessary. .
  • the case where the transmission device exists only intermittently means that the transmission apparatus executes intermittent transmission in which the picture data of the PinP video stream is not transmitted for a picture in which a replacement image does not occur in the base video stream. To do. In this case, if there is no information indicating the presence / absence of a PinP picture at any location, an underflow of a buffer (second TB, second MB, second EB as described above) on the video decoder side is caused.
  • a buffer second TB, second MB, second EB as described above
  • the MPEG-defined buffer for the PinP video stream (2nd TB, 2nd EB, 2nd MB) is underlined.
  • the reference picture may be lost during decoding of the PinP video stream or the decoding parameters may be reset.
  • presence / absence information indicating whether or not a picture of the corresponding PinP video stream exists for each picture constituting the Base video stream is inserted in any of the areas (1) to (4) described above. It is desirable to keep it.
  • the presence / absence flag indicating the presence / absence of a picture of the PinP video stream is extracted from the Base video stream or the areas (1) to (4) above, and the flag extracted from the picture data to be reproduced is displayed.
  • the decoding operation for the PinP video stream is frozen while maintaining the buffer state in the video decoder.
  • the video decoder maintains the contents stored in the second TB, the second MB, and the second EB for the PinP video stream, saves the decoding parameters, and omits the processing for the PinP video stream.
  • the decoding operation for the PinP video stream is released from the freeze and immediately before freezing.
  • the decoding operation is continued from the buffer state.
  • FIG. 62 is a flowchart showing a decoding procedure.
  • a variable (i) in this flowchart is a control variable for specifying a picture to be processed. Therefore, in the following flowcharts, the slice (i) to be processed in the process of the i-th loop will be described.
  • a macroblock to be processed in slice (i) is defined as macroblock (j).
  • Step S71 repeats Steps S72 to S77 for each of the slices constituting all the pictures.
  • steps S73 to S77 are repeated for each of the macroblocks constituting the slice.
  • step S73 entropy decoding of the macroblock is performed, and in step S74, DCT inverse quantization of the macroblock (j) is performed.
  • Step S75 is a determination as to whether the flag of the macroblock (j) in the replacement information is on. If it is on, the process proceeds to the next macroblock. If the flag is off, it is determined in step S76 whether the slice type is a P picture or a B picture. If the step is Yes, in step S77, the picture of the Base video stream is used as a reference picture, and the inter-frame motion is determined. Perform compensation.
  • pixel blocks other than the portion of the small-screen video are matched including the lower bits in pixel units. Therefore, even when the main screen video is compressed as a reference picture, the same portion including the lower bits does not need to be encoded, and the macro block in the base video stream is designated as the macro block configuration in the child screen video. All you need is a list of picture references. Since it is possible to limit the target of encoding processing to only the portion of the sub-screen video to be replaced, even a video decoder (MVC-SD video decoder) of a scale that does not assume full HD video playback, It becomes possible to realize picture-in-picture.
  • MVC-SD video decoder video decoder
  • the PinP video stream is created on the transmission device that transmits the broadcast content.
  • the present embodiment relates to an improvement in which the PinP video stream is played on the playback device.
  • the author may create a PinP video stream at the time of disc production and record it on a Blu-ray-ReadOnly disc in advance, or on a server on the network.
  • the player may download an AV stream (PinP video stream) including a PinP video stream from the network during playback.
  • AV stream Peripheral Component Interconnect
  • a PinP video stream is created and recorded by the method of the previous embodiment, and is played back by a playback device.
  • the playback device realizes a process of acquiring a sub-screen video to be replaced and creating a PinP video stream.
  • FIG. 63 shows an example of the internal configuration of the playback apparatus in the fifth embodiment.
  • the improvement in this playback device is that a PinP video stream generating unit 401 that generates a PinP video stream, an AV stream capturing unit 402 that captures an AV stream, and an input changeover switch 403 are present.
  • an AV stream capturing unit is added to acquire a PinP video stream from the network. This captures an AV stream held on a recording medium on the network via the network. And is connected to the first read buffer 102aa or the second read buffer 102b via the input changeover switch 403.
  • the PinP video stream is recorded on a Blu-ray / ReadOnly disc or on the server, but the subsequent processing is the same as described above.
  • a PinP video stream generator is added as a device for replacing the viewer's video.
  • the PinP video stream generator will be described.
  • the PinP video stream generation unit realizes picture-in-picture by combining individual pictures in the child screen video stream with individual pictures in the parent screen video stream according to the metadata.
  • This metadata is configured by a playback section entry corresponding to one of the playback sections set for the parent screen video stream, and the playback section entry is a reference to the playback section set for the parent screen video stream. And a plurality of screen configuration entries.
  • the PinP video stream generation unit performs a process of replacing the face of the main character of the main screen video recorded on the Blu-ray ReadOnly disc with the user's own face to obtain a PinP video stream.
  • FIG. 64 shows details of a PinP video stream generation unit for generating a PinP video stream based on a photograph taken by the user.
  • FIG. 64 shows a memory card reader 61 that reads data from a semiconductor memory card, a network interface 62 that transmits / receives data to / from a network, and a video capture that captures image data to be a main screen video and a sub screen video through them.
  • Unit 63 capture holding memory 64 for storing the captured video, replacement information, replacement target, image generation unit 65 for obtaining a picture-in-picture image using metadata, and encoding a picture-in-picture image obtained by conversion
  • a video encoder 66 that obtains a PinP video stream and a multiplexing unit 67 that generates a transport stream by multiplexing the PinP video stream are included.
  • the photograph taken by the user is recorded on a recording medium such as a memory card or a recording medium on a server on the network. If it is recorded on a memory card, it will be captured by the video capture unit via the memory card reader, and if it is recorded on a recording medium on the server via the network I / F, Retained in memory.
  • a recording medium such as a memory card or a recording medium on a server on the network.
  • the video held in the captured video holding memory is converted as a replacement image by the PinP video stream generation unit. Even if the photograph taken by the user was taken from the front, the main character in the original image to be replaced may be facing a direction other than the front, or the size of the main character may differ depending on the scene. To do.
  • the PinP video stream generator converts the photograph taken by the user using the “replacement object orientation information” so that it is oriented in the direction that matches the video for replacement, and the object to be replaced (this book)
  • the size of the face (face of the main screen video) is different, so processing such as enlargement or reduction is performed based on the replacement information area so that the direction (or size) matches the object (face) to be replaced. .
  • the photograph taken by the user in this way is converted by the PinP video stream generation unit for replacement and input to the second video encoder 44.
  • a PinP video stream is generated by the method described with reference to FIG. 53, and the PinP video stream is multiplexed by a multiplexing unit to generate an AV clip.
  • the macroblock is composed of elements such as a macroblock type, a reference picture reference, and a motion vector.
  • the motion vector field of the macroblock may be used as a flag. In this case, it is not necessary to separately define replacement information, so that the data size can be reduced.
  • ⁇ Encoder implementation> The positive conversion shown in the first embodiment is used when the second video encoder cannot compress image information having a negative value, but is essential when the video compression method can handle even a negative value. is not. Further, regarding the extension of the color depth, the description has been made in consideration of further extending the current 8 bits, but for example, the Base video stream may be 6 bits and the original image may be 8 bits.
  • examples of the video codec used in the first video encoder and the second video encoder include MPEG2, MPEG-4AVC, VC1, and the like.
  • the video codec is not limited to this.
  • the first video encoder is MPEG- Encoding as 4MVC Baseview
  • the second video encoder may encode as MPEG-4MVC Non base view, etc.
  • the first video encoder is MPEG2, the second video encoder is MPEG-4AVC, etc. Codec may be applied.
  • the number of bits represented by N bits indicating the color depth of each color of each pixel of the original image may be the same for all the pictures constituting the original image, or may be different for each picture. In this case, it is desirable to put the number of bits of the original image in the Base video stream or the Enhancement video stream in view of the decoding process described later.
  • the file name of the file recorded in the color depth extension directory for color depth extension is preferably determined based on the following conversion rule. In other words, it is desirable to combine the file body and extension of a file existing in the BDMV directory into a file body character string, and give the extended version (.EXT). For example, if it is 00001.mpls, the file body is converted to mpls00001.ext, and the color depth extended playlist is recorded in the extended version directory with this file name. If it is 00001.m2ts, the file body is converted to m2ts00001.ext, and the color depth extended playlist is recorded in the extended version directory with this file name.
  • Encoding is performed in units of macroblocks, and decoding is also performed in units of macroblocks. Therefore, the pixel of the macroblock is included in the components of the color depth extension unit and the stream generation unit (shift circuit, subtracter, adder, encoder, decoder) shown in the first embodiment and the second embodiment. It is desirable to provide an internal buffer capable of storing a cluster of data, and to store data in the middle of the operation in this internal buffer.
  • the target bit position that is, the most significant bit of the enhancement video stream gradation is indicated as the shift amount as the shift amount for shifting the gradation bit string of the picture of the enhancement video stream. It may be a shift count indicating how many bits should be shifted. If the most significant bit is 6 bits, 2 (6-4) may be indicated as the shift amount.
  • the PinP video stream generation unit has been described as one functional block included in the player as shown in FIG. 64, but the same function may be realized by an application on a server on the network.
  • the user uploads the photographed photo to the server
  • the server-side application generates a PinP video stream from the uploaded photo
  • the player acquires the PinP video stream from the AV stream capturing unit 402, so that the same Application can be realized.
  • the information such as the replacement information in FIG. 65 and the direction information of the replacement target object may be recorded as one of the auxiliary information in the Blu-ray ReadOnly disc or may be stored on a server on the network. good.
  • the drive unit of the recording medium, the external connector, etc. are excluded from the mechanical part, the part corresponding to the logic circuit or the storage element, That is, the core part of the logic circuit may be made into a system LSI.
  • the system LSI is a package in which a bare chip is mounted on a high-density substrate and packaged. By mounting multiple bare chips on a high-density substrate and packaging them, it is called a multichip module that has multiple bare chips with the same external structure as a single LSI. Is also included in the system LSI.
  • system LSIs are classified into QFP (Quad-Flood Array) and PGA (Pin-Grid Array).
  • QFP is a system LSI with pins attached to the four sides of the package.
  • the PGA is a system LSI with many pins attached to the entire bottom surface.
  • pins serve as power supply, ground, and interface with other circuits. Since pins in the system LSI have such an interface role, the system LSI plays the role of the core of the playback device by connecting other circuits to these pins in the system LSI.
  • ⁇ Program embodiment> The program shown in each embodiment can be created as follows. First, a software developer uses a programming language to write a source program that implements each flowchart and functional components. In this description, the software developer describes a source program that embodies each flowchart and functional components using a class structure, a variable, an array variable, and an external function call according to the syntax of the programming language.
  • the described source program is given to the compiler as a file.
  • the compiler translates these source programs to generate an object program.
  • Translator translation consists of processes such as syntax analysis, optimization, resource allocation, and code generation.
  • syntax analysis lexical analysis, syntax analysis, and semantic analysis of the source program are performed, and the source program is converted into an intermediate program.
  • optimization operations such as basic block formation, control flow analysis, and data flow analysis are performed on the intermediate program.
  • resource allocation in order to adapt to the instruction set of the target processor, a variable in the intermediate program is allocated to a register or memory of the processor of the target processor.
  • code generation each intermediate instruction in the intermediate program is converted into a program code to obtain an object program.
  • the object program generated here is composed of one or more program codes that cause a computer to execute each step of the flowcharts shown in the embodiments and individual procedures of functional components.
  • program codes such as a processor native code and JAVA (registered trademark) byte code.
  • JAVA registered trademark
  • a call statement that calls the external function becomes a program code.
  • a program code that realizes one step may belong to different object programs.
  • each step of the flowchart may be realized by combining arithmetic operation instructions, logical operation instructions, branch instructions, and the like.
  • the programmer activates the linker for these.
  • the linker allocates these object programs and related library programs to a memory space, and combines them into one to generate a load module.
  • the load module generated in this manner is premised on reading by a computer, and causes the computer to execute the processing procedures and the functional component processing procedures shown in each flowchart.
  • Such a computer program may be recorded on a non-transitory computer-readable recording medium and provided to the user.
  • the program file that performs processing for the extended function may be a BD-J application whose operation is defined by the BD-J object.
  • BD-J platform is a software group such as HAVi device, playback control engine for playlist playback by Java media framework, cache manager for cache-in / cache-out management, event manager for event processing, that is, digital
  • the software group that is similar to the software group in the broadcasting multimedia home platform terminal (DVB-MHP) is the main actor.
  • the available APIs are Java2Micro_Edition (J2ME) 2Personal Basis Profile (PBP 1.0) and Globally Executable MHP specification (GEM1.0.2) for There is package media targets.
  • J2ME Java2Micro_Edition
  • PBP 1.0 Personal Basis Profile
  • GEM1.0.2 Globally Executable MHP specification
  • java.net for network processing
  • java.awt for GUI processing
  • java.lang for language processing
  • java.io for I / O processing for recording media
  • utilities The structured programming using methods, constructors, interfaces, and events of classes such as java.util and javax.media for the media framework makes it possible to describe processing related to extended color depth display.
  • BD-J extension By using the extension API for the BD-J platform (called BD-J extension), the data structure for color depth extended playback described in the previous embodiments and the playback unit in color depth extended playback were used. Realize control.
  • This BD-J extension includes in-lid methods from methods in the java.net, java.awt, java.lang, java.io, java.util, and javax.media classes. Since it is a super interface, an application suitable for color depth expansion playback is created on the extension of programming techniques using the java.net, java.awt, java.lang, java.io, java.util, javax.media classes. can do.
  • BD-J object specifies the details of the behavior of the playback device in BD-J mode.
  • the details of the behavior are as follows: application class loading when the corresponding title becomes the current title (1), application signaling when the corresponding title becomes the current title (2), activated by the application signaling HAVi device configuration (3) when the application executes GUI processing, playlist access for the current title (4), cache-in / cache-out of the class archive file when the corresponding title becomes the current title (5 ),
  • event assignment (6) in which an event that triggers an activated application is assigned to a key.
  • “Class loading” is a process of generating an instance of a class file archived in a class archive file in the platform heap area.
  • “Application signaling” is an application that automatically starts an application that is an instance of a class file. It is control which prescribes whether or not the life cycle of the application is the title boundary or the disc boundary.
  • the title boundary is management that causes a thread that is an application to disappear from the heap area simultaneously with the end of the title
  • the disk boundary is management that causes a thread that is an application to disappear from the heap area simultaneously with the disk ejection.
  • control that does not delete a thread from the heap area even if the disk is ejected is called “disk unboundary”.
  • “HAVi device configuration” defines the resolution of the graphics plane and the font used for character display when the application executes the GUI processing.
  • Playlist access is the designation of a playlist that can be played by the started application and a playlist that should be automatically played when a title is selected.
  • Class archive file cache-in is the process of pre-reading the class archive file subject to class loading to the cache.
  • Class archive file cache-out is the process of caching the class archive file existing in the cache. It is processing to delete from.
  • Event assignment for application driving is to assign an event registered in the event listener of the application to a key that can be operated by the user.
  • Partition areas are "area where file set descriptor is recorded”, “area where end descriptor is recorded”, “ROOT directory area”, “BDMV directory area”, “JAR directory area”, “BDJO directory area” , “PLAYLIST directory area”, “CLIPINF directory area”, “STREAM directory area”, and “CLREXT directory area”, which are areas accessed by the file system.
  • these areas will be described.
  • File set descriptor includes a logical block number (LBN) indicating a sector in which a file entry of the ROOT directory is recorded in the directory area.
  • LBN logical block number
  • end descriptor indicates the end of the file set descriptor.
  • the plurality of directory areas as described above all have a common internal configuration. That is, the “directory area” is composed of a “file entry”, a “directory file”, and a “file recording area for a lower file”.
  • “File entry” includes “descriptor tag”, “ICB tag”, and “allocation descriptor”.
  • Descriptor tag is a tag indicating that it is a file entry.
  • Allocation descriptor includes a logical block number (LBN) indicating the recording position of the directory file. This completes the description of the file entry. Next, the details of the directory file will be described.
  • LBN logical block number
  • Database file includes “file identification descriptor for lower directory” and “file identification descriptor of lower file”.
  • the “file identifier descriptor of the lower directory” is reference information for accessing the lower directory under its own, the identification information indicating the lower directory, the length of the directory name of the lower directory, and the lower directory It consists of a file entry address indicating in which logical block number the file entry is recorded and the directory name of the lower directory.
  • the “file identification descriptor of the lower file” is reference information for accessing the file under its own, the identification information indicating the lower file, the length of the lower file name, and the file entry for the lower file Is composed of a file entry address indicating in which logical block number is recorded and a file name of a lower file.
  • the file identifier descriptors in the directory files of these directories indicate in which logical block the file entries of the lower directory and the lower file are recorded. If this file identifier descriptor is followed, The file entry in the BDMV directory can be reached from the file entry in the ROOT directory, and the file entry in the PLAYLIST directory can be reached from the file entry in the BDMV directory. Similarly, file entries in the CLREXT directory, JAR directory, BDJO directory, CLIPINF directory, and STREAM directory can be reached.
  • the “file recording area of a lower file” is an area in which the substance of a lower file under a certain directory is recorded. A “file entry” and one or more “extents” for the lower file are included. It is recorded.
  • the color depth-enhanced stereoscopic interleaved stream file that is the main subject of the present application is recorded in a file recording area existing in the directory area of the directory to which the file belongs, and the file identification descriptor and file entry in the directory file By following the allocation identifier in, access is possible.
  • the information recording medium stores an image with an extended color depth, and either an apparatus that reproduces an image having a color depth of 8 bits or an apparatus that reproduces an image having a color depth exceeding 8 bits.
  • video content such as movie titles including high-definition video with expanded color depth can be supplied to the market without being aware of compatibility, activating the movie market and consumer equipment market. be able to. Therefore, the recording medium and the playback device according to the present invention have high applicability in the movie industry and the consumer equipment industry.

Abstract

 記録媒体にはベースビデオストリームと、エンハンスメントビデオストリームとが記録される。エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示す。シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定する。

Description

高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
 映像の色深度の記録技術の技術分野に属する。
 色深度の記録技術とは、RGB色空間、又は、YCrCb色空間において、各色の階調に所定のビット幅を割り当てることにより、原画像の色の深みを、あるビット長のデータで再現して記録媒体に記録する技術である。既存の記録媒体に記録され、再生・表示に供される画像は、8ビットの画素ビット値、つまり、輝度Y,赤色差Cr,青色差Cbのそれぞれが8ビット長の階調ビット列で表現される。
特開2008ー129127号公報
 DVDやBlu-rayDiscに記録される映像の原画としては、映画を記録したフィルムをスキャンしてデジタルデータに変換されたデータや、あるいはCG映画のようにコンピューター上でレンダリングされたデータが用いられる。これらの原画となるデータは、各ピクセルがRGBあるいはYCbCrで表される色空間において、各色が8ビットを超える階調を持つことが多い。
 これに対してDVDやBlu-rayDiscに記録される映像は、上記色空間において、各色が8ビットの階調を持っている。つまり、原画は8ビットを超える階調を有するが、DVDやBlu-rayDiscに記録される際には、映像の各色の階調は8ビットに丸めて記録されている。この8ビットというビット幅は、TVの表示デバイスで表現できる階調数や、上記記録媒体の規格が策定された当時のLSIの処理能力を鑑みて決められている値である。上記記録媒体による映画作品の頒布では、この丸めが発生する分、品質劣化が発生することは否めず、画質改善の余地が存在していた。また8ビットへの丸めというのは一例に過ぎず、動画像の符号化方式では、高い圧縮率が要求されるという要求仕様から非可逆変換が用いられることが一般的であり、非可逆変換の過程で生じる変換誤差により表示品位の低下が存在していた。
 上記課題は、DVDやBlu-rayが記録先の記録媒体であるとの仮定下で技術的課題を提示したが、この仮定は、上記技術的課題を説明するにあたって、身近な題材を選んだに過ぎず、本願で対象としている技術的課題は、DVDやBlu-rayが記録先の記録媒体であるケースに限定されない。放送媒体、通信媒体など、何等かの媒体を通じて画像を伝送しようとする際の表示品位の低下解消全般が、本願で解決しようとする技術的課題であり、近い将来において、上記技術を工業製品の分野で実用化しようとする際、当業者が必ず直面する技術的障壁である。
 本発明の目的は、色深度表現の充実を図ることである。
 上記課題を解決することができる発明とは、ベースビデオストリームと、エンハンスメントビデオストリームとを含み、
 ベースビデオストリームは、原画像に対して非可逆変換を施すことで得られ、
 エンハンスメントビデオストリームは、シフトパラメータと、ピクチャデータとを含み、
 前記エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示し、
 前記シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定するというものである。
 エンハンスメントビデオストリームは、原画像におけるピクチャの階調ビット列と、ベースビュービデオストリームにおけるピクチャの画素階調を示すビット列との差分を示すから、ベースビュービデオストリームの生成の過程で発生した変換誤差は、エンハンスメントビデオストリームの画素の階調ビット列として表現されることになる。よってエンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列と、ベースビュービデオストリームのピクチャにおける階調ビット列とを組合せることで原画像と遜色がない画像を復元することができる。
 上記発明では、特定のピクチャだけを狙って色深度を深めるようシフトパラメータが設定されており、またシフトパラメータは、ベースビデオストリームとは別に、記録媒体に記録されるので、記録する記録媒体の容量やデコーダの規模増大、プレーンメモリの規模増大をもたらすことはない。
Blu-rayDiscに記録される階調ビット列を示す。 色深度拡張の原理を示す図である。 画素シフト量bを示す図である。 原画が自然画であったり、圧縮する際のビットレートが十分でなく、圧縮し、デコードされたビット列により多くの誤差が含まれるケースを示す。 色深度拡張インターリーブドストリームファイルを示す。 Baseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャ、原画像のピクチャを示す。 原画像の絵柄と、Baseビデオストリームのピクチャにおける絵柄とを示す。 8つのフレームにおけるピクチャデータの割り当てビット量の変化と、この変化時の個々のフレームにおける輝度Y,赤色差Cr,青色差Cbの画素ビット値と、かかる原画像の画素ビット値まで色深度を拡張する場合のシフト範囲の設定とを示す。 8つのフレームにおけるピクチャデータの割り当てビット量の変化と、この変化時の個々のフレームにおけるBaseビデオピクチャの画素の階調ビット幅、Enhancementビデオピクチャの画素の階調ビット幅を示す。 記録装置の内部構成の一例を示す。 色深度拡張のためのビデオエンコーダーを具備したストリーム生成部の内部構成の一例を示す。 加算部16による正値化変換の過程を示す。 記録方法の処理手順を示すフローチャートである。 Baseビデオストリーム、Enhancementビデオストリームの生成手順を示す。 再生装置の内部構成の一例を示す。 ビデオデコード部23、及び、色深度拡張部24の内部構成の一例を示す。 シフト量bでBaseビデオストリームにおけるピクチャの画素階調を示すビット列をシフトする場合の色深度拡張手順を示すフローチャートである。 Baseビデオストリームと、Enhancementビデオストリームから、Nビットの映像を再構築する装置の派生である。 シフト量bでEnhancementビデオストリームにおけるピクチャの画素階調を示すビット列をシフトする場合の色深度拡張手順を示すフローチャートである。 色深度拡張後のピクチャにおいて座標(x,y)に存在する画素の輝度Y,赤色差Cr,青色差Cbがどのように変換されるかという変換の過程を示す。 図20に示した色深度拡張の過程においてどのようなパラメータが用いられるかを示す。 第2実施形態にかかる記録媒体、再生装置が使用されるホームシアターシステムを示す。 多層化された光ディスクである、ディスク媒体の内部構成の一例を示す。 ファイルシステムを前提にした光ディスクのアプリケーションフォーマットを示す。 インターリーブドストリームファイル、m2tsファイル、ファイルベースの相互関係を示す。 メインTSの生成の過程を示す図である。 Enhancementビデオストリームの内部構成の一例を示す。 クリップ情報ファイルの一例を示す。 プレイリスト情報の内部構成の一例を示す。 BDMVディレクトリのプレイリスト、色深度拡張プレイリストを示す。 再生装置1002の構成を示している。 色深度拡張インターリーブドストリームファイル構成するデータブロックからATCシーケンスがどのように復元されるかを示す。 Baseビデオクリップ情報におけるエクステントスタートポイント情報の一例と、Enhancementビデオクリップ情報におけるエクステントスタートポイント情報の一例を示す。 ATCシーケンス1、2における任意のデータブロックのソースパケット番号を説明するための図である。 システムターゲットデコーダ104の内部構成の一例を示す。 色深度拡張プレーンの格納内容の一例を示す。 プレーン合成部の内部構成を示す図である。 再生装置に適用される場合の色深度拡張部24の内部構成の一例を示す。 第1実施形態におけるバリエーションを適用した場合の色深度拡張部24の内部構成の一例を示す。 プレイアイテムの再生手順を示す。 ATCシーケンス復元手順を示す。 インデックステーブルの内部構成の一例を示す。 色深度拡張プログラムの処理手順を示すフローチャートである。 光ディスクの記録方法を示す。 オーサリング行程の処理手順を示すフローチャートである。 AVファイル書込工程の処理手順を示す。 拡張機能ケーパビリティの格納方式を表形式で示す図である。 ディスクがプレーヤーに挿入されてから、再生開始までの間にGPRMを設定するための処理手順を示すフローチャートである。 PinPコンテンツの一例を示す。 子画面ビデオを、親画面ビデオに重ね合わせることで実現されるピクチャインピクチャ画像を示す。 本実施形態に係る符号化装置の内部構成の一例を示す。 ピクチャインピクチャビデオストリームを得るための符号化装置の内部構成の一例を示す。 図52で示した圧縮処理をさらに効率的に行うための符号化装置の内部構成の一例を示す。 符号化方法の発明を実施することができる放送装置の内部構成の一例を示す。 Baseビデオストリームにおけるピクチャと、PinPビデオストリームにおけるピクチャとを対比して示す。 Baseビデオストリームにおける複数のピクチャデータと、Enhancementビデオストリームにおける複数のピクチャデータとを示す。 PinPビデオストリームにおけるピクチャの内部構成の一例を示す。 ストリーム符号化方法の処理手順を示すフローチャートである。 マクロブロック符号化方法の処理手順を示す。 受信装置の内部構成を示す図である。 第4実施形態に係るシステムターゲットデコーダ104の内部構成の一例を示す。 第4実施形態に係る復号化手順を示すフローチャートである。 第5実施形態における再生装置の内部構成の一例を示す。 ネットワーク上からPinPビデオストリームを取得するためにAVストリーム取込部を追加した内部構成である。
 上記課題解決手段を具備した記録媒体は、コンテンツを店頭販売するためのパッケージ媒体として実施することができる。上記課題解決手段を具備した再生装置の発明は、パッケージ媒体を再生するためのプレーヤ機器として実施することができ、集積回路の発明は、当該プレーヤ機器に組込まれるシステムLSIとして実施することができる。再生方法の発明は、このプレーヤ機器で実現される時系列手順として実施することができる。プログラムの発明は、コンピュータ読み取り可能な記録媒体に記録され、プレーヤ機器にインストールされる実行形式プログラムとして実施することができる。
 (第1実施形態)
 第1実施形態は、原画像をエンコードして市販のパッケージ媒体に記録するにあたって色深度をより深めるための改良に関する。
 {本実施形態の実施にあたって発明者が見い出した課題}
 DVDやBlu-rayDiscといったパッケージ媒体に映画作品を記録して供給する場合、8ビットを超える階調を有していた原画に対して、8ビットに丸めて記録されることになる。これにより色の滑らかな変化、つまりグラデーションを表示しようとすると、8ビットでは階調が足りないだめ、原画では滑らかに変化していたグラデーションが、DVDやBlu-rayDiscから再生された映像では、色の段差が生じてしまう。
 そこで考えられるのは、画素ビット値を例えば8ビットから、より大きいビット値に引き上げるという策である。画質の改善が進められているプラズマディスプレイ、液晶ディスプレイ、あるいは有機ELディスプレイといった表示デバイスの多くは8ビットを超える階調を表示することが可能となってきている。かかる表示装置の進歩に追従して、原画像を符号化する際の画素ビット値を大きくするというのが基本的な対策となる。
 しかしながら、符号化にあたっての画素ビット幅の拡大は、表示装置のコストアップに留まらず、記録する記録媒体の容量やデコーダの規模増大、再生装置におけるメモリの規模増大をもたらすものであり、記録媒体の容量不足や再生装置のコストアップを招来する。また8ビットの値で原画像との誤差が生じるかどうかは、画像中の動きの激しさや絵柄の複雑さによって左右されるので、一律に画素階調のビットのビット幅を増やすというのは賢明な考えとはいえない。
 第1実施形態に記載される発明(以下、本発明と呼ぶ)の目的は、記録媒体の容量不足や再生装置のコストアップを招来することなく、原画像がもつグラディエーションのなだらかさを再現することができる記録媒体を提供することである。
 {課題を解決するための手段}
 記録媒体の局面で課題解決を図る場合、当該局面における記録媒体は、
 記録媒体であって、
 ベースビデオストリームと、エンハンスメントビデオストリームとが記録され、
 ベースビデオストリームは、原画像に対して非可逆変換を施すことで得られ、
 エンハンスメントビデオストリームは、シフトパラメータと、ピクチャデータとを含み、
 前記エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示し、
 前記シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定する
 ことを特徴とする。
 上記課題を解決できる手段として上位概念で記載された事項は、様々な下位概念化が可能である。この下位概念化のうち典型的なものを以下に列挙する。
(差分の下位概念化)
 前記差分は、ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素階調のビット幅まで伸長した上、原画像における画素の階調ビット列から伸長後の階調ビット列を減じて、この減算結果を正値化変換することで得られるものが望ましい。この下位概念化は、差分の導出過程がどのようなものであるかを明確にするものである。ここで述べた原画像とベースビデオストリームのピクチャとの差分は、正値で表現されるから既存のデコーダやプレーンメモリを導入することにより、色深度拡張に適合した階調ビット列のシフト操作を実現することができる。こうすることで既存のデコーダモデル、プレーヤモデルでエンハンスメントビデオストリームを扱うことができるから、これまでの製品開発で培われた設計ノウハウを活用することにより、色深度拡張が可能な記録媒体や再生装置を製品化することができる。これにより製品の開発サイクルをより短くすることができ、商品のモデルチェンジを高頻度にすることができる。また製品メーカーは常に新しい商品を市場に送り出すことができ、企業のブランドイメージの確立や市場シエアの獲得に成功することができる。
 (ベースビデオストリームに対するシフト操作の下位概念化)
 前記シフト操作は、
 ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素の階調ビット列のビット幅まで伸長する操作を含み、
 前記シフトパラメータはシフトカウントの指定であり、
 前記シフトカウントの指定は、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列を、ベースビデオストリームにおけるピクチャの画素階調を示すビット列に加算するにあたって、ベースビデオストリームにおけるピクチャの画素階調ビット列を何回上位方向にシフトさせるべきかを示すことが望ましい。この下位概念化は、シフトパラメータがベースビデオストリームのピクチャの階調ビット列にどのように作用するかを明確にしたものである。非可逆変換による変換誤差が、原画像における画素の階調ビット列の下位ビット側に存在する場合、ベースビデオストリームのビット位置を上位方向にシフトすることで、原画像における画素の階調ビット列が再現されることになる。
 (エンハンスメントビデオストリームに対するシフト操作の下位概念化)
 前記シフト操作は、
 ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素の階調ビット列のビット幅まで伸長する操作を含み、
 シフトパラメータは目標ビット位置の指定であり、
 前記目標ビット位置の指定は、
 ビット幅の伸長がなされたベースビデオストリームピクチャの階調ビット列に、エンハンスメントビデオストリームの階調ビット列を加算するにあたって、エンハンスメントビデオストリームの階調ビット列を、何ビットまでシフトさせればよいかを示すことが望ましい。この下位概念化は、シフトパラメータがエンハンスメントビデオストリームのピクチャの階調ビット列にどのように作用するかを明確にしたものである。あるフレームのピクチャデータに対するシフト量は、誤差範囲の最上位ビットに従い決定されるから、エンハンスメントビデオストリームの画素における8ビット階調をかかるシフト量に従いシフトすれば、非可逆変換における変換誤差の範囲がエンハンスメントビデオストリームの画素の階調値を越える場合、エンハンスメントビデオストリームのピクチャの階調ビット値は、その誤差範囲の最上位ビットまでシフトされることになる。このようなシフトを経た後に、エンハンスメントビデオストリームの画素ビット値を、Nビット階調値の下位ビット側に加算するから、誤差範囲がエンハンスメントビデオストリームの画素の階調値を越える場合、エンコードと、デコードとを経た原画像の再現過程で切り捨てられる部分は、下位ビット側になる。これにより誤差範囲の影響が画像の上位ビットに及んだとしても、再現後の画像の見た目は、階調の下の部分が多少異なるという程度になるから、ビット切り捨てによる影響を抑制することができる。こうすることで原画像のなだらかなグラディエーション変化を再現することができる。
 (シフトパラメータの格納方式の下位概念化)
 前記ベースビデオストリームにおける複数のピクチャデータ及び前記エンハンスメントビデオストリームにおける複数のピクチャデータは、グループオブピクチャを構成し、当該各グループオブピクチャは、それぞれ複数のフレームを構成し、前記複数のフレームにおける各フレームに対応するシフトパラメータを、パラメータシーケンスとして有していることが望ましい。この下位概念化は、シフトパラメータをどのように格納して、どのように再生装置に供給されるべきかを明確にしたものである。こうすることで、動画像コンテンツにおいては、ランダムアクセスの単位であるグループオブピクチャの単位でシフトパラメータがまとめて格納されることになり、シフトパラメータの利用効率が高まる。
 (再生装置の局面)
 再生装置の局面で課題解決を図る場合、当該局面における再生装置は、
 記録媒体からベースビデオストリームと、エンハンスメントビデオストリームとを読み出しして再生する再生装置であって、
 ベースビデオストリームは、原画像に対して非可逆変換を施すことで得られ、
 エンハンスメントビデオストリームは、シフトパラメータと、ピクチャデータとを含み、
 前記エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示し、
 前記シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定し、
 ベースビデオストリームをデコードすることにより、ベースビデオストリームにおけるピクチャデータを構成する個々の画素について、階調ビット列を得るビデオデコーダと、
 エンハンスメントビデオストリームにおけるピクチャの個々の画素の階調ビット列と、シフトパラメータとを用いて、ベースビデオストリームにおける画素の階調ビット列に対してビット操作を行うことにより、色深度拡張を実行する色深度拡張部とを備える
 ことを特徴とする。
 上記課題を解決できる手段として上位概念で記載された事項は、様々な下位概念化が可能である。この下位概念化のうち典型的なものを以下に列挙する。
 (色深度拡張部の下位概念化)
 前記色深度拡張部は、
 ビデオデコーダによるベースビデオストリームについてのデコード結果である階調ビット列を上位方向にシフトすることにより、ベースビデオストリームにおける画素階調のビット幅の伸長を行う第1シフト回路と、
 エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列から補正値を減じることで、当該画素階調を示すビット列を符号付きビット列に変換する減算部と、
 ベースビデオストリームを構成するピクチャデータの個々の画素についての階調ビット列に、エンハンスメントビデオストリームの階調ビット列に対する変換により得られた符号付きデータを加算する加算部とを備えることが望ましい。この下位概念化は、色深度拡張が既存のハードウェア素子を用いて具現できることを裏付けるものであり、詳細な説明は後段に譲る。一般に知られるハードウェア素子で色深度拡張部の実装が可能になるから、色深度拡張機能の実施がより現実的となる。
 (ベースビデオストリームに対するシフト操作の下位概念化)
 前記第1シフト回路は、シフトパラメータに基づいて、ベースビデオストリームについてのデコード結果である階調ビット列のシフトを行い、
 色深度拡張部は、加算部により符号付きビットが加算された階調ビット列をシフトして原画像における階調ビット列のビット幅にまで伸長する第2シフト回路を備えることが望ましい。これは、ベースビデオストリームに対するシフト操作のハードウェアによる実現性を述べたものであり、こうすることで後述するNビット階調の可変化が可能になる。
 (エンハンスメントビデオストリームに対するシフト操作の下位概念化)
 前記色深度拡張部は、
 エンハンスメントビデオストリームの階調ビット列に対する変換により得られた符号付きビット列を、シフトパラメータに示されるシフト量に従いシフトする第2シフト回路を備え、
 前記加算部は、
 シフトがなされた符号付きビット列をベースビデオストリームを構成するピクチャデータの個々の画素についての階調ビット列に加算することが望ましい。これは、後述する切り捨て誤差の最小化を可能とする下位概念化である。
 (ビデオデコーダの下位概念化のその1)
 前記ビデオデコーダは、
 ベースビデオストリームをデコードする第1ビデオデコーダであり、
 再生装置は、
 エンハンスメントビデオストリームをデコードする第2ビデオデコーダを具備することが望ましい。これは、立体視再生のために、2以上のビデオデコーダを具備しているような再生装置において、そのハードウェア資源を有効活用するための下位概念化である。
 (ビデオデコーダの下位概念化その2)
 前記ビデオデコーダは、
 マルチビュービデオデコーダであり、ベースビデオストリームを構成するピクチャデータ、及び、エンハンスメントビデオストリームを構成するピクチャデータの双方をデコードすることが望ましい。これは、立体視再生やマルチアングル再生のためにマルチビューのビデオデコーダを実装している再生装置においては、既存のハードウェア資源を有効的に活用するための下位概念化である。
 (シフトパラメータ取得の下位概念化)
 前記ベースビデオストリームにおけるピクチャデータ及び前記エンハンスメントビデオストリームにおけるピクチャデータは、グループオブピクチャを構成し、当該グループオブピクチャは、複数のフレームを構成し、各フレームに対応するシフトパラメータを、パラメータシーケンスとして有し、
 前記ビデオデコーダは、
 ベースビデオストリームにおける何れかのピクチャをデコードする際、エンハンスメントビデオストリームにおけるピクチャデータであって、ベースビデオストリームにおけるピクチャと同時刻に再生されるべきものをデコードすると共に、そのピクチャデータに対応するシフトパラメータをパラメータシーケンスから取り出して色深度拡張部に設定することが望ましい。これは、フレーム精度でシフトパラメータを切り替えることができ、より緻密な色深度拡張を実行するための下位概念化である。
 (記録装置の局面)
 記録装置の局面で課題解決を図る場合、当該局面における記録装置は、
 ベースビデオストリームと、エンハンスメントビデオストリームとを記録媒体に書き込む記録装置であって、
 原画像に対して非可逆変換を施すことにより、所定のビット幅の階調ビットの画素からなるベースビデオストリームを得る第1エンコード手段と、
 非可逆変換を施すことで得られたベースビデオストリームをデコードすることにより原画像における画素の階調ビット列よりもビット幅が短い階調ビット列の画素からなる非圧縮ピクチャを得るデコード手段と、
 原画像における個々の画素についての階調ビット列と、ベースビデオストリームにおけるピクチャの画素の階調ビット列との差分を算出する算出部と、
 算出された差分をピクチャデータの画素の階調ビット列とするエンハンスメントビデオストリームを作成する第2エンコード手段と
 を備える。
 上記課題を解決できる手段として上位概念で記載された事項は、様々な下位概念化が可能である。この下位概念化のうち典型的なものを以下に列挙する。
 (算出部の下位概念化)
 前記算出部は、
 ベースビデオストリームについての非圧縮ピクチャを構成する個々の画素の階調ビット列を上位方向にシフトするシフト回路と、
 原画像における個々の画素についての階調ビット列からシフトがなされた階調ビット列を減じる減算部と、
 減算結果に、所定の補正値を加算することで差分を得る加算部とを含み、
 第2エンコード手段は、
 加算結果と、シフト回路がシフトに用いたシフト値とを含むエンハンスメントビデオストリームを作成することが望ましい。これは、一般に知られるハードウェア素子で色深度拡張部の実装を可能にするための下位概念化であり、かかる下位概念化の導入により色深度拡張機能の実施がより現実的なものとなる。
 図面を参照しながら上記課題解決手段による課題解決のアプローチについて具体的に説明する。非可逆変換による変換誤差の影響を解消するため、本発明では2種類のビデオストリームを導入する。1つ目は、Baseビデオストリームであり、原画像に対する非可逆変換によって生成される。もう1つはEnhancementビデオストリームであり、Enhancementビデオストリームにおけるピクチャの個々の画素の階調ビット列は、原画像における画素階調ビット列と、Baseビデオストリームにおけるピクチャの画素階調を示すビット列との差分を示す。ここでの差分は、上述したような非可逆変換による差分を包含するものである。
 以下、原画像における階調ビット列と、Baseビデオストリームにおけるピクチャの画素階調を示すビット列とがどのような関係にあるかについて説明する。
 図1(a)は、原画像におけるNビットの階調ビット列であり、(b)は、Blu-ray ReadOnlyディスク、DVD-Videoに記録するにあたって記録されるべき8ビットの階調ビット列を示す。(c)は、Nビット階調に対して非可逆変換を施し、その変換結果を復号することで得られる8ビット階調を示す。図中のハッチング部分は、非可逆変換によって生じる変換誤差を示す。
 図1では3つの階調ビット列が描かれている。それは、Blu-rayDiscに記録対象となる原画を構成する各ピクセルの各色の色深度を示すNビットからなるビット列(階調ビット列1801)、前述の階調ビット列1801をBlu-rayDisc向けに圧縮するために前述のNビット中の上位8ビットか、9ビット目を四捨五入するなどして得られる8ビットのビット列(階調ビット列1802)、階調ビット列1802をMPEG2やMPEG-4AVCなどの圧縮技術で圧縮し、さらにデコードして得られる8ビットのビット列(階調ビット列1803)の3つである。
 ここで、原画を構成する階調ビット列1801と、Blu-ray  discから再生される映像を構成する階調ビット列1803を比較すると、前述の圧縮前に下位(N-8)ビットの情報が失われ、さらに非可逆圧縮によって階調ビット列1803では下位ビットに誤差が含まれることになる。色深度の拡張とは、前述の圧縮・デコードして得られるビット列に対して、付加情報を加えることにより、できるだけ原画を構成するNビットのビット列に近いビット列を復元することである。
 色深度拡張では、Nビットの原画から、8ビットのBlu-rayDisc向けの原画に変換する際に失われる下位の(N-8)ビット及び、圧縮した際に誤差を含むようになる階調ビット列1803の下位ビットの情報を復元することを行う。図2を用いて、色深度拡張を説明する。
 図2では図1と同じ要素には同じ番号を付与している。図2(a)は原画像におけるNビット階調1801を示し、(b)はBlu-ray ReadOnlyディスク、DVD-Videoに記録されるべきピクチャの8ビット階調をNビット階調に変換することにより得られるNビット階調1803を示す。(c)は原画像のNビット階調1801から、Nビット化されたBaseビデオストリームの階調1803を減算することにより得られた8ビットのEnhancementビデオストリーム階調1901を示す。(a)の階調ビット列1801、(c)の8ビット階調1901を組合せることにより原画像のNビット階調を再現することができる。
 まず、階調ビット列1803のビット列を左(上位方向)に、シフトパラメータで指定されたシフト量bだけビットシフトしてNビット化する。ここで『シフト量b』とは、Baseビデオストリームにおけるピクチャの画素階調を示すビット列と、Enhancementビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定する数値パラメータ(シフトパラメータ)のことである。かかるパラメータには、「シフトカウントの指定」と、「目標ビット位置の指定」とがある。「シフトカウントの指定」とは、シフト操作を何回行えばよいかというカウント数であり、「目標ビット位置」とは、原画像における階調ビット列の何ビット目までシフトさせればよいかというシフト操作によるビット値移動の目標位置である。
 本図におけるシフト量bは、シフトカウントの指定であり、b=N-8に設定されている。(N-8)回、上位方向へのシフト操作を行うことにより、シフト後の下位ビットは(N-8)ビット分の0が並ぶことになる。次に原画の階調ビット列1801のビット列から、先ほどのNビット化した階調ビット列1803を減算する。図2(b)において、Nビットに変換された階調ビット列1803は、下位(N-8)ビットが0000になっているのに対して、原画像の上位(N-8)ビットに何等かの非零の値が存在している。よって、階調1803が原画像のNビット階調の上位8ビットであれば、このNビット階調の上位8ビットがそのままBlu-ray ReadOnlyディスク、DVD-Videoに記録されるべき8ビット階調となり、下位(N-8)ビットが非可逆変換にあたっての変換誤差になる筈である。
 そこで(c)では減算を行う。この結果得られる階調ビット列1901で示されるビット列が、原画で失われた(N-8)ビット及び圧縮の際に含まれる誤差を補正するためのビット列となる。従って、階調ビット列1803で示されるビット列をNビット化した後、階調ビット列1901で示されるビット列を加算することにより、もとのNビットの階調ビット列1801が復元されることになる。階調ビット列1803の部分を画素ビット値とするピクチャデータからなるビデオストリームが「Baseビデオストリーム」となる。一方、階調ビット列1901の部分を画素ビット値とするピクチャデータからなるビデオストリームが「Enhancementビデオストリーム」となる。
 画素シフト量bについて図3を用いてより詳しく説明する。図3は、画素シフト量bを示す図である。説明を簡単にするために、原画のNビットを12ビットとして説明する。
 図3(a)は、原画像の12ビット階調を示し、(b)は、Blu-ray ReadOnlyディスク、DVD-Videoに記録されるべき理想的な8ビット階調を示す。(c)は、12ビット階調に対して非可逆変換を施すことにより得られる8ビット階調を示す。(d)は、12ビット階調に変換されたBaseビデオストリームピクチャの階調を、原画像の階調ビット列から減じることで得られる8ビット階調を示す。
 まず、原画の各ピクセルの各色の色情報は階調ビット列3701で示すように12ビットの情報量を持つものとする。ここで、Blu-ray向けに圧縮する際には、階調ビット列3701の下位4ビットを切り捨て、階調ビット列3702で示すように8ビット化する。さらに階調ビット列3702で示す、8ビット化された色情報で構成された8ビットの原画がMPEG2などの符号化方式で圧縮され、デコードされたものが階調ビット列3703となる。図3(c)の例では、階調ビット列3703で示すビット列の下位4ビットが非可逆圧縮によって誤差が含まれることになる。原画のビット列の階調ビット列3701では、破線の枠で囲まれた階調ビット列3704が、色深度拡張の際に、復元すべきビット列になる。
 具体的な計算例を交えて図3におけるEnhancementビデオストリームの階調ビット列について説明する。ビット列3701は、100111011100であり、これを8ビットのBaseビデオストリームに変換した場合、Baseビデオストリームの階調ビット列は、原画像における画素の階調ビット列の上位8ビット、つまり10011101になるのが理想的である。しかし現実には、非可逆変換による誤差で10011101になるべきBaseビデオストリームの8ビット階調は、10010010になっている。
 そこで、Baseビデオストリームにおけるピクチャの8ビット階調を12ビット階調に変換して、原画像の階調ビット列100111011100から12ビットに変換された100100100000を減じる。こうすることで得られるのが、(d)のビット列10111100である。かかるビット列10111100をEnhancementビデオストリームにおける階調として記録媒体に記録すれば、このEnhancementビデオストリームの8ビット階調と、誤差を含むBaseビデオストリームの8ビット階調とを組合わせることで元の12ビット階調を再現することができる。
 次に、図4を用いて原画が自然画であったり、圧縮する際のビットレートが十分でなく、圧縮し、デコードされたビット列により多くの誤差が含まれるケースを説明する。図4で、原画の階調ビット列3701と、Blu-ray向けの8ビット化した階調ビット列3702はこれまでと同じであるが、非可逆圧縮後、デコードされた階調ビット列が図3のケースと異なる。
 具体的には、図3の階調ビット列3703では下位の4ビットに誤差を含むとして説明したが、図4ではデコード後のビット列3801の下位5ビットに誤差を含む。つまり、原画となる階調ビット列3701から考えると、階調ビット列3701の下位9ビットに誤差を含むことになる。
 つまり、既に説明した手法で原画の12ビットのビット列と、非可逆圧縮しデコード後のビット列3801を4ビットシフトして12ビット化したビット列の差を取ると、9ビットのビット列が現れることになる。差分となる9ビットをそのまま色深度拡張のための情報として記録できれば問題はないが、別のEnhancementビデオストリームとして圧縮されることを視野に入れねばならない。民生機器の一般的なビデオエンコーダーは8ビットを超えるビット長を扱えないことで、前述の9ビットの情報を圧縮できなくなる。
 これを解決するため方法としては、9ビットの中で最上位ビット(MSB)側に相当する上位8ビットをEnhancementビデオストリームとしての圧縮対象にし、9ビットのLSB側1ビットを切り捨てることである。この場合、原画の12ビットの中で、最下位ビット(LSB)に相当する1ビットはEnhancementビデオストリームとして圧縮されないことになるが、色深度の情報としてはより上位のビットの復元することを優先すべきである。
 このような復元を優先させると、Baseビデオストリームを、シフト回路によって常にNビットにするのは不適切であり、Baseビデオストリームをデコードしたビット列と、原画を比較し、原画の下位8ビットに限定するのも不適切である。原画と前記デコードしたビット列を比較して、誤差範囲を含む最上位ビットをシフト量により目標ビット位置として指定し、LSBに向かって8ビット分をエンコード対象とするのが適切となる。
 そこで、エンコードされたBaseビデオストリームがデコードされたビット列と、原画のビット列とを比較して、原画の12ビット中、何ビット以下を補正すべきかという指針を画素のビット値に対するシフト量bに示させる。
 具体的な計算例を交えて図4におけるEnhancementビデオストリームの階調ビット列について説明する。原画像の12ビット階調に対して非可逆変換を施した場合、変換結果は、12ビット階調の上位8ビットである「10011101」になるべきである。しかし現実には、非可逆変換の変換誤差により変換結果は、10001010になっている。この誤差を打ち消すことができるよう、Enhancementビデオストリームの階調ビット列を生成する。具体的にはBaseビデオストリームの8ビットを12ビットに拡張して原画像の12ビット階調から拡張後の12ビット階調を減じる。この減算結果は、100111100になり9ビットになる。これでは、Enhancementビデオストリームの8ビットのビット幅に格納することができないから、上位8ビット「10011110」をEnhancementビデオストリームの階調とする。そして誤差範囲の最上位ビット、つまり、9ビット目をシフト量として指定する。こうすることでシフト量として設定された9ビットと、Enhancementビデオストリームの8ビット値とを用いて原画像階調の再現を図ることができる。
 <変換誤差の存在位置に応じた復元方法の変更>
 以上の図2、図4からすれば変換誤差がどこに存在するかによって、原画像の復元方法は変わることが理解できる。一般に、原画像のNビット階調をBaseビデオストリームの8ビット階調に変換する場合、原画像の下位ビットである(N-8)ビットが変換誤差になる。この下位の(N-8)ビットは、Baseビデオストリームへの変換にあたって、切り捨てられるからである。一方、Baseビデオストリームにおける8ビット階調の部分にも誤差が及ぶこともある。
 原画像のうち下位(N-8)ビットの部分のみに変換誤差が発生する場合、変換誤差の最上位ビットをシフト量bで指示して、このbだけBaseビデオストリームピクチャの階調をシフトすればよい。この場合シフト量bは、シフトカウントの指定となる。つまり、シフト量bによるシフトカウントの指定は、Enhancementビデオストリームにおけるピクチャの画素階調を示すビット列を、Baseビデオストリームにおけるピクチャの画素階調を示すビット列に加算するにあたって、Baseビデオストリームにおけるピクチャの画素階調ビット列を何回上位方向にシフトさせるべきかを示す。
 一方、原画像のうち上位8ビットの部分に誤差が発生する場合、この誤差による影響を最小限に抑制せねばならない。具体的にいうと、変換誤差の最上位ビットをシフト量bで指示して、このbに応じてEnhancementビデオストリームの階調を上位方向にシフトせねばならない。この場合シフト量bは、目標ビット位置の指定となる。シフト量bによる目標ビット位置の指定は、ビット幅の伸長がなされたBaseビデオストリームの階調ビット列に、Enhancementビデオストリームの階調ビット列を加算するにあたって、Enhancementビデオストリームの階調ビット列を、何ビットまでシフトさせればよいかを示す。
 本実施形態では、色深度拡張のための階調ビット操作として、フレーム毎のシフト量を用いてBaseビデオストリームのピクチャの階調ビットをシフトさせるものと、Enhancementビデオストリームのピクチャの階調ビット列をシフトさせるものとを導入する。後者のビット操作は、原画像と、Baseビデオストリームピクチャとの差分を、Enhancementビデオストリームのビット幅である8ビット内で表現するにあたって、ビット値の切り捨ての影響を最小化するのに利用される。
 以下、図面を参照しながら、上述したような下位概念化がなされた記録媒体の発明、記録装置の発明、再生装置の発明の実施形態について詳細に説明する。   記録媒体において、画素値シフト量bが格納されるべき格納場所について説明する。画素値シフト量bが格納される場所としては、以下の場所が考えられる。
 1つ目は、Baseビデオストリームの中である。この場合、既存のプレーヤーがBaseビデオストリーム中に含まれる未知のデータとなる画素値シフト量bで誤動作などが生じる懸念がある。
 2つ目は、Enhancementビデオストリーム中である。この場合、既存のプレーヤーではEnhancementビデオストリームはパケット識別子フィルター以降のデコーダーに流さないため、既存プレーヤーへの影響は無いといえる。
 上記1つ目の置き場所でも、2つ目の置き場所でもよいが、本実施形態では、既存の再生装置における動作保証を優先して2つ目の格納場所を選ぶ。このEnhancementビデオストリームに対するシフト量bの格納形態について説明する。シフト量bの格納形態としては、フレーム/フィールド毎に設定されたシフト量を、所定の単位で結合して、一個のパラメータのシーケンスに変換した上でビデオストリームに格納するというものになる。本実施形態では、記録媒体におけるランダムアクセスの単位で、フレーム/フィールド毎のシフト量を結合するものとし、結合がなされたシフト量をシフト量シーケンスとして、Enhancementビデオストリームにおけるランダムアクセスの単位に組込む。ここで、Baseビデオストリーム及びEnhancementビデオストリームが動画像である場合、ランダムアクセスの単位はGOP(グループオブピクチャ)となり、Baseビデオストリーム及びEnhancementビデオストリームがブラウザブルスライドショーである場合、ランダムアクセスの単位は、ブラウジングユニットになる。ビデオストリームが暗号化されている場合、暗号化単位(チャンク)がランダムアクセス単位になる。このような、様々な態様のランダムアクセス毎に、シフト量シーケンスをまとめて格納することでシフト量が確実に再生装置に読み取られるようにする。
 上記Baseビデオストリーム及びEnhancementビデオストリームは、複数のデータブロックに分割され、これらのデータブロックをインターリーブ配置することで再生装置による再生処理の適合を図る。Baseビデオストリームを構成する複数のデータブロックと、Enhancementビデオストリームを構成する複数のデータブロックとをインターリーブ配置することで得られるストリームファイルは、"色深度拡張インターリーブドストリームファイル"と呼ばれる。
 図5は、色深度拡張インターリーブドストリームファイルを示す。本図の中段は、色深度拡張インターリーブドストリームファイルの内部構成であり、本図に示すように色深度拡張立体視インターリーブドストリームファイルは、Baseビデオのデータブロックと、Enhancementデータブロックとを交互に配置することで構成される。本図に示すように、色深度拡張インターリーブドストリームファイルは、Baseビデオのデータブロックと、Enhancementビデオのデータブロックとを交互配置してなる。Baseビデオデータブロックは、Baseビデオストリームのピクチャを格納しており、EnhancementビデオデータブロックはEnhancementビデオストリームのピクチャを格納している。上向きの矢印sr1,sr2,sr3・・・・・は、これらのデータブロックの格納内容を示す。矢印sr1,sr2,sr3・・・・に示すようにBaseビデオのデータブロックには、Baseビデオストリームにおける複数のピクチャが格納されている。矢印sr11,sr12,sr13・・・・に示すようにEnhancementビデオストリームのデータブロックには、Enhancementビデオストリームにおける複数のピクチャが存在する。Baseビデオストリームにおけるピクチャのピクチャタイプには、IDRピクチャ、Pピクチャ、Bピクチャがあり、これらはGOPを構成する。
 Baseビデオストリーム及びEnhancementビデオストリームのピクチャ数は同数であり、Baseビデオストリームにおいて各フレームで表示されるべきピクチャと、Enhancementビデオストリームにおいて各フレームで表示されるべきピクチャとには、同じ値のDTS、PTSが設定されており、同じフレーム時刻でデコードされ、同じフレーム時刻で表示されることが仕向けられている。
 Baseビデオストリームを構成するピクチャデータ、Enhancementビデオストリームを構成するピクチャデータがどのような過程を経て生成されたかという作成の過程について説明する。図6は、Baseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャ、原画像のピクチャを示す。
 図6(a)の中段は、原画となるピクチャデータであり、左側はBaseビデオストリームを構成するピクチャデータ、右側はEnhancementビデオストリームを構成するピクチャデータである。これらのピクチャデータは、1920×1080という数の画素から構成される。本図の各ピクチャデータの厚みは、ピクチャデータを構成する画素がもつ色深度の違いを模式的に示す。原画像のピクチャデータは、個々の画素がNビットの輝度Y、Nビットの赤色差Cr,Nビットの青色差Cbから構成される。Baseビデオストリームのピクチャデータは、個々の画素が8ビットの輝度Y、8ビットの赤色差Cr,8ビットの青色差Cbから構成される。Enhancementビデオストリームのピクチャデータは、個々の画素がN-8ビットの輝度、N-8ビットの赤色差Cr,Nー8ビットの青色差Cbから構成される。
 矢印cr1,2,3は、Baseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャの画素ビット値が、原画像のどの部分を構成しているかを示す。図中の矢印を追ってゆくと、Baseビデオストリームのピクチャの画素ビット値は、原画像のピクチャの画素ビット値の上位ビット値を構成しており、Enhancementビデオストリームのピクチャの画素ビット値は、原画像の画素ビット値の下位ビット値を構成することになる。つまり、Baseビデオストリームの8ビットの値は原画像の上位ビットを表しEnhancementビデオストリームの階調ビット列は、Baseビデオストリームの階調ビット列と、原画像における画素の階調ビット列との差分を表す。よって、Baseビデオストリーム、Enhancementビデオストリームをデコードして、デコードにより得られるビット値を組合せれば、原画像を構成する画素のNビット階調を再現することができる。このような対応関係があるから、Baseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャを記録媒体に記録しておき、再生装置でこの矢印cr1,2,3,4,5,6に従い、Baseビデオストリームのピクチャの画素ビット値、Enhancementビデオストリームのピクチャの画素ビット値を足し合わせれば、原画像の画素ビット値を復元することができる。
 この階調ビット値によって、映像のグラディエーションがどのように変化されるかを説明する。同図(b)は、原画像のNビット階調におけるグラディエーション変化を示す。この(b)では、NビットのNを12ビットとしており、4096という数値範囲での階調表現が可能になる。よって(b)では、横軸をx座標とし、縦軸を0から4095までの階調値としたグラフで階調変化を示している。同図(c)は、Baseビデオストリームのピクチャにおけるグラディエーション変化を示す。8ビットのビット幅では256階調の表現が可能になる。よって(c)は、横軸をx座標とし、縦軸を0から255までの階調値としたグラフで階調変化を示している。(b)のグラフと、(c)のグラフとを比較すると、256階調の変化では、グラディエーション変化が離散的となり画像中の細かい絵柄を充分な精度で表現し切れない。しかし4096階調のグラディエーション変化ではこの離散性がやわらげられ、グラディエーション変化が滑らかに見える。
 原画像における画素のNビットによる色の深さがBaseビデオストリームのピクチャにおける画素ビット値と、Enhancementビデオストリームのピクチャにおける画素ビット値との組合せで表現されていることがわかる。以下、具体例を交えて上記色深度拡張について説明を行い、技術的理解を深める。ここで想定する具体例とは、動きの激しいスポーツコンテンツを符号化するというものであり、その映像内容としては、図7のようなものを考えている。図7は、原画像の絵柄と、Baseビデオストリームのピクチャにおける絵柄とを示す。図7(b)はBaseビデオストリームのピクチャによる画像の一例である。(b)におけるブロック枠は、Nビットから8ビットへの変換時に誤差が生じたマクロブロックを示す。本図の画像の一例は、スポーツのワンシーンを抜き出したものであり、映像内の登場人物の動きの激しさから、ボール部分の絵柄部分、ユニホームの絵柄部分にモザイク状の誤差(例えばMPEG2ビデオなどではブロックノイズとして現れる誤差)が発生していることがわかる。これをEnhancementビデオストリームのシフト量と、画素値とを用いて補完することで原画像と遜色がない映像の再現を図る。図7(a)は、この補完結果である。図7(a)では、誤差が存在しない。よって、Baseビデオストリームのピクチャと共にEnhancementビデオストリームを記録媒体に記録することで、この原画像の再現を再生装置に実行させる。
 Enhancementビデオストリームを用いた色深度拡張を導入すれば、12ビットによる階調表現を用いてかかるユニホームの絵柄の緻密さを図6(b)に示すような、4096階調での分解能で再現することになる。これにより自然画に近い美しさで原画像の再現が可能になる。
 フレーム毎におけるシフト量bに基づきBaseビデオストリームのピクチャにおける階調ビット列をシフトさせるケースについて、図8を参照しながら説明する。
 図8は、8つのフレームにおけるピクチャデータの割り当てビット量の変化と、この変化時の個々のフレームにおけるBaseビデオピクチャの画素の階調ビット幅、Enhancementビデオピクチャの画素の階調ビット幅を示す。
 図8の第1段目は、縦軸を各フレームの割当ビット量とし、横軸を時間軸としたグラフである。第2段目は、各フレームにおけるBaseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャのビット階調を示す。Baseビデオストリームのピクチャのビット幅は、何れも8ビットになっている。これに対しEnhancementビデオストリームのピクチャの画素のビット幅はフレーム(1)、フレーム(2)、フレーム(3)では、4ビット、2ビット、0ビットになっている。フレーム(4)、(5)では、ビット幅が3ビット、1ビット、フレーム(6)(7)(8)では2ビット、0ビット、3ビットになっている。図8の第3段目は、Baseビデオストリームにおけるピクチャの画素階調を示すビット列が上位方向にどれだけシフトされるかを示す。フレーム(1)、フレーム(2)、フレーム(3)では、非可逆変換の変換誤差の最上位ビットが4ビット、2ビット、0ビットになっているため、BaseビデオストリームのピクチャにおけるY,Cr,Cbの階調ビット列は、それぞれが4ビット、2ビット、0ビットだけ上位方向にシフトされる。フレーム(4)、(5)では、Baseビデオストリームの階調ビット列が3ビット、1ビットだけシフトされ、フレーム(6)(7)(8)ではBaseビデオストリームのピクチャの階調ビット列2ビット、0ビット、3ビットだけ上位方向にシフトされる。
 フレーム毎におけるシフト量bに基づきEnhancementビデオストリームのピクチャにおける階調ビット列をシフトさせるケースについて、図9を参照しながら説明する。
 図9は、8つのフレームにおけるピクチャデータの割り当てビット量の変化と、この変化時の個々のフレームにおける輝度Y,赤色差Cr,青色差Cbの画素ビット値と、かかる原画像の画素ビット値まで色深度を拡張する場合のシフト範囲の設定とを示す。
 図9の第1段目は、縦軸を各フレームの割当ビット量とし、横軸を時間軸としたグラフィクスを示す。このグラフィクスでは、フレーム(1)で割当ビット量が高くなってフレーム(2)(3)の順に割当ビット量が低下する。その後、フレーム(4)、(5)、フレーム(6)(7)において割当ビット量"高"、割当ビット量"低"、割当ビット量"高"、割当ビット量"低"という変化を繰り返すというものである。かかるグラフでは、フレーム(1)における割当ビット量が一番高く、次いでフレーム(2)(6)、次いでクレーム(3)(7)の順になっている。これは各フレームにおける絵柄の複雑さや動きの激しさに応じたものである。
 フレーム毎の誤差範囲の違いがシフト量/Enhancementビデオストリームの画素ビット値の違いとしてフレームの精度で表現されることになる。
 第2段目は、フレーム(1)(2)(3)~(7)、フレーム(8)のそれぞれで表示されるべき一画面分の画素を行す。第3段目は、輝度Y,赤色差Cr,青色差Cbの階調において非可逆変換における変換誤差が生じた範囲の最上位ビットを示す。図9の第4段目は、Enhancementビデオストリームの階調ビット列が、12ビットの範囲においてどの位置に配置されるかを示す。フレーム(1)、フレーム(2)、フレーム(3)では、12ビット、10ビット、8ビットになっているため、EnhancementビデオストリームのピクチャにおけるY,Cr,Cbの階調ビット列は、それぞれが12ビット、10ビット、8ビット目に配置される。フレーム(4)、(5)では、Enhancementビデオストリームの階調ビット列が11ビット目、9ビット目に配置され、フレーム(6)(7)(8)ではEnhancementビデオストリームのピクチャの階調ビット列の10ビット、8ビット、11ビット目に配置される。
 以上のように、Enhancementビデオストリームにおけるピクチャの画素階調を示すビット列のビット位置は、フレーム毎に設定されたシフト量に応じて変化していることがわかる。フレーム毎の誤差範囲の違いがフレーム毎のシフト量の違い、Enhancementビデオストリームの画素ビット値の違いとしてフレームの精度で表現されており、スポーツコンテンツの高品位な再現がなされていることがわかる。このフレーム精度、画素精度の再現こそが、上述したような色深度拡張の具体的態様の1つである。
 以上がEnhancementビデオストリームについての説明である。続いて、かかるEnhancementビデオストリームをBaseビデオストリームと共に記録媒体に記録する記録装置の詳細について説明する。
 図10は、記録装置の内部構成の一例を示す。本図に示すように記録装置は、Nビットの画素ビット値から構成される原画像データをインポートするインポート部1、原画像データからBaseビデオストリーム及びEnhancementビデオストリームを生成するストリーム生成部2、生成されたBaseビデオストリーム及びEnhancementビデオストリームを記録媒体に書き込む書込部3、記録媒体を装填するためのドライブ部4を備える。
 (色深度拡張のための圧縮の仕組み)
 図11は、色深度拡張のためのビデオエンコーダーを具備したストリーム生成部2の内部構成の一例を示す。本図に示すように、ストリーム生成部2は、原画像のNビットの画素ビット値を8ビットにシフトする第1シフト回路11、画素ビット値が8ビットに変換された画像データをエンコードする第1ビデオエンコーダ12、第1ビデオエンコーダ12のエンコード結果をデコードして、8ビットの画素ビット値からなる画像データを得るビデオデコーダ13、ビデオデコーダ13のデコードで得られた8ビットの画素ビット値を上位方向にシフトして、Nビットの画素ビット値からなる画像データを得る第2シフト回路14、原画像データを構成するNビットの画素ビット値から第2シフト回路14のシフトで得られたNビット画素ビット値を減じる減算部15、減算部15の減算結果であるNビット画素ビット値に補正値を加算する加算部16、加算部16の加算結果である8ビットの画素ビット値と、第2シフト回路14がシフトを行った際のシフト量とに対してエンコード処理を行い、Enhancementビデオストリームを得る第2ビデオエンコーダ17とを備える。
 複数ピクチャからなる原画像は、各ピクセルの各色がNビットのビット長を持つ。前記Nビットの原画像は、第1シフト回路にて、Nビットから8ビットに変換された後、第1ビデオエンコーダーに入力され、Baseビデオストリームとして出力される。次に、第1ビデオエンコーダーから出力されたBaseビデオストリームはビデオデコーダーにてデコードされ、8ビットの映像が出力される。この8ビットの映像は、各ピクセルの各色が図1の階調ビット列1803で構成される映像であり、各ビット列は第2シフト回路によりNビットの画像となる。次に、Nビットの原画像と、第2シフト回路から出力された各色のNビット階調ビット毎に減算処理を行う。ここで言う減算処理とは、各ピクセルの各色に対して、図2で説明した階調ビット列1801から、Nビット化された階調ビット列1803を減算することに相当する。
 この減算処理の結果、Nビットの原画像に対して、Baseビデオストリームで失われていた下位ビット、及び、第1第2ビデオエンコーダーで圧縮した際に誤差を含むようになった下位ビット情報(図1の階調ビット列1803で「原画に対して誤差を含む下位ビット」として記載した情報)を含む8ビットの階調ビット列からなる差分画像が得られる。
 前述の8ビットの差分画像を構成するデータは、前述の減算処理により負の値を持つこともあるため、必要に応じて補正値を加算して、正の値にした後、第2ビデオエンコーダーに入力され、Enhancementビデオストリームが出力される。
 加算部16は、Baseビデオストリームにおけるピクチャの画素階調を示すビット列と、Enhancementビデオストリームにおける画素階調ビットとの差分に対して正値化を実行するものである。以下、加算部16による正値化変換について説明する。図12は、加算部16による正値化変換の過程を示す。図12(a)は、原画像の12ビットによる数値範囲を示す。(b)は、12ビット化されたBaseビデオストリームの階調の数値範囲を示す。(c)は減算結果を示し、(d)はEnhancementビデオストリームとして表現したい数値範囲を示す。減算結果は、符号付き8ビットで表現され、-127~+127の数値範囲になるから、補正値として「+127」を加算すれば減算結果は、0~+254の数値に正値化することができる。逆に再生時においては、Enhancementビデオストリームの画素階調から127を減じることでー127~+127の差分を再現することができる。
 Nビット画素ビット値への変換の過程で誤差が生じているかどうかは8ビット階調を上位シフトすることで得られたNビット階調を、原画像のNビット階調から減ずることで得られた減算結果が0かどうかをチェックすることで判断される。またこの減算結果をプライオリティエンコーダに入力することにより当該減算結果を、誤差範囲の上位ビットを示すNビット値に変換することができる。こうすることで任意のフレームに固有なシフト量を取得することができる。
 本実施形態に係る記録装置は、上述したような記録装置における各構成要素を、ASIC等のハードウェア集積素子で具現化することで工業的に生産することができる。このハードウェア集積素子に、CPU、コードROM、RAMといった汎用的なコンピュータアーキテクチャを採用する場合、上述したような各構成要素の処理手順をコンピュータコードで記述したプログラムをコードROMに予め組みこんておき、ハードウェア集積素子内のCPUに、このプログラムの処理手順を実行させねばならない。汎用的なコンピュータシステムのアーキテクチャを採用する場合、ソフトウェア実装で必要となる処理手順について説明する。図13は、記録方法の処理手順を示すフローチャートである。
 ステップS1では、原画像におけるピクチャの各画素をNビット階調に変換し、ステップS2では原画像のピクチャのうち1秒単位の集合をエンコード対象とする。以降、ステップS3~ステップS8のループに移行する。このループは、原画像のピクチャの集合であって、エンコード対象となるものを圧縮符号化してGOPを得て(ステップS3)、Baseビデオストリーム、Enhancementビデオストリームのピクチャを生成し(ステップS4)、GOPが所定の量蓄積するのを待つ(ステップS5)。その後、BaseビデオのGOP、EnhancementビデオのGOPをデータブロックに変換してインターリーブ配置を行った上、記録媒体に記録するというものである(ステップS6)。ステップS7はループの終了条件を規定するものであり、原画像のうち次のエンコード対象となるものが残っているかどうかを判定するか否かを判定する。もし残っていれば、ステップS8において原画像のピクチャ集合のうち、次のエンコード対象となるものを取得してステップS3に戻る。かかるループの実行により、Baseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャが記録媒体に記録されてゆくことになる。
 図14は、Baseビデオストリーム、Enhancementビデオストリームの生成手順を示す。本フローチャートにおける変数(i)は、処理対象となるピクチャを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのi巡目の処理で処理対象となるピクチャ(i)と表記することにする。更に、ピクチャ(i)が表示されるべきフレームをフレーム(i)と表し、またフレーム(i)に固有なシフト量をシフト量(i)とする。
 ステップS10は、GOPを構成するピクチャのそれぞれについて、ステップS11~ステップS18の処理を繰り返すループ構造を規定する。この繰り返しの対象をピクチャ(i)とする。ステップS11では、ピクチャ(i)における8ビット階調を伸長してNビット階調に変換し、ステップS12では、原画像のNビット階調からBaseビデオストリームのピクチャのNビット階調を減じて減算結果を誤差範囲とする。ステップS13では、Nビット階調の原画像において、誤差範囲は8ビット以下に存在するかどうかを判断する。
 ステップS13においてYesと判定されたならステップS14に移行する。ステップS14では、8ビットの誤差範囲、又は、誤差範囲を含む8ビットを8ビット階調とする。ステップS13においてNoと判定されたならステップS15に移行する。ステップS15では、誤差範囲の最上位ビットから8ビットを切り出して8ビット階調とする。ステップS16では、8ビット階調に補正値を加算して正値化変換を行い、ステップS17では加算結果をEnhancementビデオストリームのピクチャの8ビット階調とする。ステップS18では、誤差範囲の最上位ビットをフレーム(i)のシフト量(i)としてシフト量シーケンスに記述する。
 以上が記録装置についての説明である。続いて、再生装置の詳細について説明する。
 図15は、再生装置の内部構成の一例を示す。Baseビデオストリームと、Enhancementビデオストリームとが記録された記録媒体を装填するドライブ21、記録媒体からBaseビデオストリームを含むポトランスポートストリームと、Enhancementビデオストリームを含むトランスポートストリームとを読み出す読出部22と、Baseビデオストリーム及びEnhancementビデオストリームをデコードしてBaseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャ、シフト量を得るビデオデコード部23と、Enhancementビデオストリームにおけるピクチャと、シフト量とを用いて色深度拡張を行いNビットの画素ビット値からなる画像データを得る色深度拡張部24と、Nビット画素ビット値からなる画像データを格納するプレーンメモリ25と、画像データを表示装置に転送するための機器間インターフェイス26とから構成される。
 前述のBaseビデオストリームと、Enhancementビデオストリームから、Nビットの映像を再構築する色深度拡張部を説明する。
 始めに、フレーム毎に規定されたシフト量bを用いてBaseビデオストリームのピクチャの階調ビット列をシフトする場合の色深度拡張部の内部構成について説明する。 図16は、ビデオデコード部23、及び、色深度拡張部24の内部構成の一例を示す。本図に示すように、ビデオデコード部23は、Baseビデオストリームをデコードする第1ビデオデコーダー31と、Enhancementビデオストリームをデコードする第2ビデオデコーダー32とから構成される。
 色深度拡張部24は、シフト量bだけBaseビデオストリームの画素階調を上位方向にシフトする第1シフト回路33、Enhancementビデオストリームにおけるピクチャの階調を示す8ビット値から補正値を減じて符号付きビット値に変換する減算部34、Baseビデオストリームのピクチャにおける8+bビット階調と、減算部34の減算結果とを加算する加算部35、加算部35の加算結果を(N-8-1)だけ上位方向にシフトして、Nビット階調にする第2シフト回路36から構成される。
 Base映像は、各ピクセルの各色が、画像シフト量bで示されるだけ第1シフト回路でシフトされ(図2において、階調ビット値1803を左シフトし、下位に0を挿入した処理に相当)、前記Enhancement映像の各ピクセルの各色の色深度は、補正値を減算された後、前述のシフトされたBase映像に加算された、さらに第2シフト回路36で(N-8-1)ビットだけシフトされた後、Nビットの画像として出力される。ここで、補正値は、図11で説明したエンコード時の使用した補正値と同じ値としている。加算部16で補正値を加算するのは、減算結果をEnhancementビデオストリームの個々の画素階調とするためである。原画像の画素のNビット階調と、Baseビデオストリームのデコードにより得られた8ビット階調との減算結果は、負の値になることがある。そこで、デコード時と共通に用いる値として、予め定められている補正値を、8ビット階調ビットに加算することにより正の値にする。こうすることで、上記減算結果をEnhancementビデオストリームの画素として使用することが可能になる。
 Baseビデオストリームにおけるピクチャの画素階調を示すビット列をシフト量でシフトする図16の色深度拡張部の構成は、拡張後の色深度であるNを可変にするためのものである。ここで、Nを可変にするには、Baseビデオストリームの階調をシフト量bのビット値だけ上位方向にシフトすると共に、正値化がなされたEnhancementビデオストリームの階調を加算して、その後N-8-1だけ加算結果をシフトせねばならない。図16の色深度拡張部では、第2シフト回路36が、原画像における画素の階調ビット列のビット幅と、Baseビデオストリームの階調ビット列のビット幅の差分である(N-8-1)を調整させる役割をもつので、図18の色深度拡張部の構成は、拡張後の色深度である「N」の可変化に適合した構成となる。
 上記の再生装置の製品開発にあたって、ソフトウェア実装で必要となる処理手順について説明する。図17は、Baseビデオストリームのシフト量bでBaseビデオストリームにおけるピクチャの画素階調を示すビット列をシフトする場合の色深度拡張手順を示すフローチャートである。本フローチャートにおける変数(i)は、処理対象となるピクチャを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのi巡目の処理で処理対象となるピクチャ(i)と表記することにする。更に、ピクチャ(i)が表示されるべきフレームをフレーム(i)と表し、またフレーム(i)に固有なシフト量をシフト量(i)とする。
 本フローチャートは、ステップS20で色深度拡張インターリーブドストリームファイルをオープンしてステップS29の終了要件が満たされるまで、ステップS21~ステップS28の処理を繰り返すループ構造を規定している。ステップS21は、BaseビデオストリームのGOP、EnhancementビデオストリームのGOPが読み出されたかどうかの判定待ちであり、ステップS22はBaseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャのデコードが完了したかどうかの判定である。ステップS21、ステップS22がYesになれば、ステップS23においてBaseビデオストリームのピクチャが属するGOPからGOPについてのシフト量を取り出し、Baseビデオストリームにおけるピクチャの画素の8ビット階調をシフト量だけ上位方向にシフトしNビット階調にする。
 ステップS24では、Enhancementビデオストリームのピクチャにおける8ビット階調から補正値を減じることにより符号付きビット値に変換し、ステップS25では上位方向へのシフトで得られたNビット階調値の下位にEnhancementビデオストリームのピクチャ(i)の符号付きビット値を加算する。ステップS26では、加算結果をN-8-1だけ上位方向にシフトする。
 ステップS27では、加算結果であるNビット値を画素のビット階調値としたピクチャ(i)をプレーンメモリに書き込む。ステップS28は、GOP内に残りのピクチャが存在するかどうかの判定であり、もしこのステップがYesならステップS22に移行する。ステップS40は、ステップS28がYesと判定された場合に実行されるものであり、再生が終了したかどうかを判断するものである。もし終了していなければステップS21にまで戻る。
 以上が、フレーム毎に規定されたシフト量bを用いてBaseビデオストリームのピクチャの階調ビット列をシフトする構成についての説明である。続いて、フレーム毎に規定されたシフト量bを用いてEnhancementビデオストリームのピクチャの階調ビット列をシフトする場合の色深度拡張部の内部構成について説明する。
 図18は、Baseビデオストリームと、Enhancementビデオストリームから、Nビットの映像を再構築する装置の派生である。この派生の構成は、フレーム毎のシフト量bを目標ビット位置として使用するものである。つまりシフト量bは、原画像のNビットの階調ビット列のうち、何ビット目に変換誤差の最上位ビットが存在するかを示しているから、Enhancementビデオストリームの階調ビット列をこのシフト量bのビット位置まで移動するには、シフト量bからEnhancementビデオストリームの階調ビット列のビット幅「8」を減じて、減算結果「bー8」をシフトカウント数とせねばならない。図中の加算部は、このN-8の演算を実現する。図16と比較すると、本図における色深度拡張部の内部構成は、第1シフト回路のシフト量は常に固定とするため、第1シフト回路への画素値シフト量bを入力を必要としない点とNビット画像出力前に必要な第2シフト回路36が必要とされない点が異なる。
 図18に示すように色深度拡張部24は、8ビットBaseビデオストリームのピクチャにおける8ビット階調を8+bビット階調に変換する第1シフト回路33、Enhancementピクチャにおける8ビット階調から補正値を減じて符号付きビット値にする減算部34、減算部34の減算により符号付きビット列に変換されたEnhancementビデオストリームの画素階調ビット列を(b-8)だけ上位方向にシフトする第2シフト回路36、Baseビデオストリームのピクチャにおける8+bビット階調に、第2シフト回路36のシフト結果を加算して、Nビット階調の画素に変換する加算部35とから構成される。
 第1ビデオデコーダー31でデコードされた映像の各色を構成するビット列の上位ビットまで誤差が含まれる場合、例えば、Baseビデオストリームにおける8ビットの階調ビット列において、下位6ビット目に誤差が含まれる場合、原画像における画素の階調ビット列では10(=6+4)ビット目になるから画素値シフト量bは"10"が設定される。こうすると第2シフト回路36には10ー8=2の"2"というシフトカウントが第2シフト回路に設定される。こうすることで、Enhancementビデオストリームをデコードすることにより得られた8ビットの階調ビット列が2ビットだけ上位方向にシフトされ、前述の第1シフト回路の出力と加算されることになる。
 第1ビデオデコーダー31でデコードされた映像の各色を構成するビット列にあまり誤差が含まれない場合、つまり、階調ビット列を構成する12ビットの階調ビット列のうち下位4ビットにだけ誤差が含まれる場合には、画素値シフト量bは"4"が設定される。この場合、N-8がー4になるから、第2シフト回路36によるEnhancementビデオストリームのシフトがなされず、ビデオデコーダーのデコードにより得られたEnhancementビデオストリームの8ビット階調ビットが前述の第1シフト回路の出力と加算されることになる。
 Enhancementビデオストリームにおけるピクチャの画素階調を示すビット列をシフト量bでシフトする図18の内部構成は、色深度であるNを固定化するための構成である。ここでの色深度拡張は、BaseビデオストリームのピクチャをN-8だけシフトすると共に、正値化後のEnhancementビデオストリームのピクチャ階調を(b-8)だけシフトするものである。図18の色深度拡張部では、第2シフト回路が、原画像における画素の階調ビット列のビット幅において、シフト量bで指定された目標ビット位置にEnhancementビデオストリームの階調ビット列を変位させる役割をもつので、図18の色深度拡張部の構成は、拡張後の色深度である「N」の固定化に適合した構成となる
 図19は、色深度拡張手順を示すフローチャートである。本フローチャートにおける変数(i)は、処理対象となるピクチャを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのi巡目の処理で処理対象となるピクチャ(i)と表記することにする。更に、ピクチャ(i)が表示されるべきフレームをフレーム(i)と表し、またフレーム(i)に固有なシフト量をシフト量(i)とする。
 本フローチャートは、ステップS30で色深度拡張インターリーブドストリームファイルをオープンしてステップS39の終了要件が満たされるまで、ステップS21~ステップS28の処理を繰り返すループ構造を規定している。ステップS31は、BaseビデオストリームのGOP、EnhancementビデオストリームのGOPが読み出されたかどうかの判定待ちであり、ステップS32はBaseビデオストリームのピクチャ、Enhancementビデオストリームのピクチャのデコードが完了したかどうかの判定である。ステップS31、ステップS32がYesになれば、ステップS33に移行する。
 ステップS33においてBaseビデオストリームにおけるピクチャの画素の8ビット階調をシフト量だけ上位方向にシフトしNビット階調にする。
 ステップS34では、Enhancementビデオストリームのピクチャにおける8ビット階調から補正値を減じることにより符号付きビット値に変換し、ステップS35では上位方向へのシフトで得られたNビット階調値の下位にEnhancementビデオストリームのピクチャの符号付きビット値を加算する。
 ステップS36において、Enhancementビデオストリームのフレーム(i)についてのシフト量b(i)が8以上か否かを判定する。8未満ならステップS37をスキップする。8以上であるなら、ステップS37ではEnhancementビデオストリームのピクチャの階調ビット列を、(N-8)だけ上位方向にシフトする。ステップS38では、加算結果であるNビット値を画素のビット階調値としたピクチャをプレーンメモリに書き込む。ステップS39は、GOP内に残りのピクチャが存在するかどうかの判定であり、もしこのステップがYesならステップS32に移行する。ステップS40は、ステップS39がYesと判定された場合に実行されるものであり、再生が終了したかどうかを判断するものである。もし終了していなければステップS21にまで戻る。
 かか構成で色深度拡張を実現するにあたっては、Baseビデオストリームにおける各ピクチャの画素の階調ビットについてのビット操作が重要になる。かかるビット操作の処理内容の行き来は重要であるから、上記内部構成とは別途、図20、図21という2つの説明図を準備して詳細な解説を行うことにした。これらの説明図を参照しながら詳細な解説を行う。
 図20は、色深度拡張後のピクチャにおいて座標(x,y)に存在する画素の輝度Y,赤色差Cr,青色差Cbがどのように変換されるかという変換の過程を示す。第1段目は、8ビット階調×3の画素ビット値から構成される1920×1080のピクチャBase(i)を示す。第2段目は、このピクチャBase(i)において(x,y)に存在する画素を構成する輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)を示す。第3段目は、これらの輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)に対するシフト処理を示す。輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)のシフトは、Base(i)に対応するシフト量b(i)だけ、輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)の8ビット値を上位方向にシフトすることでなされる。
 第4段目は、フレーム(i)で表示されるEnhancementビデオストリームのピクチャEnhanced(i)において(x,y)に存在する輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)を用いた下位ビット設定を示す。上述したように輝度Y(x,y),赤色差Cr(x,y),青色差Cb(x,y)は、補正値が減じられたものになっている。こうして補正値が減じられたEnhanced(i)の画素ビット値が最下位ビットに設定され、12ビット×3の画素ビット値が得られることになる。第5段目は、12ビット階調の画素を1920×1080だけ配置してなる色深度拡張がなされたピクチャを示す。矢印set1は、色深度拡張後の画素ビット値を用いた画素設定を示す。
 図21は、図20に示した色深度拡張の過程においてどのようなパラメータが用いられるかを示す。第1段目は、Baseビデオストリームにおけるピクチャと、Enhancementビデオストリームにおけるピクチャ、シフト量シーケンスを示す。これらBaseビデオストリーム、Enhancementビデオストリーム、シフト量シーケンスにおいてBaseビデオストリームにおいてフレーム(i)で表示されるべきピクチャBase(i)、Enhancementビデオストリームにおいてフレーム(i)で表示されるべきピクチャEnhanced(i)は、同じ値のPTSが設定されており、フレーム(i)に表示されることが仕向けられている。また、このピクチャBase(i)が属するGOPのシフト量シーケンスには、フレームにおけるシフト量としてb(i)が存在している。左下向き矢印cu1,2,3は、ピクチャBase(i)、ピクチャEnhanced(i)、シフト量b(i)がどのように設定されるかを模式的に示す。ピクチャBase(i)の(x,y)が処理対象になった際、フレーム(i)に固有なb(i)がシフト量パラメータとして選定され、またピクチャEnhanced(i)の(x,y)における画素ビット値が下位ビットとして使用されることがわかる。図中の矢印set2は、以上の過程を経て生成された画像が色深度拡張後の画素ビット値として使用されることを示す。以上のように、画素単位で下位ビットが設定される。
 シフト量と、Enhancementビデオストリームの画素ビット値とが図8、図9のように変化する場合、図20に示したような色深度拡張の過程を経ることでフレーム毎に最適なビット長に拡張することが可能になる。かかる処理は、Baseビデオストリーム、Enhancementビデオストリームを構成するピクチャデータのうち1つを構成するもの1つの画素に対する処理である。ピクチャデータは、1920×1080といったオーダーの解像度があり、また一秒当りの動画像には、24枚のピクチャデータが再生されるから、1920×1080×24というオーダーで上記、ビット操作がなされることになる。
 以上のように本実施形態によれば、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列と、ベースビデオストリームのピクチャにおける階調ビット列とを組合せることで原画像と遜色がない画像を復元することができるので、表示装置側の表示能力が、8ビットを越える階調の色深度を表現できるものである場合、その表示能力を如何なく発揮することができるような動画コンテンツを社会に送り出すことができる。これにより、コンテンツ業界や表示装置の製造業界を活性化することができ、国内産業の振興をもたらすことができる。
 (第2実施形態)
 本実施形態は、第1実施形態で説明したBaseビデオストリーム、Enhancementビデオストリームを用いて映画作品の頒布を実現するための実施形態である。
 図22は、第1実施形態にかかる記録媒体、再生装置が使用されるホームシアターシステムを示す。
 ディスク媒体1001は、これまでの実施形態で示したBaseビデオストリーム、EnhancementビデオストリームをBlu-ray ReadOnlyディスクのアプリケーションフォーマット、Blu-ray Rewritableアプリケーションフォーマット、AVC-HDアプリケーションフォーマットで格納するための光学式記録媒体である。
 再生装置1002は、上記アプリケーションフォーマットに規定されたプログラム、プレイリスト情報、ストリーム情報に従って、Baseビデオストリーム及びEnhancementビデオストリームを読み出し、これらのストリームに対するデコード処理を行う。そして、現在の再生モードに応じて、一画面分の画素階調ビット列を表示装置に出力する。再生装置1002には、通常モード(非色深度拡張モード)、色深度拡張モードの何れかに設定が可能である。色深度拡張モードにおいて再生装置1002から出力される画素ビット値はNビット階調となり非色深度拡張モードにおいて再生装置1002から出力される画素ビット値は8ビット階調になる。
 表示装置1003は、機器間インターフェイスを通じて再生装置1002から送出されてくる一画面分の画素ビット値を受け取り、この画素ビット値に従い表示パネルの表示素子を駆動することで画像表示を行う。この画像表示には、8ビットの階調による通常モード(非色深度拡張モード)の他、12ビットの階調による色深度拡張モードがある。以上がホームシアターシステムについての説明である。続いて、ディスク媒体の詳細について説明する。
 図23は、多層化された光ディスクである、ディスク媒体の内部構成の一例を示す。
 第1段目は、多層化された光ディスクの一例を示し、第2段目は、各記録層上に存在する螺旋トラックを水平方向に引き伸ばして描いた図である。これらの記録層における螺旋トラックは、1つの連続したボリューム領域として扱われる。ボリューム領域は、最内周に位置するリードイン、最外周に位置するリードアウト、この間に存在する記録層1の記録領域、記録層2の記録領域、記録層3の記録領域から構成される。これらの記録層1の記録領域、記録層2の記録領域、記録層3の記録領域は、1つの連続した論理アドレス空間を構成する。
 ボリューム領域は、先頭から光ディスクをアクセスする単位で通し番号が振られており、この番号のことを論理アドレスと呼ぶ。光ディスクからのデータの読み出しは論理アドレスを指定することで行う。ここで、Blu-ray ReadOnlyディスクのような読み込み専用ディスクの場合には、基本的に論理アドレスが連続しているセクタは、光ディスク上の物理的な配置においても連続している。すなわち、論理アドレスが連続しているセクタのデータはシークを行わずに読み出すことが可能である。ただし、記録層の境界においては、論理アドレスが連続していたとしても連続的な読み出しはできない。そのため、層境界の論理アドレスは、予め記録装置に登録されているものとする。
 ボリューム領域は、リードイン領域の直後にファイルシステム管理情報が記録されていて、これに続いて、ファイルシステム管理情報にて管理されるパーティション領域が存在する。ファイルシステムとはディスク上のデータをディレクトリまたはファイルと呼ばれる単位で表現する仕組みであり、Blu-ray ReadOnlyディスクの場合ではUDF(Universal Disc Format)によって記録される。日常使っているPC(パーソナルコンピュータ)の場合でも、FATまたはNTFSと呼ばれるファイルシステムを通すことにより、ディレクトリやファイルという構造でハードディスクに記録されたデータがコンピュータ上で表現され、ユーザビリティを高めている。このファイルシステムにより、通常のPCと同じように記録されている論理データをディレクトリ、ファイル構造を使って読み出すことが可能になっている。
 第4段目は、ファイルシステムで管理されるファイルシステム領域における領域割り当てを示す。ファイルシステム領域のうち、内周側には、非AVデータ記録領域が存在する。非AVデータ記録領域の直後には、AVデータ記録領域が存在する。第5段目は、これら非AVデータ記録領域及びAVデータ記録領域の記録内容を示す。AVデータ記録領域には、AVファイルを構成する構成するエクステントが存在する。非AVデータ記録領域には、AVファイル以外の非AVファイルを構成するエクステントが存在する。
 図24は、ファイルシステムを前提にした光ディスクのアプリケーションフォーマットを示す。
 BDMVディレクトリはBlu-ray ReadOnlyディスクで扱うトランスポートストリームや管理情報などのデータが記録されているディレクトリである。BDMVディレクトリの配下には、「BDJOディレクトリ」、「JARディレクトリ」「PLAYLISTディレクトリ」、「CLIPINFディレクトリ」、「STREAMディレクトリ」と呼ばれる5つのサブディレクトリが存在し、BDMVディレクトリには、「index.bdmv」,「MovieObject.bdmv」の2種類のファイルが配置されている。
 「index.bdmv(ファイル名固定)」は、インデックステーブルを格納している。インデックステーブルは、再生装置におけるタイトル番号レジスタに格納され得る複数のタイトル番号と、動作モードを規定するプログラムファイルとの対応付けを規定する。ここで、タイトル番号レジスタにおけるタイトル番号は、0、1~999、不定値(0xFFFF)という番号がある。タイトル番号0は、トップメニュータイトルのタイトル番号である。トップメニュータイトルとは、ユーザによるメニューコール操作によって呼び出すことができるタイトルである。不定値(0xFFFF)のタイトル番号は、ファーストプレイタイトルのタイトル番号である。ファーストプレイタイトルとは、記録媒体の装填直後に、視聴者への警告やコンテンツプロバイダによるロゴ表示等を行うタイトルである。インデックステーブルは、各タイトル番号のそれぞれに対応したエントリー(タイトルインデックス)を有し、個々のタイトルインデックスに、動作モードを規定するプログラムファイルを記述することで、各々のタイトルが、どのような動作モードで動作するのかを詳細に規定する。
 「MovieObject.bdmv(ファイル名固定)」は、1つ以上のムービーオブジェクトを格納している。ムービーオブジェクトは、コマンドインタプリタを制御主体とした動作モード(HDMVモード)において、再生装置が行うべき制御手順を規定するプログラムファイルであり、1つ以上のコマンドと、GUIに対するメニューコール、タイトルコールがユーザによってなされた場合、これらのコールをマスクするかどうかを規定するマスクフラグを含む。
 「BDJOディレクトリ」には、拡張子bdjoが付与されたプログラムファイル(xxxxx.bdjo[「xxxxx」は可変、拡張子「bdjo」は固定])が存在する。このプログラムファイルは、オブジェクト指向プログラミング言語の動作モードにおいて、再生装置が行うべき制御手順を規定するプログラムファイルであるBDーJオブジェクトを格納している。
 このJava(登録商標)アプリケーションの実体にあたるのが、BDMVディレクトリ配下のJARディレクトリに格納されたJava(登録商標)アーカイブファイル(YYYYY.jar)である。アプリケーションは例えばJava(登録商標)アプリケーションであり、仮想マシンのヒープ領域(ワークメモリとも呼ばれる)にロードされた1つ以上のxletプログラムからなる。このワークメモリにロードされたxletプログラム、及び、データから、アプリケーションは構成されることになる。
 「PLAYLISTディレクトリ」には、拡張子mplsが付与されたプレイリスト情報ファイル(xxxxx.mpls[「xxxxx」は可変、拡張子「mpls」は固定])が存在する。拡張子がmpls付され、BDMVディレクトリに格納されるプレイリスト情報ファイルのことを"mplsファイル"という。
 「CLIPINFディレクトリ」には、拡張子clpiが付与されたクリップ情報ファイル(xxxxx.clpi [「xxxxx」は可変、拡張子"clpi」は固定])が存在する。
 以上のディレクトリに存在するファイルを構成するエクステントは、非AVデータ領域に記録される。
 「STREAMディレクトリ」は、ストリームファイルを格納しているディレクトリであり、本ディレクトリには、xxxxx.m2ts([「xxxxx」は可変、拡張子「m2ts」は固定])という形式でストリームファイルが格納される。拡張子がm2tsであり、BDMVディレクトリに格納されるストリームファイルのことを"m2tsファイル"という。
 CLREXTディレクトリは、BDMVディレクトリに存在するプログラムファイル、プレイリスト情報ファイル、クリップ情報ファイル、ストリームファイルの拡張版である、色深度拡張適合プログラムファイル、色深度拡張プレイリスト情報ファイル、色深度拡張クリップ情報ファイル、色深度拡張ストリームファイルが存在する。この色深度拡張インターリーブドストリームファイルこそが、Baseビデオストリーム、Enhancementビデオストリームをインターリーブ配置することで作成された色深度拡張インターリーブドストリームファイルである。その他、CLREXTディレクトリには拡張機能判定ファイルが存在する。これは、色深度拡張プログラムファイルが色深度拡張に適合した処理を行う際、拡張機能のケーパビリティ判定に用いられるものである。これら色深度拡張ディレクトリのファイルのうち、色深度拡張対応クリップ情報ファイル、色深度拡張対応プレイリスト情報ファイル、色深度拡張対応プログラムファイル、拡張機能判定ファイルは、螺旋トラックの内周側に記録される。色深度拡張ストリームファイルは螺旋トラックの外周側に記録される。このように記録するのは、色深度拡張ストリームファイルの読み込みに先立ち、色深度拡張対応クリップ情報ファイル、色深度拡張対応プレイリスト情報ファイル、色深度拡張対応プログラムファイル、拡張機能判定ファイルをメモリに取り込むためである。
 図25は、色深度拡張インターリーブドストリームファイル、m2tsファイル、ファイルベースの相互関係を示す。第1段目はm2tsファイルを示し、第2段目は記録媒体上のデータブロックを示す。データブロックには、Baseビデオストリームを含むトランスポートストリーム(メインTS)の一部分になるもの(Baseデータブロック)と、Enhancementビデオストリームを含むトランスポートストリーム(サブTS)の一部分になるもの(Enhancementデータブロック)とがある。Baseデータブロックは、非色深度拡張モード、色深度拡張モードの双方でアクセスされるもの(図25におけるデータブロックB[1],B[2])、非色深度拡張モードでのみアクセスされ、色深度拡張モードではアクセスされないもの(図25におけるB[3]ne,B[4]ne:no-color depth extention)、非色深度拡張モードではアクセスされず、色深度拡張モードでのみアクセスされるもの(図25におけるB[3]ce,B[4]ce:color depth extention)がある。通常、Baseデータブロックは非色深度拡張モード、色深度拡張モードの共通で使用されるがBaseデータブロックのうち、記録層の境界に配置されるものは、B[x]ceと、B[x]neとに分離される。これは層境界付近では、連続長確保のため非色深度拡張モードの再生経路と、色深度拡張モードの再生経路とを分離せねばならないからである。一方、Enhancementデータブロックは、データブロックE[1],E[2],E[3]から構成される。矢印ex1,ex2,ex3,ex4は、第2段目におけるデータブロックE[1],B[1],E[2],B[2],E[3],B[3]ce,D[4],B[4]ce,B[3]ne,B[4]neのうち、B[1],B[2],B[3]ne,B[4]neがm2tsファイルのエクステントを構成しているという帰属関係を示す。
 以上がデータブロックについての説明である。続いて、これらのデータブロックのエクステントとすることで構成されるストリームファイルの詳細について説明する。第3段目はインターリーブドストリームファイル、第4段目はファイルBase、第5段目はファイルEnhancementを示す。ファイルBaseとは、データブロックB[x]ne(non-color depth Extention)と、データブロックB[x]とから構成されるファイルであり、非色深度拡張モードにおいて再生される。このファイルBaseに対応するクリップ情報として、クリップBase情報がある。
 ファイルEnhancementとは、E[x]から構成されるファイルであり、色深度拡張モードにおいてアクセスされる。このファイルEnhancementに対応するクリップ情報としてクリップEnhancement情報が存在する。クリップBase情報は、BaseビデオストリームにおいてGOP先頭のIピクチャ、IDRピクチャをランダムアクセスするためのエントリーマップである基本エントリーマップを含む。クリップEnhancement情報は、EnhancementビデオストリームにおいてGOP先頭のIピクチャ、IDRピクチャをランダムアクセスするためのエントリーマップである拡張エントリーマップを含む。これらのクリップBase情報、クリップEnhancement情報が存在するので、ファイルBase、ファイルEnhancementはそれぞれ、別個のAVクリップとして扱われる。
 矢印ex5,ex6は、データブロックのうち、E[1],B[1],E[2],B[2],E[3],B[3]ce,E[4],B[4]ceがインターリーブドストリームファイルのエクステントを構成しているという帰属関係を示す。
 第4段目は、このインターリーブドストリームファイルを構成するデータブロックのうち、B[1],B[2],B[3]ce,B[4]ceがファイルBaseのエクステントとなり、第5段目は、インターリーブドストリームファイルを構成するデータブロックのうち、E[1],E[2],E[3],E[4]がファイルEnhancementのエクステントになることを示す。
 ファイルBase、ファイルEnhancement、m2tsファイルは、1つ以上のエクステントから構成される。エクステントは、そのデータ長の下限値が規定されていることを除き、自由にデータ長を変化させることができる。この下限値となるデータ長は、立体視再生のためのプレーヤモデルであるBD-3Dプレーヤモデルをベースにして規定される。
 以下、ファイルBase、ファイルEnhancement、m2tsファイルを構成するエクステントの下限値について説明する。
 ファイルBaseのエクステントは、BDー3DプレーヤモデルにおけるBaseViewビデオストリームのファイルエクステントであるエクステントEXT1[n]と同じ下限値をもつ。この場合、ベースビデオストリームを含むファイルBaseのEXT1[n]の下限値は、色深度拡張モードの再生時における各Baseデータブロックの最後のエクステントから次のEnhancementデータブロックの最初のエクステントまでのジャンプ期間と、当該Enhancementデータブロックの最後のエクステントから次のBaseデータブロックの最初のエクステントまでのジャンプ期間とを通じて、ダブルバッファのアンダーフローを生じさせないように決定される。ここでのダブルバッファは、第1リードバッファ、第2リードバッファから構成される。第1リードバッファは、Blu-ray ReadOnlyディスクの2Dモード再生装置のリードバッファと同一物である。
 色深度拡張モードの再生において、n番目のBaseデータブロックを構成する最後のエクステントからp番目のEnhancementデータブロックを構成する最初のエクステントまでのジャンプが時間TFjump3D(n)であり、p番目のEnhancementデータブロックを構成する最後のエクステントから(n+1)番目のBaseデータブロックを構成する最初のエクステントまでのジャンプが時間TBjump3D(n)を要するものとする。ここでTFjump3D(n),TBjump3D(n)は、BDー3Dプレーヤモデルにおける3D再生モードでのジャンプ時間である。
 そして各Baseデータブロックが第1リードバッファへ速度Rud3Dで読み出され、各Enhancementデータブロックが第2リードバッファへ速度Rud3Dで読み出され、かつ、リードバッファ1からビデオデコーダへ前記Baseデータブロックが平均速度Rbext3Dで転送されるとき、EXT1[n]の下限値は、以下の条件Aの式で表される。
 <条件A>
EXT1[n]の下限値 ≧(Rud3D×Rbext3D)/(Rud3D-Rbext3D)
×(TFjump3D(n)+EXT2[n]/(Rud3D+TBjump3D(n)))

 ファイルEnhancementを構成するエクステントは、BDー3Dプレーヤモデルにおけるdependent viewビデオストリームのファイルエクステントであるEXT2[n]と同じ下限値をもつ。EXT2[n]の下限値は、色深度拡張モードの再生時において、あるEnhancementデータブロックのエクステントから次のBaseデータブロックのエクステントまでのジャンプ期間と、当該Baseデータブロックのエクステントから次のEnhancementデータブロックのエクステントまでのジャンプ期間とを通して再生装置におけるダブルバッファにアンダーフローを生じさせないように決定される。(n+1)番目のBaseデータブロックを構成する最後のエクステントから(p+1)番目のEnhancementデータブロックを構成する最初のエクステントまでのジャンプが時間TFjump3D(n+1)であり、かつ、リードバッファ2からデコーダへ前記ディペンデントビューストリームファイルが平均速度Rdext3Dで転送されるとき、EXT2[n]の下限値は以下の条件Bの式で表される。速度Rud3D、平均速度Rbext3Dは、BDー3Dプレーヤモデルにおける3D再生モードでの転送時間である。
 <条件B>
 EXT2[n]の下限値 ≧(Rud3D×Rbext3D)/(Rud3D-Rdext3D)
×(TBjump3D(n)+EXT1[n+1]/(Rud3D+TFjump3D(n+1)))

 色深度拡張インターリーブドストリームファイルを構成するエクステントのうち、m2tsファイルと共通の構成要素となるエクステントは、BDー3Dプレーヤモデルにおいて2D出力モードでのみ読み出されるエクステント"EXT2D"と同じ下限値をもつ。EXT2Dの下限値は、非色深度拡張モードの再生時において、各Baseデータブロックの最後のエクステントから次のBaseデータブロックの最初のエクステントまでのジャンプ期間中において、再生装置におけるリードバッファのバッファアンダーフローを生じないように決定される。
 n番目のBaseデータブロックから(n+1)番目のBaseデータブロックまでのジャンプが時間Tjump2D(n)を要し、各Baseデータブロックが,リードバッファに速度Rud2Dで読み出され、かつ、リードバッファからビデオデコーダへ前記Baseデータブロックが平均速度Rbext2Dで転送されるとき、EXT2Dの下限値は以下の条件Cの式で表される。
  <条件C>
EXT2Dの下限値 ≧(Rud2D×Rbext2D)/(Rud2D-Rbext2D)×Tjump2D(n)

 ファイルBaseを構成するデータブロックのうち、深度拡張モードにおいてのみ再生されるもの(データブロックB[n]ce)を構成するエクステントは、BDー3Dプレーヤモデルにおいて3D再生モードでのみ読み出されるエクステント(エクステントSextss)と同じ下限値をもつ。ここでSextssは、以下の条件Dを満たす値として算出される。
 <条件D>
 SextSS[Byte]≧ceil[(Tjump+Tdiff×Rud72)/(1000×8))×(Rextss×192)/(Rud72×188-Rextss×192)]
 ここで、Rud72は、3D再生モードにおけるBD-ROMドライブからの72mbpsというデータレートであり、Tdiffは、Enhancementデータブロックを構成するエクステントEXT2[n]を読み出すにあたっての遅延時間である。
 図25(b)は、メインTSの内部構成を示し、同図(c)は、サブTSの内部構成の一例を示す。同図(b)に示すように、メインTSは、1本のBaseビデオストリームと、32本のPGストリーム、32本のIGストリーム、32本のオーディオストリームを含むものとする。同図(c)に示すように、サブTSは、1本のEnhancementビデオストリームと、32本のPGストリーム、32本のIGストリームを含むものとする。
 次に、TSに多重化されるエレメンタリストリーム(ES)である、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィクスストリーム、インタラクティブグラフィクスストリームについて説明する。
 図25(b)において、メインTSには、ビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム(PG)、インタラクティブグラファイックスストリームのうち、1つ以上を多重化されている。
 オーディオストリームには、主音声オーディオストリーム、副音声ストリームの2種類がある。主音声オーディオストリームは、ミキシング再生を行う場合、主音声となるべきオーディオストリームであり、副音声ストリームは、ミキシング再生を行う場合、副音声をとなるべきオーディオストリームである。副音声ストリームは、このミキシングのためのダウンサンプリングのための情報、ゲイン制御のための情報が存在する。
 プレゼンテーショングラフィクスストリーム(PGストリーム)は、デコーダにパイプラインを採用することで、映像との緻密な同期を実現することができ、字幕表示に適したグラフィクスストリームである。パイプラインによるデコード動作の実現により、動画像との緻密な同期を実現するので、PGストリームの用途は字幕のような文字再生に限定されない。映画作品のマスコットキャラクタを表示して、これを動画像と同期させつつ動作させるなど、緻密な同期が必要なグラフィクス再生であれば、どのようなものも、PGストリームによる再生対象として、採用することができる。
 インタラクティブグラフィクス(IG)ストリームは、対話操作の情報を具備することで、ビデオストリームの再生進行に伴ってメニューを表示したり、またユーザ操作に従いポップアップメニューを表示することができるグラフィクスストリームである。
 ビデオストリームにはピクチャインピクチャの親画面映像を構成するものと、子画面映像を構成するものとがある。これら親画面映像を構成するビデオストリーム、子画面映像を構成するビデオストリームの共通構成について説明する。MPEG-2、MPEG-4AVC、SMPTE  VC-1などの動画圧縮符号化においては、動画像の空間方向および時間方向の冗長性を利用してデータ量の圧縮を行う。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対象のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。
 ここでは、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをイントラ(I)ピクチャと呼ぶ。ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをプレデテクィブ(P)ピクチャとよび、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをバイプレデテクィブ(B)ピクチャと呼び、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
 AVクリップに含まれる各ストリームはPIDによって識別される。例えば、映画の映像に利用するビデオストリームに配列x1011が、オーディオストリームに配列x1100から0x111Fまでが、プレゼンテーショングラフィックスに配列x1200から0x121Fまでが、インタラクティブグラフィックスストリームに配列x1400から0x141Fまでが、映画の子画面映像に利用するビデオストリームに配列x1B00から0x1B1Fまで、主音声とミキシングする副音声に利用するオーディオストリームに配列x1A00から0x1A1Fが、それぞれ割り当てられている。
 続いて、メインTSの内部構成について説明する。図26は、メインTSの生成の過程を示す図である。本図(a)は、メインTSがどのように多重化されるかを模式的に示す図である。まず、複数のビデオフレームからなるビデオストリーム501、複数のオーディオフレームからなるオーディオストリーム504を、それぞれPESパケット列502および505に変換し、TSパケット503および506に変換する。同じくプレゼンテーショングラフィックスストリーム507およびインタラクティブグラフィックス510のデータをそれぞれPESパケット列508および511に変換し、更にTSパケット509および512に変換する。AVクリップ513はこれらのTSパケットを1本のストリームに多重化することで構成される。
 図26(b)は、PESパケット列に、ビデオストリームがどのように格納されるかを更に詳しく示している。本図における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。本図の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo  Presentation  UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time-Stamp)やピクチャの復号時刻であるDTS(Decoding Time-Stamp)が格納される。
 図26(c)は、AVクリップに最終的に書き込まれるTSパケットの形式を示している。TSパケットは、ストリームを識別するPIDなどの情報を持つ4ByteのTSヘッダとデータを格納する184ByteのTSペイロードから構成される188Byte固定長のパケットであり、前述で説明したPESパケットは分割されTSペイロードに格納される。BD-ROMの場合、TSパケットには、4ByteのTP_Extra_Headerが付与され、192Byteのソースパケットを構成し、AVクリップに書き込まれる。TP_Extra_HeaderにはATS(Arrival_Time_Stamp)などの情報が記載される。ATSは当該TSパケットの後述するシステムターゲットデコーダ1503のPIDフィルタへの転送開始時刻を示す。AVクリップには図28(c)の下段に示すようにソースパケットが並ぶこととなり、AVクリップの先頭からインクリメントする番号はSPN(ソースパケットナンバー)と呼ばれる。
 また、AVクリップに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program  Association Table)、PMT(Program  Map Table)、PCR(Program  Clock Reference)などがある。PATはAVクリップ中に利用されるPMTのPIDが何であるかを示し、PAT自身のPID配列で登録される。PMTは、AVクリップ中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またAVクリップに関する各種ディスクリプタを持つ。ディスクリプタにはAVクリップのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、ATSの時間軸であるATC(Arrival  Time  Clock)とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるATSに対応するSTC時間の情報を持つ。AVクリップのメインTSの先頭には、PATパケット、PMTパケットが格納される。
 図26(d)はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、AVクリップに関するテーブルディスクリプタが複数配置される。前述したコピーコントロール情報などが、テーブルディスクリプタとして記載される。テーブルディスクリプタの後には、AVクリップに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。ストリームディスクリプタはAVクリップに存在するストリームの数だけ存在する。
 以上がメインTSについての説明である。続いて、サブTSの詳細について説明する。サブTSには、色深度拡張のためのEnhancementビデオストリームのみが格納されている点がメインTSと異なる。Baseビデオストリーム及びEnhancementビデオストリームは、NALユニットの形式に変換された上で、MPEG2-TS形式に変換されている。Baseビデオストリーム及びEnhancementビデオストリームは何れもNALユニット形式に変換されて記録媒体に記録されているので、Baseビデオストリームの一部分と、Enhancementビデオストリームの一部分とを混在して記録し、ビデオデコーダに送り込むという混在扱いが許容される。
 図27は、Enhancementビデオストリームの内部構成の一例を示す。第1段目は、複数のGOPであり、第2段目は、GOPを構成する複数のビデオアクセスユニットを示す。これらのビデオアクセスユニットは、ピクチャデータに該当するもので、GOPにおける個々の表示フレーム(図中のFrame(1)~Frame(number_of_displayed_frames_in_GOP))において表示される。
 第3段目は、ビデオアクセスユニットの内部構成の一例を示す。ビデオアクセスユニットは、ビデオアクセスユニットデリミター、シーケンスパラメータセット、ピクチャパラメータセット、SEI(Supplemental Enhancement Information)メッセージ、原画像における画素の階調ビット列からの減算で得られたスライスデータ列、シーケンス終端コード、ストリーム終端コードのそれぞれをNALユニット化して配列することにより構成される。
 以上のうち、1つのNALユニットに格納されるシーケンスパラメータセット(SPS)、1つのNALユニットに格納されるピクチャパラメータセット(PPS)について説明する。
 1つのNALユニットに格納されるシーケンスパラメータセット(SPS)にはシーケンス番号が存在しており1つのNALユニットに格納されるピクチャパラメータセット(PPS)にも、シーケンス番号のレファレンスが存在する。このPPS内のレファレンスを辿ることで、インターリーブドストリームファイルに格納された1つのビットストリーム内のBaseビデオストリームのシーケンス、Enhancementビデオストリームのシーケンスのうち、どちらのシーケンスにPPSを格納したNALユニットが帰属するかを特定することができる。よって、このシーケンス番号のレファレンスを用いることにより、PPSを格納したNALユニットを、Baseビデオストリームのシーケンスと、Enhancementビデオストリームのシーケンスとに分類することができる。
 NALユニットにもスライスヘッダにも、SPS番号レファレンスが配置されているので、各スライスデータが、Baseビデオストリームのシーケンス、Enhancementビデオストリームのシーケンスのうち、どちらのシーケンスに帰属するかを知得することができる。また、スライスヘッダには、PPS番号のレファレンスが存在するので、どのピクチャに、各スライスデータが帰属するかを知得することができる。これらを手掛かりにして、同じシーケンスであり、かつ、同じピクチャを構成するもの毎にスライスデータを統合することで、NALユニットから、ピクチャデータ、つまり、ベースピクチャデータ、Enhancementピクチャデータのそれぞれを復元することができる。
 更にNALユニット化されたスライスヘッダには、フレーム番号が存在するので、各スライスデータがどのフレームに帰属するかを知得することができ、これらを手掛かりにして、混在状態にあるNALユニットから同じフレームを構成するベースピクチャデータ及びEnhancementピクチャデータの組みを復元することができる。
 そしてSEIメッセージの中に、シフト量シーケンスが存在する。シフト量シーケンスは、フレーム(1)のピクチャの画素ビット値のシフト量(1)、フレーム(2)のピクチャの画素ビット値のシフト量(2)、フレーム(3)のピクチャの画素ビット値のシフト量(3)、フレーム(4)のピクチャの画素ビット値のシフト量(4)・・・フレーム(N)のピクチャの画素ビット値のシフト量(N)から構成される。図27におけるシフト量シーケンスにおける個々のシフト量は、表示順序に配列されたピクチャのそれぞれに対応付けて、そのピクチャが表示されるべきフレームに固有なシフト量を規定する。
 以上のEnhancementビデオストリームのデータ構造では、シフト量の違いがフレームの精度で表現されていることがわかる。
 以上がメインTS、サブTSについての説明である。記録媒体には、これらメインTS、サブTSのランダムアクセスを可能とするため、専用の情報としてクリップ情報が用意されている。上述したファイル構成におけるクリップ情報ファイルに、このクリップ情報が格納される。
 クリップ情報ファイルは、図28(a)に示すようにAVクリップの管理情報であり、AVクリップと1対1に対応し、クリップ情報、ストリーム属性情報とエントリマップから構成される。クリップ情報には、Baseビデオストリームを含むメインTSのためのクリップBase情報と、Enhancementビデオストリームを含むサブTSのためのクリップエンハンスメント情報とがあり、これらはクリップ情報ファイルに格納される。図28は、クリップ情報ファイルの内部構成を示す図である。
 クリップ情報は、図28(a)に示すようにシステムレート、再生開始時刻、再生終了時刻から構成されている。これらの他、インターリーブドストリームファイルをアクセスするための情報として、エクステントスタートポイント情報を有している。
 システムレートはAVクリップの、後述するシステムターゲットデコーダのPIDフィルタへの最大転送レートを示す。AVクリップ中に含まれるATSの間隔はシステムレート以下になるように設定されている。再生開始時刻はAVクリップの先頭のビデオフレームのPTSであり、再生終了時刻はAVクリップの終端のビデオフレームのPTSに1フレーム分の再生間隔を足したものが設定される。
 ストリーム属性情報は図28(b)に示すように、AVクリップに含まれる各ストリームについての属性情報が、PID毎に登録される。属性情報はビデオストリーム、オーディオストリーム、プレゼンテーショングラフィックスストリーム、インタラクティブグラフィックスストリーム毎に異なる情報を持つ。ビデオストリーム属性情報は、そのビデオストリームがどのような圧縮コーデックで圧縮されたか、ビデオストリームを構成する個々のピクチャデータの解像度がどれだけであるか、アスペクト比はどれだけであるか、フレームレートはどれだけであるかなどの情報を持つ。オーディオストリーム属性情報は、そのオーディオストリームがどのような圧縮コーデックで圧縮されたか、そのオーディオストリームに含まれるチャンネル数は何であるか、何の言語に対応するか、サンプリング周波数がどれだけであるかなどの情報を持つ。これらの情報は、プレーヤが再生する前のデコーダの初期化などに利用される。
 エントリマップは、図28(c)に示すように、エントリマップヘッダ情報1101と、AVクリップ内に含まれるビデオストリームの各Iピクチャの表示時刻を示すPTSと各Iピクチャが開始するAVクリップのSPNが記載されたテーブル情報である。ここではテーブルの1つの行で示される対となるPTSとSPNの情報をエントリポイントと呼ぶことにする。また先頭を0として各エントリポイント毎にインクリメントした値をエントリポイントID(以下EP_ID)と呼ぶことにする。このエントリマップを利用することにより、再生機はビデオストリームの時間軸上の任意の地点に対応するAVクリップのファイル位置を特定することが出来るようになる。例えば、早送り・巻戻しの特殊再生の際には、エントリマップに登録されるIピクチャを特定し選択して再生することによりAVクリップを解析することなく効率的に処理を行うことが出来る。また、エントリマップはAVクリップ内に多重化される各ビデオストリーム毎に作られ、PIDで管理される。また、エントリマップには、先頭にエントリマップヘッダ情報1101が格納され、ここには該当エントリマップが指すビデオストリームのPIDやエントリポイント数などの情報が格納される。
 同図(d)は、エクステントスタートポイント情報テーブルの内部構成の一例を示す。本図に示すようにエクステントスタートポイント情報テーブルは、number_of_extent_start_pointsと、number_of_extent_start_points個のSPN_start_pointから構成される。
 number_of_extent_start_pointsは、関連するAVストリームファイルに帰属するエクステントの個数を示す。クリップbase情報におけるエクステントスタートポイント情報テーブルと、クリップEnhancement情報におけるエクステントスタートポイント情報テーブルとのペアは、number_of_extent_start_pointsが同じ値になる。
 SPN_extent_start(SPN_extent_start[0]~SPN_extent_start[number_of_extent_start_point])は、number_of_extent_start_point+1個のSPN_extent_startから構成される。SPN_extent_startは、エクステント識別子[extent_id]によって指示され、AVストリームファイルにおけるextent_id番目のエクステントが開始するソースパケットのソースパケット番号を示す32ビットの値である。
 次に、プレイリストファイル(YYY.MPLS)について説明する。
 プレイリストファイルによって定義される再生経路は、いわゆる「マルチパス」である。マルチパスとは、ベースビデオストリームを含む主となるトランスポートストリームに対して定義された再生経路(メインパス)と、エンハンスメントビデオストリームを含む従となるトランスポートストリームに対して定義された再生経路(サブパス)とを束ねたものである。このマルチパスにおいてBaseビデオストリームの再生経路を規定し、サブパスにおいてディペンデントビデオストリームの再生経路を規定すれば、色深度拡張モードのためのBaseビデオストリームと、Enhancementビデオストリームとの組合せを、好適に規定することができる。プレイリスト情報は、プレイアイテム情報-ストリーム情報-トランスポートストリームという階層構造を有しており、トランスポートストリーム及びストリーム情報の組みと、プレイアイテム情報との比率については、1対多の関係にして、1つのトランスポートストリームを複数のプレイアイテム情報から多重参照することができる。よって、あるプレイリストのために作成されたトランスポートストリームをバンクフィルムとして採用し、これを複数のプレイリスト情報ファイルにおけるプレイアイテム情報から参照することで、映画作品のバリエーションを効率良く作成することができる
 図29は、プレイリスト情報の内部構成の一例を示す。同図(a)に示すようにプレイリスト情報は、主となるTSに対する再生経路の定義を示す「メインパス情報」、従たるTSに対する再生経路の定義を示す「サブパス情報」、再生区間に対してエントリーマークやリンクポイントを設定するための「プレイリストマーク情報」、「エクステンションデータ」を含む。図29(b)に示すように、プレイリストにおけるメインパスは1つ以上のプレイアイテム1201から構成され、各プレイアイテムはAVクリップに対する再生区間を示す。各プレイアイテム1201はそれぞれプレイアイテムIDで識別され、プレイリスト内で再生されるべき順序で記述されている。また、プレイリストは再生開始点を示すプレイリストマーク1202を含んでいる。プレイリストマーク1202はプレイアイテムで定義される再生区間内に対して付与することでき、プレイアイテムに対して再生開始点となりうる位置に付けられ、頭出し再生に利用される。プレイリストマーク情報は、プレイアイテムにおいてマークポイントが何処にあるかを示すタイムスタンプと、マークポイントの属性を示す属性情報とを含み、この属性情報は、プレイリストマーク情報により定義されたマークポイントが、リンクポイントであるか、エントリーマークであるかを示す。
 リンクポイントは、リンクコマンドによるリンクが可能であるが、チャプタースキップ操作がユーザによりなされた場合の選択対象にはならないマークポイントである。
 エントリーマークは、リンクコマンドによるリンクが可能であり、尚且つチャプタースキップ操作がユーザによりなされた場合の選択対象になるマークポイントである。
 IGストリームのボタン情報内に組込まれたリンクコマンドは、プレイリストマーク情報を介した間接参照の形式で頭出し位置を指定している。
 プレイアイテム情報の内容について図29(c)を用いて説明する。プレイアイテムには、クリップ情報ファイルのファイル名(clip_information_file_name)を用いてビデオストリーム再生時に参照すべきクリップ情報を指定するクリップ情報参照子1301と、ビデオストリームのSTC時間軸において再生を開始すべき時点(In_Time)を指定する、AVクリップの再生開始時刻1302と、ビデオストリームのSTC時間軸において再生を終了すべき時点(Out_Time)を指定する、AVクリップの再生終了時刻1303と、コネクションコンディション1310と、基本ストリーム選択テーブル1305とを含む。再生開始時刻と再生終了時刻は時間情報であるため、再生機はクリップ情報ファイルのエントリマップを参照し、指定された再生開始時刻および再生終了時刻に対応するSPNを取得し、読み出し開始位置を特定して再生処理を行う。
 コネクションコンディション1310は、前方プレイアイテムと接続タイプを示している。プレイアイテムのコネクションコンディション1310が「1」の場合は、プレイアイテムが指し示すAVクリップは、そのプレイアイテムの前のプレイアイテムが指し示すAVクリップとシームレス接続が保証されないことを示す。プレイアイテムのコネクションコンディション1310が「5」か「6」の場合は、プレイアイテムが指し示すAVクリップは、そのプレイアイテムの前のプレイアイテムが指し示すAVクリップとシームレスに接続されることが保証される。コネクションコンディション1310が「5」とは、クリーンブレークを伴うシームレス接続である。ここで「クリーンブレーク」とは、プレイアイテム間でSTCの連続性が途切れていても良いこと、つまり、接続前プレイアイテムのAVクリップ終端のビデオ表示時刻よりも、接続後プレイアイテムのAVクリップ先頭のビデオ表示時刻開始時刻は不連続でよいことを意味する。ただし、接続前プレイアイテムのAVクリップを後述するシステムターゲットデコーダ1503のPIDフィルタに入力した後に続けて、接続後プレイアイテムのAVクリップをシステムターゲットデコーダ1503のPIDフィルタに入力して再生したときに、システムターゲットデコーダ1503のデコードが破綻しないようにAVクリップを作成する必要がある。また接続前プレイアイテムのAVクリップのオーディオの終端フレームと、接続後プレイアイテムのオーディオの先頭フレームは再生時間軸で重なら無ければならないなどの制約条件がある。
 コネクションコンディション1310が「6」とは、「ATS、PTSに連続性が存在するシームレス接続」であり、接続前プレイアイテムのAVクリップと接続後プレイアイテムのAVクリップを結合したときに1本のAVクリップとして再生できなければならない。つまり、接続前プレイアイテムのAVクリップと接続後プレイアイテムのAVクリップ間でSTCは連続し、またATCも連続する。
 基本ストリーム選択テーブル1305は、複数のストリームエントリ1309からなり、ストリームエントリ1309はストリーム選択番号1306、ストリームパス情報1307、ストリーム識別情報1308からなる。ストリーム選択番号1306は、基本ストリーム選択テーブルに含まれるストリームエントリ1309の先頭から順にインクリメントされる番号であり、プレーヤでのストリーム識別のために利用される。ストリームパス情報1307は、ストリーム識別情報1308によって示されるストリームが、どのAVクリップに多重化されているかを示す情報であり、例えば"メインパス"であれば、該当するプレイアイテムのAVクリップを示し、"サブパスID=1"であれば、そのサブパスIDが示すサブパスにおいて、該当するプレイアイテムの再生区間に対応するサブプレイアイテムのAVクリップを示す。ストリーム識別情報1308は、PIDなどの情報であり、参照するAVクリップに多重化されているストリームを示す。また、ストリームエントリ1309には、各ストリームの属性情報も同時に記録されている。ここで属性情報とは、各ストリームの性質を示す情報で、例えばオーディオ、プレゼンテーショングラフィックス、インタラクティブグラフィックスの場合には、言語属性などが含まれる。
 プレイリストは、図29(d)に示すように1つ以上のサブパスを有することが出来る。サブパスはプレイリストに登録される順にIDが振られ、サブパスIDとして、サブパスを識別するために使われる。サブパスは、メインパスと同期して再生される一連の再生経路を示す。サブプレイアイテムは、プレイアイテムと同様に再生するクリップ情報1301と再生開始時刻1302および再生終了時刻1303を持ち、サブプレイアイテムの再生開始時刻1302と再生終了時刻1303は、メインパスと同じ時間軸で表される。例えば、プレイアイテム#2のストリーム選択テーブル1305に登録されているあるストリームエントリ1309が、サブパスID=0でプレゼンテーショングラフィックス1を示す場合は、サブパスID=0のサブパスの中で、プレイアイテム#2の再生区間に同期して再生するサブプレイアイテム#2のAVクリップの中に多重化されるプレゼンテーショングラフィックス1が、プレイアイテム#2の再生区間に再生されることになる。また、サブプレイアイテムには、プレイアイテムのコネクションコンディションと同じ意味を持つSPコネクションコンディションというフィールドが存在する。SPコネクションコンディションが「5」もしくは「6」のサブプレイアイテム境界のAVクリップは、コネクションコンディション「5」もしくは「6」と同じ上記条件を守る必要がある。
 図29(e)におけるエクステンションデータは、色深度拡張プレイリストにのみ存在する情報要素であり、拡張ストリーム選択テーブルを含む。拡張ストリーム選択テーブルは、Enhancementビデオストリームのストリームエントリー、ストリーム属性を具備しており、このストリームエントリーによってEnhancementビデオストリームの多重分離を再生装置に指示する。
 図30は、BDMVディレクトリに記録されたプレイリストファイル(mplsファイル)によって定義されるプレイリスト、色深度拡張プレイリストを示す。第1段目は、BDMVディレクトリのプレイリスト情報であり、第2段目は、ベーズデータブロック、第3段目は、色深度拡張プレイリスト、第4段目は、Enhancementデータブロックを示す。

 矢印rf1,rf2,rf3は、BDMVディレクトリのプレイリスト情報のプレイアイテム情報におけるclip_information_file_nameに記述されているファイル名00001と、拡張子m2tsとを組合せることによる再生経路を示す。この場合、データブロックB[1],B[2],B[3]neによってBaseビデオ側の再生経路が構成される。
 矢印rf4,rf5,rf6,rf7は、色深度拡張プレイリスト情報のプレイアイテム情報により指定される再生経路を示す。この場合、B[1],B[2],B[3]ce,B[4]ceを用いてBaseビデオ側の再生経路が構成される。
 矢印rf8,rf9,rf10,rf11は、色深度拡張プレイリスト情報のサブプレイアイテム情報により指定される再生経路を示す。この場合、E[1],E[2],E[3],E[4]を用いてEnhancementビデオ側の再生経路が構成される。これらのプレイアイテム情報、サブプレイアイテム情報により指定される再生経路を構成するデータブロックは、プレイアイテム情報におけるclip_information_file_nameに記述されているファイル名と、拡張子ceifとを組合せてファイルオープンを行うことで読み出すことができる。
 インターリーブドストリームファイルにメインTS、サブTSを格納する場合、BDMVディレクトリのプレイリストのプレイアイテム情報におけるclip_information_file_nameは、m2tsファイルのファイル名を記述する。色深度拡張プレイリストのプレイアイテム情報におけるclip_information_file_nameは、ファイルBaseのファイル名を記述する。ファイルBaseは、仮想的なファイルであり、そのファイル名は、インターリーブドストリームファイルと同じものなので、インターリーブドストリームファイルのファイル名をプレイアイテム情報におけるclip_information_file_nameに記述しておけばよい。拡張ストリーム選択テーブルのストリーム登録情報におけるref_to_subclip_entry_idは、ファイルEnhancementのファイル名を記述する。ファイルEnhancementのファイル名は、インターリーブドストリームファイルの識別番号に、1を加算したものとする。
 以上のように、Baseビデオデータブロックと、Enhancementデータブロックとを1つのインターリーブドストリームファイルに格納しつつも、インターリーブドストリームファイルを、m2tsファイル、ファイルBase、及び、ファイルEnhancementのうち、何れかのファイルとしてオープンすることができるので、デコーダ側では、インターリーブドストリームファイルを通常のストリームファイルと同様に取り扱うことができる。よって、Baseビデオストリーム、Enhancementビデオストリームの格納方式に、積極的にインターリーブドストリームファイルを取り入れることができる。
 また色深度拡張プレイリストでは、プレイリスト情報のメインパス情報、サブパス情報を用いてBaseビデオストリームとEnhancementビデオストリームとは、1つのマルチパスとして統合されることになる。よってBaseビデオストリーム及びEnhancementビデオストリームは、第1実施形態に示したように色深度拡張インターリーブドストリームファイルの形式をとるのではなく、Out-of-MUXの形式で記録することができる。同一記録媒体の別々のストリームファイルに格納して記録することができるし、別々の記録媒体の別々のストリームファイルに格納して記録することもできる。
 色深度拡張のためのEnhancementビデオストリームや色深度拡張に対応するプレイリスト情報はOut-of-MUXの形式での格納が許容されるから、BaseビデオストリームのみをBlu-ray ReadOnlyディスクに記録してパッケージ媒体として販売し、このパッケージ媒体を購入したユーザに対する特典として、Enhancementビデオストリームを提供することができる。つまり、Baseビデオストリームのみが記録されたパッケージ媒体であるBlu-ray ReadOnlyディスクが再生装置に装填された際、再生装置は、このBaseビデオストリームに対応するEnhancementビデオストリームを含むAVクリップと、これに対応するクリップ情報ファイル、色深度拡張プレイリスト情報ファイル、色深度拡張対応プログラムをサーバからダウンロードする。そして、これらのダウンロードファイルと、Blu-ray ReadOnlyディスクにおけるファイルを一体化した仮想パッケージを形成することにより色深度拡張を実現することができる。
 (色深度拡張に対応した映像を再生するための再生装置)
 次に、本発明にかかる色深度拡張映像を格納するBlu-ray ReadOnlyディスクを再生する再生装置について説明する。
 図31は、再生装置1002の構成を示している。本図の内部構成は、これまでに説明した色深度拡張部を中核に据え、その前段、後段、周辺部に再生装置としての機能を担保するための構成要素を配置したものといえる。この再生装置は、ディスクドライブ100、読出部101、第1リードバッファ102a、第2リードバッファ102b、ATS復元部103、システムターゲットデコーダ104、プレーンメモリセット105a、プレーン合成部105b、機器間インターフェイス106、再生制御部107、管理情報メモリ108、レジスタセット110、プログラム実行部111、プログラムメモリ112、拡張機能メモリ113、機器固有処理部114、インデックスメモリ115、プログラム管理部116、ユーザイベント処理部117から構成されている。
 ディスクドライブ100は、通常のディスクドライブ同様、再生制御部107からの要求を元にBlu-ray ReadOnlyディスクからデータを読み出すが、Blu-ray ReadOnlyディスクから読み出されたAVクリップは第1リードバッファ102aか第2リードバッファ102bに転送される点が異なる。色深度拡張映像を含むディスクを再生する際には、再生制御部107からはBaseビデオストリームを含むAVクリップとEnhancementビデオストリームを含むAVクリップが交互に読み出し要求が送られる。ディスクドライブ100は、Baseビデオストリームを含むAVクリップのデータは第1リードバッファ102aに、Enhancementビデオストリームを含むAVクリップのデータは第2リードバッファ102bにスイッチしながら転送を行う。色深度拡張映像を含む映像を再生する際には、Baseビデオストリームを含むAVクリップとEnhancementビデオストリームを含むAVクリップの両方を同時に読み込む必要があるため、通常のBlu-ray ReadOnlyディスクドライブ以上のアクセススピード性能が求められる。
 読出部101は、立体視映像を構成するコンテンツが記録された記録媒体を装填して、記録媒体に対する読み出しを実行する。また読出部は、ビデオストリームの時間軸における任意の時点からのランダムアクセスを実行する。具体的には、ビデオストリームの時間軸における任意の時点からの再生が命じられた場合、エントリーマップを用いて、その任意の時点に対応するアクセスユニットのソースパケット番号をサーチする。上記サーチによって、当該アクセスユニットについてのアクセスユニットデリミターを格納したソースパケットのソースパケット番号が特定される。かかるソースパケット番号からの読み出し、及び、デコードを実行する。シーンジャンプにあたって、分岐先を示す時間情報を用いて上記サーチを実行することにより、ランダムアクセスを実行する。
 第1リードバッファ102aaは、ディスクドライブ100から読み込まれたメインTSを構成するTSパケットが格納されるバッファである。
 第2リードバッファ102bはディスクドライブ100から読み込まれたサブTSを構成するTSパケットが格納されるバッファである。
 ATCシーケンス復元部103は、1つの記録媒体から読み出されたインターリーブドストリームファイル内のソースパケットから、Baseビデオストリームを構成するATCシーケンスと、Enhancementビデオストリームを構成するATCシーケンスとを分離し、2つのリードバッファのそれぞれに書き込むものである。こうすることで再生装置は、Baseビデオストリームを構成するATCシーケンス、Enhancementビデオストリームを構成するATCシーケンスがそれぞれ別々の記録媒体から読み出されたかのように処理することができる。
 システムターゲットデコーダ104は、第1リードバッファ102aに読み出されたソースパケットと、第2リードバッファ102bに読み出されたソースパケットとに対して多重分離処理を行いストリームのデコード処理を行う。システムターゲットデコーダ104はデコードしたBaseビデオストリームとEnhancementビデオストリームをデコードして色深度拡張を行う。
 プレーンメモリセット105aは、複数のプレーンメモリから構成される。これらのプレーンメモリは、レイヤモデルを構成しており、個々のプレーンメモリの格納内容は、レイヤ合成に供される。非圧縮の一画面分の階調ビット列が、これらプレーンメモリに書き込まれる。この書き込みは、個々のアクセスユニットのプレゼンテーションタイムスタンプに示されている再生開始時刻の到来時になされる。
 プレーン合成部105bは、複数のプレーンメモリにおけるレイヤ合成を行う。プレーンメモリのレイヤ合成は、プレーンメモリのレイヤモデルにおいて、階層間のプレーンメモリに格納されている画素データの画素値を重畳させるという処理を、レイヤモデルにおける階層間の全ての組合せに対して実行することでなされる。プレーン合成部105bによるレイヤ合成は、プレーンメモリのレイヤモデルにおいて、2つの階層のプレーンメモリに格納されている画素データの画素値を重畳させるという処理を、レイヤモデルにおける2つの階層の全ての組合せに対して実行することでなされる。
 階層間の重畳は、ある階層に位置するプレーンメモリのライン単位の画素値に透過率αを重みとして乗じるとともに、その下位階層に位置するプレーンメモリのライン単位の画素値に(1-透過率α)という重みを乗じてこれら輝度の重み付けがなされた画素値同士を加算し、加算結果を、その階層におけるライン単位の画素の画素値とする処理である。この階層間の重畳を、レイヤモデルの隣接する2つ階層に位置するライン単位の画素同士で繰り返し実行することにより、上記レイヤ合成は実現される。
 機器間インターフェイス106は、ホームシアターシステムにおける他の機器とインターフェイスを介して接続された際、ネゴシエーションフェーズを経て、データ伝送フェーズに移行し、データ伝送を行う。このネゴシエーションフェーズは、相手側機器のケーパビリティ(デコード能力、再生能力、表示周波数を含む)を把握して、プレーヤ設定レジスタに設定しておき、以降の伝送のための伝送方式を定めるものであり、相互認証フェーズを含む。ネゴシエーションフェーズを経て、レイヤ合成がなされたピクチャデータにおける一ライン分の非圧縮・平文形式の画素データを、表示装置における水平同期期間に従い表示装置に高い転送レートで転送する。ここで、色深度拡張モードにおいて、転送されるべき画素データは、輝度Y,赤色差Cr,青色差Cbのそれぞれが8ビットからNビットに拡張されたものになる。よって、色深度拡張モードに設定された場合の伝送フェーズにおいて送受信部209は、伝送に先立ち、画素ビット値のビット幅を表示装置に伝える。
 一方、表示装置における水平帰線期間、及び、垂直帰線期間において、再生装置と接続された他の装置(表示装置のみならずアンプ、スピーカを含む)に、非圧縮・平文形式のオーディオデータを転送する。こうすることで、表示装置、アンプ、スピーカといった機器は、非圧縮・平文形式のピクチャデータ、非圧縮・平文形式のオーディオデータを受け取ることができ、再生出力を実現することができる。また、相手側機器にデコード能力が存在する場合、ビデオストリーム、オーディオストリームのパススルー伝送が可能になる。パススルー伝送では、ビデオストリーム、オーディオストリームを圧縮・暗号化形式のまま伝送することができる。
  再生制御部107は、ドライブ100とシステムターゲットデコーダ104とを制御して、AVクリップの再生を制御する機能を持つ。再生制御部107は、プログラム実行部111からの再生命令や、ユーザイベント処理部117より通知に基づき、プレイリスト情報を解釈してAVクリップの再生処理を制御する。かかる制御のため、プレイリスト情報の解釈のための再生制御エンジンやAVクリップの再生制御のための再生エンジンを具備している。また再生制御部107は、システムパラメータを参照して、再生動作を行う。色深度拡張されるBaseビデオストリームを含むAVクリップを再生対象とするプレイリストの再生がプログラム実行部111などから命じられると、プレイリストの中で再生対象となるプレイアイテムのBaseビデオストリームを含むAVクリップを特定し、Baseビデオストリームの色拡張を行うためのEnhancementビデオストリームを含むAVクリップを特定する。Enhancementビデオストリームを含むAVクリップの特定には、Baseビデオストリームを含むAVクリップの名前を用いた関連付けや、別途管理ファイルを用いた関連付けによる特定が考えられる。その後、対応するクリップ情報ファイルのエントリマップを解釈し、どちらのエクステントから先にエクステントが配置されているか示すエクステント開始タイプに基づき、再生開始地点からエクステント単位でBaseビデオストリームを含むAVクリップとEnhancementビデオストリームを含むAVクリップを交互に読み出すようにディスクドライブ100に要求する。再生開始するときには、最初のエクステントを第1リードバッファ102aか、第2リードバッファ102bに読みきった後に、第1リードバッファ102aと第2リードバッファ102bからシステムターゲットデコーダ104に転送を開始する。
 管理情報メモリ108は、記録媒体に記録されている複数のプレイリスト情報、クリップ情報のうち、再生制御部107の処理対象になっているもの(カレントプレイリスト情報、カレントクリップ情報)を格納する。
 レジスタセット110は、複数のプレーヤ状態レジスタ、複数のプレーヤ設定レジスタ、汎用目的レジスタから構成される。個々のプレーヤ状態レジスタ、プレーヤ設定レジスタは何れも語長が32ビットのレジスタであり、32ビット長のレジスタのそれぞれにはレジスタ番号が与えられ、このレジスタ番号を用いてアクセスすべきレジスタが特定される。
 プレーヤ状態レジスタ(Player Status Register:PSR)110aは、光ディスクが装填された際に初期値が設定され、またカレントプレイアイテムの変更等、再生装置の状態が変化した際に、その格納値の有効性が判定されるレジスタである。この格納値としては、カレントのタイトル番号、カレントのプレイリスト番号、カレントのプレイアイテム番号、カレントのストリーム番号、カレントのチャプター番号等がある。光ディスクの装填時に初期値が格納されるので、この格納値は一時的なものであり、光ディスクがイジェクトされたり、また再生装置の電源が断たれれば、この格納値は有効性を失う。
 プレーヤ設定レジスタ(Player Setting Register:PSR)110bは、電源対策が施されている点がプレーヤ状態レジスタとは異なる。電源対策が施されているので、再生装置の電源遮断時において、その格納値が不揮発性のメモリに退避され、再生装置の電源投入時において、その格納値が復帰される。再生装置の製造主体(マニファクチャ)が再生装置の出荷時に定めた再生装置の各種コンフィグレーションや、ユーザがセットアップ手順に従い設定した各種コンフィグレーション、そして、再生装置がTVシステムやステレオ、アンプ等のホームシアターシステムの機器と接続された際、接続相手となる機器とのネゴシエーションにより判明した相手側機器のケーパビリティがプレーヤ設定レジスタに設定される。本実施形態特有の再生モードとして色深度拡張モードがある。これは接続相手である表示装置が12ビット対応の表示装置であり、再生装置のセットアップ時に、ユーザが色深度拡張モードを有効とした場合のみ設定される特殊な再生モードである。所定のレジスタ番号のプレーヤ状態レジスタ、プレーヤ設定レジスタに格納されている32ビット長のビット列であって、任意のビット範囲[bx:by]のもの値は、プログラムが動作を行うにあたっての動作システムの環境変数(システムパラメータ)として扱われる。
 プレーヤ状態レジスタ、プレーヤ設定レジスタにおけるシステムパラメータには以下のものがある。
  SPRM(0)   : 言語コード
  SPRM(1)   : 主音声ストリーム番号
  SPRM(2)   : 字幕ストリーム番号
  SPRM(3)   : アングル番号
  SPRM(4)   : タイトル番号
  SPRM(5)   : チャプタ番号
  SPRM(6)   : プログラム番号
  SPRM(7)   : セル番号
  SPRM(8)   : 選択キー情報
  SPRM(9)   : ナビゲーションタイマー
  SPRM(10)  : カレント再生時刻
  SPRM(11)  : カラオケ用ミキシングモード
  SPRM(12)  : パレンタル用国情報
  SPRM(13)  : パレンタルレベル
  SPRM(14)  : プレーヤ設定値(ビデオ)
  SPRM(15)  : プレーヤ設定値(オーディオ)
  SPRM(16)  : 音声ストリーム用言語コード
  SPRM(17)  : 音声ストリーム用言語コード(拡張)
  SPRM(18)  : 字幕ストリーム用言語コード
  SPRM(19)  : 字幕ストリーム用言語コード(拡張)
  SPRM(20)  : プレーヤリージョンコード
  SPRM(21)  : 子画面映像ストリーム番号
  SPRM(22)  : 副音声ストリーム番号
  SPRM(23)  : 再生状態
  SPRM(24)  : 3D映像再生能力

 SPRM(10)は、AVクリップに属する各ピクチャデータが表示される度に更新される。つまり再生装置が新たなピクチャデータを表示させれば、その新たなピクチャデータの表示時刻(PTS)を示す値にSPRM(10)は更新される。このSPRM(10)を参照すれば、現在の再生時点を知得することができる。
 SPRM(16)の音声ストリーム用言語コードやSPRM(18)の字幕ストリーム用言語コードは、プレーヤがオンスクリーンディスプレイを用いてセットアップメニューを描画した際、セットアップメニューを通じて設定可能となる項目であり、プレーヤのデフォルトの言語コードを示す。例えば、SPRM(16)の音声ストリーム用言語コードが英語であれば、プレイリストを再生する上で、プレイアイテムのストリーム選択テーブルの中から同じ言語コードを持つストリームエントリを探し出し、その音声ストリームを選択して再生するといった機能をBDプログラムファイルに入れることができる。また再生制御部107は、システムパラメータの状態をチェックしながら再生する。また、SPRM(1)、SPRM(2)、SPRM(21)、SPRM(22)は、それぞれ音声ストリーム番号、字幕ストリーム番号、子画面映像ストリーム、副音声ストリームの番号を示し、これらの値は、前述したストリーム選択番号606に対応する。例えば、プログラム実行部111によって、音声ストリーム番号SPRM(1)が変更されたとする。再生制御部107は、現在再生しているプレイアイテムのストリーム選択テーブル605の中から、ストリーム選択番号606と比較して、一致するストリームエントリ609を参照し、再生する音声ストリームを切り替える。このようにしてどの音声・字幕・子画面映像ストリームを再生するかどうかを切り替える。
 汎用目的レジスタ(General Purpose Register:GPR)110cは、再生装置のMPUが算術演算やビット演算を行う際、その被演算子となる数値を格納しておくためのハードウェア資源である。プレーヤ状態レジスタは、プログラムによる値の書き込みは禁じられるが、汎用目的レジスタでは、かかる書き込みが可能となる。本実施形態では、この汎用目的レジスタを色深度拡張ケーパビリティレジスタとして使用する。色深度拡張ケーパビリティレジスタとは、色深度拡張によって実現される拡張機能の処理能力が存在するかどうかを示すものである。当該拡張機能には、複数の種別があり、これらの拡張機能のそれぞれについて、処理能力の存否が設定できるようになっている。
 所定のレジスタ番号の汎用目的レジスタに格納されている32ビット長のビット列であって、任意のビット範囲[bx:by]のもの値は、プログラムが動作を行うにあたっての動作システムのプレーヤ変数(汎用目的パラメータ:GPRM)として扱われる。
 プログラム実行部111は、BDプログラムファイルに格納されたプログラムを実行するプロセッサである。コマンド実行モジュール111aは、コマンドインタプリタを具備し、ムービーオブジェクトを構成するナビゲーションコマンドを解読して実行することでHDMVモードの制御を実行する。バイトコード実行モジュール111bは、いわゆるJava仮想マシンのプラットフォーム部であり、ヒープメモリに格納されているBD-Jアプリケーションを構成するバイトコード、システムアプリケーションを構成するバイトコードをネィティブコードに変換して、MPUに実行させる。
 プログラムメモリ112は、プログラム実行部111の実行対象となるプログラムが格納される。かかるプログラムには、色深度拡張処理に適合した色深度拡張プログラムが存在する。
 拡張機能メモリ113は、拡張機能判定ファイルが格納されるメモリである。
 機器固有処理部114は、Blu-ray ReadOnlyディスクのプレーヤでは想定されていない機器固有機能を実行する。本実施形態において、この機器固有機能の1つとして、色深度拡張モードの設定、及び、拡張機能ケーパビリティの初期化を行う。
 前者の色深度拡張モード設定は、ボームシアターシステムに再生装置が設置され、表示装置と初めて接続された際になされる。この初めての接続時において、機器固有処理部114は、機器間インターフェイスを通じて表示装置における色深度を取得する。表示装置における画素階調が8ビットを越えるものであり、12ビットでの色深度表現が可能であるなら、色深度拡張モードへの移行を促すセットアップメニューをポップアップして、色深度拡張モードに移行するかどうかをユーザに問合せる。ユーザが色深度拡張モードを選択すれば、機器固有処理部114は、カレントモードが色深度拡張モードを示すようプレーヤ設定レジスタを設定する。その上で機器間インターフェイスにおけるネゴシエーションフェーズにおいて、機器間インターフェイスを通じて表示装置を色深度拡張モードに設定させる。表示装置が12階調での色深度表現をすることができない場合、又は、ユーザが色深度拡張モードの選択を希望しなった場合、カレントモードが非色深度拡張モードを示すようプレーヤ設定レジスタを設定する。
 後者の拡張機能ケーパビリティの初期化は、記録媒体の装填時になされる。カレントモードが色深度拡張モードに設定されている状態で、記録媒体が装填されれば、機器固有処理部114は、その記録媒体からロードされるプログラムのために、拡張機能ケーパビリティの初期化を行う。この初期化は、様々な拡張機能のケーパビリティの有無を示す拡張機能ケーパビリティレジスタのそれぞれに初期値を設定することでなされる。こうすることで、記録媒体からロードされるプログラムは色深度拡張を応用した様々な確認機能のうち、どれが実行可能であり、どれが実行不可能であるかを個別に判断することができる。
 インデックスメモリ115は、ディスク媒体が本再生装置に装填された際、インデックステーブルが読み込まれるメモリである。
 プログラム管理部116は、再生装置状態やユーザ操作に応じてインデックステーブルに規定されている複数タイトルのうち何れか1つをカレントタイトルとして選択して、プレーヤ状態レジスタの1つである、カレントタイトル番号レジスタに格納する。そして、カレントタイトル番号に対応するプログラムファイルを選択して、そのプログラムファイルを処理対象にするよう、ナビゲーションコマンド実行モジュール、バイトコード実行モジュールに指示する。プログラムファイルには、バイトコードの動作モードのためのプログラムファイル、ナビゲーションコマンドの動作モードのためのプログラムファイルがある。
 ユーザイベント処理部117は、リモコンを通じたユーザ操作に応答して、プログラム実行部111や再生制御部107に処理の実行を依頼する。例えば、リモコンでボタンを押した場合は、そのボタンに含まれるコマンドを実行するようプログラム実行部111に依頼する。例えば、リモコンで早送り・巻戻しボタンが押された場合には、再生制御部107に、現在再生しているプレイリストのAVクリップに対する早送り・巻戻し処理の実行を命令する。
 上記の構成において記録媒体及びその再生装置は、MPEG4-MVCで立体視再生を実現するBD-3Dアプリケーションフォーマットやそのプレーヤモデルをベースにしている。かかるアプリケーションフォーマットやそのプレーヤモデルにおいて、他視点からの視点画像を構成するEnhancementビデオストリームの代わりに、Enhancementビデオストリームを導入すれば、色深度拡張のための記録媒体や再生装置を導入することができるから、オーサリング環境や再生装置の動作検証の仕組みは、BD-3Dの実現で培われた設計資産を活用することができる。これにより色深度拡張コンテンツの早期の実用化が可能になる。
  図32(a)は、インターリーブドストリームファイルからATCシーケンスの復元がどのように行われるかを示す図である。同図(a)は、ATCシーケンス復元部を具備した読出部の内部構成の一例を示す。上述したように、2つのドライブと、2つのリードバッファとの間にATCシーケンス復元部が介在している。図中の矢印B0は、1つのドライブからのBaseデータブロック及びEnhancementデータブロック入力を象徴的に示したものであり、矢印B1は、Baseビデオストリームを構成するATCシーケンス1の書き込み、矢印D1は、Enhancementビデオストリームを構成するATCシーケンス2の書き込みを模式的に示す。
 図30(b)は、ATCシーケンス復元部によって得られた2つのATCシーケンスが、どのように取り扱われるかを示す。図中の真ん中はPIDフィルタを示す。左側は、ATCシーケンス復元部によって得られた2つのATCシーケンスを示す。右側は、これらの2つのATCシーケンスを多重分離することで得られるBaseビデオストリーム、Enhancementビデオストリーム、PGストリーム1,2、IGストリーム1,2を示す。これらのATCシーケンスは、クリップ情報におけるエントリーマップによって、STCシーケンスとの対応がとられる。
 Baseビデオストリームに対応するATSシーケンス1、及び、Enhancementビデオストリームに対応するATSシーケンス2を構成するそれぞれのTSパケットにはアライバルタイムスタンプが付加されており、複数のTSパケットであって、基本ストリーム選択テーブルにおいて同時に再生することが許可されているエレメンタリストリームを構成するもの単位時間当たりの総データサイズは、48Mbps以下である。単位時間当たりの総データサイズは、アライバルタイムスタンプが基準としている時間軸上の確認枠であるウィンドゥ内で算出され、前記総データサイズは、当該ウィンドゥが、アライバルタイムスタンプが基準としている時間軸における何れの時点に存在したとしても、48Mbps以下になっている。
 1秒当りのデータサイズが48Mbitであるから、ストリームの同時読み出しのため、TSパケットの供給量が局所的に96Mbitにまであがったとしても、"1秒当たりのビット量が48Mbit以下"に制限されるため、ワーストケースにあたる96Mbitのデータ供給量は、0.5秒以上継続することはない。
 ストリームの再生時間軸上のどの時点においても「ワーストケースが0.5秒以上継続しない」との保障があるので、96Mbit×0.5秒のサイズのTSパケットを、常に先読みしてデコーダに供給するように、再生装置を構成しておけば、デコーダ内のバッファのアンダーフローを回避することができる。
 図33は、Baseビデオクリップ情報におけるエクステントスタートポイント情報の一例と、Enhancementビデオクリップ情報におけるエクステントスタートポイント情報の一例を示す。(a)は、Baseビデオクリップ情報のエクステントスタートポイント情報と、Enhancementビデオクリップ情報のエクステントスタートポイント情報とを示す。 (b)は、ATCシーケンス1を構成するBaseビデオデータブロックB[0],B[1],B[2]・・・・B[n]、ATCシーケンス2を構成するEnhancementデータブロックE[0],E[1],E[2]・・・・E[n]、を示す。(c)は、Enhancementデータブロックのソースパケット数、Baseデータブロックのソースパケット数を示す。
 これらにおいて、Enhancementデータブロックの先頭ソースパケット番号、Baseデータブロックの先頭ソースパケット番号は、(d)に示す通りになる。
 インターリーブドストリームファイルにおいて、E[0]の先頭SPNは「0」、B[0]の先頭SPNは「b1」になる。
 E[1]の先頭SPNについては、先行するE[0]のソースパケット数b1と、B[0]のソースパケット数a1との和になるから「b1+a1」になる。
 B[1]の先頭SPNについては、先行するE[0]のソースパケット数b1と、B[0]のソースパケット数a1と、先行するE[1]のソースパケット数b2-b1との和になるから「b2+a1(=b1+a1+b2-b1)」になる。
 E[2]の先頭SPNについては、先行するE[0]のソースパケット数b1と、B[0]のソースパケット数a1と、先行するE[1]のソースパケット数b2-b1と、B[1]のソースパケット数a2-a1との和になるから「b2+a2(=b1+a1+b2-b1+a2-a1)」になる。
 B[2]の先頭SPNについては、先行するE[0]のソースパケット数b1と、B[0]のソースパケット数a1と、先行するE[1]のソースパケット数b2-b1と、B[1]のソースパケット数a2-a1と、E[2]のソースパケット数b3-b2との和になるから「b3+a2(=b1+a1+b2-b1+a2-a1+b3-b2)」になる。
図34は、ATCシーケンス1、2における任意のデータブロックのソースパケット番号を説明するための図である。
同図(a)のATCシーケンス2において、bxのソースパケット番号に存在するE[x]のインターリーブドストリームファイルにおけるソースパケット番号を求める場合を考える。この場合、E[x]の先頭ソースパケット番号は、E[0],B[0],E[1],B[1],E[2],B[2]・・・・E[x-1],B[x-1]の相対ソースパケット数のソースパケット数の総和になるから、同図(b)に示すように「bx+ax」になる。
 同図(a)のATCシーケンス1において、axのソースパケット番号に存在するB[x]のインターリーブドストリームファイルにおけるソースパケット番号を求める場合を考える。この場合、同図(b)に示すように、B[x]の先頭ソースパケット番号は、E[0],B[0],E[1],B[1],E[2],B[2]・・・・E[x-1],B[x-1],E[x]の相対ソースパケット数のソースパケット数の総和になるから、「bx+1+ax」になる。
 同図(c)は、上記BaseデータブロックをエクステントとするファイルBaseと、上記EnhancementデータブロックをエクステントとするファイルEnhancementとを示す。
 B[x]にあたるファイルBaseのエクステントであるEXT1[x]の先頭LBN及び連続長、及び、E[x]にあたるファイルEnhancementのエクステントであるEXT2[x]の先頭LBN及び連続長は以下のように求められる。
 E[x]の先頭ソースパケット番号からLBNを求めるには、((bx+ax)*192/2048)という計算でソースパケットをLBNに変換する。同じく、B[x]の先頭ソースパケット番号からLBNを求めるには、((bx+1+ax)*192/2048)という計算でソースパケットをLBNに変換する。ここで「192」は、ソースパケットサイズをバイト数で表したものであり、「2048」は、セクタサイズ(論理ブロックサイズ)をバイト数で表したものである。かかる変換により読出先の論理アドレスを導き出すことができる。
 次に図35を参照しながらシステムターゲットデコーダ104の内部構成について説明する。システムターゲットデコーダ104の内部構成は、第1実施形態に示したビデオデコーダ部23、色深度拡張部24の周辺に、Blu-ray ReadOnlyディスクを処理するための独特の構成要素を配置した構成になっている。本図において、システムターゲットデコーダ104の構成要素には120番台の参照符号を付与することで構成要素の整理を図っている。この120番号の参照符号に示すように、システムターゲットデコーダ104は、第1ソースパケットデパケッタイザ121a、第2ソースパケットデパケッタイザ121b、PIDフィルタ122a、122b、親画面ビデオデコード部123、子画面ビデオデコーダ124、PGデコーダ125、ピクチャスイッチ123a、IGデコーダ126、主音声デコーダ127、副音声デコーダ128、イメージプロセッサ129から構成される。
 第1ソースデパケットタイザ121aは、第1リードバッファ102aaに蓄えられたソースパケットを解釈し、TSパケットを取り出し、第1PIDフィルタ122aに送出する。
 第2ソースデパケットタイザ121bは、第1リードバッファ102aaに蓄えられたソースパケットを解釈し、TSパケットを取り出し、第2PIDフィルタ122bに送出する。この送出にあたって、各ソースパケットのATSに応じてデコーダへの入力時刻を調整する。具体的には、ATCカウンタが生成するATCの値と、ソースパケットのATS値とが同一になった瞬間に、AVクリップの記録レートにしたがって、そのTSパケットだけをPIDフィルタに転送する。
 第1PIDフィルタ122aは、ソースデパケッタイザから出力されたTSパケットのうち、TSパケットのPIDが、再生に必要とされるPIDに一致するものを、PIDにしたがって、ビデオデコーダ、子画面ビデオデコーダ、IGデコーダ、PGデコーダ、音声デコーダ、副音声デコーダに転送する。例えば、BD-ROMの場合には、TSパケットに含まれるPIDが0x1011である場合は親画面ビデオデコーダに、PIDが0x1B00から0x1B1Fである場合は子画面ビデオデコーダに、PIDが0x1100から0x111Fである場合は主音声デコーダに、PIDが0x1A00から0x1A1Fである場合は副音声デコーダに、PIDが0x1200から0x121Fである場合はPGデコーダに、PIDが0x1400から0x141Fである場合はIGデコーダに転送される。
 第2PIDフィルタ122bは、第2ソースデパケッタイザ121bから出力されたTSパケットのうち、TSパケットのPIDが、再生に必要とされるPIDに一致するものを、PIDにしたがって、ビデオデコーダの第2Transport Bufferに転送する。本実施形態特有の処理として第1、第2PIDフィルタ122bは、表示モードに応じた多重分離を実行する。ここで表示モードが非色深度拡張モードであれば、第1PIDフィルタ122aは、Baseビデオストリームに帰属するTSパケットのみを多重分離してビデオデコーダに出力する。色深度拡張モードであれば第1PIDフィルタがBaseビデオストリームに帰属するTSパケットの多重分離を行うのと共に第2PIDフィルタは、Enhancementビデオストリームに帰属するTSパケットを多重分離してビデオデコーダに出力する。
 親画面ビデオデコーダ部123は、MPEG4-MVCビデオデコーダであり、色深度拡張モードに設定された場合、Baseビデオストリーム及びEnhancementビデオストリームという2系統のストリームを入力して、色深度拡張を実行した上で画面出力を行う。
 ピクチャスイッチ123aは、親画面ビデオデコーダ部123から転送されたデコード済みのフレーム/フィールド画像が、8ビットBaseピクチャか、8ビットEnhancementピクチャかを判定し、色深度拡張部に伝送する。
 子画面ビデオデコーダ124は、親画面ビデオデコーダと同様の構成を持ち、入力される子画面ビデオストリームのデコードを行い、表示時刻(PTS)のタイミングでピクチャを子画面ビデオプレーンに書き出す。
 PGデコーダ125は、ソースパケタイザから入力されるTSパケットからプレゼンテーショングラフィックスストリームを抽出してデコードし、非圧縮のグラフィックスデータを表示時刻(PTS)のタイミングでPGプレーンに書き出す。具体的にいうと、PGデコーダは、PGストリームから読み出される機能セグメントを格納する「コーデッドデータバッファ」と、画面構成セグメントをデコードしてグラフィクスオブジェクトを得る「ストリームグラフィクスプロセッサ」と、デコードにより得られたグラフィクスオブジェクトを格納する「オブジェクトバッファ」と、画面構成セグメントを格納する「コンポジションバッファ」と、コンポジションバッファに格納された画面構成セグメントを解読して、これらの画面構成セグメントにおける制御項目に基づき、オブジェクトバッファに得られたグラフィクスオブジェクトを用いてグラフィクスプレーン上で画面構成を行う「コンポジションコントローラ」とを含む。
 IGデコーダ126は、ソースパケタイザから入力されるTSパケットからインタラクティブグラフィックスストリームを抽出してデコードし、非圧縮のグラフィックスデータを表示時刻(PTS)のタイミングでIGプレーンに書き出す。具体的にいうとIGデコーダは、IGストリームから読み出される機能セグメントを格納する「コーデッドデータバッファ」と、画面構成セグメントをデコードしてグラフィクスオブジェクトを得る「ストリームグラフィクスプロセッサ」と、デコードにより得られたグラフィクスオブジェクトを格納する「オブジェクトバッファ」と、画面構成セグメントを格納する「コンポジションバッファ」と、コンポジションバッファに格納された画面構成セグメントを解読して、これらの画面構成セグメントにおける制御項目に基づき、オブジェクトバッファに得られたグラフィクスオブジェクトを用いてグラフィクスプレーン上で画面構成を行う「コンポジションコントローラ」とを含む。
 主音声デコーダ127は、緩衝バッファを有し、バッファにデータを蓄えながら、TSヘッダ、PESヘッダなどの情報を取り除いて、音声ストリームのデコード処理を行い、非圧縮のLPCM状態のオーディオデータを得て再生時刻(PTS)のタイミングで音声ミキサーに出力する。AVクリップに多重化されるオーディオストリームの圧縮符号化形式にはAC3、DTSなどがあるため、ストリームの属性に応じて、圧縮音声の復号化方式を切り替える。
 副音声デコーダ128は、主音声デコーダと同様の構成を持ち、入力される副音声ストリームのデコードを行い、表示時刻のタイミングで非圧縮のLPCMの状態のオーディオデータを音声ミキサーに出力する。AVクリップに多重化されるオーディオストリームの圧縮符号化形式にはDolbyDigitalPlus、DTS-HD LBRなどがあるため、ストリームの属性に応じて、圧縮音声の復号化方式を切り替える。
 音声ミキサー128aは、主音声デコーダから出力される非圧縮音声データと副音声デコーダから出力される非圧縮音声データとをミキシング(音の重ね合わせ)をしてスピーカなどに出力する。
 イメージプロセッサ129は、プログラム実行部から転送されるグラフィックスデータ(PNG・JPEG)をデコードして、プログラム実行部から指定される表示時刻にしたがって、イメージプレーンに出力する。
 続いて、親画面ビデオデコーダ部123の内部構成について説明する。本図において親画面ビデオデコーダ部123の構成要素には、130番台の参照符号を付与することで構成要素の整理を図っている。この130番台の参照符号で示すように、色拡張対応ビデオデコーダは、TB131、MB132、EB133、TB134、MB135、EB136、圧縮映像デコーダ137、バッファスイッチ138、DPB139、ピクチャスイッチ124から構成される。
 第1TB(Transport Buffer)131は、Baseビデオストリームを含むTSパケットが第1PIDフィルタ122aから出力された際、TSパケットのまま一旦蓄積されるバッファである。
 第1MB(Muliplexed Bufffer)132は、TB131からEB133にBaseビデオストリームを出力するにあたって、一旦PESパケットを蓄積しておくためのバッファである。TB131からMB132にデータが転送される際に、TSパケットのTSヘッダは取り除かれる。
 第1EB(Elementary Buffer)133は、符号化状態にあるビデオアクセスユニットが格納されるバッファである。MB132からEB133にデータが転送される際にPESヘッダが取り除かれる。
 第1TB(Transport Buffer)134は、Enhancementビデオストリームを含むTSパケットが第2PIDフィルタ122bから出力された際、TSパケットのまま一旦蓄積されるバッファである。
 第1MB(Muliplexed Bufffer)135は、TB134からEB136にEnhancementビデオストリームを出力するにあたって、一旦、Enhancementビデオストリームを構成するPESパケットを蓄積しておくためのバッファである。TB134からMB136にデータが転送される際に、TSパケットのTSヘッダは取り除かれる。
 第1EB(Elementary Buffer)136は、符号化状態にあるEnhancementビデオストリームのビデオアクセスユニットが格納されるバッファである。MB135からEB136にデータが転送される際にPESヘッダが取り除かれる。
 圧縮映像デコーダ137は、ビデオエレメンタリストリームの個々のビデオアクセスユニットを所定の復号時刻(DTS)でデコードすることによりフレーム/フィールド画像を作成する。AVクリップに多重化されるビデオストリームの圧縮符号化形式にはMPEG2、MPEG4AVC、VC1などがあるため、ストリームの属性に応じて、圧縮映像デコーダ137のデコード方法は切り替えられる。圧縮映像デコーダ137は、デコードされたフレーム/フィールド画像をDPB139に転送し、表示時刻(PTS)のタイミングで対応するフレーム/フィールド画像をピクチャスイッチに転送する。
 バッファスイッチ138は、第1EBと第2EBに蓄えられたピクチャをビデオアクセスユニットに割り当てられた復号時刻(DTS)のタイミングで圧縮映像デコーダ137に転送する。また、圧縮映像デコーダ137がビデオアクセスユニットをデコードする際に取得したデコードスイッチ情報を使って、次のアクセスユニットを第1EB、第2EBのどちらから引き抜くかを決定しても良い。
 DPB(Decoded Picture Buffer)139は、復号されたフレーム/フィールド画像を一時的に保持しておくバッファである。圧縮映像デコーダ137が、ピクチャ間予測符号化されたPピクチャやBピクチャなどのビデオアクセスユニットをデコードする際に、既にデコードされたピクチャを参照するために利用する。
 続いて、プレーンメモリセットの内部構成について説明する。プレーンメモリセットの構成要素には、140番台の参照符号を付与することで構成要素の整理を図っている。この140番台の参照符号で示すように、プレーンメモリセットは、子画面ビデオプレーン141、PGプレーン142、IGプレーン143、イメージプレーン144、色深度拡張プレーン145から構成される。
 子画面ビデオプレーン140にはシステムターゲットデコーダ104から子画面ビデオストリームがデコードされた子画面ビデオ用のピクチャデータが出力される。

 PGプレーン141にはシステムターゲットデコーダ104からプレゼンテーショングラフィックスストリームがデコードされたグラフィックスデータが格納される。
 IGプレーン142にはシステムターゲットデコーダ104からインタラクティブグラフィックスストリームがデコードされたグラフィックスデータが格納される。
 イメージプレーン143にはシステムターゲットデコーダ104か出力されたイメージデータが格納される。
 色深度拡張プレーンメモリ144は、8ビット階調値からなるピクチャデータを格納し得るアロケーション、12ビット階調値からなるピクチャデータを格納し得るアロケーションといった2つのアロケーションで非圧縮のピクチャを格納する。プレーンメモリが前者のアロケーションになるのは、カレントモードが通常の再生モードに設定されている場合である。後者のアロケーションに設定されるのは、カレントモードが色深度拡張に設定されている場合である。
 図36は、色深度拡張プレーンの格納内容の一例を示す。図36(a)、(b)では、メモリの記憶領域を格子状に描いてる。この格子のそれぞれは、メモリの記憶素子のそれぞれを意味する。プレーンメモリをSD-RAM、RD-RAMといったダイナミックRAMで構成する場合、これらの記憶素子は、ダイナミックRAMにおけるページ領域であるROWアドレスと、ページ領域における記憶素子の相対アドレスであるCOLUMNアドレスとで特定され、個々の記憶素子は32ビットという語長を有する。よって、ピクチャを構成する各画素の画素成分の階調ビット列は、ページ領域における複数の記憶素子にまとめて格納される。またプレーンメモリにはメモリコントローラが接続されていて、かかるメモリコントローラが、画面上の(x,y)座標を、記憶素子のROWアドレス、COLUMアドレスにアドレスに変換する役割を果たす。上記の画素成分には、輝度Y,赤色差Cr,青色差Cbといった種別があり、プレーンメモリでは、複数画素の輝度成分、複数画素の赤色差成分というように、複数画素における共通の画素成分が、同一のページ領域に格納されることになる。
 図36(a)は、色深度拡張のアロケーションを示す。色深度拡張モードでは、(a)に示すように12ビットの輝度Y,12ビットの赤色差Cr,12ビットの青色差Cbからなる画素データが1920×1080、1280×720といった規模だけ格納されることになる。(b)は、非色深度拡張のアロケーションを示す。このアロケーションでは、Baseビデオストリームのピクチャにおける8ビット階調ビット列が格納されることになる。色深度拡張モードでは、ビット長が24ビットから36ビットに増大するため、プレーンメモリの規模は1.5倍になることがわかる。
 システムターゲットデコーダは、色深度拡張に関して、MPEG-4MVCをVideo  codecとして用いた内部構成を有する。MPEG-4MVC(Multiview Video Coding)ビデオストリームは、複数のビューから見た複数の映像を効率的に圧縮することを目的に開発されたビデオ圧縮技術であるが、これを利用する。具体的には、前述のBaseビデオストリームとしてMPEG-4MVCのBaseビューを用い、EnhancementビデオストリームとしてMPEG-4MVCのNon  baseビューを用いる。MPEG-4MVCBaseビデオストリームと、MPEG-4MVC Non  baseビデオストリームから成るMPEG-4MVCビデオストリームは、MPEG-4MVCデコーダーに入力され、8ビットBaseピクチャと、8ビットEnhancementピクチャとして出力され、色深度拡張部に入力される。   
 図37は、プレーン合成部の内部構成を示す図である。
 プレーン加算部144a,b,c,dは子画面ビデオプレーン、PGプレーン、IGプレーンをメタデータをクロッピングし、色深度拡張プレーンと合成し、イメージプレーンの重畳処理に転送される。
クロッピング部146a,b,cは、メタデータに基づき、プレーンに格納されている非圧縮ピクチャデータ、グラフィクスデータをクロッピングする
クロッピング部146dは、プログラムAPIに基づきプレーンに格納されている非圧縮グラフィクスデータをクロッピングする。
 加算部147a,b,c,dは、プレーン同士の合成を行う。
 シフト回路148a,b,c,dは、子画面ビデオプレーン、PGプレーン、IGプレーン、イメージプレーンの画素を8ビットからNビット階調に拡張する。これらの画素の階調をNビットにまで拡張することにより、Nビットに拡張されたピクチャデータとの合成が可能になる。
 図38は、再生装置に適用される場合の色深度拡張部24の内部構成の一例を示す。本図に示すように色深度拡張部24は、8ビットBaseビデオストリームのピクチャを8+bビットのピクチャに変換する第1シフト回路32、8ビットEnhancementピクチャから補正値を減じる減算部34、8+bビットベースピクチャと、減算部34の減算結果とを加算する加算部35、加算部35の加算結果をシフト量bだけシフトしてNビットピクチャを得る第2シフト回路36から構成される。
 図38においてビデオデコーダは、再生装置のプレーヤ状態レジスタで管理されているカレント再生時刻(PTM)がPTSに示される時刻になった際、そのPTSが付与されたベースビデオピクチャデータの表示に先立ち、そのピクチャデータに対応するシフト量をSEIのシフトシーケンスから取り出して色深度拡張部のシフト回路に設定する。また、そのPTSと同時刻のPTSを有するEnhancementビデオストリームのピクチャをプレーンメモリに出力する。これらの後に、Baseビデオストリームのピクチャを出力することにより色深度拡張の対象とする。こうすることでBaseビデオストリームのピクチャの画素ビット値は、そのBaseビデオストリームのピクチャが属するフレームのシフト量で上位方向にシフトすることになる。
 図39は、第1実施形態におけるバリエーションを適用した場合の色深度拡張部24の内部構成の一例を示す。本図に示すように色深度拡張部24は、8ビットBaseビデオストリームのピクチャを8+bビットの階調ビット列からなるピクチャに変換する第1シフト回路32、8ビットEnhancementピクチャから補正値を減じて符号付きビット値に変換する減算部34、減算部34の減算結果をシフト量bだけシフトする第2シフト回路36、8+bビットの階調ビット列からなるベースピクチャと、第2シフト回路36のシフト結果とを加算する加算部35とから構成される。
 色深度拡張のためにMPEG-4MVCを使用するメリットは、Blu-rayでは3Dの記録・表示のために既にMPEG-4MVCが使用されているため、Blu-ray 3D対応プレーヤーのハードウェア資源の一部を利用して色深度拡張が容易にできるためである。
 上記再生装置の製品開発にあたっては、上述したようなプレイリスト、プレイアイテム、AVクリップを処理するための処理手順を再生装置のCPUに実行させねばならない。このソフトウェア実装で必要となる処理手順について説明する。図40は、プレイアイテムの再生手順を示す。
 ステップS201は、カレント出力モードが色深度拡張モードであるか否かの判定であり、カレント出力モードが非色深度拡張モードであれば、ステップS203~ステップS206を実行する。
 ステップS203において、カレントプレイアイテムのClip_Information_file_nameに記述されている「XXXXX」と、拡張子「m2ts」とで指定されているストリームファイルをオープンし、ステップS204において、ビデオストリームのパケットIDに対応するエントリーポイントを用いて、カレントPlayItem.In_Time及びカレントPlayItem.Out_TimeをStart_SPN[i]及びEnd_SPN[i]に変換する。
 ステップS205では、パケットID[i]のTSパケット[i]をStart_SPN[i]からEnd_SPN[i]まで読み出すための読出範囲[i]に属するエクステントを特定し、ステップS206において、読出範囲[i]に属するエクステントを連続的に読み出すよう、記録媒体のドライブに指示する。
 カレント出力モードが色深度拡張モードであれば、ステップS301~ステップS308のループに移行する。
 ステップS301において、カレントプレイアイテムのClip_Information_file_nameに記述されている「XXXXX」と、拡張子「ceif」とで指定されているストリームファイルをオープンする。
 ステップS302において、Baseビデオストリームに対応する基本エントリーマップを用いて、カレントPlayItem.In_Time及びカレントPlayItem.Out_TimeをStart_SPN[i]及びEnd_SPN[i]に変換する。
 ステップS303では、Enhancementビデオストリームに対応する拡張エントリーマップを用いて、SubPlayItemIn_Time、SubPlayItemOut_TimeをStart_SPN[j]、End_SPN[j]に変換する(ステップS304)。
 Baseビデオストリームを構成するTSパケット[i]をStart_SPN[i]からEnd_SPN[i]まで読み出すための読出範囲[i]に属するエクステントを特定し(ステップS305)、パケットID[j]のTSパケット[j]をStart_SPN[j]からEnd_SPN[j]まで読み出すための読出範囲に属するエクステントを特定する(ステップS306)。そしてステップS307において読出範囲[i],[j]に属するエクステントをアドレスの昇順にソートして、ステップS308においてソートされたアドレスを用いて、読出範囲[i],[j]に属するエクステントを連続的に読み出すよう、ドライブに指示する。その後、ソースパケット列が読み出されれば、ステップS309においてBaseビデオのATCシーケンス、EnhancementビデオのATCシーケンスをそれぞれ復元して、Baseビデオ用のPIDフィルタ、Enhancementビデオ用のPIDフィルタに送り込む。
 図41は、ATCシーケンス復元手順を示す。ステップS91は、Baseビデオ用のATCシーケンスをATCシーケンス1とし、Enhancementビデオ用のATCシーケンスをATCシーケンス2とする。ステップS92では、変数xを1に初期化する。この変数xは、Enhancementデータブロック、Baseデータブロックを指示する。以降、ステップS94~ステップS96のループを繰り返す。
 変数xによって指示されるソースパケット番号bxが、Baseデータブロックの最後の数値nによって指示されるソースパケット番号bnであるか否かを判定し(ステップS93)、もしそうでなければ、ソースパケット番号bx+axによって指示されるソースパケット(bx+ax)から、bx+1+axによって指示されるソースパケット(bx+1+ax)の直前のパケットまでをATCシーケンス2に追加し(ステップS94)、ソースパケット(bx+1+ax)からソースパケット(bx+1+ax+1)の直前のパケットまでをATCシーケンス1に追加して(ステップS95)、変数xをインクリメントする(ステップS96)という処理を、ステップS93がYesと判定されるまで繰り返す。
 ステップS93がYesと判定されれば、ソースパケット番号bnから(number_of_source_packet2-bn)個のソースパケットをATCシーケンス2に追加し(ステップS97)、ソースパケット番号anから(number_of_source_packet1-an)個のソースパケットをATCシーケンス1に追加する(ステップS98)。
 以上のように、ATCシーケンス1、2が復元されれば、Baseデータブロックの先頭LBN及び連続長をセクタ数で示すファイルエントリーをメモリ上で生成して、ファイルBaseを仮想的にオープンする(ステップS99)。同様に、Enhancementデータブロックの先頭LBN及び連続長をセクタ数で示すファイルエントリーをメモリ上で生成して、ファイルEnhancementを仮想的にオープンする(ステップS100)。

 以上の再生制御を行う再生装置に、色深度拡張に適合したプレイリストを再生させるには、インデックステーブル及びプログラムファイルに以下の改良を施す必要がある。
 先ず、インデックステーブルの改良箇所について説明する。図42は、インデックステーブルの内部構成の一例を示す。図42(a)は、複数のタイトルのそれぞれと、そのタイトルがカレントタイトル番号になった際、処理対象にすべきプログラムファイルの識別子とを組みにして示している。本図では、n+2個の色深度拡張適合プログラムファイルの識別子が、n+2個のタイトルに対応付けられていることがわかる。これにより、タイトル選択に応じて色深度拡張に適合したプログラムが起動されることになる。以上のインデックステーブルでは、ファーストプレイタイトルの選択に応じて色深度拡張プログラムを起動するという即時起動の意図を読み取ることができる。
 図42(b)は、拡張機能プログラムによる処理を模式的に示す。(b)の第1段目は、プレーヤ状態レジスタにおける再生モードの設定と、拡張機能対応プログラムと、拡張機能ケーパビリティレジスタとを対応付けて示す。第2段目は、色深度拡張プレイリスト、mplsプレイリストを示す。矢印ins1,2は、プログラムによるプレイリスト再生指示を模式的に示す。このように、拡張機能対応プログラムが再生モードと、レジスタとを参照して、2つのプレイリストを選択的に再生することにより、Baseビデオストリーム、Enhancementビデオストリームの組みは、色深度拡張プレイリストを用いて適切に再生されることになる。
 図43は、色深度拡張プログラムの処理手順を示すフローチャートである。ステップS31において最初に実行すべき拡張機能に対応するGPRMの格納値を取り出し、ステップS32において格納値は、ケーパビリティ有を示すかどうかを判定する。ケーパビリティ有を示す場合、ステップS34において色深度拡張インターリーブドストリームファイルを指定したプレイリストの再生を開始する。ケーパビリティを示さない場合、m2tsストリームファイルを指定したプレイリストの再生を開始する。
 ステップS35は、拡張機能メニューを表示して、ステップS36においてユーザによる拡張機能選択待ちとなる。選択されれば、選択された拡張機能に対応するGPRMの数値を取り出し、ステップS38において数値はケーパビリティ有を示すかどうかを判定する。もしケーパビリティが存在する場合、ステップS40において色深度拡張インターリーブドストリームファイルを指定したプレイリストの再生を開始する。ケーパビリティが存在しない場合、ステップS39においてm2tsストリームファイルを指定したプレイリストの再生を開始する。
 以上のように、GPRが、拡張機能のケーパビリティ有を示していれば、プログラムファイルのプログラムが色深度拡張インターリーブドストリームファイルを選択して再生するので、拡張機能のケーパビリティが再生装置に存在する場合のみ色深度拡張適合プレイリストの再生を実行し、ケーパビリティが存在しなければ、通常のプレイリストを選択して再生することになる。
 以上で再生装置についての説明を終える。
 (記録装置、記録方法の形態)
 続いて、本実施形態に示したBaseビデオストリーム、EnhancementビデオストリームをBlu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスクといったディスク媒体に書き込むための記録方法について説明する。
 本実施形態に係る記録方法は、Nビットの階調ビットを有する原画像の入力時に、ストリームファイルであるAVファイル、ストリームファイル以外のファイルである非AVファイルをリアルタイムに作成して、記録媒体におけるAVデータ記録領域、非AVデータ記録領域にダイレクトに書き込むというリアルタイムレコーディングとして実現することができる。それだけではなく、ボリューム領域に記録すべきビットストリームの全体像を事前に作成して、このビットストリームを元に原盤ディスクを作成し、この原盤ディスクをプレスすることで、光ディスクを量産するというプレフォーマットレコーディングも含む。本実施形態に係る記録媒体は、リアルタイムレコーディングによる記録方法、及び、プレフォーマットレコーディングによる記録方法によっても特定されるものでもある。リアルタイムレコーディング技術により記録方法を実現する場合、当該記録方法を実行する記録装置は、リアルタイムにAVクリップを作成して、Blu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスクに書き込む。
 リアルタイムレコーディングを実行する記録装置は、カメラ機器であり、光学機器を用いて撮像を行い、Nビット階調で表現された原画像データを得る撮像部と、Nビット階調の原画像データをエンコードすることによりBaseビデオストリームと、Enhancementビデオストリームとの組みを得るストリーム生成部と、オーディオ信号をエンコードしてオーディオストリームを得るオーディオエンコーダと、ビデオストリーム、オーディオストリーム等を多重化して、MPEG2-TSを得るマルチプレクサと、MPEG2-TS形式のデジタルストリームを構成するTSパケットをソースパケットに変換するソースパケッタイザと、ソースパケット形式に変換されたMPEG2デジタルストリームをAVクリップファイルに格納してBlu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスク等に書き込む書込部と、制御部とを含む。デジタルストリームの書き込みと共に、記録装置の制御部は、メモリ上でクリップ情報やプレイリスト情報を生成する処理を行う。具体的には、ユーザによって録画処理が要求された際、制御部は、AVクリップのストリームファイル及びクリップ情報ファイルをBlu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスク上にクリエイトする。そして、エンコーダによってビデオストリームのGOPが生成されれば、記録装置の制御部は、このGOPにおいて、先頭に位置するイントラピクチャのPTSと、このGOPの先頭部分を格納したソースパケットのパケット番号とを取得して、このPTS及びパケット番号の組みを、EP_PTSエントリー及びEP_SPNエントリーの組みとして、クリップ情報ファイルのエントリーマップに追記する。以降、GOPが生成される度に、EP_PTSエントリー及びEP_SPNエントリーの組みを、クリップ情報ファイルのエントリーマップに追記してゆく。この際、GOPの先頭がIDRピクチャである場合は、「オン」に設定されたis_angle_changeフラグをEP_PTSエントリー及びEP_SPNエントリーの組みに追加する。GOPの先頭がIDRピクチャでなければ場合は、「オフ」に設定されたis_angle_changeフラグをEP_PTSエントリー及びEP_SPNエントリーの組みに追加する。
 また、クリップ情報ファイルにおけるストリームの属性情報については、記録されるべきストリームの属性に従い設定する。以上のようにしてAVクリップ、クリップ情報が生成されてBlu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスクに書き込まれれば、このクリップ情報内の基本エントリーマップを介して、再生経路を定義するプレイリスト情報を生成し、Blu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスクに書き込む。このような処理を、リアルタイムレコーディング技術において実行することで、AVクリップ-クリップ情報-プレイリスト情報という階層構造を、撮影時にBlu-ray WriteOnceディスク、Blu-ray Rewritableディスク、AVC-HDディスク上に得ることができる。
 以上がリアルタイムレコーディングによる記録方法を実行する記録装置である。続いて、プレフォーマットレコーディングによる記録方法について説明する。
 プレフォーマットレコーディングによる記録方法は、記録装置がオーサリング行程を実行するような光ディスクの製造方法となる。オーサリング行程を実行する記録装置は、Nビットの原画像の他、子画面ビデオの動画素材、音声素材や字幕素材、メニュー素材を入力するインポート部するインポート部と、Nビット階調の原画像からBaseビデオストリームと、Enhancementビデオストリームとを作成するストリーム生成部と、子画面ビデオの動画素材をエンコードする子画面ビデオエンコーダと、音声素材をエンコードするオーディオエンコーダ、字幕素材からPGストリームを作成するPGジェネレータと、メニュー素材からInteractive Graphicsストリームを作成するIGジェネレータと、生成された各種ストリームをファイルシステム上で分類して格納するためのストレージと、生成された各種ストリームを多重化してトランスポートストリームを得るデマルチプレクサと、ユーザとの対話入力に従い、Blu-ray ReadOnlyディスクに記録すべきデータの再生構造を規定して、これを基にBlu-ray ReadOnlyディスクにおけるボリュームイメージを作成するオーサリング部とを含む。
 上記ストレージは、構内ネットワークにおけるネットワークドライブであり、ビデオストリーム、オーディオストリーム等は、これらのストレージの所定のディレクトリ構成において、ファイルとして格納されている。エンコーダは、上記構内ネットワークにおけるサーバコンピュータであり、構内ネットワークを通じて上述したようなストレージをアクセスし、各種ストリームの読み出しやトランスポートストリームの書き込みを実行する。
 構内ネットワークの各ストレージにおいて、Nビット階調の原画像、ビデオストリーム、オーディオストリーム、字幕ストリーム、トランスポートストリーム等を格納したファイルは、GUIにおいてアイコンやサムネール等により視覚的に表現される。ユーザは、ユーザインターフェイスのGUIに表示されたアイコンやサムネールに対してドラッグ操作、ドロップ操作、クリック操作を行うことにより、Nビット階調の原画像、ビデオストリーム、オーディオストリーム、字幕ストリーム、トランスポートストリーム等に対して、コピー操作や削除操作、その他、編集操作を実行することができる。
 図44は光ディスクの記録方法を示す。同図(a)は、プレフォーマットレコーディングによる記録方法を示すフローチャートである。光ディスクの製造方法は、オーサリングステップ、署名ステップ、メディア鍵取得ステップ、メディア鍵暗号ステップ、物理フォーマットステップ、識別子埋め込みステップ、マスタリングステップ、レプリケーションステップを含む。
 オーサリングステップS201は、光ディスクのボリューム領域の全体像を表すビットストリームを作成する。
 署名ステップS202は、光ディスクの製造にあたってAACS LAに対して署名要求を行う。具体的には、ビットストリームの一ステップを抜き出し、AACS LAに送付する。ここでAACS LAは、次世代のデジタル家電機器における著作物保護技術に関するライセンスを管理する団体である。オーサリング装置を用いて光ディスクのオーサリングを行うオーサリングサイト、及び、マスタリング装置を用いてマスタリングを実行するマスタリングサイトは、AACS LAよりライセンスの提供を受ける。また、メディア鍵、無効化情報を管理する。そして、AACS LAより署名されたビットストリームの一部分を取得する。
 メディア鍵取得ステップS203は、AACS LAからメディア鍵を取得する。メディア鍵は、常に固有のものが使用されるわけではなく、これまで製造された光ディスクの枚数が一定枚数まで達すると新しいものに更新される。メディア鍵を更新することにより、特定のメーカーや機器を排除することができ、万が一暗号鍵が破られたとしても、無効化情報を用いることでそれ自体を無効化することができる。
 メディア鍵暗号化ステップS204は、メディア鍵取得ステップにより取得したメディア鍵を用いて、ビットストリームの暗号化に用いた鍵を暗号化する。
 物理フォーマットステップS205は、ビットストリームに対して物理フォーマットを実行する。
 識別子埋込みステップS206は、光ディスクに収録されるビットストリームに、一般の機器では検出することができない一意の識別子を電子透かしとして埋め込む。これにより、不正なマスタリングによる海賊版の量産を防ぐことができる。
 マスタリングステップS207は、光ディスクの原盤を作製する。まず、ガラス基板上にフォトレジスト層を形成し、当該フォトレジスト層に対して、所望するグルーブやピットに対応するようにレーザ光を照射して露光し、現像処理を施す。このグルーブやピットは、8ー16変調されたビットストリームの各ビット値を表すものである。その後、このようなレーザカッティングによってグルーブやピットに対応した凹凸が形成されたフォトレジストを元にして、光ディスクの原盤を作製する。
 レプリケーションステップS208は、光ディスクの原盤を用いて、その複製である光ディスクを大量生産する。同図(b)は、光ディスクを大量生産するのではなく、一般ユーザがPCを使って、BD-R,BD-RE等に、これまでの実施形態で述べた各種ファイルを記録する場合のプリフォーマットレコーディングによる記録方法の処理手順を示す。同図(a)と比較すると、同図(b)による記録方法では、物理フォーマット(ステップS205)、マスタリング(ステップS207)、レプリケーション(ステップS208)が存在せず、代わりに、各ファイルの書き込み行程(ステップS209)が存在する。
 次にオーサリング行程について説明する。図45は、オーサリング行程の処理手順を示すフローチャートである。
 ステップS101において、メインTS及びサブTSについてのリールセットを定義する。「リール」とは、エレメンタリストリームの素材となるデータを格納したファイルであり、オーサリングシステムでは、ローカルネットワーク上のドライブ上に存在する。カメラ機器によって撮影された画像、撮影時に録音された音声や、その後のアフレコで収録された音声、言語毎の字幕、メニューをデータ化したものが、これらリールに該当する。「リールセット」とは、1つのTSに多重化されるべきエレメンタリストリームの集合を表した、素材ファイルへのリンク群である。ここでは、メインTS、サブTSのそれぞれについてリールセットが定義される。
 ステップS102において、プレイアイテム、サブプレイアイテムの原型を定義し、プレイアイテム、サブプレイアイテムの再生順序を定義することでメインパス、サブパスの原型を定義する。プレイアイテムの原型の定義は、平面視出力モードにおいて、そのプレイアイテムで再生を許可すべきリールの指定と、In_Time/Out_Timeとの指定を、GUIを通じて受け付けることでなされる。サブプレイアイテムの原型の定義は、色深度拡張モードにおいて、そのサブプレイアイテムに対応するプレイアイテムで再生を許可すべきリールの指定と、In_Time/Out_Timeとの指定を、GUIを通じて受け付けることでなされる。
 再生を許可すべきリールの指定は、リールセットにおける素材ファイルのリンクのうち、再生を許可すべきものをチェックボックスでチェックするというGUIで構成される。この際、各リールに対応付けて数値入力欄を表示する。そして、この数値入力欄によって、各リールについての優先順位を受け付け、これをリールに対応する優先順位とする。以上の再生を許可すべきリールの設定と、優先順位の設定とからストリーム選択テーブル、拡張ストリーム選択テーブルが生成されることになる。
 In_Time及びOut_Timeの指定は、GUI上で、Baseビデオストリーム又はEnhancementビデオストリームの時間軸を図形化して表示し、図形化された時間軸において、スライドバーを移動させて、そのスライドバーの位置設定をユーザから受け付けるという処理を記録装置が実行することでなされる。プレイアイテム、サブプレイアイテムの再生順序の定義は、GUI上でプレイアイテムのIn_Timeにおけるピクチャをサムネール化して表示し、このサムネールに対して、再生順序を設定するという操作を記録装置がユーザから受け付けることでなされる。
 ステップS103では、リールセットにて指定された素材ファイルをエンコードすることにより、複数のエレメンタリストリームを得る。このエンコードの過程で、原画像からBaseビデオストリームと、Enhancementビデオストリームとを生成する処理が実現される。これらの複数のエレメンタリストリームは、Baseビデオストリーム、Enhancementビデオストリームと、これらBaseビデオストリーム、Enhancementビデオストリームと多重化されるべきオーディオストリーム、PGストリーム、IGストリームがある。
 ステップS104では、エンコードで得られたエレメンタリストリームのうち、Baseビデオストリームと同じリールセットに属する同じするものを、当該Baseビデオストリームと多重化することで、1つのメインTSを得る。
 ステップS105では、エンコードで得られたエレメンタリストリームのうち、Enhancementビデオストリームと同じリールセットに属するものを、当該Enhancementビデオストリームと多重化することで、1つのサブTSを得る。ステップS106では、エンコード及び多重化時に設定されたパラメータを元に、クリップ情報ファイルの原型を生成する。
 ステップS107では、プレイアイテムの原型を元にプレイアイテム情報、サブプレイアイテム情報を生成し、これらのプレイアイテム情報、サブプレイアイテム情報に再生順序を定義することで、メインパス情報、サブパス情報を生成して、プレイリスト情報を定義する。
 プレイアイテム情報の作成においては、メインTSに多重化されたエレメンタリストリームのうち、プレイアイテムの基本構造において平面視出力モードで再生すべきと規定されたものを再生可能に設定すべく、プレイアイテム情報内にストリーム選択テーブルを生成する。また、Baseビデオストリームにおける再生区間を規定するため、上述の編集作業で規定されたIn_Time、Out_Timeをプレイアイテム情報に記載する。
 サブプレイアイテム情報の作成においては、サブTSに多重化されたエレメンタリストリームのうち、プレイアイテムの基本構造において色深度拡張モードで再生すべきと規定されたものを再生可能に設定すべく、プレイリスト情報のエクステンションデータ内に拡張ストリーム選択テーブルを生成する。プレイアイテム情報、サブプレイアイテム情報は、クリップ情報ファイル内の情報を元に定義されるからクリップ情報ファイルの原型を元にして設定される。
 ステップS108では、メインTS、サブTS、クリップ情報ファイルの原型、プレイリスト情報の原型を、所定のアプリケーションフォーマットに従ったディレクトリーファイル群に変換する。
 以上の過程を得て、メインTS、サブTS、クリップ情報、プレイアイテム情報、サブプレイアイテム情報が生成されれば、メインTS、サブTSをそれぞれ独立したストリームファイルに変換し、クリップ情報をクリップ情報ファイルに変換し、プレイアイテム情報及びサブプレイアイテム情報をプレイリスト情報ファイルに変換することで、記録媒体に記録されるべき一連のファイルセットを得る。
 図46は、AVファイル書込工程の処理手順を示す。リアルタイムレコーディングによる記録方法や、マスタリング、レプリケーションを伴い記録方法の実施では、AVファイルの書き込みを、本図のフローチャートによって実現する。
 ステップS401において、xxxxx.ceifをクリエイトして、記録装置のメモリ上にファイルエントリーを作成する。ステップS402は、空きの連続セクタ領域を確保し得たかどうかの判定であり、確保し得たなら、ステップS403において、空きの連続セクタ領域にEnhancementデータブロックを構成するソースパケット列をEXT2[i]だけ書き込み、その後、ステップS404~ステップS408を実行する。確保し得ない場合は、ステップS409で例外処理をした後、記録方法を終了する。
 ステップS404~ステップS408は、ステップS407がNoと判定されるまで、ステップS404~ステップS406、ステップS408の処理を繰り返すループを構成している。
 ステップS405は、空きの連続セクタ領域に、Baseデータブロックを構成するソースパケット列をEXT1[i]だけ書き込む。ステップS406は、ソースパケット列が書き込まれた先頭アドレス及び連続長を示すアロケーション識別子をファイルエントリーに追記して、エクステントとして登録する。これに伴い、書き込まれたソースパケット列の先頭ソースパケット番号を指し示すエクステントスタートポイント情報を、クリップbase情報、クリップEnhancement情報内のメタデータに追記する。
 ステップS407は、ループの終了条件を規定するものであり、Baseデータブロック、Enhancementデータブロックに未書込のソースパケットが存在するかどうかの判定を行う。存在すれば、ステップS408に移行して、ループを継続する。存在しなければ、ステップS410に移行する。
 ステップS408は、連続セクタ領域が存在するかどうかの判定であり、存在すれば、ステップS403に移行し、存在しなければ、ステップS402まで戻る。
 ステップS410では、xxxxx.ceifをクローズして、ファイルエントリーを記録媒体に書き込む。ステップS411では、xxxxx.m2tsをクリエイトして、メモリにxxxxx.m2tsのファイルエントリーを生成する。ステップS412では、ファイル2Dで固有となるBaseデータブロックの先頭アドレス及び連続長を示すアロケーション記述子をxxxxx.m2tsのファイルエントリーに追記する。ステップS413では、xxxxx.m2tsをクローズして、ファイルエントリーを書き込む。
 以上のように本実施形態によれば、各色で8ビット階調の色深度の映像しか再生できないプレーヤーと、8ビットを超える色深度の再生に対応したプレーヤーをナビゲーションレベルで識別することにより、ディスクから適切なストリームを選択して再生する。
 従来の8ビットのビデオストリームが従来の機器では再生され、8ビットを超える色深度に対応したプレーヤーでは、従来の8ビットのビデオストリームと、色深度拡張を行うためのEnhancementビデオストリームを用いて再生を行うことで、原画の色深度を復元し
て再生することが可能となる。
 Blu-ray ReadOnlyディスクとの共通のデータ構造に一部の改変を加えることでコンテンツの多くのバリエーションを作成して、コンテンツの充実化を図ることができるので、映画業界、出版業界、ゲーム業界、音楽業界といったコンテンツ制作業界のより一層の発展を招来することができる。かかる制作業界の発展により、国内産業を活性化すると共に、国内産業の競争力強化を図ることができる。本発明は、国内産業に様々な貢献をもたらす。
 (第3実施形態)
 第3実施形態は、色深度拡張を応用した拡張機能のケーパビリティ判定に関する。これまでの実施形態で述べた色深度拡張機能を応用することで、コンテンツ制作者は様々な拡張機能を定義することができる。それらの拡張機能には、コンテンツプロバイダやコンテンツ制作者のロゴを色深度拡張して表示するというものや特典機能のためのメニューを色深度拡張して表示するというもの、セットアップメニューを色深度拡張して表示するというものがある。特に色深度拡張によるロゴ表示は、企業ブランドを強く印象付けるものであり、高画質化の要請が高い。しかし、上述したような拡張機能は、コンテンツ制作者によって定義され、コンテンツ制作者からもたらされるものであり、マニファクチャによって製造される全ての再生装置が、これらの拡張機能の全てをサポートするというのは不可能である。
 ここでマニファクチャによって製造される再生装置には、スペックが高いものや低いもの、表示装置と一体になっているもの等、様々なバリエーションがあり、たとえ色深度拡張部を具備していたとしても、コンテンツ制作者が作成した拡張機能をサポートしえない場合が生じる。そこで、コンテンツ制作者と、マニファクチャとの取り決めとして、マニファクチャ側では、再生装置におけるプレーヤ変数を用いることにより拡張機能のケーパビリティを明示させることにしている。
 (第3実施形態で解決しようとする課題)
 従来、ディスク上のプログラムがプレーヤーが特定の機能をサポートしているかどうかを判別するにはシステムパラメーター内に、特定機能をサポートしているかどうかを示すフラグを定義する必要があった。例えばRerservedとして示されている24番の変数を、特定機能、例えば第1実施形態で説明した色深度拡張に対応しているかを示すフィールドをして使用することが考えられる。ディスク上のナビゲーションやJAVAスクリプトとして記録されるプログラムは、この24番の変数を見て、色深度の再生可否判断を行うなどすることが可能である。
 しかしながら、この方法で拡張機能の対応可否の判断を行う場合には、機能の追加の都度、現在Reservedとされているシステムパラメータをやみくもに消費するという課題があった。
 第3実施形態に記載された発明(以下、本発明と呼ぶ)の目的は、拡張機能の対応可否の判断にあたってプレーヤー変数の予約領域を消費することがない再生装置を提供することである。
  <課題を解決するための手段>
 再生装置の局面で課題解決を図る場合、当該局面における再生装置は記録媒体が装填されてからインデックスが読み取られるまでの間に、拡張機能のケーパビリティ設定を示す設定テーブルを読み込み、複数の汎用目的レジスタのうち、設定テーブルで指示されているものに、設定テーブルに記載された初期値を設定することを特徴とする。
 ここで設定テーブルには、複数の拡張機能には、2以上の汎用目的レジスタ番号が対応付けられており、前記再生装置は、設定テーブルにおける2以上の連続する汎用目的レジスタ番号で指定された汎用目的レジスタに、所定の初期値を設定することが望ましい。これは、後述する"より誤検出"を回避する下位概念化である。
 上記技術的特徴を再生装置の発明に導入することにより上記課題の解決が図られることになる。図面を参照しながら上記課題解決手段による課題解決のアプローチについて具体的に説明する
 本実施形態では、拡張機能のケーパビリティの表示に、一般用途として使用可能なゼネラルパラメータ(GPRM)を用いる。GPRMは一般にプレーヤー内のメモリーの一部として所定の容量だけ確保され、通常ナビゲーションコマンドと呼ばれる一連のコマンド郡で構成されるプログラムが、必要な数値を一時的に保持するために使用される。しかしながら、Blu-rayDiscなどのようにその主目的が映像の再生に用いられるような光ディスクの場合、それほど複雑な処理をナビゲーションコマンドで行うことが少なく、確保されている全GPRMが使われることはほとんどない。
 まず、ディスク上には、拡張機能判定ファイルを用意する。拡張機能判定ファイルは、BDMVフォルダの直下に記録しても良いし、その他の場所に記録しても良い。拡張機能判定ファイルは、GPRMによる拡張機能ケーパビリティの格納方式を規定するものである。図47は、拡張機能ケーパビリティの格納方式を表形式で示す図である。図47(a)の格納方式とは、複数の種別の拡張機能のそれぞれに、設定先のGPRM番号と、設定値とを対応付けるというものである。種別には、機能1、2、3があり、これらの機能のうち、機能1には、123番のGPRMと、0x12345678という数値とが対応付けられていることがわかる。機能2には、456番のGPRMと、0x87654321という数値とが対応付けられていることがわかる。例えば、拡張機能1が色深度拡張を示す場合、拡張機能判定ファイルに対応したプレーヤー機器にディスクが装填された際、機器固有処理部114は再生開始の前にまず前記拡張機能判定ファイルを読み込み、前記プレーヤーは拡張機能1に対応している場合、機器固有処理部114は設定GPRMで示された、GPRM123に設定値と示されている設定値0x12345678を設定する。また、前記プレーヤーが拡張機能2に対応していない場合には、機器固有処理部114ははGPRM456に値を設定しない。
 このようにプレーヤーへディスクが挿入されてから、インデックステーブルを読み込みインデックステーブルにおいてファーストプレイタイトルのタイトル番号によって指定されている最初のプログラムの実行を開始するまでの間に、拡張機能判定ファイルによって指定されたGPRMに指定された設定値を設定する。こうすることで、再生開始後(前述のプログラムの実行開始後)には、ナビゲーションコマンドや、JAVAスクリプトで構成されるプログラムによって、値が設定されている可能性があるGPRMの値を確認することで、プレーヤーが所望の機能に対応しているかどうかを判断し、再生するプレイリストを変更したり、ユーザに意図的に特定の機能に対応していることを知らせるためのAVクリップの再生を行ったりすることが出来る。
 このようにGPRMを用いて、特定機能の対応可否判断を行うことが可能となるが、あるGPRMに設定された初期値がたまたま拡張機能判定ファイルに指定された設定値と同一になった場合、前述のプログラムは、プレーヤーが特定機能に対応していると誤判定する可能性がある。これは、GPRMはプログラムで必要な変数を保持するために一時的な領域として確保されているメモリーであるから、ディスク挿入時の値が0で初期化されているとは限らないからである。
 このような誤判定を防ぐには、GPRMの格納方式を改良すべきである。ここで、GPRMの格納方式は、拡張機能判定ファイルにて規定されるから、図47(b)で示すように、特定の機能に対して複数のGPRMを設定するような拡張機能判定ファイルを用意する。そしてプレーヤーが前記拡張機能判定ファイルを読み込んだ際に、プレーヤーが対応している拡張の種別が記載されている場合には、対応する全てのGPRMに設定値を記録するようにする。図47(b)は、拡張機能ケーパビリティの格納方式を表形式で示す図である。本図の格納方式とは、複数の種別の拡張機能のそれぞれに、2つのGPRM番号と、2つの設定値とを対応付けるというものである。拡張機能の種別には、機能1、2、3があり、これらの機能のうち、機能1には、123番のGPRMと、0x12345678という数値と、999番のGPRMと、0x33112352という数値とが対応付けられていることがわかる。
 ここで機能2には、456番のGPRMと、0x87654321という数値と、246番のGPRMと、0x43756947という数値とが対応付けられていることがわかる。
 また図47(b)では、拡張機能1を示す行が2行連続しているが、これは連続している方が望ましい。例えば、拡張機能1の1行目(設定GPRM123)の次の行(2行目)に拡張機能2の設定(GPRM456)が続き、その次に再度拡張機能1の設定(GPRM999)が記載される場合、プレーヤーは何行目まで読み込めば拡張機能1の設定に必要な全てのGPRMに設定できるか判別できないからである。
 ここで図47(a)の格納方式2071では、拡張機能1の再生が可能である場合に、プレーヤーはGPRM123に0x12345678を設定していたが、格納方式2702を示す拡張機能判定ファイルを読み込んだ際には、プレーヤーが拡張機能1に対応している場合、GPRM123に0x12345678と設定するとともに、GPRM999に0x33112352を設定し、拡張機能1の対応可否判定を行うプログラムは、GPRM123とGPRM999の両方を見ることで、より誤検出を回避して、対応可否の判定を行えるようになる。
 また、より好適には拡張機能判定ファイルに対応したプレーヤーでは、GPRMの初期値を「0」としておくことが望ましく、初期値0を設定した後、拡張機能判定ファイルによって必要なGPRMに必要な設定値を設定することが望ましい。
 また、設定GPRMの番号や設定値をそのままプレーヤーが使用するとして説明したが、例えば拡張機能判定ファイルで示された設定GPRで記載されている値に対して、特定の演算を行ったり、ハッシュ値を算出した値を設定すべきGPRMの番号としても良いし、設定値に関しても、例えば128ビットの設定値を記載し、ハッシュ値計算して32ビットの数値を算出し、それをGPRMに設定しても良い。
 このように、特定の演算やハッシュ値の演算を入れてGPRMに値を設定することにより、前述の特定の演算やハッシュ値の演算式を知っているプレーヤーだけが適切な値を設定できるようになるため、拡張機能の対応可否の誤判定を減らすことができる。
 図48は、ディスク媒体がプレーヤーに挿入されてから、再生開始までの間にGPRMを設定するための処理手順を示すフローチャートである。
 ディスクが挿入された後、プレーヤーは拡張機能判定ファイルを読み込む(S401)。次に、拡張機能判定ファイルを順に処理していく。具体的には拡張機能判定ファイルに記載されている拡張機能が前記プレーヤーで対応しているかを判定し、対応している場合には、拡張機能判定ファイルで指定されたGPRMに拡張機能判定ファイルで指定された値を設定する。この処理は、拡張機能判定ファイルに記載されている全ての拡張機能の判定を行うまで行う(S402、S403、S404)。
 全ての拡張機能の判定は完了すると、インデックスファイルのファーストプレイタイトルから参照されたプログラムの実行を開始する。(S405)
 以上のように本実施形態によれば、インデックステーブルの読み込みと、ファーストプレイタイトルの再生とに先立ち、拡張機能のケーパビリティの有無をGPRMに設定するので、ファーストプレイタイトルの再生時に、ロゴを色深度拡張して表示することができる。これによりコンテンツプロバイダやコンテンツ制作者からの強い要望に応えることができる。また拡張機能のケーパビリティをGPRMに示させるので、プレーヤ設定レジスタ、プレーヤ状態レジスタの予約領域の消耗を避けることができ、プレーヤモデルの将来の拡張の余地を残すことができる。
 (第4実施形態)
 第4実施形態は、前述の色深度拡張の仕組みを応用したもので、具体的には親画面ビデオの一部置き換えをより効果的に行うことを目的とする。
 図49は、想定しているアプリケーションの一例を示す。まず、「顔の置き換え」は、映画などの主人公を別の俳優に差し替えたり、視聴者がカメラから取り込んだ自分の顔と主人公の顔を差し替えることを示す。また別のアプリ例として「看板の置き換え」では、映画中に出てくる看板を視聴する国毎に差し替えたり、スポンサーに応じて差し替えたりするアプリを示している。従来、これらのアプリケーションを実現するには、親画面ビデオに対して、子画面ビデオを用意し、親画面ビデオに子画面ビデオを重ね合わせることで実現してきた。図50は、子画面ビデオを、親画面ビデオに重ね合わせることで実現されるピクチャインピクチャ画像を示す。
 {発明が解決しようとする課題}
 この時、従来の子画面ビデオの多くは、ハイビジョン(1920×1080や1280×720)解像度を持つ親画面ビデオに対して、ディスク容量の制約や、ビデオデコードの処理量の制約から、解像度の低い映像(例えばSD解像度の映像)が使用されることが多く、以下のような課題があった。
 (1)一般にSD解像度で用いられる色空間(ITU-R BT.601)と、ハイビジョンで用いられれる色空間(ITU-R BT.709)が異なるため、親画面ビデオの上に子画面ビデオをそのまま重畳した場合、親画面ビデオと子画面ビデオの境界で色の違いが出ることがある。これを回避するために、親画面ビデオと子画面ビデオの合成前に、どちらかの色空間に合わせる様に色空間を変換した場合でも、変換時の誤差により親画面ビデオと子画面ビデオの色を完全に合わせることは難しい。
 (2)子画面ビデオを拡大または縮小して重畳した場合、拡大・縮小時の方式により、子画面ビデオ内の線が滲むため、親画面ビデオから子画面ビデオに連続するようなオブジェクトを構成する線が滲むことがある。
 これら課題を回避する方法としては、子画面ビデオも親画面ビデオと同じ解像度の映像を使う方法がある。しかしながら、この場合、アプリ例で示したように親画面ビデオ内の一部の箇所だけ置き換えたいにも関わらず、子画面ビデオは親画面ビデオに対して置き換える必要がない箇所までビデオストリームとして圧縮する必要があるため、従来のSD解像度の子画面ビデオを用いる場合に比較して、子画面ビデオに必要なデータ量が増大してしまうという新たな課題を生み出す。
 本発明の目的は、子画面ビデオのデータ量を増大させることなく通常の動画像と、ピクチャインピクチャ動画像との切り替えを可能にする符号化方法を提供することである。
 <課題を解決するための手段>
 符号化方法の局面で課題解決を図る場合、当該局面における符号化方法は、
 符号化方法であって、
 原画像に対してエンコード処理を行うことによりベースビデオストリームを生成する第1エンコードステップと、
 各々のピクチャデータが、ピクチャインピクチャデータから構成されたピクチャインピクチャビデオストリームを生成する第2エンコードステップとを含み
 ピクチャインピクチャデータは、ベースビデオストリームにおけるピクチャの画面領域の一部が子画面領域に置き換えられたピクチャデータであり、
 第2エンコードステップは、ピクチャ間予測符号化処理を行い、
 ピクチャインピクチャデータのうち、子画面領域に置き換えられた部分を除く画面領域に位置する画素ブロックは、ベースビデオストリームにおける個々のピクチャデータのみを参照画像としたピクチャ間予測符号化処理により符号化されことを特徴とする。
 上記課題を解決できる手段として上位概念で記載された事項は、様々な下位概念化が可能である。この下位概念化のうち典型的なものを以下に列挙する。
 (ピクチャインピクチャビデオストリームの指定についての下位概念化)
 ピクチャインピクチャビデオストリームのピクチャデータは、ベースビデオストリームの再生時間軸において、間欠的に存在し、
 ベースビデオストリームを構成する各ピクチャデータは、再生時間軸において同一時点に再生されるべきピクチャインピクチャビデオストリームのピクチャデータが存在するか否かを示す存否フラグを含むことが望ましい。ピクチャインピクチャビデオストリームのピクチャが存在しない期間においては、ピクチャインピクチャビデオストリームに対する処理を凍結できるので、ピクチャインピクチャビデオストリーム側のバッファのアンダーフロー発生を避けることができる。
 (子画面領域内の圧縮符号方式についての下位概念化)
 ピクチャインピクチャビデオストリームを構成する個々のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックは、ピクチャインピクチャビデオストリームを構成する他のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックを参照画像としたピクチャ間予測符号化処理により符号化される
 ことが望ましい。ピクチャインピクチャビデオストリームの内部においては、子画面ビデオ同士の相関性を用いた圧縮符号化が可能になるので、符号化効率を高めることができる。
 復号化方法の局面で課題解決を図る場合、当該局面における復号化方法は、
 復号化方法であって、
 ベースビデオストリームをデコードすることで非圧縮のピクチャデータを得る第1デコードステップ、
 ピクチャインピクチャビデオストリームをデコードすることでピクチャインピクチャデータを得る第2デコードステップを含み
 第2デコードステップは、
 ピクチャインピクチャデータにおいて子画面領域を除く画面領域に位置する画素ブロックに対して、ベースビデオストリームにおける個々のピクチャデータのみを参照画像としたピクチャ間予測動き補償を実行する。
 上記課題を解決できる手段として上位概念で記載された事項は、様々な下位概念化が可能である。この下位概念化のうち典型的なものを以下に列挙する。
 (ピクチャインピクチャの指定の仕方についての下位概念化)
 ピクチャインピクチャビデオストリームのピクチャデータは、ベースビデオストリームの時間軸において、間欠的に存在し、
 ベースビデオストリームにおける各ピクチャデータは、時間軸において同一時点に再生されるべきピクチャインピクチャビデオストリームのピクチャデータが存在するか否かを示す存否フラグを含み、
 第2デコードステップは、存否フラグに基づいてピクチャインピクチャビデオストリームに対する処理を凍結するか否かを切り替えることが望ましい。ピクチャインピクチャビデオストリームのピクチャが存在しない期間においては、ピクチャインピクチャビデオストリームに対する処理を凍結できるので、ピクチャインピクチャビデオストリームのデコーデッドデータバッファに存在する参照ピクチャを後段の処理に利用することが可能になる。
 (子画面画像に対する圧縮符号化についての下位概念化)
 ピクチャインピクチャビデオストリームを構成する個々のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックは、ピクチャインピクチャビデオストリームを構成する他のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックを参照画像としたピクチャ間予測動き補償により復号化することが望ましい。ピクチャインピクチャビデオストリームの内部においては、子画面ビデオ同士の相関性を用いた圧縮符号化が可能になるので、符号化効率を高めることができる。
 これらの課題解決手段は、画素ブロック毎に動き補償時における参照ピクチャの制限が存在するというものである。画素ブロックとは、所定の横画素数、所定の縦画素数の画素の集りであり、本実施形態では、横32画素×縦32画素の画素の集りであるマクロブロックを画素ブロックとして採用する。
 図面を参照しながら上記課題解決手段による課題解決のアプローチについて具体的に説明する。図51は、本実施形態に係る符号化方法を実施する装置(符号化装置)の内部構成の一例を示す。本図に示すように、符号化装置は、原画像をエンコードしてBaseビデオストリームを得る第1ビデオエンコーダ41と、Baseビデオストリームをデコードするビデオデコーダ42と、ビデオデコーダによるデコードで得られた非圧縮のピクチャデータ格納する参照ピクチャバッファ43と、参照ピクチャバッファに格納された参照ピクチャを参照して画像の一部が子画面ビデオに置き換えられたピクチャインピクチャ画像をエンコードすることによりPinPビデオストリームを得る第2ビデオエンコーダ44とを備える。
 まず原画像は、第1ビデオエンコーダー41によって、Baseビデオストリームとして圧縮される。次に、前述のBaseビデオストリームをビデオデコーダーによってデコードし、デコードされたピクチャを参照ピクチャバッファに参照ピクチャとして記録する。次に顔だけ置き換えた画像を第2ビデオエンコーダー44に入力するが、第2ビデオエンコーダー44は前述の参照ピクチャを参照しながら圧縮する。この方式の利点は、第2ビデオエンコーダー44が参照する参照ピクチャは、置き換え対象となっている顔以外の箇所は、第1ビデオエンコーダー41の非可逆圧縮による圧縮誤差を除けば同じであるので、実際の圧縮では置き換え対象となる顔の部分だけを圧縮処理し、顔以外の領域は単に参照ピクチャを参照するだけで良いことになる。
 ここで、第1ビデオエンコーダー41及び第2ビデオエンコーダー44として、例えばMPEG-4MVCのビデオエンコーダーを用いることが考えられる。従来、MPEG-4MVCの技術は同一の物体を複数視点から見た画像を効率的に圧縮するために開発された圧縮技術であるため、複数視点から見た映像(複数ビュー)を互いに参照しながら圧縮を行うことで効率よく圧縮が可能となる。
 本実施例においても、親画面ビデオに対して、顔だけ置き換えた画像を、複数ビューを圧縮するものとして考えると、置き換え対象となる箇所以外は、親画面ビデオと全く同じであるため、極めて効率的に圧縮できる。
 また副次的な効果として、参照ピクチャバッファに保持されている参照ピクチャは、非可逆圧縮後にデコードされたピクチャであるため、原画像と比較すると、下位ビットは異なる可能性が高い(第1実施形態で図1を使用して説明した内容)が、第2ビデオエンコーダー44で下位ビットの誤差を含めてエンコードを行うので、第2ビデオエンコーダー44が出力するPinPビデオストリームは、置き換わっている顔以外の領域において、参照ピクチャとの差分もエンコードすることになるので、より原画像に近い、つまりより高画質となる。
 (本実施形態特有の符号化方法を導入したために生じる課題)
 上記方式による課題は、第2ビデオエンコーダー44が参照ピクチャを用いて圧縮する際に、参照ピクチャの下位ビットが非可逆圧縮によって変化しているため、顔だけ置き換えた画像とビットを比較しても、置き換わっている場所が正確に把握できず、結果として全画面をエンコードするため、処理量が大きくなることである。
 本発明の副次的な目的は、全画面のエンコードがもたらす処理量増大を回避することができる。
 <課題を解決するための手段>
 符号化方法の局面で課題解決を図る場合、当該局面における符号化方法は、
 前記第2エンコードステップにおいて、ピクチャインピクチャデータの生成にあたって複数のフラグから構成される置換情報を生成し、
 前記置換情報における個々のフラグは、ピクチャインピクチャデータを分割することで得られた複数の画素ブロックのそれぞれが、ピクチャインピクチャにおいて子画面領域を構成するものか否かを示す
 ことを特徴とする。
 復号化方法の局面で課題解決を図る場合、当該局面における復号化方法は、
 前記第2デコードステップにおいて、ピクチャインピクチャストリームをデコードするにあたって複数のフラグから構成される置換情報を取得し、取得した置換情報において、オンに設定されたフラグに対応する画素ブロックについては参照ピクチャを用いたピクチャ間予測動き補償を実行せず、
 取得した置換情報においてオフに設定されたフラグに対応する画素ブロックについては、参照ピクチャを用いたピクチャ間予測動き補償を実行する
 ことを特徴とする。
 上記技術的特徴を符号化方法の発明、復号化方法の発明に導入することにより上記課題の解決が図られることになる。図52を参照しながら上記課題解決手段による課題解決のアプローチについて具体的に説明する。図52は、ピクチャインピクチャビデオストリームを得るための符号化装置の内部構成の一例を示す。図52が図51と異なるのは、参照ピクチャバッファに記録される参照ピクチャが、第1ビデオエンコーダーの出力をデコードしたピクチャではなく、原画像となっていることである。この場合、第2ビデオエンコーダー44が参照する参照ピクチャと、顔だけ置き換えた画像を比較すると、置き換えた箇所以外は、ピクセル単位で下位ビットまで含めて一致する。従って、参照ピクチャを用いて圧縮する際でも、下位ビットまで含めて同じ箇所はエンコード処理が全く必要なく、単に参照ピクチャを参照するものとして記録すればよいので、エンコード処理の対象を置き換え対象の顔部分だけに限定することが可能となる。
 図53は、図52で示した圧縮処理をさらに効率的に行うための符号化装置の内部構成の一例を示す。通常、映画コンテンツを製作し、前述の俳優置き換えのようなアプリケーションを実現する場合、映画コンテンツを製作する時点で、親画面ビデオ内で置き換え対象となる箇所がピクセル単位で判明している。また、MPEG-4MVCなどの圧縮技術では、最小4×4ピクセルで構成されるマクロブロックと呼ばれる単位で圧縮処理が行われる。
 従って、まず親画面ビデオ及び、顔だけ置き換えた画像を4×4ピクセルで構成されるマクロブロックとして分割し、4×4のマクロブロック単位で、親画面ビデオとだけ置き換えた画像が全く同じである(「0」としてマーク)か、一部でも違う(「1」としてマーク)かを判定し、それを図53中で示すような置き換え情報として持っておく。
 第2ビデオエンコーダー44で顔だけ置き換え画像を圧縮する際には、前記置き換え情報を用いて、置き換え対象となっているマクロブロック(つまり、「1」としてマークされているマクロブロック)だけをエンコード対象とし、その他のマクロブロックは単に参照ピクチャを参照するものとして処理すれば良い。
 このように置き換え情報を用いて圧縮を行うことにより、顔だけ置き換えた画像をエンコードする際には、置き換わったピクセル/マクロブロックの箇所だけエンコード処理を行うことが可能となる。
 また、置き換え対象となるピクセル/マクロブロックの箇所は、原画像と異なることが多く、参照ピクチャを用いて圧縮しても効率的な圧縮ができないことが多い。従って、第2ビデオエンコーダー44においては、参照ピクチャバッファを用いずに、置き換え情報だけ用いてピクチャインピクチャデータをエンコードする構成も考えられる。
 置換情報のフラグは、個々のマクロブロックが子画面内か否かを示せば足りるから、ビット幅は1ビットでよい。よって(ピクチャデータに存在するマクロブロックの個数)×1のビットサイズさえあれば、置換情報を作成することができる。
 置き換え情報における個々のフラグの設定は以下のようになされる。ピクチャ平面のうち、子画面ビデオに置き換えられる領域は、メタデータにおける画面構成エントリーの座標(x,y)と、子画面領域の縦幅・横幅とで規定される。よって、ピクチャ平面における座標(x,y)と、子画面領域の縦幅・横幅とをマクロブロックアドレスに変換すれば、マクロブロックが何処から何処までに存在するかを明示することができる。ピクチャ平面におけるマクロブロックアドレスは、そのマクロブロックが属するスライスの番号と、マクロブロックが属するスライスにおけるマクロブロックの連番との組みで表現される。よって、メタデータの画面構成エントリーにおける子画面領域の座標(x,y)と、子画面領域の縦幅・横幅とから子画面領域の左上頂点、右上頂点、左下頂点、右下頂点を求めて、これをマクロブロックアドレスに変換すれば、子画面領域に属することになるマクロブロックを特定することができる。
 置き換え情報生成にあたっては先ず、左上頂点を含むマクロブロックであるマクロブロックStartの番号、右上頂点を含むマクロブロックであるマクロブロックEndの番号を求める。それと共に左上頂点を含むスライスであるスライスStartの番号、右下頂点を含むスライスであるスライスEndの番号を求める。
 そしてスライスStartからスライスEndまでに存在する複数のスライスのそれぞれについて、マクロブロックStartからマクロブロックEndまでのマクロブロックに対応する置き換え情報のフラグを「1」に設定すれば、子画面領域が存在するマクロブロックは、置き換え情報によって特定されることになる。マクロブロックStart、マクロブロックEnd、スライスStart、スライスEndは、メタデータにおける画面構成エントリーを用いて以下のように算出することができる。
 子画面領域における左上頂点のX座標は、画面構成エントリーにおける子画面領域のx座標であるから、この子画面領域のx座標をマクロブロックにおける横画素数で割ればその商がマクロブロックStartになる。
 子画面領域における右上頂点のX座標は、画面構成エントリーにおける子画面領域のx座標に子画面領域の横幅を足した座標であるから、この子画面領域の(x座標+横幅)を、マクロブロックにおける横画素数で割ればその商がマクロブロックEndになる。
 子画面領域における左上頂点のY座標は、画面構成エントリーにおける子画面領域のy座標であるから、この子画面領域のy座標を、スライスにおける縦画素数で割ればその商がスライスStartになる。
 子画面領域における右下頂点のY座標は、画面構成エントリーにおける子画面領域のx座標に子画面領域の縦幅を足した座標であるから、この子画面領域の(y座標+縦幅)を、スライスにおける縦画素数で割ればその商がスライスEndになる。
 これらスライスStartからスライスEndまでの個々のマクロブロックにおいて、マクロブロックStartからマクロブロックEndまでのフラグを"1"に設定すれば、ベースビデオストリームのピクチャを構成するマクロブロックのうち、子画面領域に置き換えられたものが特定される。こうすることで置き換え情報は生成される。
 また、置き換え情報の単位をマクロブロック単位としたが、これに限定されるものではなく、置き換え情報はピクセル単位であってもよいし、1つ以上の矩形領域であってもよい。上記符号化方法の発明は、テレビ放送コンテンツを送信する送信装置上で実施することができる。このテレビ放送コンテンツとは、1TS-2VS形式のものである。1TS-2VS形式のテレビ放送コンテンツであれば、Baseビデオストリーム、ピクチャインピクチャビデオストリームを包含したトランスポートストリームファイルが復号化の対象になる。
 また、PinPビデオストリームは別途ネットワーク経由などで配布されても良い。この場合、放送波で送信されるBaseビデオストリームを含むトランスポートストリーム内には、ピクチャインピクチャビデオストリームを含むトランスポートストリーム、あるいはMP4ファイルなどがネットワーク上のどこに保持されているかを示すURLなどの情報(PinPビデオストリーム所在情報)が記載されていることが望ましい。より具体的には、前述のURLなどのPinPビデオストリーム所在情報は以下の場所に記録される。
 (1)Baseビデオストリームあるいは、PinPビデオストリーム内のヘッダー
 PinPビデオストリーム所在情報は、Baseビデオストリームあるいは、PinPビデオストリーム内のヘッダーなどに記録することができる。あるいは、各フレーム/フィールド毎にPinPビデオストリーム所在情報を保持するのではなく、GOP先頭のフレームにまとめて複数フレーム/フィールド分のPinPビデオストリーム所在情報を保持しておいても良い。
 (2)PMT(Program  Map Table)
 PMT(Program  Map Table)にPinPビデオストリーム所在情報を記録しても良い。例えば、Baseビデオストリーム、あるいはPinPビデオストリームのストリームディスクリプタの一情報としてPinPビデオストリーム所在情報が保持されていても良い。
 (3)ナビゲーションやJAVAによるコマンドによる指示
 PinPビデオストリーム所在情報(1)、(2)及び(4)はビデオフレーム単位や、PMTで区切られた区間、プレイアイテム単位などあらかじめ決められた単位/区間でしか切り替えられないが、例えばナビゲーションやJAVAによるコマンドによってPinPビデオストリーム所在情報を取得し、この取得したPinPビデオストリーム所在情報に従い、PinPビデオストリームを取得してもよい。
 (4)プレイアイテム情報、サブプレイアイテム情報からの指示
 PinPビデオストリームを記録媒体に記録して再生装置に供給する場合、プレイアイテム単位や、サブプレイアイテム単位でPinPビデオストリーム所在情報を持っていても良い。PinPビデオストリーム所在情報を記録する場所は、上記に限定されるものではなく、例えばネット上のサーバーなどにPinPビデオストリーム所在情報を記録しておいて、必要に応じて機器が取得できるようになっていても良い。
 これらBaseビデオストリーム、PinPビデオストリームの組みで実現される放送コンテンツを『ピクチャインピクチャ放送』という。『ピクチャインピクチャ放送』では、ユーザによるビデオストリーム切り替え操作に従い、選択的に再生させることでオリジナルの動画像と、映像の一部が置き換えられた動画像との切り替えを実現する。
 図54は、符号化方法の発明を実施することができる放送装置の内部構成の一例を示す。本図に示すように、ピクチャインピクチャの親画面ビデオとなるべき親画面ビデオストリームと、ピクチャインピクチャの子画面ビデオとなるべき子画面ビデオストリームとを複数格納する画像ストレージ50と、親画面ビデオストリーム及び子画面ビデオストリームを再生する再生部51と、親画面ビデオストリーム及び子画面ビデオストリームをメタデータに従い合成する合成部52と、ユーザ操作を受け付けて、メタデータを作成するPinP画像生成部53と、ユーザ操作を受け付けるGUI部53aと、原画像及びピクチャインピクチャ画像をエンコードすることで、原画像からなるBaseビデオストリームと、ピクチャインピクチャ画像からなるPinPビデオストリームとを得るマルチビュー符号化部54と、Baseビデオストリーム及びPinPビデオストリームをオーディオストリーム、字幕ストリームと共に多重化してトランスポートストリームを得る多重化部55と、多重化で得られたトランスポートストリームを送出する送出部56とを含む。上記のマルチビュー符号化部は
図51から図53までに示した第1ビデオエンコーダ、第2ビデオエンコーダ、参照ピクチャを包含するものである。
 1TS-2VS形式のテレビ放送コンテンツにおけるトランスポートストリームは、複数のビデオストリームと、PMTテーブルとをトランスポートストリームパケット列に変換して多重化することで生成される。
 このPMTテーブルは、1つ以上のテーブルディスクリプタと、各ビデオストリームに対応するストリーム情報とを含み、各ストリーム情報は、ストリームタイプと、パケット識別子と、ストリームディスクリプタとを含む。テーブルディスクリプタには、サービスタイプ情報が記述される。サービスタイプ情報は、放送コンテンツがピクチャインピクチャ映像への切り替えが可能な放送コンテンツであるか否かを示す。
 <PinPビデオストリーム生成部の詳細>
 PinPビデオストリーム生成部について説明する。PinPビデオストリーム生成部は、メタデータに従い、子画面ビデオストリームにおける個々のピクチャを親画面ビデオストリームにおける個々のピクチャに合成することでピクチャインピクチャを実現する。メタデータはピクチャインピクチャのためのメタデータであり、当該メタデータは、親画面ビデオストリームに対して設定された再生区間の何れかに対応する再生区間エントリーによって構成され、再生区間エントリーは、親画面ビデオストリームに対して設定された再生区間へのレファレンスを含むヘッダと、複数の画面構成エントリーとを含む。
 複数の画面構成エントリーは、対応する親画面ビデオストリームに対して設定された再生区間の再生時になすべき複数の画面構成の内容を規定するものであり、個々の画面構成エントリーは、合成すべき子画面ビデオの指定と、1つの画面構成の時期を示すタイムスタンプと、画面合成における子画面ビデオの水平座標及び垂直座標と、子画面ビデオをスケーリングするにあたってのスケーリング後の横幅・縦幅とを規定する。
 子画面ビデオは複数存在していて、これらは、子画面ビデオストリームを形成している、よって、メタデータのエントリーにおける子画面ビデオの指定は、当該子画面ビデオストリームの識別子と、この子画面ビデオストリームの時間軸における、再生時点の指定との組みで表現される。
 PinPビデオストリーム生成部では、再生区間エントリーにおける複数の画面構成エントリーのうち、現在の再生時点に対応するタイムスタンプをもつもの水平位置及び垂直位置に、当該画面構成エントリーに含まれる横幅・縦幅に従って拡大又は縮小がなされた子画面ビデオを表示させるよう、ピクチャインピクチャ再生のオーサリングを行う。
 そして再生装置のPinPビデオストリーム生成部は、再生区間エントリーにおける複数の画面構成エントリーのうち、現在の再生時点に対応するタイムスタンプをもつもの水平位置及び垂直位置に、当該画面構成エントリーに含まれる横幅・縦幅に従って拡大又は縮小がなされた子画面ビデオを表示する。こうすることで、ピクチャインピクチャにおける子画面ビデオの水平座標及び垂直座標を、現在の再生時点の進行に応じて変化させたり、また、ピクチャインピクチャにおける子画面ビデオの大きさを、現在の再生時点の進行に応じて、変化させることができる。
 再生区間エントリーにおけるヘッダは、合成部によるクロマキー合成の許否を規定するクロマキー許否フラグと、クロマキー上限値とを含む。PinPビデオストリーム生成部は、再生区間エントリーにおけるヘッダが、クロマキー合成の許可を示している場合、親画面ビデオストリームを構成する個々のピクチャデータと、子画面ビデオストリームを構成する個々のピクチャデータとのクロマキー合成を行う。
 子画面ビデオにおける複数の画素のうちその輝度が、カレントの親画面ビデオストリームに対して設定された再生区間に対応する再生区間エントリーにおけるヘッダのクロマキー上限値を下回るものを透過するよう、透過率を合成部に設定する。こうすることで、ブルーバックを背にして撮影された子画面ビデオについては、その背景部分が透明部分として扱われ親画面ビデオが透けて見えるようになる。こうすることで、640×480という解像度のSD画質の矩形形状の子画面ビデオから登場人物を抜き出して親画面ビデオと合成することが可能になる。
 以下、具体例を交えて上記符号化制限の工夫について説明を行い技術的理解を深める。ここで想定する具体例とは、スポーツコンテンツを符号化するというものであり、その映像内容としては、図55のようなものを考えている。図55は、Baseビデオストリームにおけるピクチャと、PinPビデオストリームにおけるピクチャとを対比して示す。本図(a)は、Baseビデオストリームである親画面ピクチャの一例であり、本図(b)は、PinPビデオストリームである子画面ピクチャの一例である。右側の(b)のピクチャにおいて、破線枠で囲んだ部分が子画面ピクチャであり、置き換えがなされた部分である。このように、親画面ビデオの顔の部分が置き換わった画像を、PinPビデオストリームとして送り出そうとしている。
 図56は、Baseビデオストリームにおける複数のピクチャデータと、Enhancementビデオストリームにおける複数のピクチャデータとを示す。図56において第1段目がBaseビデオストリームにおける複数のピクチャであり、第2段目がEnhancementビデオストリームにおける複数のピクチャデータである。Baseビデオストリームにおけるピクチャは、GOPを構成していて、個々のピクチャは、IDRピクチャ、Pピクチャ、Bピクチャ、Brピクチャというタイプに設定されている。PinPビデオストリームにおけるピクチャは、Pピクチャ、Bピクチャ、Brピクチャというタイプに設定されている。
 ピクチャ間の矢印rp1~rp18はフレーム間動き要件においてどのピクチャを参照しているかという参照関係を模式的に示す。しかし、ピクチャインピクチャビデオストリームのピクチャ全体が、ピクチャインピクチャビデオストリーム内の他のピクチャ全体を参照しているという参照関係は存在しない。
 図中の×付きの矢印rp21~rp23はPinPビデオストリーム内のピクチャデータ全体が、他のピクチャデータ全体を参照しているという参照関係が、このPinPビデオストリームに存在し得ないということを誇張している。子画面ビデオの一部分と、親画面ビデオの一部分とが参照ピクチャとして混在して使用されることはなくなるから、擬似輪郭の発生や色の滲みの発生を回避することができる。これにより高品位なピクチャインピクチャを可能とするPinPビデオストリームを、放送受信装置に送り込むことができる。
 但し、置換画像の範囲に限っていえば、PinPビデオストリームに帰属するピクチャデータの子画面領域の画素ブロックが、同一PinPビデオストリーム内の他のピクチャデータの子画面領域の画素ブロックを参照することは許容される。図中の矢印rp30,rp31,rp32,rp33・・・・は、PinPビデオストリームに帰属するピクチャデータの子画面領域の画素ブロックが、同一PinPビデオストリーム内の他のピクチャデータの子画面領域の画素ブロックを参照しているという参照関係を示す。むしろ、置換画像の箇所に関しては、前後のピクチャを参照することで、PinPビデオストリームの圧縮効率が向上することになる。つまり、置換画像の領域はPinPビデオストリーム内の前後のピクチャを参照しながら圧縮し、置換画像以外の領域はBaseビデオストリームを参照して圧縮することがより望ましい形態となる。
 これが上述したような符号化制限の工夫の具体的態様の1つである。ピクチャインピクチャビデオストリームと、Baseビデオストリームとは、同数のピクチャから構成されていて、Baseビデオストリームにおける各ピクチャのDTS、PTSと、Enhancementビデオストリームにおける各ピクチャのDTS-PTSとは同じ時刻に設定される。図中の縦線は、BaseビデオストリームのDTSと、EnhancementビデオストリームのピクチャのDTSとが同じ時刻であることを示す。これらのピクチャには、Baseビデオストリームのピクチャ→Enhancementビデオストリームピクチャ→Baseビデオストリームのピクチャ→Enhancementビデオストリームピクチャの順にピクチャ識別子が割り当てられることになる。これによりBaseビデオストリームは、奇数のピクチャ識別子で識別され、Enhancementビデオストリームのピクチャは偶数のピクチャ識別子で識別されることになる。
 一方、マクロブロックは、マクロブロックタイプ、参照ピクチャの参照子(re_idx)、動きベクトルといった要素から構成され、参照ピクチャの参照子を用いて参照ピクチャとなるべきピクチャを特定することができる。上述したように、Baseビデオストリームのピクチャの奇数のピクチャ番号を割り当てているなら、参照ピクチャとして奇数のピクチャ識別子を、ピクチャ参照子に記述することで上述したような動き補償の制限を実現することができる。以上が符号化制限についての説明である。続いて、上記具体例のPinPビデオストリームを作成するにあたって、置き換え情報がどのように構成されるかという詳細について説明する。
 図57は、PinPビデオストリームにおけるピクチャの内部構成の一例を示す。本図のピクチャは、図55の画像例を示すものであり、かかるピクチャは、複数のマクロブロックから構成されている。本図における「Flg」とは、上述したような置き換え情報において、個々のマクロブロックに対応するフラグであり、本図では置き換えがなされたキャラクタの顔の部分のマクロブロックについてフラグ=1に設定され、それ以外マクロブロックはフラグ=0に設定されている。これが、上述したようなマクロブロック毎の置き換える情報によるフラグ設定の具体的態様の1つである。
 上述したように、PinPビデオストリーム生成部が処理編集に用いるメタデータは、個々の画面構成エントリーにおいて画面合成における子画面ビデオの水平座標及び垂直座標と、子画面ビデオをスケーリングするにあたってのスケーリング後の横幅・縦幅とを規定するから、PinPビデオストリームを生成する際、PinPビデオストリームにおけるピクチャを構成するマクロブロックのそれぞれが、ピクチャインピクチャにおける子画面ビデオに該当するものかどうかが把握されることになる。よって、PinPビデオストリームにおけるピクチャが生成された際、そのピクチャデータにおけるマクロブロックのそれぞれが、子画面ビデオの範囲内となるか否かを判定して、これをマクロブロック単位の情報に変換することにより上記置き換え情報を作成することができる。
 上記符号化方法の実施にあたっては、放送装置におけるハードウェア構成上で、PinPビデオストリームの作成を実行せねばならない。符号化方法の発明の実施のため、放送装置のCPUが実行すべき処理手順について説明する。
 図58は、PinPビデオストリームの生成手順を示すフローチャートである。Baseビデオストリーム及びEnhancementビデオストリームを構成するピクチャのそれぞれについて、ステップS52~ステップS56の処理を繰り返すループになっている(ステップS51)。ステップS52では、復号時刻、再生時刻が同時刻になるBaseビデオストリームのピクチャと、ピクチャインピクチャビデオストリームのピクチャとに連番のピクチャIDを付与する。ステップS53は全てのピクチャを構成するスライスのそれぞれについてステップS54、ステップS55を繰り返すループを規定する。ステップS54は、スライスタイプがBピクチャ、Iピクチャかどうかの判定であり、ステップS55は、Baseビデオストリームにおいて表示順序に配されたピクチャの中から参照ピクチャを特定する。ステップS56では、こうして特定された参照ピクチャを用いてマクロブロックを符号化する。
 図59は、マクロブロック符号化方法の処理手順を示す。本フローチャートにおける変数(j)は、処理対象となるマクロブロックを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのj巡目の処理で処理対象となるマクロブロック(j)と表記することにする。
 ステップS60では、スライスを構成する各マクロブロックについて繰り返す。ステップS61では、ピクチャインピクチャの左上座標、縦幅、横幅で規定される範囲内にマクロブロックが帰属するかどうかの判定である。帰属する場合、ステップS62においてマクロブロックのフラグをオンに設定して(ステップS62)、ステップS63~ステップS67をスキップし、ステップS68に移行することによりマクロブロックのDCT量子化を実行する。そしてステップS69において、マクロブロックのエントロピー符号化を行う。
 ピクチャインピクチャ合成範囲に属しない場合、マクロブロックのフラグをオフにして(ステップS63)、スライスタイプがPピクチャ又はBピクチャであるか判定する。もし異なればステップS68に移行する。スライスタイプがPピクチャ、Bピクチャであれば、Baseビデオストリームから特定されたピクチャを用いてスライスを構成するマクロブロックに対するフレーム間動き補償を実行する(ステップS65)。ステップS66では、Baseビデオストリームにおけるピクチャのみを参照ピクチャに割り当てるよう、マクロブロックのピクチャ参照子を設定する。この設定は、自身のピクチャIDに2mー1(mは1つ以上の整数)を加算したピクチャを参照ピクチャとして指定するか、又は、自身のピクチャIDから2mー1(mは1つ以上の整数)を減算したピクチャを参照ピクチャとして指定することでなされる。その後、ステップS67でマクロブロックの差分化を行い、ステップS68に移行する。
 置き換え情報により子画面ビデオの画素ブロック、親画面ビデオの画素ブロックの区別が可能になるから、フレーム間動き補償の要否をデコード処理の初期の段階で判断することができる。動き補償の必要がない場合、画素ブロックをまとめて処理すると共に、動き補償が必要な画素ブロックを処理することでPinPビデオストリームのデコードを好適に行うことができ、MVC-SD(MPEG4-MVCのSD画像対応版)しか処理しえない規模のデコーダモデルでもピクチャインピクチャの実現が可能になる。
 復号化方法の発明は、放送コンテンツ受信装置に実装されたビデオデコーダ上で実施することができる。図60は、放送コンテンツ受信装置の内部構成を示す図である。本図に示すように受信装置は、自装置における選局設定を格納している選局レジスタ201と、自装置におけるカレントビデオストリーム番号を格納しているビデオストリーム番号レジスタ202と、放送波を受信してトランスポートストリームを得る受信部203、トランスポートストリームから選局レジスタに格納された局設定に対応するPMTテーブルに従いTSパケットの抽出を行い、ビデオストリーム、PinPビデオストリーム、オーディオストリーム、字幕ストリームを得る多重分離部204と、ビデオストリーム、オーディオストリーム、字幕ストリームを構成するTSパケットをバッファリングする第1リードバッファ205aと、第2リードバッファ205bと、オーディオストリーム及び字幕ストリームをデコードすると共に、Baseビデオストリーム及びPinPビデオストリームのうち、ビデオストリーム番号に対応するものをデコードするシステムターゲットデコーダ206と、Baseビデオストリームをデコードすることで得られたピクチャデータを格納する親画面プレーンメモリ207と、PinPビデオストリームをデコードすることで得られたピクチャデータを格納するPinPプレーンメモリ208と、親画面プレーンメモリ、PinPプレーンメモリのうち、表示内容の切り替えを行うスイッチ209と、ピクチャデータと、字幕との合成を行う合成部210と、合成がなされたピクチャデータを表示する表示部211と、ユーザから受け付けた操作や視聴予約設定に従い、選局レジスタ及びビデオストリーム番号レジスタに対する設定を行い、装置全体の制御を行う制御部212と、ユーザ操作を受け付ける操作受付部213と、アプリケーションの起動を行い、放送サービスの切替えをバウンダリイとしたアプリケーションシグナリングを実行するプログラム実行部214と、アプリケーションにより描画されたイメージを格納するイメージメモリ215とから構成される。
 ビデオストリーム番号格納レジスタにおいて、Baseビデオストリーム及びPinPビデオストリームには、それぞれ、1番のストリーム番号、2番のストリーム番号が割り当てられている。受信装置のレジスタセットおいては、カレントビデオストリーム番号を格納するビデオストリーム番号レジスタを具備していて、ユーザは、ビデオ切り替えに割り当てられたリモコンのキーを操作することで、このビデオストリーム番号を1→2→1→2と変化させる。
 放送コンテンツ受信装置においては、コスト上の問題からFullHDのビデオデコーダを2セット具備するというのは現実的ではない。MPEG4のMVC-SDビデオデコーダでピクチャインピクチャビデオストリームを処理するというのが現実的とされる。
 図61は、第4実施形態に係るシステムターゲットデコーダ104の内部構成の一例を示す。本図は、第1実施形態に示したビデオデコーダ部23、色深度拡張部24の周辺に、デジタル放送コンテンツを処理するための独特の構成要素を配置した構成になっている。
 本図は、第2実施形態における再生装置の内部構成図をベースとして作図されており、このベースとなる構成と比較すると、第2実施形態の実施製品に依拠していた構成要素が、本実施形態特有の実施製品の構成要素に置き換わっている点に注意が必要となる(PGデコーダ126及びIGデコーダ127→字幕デコーダ304及びラインメモリ305、主音声デコーダ127及び副音声デコーダ128→オーディオデコーダ306)。以下、置き換えによる構成要素について説明する。
 字幕デコーダ304は、コーデッドデータバッファ、ピクセルバッファという2つのバッファメモリを具備していて、デジタル放送コンテンツにおける字幕ストリームのデコードを行う。コードデータバッファは、符号化された状態のグラフィクスオブジェクト、テキストオブジェクトを格納する。ピクセルバッファは、符号化されたオブジェクトオブジェクト、テキストオブジェクトを復号することで得られる非圧縮グラフィクス、非圧縮テキストを格納する。そして字幕デコーダ107は、ページコンポジションセグメントに従い、ピクセルバッファからラインメモリへの転送を行う。この転送にあたって、ピクセルバッファにはRegionのリストが定義される。Regionとは、字幕のデコーダモデルにおいて、字幕のデコード処理(Subtitle Processing)にて得られたグラフィクスが格納されるバッファ(Pixel Buffer)上に定義される領域である。
 ラインメモリ305は、デコードで得られた複数ライン分の非圧縮のグラフィクスを格納する。
 オーディオデコーダ306は、放送コンテンツにおけるオーディオストリームのデコーダを行う。
 以上が置き換えがなされた構成要素である。続いて、上記置き換えに伴う改良が施された構成要素(第1PIDフィルタ122a、ビデオデコーダ部123、第1Transport Buffer131a、第2Transport Buffer131b、圧縮映像デコーダ137)について説明する。
 第1PIDフィルタ122aは、ピクチャインピクチャ放送の受信時においてカレントビデオストリーム番号が「1」であれば、トランスポートストリームに存在するTSパケットのうち、Baseビデオストリームを構成するものみをビデオデコーダに出力してその内部の第1Transport Buffer131aに格納させる。ピクチャインピクチャ放送の受信時においてカレントビデオストリーム番号が「2」であれば、第1PIDフィルタ122aは、トランスポートストリームに存在するTSパケットのうち、Baseビデオストリームを構成するものみをビデオデコーダに出力してその内部の第1Transport Buffer131aに格納させると共に、トランスポートストリームにおけるTSパケットのうち、Enhancementビデオストリームに帰属するものをビデオデコーダに出力して、その内部の第2Transport Buffer131bに格納させる。
 ビデオデコーダ部123は、Baseビデオストリーム及びPinPビデオストリームという2系統のストリームを入力しつつも、このカレントビデオストリーム番号に応じたビデオストリームの画面出力を行う。例えばカレントビデオストリーム番号が「1」なら、デコードで得られたピクチャのうち、奇数(2m-1)のピクチャ識別子で特定されるものを画面表示に供する。カレントビデオストリーム番号が「2」である場合、PinPビデオストリームのピクチャを選んで画面表示に供する。PinPビデオストリームにおけるピクチャは、2mのピクチャ識別子で特定されるから、かかる識別子のピクチャを画面表示に供することでPinPビデオストリームが再生される。
 第1Transport Buffer131aは、カレントビデオストリーム番号が「1」であればPIDフィルタから出力されてくるTSパケットを格納した上、デコードに供する。
 第2Transport Buffer131bは、カレントビデオストリーム番号が「2」であれば、第2PIDフィルタから出力されるTSパケットを格納した上、デコードに供する。こうすることでピクチャインピクチャ放送の受信時においてビデオストリーム番号が「2」に設定された場合、TB131、MB132、EB133から圧縮映像デコーダ137に続く一連の処理系には、親画面ビデオ(置き換え前の映像)が圧縮されたBaseビデオストリームが入力される。TB134、MB135、EB136から圧縮映像デコーダ137に続く一連の処理系には、子画面ビデオ(顔だけ置き換えた映像)が圧縮されたPinPビデオストリームが入力される。
 圧縮映像デコーダ137は、デコードされたフレーム/フィールド画像をDPB139に転送し、表示時刻(PTS)のタイミングで対応するフレーム/フィールド画像をピクチャスイッチ124に転送する。Baseビデオストリーム内のクローズGOPの先頭に位置するデコーダリフレッシュを意図したピクチャタイプ(IDRタイプ)のピクチャデータをデコードする。このデコードにあたって、コーデッドデータバッファ、デコードデータバッファを全クリアする。こうしてIDRタイプのピクチャデータをデコードした後、ビデオデコーダは、このピクチャデータとの相関性に基づき圧縮符号化されているBaseビデオストリームの後続のピクチャデータ、及び、PinPビデオストリームのピクチャデータをデコードする。デコードによってBaseビデオストリームにおけるピクチャデータについての非圧縮のピクチャデータが得られれば、デコーデッドデータバッファに格納し、かかるピクチャデータを参照ピクチャとする。
 この参照ピクチャを用いて、圧縮映像デコーダはBaseビデオストリームの後続のピクチャデータを構成するマクロブロック、及び、PinPビデオストリームのピクチャデータを構成するマクロブロックについて、動き補償を行う。
 各マクロブロックに対する動き補償処理とは、16×16、16×8、8×16、ダイレクト/スキップのそれぞれについて、動き予測モード及び参照フレームを決定し、Bフレームでは、それぞれのモードについて予測方向を決定し、サブパーティションモード、イントラ4×4モード、イントラ8×8モードの中から最適なモードを決定するというものである。
 上記における動き探索は、整数画素精度の動き探索、1/2画素精度の動き探索、1/4画素精度の動き探索というように階層的になされる。整数画素精度の動き探索では、メディアン予測によって動きベクトルの予測値を求め、これを探索の中心として探索を行う。これらの動き補償を繰り返すことで、Baseビデオストリーム、PinPビデオストリームのそれぞれのデコードを進めてゆく。上述したように、マクロブロックのピクチャ参照子は、親画面ビデオを構成するマクロブロックのみを参照ピクチャとして指定しているから、かかる動き探索では、必ず親画面ビデオのマクロブロックが探索されることになる。
 動き補償によって、Baseビデオストリームの後続のピクチャデータ、及び、PinPビデオストリームのピクチャデータについて、非圧縮のピクチャデータが得られれば、これらのうちBaseビデオストリームのピクチャデータのみをデコードデータバッファに格納し参照ピクチャとする。
 以上のデコードは、個々のアクセスユニットのデコードタイムスタンプに示されているデコード開始時刻が到来時になされる。 こうして符号化されたフレーム/フィールド画像は、ピクチャスイッチ209を経て各プレーンに転送される。Baseビデオストリームがデコードされた画像は親画面ビデオプレーン207へ、Picutre  in  Pictureビデオストリームがデコードされた映像はPinP映像プレーン208へ転送される。親画面ビデオプレーン207と、PinP映像プレーン208のどちらか一方が、プレーン切替情報に従ってプレーン切り替えスイッチ209を経てプレーン加算部210に伝送される。ここで、プレーン切替情報とは、親画面ビデオプレーン内の映像と、PinP映像プレーン内の映像のどちらをプレーン加算部210へ伝送すべきかを決める情報である。次に、プレーン切替情報について説明する。プレーン切替情報は、上述した(1)~(4)に示される場所に記録しておくのが望ましい。
 (1)Baseビデオストリームあるいは、PinPビデオストリーム内のヘッダー
 プレーン切替情報は、Baseビデオストリームあるいは、PinPビデオストリーム内のヘッダーなどに記録することができる。例えば、Baseビデオストリームを構成する各フレーム/フィールド毎にどちらのプレーンを出力すべきかの情報が記録されていて、圧縮映像デコーダ137は、各ビデオフレーム/フィールドに付与されているPTSとともに、親画面ビデオプレーン207の格納内容と、PinP映像プレーン208の格納内容のうちどちらかをプレーン加算部210へ伝送すべきかをプレーン切替情報としてプレーン切り替えスイッチ209に入力する。こうすることで親画面ビデオプレーン207の格納内容、PinP映像プレーン208の格納内容どちらかがプレーン加算部210へ伝送される。
 あるいは、各フレーム/フィールド毎にプレーン切替情報を保持するのではなく、GOP先頭のフレームにまとめて複数フレーム/フィールド分のプレーン切替情報を保持しておいても良い。
 (2)PMT(Program  Map Table)
 PMT(Program  Map Table)にプレーン切替情報を記録しても良い。例えば、Baseビデオストリーム、あるいはPinPビデオストリームのストリームディスクリプタの一情報としてプレーン切替情報が保持されていても良い。
 (3)ナビゲーションやJAVAによるコマンドによる指示
 プレーン切替情報(1)、(2)及び(4)はビデオフレーム単位や、PMTで区切られた区間、プレイアイテム単位などあらかじめ決められた単位/区間でしか切り替えられないが、例えばナビゲーションやJAVAによるコマンドによってインタラクティブに切り替えられても良い。つまり、視聴者がリモコンなどで親画面ビデオと、顔だけ置き換えた画像を切り替えられるようにしても良い。
 (4)プレイアイテム情報、サブプレイアイテム情報からの指示
 PinPビデオストリームを記録媒体に記録して再生装置に供給する場合、プレイアイテム単位や、サブプレイアイテム単位でプレーン切替情報を持っていても良い。例えば最初のプレイアイテム区間は、主映像プレーン301をプレーン加算部210へ伝送し、続くプレイアイテム区間ではPinP映像プレーン302へ伝送するようにしても良い。
 プレーン切替情報を記録する場所は、上記に限定されるものではなく、例えばネット上のサーバーなどにプレーン切替情報を記録しておいて、必要に応じて機器が取得できるようになっていても良い。
 (PinPビデオストリームにおけるピクチャの間欠送信)
 上述した伝送では、PinPビデオストリーム内のピクチャが、ベースビデオストリームの再生時間軸において間欠的にしか存在しないケースが生じる。ここで、間欠的にしか存在しないケースとは、ベースビデオストリームのうち置換画像が発生しないピクチャに対しては、PinPビデオストリームのピクチャデータを送らないという間欠送出を送信装置が実行することを意味する。この場合、いずれかの場所にPinPピクチャの有無を示す情報が無いとビデオデコーダ側におけるバッファ(上述したような第2TB、第2MB、第2EB)のアンダーフローを招来してしまう。
 実際のPinPビデオストリームを応用したアプリケーションコンテンツを考えると、例えばあるシーンでだけBaseビデオストリーム内の人物を入れ替え、その他のシーンではBaseビデオストリーム内を入れ替えずにそのまま出すケースが存在する。このようにBaseビデオストリーム内を入れ替えずにそのまま出すケースにおいては、対応するPinPビデオストリームを伝送しないことが望ましい。
 しかしながら、機器のデコーダーの観点からは、突然PinPビデオストリームが伝送されてこない状態になると、MPEGで規定されるバッファであってPinPビデオストリーム用のもの(第2TB、第2EB、第2MB)がアンダーフローしてしまい、PinPビデオストリームのデコードの途中で参照ピクチャが失われたり、復号パラメータのリセットが生じる可能性がある。これを回避するには、Baseビデオストリーム内の各ピクチャに対して、対応するPinPビデオストリームのピクチャの有無を示す存否フラグを入れておくことが望ましい。あるいは、上述の(1)から(4)のいずれかの領域に、Baseビデオストリームを構成する各ピクチャに対して、対応するPinPビデオストリーのピクチャが存在するか否かを示す存否情報を入れておくことが望ましい。一方、ビデオデコーダでは、Baseビデオストリーム、又は、上記(1)から(4)までの領域からPinPビデオストリームのピクチャの有無を示す存否フラグを取り出し、再生対象となるピクチャデータから取り出されたフラグが"ピクチャ有"を示すものから"ピクチャ無"を示すものに切り替えられたなら、ビデオデコーダにおけるバッファ状態を維持したまま、PinPビデオストリームに対するデコード動作を凍結する。これによりビデオデコーダは、PinPビデオストリーム用の第2TB、第2MB、第2EBの格納内容を維持し、デコード用パラメータを退避した上でPinPビデオストリームに対する処理を省く。
 逆に、再生対象となるピクチャデータから取り出されたフラグが"ピクチャ無"を示すものから"ピクチャ有"を示すものに切り替えられたなら、PinPビデオストリームに対するデコード動作の凍結を解除し、凍結直前のバッファ状態からデコード動作を継続する。こうすることで、PinPビデオストリームに関連する処理系統のアンダーフロー発生を避けることができる。
 次に、復号化方法の実施について説明する。上記復号化方法の実施にあたっては、コンテンツ放送受信装置におけるハードウェア構成上で、PinPビデオストリームの実行及び復号を実行せねばならない。復号化方法の発明の実施のため、コンテンツ放送受信装置のCPUが実行すべき処理手順について説明する。図62は、復号化手順を示すフローチャートである。本フローチャートにおける変数(i)は、処理対象となるピクチャを特定するための制御変数である。従って、以降のフローチャートにおいて、ループのi巡目の処理で処理対象となるスライス(i)と表記することにする。スライス(i)において処理対象になるべきマクロブロックをマクロブロック(j)とする。
 ステップS71は、全てのピクチャを構成するスライスのそれぞれについてステップS72~ステップS77を繰り返す。ステップS72は、スライスを構成するマクロブロックのそれぞれについてステップS73~ステップS77を繰り返す。ステップS73はマクロブロックのエントロピー復号化を行い、ステップS74では、マクロブロック(j)のDCT逆量子化を行う。ステップS75は、置き換え情報におけるマクロブロック(j)のフラグがオンかどうかの判定であり、オンであれば次のマクロブロックに処理を進める。フラグがオフであれば、ステップS76においてスライスタイプがPピクチャ、Bピクチャであるかを判定してステップがYesであるなら、ステップS77において、Baseビデオストリームのピクチャを参照ピクチャとして用いてフレーム間動き補償を実行する。
 {発明の効果}
 以上のように本実施形態の発明によれば、子画面ビデオの部分以外の画素ブロックは、ピクセル単位で下位ビットまで含めて一致する。従って、親画面ビデオを参照ピクチャとして用いて圧縮する際でも、下位ビットまで含めて同じ箇所はエンコード処理が不要となり、子画面ビデオにおけるマクロブロックの構成としては、Baseビデオストリームにおけるマクロブロックを指定するピクチャ参照子を羅列しておけば足りる。エンコード処理の対象を置き換え対象の子画面ビデオの部分だけに限定することが可能となるから、フルHDビデオの再生を想定していない規模のビデオデコーダ(MVC-SDビデオデコーダ)であっても、ピクチャインピクチャを実現することが可能になる。
 (第5実施形態)
 先の実施形態では、PinPビデオストリームを放送コンテンツを送信する送信装置上で作成したが、本実施形態は、PinPビデオストリームを再生装置上で再生する改良に関する。
 親画面ビデオの俳優を、別の俳優に入れ替えるようなアプリケーションは、オーサリング者がディスク製作時にPinPビデオストリームを作成して、Blu-ray ReadOnlyディスクにあらかじめ記録してもよいし、ネットワーク上のサーバーに保持して、再生時にプレーヤーがネットワーク上からPinPビデオストリームを含むAVストリーム(PinPビデオストリーム)をダウンロードしてもよい。この場合の実施形態は、先の実施形態の手法でPinPビデオストリームを作成して記録し再生装置に再生させるというものになる。
 本実施形態では、上記のようなPinPビデオストリームの再生に加え、再生装置が、置き換え対象となる子画面ビデオを取得してPinPビデオストリームを作成する処理を実現する。
 図63は、第5実施形態における再生装置の内部構成の一例を示す。この再生装置における改良とは、PinPビデオストリームを生成するPinPビデオストリーム生成部401、AVストリームを取り込むAVストリーム取込部402、入力切替スイッチ403が存在する点である。図63の内部には、ネットワーク上からPinPビデオストリームを取得するためにAVストリーム取込部が追加されているが、これはネットワーク上の記録媒体などに保持されているAVストリームをネットワーク経由で取り込むための装置であり、入力切替スイッチ403を介して、第1リードバッファ102aaまたは第2リードバッファ102bに接続される。PinPビデオストリームのが、Blu-ray ReadOnlyディスクに記録されているか、サーバー上に記録されているかの違いはあるが、後段の処理はこれまで説明したものと変わらない。
 これに対して、親画面ビデオの俳優を、視聴者の顔に置き換える場合の装置構成を検討する。
 視聴者の映像に置き換えるための装置として、本図では、PinPビデオストリーム生成部を追加している。
 PinPビデオストリーム生成部について説明する。PinPビデオストリーム生成部は、メタデータに従い、子画面ビデオストリームにおける個々のピクチャを親画面ビデオストリームにおける個々のピクチャに合成することでピクチャインピクチャを実現する。このメタデータは、親画面ビデオストリームに対して設定された再生区間の何れかに対応する再生区間エントリーによって構成され、再生区間エントリーは、親画面ビデオストリームに対して設定された再生区間へのレファレンスを含むヘッダと、複数の画面構成エントリーとを含む。このメタデータに従い、PinPビデオストリーム生成部は、Blu-ray ReadOnlyディスクに記録されている親画面ビデオの主人公の顔を、ユーザ自身の顔で置き換えるという処理を行い、PinPビデオストリームを得る。
 ユーザが撮影した写真を元に、PinPビデオストリームを生成するためのPinPビデオストリーム生成部の詳細を図64に示す。図64は、半導体メモリカードからのデータ読み出しを行うメモリカードリーダ61と、ネットワークとのデータ送受信を行うネットワークインターフェイス62と、これらを通じて親画面ビデオ、子画面ビデオとなるべき画像データを取り込む映像取込部63、取り込まれた映像を格納する取込保持メモリー64、置き換え情報、置き換え対象、メタデータを用いてピクチャインピクチャ画像を得る画像生成部65、変換により得られたピクチャインピクチャ画像をエンコードすることによりPinPビデオストリームを得るビデオエンコーダ66、PinPビデオストリームを多重化することによりトランスポートストリームを生成する多重化部67を含む。
 まずユーザが撮影した写真は、メモリーカードなどの記録媒体か、ネットワーク上のサーバー上の記録媒体に記録されているとする。メモリーカードに記録されている場合には、メモリーカードリーダー経由で、サーバー上の記録媒体に記録されている場合にはネットワークI/Fを介して、映像取込部により取り込まれ、再生装置内のメモリーで保持される。
 取込映像保持メモリーに保持された映像は、PinPビデオストリーム生成部で置き換え画像として変換される。ユーザが撮影した写真が真正面から撮影された写真であった場合でも、置き換え対象の原画像内の主人公は、真正面以外の方向を向いている場合があったり、場面によって主人公の大きさが異なったりする。PinPビデオストリーム生成部では、「置き換え対象オブジェクトの向き情報」を用いてユーザが撮影した写真を、置き換えに映像に合致した方向を向くように変換するとともに、各シーン毎に置き換え対象のオブジェクト(本実施の例では親画面ビデオの顔)のサイズが異なるため、置き換え情報の領域を元にして拡大、縮小などの処理を行い、置き換え対象のオブジェクト(顔)と方向やサイズが合致するようにする。
 このようにしてユーザが撮影した写真は、置き換えのためにPinPビデオストリーム生成部で変換され、第2ビデオエンコーダー44に入力される。第2ビデオエンコーダー44では、図53を用いて説明した方法でPinPビデオストリームが生成され、前記PinPビデオストリームは、多重化部で多重化されAVクリップが生成される。
  <備考>
 以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。
 <置き換え情報の形態>
 マクロブロックは、マクロブロックタイプ、参照ピクチャの参照子、動きベクトルといった要素から構成される。第4実施形態に示すPinPビデオストリームでは、子画面ビデオの部分では動き補償を使用しないから、マクロブロックの動きベクトルのフィールドをフラグとして使用してもよい。この場合、置き換え情報を別途定義しなくて済むので、データサイズの削減が可能になる。
  <エンコーダの実装>
 第1実施形態に示した正値化変換は、第2ビデオエンコーダーが負の値を持つ画像情報を圧縮できない場合に用いられるが、ビデオの圧縮方式によって負の値でも扱える場合には必須の要素ではない。また、色深度の拡張に関しては、現行の8ビットをさらに拡張することを念頭に説明しているが、例えばBaseビデオストリームが6ビットで、原画像が8ビットなどでも良い。
 また、第1ビデオエンコーダー及び第2ビデオエンコーダーで使用されるビデオCodecとしては、MPEG2、MPEG-4AVC、VC1などが考えられるが、これに限定されるものではなく、例えば第1ビデオエンコーダーはMPEG-4MVCのBaseviewとしてエンコードを行い、第2ビデオエンコーダーはMPEG-4MVCのNon base viewとしてエンコードを行うなどしても良いし、第1ビデオエンコーダーがMPEG2で、第2ビデオエンコーダーがMPEG-4AVCなど異なるビデオCodecが適用されても良い。
 また、原画像の各ピクセルの各色の色深度を示すNビットで表されるビット数は、原画像を構成する全てのピクチャで同じでも良いし、ピクチャ毎に異なっても良い。この場合には、原画像のビット数をBaseビデオストリームやEnhancementビデオストリームに入れておくことが、後述のデコード処理を鑑みると望ましい。
 <拡張ファイルとの対応付け>
 色深度拡張のために色深度拡張ディレクトリに記録されるファイルのファイル名は以下の変換則に基づき決定するのが望ましい。つまりBDMVディレクトリに存在するファイルのファイルボディ及び拡張子を結合してファイルボディ文字列とし、拡張版(.EXT)を付与することが望ましい。例えば、00001.mplsであれば、ファイルボディは、mpls00001.extに変換して、このファイル名で色深度拡張プレイリストを拡張版ディレクトリに記録する。また00001.m2tsであれば、ファイルボディは、m2ts00001.extに変換して、このファイル名で色深度拡張プレイリストを拡張版ディレクトリに記録する。
 <マクロブロック単位の処理の実現>
 符号化はマクロブロック単位でなされ、また復号化もマクロブロック単位でなされる。従って、第1実施形態、第2実施形態に示した色深度拡張部の構成要素、ストリーム生成部の構成要素(シフト回路、減算器、加算器、エンコーダ、デコーダ)の内部に、マクロブロックの画素の集りを格納し得る内部バッファを設けておき、この内部バッファで演算の途中過程のデータを格納するのが望ましい。
  <シフト量>
 第1実施形態では、Enhancementビデオストリームのピクチャの階調ビット列をシフトさせるためのシフト量として目標ビット位置、つまり、Enhancementビデオストリーム階調の最上位ビットをシフト量として示させていたが、上位方向に何ビットシフトすべきかというシフトカウントであってもよい。最上位ビットが6ビットであるなら、2(6ー4)をシフト量として示させておいてもよい。
 <PinPビデオストリーム生成部の配置場所>
 第5実施形態においてPinPビデオストリーム生成部は、図64で示すようにプレーヤーに含まれる一機能ブロックとして説明したが、同じ機能をネットワーク上のサーバー上のアプリケーションで実現しても良い。この場合、ユーザは撮影した写真を前記サーバーにアップロードし、サーバー側のアプリはアップロードされた写真からPinPビデオストリームを生成、プレーヤーはAVストリーム取込部402からPinPビデオストリームを取得することで、同じアプリケーションが実現できる。
 <置き換え情報や、置き換え対象オブジェクトの置き場所>
 図65中の置き換え情報や、置き換え対象オブジェクトの向き情報といった情報は、Blu-ray ReadOnlyディスク内に補助情報の1つとして記録されていても良いし、ネットワーク上のサーバー上に保持していても良い。
 <集積回路の実施形態>
 各実施形態に示した表示装置、再生装置のハードウェア構成のうち、記録媒体のドライブ部や、外部とのコネクタ等、機構的な部分を排除して、論理回路や記憶素子に該当する部分、つまり、論理回路の中核部分をシステムLSI化してもよい。システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものはマルチチップモジュールと呼ばれるが、このようなものも、システムLSIに含まれる。
 ここでパッケージの種別に着目するとシステムLSIには、QFP(クッド フラッド アレイ)、PGA(ピン グリッド アレイ)という種別がある。QFPは、パッケージの四側面にピンが取り付けられたシステムLSIである。PGAは、底面全体に、多くのピンが取り付けられたシステムLSIである。
 これらのピンは、電源供給やグランド、他の回路とのインターフェイスとしての役割を担っている。システムLSIにおけるピンには、こうしたインターフェイスの役割が存在するので、システムLSIにおけるこれらのピンに、他の回路を接続することにより、システムLSIは、再生装置の中核としての役割を果たす。
 <プログラムの実施形態>
 各実施形態に示したプログラムは、以下のようにして作ることができる。先ず初めに、ソフトウェア開発者は、プログラミング言語を用いて、各フローチャートや、機能的な構成要素を実現するようなソースプログラムを記述する。この記述にあたって、ソフトウェア開発者は、プログラミング言語の構文に従い、クラス構造体や変数、配列変数、外部関数のコールを用いて、各フローチャートや、機能的な構成要素を具現するソースプログラムを記述する。
 記述されたソースプログラムは、ファイルとしてコンパイラに与えられる。コンパイラは、これらのソースプログラムを翻訳してオブジェクトプログラムを生成する。
 コンパイラによる翻訳は、構文解析、最適化、資源割付、コード生成といった過程からなる。構文解析では、ソースプログラムの字句解析、構文解析および意味解析を行い、ソースプログラムを中間プログラムに変換する。最適化では、中間プログラムに対して、基本ブロック化、制御フロー解析、データフロー解析という作業を行う。資源割付では、ターゲットとなるプロセッサの命令セットへの適合を図るため、中間プログラム中の変数をターゲットとなるプロセッサのプロセッサが有しているレジスタまたはメモリに割り付ける。コード生成では、中間プログラム内の各中間命令を、プログラムコードに変換し、オブジェクトプログラムを得る。
 ここで生成されたオブジェクトプログラムは、各実施形態に示したフローチャートの各ステップや、機能的構成要素の個々の手順を、コンピュータに実行させるような1つ以上のプログラムコードから構成される。ここでプログラムコードは、プロセッサのネィティブコード、JAVA(登録商標)バイトコードというように、様々な種類がある。プログラムコードによる各ステップの実現には、様々な態様がある。外部関数を利用して、各ステップを実現することができる場合、この外部関数をコールするコール文が、プログラムコードになる。また、1つのステップを実現するようなプログラムコードが、別々のオブジェクトプログラムに帰属することもある。命令種が制限されているRISCプロセッサでは、算術演算命令や論理演算命令、分岐命令等を組合せることで、フローチャートの各ステップを実現してもよい。
 オブジェクトプログラムが生成されるとプログラマはこれらに対してリンカを起動する。リンカはこれらのオブジェクトプログラムや、関連するライブラリプログラムをメモリ空間に割り当て、これらを1つに結合して、ロードモジュールを生成する。こうして生成されるロードモジュールは、コンピュータによる読み取りを前提にしたものであり、各フローチャートに示した処理手順や機能的な構成要素の処理手順を、コンピュータに実行させるものである。かかるコンピュータプログラムを非一時的なコンピュータ読取可能な記録媒体に記録してユーザに提供してよい。
 <BD-Jアプリケーションによる実現>
 拡張機能についての処理を行うプログラムファイルは、BD-Jオブジェクトにより動作が規定されるBD-Jアプリケーションであってもよい。
 BD-Jプラットフォームは、HAViデバイス、Javaメディアフレームワークによるプレイリスト再生のための再生制御エンジン、キャッシュイン・キャッシュアウト管理のためのキャッシュマネージャ、イベント処理のためのイベントマネージャといったソフトウェア群、つまり、デジタル放送のマルチメディアホームプラットフォーム端末(DVB-MHP)におけるソフトウェア群と良く似たソフトウェア群が動作主体になる。
 BD-Jプラットフォーム上で動作するシステムアプリケーションとして、拡張機能適合アプリケーションを実装する場合、利用できるAPIには、Java2Micro_Edition(J2ME) Personal Basis Profile(PBP 1.0)と、Globally Executable MHP specification(GEM1.0.2)for package media targetsがある。これらのAPIを利用すれば、ネットワーク処理のためのjava.net、GUI処理のためのjava.awt、言語処理のためのjava.lang、記録媒体に対するI/O処理のためのjava.io、ユーティリティであるjava.util、メディアフレームワークのためのjavax.mediaといったクラスのメソッド、コンストラクタ、インターフェイス、イベントを用いた構造化プログラミングで、色深度拡張表示に関する処理の記述が可能になる。
 BD-JプラットフォームのためのエクステンションAPI(BD-Jエクステンションと呼ばれる)を用いることで、これまでの実施形態で述べた色深度拡張再生のためのデータ構造、色深度拡張再生における再生単位を用いた制御を実現する。このBD-Jエクステンションはjava.net、java.awt、java.lang、java.io、java.util、javax.mediaクラスのメソッドからのインへリッドメソッドを含み、これらのクラスのインターフェイスをエンベデッドインターフェイス、スーパーインターフェイスとしているので、java.net、java.awt、java.lang、java.io、java.util、javax.mediaクラスを用いたプログラミング技法の延長線上で、色深度拡張再生に適合したアプリケーションを作成することができる。
 「BD-Jオブジェクト」は、BD-Jモードにおける再生装置の挙動の詳細を規定する。その挙動の詳細には、対応するタイトルがカレントタイトルになった際のアプリケーションのクラスロード(1)、対応するタイトルがカレントタイトルになった際のアプリケーションシグナリング(2)、当該アプリケーションシグナリングによって起動されたアプリケーションがGUI処理を実行するにあたってのHAViデバイスコンフィグレーション(3)、当該カレントタイトルにおけるプレイリストアクセス(4)、対応するタイトルがカレントタイトルになった場合のクラスアーカイブファイルのキャッシュイン・キャッシュアウト(5)、起動されたアプリケーションのトリガとなるイベントをキーに割り当てるというイベント割当て(6)がある。
 「クラスロード」とは、クラスアーカイブファイルにアーカイブされているクラスファイルのインスタンスを、プラットフォームのヒープ領域に生成する処理であり、「アプリケーションシグナリング」は、クラスファイルのインスタンスであるアプリケーションを自動起動させるか否か、又は、アプリケーションの生存区間をタイトルバウンダリーとするかディスクバウンダリーとするかを規定する制御である。タイトルバウンダリーとは、タイトルの終了と同時にアプリケーションであるスレッドをヒープ領域から消滅させるという管理であり、ディスクバウンダリーとは、ディスクイジェクトと同時にアプリケーションであるスレッドをヒープ領域から消滅させる管理である。逆にディスクイジェクトがされてもスレッドをヒープ領域から削除しない制御を「ディスクアンバウンダリー」という。「HAViデバイスコンフィグレーション」は、アプリケーションがGUI処理を実行するにあたってのグラフィクスプレーンの解像度や文字表示に用いるフォント等を規定するものである。
 「プレイリストアクセス」とは、起動されたアプリケーションが再生を命じることができるプレイリストやタイトル選択時に自動的に再生すべきプレイリストの指定である。
 「クラスアーカイブファイルのキャッシュイン」とは、クラスロードの対象となるクラスアーカイブファイルをキャッシュに先読みするとの処理であり、「クラスアーカイブファイルのキャッシュアウト」とは、キャッシュに存在するクラスアーカイブファイルをキャッシュから削除するとの処理である。「アプリケーション駆動のためのイベント割当」は、ユーザが操作可能なキーに、アプリケーションのイベントリスナに登録されているイベントを割り当てるというものである。

 <色深度拡張インターリーブドストリームファイル及びm2tsストリームファイルの記録領域>
 色深度拡張インターリーブドストリームファイル及びm2tsストリームファイルは、パーティション領域において、物理的に連続する複数のセクタ上に形成される。パーティション領域は、「ファイルセット記述子が記録された領域」、「終端記述子が記録された領域」、「ROOTディレクトリ領域」、「BDMVディレクトリ領域」、「JARディレクトリ領域」、「BDJOディレクトリ領域」、「PLAYLISTディレクトリ領域」、「CLIPINFディレクトリ領域」、「STREAMディレクトリ領域」、「CLREXTディレクトリ領域」から構成され、ファイルシステムによってアクセスされる領域のことである。以降、これらの領域について説明する。
 「ファイルセット記述子」は、ディレクトリ領域のうち、ROOTディレクトリのファイルエントリが記録されているセクタを指し示す論理ブロック番号(LBN)を含む。「終端記述子」は、ファイルセット記述子の終端を示す。
 次に、ディレクトリ領域の詳細について説明する。上述したような複数のディレクトリ領域は、何れも共通の内部構成を有している。つまり、「ディレクトリ領域」は、「ファイルエントリ」と、「ディレクトリファイル」と、「下位ファイルについてのファイル記録領域」とから構成される。
 「ファイルエントリ」は、「記述子タグ」と、「ICBタグ」と、「アロケーション記述子」とを含む。
 「記述子タグ」は、自身がファイルエントリである旨を示すタグである。
 「ICBタグ」は、ファイルエントリ自身に関する属性情報を示す。
 「アロケーション記述子」は、ディレクトリファイルの記録位置を示す論理ブロック番号(LBN)を含む。以上がファイルエントリーについての説明である。続いて、ディレクトリファイルの詳細について説明する。
 「ディレクトリファイル」は、「下位ディレクトリについてのファイル識別記述子」と、「下位ファイルのファイル識別記述子」とを含む。
 「下位ディレクトリのファイル識別記述子」は、自身の配下にある下位ディレクトリをアクセスするための参照情報であり、その下位ディレクトリを示す識別情報と、その下位ディレクトリのディレクトリ名の長さと、下位ディレクトリのファイルエントリがどの論理ブロック番号に記録されているかを示すファイルエントリアドレスと、その下位ディレクトリのディレクトリ名とから構成される。
 「下位ファイルのファイル識別記述子」は、自身の配下にあるファイルをアクセスするための参照情報であり、その下位ファイルを示す識別情報と、その下位ファイル名の長さと、下位ファイルについてのファイルエントリがどの論理ブロック番号に記録されているかを示すファイルエントリアドレスと、下位ファイルのファイル名とから構成される。
 これらのディレクトリのディレクトリファイルにおけるファイル識別記述子には、下位ディレクトリ及び下位ファイルのファイルエントリーが、どの論理ブロックに記録されているかが示されているので、このファイル識別記述子を辿ってゆけば、ROOTディレクトリのファイルエントリーからBDMVディレクトリのファイルエントリーに到達することができ、また、BDMVディレクトリのファイルエントリーからPLAYLISTディレクトリのファイルエントリーに到達することができる。同様に、CLREXTディレクトリ、JARディレクトリ、BDJOディレクトリ、CLIPINFディレクトリ、STREAMディレクトリのファイルエントリーにも到達することができる。「下位ファイルのファイル記録領域」とは、あるディレクトリの配下にある下位ファイルの実体が記録されている領域であり、当該下位ファイルについての「ファイルエントリ」と、1つ以上の「エクステント」とが記録されている。
 本願の主眼となる色深度拡張立体視インターリーブドストリームファイルは、そのファイルが帰属するディレクトリのディレクトリ領域内に存在するファイル記録領域に記録されており、ディレクトリファイルにおけるファイル識別記述子、及び、ファイルエントリーにおけるアローケーション識別子を辿ってゆくことで、アクセスすることができる。
 本発明に係る情報記録媒体は色深度を拡張した映像を格納しているが、8ビットの色深度を持つ映像を再生する装置と、8ビットを超える色深度を持つ映像を再生する装置のどちらでも再生できるため、互換性を意識することなく、色深度が拡張された高画質な映像を含む映画タイトルなどの動画コンテンツを市場に供給することができ、映画市場や民生機器市場を活性化させることができる。故に本発明に係る記録媒体、再生装置は、映画産業や民生機器産業において高い利用可能性をもつ。
 1000 再生装置
 1001 ディスク媒体
 1002 リモコン
 1003 表示装置

Claims (24)

  1.  記録媒体であって、
     ベースビデオストリームと、エンハンスメントビデオストリームとが記録され、
     ベースビデオストリームは、原画像に対して非可逆変換を施すことで得られ、
     エンハンスメントビデオストリームは、シフトパラメータと、ピクチャデータとを含み、
     前記エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示し、
     前記シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定する
     ことを特徴とする記録媒体。
  2.  前記差分は、ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素階調のビット幅まで伸長した上、原画像における画素の階調ビット列から伸長後の階調ビット列を減じて、この減算結果を正値化変換することで得られる
     ことを特徴とする請求項1記載の記録媒体。
  3.  前記シフト操作は、
     ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素の階調ビット列のビット幅まで伸長する操作を含み、
     前記シフトパラメータはシフトカウントの指定であり、
     前記シフトカウントの指定は、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列を、ベースビデオストリームにおけるピクチャの画素階調を示すビット列に加算するにあたって、ベースビデオストリームにおけるピクチャの画素階調ビット列を何回上位方向にシフトさせるべきかを示す
     ことを特徴とする請求項1記載の記録媒体。
  4.  前記シフト操作は、
     ベースビデオストリームにおけるピクチャの画素階調のビット幅を原画像における画素の階調ビット列のビット幅まで伸長する操作を含み、
     シフトパラメータは目標ビット位置の指定であり、
     前記目標ビット位置の指定は、
     ビット幅の伸長がなされたベースビデオストリームピクチャの階調ビット列に、エンハンスメントビデオストリームの階調ビット列を加算するにあたって、エンハンスメントビデオストリームの階調ビット列を、何ビットまでシフトさせればよいかを示す
     ことを特徴とする請求項1記載の記録媒体。
  5.  前記ベースビデオストリームにおける複数のピクチャデータ及び前記エンハンスメントビデオストリームにおける複数のピクチャデータは、グループオブピクチャを構成し、当該各グループオブピクチャは、それぞれ複数のフレームを構成し、前記複数のフレームにおける各フレームに対応するシフトパラメータを、パラメータシーケンスとして有している
     ことを特徴とする請求項1記載の記録媒体。
  6.  記録媒体からベースビデオストリームと、エンハンスメントビデオストリームとを読み出しして再生する再生装置であって、
     ベースビデオストリームは、原画像に対して非可逆変換を施すことで得られ、
     エンハンスメントビデオストリームは、シフトパラメータと、ピクチャデータとを含み、
     前記エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列は、原画像における画素階調を示すビット列と、ベースビデオストリームにおけるピクチャデータの画素階調を示すビット列との差分を示し、
     前記シフトパラメータは、ベースビデオストリームにおけるピクチャの画素階調を示すビット列と、エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列とを加算するにあたって、再生装置側で行うべきシフト操作を規定し、
     ベースビデオストリームをデコードすることにより、ベースビデオストリームにおけるピクチャデータを構成する個々の画素について、階調ビット列を得るビデオデコーダと、
     エンハンスメントビデオストリームにおけるピクチャの個々の画素の階調ビット列と、シフトパラメータとを用いて、ベースビデオストリームにおける画素の階調ビット列に対してビット操作を行うことにより、色深度拡張を実行する色深度拡張部とを備える
     ことを特徴とする再生装置。
  7.  前記色深度拡張部は、
     ビデオデコーダによるベースビデオストリームについてのデコード結果である階調ビット列を上位方向にシフトすることにより、ベースビデオストリームにおける画素階調のビット幅の伸長を行う第1シフト部と、
     エンハンスメントビデオストリームにおけるピクチャの画素階調を示すビット列から補正値を減じることで、当該画素階調を示すビット列を符号付きビット列に変換する減算部と、
     ベースビデオストリームを構成するピクチャデータの個々の画素についての階調ビット列に、エンハンスメントビデオストリームの階調ビット列に対する変換により得られた符号付きデータを加算する加算部と
     を備えることを特徴とする請求項6記載の再生装置。
  8.  前記第1シフト部は、シフトパラメータに基づいて、ベースビデオストリームについてのデコード結果である階調ビット列のシフトを行い、
     色深度拡張部は、加算部により符号付きビットが加算された階調ビット列をシフトして原画像における階調ビット列のビット幅にまで伸長する第2シフト部を備える
     ことを特徴とする請求項7記載の再生装置。
  9.  前記色深度拡張部は、
     エンハンスメントビデオストリームの階調ビット列に対する変換により得られた符号付きビット列を、シフトパラメータに示されるシフト量に従いシフトする第2シフト部を備え、
     前記加算部は、
     シフトがなされた符号付きビット列をベースビデオストリームを構成するピクチャデータの個々の画素についての階調ビット列に加算する
     ことを特徴とする請求項7記載の再生装置。
  10.  前記ビデオデコーダは、
     ベースビデオストリームをデコードする第1ビデオデコーダであり、
     再生装置は、
     エンハンスメントビデオストリームをデコードする第2ビデオデコーダを具備している
     ことを特徴とする請求項6記載の再生装置。
  11.  前記ビデオデコーダは、
     マルチビュービデオデコーダであり、ベースビデオストリームを構成するピクチャデータ、及び、エンハンスメントビデオストリームを構成するピクチャデータの双方をデコードする
     ことを特徴とする請求項6記載の再生装置。
  12.  前記ベースビデオストリームにおけるピクチャデータ及び前記エンハンスメントビデオストリームにおけるピクチャデータは、グループオブピクチャを構成し、当該グループオブピクチャは、複数のフレームを構成し、各フレームに対応するシフトパラメータを、パラメータシーケンスとして有し、
     前記ビデオデコーダは、
     ベースビデオストリームにおける何れかのピクチャをデコードする際、エンハンスメントビデオストリームにおけるピクチャデータであって、ベースビデオストリームにおけるピクチャと同時刻に再生されるべきものをデコードすると共に、そのピクチャデータに対応するシフトパラメータをパラメータシーケンスから取り出して色深度拡張部に設定する
     ことを特徴とする請求項6記載の再生装置。
  13.  前記記録媒体には、色深度が拡張された画像に適合したプログラムが記録されており、プログラムは、色深度拡張についての複数の拡張機能のうち、何れの実行が可能かどうかを汎用目的レジスタを参照して判定し、
     再生装置は、記録媒体が装填されてからインデックスが読み取られるまでの間に、拡張機能のケーパビリティ設定を示す設定テーブルを読み込み、複数の汎用目的レジスタのうち、設定テーブルで指示されているものに、設定テーブルに記載された初期値を設定する
     ことを特徴とする請求項6記載の再生装置。
  14.  前記設定テーブルには、
     複数の拡張機能には、2以上の汎用目的レジスタ番号が対応付けられており、
     前記再生装置は、設定テーブルにおける2以上の連続する汎用目的レジスタ番号で指定された汎用目的レジスタに、所定の初期値を設定する
     ことを特徴とする請求項13記載の再生装置。
  15.  ベースビデオストリームと、エンハンスメントビデオストリームとを記録媒体に書き込む記録装置であって、
     原画像に対して非可逆変換を施すことにより、所定のビット幅の階調ビットの画素からなるベースビデオストリームを得る第1エンコード手段と、
     非可逆変換を施すことで得られたベースビデオストリームをデコードすることにより原画像における画素の階調ビット列よりもビット幅が短い階調ビット列の画素からなる非圧縮ピクチャを得るデコード手段と、
     原画像における個々の画素についての階調ビット列と、ベースビデオストリームにおけるピクチャの画素の階調ビット列との差分を算出する算出部と、
     算出された差分をピクチャデータの画素の階調ビット列とするエンハンスメントビデオストリームを作成する第2エンコード手段と
     を備えることを特徴とする記録装置。
  16.  前記算出部は、
     ベースビデオストリームについての非圧縮ピクチャを構成する個々の画素の階調ビット列を上位方向にシフトするシフト部と、
     原画像における個々の画素についての階調ビット列からシフトがなされた階調ビット列を減じる減算部と、
     減算結果に、所定の補正値を加算することで差分を得る加算部とを含み、
     第2エンコード手段は、
     加算結果と、シフト部がシフトに用いたシフト値とを含むエンハンスメントビデオストリームを作成する、ことを特徴とする請求項15記載の記録装置。
  17.  符号化方法であって、
     原画像に対してエンコード処理を行うことによりベースビデオストリームを生成する第1エンコードステップと、
     各々のピクチャデータが、ピクチャインピクチャデータから構成されたピクチャインピクチャビデオストリームを生成する第2エンコードステップとを含み
     ピクチャインピクチャデータは、ベースビデオストリームにおけるピクチャの画面領域の一部が子画面領域に置き換えられたピクチャデータであり、
     第2エンコードステップは、ピクチャ間予測符号化処理を行い、
     ピクチャインピクチャデータのうち、子画面領域に置き換えられた部分を除く画面領域に位置する画素ブロックは、ベースビデオストリームにおける個々のピクチャデータのみを参照画像としたピクチャ間予測符号化処理により符号化されている、符号化方法。
  18.  第2エンコードステップは、ピクチャインピクチャデータの生成にあたって複数のフラグから構成される置換情報を生成し、
     前記置換情報における個々のフラグは、ピクチャインピクチャデータを分割することで得られた複数の画素ブロックのそれぞれが、ピクチャインピクチャにおいて子画面領域を構成するものか否かを示す
     ことを特徴とする請求項17記載の符号化方法。
  19.  前記ピクチャインピクチャビデオストリームのピクチャデータは、ベースビデオストリームの再生時間軸において、間欠的に存在し、
     ベースビデオストリームを構成する各ピクチャデータは、再生時間軸において同一時点に再生されるべきピクチャインピクチャビデオストリームのピクチャデータが存在するか否かを示す存否フラグを含む
     ことを特徴とする請求項17記載の符号化方法。
  20.  ピクチャインピクチャビデオストリームを構成する個々のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックは、ピクチャインピクチャビデオストリームを構成する他のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックを参照画像としたピクチャ間予測符号化処理により符号化されることを特徴とする請求項17記載の符号化方法。
  21.  復号化方法であって、
     ベースビデオストリームをデコードすることで非圧縮のピクチャデータを得る第1デコードステップ、
     ピクチャインピクチャビデオストリームをデコードすることでピクチャインピクチャデータを得る第2デコードステップを含み
     第2デコードステップは、
     ピクチャインピクチャデータにおいて子画面領域を除く画面領域に位置する画素ブロックに対して、ベースビデオストリームにおける個々のピクチャデータのみを参照画像としたピクチャ間予測動き補償を実行する
     復号化方法。
  22.  第2デコードステップは、ピクチャインピクチャストリームをデコードするにあたって複数のフラグから構成される置換情報を取得し、取得した置換情報において、オンに設定されたフラグに対応する画素ブロックについては参照ピクチャを用いたピクチャ間予測動き補償を実行せず、
     取得した置換情報においてオフに設定されたフラグに対応する画素ブロックについては、参照ピクチャを用いたピクチャ間予測動き補償を実行する
     ことを特徴とする請求項21記載の復号化方法。
  23.  前記ピクチャインピクチャビデオストリームのピクチャデータは、ベースビデオストリームの時間軸において、間欠的に存在し、
     ベースビデオストリームにおける各ピクチャデータは、時間軸において同一時点に再生されるべきピクチャインピクチャビデオストリームのピクチャデータが存在するか否かを示す存否フラグを含み、
     第2デコードステップは、存否フラグに基づいてピクチャインピクチャビデオストリームに対する処理を凍結するか否かを切り替える
     ことを特徴とする請求項21記載の復号化方法。
  24.  前記ピクチャインピクチャビデオストリームを構成する個々のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックは、ピクチャインピクチャビデオストリームを構成する他のピクチャデータにおいて、子画面領域に置き換えられた部分に存在する画素ブロックを参照画像としたピクチャ間予測動き補償により復号化する
     ことを特徴とする請求項21記載の復号化方法。
PCT/JP2012/002853 2011-04-28 2012-04-26 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法 WO2012147350A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/113,283 US9392246B2 (en) 2011-04-28 2012-04-26 Recording medium, playback device, recording device, encoding method, and decoding method related to higher image quality
EP12777289.5A EP2717565A4 (en) 2011-04-28 2012-04-26 RECORDING MEDIUM, PLAYING DEVICE, RECORDING DEVICE, ENCODING METHOD AND DECOMPOSITION METHOD FOR HIGHER IMAGE QUALITY
JP2013511934A JP5914888B2 (ja) 2011-04-28 2012-04-26 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
CN201280020329.3A CN103503070B (zh) 2011-04-28 2012-04-26 与高画质有关的记录介质、再现装置、记录装置、编码方法、及解码方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161479954P 2011-04-28 2011-04-28
US61/479,954 2011-04-28

Publications (1)

Publication Number Publication Date
WO2012147350A1 true WO2012147350A1 (ja) 2012-11-01

Family

ID=47071880

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002853 WO2012147350A1 (ja) 2011-04-28 2012-04-26 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法

Country Status (5)

Country Link
US (1) US9392246B2 (ja)
EP (1) EP2717565A4 (ja)
JP (1) JP5914888B2 (ja)
CN (1) CN103503070B (ja)
WO (1) WO2012147350A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165849A (ja) * 2013-02-27 2014-09-08 Oki Electric Ind Co Ltd 動画像符号化装置及びプログラム、動画像復号装置及びプログラム、並びに、動画像配信システム
WO2014156707A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
WO2015198880A1 (ja) * 2014-06-25 2015-12-30 ソニー株式会社 再生装置、再生方法、プログラム、および記録媒体
WO2016039169A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
WO2016039172A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
WO2016039170A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
WO2016038811A1 (ja) * 2014-09-12 2016-03-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生装置、および再生方法
WO2016039171A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
WO2016079925A1 (ja) * 2014-11-17 2016-05-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生方法、および再生装置
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
WO2016167082A1 (ja) * 2015-04-15 2016-10-20 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2017002540A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理システム、情報記録媒体、および情報処理方法、並びにプログラム
JP2017182872A (ja) * 2014-09-10 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置
JP2020519042A (ja) * 2017-02-24 2020-06-25 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated ビデオへのデルタカラー圧縮の適用
JP2021090215A (ja) * 2014-10-17 2021-06-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、及び、再生方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8782434B1 (en) 2010-07-15 2014-07-15 The Research Foundation For The State University Of New York System and method for validating program execution at run-time
US20130169663A1 (en) * 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Apparatus and method for displaying images and apparatus and method for processing images
US9063721B2 (en) 2012-09-14 2015-06-23 The Research Foundation For The State University Of New York Continuous run-time validation of program execution: a practical approach
JP2014075687A (ja) * 2012-10-04 2014-04-24 Seiko Epson Corp 画像データ圧縮装置、画像データ伸張装置、表示装置、画像処理システム、画像データ圧縮方法及び画像データ伸張方法
US9351011B2 (en) * 2012-11-28 2016-05-24 Intel Corporation Video pipeline with direct linkage between decoding and post processing
WO2015126214A1 (ko) * 2014-02-21 2015-08-27 엘지전자 주식회사 3d 방송 신호를 처리하는 방법 및 장치
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
JP2016039570A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 通信装置およびその制御方法、通信システム
US20160073168A1 (en) * 2014-09-09 2016-03-10 Cisco Technology, Inc. Channel of top socially-commented audio visual content
US9335979B1 (en) * 2014-09-15 2016-05-10 The Mathworks, Inc. Data type visualization
KR102490706B1 (ko) * 2014-09-30 2023-01-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 코딩을 위한 해시 기반 인코더 결정
US20160269134A1 (en) * 2015-03-12 2016-09-15 Nathan Malone Audio Processing Device
US9954551B2 (en) 2015-03-31 2018-04-24 Cavium, Inc. Barrel compactor system, method and device
GB2545503B (en) 2015-12-18 2020-04-08 Imagination Tech Ltd Lossy data compression
CN105979370B (zh) * 2016-07-01 2019-03-12 深圳创维-Rgb电子有限公司 一种配置图像模式的方法及装置
JP2018107588A (ja) * 2016-12-26 2018-07-05 ルネサスエレクトロニクス株式会社 画像処理装置および半導体装置
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
CN108268683B (zh) * 2016-12-31 2021-08-31 炬芯科技股份有限公司 传输信号的方法、装置及芯片
US10714146B2 (en) * 2017-03-14 2020-07-14 Sony Corporation Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
US11061868B1 (en) * 2017-04-28 2021-07-13 EMC IP Holding Company LLC Persistent cache layer to tier data to cloud storage
WO2019069753A1 (ja) * 2017-10-04 2019-04-11 パナソニックIpマネジメント株式会社 映像信号処理装置、映像表示システム、及び映像信号処理方法
US20190147841A1 (en) * 2017-11-13 2019-05-16 Facebook, Inc. Methods and systems for displaying a karaoke interface
KR102551601B1 (ko) * 2018-02-05 2023-07-06 한국전자통신연구원 스토리지 서버 및 분산 파일 시스템에서 스토리지 서버에 의해 수행되는 적응형 프리페칭 방법
CN110276769B (zh) * 2018-03-13 2023-07-11 上海薇龙文化传播有限公司 一种视频画中画架构中直播内容定位方法
CN110620935B (zh) * 2018-06-19 2022-04-08 杭州海康慧影科技有限公司 图像处理方法及装置
GB2575434B (en) 2018-06-29 2020-07-22 Imagination Tech Ltd Guaranteed data compression
CN111263211B (zh) * 2018-12-03 2022-02-08 深圳市炜博科技有限公司 一种缓存视频数据的方法及终端设备
JP7368511B2 (ja) * 2020-02-03 2023-10-24 株式会社ソニー・インタラクティブエンタテインメント データ処理システム、データ転送装置およびコンテキストスイッチ方法
CN114245029B (zh) * 2021-12-20 2023-08-01 北京镁伽科技有限公司 基于fpga的数据流处理方法、装置及pg设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015226A (ja) * 2002-06-04 2004-01-15 Mitsubishi Electric Corp 画像符号化装置及び画像復号化装置
JP2007158983A (ja) * 2005-12-08 2007-06-21 Hitachi Ltd 再生装置、再生方法、記録方法、映像表示装置及び記録媒体
JP2007266749A (ja) * 2006-03-27 2007-10-11 Sanyo Electric Co Ltd 符号化方法
JP2008129127A (ja) 2006-11-17 2008-06-05 Honeywell Internatl Inc 表示装置の色深度を拡張する方法および装置
JP2010507310A (ja) * 2006-10-20 2010-03-04 ノキア コーポレイション ビデオの符号化においてピクチャ出力インジケータを提供するためのシステムおよび方法
JP2010512096A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 非リアルタイムベースのデジタル実感放送送受信システム及びその方法
WO2010143441A1 (ja) * 2009-06-11 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
WO2010150674A1 (ja) * 2009-06-22 2010-12-29 ソニー株式会社 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08327964A (ja) * 1995-06-02 1996-12-13 Matsushita Electric Ind Co Ltd 投写型画像表示装置
US20050010396A1 (en) * 2003-07-08 2005-01-13 Industrial Technology Research Institute Scale factor based bit shifting in fine granularity scalability audio coding
JP4331992B2 (ja) * 2003-08-07 2009-09-16 日本電信電話株式会社 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,それらのプログラムおよびそれらのプログラム記録媒体
KR20050076019A (ko) * 2004-01-19 2005-07-26 삼성전자주식회사 스케일러블 부호화에 기반한 비트스트림의 적응적 부호화및/또는 복호화 방법, 및 이를 구현하기 위한프로그램이 기록된 기록 매체
US20070133950A1 (en) 2005-12-08 2007-06-14 Susumu Yoshida Reproduction apparatus, reproduction method, recording method, image display apparatus and recording medium
JP5039142B2 (ja) * 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
US8446958B2 (en) * 2009-09-22 2013-05-21 Panasonic Corporation Image coding apparatus, image decoding apparatus, image coding method, and image decoding method
US9137539B2 (en) * 2010-12-22 2015-09-15 Panasonic Corporation Image coding apparatus, image decoding apparatus, image coding method, and image decoding method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015226A (ja) * 2002-06-04 2004-01-15 Mitsubishi Electric Corp 画像符号化装置及び画像復号化装置
JP2007158983A (ja) * 2005-12-08 2007-06-21 Hitachi Ltd 再生装置、再生方法、記録方法、映像表示装置及び記録媒体
JP2007266749A (ja) * 2006-03-27 2007-10-11 Sanyo Electric Co Ltd 符号化方法
JP2010507310A (ja) * 2006-10-20 2010-03-04 ノキア コーポレイション ビデオの符号化においてピクチャ出力インジケータを提供するためのシステムおよび方法
JP2008129127A (ja) 2006-11-17 2008-06-05 Honeywell Internatl Inc 表示装置の色深度を拡張する方法および装置
JP2010512096A (ja) * 2006-12-08 2010-04-15 韓國電子通信研究院 非リアルタイムベースのデジタル実感放送送受信システム及びその方法
WO2010143441A1 (ja) * 2009-06-11 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
WO2010150674A1 (ja) * 2009-06-22 2010-12-29 ソニー株式会社 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. TANJU ERDEM ET AL.: "Compression of 10-bit video using the tools of MPEG-2", SIGNAL PROCESSING: IMAGE COMMUNICATION, vol. 7, no. 1, March 1995 (1995-03-01), pages 27 - 56, XP004047120 *
See also references of EP2717565A4

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165849A (ja) * 2013-02-27 2014-09-08 Oki Electric Ind Co Ltd 動画像符号化装置及びプログラム、動画像復号装置及びプログラム、並びに、動画像配信システム
WO2014156707A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
WO2015198880A1 (ja) * 2014-06-25 2015-12-30 ソニー株式会社 再生装置、再生方法、プログラム、および記録媒体
JP2017182872A (ja) * 2014-09-10 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置
JP2018152154A (ja) * 2014-09-12 2018-09-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置
WO2016039171A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
WO2016039172A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JP2017188938A (ja) * 2014-09-12 2017-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体
JP2016062637A (ja) * 2014-09-12 2016-04-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置、および再生方法
US10741219B2 (en) 2014-09-12 2020-08-11 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
WO2016039169A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
US10535373B2 (en) 2014-09-12 2020-01-14 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US10535374B2 (en) 2014-09-12 2020-01-14 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
JPWO2016039169A1 (ja) * 2014-09-12 2017-05-25 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JPWO2016039171A1 (ja) * 2014-09-12 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JPWO2016039172A1 (ja) * 2014-09-12 2017-06-22 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、プログラム、および記録媒体
JPWO2016039170A1 (ja) * 2014-09-12 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP2017158213A (ja) * 2014-09-12 2017-09-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置および再生方法
JP2017158214A (ja) * 2014-09-12 2017-09-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体
JP2017162541A (ja) * 2014-09-12 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置および再生方法
WO2016038811A1 (ja) * 2014-09-12 2016-03-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生装置、および再生方法
JP2017191630A (ja) * 2014-09-12 2017-10-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置および再生方法
WO2016039170A1 (ja) * 2014-09-12 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム、並びに記録媒体
JP2017192137A (ja) * 2014-09-12 2017-10-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置および再生方法
US10482924B2 (en) 2014-09-12 2019-11-19 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US9852775B2 (en) 2014-09-12 2017-12-26 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US11133035B2 (en) 2014-09-12 2021-09-28 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US10482923B2 (en) 2014-09-12 2019-11-19 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US10965926B2 (en) 2014-09-12 2021-03-30 Sony Corporation Reproducing apparatus, reproducing method, information processing apparatus, information processing method, program, and recording medium
US10063823B2 (en) 2014-09-12 2018-08-28 Sony Corporation Information processing device, information processing method, program, and recording medium
US10623711B2 (en) 2014-09-12 2020-04-14 Sony Corporation Information processing device, information processing method, program, and recording medium
US10910017B2 (en) 2014-09-12 2021-02-02 Sony Corporation Reproducing device, reproducing method, information processing device, information processing method, program, and recording medium
US10789988B2 (en) 2014-09-12 2020-09-29 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
US10362287B2 (en) 2014-09-12 2019-07-23 Sony Corporation Information processing apparatus, information processing method and program, and recording medium
JP2021090215A (ja) * 2014-10-17 2021-06-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置、及び、再生方法
US11328748B2 (en) 2014-10-17 2022-05-10 Panasonic Intellectual Property Corporation Of America Recording medium, playback method, and playback device
US11386930B2 (en) 2014-10-17 2022-07-12 Panasonic Intellectual Property Corporation Of America Recording medium, playback method, and playback device
JP7113107B2 (ja) 2014-10-17 2022-08-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、及び、再生方法
JP2022136168A (ja) * 2014-10-17 2022-09-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、及び、再生方法
JP7139543B1 (ja) 2014-10-17 2022-09-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 再生装置、及び、再生方法
JP2020021531A (ja) * 2014-11-17 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法および再生装置
JP2017216038A (ja) * 2014-11-17 2017-12-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法および再生装置
JP2020047358A (ja) * 2014-11-17 2020-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法および再生装置
JP2019079590A (ja) * 2014-11-17 2019-05-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法および再生装置
WO2016079925A1 (ja) * 2014-11-17 2016-05-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 記録媒体、再生方法、および再生装置
JP2018129115A (ja) * 2014-11-17 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
JPWO2016167082A1 (ja) * 2015-04-15 2018-02-08 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2016167082A1 (ja) * 2015-04-15 2016-10-20 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
EP3285260A4 (en) * 2015-04-15 2018-11-21 Sony Corporation Information processing device, information recording medium, information processing method, and program
WO2017002540A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理システム、情報記録媒体、および情報処理方法、並びにプログラム
JPWO2017002540A1 (ja) * 2015-06-30 2018-04-19 ソニー株式会社 情報処理装置、情報処理システム、情報記録媒体、および情報処理方法、並びにプログラム
JP2020519042A (ja) * 2017-02-24 2020-06-25 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated ビデオへのデルタカラー圧縮の適用
JP7169284B2 (ja) 2017-02-24 2022-11-10 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド ビデオへのデルタカラー圧縮の適用

Also Published As

Publication number Publication date
JPWO2012147350A1 (ja) 2014-07-28
CN103503070B (zh) 2016-11-16
EP2717565A1 (en) 2014-04-09
US9392246B2 (en) 2016-07-12
CN103503070A (zh) 2014-01-08
EP2717565A4 (en) 2016-04-13
US20140056577A1 (en) 2014-02-27
JP5914888B2 (ja) 2016-05-11

Similar Documents

Publication Publication Date Title
JP5914888B2 (ja) 高画質化に関わる記録媒体、再生装置、記録装置、符号化方法、復号化方法
US9218109B2 (en) Recording medium, playback device, recording device, playback method and recording method for editing recorded content while maintaining compatibility with old format
JP4564102B2 (ja) 記録媒体、再生装置、及び集積回路
US8849088B2 (en) Playback device, recording device, playback method, and recording method
CN102685435B (zh) 再现装置、记录方法
JP5497679B2 (ja) 半導体集積回路
WO2010143439A1 (ja) 再生装置、集積回路、記録媒体
KR20110126518A (ko) 기록매체, 재생장치 및 집적회로
KR20110074823A (ko) 3d 영상에 관한 기록매체, 재생장치, 시스템 lsi, 재생방법, 안경 및 표시장치
JPWO2010038409A1 (ja) 再生装置、記録媒体、及び集積回路
WO2012046437A1 (ja) 記録媒体、及びデータのコピー方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12777289

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2013511934

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14113283

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012777289

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE