WO2012081241A1 - 制作装置及びコンテンツ配信システム - Google Patents

制作装置及びコンテンツ配信システム Download PDF

Info

Publication number
WO2012081241A1
WO2012081241A1 PCT/JP2011/006982 JP2011006982W WO2012081241A1 WO 2012081241 A1 WO2012081241 A1 WO 2012081241A1 JP 2011006982 W JP2011006982 W JP 2011006982W WO 2012081241 A1 WO2012081241 A1 WO 2012081241A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
difference
unit
video data
distribution
Prior art date
Application number
PCT/JP2011/006982
Other languages
English (en)
French (fr)
Inventor
山口 高弘
柏木 吉一郎
美裕 森
小塚 雅之
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012548655A priority Critical patent/JP5891389B2/ja
Priority to US13/819,840 priority patent/US8977099B2/en
Publication of WO2012081241A1 publication Critical patent/WO2012081241A1/ja
Priority to US14/606,516 priority patent/US9264756B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/20Conversion of the manner in which the individual colour picture signal components are combined, e.g. conversion of colour television standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers

Definitions

  • the present invention relates to a technique for producing distribution content including distribution video data.
  • Patent Document 1 when a plurality of digital streams recorded on different recording media are reproduced, the synchronization is defined so that a viewer can feel as if one movie work is being reproduced.
  • Disclosed is a synchronous application technology. According to this technology, since digital streams that are constituent elements of a movie work can be supplied to viewers using separate supply media, various reproduction variations can be produced.
  • Patent Document 1 provides one method for producing various reproduction variations for one movie. However, in order to further disseminate contents represented by movies, there are various methods for reproducing contents. Technology is demanded.
  • the present invention aims to provide a production device, a production method, a computer program, a recording medium, an integrated circuit, and a content distribution system that can produce distribution content that further enriches the color tone expression during video reproduction.
  • the present invention provides a production apparatus for producing distribution content including distribution video data, original acquisition means for acquiring original video data, and gradation of an image with respect to the original video data
  • Distribution acquisition means for acquiring the distribution video data generated by performing conversion to reduce the difference
  • difference generation means for generating difference data between the original video data and the distribution video data
  • output means for outputting the difference data It is characterized by providing.
  • the reproduction apparatus since the difference data between the original video data and the distribution video data is generated and output, the reproduction apparatus uses the difference data to reproduce only the distribution content recorded on the recording medium. As a result, it is possible to reproduce an image with improved tone expression.
  • FIG. 1 is an overall configuration diagram of a content distribution system 10a as Embodiment 1.
  • FIG. It is a whole block diagram of the content delivery system 10 as Embodiment 2.
  • FIG. 2 is a block diagram illustrating a configuration of a production apparatus 100.
  • FIG. An example of the data structure of the original image D1, the first converted image D2, and the re-expanded image D4 is shown.
  • An example of the data structure of the re-expanded video D4, the shift re-expanded video D5, and the original video D1 is shown.
  • An example of the data structure of difference data D7 and fixed gradation difference data D8 is shown.
  • An example of a difference, a primary reduction difference, and a fixed gradation difference is shown.
  • Another example of a difference, a primary reduction difference, and a fixed gradation difference is shown.
  • An example of the data structure of shift amount data D20a is shown.
  • An example of the data structure of shift amount data D20 is shown.
  • An example of the data structure of shift amount data D20b is shown.
  • the production process of the recording medium in the production apparatus 100 is shown.
  • the data structure of the recording medium 200 is shown.
  • the data structure of the recording medium 300 is shown.
  • 3 is a block diagram showing a configuration of a playback device 400.
  • FIG. An example of the data structure of the re-expansion image
  • An example of the data structure of fixed gradation difference data D8 and shift difference data D11 is shown.
  • FIG. 3 is a block diagram showing a configuration of an external storage device 500.
  • FIG. 3 is a block diagram showing a configuration of a distribution server device 600.
  • FIG. 3 is a flowchart showing the operation of the production apparatus 100.
  • 4 is a flowchart showing an operation of producing the recording medium 300 by the production apparatus 100.
  • 4 is a flowchart showing an operation of producing the recording medium 200 by the production apparatus 100.
  • 10 is a flowchart showing an operation of generating shift amount data by a shift amount data generating unit 109 of the production apparatus 100.
  • 10 is a flowchart illustrating an operation of generating fixed tone difference data by the reduction unit 110 of the production apparatus 100.
  • 10 is a flowchart showing an operation when transmitting the compression difference data D9 and the shift amount data D20 from the production apparatus 100 to the distribution server apparatus 600.
  • 10 is a flowchart showing an operation of reproducing content by the reproduction apparatus 400.
  • 10 is a flowchart showing an operation of Bit extended reproduction of content recorded on the recording medium 200.
  • 10 is a flowchart showing an operation of preprocessing (1) in Bit extended reproduction of content recorded on the recording medium 200.
  • 10 is a flowchart showing an operation of downloading compressed difference data or the like from a distribution server device 600 to a playback device 400.
  • 10 is a flowchart showing an operation of Bit extended reproduction of content recorded on a recording medium 300.
  • 12 is a flowchart showing an operation of preprocessing (2) in the bit extended reproduction of the content recorded on the recording medium 300.
  • One aspect of the present invention is a production apparatus that produces distribution content including distribution video data, and includes original acquisition means for acquiring original video data, and conversion for reducing the gradation of the video with respect to the original video data.
  • Distribution acquisition means for acquiring the distribution video data generated by performing, difference generation means for generating difference data between the original video data and the distribution video data, and output means for outputting the difference data Features.
  • the reproduction apparatus since the difference data between the original video data and the distribution video data is generated and output, the reproduction apparatus uses the difference data to reproduce only the distribution content recorded on the recording medium. As a result, it is possible to reproduce an image with improved tone expression.
  • the original video data and the distribution video data are each composed of a plurality of frames, each frame includes a plurality of pixels, each pixel includes primary color data for each primary color, and the difference generation means A difference calculation unit that calculates a difference between the primary color data in the primary video data and the primary color data in the distribution video data for each primary color in each pixel in each frame; and a reduction unit that reduces the bit length of the calculated difference;
  • the difference data includes a plurality of frames, each frame includes a plurality of pixels, and each pixel may include the difference in which the bit length is reduced for each primary color.
  • the difference generation means further generates a shift amount according to the value of the higher-order bits of the remaining portion excluding the sign bit indicating positive / negative among the differences calculated by the difference calculation unit.
  • a reduction unit may be included, and the reduction unit may reduce the bit length of the difference based on the generated shift amount.
  • the higher order bits of the remaining part excluding the sign bit indicating positive and negative are often 0 values, and the difference length is reduced by reducing the bit length of the difference based on the generated shift amount.
  • the bit length of the difference can be effectively reduced without missing an effective value.
  • the shift amount generation unit may generate the shift amount according to the number of consecutive 0 values in the higher-order bits of the remaining portion.
  • the bit length of the difference can be effectively reduced without missing the effective value of the difference.
  • the shift amount generation unit may generate one shift amount for one frame.
  • the capacity of the entire shift amount can be reduced as compared with the case of generating the shift amount for each pixel included in one frame.
  • the output unit may output the distribution content by writing it on a recording medium, and may write the difference data and the shift amount in association with the distribution content on the recording medium.
  • the output unit may output the distribution content by writing it on a recording medium, and may further transmit the difference data and the shift amount to the server device in association with the distribution content.
  • the reproduction device since the distribution content is recorded on the recording medium, and the difference data and the shift amount are transmitted to the server device, the reproduction device reads the distribution content from the recording medium, and By receiving the difference data and the shift amount from the server device, it is possible to reproduce a video with improved tone expression.
  • Another aspect of the present invention is a production method used in a production apparatus for producing distribution content including distribution video data, an original acquisition step of acquiring original video data, and a video floor with respect to the original video data.
  • a step is a production method used in a production apparatus for producing distribution content including distribution video data, an original acquisition step of acquiring original video data, and a video floor with respect to the original video data.
  • the reproduction apparatus since the difference data between the original video data and the distribution video data is generated and output, the reproduction apparatus uses the difference data to reproduce only the distribution content recorded on the recording medium. As a result, it is possible to reproduce an image with improved tone expression.
  • Another aspect of the present invention is a computer-readable recording medium on which a computer program used in a production apparatus that produces distribution content including distribution video data is recorded, and the original image data is acquired by the computer.
  • An acquisition step a distribution acquisition step of acquiring the distribution video data generated by performing conversion that lowers the gradation of the video to the original video data, and difference data between the original video data and the distribution video data.
  • generate and the output step which outputs the said difference data is recorded.
  • the computer program recorded on this recording medium is executed by a computer, difference data between the original video data and the distribution video data is generated and output. Therefore, by using the difference data in the playback device, the recording medium Compared with the case where only the distributed content recorded in the video is reproduced, the video can be reproduced with improved tone expression.
  • Another aspect of the present invention is a computer program used in a production apparatus that produces distribution content including distribution video data, the original acquisition step of acquiring original video data in the computer, and the original video data
  • An output step of outputting is executed.
  • this computer program When this computer program is executed by a computer, difference data between the original video data and the distribution video data is generated and output. Therefore, the distribution content recorded on the recording medium by using the difference data in the playback device As compared with the case where only the image is reproduced, there is an excellent effect that the image can be reproduced with the tone expression improved.
  • Another aspect of the present invention is an integrated circuit that constitutes a production apparatus that produces distribution content including distribution video data, the original acquisition means for acquiring the original video data, and a video floor for the original video data.
  • Distribution acquisition means for acquiring the distribution video data generated by performing conversion to reduce the tone
  • difference generation means for generating difference data between the original video data and the distribution video data, and output for outputting the difference data Means.
  • the reproduction apparatus since the difference data between the original video data and the distribution video data is generated and output, the reproduction apparatus uses the difference data to reproduce only the distribution content recorded on the recording medium. As a result, it is possible to reproduce an image with improved tone expression.
  • Another aspect of the present invention is a content distribution system that includes a production device that produces distribution content including distribution video data and a playback device that reproduces the distribution content.
  • An original acquisition means for acquiring, distribution acquisition means for acquiring the distribution video data generated by performing conversion for reducing the gradation of the image to the original video data, and the original video data and the distribution video data A difference generation unit configured to generate difference data; and an output unit configured to output the difference data.
  • the playback device combines the difference acquisition unit that acquires the difference data, the distribution video data, and the difference data. And combining means for generating reproduced video data having the same gradation as the original video data, and reproducing means for reproducing the generated reproduced video data. And wherein the Rukoto.
  • the production device generates and outputs difference data between the original video data and the distribution video data
  • the reproduction device combines the distribution video data and the difference data to generate the reproduction video data.
  • Embodiment 1 A content distribution system 10a as an embodiment according to the present invention will be described.
  • the content distribution system 10a includes a production device 100a and a playback device 400a.
  • the production apparatus 100a produces distribution content including distribution video data.
  • the playback device 400a plays back the distributed content.
  • the production apparatus 100a includes an original acquisition unit 101a, a distribution acquisition unit 102a, a difference generation unit 103a, and an output unit 104a as shown in FIG.
  • the original acquisition unit 101a acquires original video data.
  • the distribution acquisition unit 102a acquires the distribution video data generated by performing conversion that reduces the gradation of the video on the original video data.
  • the difference generation unit 103a generates difference data between the original video data and the distribution video data.
  • the output unit 104a outputs the difference data.
  • the playback device 400a includes a difference acquisition unit 401a, a synthesis unit 402a, and a playback unit 403a.
  • the difference acquisition unit 401a acquires the difference data.
  • the synthesizer 402a synthesizes the distribution video data and the difference data to generate reproduced video data having a gradation equivalent to that of the original video data.
  • the playback unit 403a plays back the generated playback video data.
  • Each of the original video data and the distribution video data is composed of a plurality of frames, and each frame includes a plurality of pixels, and each pixel includes primary color data for each primary color.
  • the difference generation unit 103a for each pixel in each frame, a difference calculation unit 108a (not shown) that calculates a difference between the primary color data in the original video data and the primary color data in the distribution video data for each primary color; A reduction unit 110a (not shown) that reduces the bit length of the calculated difference.
  • the difference data is composed of a plurality of frames, and each frame includes a plurality of pixels, and each pixel includes the difference in which the bit length is reduced for each primary color.
  • the difference generation unit 103a further generates a shift amount according to the value of the higher-order bits of the remaining part excluding the sign bit indicating positive / negative among the differences calculated by the difference calculation unit 108a.
  • a generation unit 109a (not shown) is included.
  • the reduction unit 110a reduces the bit length of the difference based on the generated shift amount.
  • the shift amount generation unit 109a generates the shift amount according to the number of consecutive 0 values in the higher-order bits of the remaining portion.
  • the shift amount generation unit 109a generates one shift amount for one frame.
  • the output unit 104a outputs the distribution content by writing it on a recording medium, and further writes the difference data and the shift amount in association with the distribution content on the recording medium.
  • the output unit 104a outputs the distribution content by writing it on a recording medium, and further transmits the difference data and the shift amount to the server device in association with the distribution content.
  • Embodiment 2 A content distribution system 10 as another embodiment according to the present invention will be described.
  • the content distribution system 10 includes a production device 100, a playback device 400, an external storage device 500, and a distribution server device 600 as shown in FIG.
  • the production apparatus 100 and the distribution server apparatus 600 are connected via the network 20, and the distribution server apparatus 600 and the playback apparatus 400 are also connected via the network 20.
  • the production apparatus 100 is loaded with a recording medium 200 and a recording medium 300, and the production apparatus 100 records content on the recording medium 200 and the recording medium 300.
  • the playback device 400 is loaded with a recording medium 200 and a recording medium 300 on which content is recorded.
  • An external storage device 500 is connected to the playback device 400.
  • a producer of the recording medium 200 and the recording medium 300 has the production device 100, and a service provider that provides a service related to content has the distribution server device 600.
  • This service provider provides a service for increasing the gradation of the content recorded on the recording medium 300.
  • a content viewer has a playback device 400 and an external storage device 500.
  • the production apparatus 100 Since the production apparatus 100 records on the recording medium based on the original content including the original video produced by the movie production company, the production device 100 produces the distribution content including the distribution video and records the produced distribution content on the recording medium. . Therefore, the original content produced by the movie production company does not circulate in the market as it is, and the recording medium recording the circulated content circulates in the market.
  • An original video produced by a movie production company is composed of a plurality of frames.
  • Each frame is composed of a plurality of pixels arranged in a matrix, and each pixel is a primary color for each of R, G, and B primary colors.
  • each primary color data is 12 bits long as an example, and each primary color is expressed by 4096 gradations. That is, each primary color has a color depth of 12 bits.
  • the distribution video recorded on the recording medium is composed of a plurality of frames, like the original video, and each frame is composed of a plurality of pixels arranged in a matrix, and each pixel has R,
  • Each of the primary colors G and B has primary color data.
  • each primary color data is 8 bits long, and each primary color is expressed by 256 gradations. That is, each primary color has an 8-bit color depth.
  • each primary color of the original video produced by the movie production company is expressed by 4096 gradations.
  • each primary color of the distribution video recorded on the recording medium is expressed by 256 gradations. This is because the capacity of data that can be recorded on the recording medium is limited.
  • the data length of each primary color data of the distribution video recorded on the recording medium is defined as 8 bits.
  • the data to be processed by each component in the production device 100 and the playback device 400 are expressed by being assigned the following codes.
  • Original video D1 first converted video D2, compressed video D3, re-expanded video D4, shift re-expanded video D5, second converted video D6, difference data D7, fixed gradation difference data D8, compressed difference data D9, shifted video D10 , Shift difference data D11, composite video D12, shift composite video D13, shift amount data D20, recording medium identification ID (D21).
  • FIG. 3 shows the configuration of the production device 100.
  • the production apparatus 100 includes a video storage unit 101, a first conversion unit 102, a first compression unit 103, a first recording unit 104, a decompression unit 105, a reading unit 106, a shift unit 107, and a difference calculation unit. 108, a shift amount data generation unit 109, a reduction unit 110, a second compression unit 111, a storage unit 112, a second recording unit 113, a transmission unit 114, and a control unit 115.
  • the difference calculation unit 108, the shift amount data generation unit 109, and the reduction unit 110 constitute a difference generation unit 116.
  • the production apparatus 100 is specifically a computer system composed of a microprocessor, ROM, RAM, hard disk unit, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • the microprocessor operates in accordance with the computer program, the first conversion unit 102, the first compression unit 103, the first recording unit 104, the expansion unit 105, the reading unit 106, the shift unit 107, and the difference calculation of the production apparatus 100 are performed.
  • the unit 108, the shift amount data generation unit 109, the reduction unit 110, the second compression unit 111, the second recording unit 113, the transmission unit 114, the control unit 115, and the difference generation unit 116 achieve their functions.
  • the production apparatus 100 produces distribution content including distribution video from original content including original video, and records the produced distribution content on a recording medium.
  • each content includes video, audio data, subtitles, sub audio data, audio commentary, control information, and the like.
  • video will be mainly described, and description of other information included in the content will be omitted.
  • Video storage unit 101 As an example, the video storage unit 101 includes a hard disk unit.
  • the video storage unit 101 stores an original video D1 composed of a plurality of frames.
  • the original image D1 is an image itself produced by a movie production company.
  • a plurality of frames constituting the original video D1 are continuously reproduced in time, thereby expressing a moving image.
  • the original image D1 includes five frames F1, F2, F3, F4, and F5 as shown in FIG.
  • each frame a plurality of pixels are arranged in a matrix.
  • Each pixel has 12-bit primary color data for each of R, G, and B primary colors. Therefore, each primary color is expressed by 4096 gradations.
  • one primary color (any of R, G, and B) 701a of one pixel in the frame F4 is expressed by 4096 gradations.
  • the primary colors 702a, 703a, and 704a of other pixels in the frame F4 are also expressed by 4096 gradations, respectively.
  • the gradation of the primary color 701a is visually represented by gradation expression 711a.
  • the gradation expression 711a 4096 squares are arranged vertically, one gradation is represented by one square, and the gradation of the primary color 701a is represented by the number of squares hatched with diagonal lines. .
  • the gradations of these primary colors are represented by the number of cells that are hatched in the gradation representations 712a, 713a, and 714a.
  • the storage unit 112 includes a hard disk unit.
  • the storage unit 112 includes an area for storing the compression difference data D9 and the shift amount data D20.
  • First conversion unit 102 performs conversion for reducing the gradation of the video on the original video D1, and generates the generated first converted video D2.
  • the first conversion unit 102 reads the original video D1 from the video storage unit 101, and performs first conversion on the primary color data for each primary color of each pixel in each frame of the read original video D1.
  • the first conversion is an algorithm for converting 12-bit primary color data of the original video D1 into 8-bit primary color data.
  • the first conversion converts a primary color expressed by 4096 gradations to a primary color expressed by 256 gradations.
  • 12-bit primary color data is rounded (for example, rounded up) to generate 8-bit primary color data.
  • the first conversion unit 102 performs the first conversion on each primary color data of the original video D1 to generate the first converted video D2.
  • the first converted video D2 includes a plurality of frames. Each frame includes a plurality of pixels arranged in a matrix. Each pixel has primary color data for each of R, G, and B primary colors. Here, each primary color data is 8 bits long, and each primary color is expressed by 256 gradations.
  • the 12-bit color depth in the original video D1 is used in the movie production process in the movie production company, and the 8-bit color depth is defined in the recording medium.
  • This first conversion is necessary in order to convert an original video produced by a movie production company into a video with a color depth defined on the recording medium and record it on the recording medium.
  • the first converted video D2 generated in this way includes frames F11, F12, F13, F14, and F15 respectively corresponding to the frames F1, F2, F3, F4, and F5 of the original video D1, as shown in FIG.
  • a plurality of pixels are arranged in a matrix in each frame included in the first converted video D2.
  • Each pixel has 8-bit primary color data for each of R, G, and B primary colors. Accordingly, each primary color is expressed by 256 gradations.
  • one primary color (any of R, G, and B) 701b of one pixel in the frame F14 is expressed by 256 gradations.
  • the primary colors 702b, 703b, and 704b of other pixels in the frame F14 are also expressed by 256 gradations.
  • the gradation of the primary color 701b is visually represented by gradation expression 711b.
  • gradation representation 711b 256 squares are arranged vertically, one gradation is represented by one square, and the gradation of the primary color 701b is represented by the number of squares hatched with diagonal lines.
  • the gradations of these primary colors are represented by the number of cells that are hatched in the gradation representations 712b, 713b, and 714b.
  • Each primary color data of the first converted video D2 shown in FIG. 4 is generated by converting each primary color data of the original video D1 having a 12-bit length into an 8-bit length, and therefore when rounded from a 12-bit length to an 8-bit length.
  • some information of each primary color data of the original video D1 is missing.
  • portions where information is missing are indicated by reference numerals 721b, 722b, 723b, and 724b.
  • the first conversion unit 102 outputs the generated first converted video D2 to the first compression unit 103.
  • First compression unit 103 receives the first converted video D2 from the first conversion unit 102 and applies a video compression algorithm to the received first converted video D2 to generate a compressed video D3.
  • the video compression algorithm is publicly known and will not be described.
  • the generated compressed video D3 is output to the first recording unit 104. Also, the generated compressed video D3 is output to the decompression unit 105.
  • the compression algorithm includes, for example, a quantization code process, and information loss occurs in this process.
  • the compressed video D3 is composed of a plurality of codes generated by a compression algorithm, and the color depth cannot be expressed as it is for the compressed video D3. Therefore, in order to explain the lack of information due to compression, a re-expanded video D4 obtained by further expanding the compressed video D3 is shown in FIG.
  • the re-expanded video D4 shown in FIG. 4 includes frames F21, F22, F23, F24, and F25 corresponding to the frames F11, F12, F13, F14, and F15 of the first converted video D2, and is included in the re-expanded video D4.
  • a plurality of pixels are arranged in a matrix.
  • Each pixel has 8-bit primary color data for each of R, G, and B primary colors. Accordingly, each primary color is expressed by 256 gradations.
  • one primary color (R, G, or B) 701c of one pixel in the frame F24 is expressed by 256 gradations.
  • the primary colors 702c, 703c, and 704c of other pixels in the frame F24 are also expressed by 256 gradations.
  • First recording unit 104 receives the compressed video D3 from the first compression unit 103 and writes the received compressed video D3 into the recording medium 200 and the recording medium 300.
  • the decompression unit 105 receives the compressed video D3 from the first compression unit 103 or receives the compressed video D3 from the reading unit 106.
  • a video decompression algorithm is applied to the compressed video D3 received from each to generate a re-expanded video D4.
  • the decompressing unit 105 outputs the generated re-expanded video D4 to the shift unit 107.
  • FIG. 5 An example of the re-expanded video D4 is shown in FIG.
  • An example of the re-expanded video D4 illustrated in FIG. 5 is the same as the example of the re-expanded video D4 illustrated in FIG.
  • Shift unit 107 receives the re-expanded video D4 from the expansion unit 105. Next, the shift unit 107 converts the primary color data of each pixel included in each frame of the received re-expanded video D4 so as to match the color depth of the original video D1 stored in the video storage unit 101. Are shifted to the higher bit side to generate a shifted re-expanded video D5, and the generated shifted re-expanded video D5 is output to the difference calculation unit 108.
  • each primary color data of each pixel included in each frame of the original video D1 is 12 bits long
  • each primary color data of each pixel included in each frame of the re-expanded video D4 is 8 bits long.
  • the shift unit 107 shifts the primary color data of each pixel included in each frame of the re-expanded video D4 by 4 bits to the most significant bit side. Also, “0x0000” is packed in the least significant 4 bits.
  • the numerical value following “0x” indicates a binary representation.
  • the shift re-expanded video D5 is composed of the same number of frames as the number of frames included in the re-expanded video D4, and the frames F21, F22, F23, F24, and F25 of the re-expanded video D4.
  • Each pixel has 12-bit primary color data for each of R, G, and B primary colors. Therefore, each primary color is expressed by 4096 gradations.
  • one primary color (any one of R, G, and B) 701d of one pixel in the frame F34 is expressed by 4096 gradations.
  • the primary colors 702d, 703d, and 704d of other pixels in the frame F34 are also expressed by 4096 gradations, respectively.
  • each primary color has 256 gradations, but each primary color data is bit-shifted by 4 bits to the upper side, resulting in 4096 gradations.
  • the shift amount may be the same value for any compressed video D3 stored in the recording medium 200 and the recording medium 300. Further, it may be changed for each logical reproduction unit (PlayList in BLU-RAY DISC (registered trademark)) in the recording medium 200 and the recording medium 300. Furthermore, it may be changed for each unit of compressed video D3 (Clip as referred to as BLU-RAY DISC (registered trademark)).
  • Difference calculation unit 108 The difference calculation unit 108 reads the original video D1 from the video storage unit 101 and receives the shifted re-expanded video D5 from the shift unit 107.
  • the difference data D7 includes the same number of frames as the number of frames included in the original video D1, each frame includes a plurality of pixels, and each pixel includes a difference calculated for each primary color.
  • the difference data D7 obtained by the difference calculation unit 108 includes frames F41, F42, F43, F44 and F45 corresponding to the frames F1, F2, F3, F4 and F5 included in the original video D1, respectively.
  • a plurality of pixels are arranged in a matrix. Each pixel has a 12-bit difference for each of R, G, and B primary colors.
  • the frame F44 has a difference 701e for one primary color of one pixel and has differences 702e, 703e and 704e for the primary colors of other pixels.
  • the difference 701e is 12 bits long.
  • the most significant bit 701ea of the difference 701e is a sign bit. When the most significant bit 701ea is “0x0”, the difference 701e has a positive value, and when the most significant bit 701ea is “0x1”, the difference 701e has a negative value.
  • the other bit string 701eb excluding the most significant bit 701ea indicates the absolute value of the numerical value represented by the difference 701e.
  • the difference calculation unit 108 outputs the difference data D7 to the shift amount data generation unit 109 and the reduction unit 110.
  • Shift amount data generation unit 109 receives the difference data D7 from the difference calculation unit 108.
  • the shift amount data generation unit 109 determines the shift amount P for each frame included in the difference data D7 as follows.
  • the shift amount P is temporarily determined as 4 bits.
  • the shift amount data generation unit 109 calculates the difference for each primary color in each pixel of the frame. (Ii) Of the 12-bit difference, except for the most significant code bit, when the upper 4 bits are “0x0000”, the shift amount P is 4 bits.
  • the shift amount P is determined in the order of (iv), (iii), and (ii) within one frame.
  • the shift amount P is determined to be 0 bit for any one difference in one frame, the shift amount P is set to 0 bit for the frame.
  • the shift amount P is not determined to be 0 bits for any difference within one frame, and the shift amount P is determined to be 2 bits for any one difference, the shift amount for that frame is determined. Let P be 2 bits.
  • the shift amount data generation unit 109 generates shift amount data D20 including the shift amount P thus determined, outputs the generated shift amount data D20 to the reduction unit 110, and writes the generated shift amount data D20 to the storage unit 112. .
  • the shift amount data D20 includes a frame number uniquely identifying a frame and a shift amount P in association with each other.
  • the shift amount data D20 includes a plurality of sets including the frame number and the shift amount P.
  • the first set includes a frame number 153 “1” and a shift amount 156 “2”
  • the second set includes a frame number 155 “2” and a shift amount 156 “4”.
  • the set consists of a frame number 157 “L” and a shift amount 158 “0”.
  • the first group indicates that the shift amount P “2” is set for the frame identified by the frame number “1”, and the second group is for the frame identified by the frame number “2”.
  • the shift amount P “4” is set
  • the L-th group indicates that the shift amount P “0” is set for the frame identified by the frame number “L”.
  • the shift amount data generation unit 109 may generate shift amount data including a plurality of sets each composed of a compressed video number for uniquely identifying a compressed video and a shift amount P. In this case, it is assumed that there is only one shift amount for one compressed video.
  • FIG. 9 shows another example of the shift amount data D20 as shift amount data D20a.
  • the shift amount data D20a includes an attribute 151 “shift amount” and a value 152. "2" is included in association. This indicates that the value 152 “2” is the shift amount.
  • the shift amount data D20a shown in FIG. 9 indicates that the shift amount is fixed in a certain video unit. This can be realized by adding “attribute: shift amount” and “value: 2” to the control file recorded on the recording medium 200 and the recording medium 300. For example, by adding to the management file of BLU-RAY DISC (registered trademark), it is possible to specify the shift amount of the compressed differential data D9 in the BLU-RAY DISC (registered trademark).
  • the shift amount data D20 and D20a are not necessarily recorded on the recording medium 200 separately from the compressed video D3, and may be embedded in the compressed video D3.
  • the shift amount data generation unit 109 may generate shift amount data D20b including data D20b1 and data D20b2, as shown as an example in FIG.
  • the data D20b2 is the same as the shift amount data D20 shown in FIG.
  • the data D20b1 includes an attribute 155 “maximum shift amount” and a value 156 “4”.
  • the maximum shift amount indicates the maximum shift amount among the shift amounts included in the data D20b2, and its value is “4”. Actually, in the data D20b2, the maximum shift amount is “4”.
  • the maximum shift bit value when using the compressed differential data D9 recorded on the recording medium 200 and the recording medium 300 is used.
  • the value can be transmitted to the playback device 400.
  • the management file related to the recording medium 200 and the recording medium 300 in every unit such as a logical playback unit of the compressed video D3 (PlayList in BLU-RAY DISC (registered trademark), etc.), a compressed video D3 unit, etc. You may prescribe.
  • the reduction unit 110 reduces the extra bits of the difference data D7 through the primary reduction process and the secondary reduction process, and the fixed gradation difference data D8 of fixed gradation that can be processed by the system. Is generated.
  • compressed video has 8-bit gradation, and many system LSIs for BLU-RAY DISC (registered trademark) are optimized for decoding 8-bit gradation video.
  • the gradation difference data D8 also has an 8-bit gradation, so that compatibility with LSI mounting is enhanced.
  • the reduction unit 110 receives the shift amount data D20 from the shift amount data generation unit 109. Also, the difference data D7 is received from the difference calculation unit 108.
  • the reduction unit 110 extracts the shift amount P corresponding to the frame from the shift amount data D20.
  • the reduction unit 110 generates, for each frame included in the difference data D7, the fixed gradation difference data D8 through the primary reduction process and the secondary reduction process for the difference for each primary color in each pixel of the frame. To do.
  • the reduction unit 110 removes a bit string corresponding to the shift amount P from the higher order of the difference, except for the sign bit in the difference.
  • the shift amount P is 0, the original difference is maintained as it is.
  • a primary reduction difference is generated.
  • (B) Secondary Reduction Process The reduction unit 110 generates a fixed gradation difference as follows so that the bit length of the primary reduction difference is “8”.
  • the reduction unit 110 determines whether or not the bit length of the primary reduction difference generated by the primary reduction process is “8”.
  • the reduction unit 110 maintains the primary reduction difference as it is and sets it as a fixed gradation difference.
  • the reduction unit 110 removes the lower bits of the primary reduction difference so that the bit length of the primary reduction difference is “8”. For example, when the bit length of the primary reduction difference is “10”, the lower 2 bits of the primary reduction difference are removed. In this way, lower-order bits are removed from the primary reduction difference to generate a fixed gradation difference.
  • the reduction unit 110 thus generates the fixed gradation difference data D8.
  • the fixed gradation difference data D8 is composed of the same number of frames as the number of frames included in the difference data D7.
  • the fixed gradation difference data D8 includes frames F51, F52, F53, F54, and F55 corresponding to the frames F41, F42, F43, F44, and F45 of the difference data D7.
  • a plurality of pixels are arranged in a matrix. Each pixel has a fixed gradation difference of 8 bits for each of R, G, and B primary colors.
  • the reduction unit 110 outputs the generated fixed tone difference data D8 to the second compression unit 111.
  • the reduction unit 110 does not reduce the differences 801e, 801f, and 801g as shown as an example in FIG. 8, and is the same primary reduction as the differences 801e, 801f, and 801g, respectively.
  • Differences 802e, 802f, and 802g are generated.
  • both or one of the two most significant bits is “0x1” except for the most significant code bits 801ea, 801fa, and 801ga.
  • the reduction unit 110 reduces a 2-bit bit string from the difference.
  • the reduction unit 110 removes the 2 bits “0x00” from the higher order for the differences 801b, 801c, and 801d except for the most significant code bit.
  • Primary reduction differences 802b, 802c, and 802d are generated, respectively.
  • the upper 2 bits are “0x00” and both or one of the third and fourth bits are , “0x1”.
  • the reduction unit 110 reduces a 4-bit bit string from the difference.
  • the reduction unit 110 removes the 4 bits “0x0000” from the higher order from the difference 801a except for the most significant code bit, and removes the primary reduction difference 802a. Is generated.
  • the upper 4 bits are “0x0000” except for the most significant code bit 801aa.
  • the primary reduction difference 802a is maintained as it is as the fixed gradation difference 803a.
  • the primary reduction differences 802b, 802c, and 802d have a bit length of “10”, the least significant 2 bits are removed, and the remaining bit strings become fixed gradation differences 803b, 803c, and 803d.
  • the primary reduction differences 802e, 802f, and 802g each have a bit length of “12”, so that the least significant 4 bits are removed, and the remaining bit string is a fixed gradation difference. 803e, 803f and 803g.
  • Second compression unit 111 receives the fixed gradation difference data D8 from the reduction unit 110, applies a compression algorithm to the received fixed gradation difference data D8, and generates compression difference data D9.
  • the compression algorithm is the same as the compression algorithm used in the first compression unit 103.
  • the second compression unit 111 writes the generated compressed difference data D9 into the storage unit 112.
  • Second recording unit 113 The second recording unit 113 reads the compression difference data D9 and the shift amount data D20 from the storage unit 112, and writes the read compression difference data D9 and shift amount data D20 to the recording medium 200.
  • Reading unit 106 The reading unit 106 reads the compressed video D3 from the recording medium 300 and outputs the read compressed video D3 to the decompressing unit 105. Further, the recording medium identification ID (D21) is read from the recording medium 300, and the read recording medium identification ID (D21) is output to the transmission unit 114.
  • Transmitter 114 The transmission unit 114 reads the compression difference data D9 and the shift amount data D20 from the storage unit 112, and transmits the read compression difference data D9 and shift amount data D20 to the distribution server device 600. In addition, the transmission unit 114 receives the recording medium identification ID (D21) from the reading unit 106, and transmits the received recording medium identification ID (D21) to the distribution server device 600.
  • Control unit 115 controls the operations of all the components that make up the production apparatus 100.
  • the first conversion unit 102 reads the original video D1 from the video storage unit 101, performs the first conversion, generates the first conversion video D2, and outputs the first conversion video D2 to the first compression unit 103 (step). S101).
  • the first compression unit 103 applies a compression algorithm to the first converted video D2 received from the first conversion unit 102 to generate a compressed video D3, and the generated compressed video D3 is used as the expansion unit 105 and the first recording unit. It outputs to 104 (step S102).
  • the first recording unit 104 receives the compressed video D3 from the first compression unit 103, and records the received compressed video D3 on the recording medium 200 and the recording medium 300 (step S103).
  • the decompression unit 105 receives the compressed video D3 from the first compression unit 103 or the reading unit 106, applies a decompression algorithm to the received compressed video D3, generates a re-expanded video D4, and generates the regenerated video D4.
  • the expanded video D4 is output to the shift unit 107 (step S104).
  • the shift unit 107 bit-shifts the primary color data of each pixel included in each frame of the re-expanded video D4 received from the expansion unit 105 to generate a shifted re-expanded video D5, and the generated shifted re-expanded video D5 is a difference. It outputs to the calculating part 108 (step S105).
  • the difference calculation unit 108 calculates the difference between the primary color data of each pixel of each frame of the original video D1 and the primary color data of each pixel of each frame of the shifted re-expanded video D5, and obtains difference data D7 including the calculated difference.
  • the generated difference data D7 is output to the shift amount data generation unit 109 and the reduction unit 110 (step S106).
  • the shift amount data generation unit 109 generates shift amount data D20 from the difference data D7, outputs the generated shift amount data D20 to the reduction unit 110, and writes the generated shift amount data to the storage unit 112 (step S107).
  • the reduction unit 110 generates fixed gradation difference data D8 from the difference data D7, and outputs the generated fixed gradation difference data D8 to the second compression unit 111 (step S108).
  • the second compression unit 111 applies a compression algorithm to the fixed tone difference data D8 received from the reduction unit 110, generates compression difference data D9, and writes the generated compression difference data D9 to the storage unit 112 (step S109). .
  • the second recording unit 113 writes the compressed difference data D9 and the shift amount data D20 read from the storage unit 112 to the recording medium 200 (step S110).
  • the reading unit 106 outputs the compressed video D3 read from the recording medium 300 to the decompressing unit 105 (step S111).
  • the transmission unit 114 transmits the compressed difference data D9 and the shift amount data D20 read from the storage unit 112 to the distribution server device 600 (step S112).
  • FIG. 13 shows the data structure of the recording medium 200.
  • the recording medium 200 includes a recording medium identification ID storage area 210, a compressed video storage area 220, a compressed difference data storage area 230, and a shift amount data storage area 240.
  • the recording medium identification ID storage area 210 is an area for storing a recording medium identification ID (D21).
  • a recording medium identification ID D21
  • BLU-RAY DISC registered trademark
  • a Content Certificate ID that is a partial area of an AACS Content Certificate File recorded in an AACS directory.
  • the compressed video storage area 220 is an area for storing the compressed video D3.
  • BLU-RAY DISC registered trademark
  • an M2TS file is recorded in the STREAM directory under the BDMV directory, and this is an example of the compressed video D3.
  • the compression difference data storage area 230 is an area for storing the compression difference data D9.
  • the shift amount data storage area 240 is an area for storing the shift amount data D20.
  • FIG. 14 shows the data structure of the recording medium 300.
  • the recording medium 300 includes a recording medium identification ID storage area 310 and a compressed video storage area 320 as shown in FIG.
  • the recording medium 300 does not record the compression difference data D9 and the shift amount data D20.
  • the recording medium identification ID storage area 310 is an area for storing a recording medium identification ID (D22).
  • a recording medium identification ID D22
  • BLU-RAY DISC registered trademark
  • a Content Certificate ID that is a partial area of the AACS Content Certificate File recorded in the AACS directory.
  • the compressed video storage area 320 is an area for storing the compressed video D3.
  • BLU-RAY DISC registered trademark
  • an M2TS file is recorded in the STREAM directory under the BDMV directory, and this is an example of the compressed video D3.
  • the playback device 400 plays back the distributed content recorded on the recording medium.
  • FIG. 15 shows the configuration of the playback apparatus 400.
  • the playback device 400 includes a reading unit 401, a first decompression unit 402, a first shift unit 403, a synthesis unit 404, a third shift unit 405, an output unit 406, a shift amount analysis unit 407, a second The expansion unit 408, the second shift unit 409, the transmission unit 410, the built-in storage unit 411, the recording unit 412, the reception unit 413, and the control unit 414 are configured.
  • the playback device 400 is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • the microprocessor operates according to the computer program, the reading unit 401, the first decompressing unit 402, the first shifting unit 403, the synthesizing unit 404, the third shifting unit 405, the output unit 406, the shift amount of the playback device 400.
  • the analysis unit 407, the second expansion unit 408, the second shift unit 409, the transmission unit 410, the recording unit 412, the reception unit 413, and the control unit 414 achieve their functions.
  • the built-in storage unit 411 includes a hard disk unit as an example.
  • the built-in storage unit 411 includes an area for storing the compression difference data D9 and the shift amount data D20.
  • Reading unit 401 The reading unit 401 reads the compressed video D3, the compressed differential data D9, and the shift amount data D20 from the recording medium 200, outputs the read compressed video D3 to the first decompressing unit 402, and outputs the read compressed differential data D9 to the second The data is output to the decompression unit 408, and the read shift amount data D20 is output to the shift amount analysis unit 407.
  • the reading unit 401 reads the compressed video D3 and the recording medium identification ID (D21) from the recording medium 300, outputs the read compressed video D3 to the first decompression unit 402, and reads the read recording medium identification ID (D21). Is output to the transmission unit 410.
  • the reading unit 401 reads the compression difference data D9 and the shift amount data D20 from either the external storage device 500 or the built-in storage unit 411, and outputs the read compression difference data D9 to the second decompression unit 408.
  • the read shift amount data D20 is output to the shift amount analysis unit 407.
  • Second extension unit 408 The second decompression unit 408 decompresses the compressed difference data D9 received from the reading unit 401, generates fixed gradation difference data D8, and outputs the generated fixed gradation difference data D8 to the second shift unit 409.
  • FIG. 17 shows an example of the fixed gradation difference data D8.
  • Shift amount analysis unit 407 stores an offset shift amount N in advance.
  • the offset shift amount N is a value determined by an output destination device from the playback device 400, and when a video is processed in the output destination device, each primary color of a pixel in the video requested by the output destination device. The bit length of the data.
  • the shift amount analysis unit 407 reads the offset shift amount N.
  • the shift amount analysis unit 407 receives the shift amount data D20 from the reading unit 401. Upon receiving the shift amount data D20, the shift amount analysis unit 407 analyzes the received shift amount data D20.
  • the shift amount analysis unit 407 reads the value 152 “2” as the shift amount P from the shift amount data D20. .
  • the shift amount analysis unit 407 calculates the frame numbers and shift amounts of each set from the shift amount data D20. read out.
  • the read shift amount is defined as a shift amount P.
  • the shift amount analysis unit 407 reads the compressed video numbers and shift amounts of each set from the shift amount data D20.
  • the read shift amount is defined as a shift amount P.
  • the shift amount analysis unit 407 reads the value 156 “4” from the shift amount data D20b as the maximum shift amount. Further, a plurality of sets D20b2 of frame numbers and shift amounts are read out.
  • the read shift amount is defined as a shift amount P.
  • the maximum shift amount read from the shift amount data D20b is set as the offset shift amount M.
  • the maximum shift amount is extracted from the shift amount data D20, and the extracted maximum shift amount is set as the maximum shift amount.
  • the shift amount is set as an offset shift amount M.
  • the received shift amount data is of the type shown in FIG. 9, the shift amount of each pixel is confirmed in units of video frames, GOPs, scenes, etc., and the maximum shift amount is extracted from among them.
  • the extracted maximum shift amount is set as an offset shift amount M.
  • the shift amount analysis unit 407 outputs the offset shift amount M to the first shift unit 403 to instruct bit shift. Further, the shift amount analysis unit 407 outputs the shift amount (MP) to the second shift unit 409 to instruct bit shift. Further, the shift amount analysis unit 407 outputs a shift amount (NM) to the third shift unit 405 to instruct bit shift.
  • Second shift unit 409 receives the shift amount (MP) from the shift amount analysis unit 407 together with a shift instruction. Also, the fixed gradation difference data D8 is received from the second decompression unit 408.
  • the second shift unit 409 corresponds to the shift amount (MP) designated by the shift amount analysis unit 407 for each primary color data in each pixel of each frame of the fixed gradation difference data D8 received from the second decompression unit 408.
  • Shift difference data D11 is generated by bit-shifting only.
  • the fixed gradation difference data D8 includes frames F51, F52, F53, F54, and F55, and a plurality of pixels are arranged in a matrix in each frame.
  • Each pixel has a fixed gradation difference of 8 bits for each of R, G, and B primary colors.
  • the frame F54 includes fixed gradation differences 701f, 702f, 703f, and 704f.
  • the fixed gradation difference 701f includes a sign bit 701fa and an absolute value 701fb as shown in FIG.
  • the second shift unit 409 maintains the sign bit 701fa as it is for the fixed gradation difference 701f, shifts the absolute value 701fb by (MP) bits to the upper side, and (MP) to the lower side. ) Pack the bits “0x0”. In this way, the second shift unit 409 generates the shift difference 701h as shown as an example in FIG.
  • the shift difference 701h is composed of a sign bit 701ha, an absolute value 701hb, and an absolute value 701hc.
  • the sign bit 701ha has the same value as the sign bit 701fa.
  • the absolute value 701hb has the same value as the absolute value 701fb.
  • the absolute value 701hc is “0x0” of (MP) bits.
  • the shift difference data D11 is composed of the same number of frames as the fixed gradation difference data D8 has. As shown in FIG. 17, the shift difference data D11 includes frames F71, F72, F73, F74, and F75 respectively corresponding to the frames F51, F52, F53, F54, and F55 of the fixed gradation difference data D8. A plurality of pixels are arranged in a matrix in each frame included in D11. Each pixel has a 12-bit shift difference for each of R, G, and B primary colors.
  • the second shift unit 409 outputs the generated shift difference data D11 to the synthesis unit 404.
  • First extension unit 402 The first decompressing unit 402 receives the compressed video D3 from the reading unit 401. Upon receiving the compressed video D3, the first decompression unit 402 performs a decompression algorithm on the received compressed video D3 to generate a re-expanded video D4.
  • the decompression algorithm is the same as the decompression algorithm used in the decompression unit 105 of the production apparatus 100.
  • the generated re-expanded video D4 is output to the first shift unit 403.
  • FIG. 16 shows an example of the re-expanded video D4.
  • the re-expanded video D4 includes frames F21, F22, F23, F24, and F25, and a plurality of pixels are arranged in a matrix in each frame included in the re-expanded video D4. .
  • Each pixel has 8-bit primary color data for each of R, G, and B primary colors.
  • the frame F24 includes a primary color 701c at one pixel, and includes primary colors 702c, 703c, and 704c at other pixels.
  • First shift unit 403 receives an offset shift amount M along with a shift instruction from the shift amount analysis unit 407. Also, the re-expanded video D4 is received from the first expansion unit 402.
  • the first shift unit 403 bit-shifts the primary color data in each pixel of each frame of the received re-expanded video D4 by the offset shift amount M specified by the shift amount analysis unit 407, and generates the shifted video D10. .
  • FIG. 16 shows an example of the shift video D10.
  • the primary color 701c of the re-expanded video D4 is 8 bits long.
  • the first shift unit 403 bit-shifts the primary color 701c to the upper side by an offset shift amount M and packs M “0x0” s from the lowest. In this way, a primary color 701g is generated.
  • the primary color 701g has the same value as the primary color 701c on the upper side, and M “0x0” on the lower side.
  • the shifted video D10 generated in this way includes the same number of frames as the number of frames of the re-expanded video D4.
  • the shift video D10 includes frames F61, F62, F63, F64, and F65 corresponding to the frames F21, F22, F23, F24, and F25 of the re-expanded video D4, and is included in the shift video D10.
  • Each frame includes a plurality of pixels arranged in a matrix.
  • Each pixel has 12-bit primary color data for each of R, G, and B primary colors. Therefore, each primary color is expressed by 4096 gradations. *
  • the first shift unit 403 outputs the generated shift video D10 to the synthesis unit 404.
  • Composition unit 404 The synthesizer 404 receives the shift video D10 from the first shift unit 403 and receives the shift difference data D11 from the second shift unit 409. When the shift video D10 and the shift difference data D11 are received, the primary color data of the shift video D10 and the primary color data of the shift difference data are added for each primary color data for each pixel of each frame to generate a composite video D12.
  • the shift video D10 includes frames F61, F62, F63, F64, and F65 as shown in FIG. 18, and a plurality of pixels are arranged in a matrix in each frame included in the shift video D10. Yes.
  • Each pixel has 12-bit primary color data for each of R, G, and B primary colors.
  • the frame F64 includes primary colors 701g, 702g, 703g, and 704g.
  • the shift difference data D11 includes frames F71, F72, F73, F74, and F75.
  • Each frame included in the shift difference data D11 includes a plurality of pixels in a matrix. It is arranged in.
  • Each pixel has a 12-bit shift difference for each of R, G, and B primary colors.
  • the frame F74 includes shift differences 701h, 702h, 703h, and 704h.
  • the synthesizing unit 404 adds the primary color 701g and the shift difference 701h to generate the primary color 701i.
  • the composite video D12 includes the same number of frames as the number of frames included in each of the shift video D10 and the shift difference data D11 as illustrated in FIG.
  • the composite video D12 includes frames F81, F82, F83, F84, and F85 corresponding to the frames F61, F62, F63, F64, and F65 of the shift video D10, and is included in the composite video D12.
  • a plurality of pixels are arranged in a matrix.
  • Each pixel has 12-bit primary color data for each of R, G, and B primary colors. Therefore, each primary color has 4096 gradations.
  • the synthesis unit 404 outputs the generated synthesized video D12 to the third shift unit 405.
  • the re-expanded video D4 shown in FIG. 16 has 8-bit long primary color data, and each primary color has 256 gradations.
  • the composite image D12 shown in FIG. 18 has each primary color data of 12-bit length, and each primary color has 4096 gradations. For this reason, it can be seen that the gradation expression is improved in the composite video D12.
  • Third shift unit 405 receives the shift amount (NM) from the shift amount analysis unit 407 together with the shift instruction, and receives the composite video D12 from the synthesis unit 404.
  • the third shift unit 405 bit-shifts the primary color data by the shift amount (NM) received from the shift amount analysis unit 407 for each primary color for each pixel of each frame of the received composite video D12. Then, the shift composite video D13 is generated. Next, the generated shift composite video D13 is output to the output unit 406.
  • the shift composite video D13 includes a plurality of frames, and each frame has a plurality of pixels arranged in a matrix, and each pixel has primary color data for each primary color.
  • Output unit 406 receives the shift composite video D13 from the third shift unit 405, performs image processing before output on the received shift composite video D13, and outputs the processed video to an external display device such as a monitor. To do.
  • the transmission unit 410 receives the recording medium identification ID (D21) of the recording medium 300 from the reading unit 401, and transmits the received recording medium identification ID (D21) to the distribution server device 600.
  • Receiver 413 The receiving unit 413 receives the compression difference data D9 and the shift amount data D20 from the distribution server device 600, and outputs the received compression difference data D9 and shift amount data D20 to the recording unit 412.
  • the recording unit 412 receives the compression difference data D9 and the shift amount data D20 from the reception unit 413, and the received compression difference data D9 and the shift amount data D20 according to the instruction of the viewer of the playback device 400, the internal storage unit 411 and the external Recording is performed in any one of the storage devices 500.
  • FIG. 19 shows the configuration of the external storage device 500.
  • the external storage device 500 includes an information storage unit 501 and an input / output unit 502.
  • the information storage unit 501 includes a recording medium identification ID storage area 510, a compression difference data storage area 520, and shift amount data.
  • a storage area 530 is provided.
  • the recording medium identification ID storage area 510 is an area for storing a recording medium identification ID (D21).
  • a recording medium identification ID D21
  • BLU-RAY DISC registered trademark
  • a Content Certificate ID that is a partial area of the AACS Content Certificate File recorded in the AACS directory
  • a ROM There is a Volume ID that is protected and recorded by Mark technology.
  • the compression difference data storage area 520 is an area for storing the compression difference data D9.
  • the recording medium 200 records the compressed differential data D9 in the recording medium 200.
  • the recording medium 300 is produced without recording the compressed differential data D9, and in this case, it is conceivable to store it in the external storage device 500.
  • the shift amount data storage area 530 is an area for storing the shift amount data D20.
  • the recording medium 200 records the shift amount data D20 in the recording medium 200.
  • the recording medium 300 is produced without recording the shift amount data D20. In this case, the recording medium 300 may be stored in the external storage device 500.
  • Distribution server device 600 provides compressed difference data D9 and shift amount data D20 to playback device 400 that the viewer has.
  • FIG. 20 shows the configuration of the distribution server device 600.
  • the distribution server device 600 includes a reception unit 610, an information storage unit 620, a transmission unit 630, and a control unit 640.
  • the distribution server device 600 is specifically a computer system composed of a microprocessor, ROM, RAM, hard disk unit, and the like. A computer program is stored in the RAM or the hard disk unit. The distribution server device 600 achieves its functions by the microprocessor operating according to the computer program.
  • Receiving unit 610 receives a recording medium identification ID (D21), compression difference data D9, and shift amount data D20 from the production apparatus 100.
  • the receiving unit 610 receives the recording medium identification ID (D21) from the playback device 400.
  • the receiving unit 610 sets the recording medium identification ID (D21), the compression difference data D9, and the shift amount data D20. Is output to the control unit 640.
  • the recording medium identification ID (D21) is received from the playback device 400, the received recording medium identification ID (D21) is output to the control unit 640.
  • Control unit 640 When receiving the recording medium identification ID (D21), the compression difference data D9, and the shift amount data D20 from the reception unit 610, the control unit 640 receives the recording medium identification ID (D21), the compression difference data D9, and the shift amount data D20. Are written in the information storage unit 620 as a set.
  • control unit 640 When the control unit 640 receives the recording medium identification ID (D21) from the reception unit 610, the control unit 640 stores the compressed differential data D9 and the information stored in the information storage unit 620 corresponding to the received recording medium identification ID (D21).
  • the transmission unit 630 is controlled so that the shift amount data D20 is read as a set, and the read compression difference data D9 and shift amount data D20 are transmitted to the playback device 400.
  • the information storage unit 620 includes an area for storing the recording medium identification ID (D21), the compression difference data D9, and the shift amount data D20 received by the reception unit 610 as a set.
  • the transmission unit 630 receives the compression difference data D9 and the shift amount data D20 from the control unit 640, and transmits the received compression difference data D9 and shift amount data D20 to the playback device 400.
  • the control unit 115 of the production apparatus 100 receives user input from an input reception unit (not shown).
  • the user input is an instruction for any one of production of the recording medium 200, production of the recording medium 300, and distribution to the distribution server device (step S201).
  • the control unit 115 determines whether the input of the user is production of the recording medium 200, production of the recording medium 300, or distribution to the distribution server device (step S202).
  • control unit 115 controls the production apparatus 100 to produce the recording medium 200 (step S202). S203).
  • control unit 115 controls the production apparatus 100 to produce the recording medium 300 (step S202). S204).
  • control unit 115 controls the production device 100 to transmit to the distribution server device. (Step S205).
  • the first conversion unit 102 performs a first conversion on the original video D1 read from the video storage unit 101 to generate a first conversion video D2 (step S221), and the first compression unit 103 performs the first conversion video D2. Are compressed to generate a compressed video D3 (step S222), and the first recording unit 104 records the compressed video D3 on the recording medium 300 (step S223).
  • the first conversion unit 102 performs a first conversion on the original video D1 read from the video storage unit 101 to generate a first conversion video D2 (step S240), and the first compression unit 103 performs the first conversion video.
  • D2 is compressed to generate a compressed video D3 (step S241).
  • the decompression unit 105 decompresses the compressed video D3 generated by the first compression unit 103 to generate a re-expanded video D4 (step S242).
  • the shift unit 107 bit-shifts the re-expanded video D4 generated by the expansion unit 105 to generate a shifted re-expanded video D5 (step S243).
  • the difference calculation unit 108 calculates the difference between the original image D1 and the shift re-expanded image D5, and generates difference data D7 (step S244).
  • the shift amount data generation unit 109 generates shift amount data D20 (step S245).
  • the reduction unit 110 generates fixed gradation difference data D8 (step S246).
  • the second compression unit 111 compresses the fixed tone difference data D8 to generate compressed difference data D9 (step S247).
  • the first recording unit 104 records the compressed video D3 on the recording medium 200 (step S248), and the second recording unit 113 stores the compressed difference data D9 and the shift amount data D20 stored in the storage unit 112. (Steps S249 to S250).
  • the shift amount data generation unit 109 receives the difference data D7 from the difference calculation unit 108 (step S270).
  • the shift amount data generation unit 109 repeats steps S272 to S282 shown below for every frame included in the difference data D7 (steps S271 to S283).
  • the shift amount data generation unit 109 temporarily sets the shift amount P to “4” (step S272), and sets the determination flag SW to “0”.
  • the shift amount data generation unit 109 repeats steps S275 to 277 shown below for each primary color data of all pixels in one frame (steps S274 to S278).
  • the shift amount data generation unit 109 determines whether the most significant 2 bits excluding the sign bit in the primary color data for the primary color is “00” or other (“01”, “10” or “1” 1 ”) (step S275).
  • the shift amount data generation unit 109 sets the shift amount P to “0” (step S281), and ends the repetition within one frame, and step S282. Transfer control to
  • the shift amount data generation unit 109 performs the next subsequent to the most significant 2 bits excluding the sign bit. It is determined whether 2 bits are “00” or other (“01”, “10”, or “11”) (step S276).
  • the shift amount data generation unit 109 does nothing.
  • the shift amount data generation unit 109 sets the flag SW to “1” (step S277). ).
  • Step S274 to S278 when the repetition for each primary color data of all the pixels in one frame is completed, the shift amount data generation unit 109 determines whether or not the flag SW is “1” (Step S279).
  • the shift amount data generation unit 109 sets the shift amount P to “2” (step S280).
  • the shift amount data generation unit 109 does nothing.
  • the shift amount data generation unit 109 associates the frame number with the shift amount P and writes them in the shift amount data D20 (step S282).
  • step S271 to S283 when the repetition for each frame ends, the shift amount data generation unit 109 ends the shift amount data generation processing.
  • the reduction unit 110 receives the shift amount data D20 from the shift amount data generation unit 109, and receives the difference data D7 from the difference calculation unit 108 (step S340).
  • the reduction unit 110 repeats steps S342 to S347 shown below for every frame included in the difference data D7 (steps S341 to S348).
  • the reduction unit 110 extracts the shift amount P corresponding to the frame from the shift amount data D20 (step S342).
  • the reduction unit 110 repeats the following steps S344 to 346 for each primary color data of all pixels in one frame (steps S343 to S347).
  • the reduction unit 110 generates the primary reduction difference by removing the bit string by the shift amount P from the top, excluding the sign bit (step S344).
  • the reduction unit 110 determines whether or not the bit length of the primary reduction difference is “8” (step S345). When it is determined that the bit length of the primary reduction difference is not “8” (step S345), the lower-order bits are deleted so that the bit length is “8” to generate a fixed gradation difference (step S346). When determining that the bit length of the primary reduction difference is “8” (step S345), the reduction unit 110 does nothing. In other words, the primary reduction difference is maintained and becomes a fixed gradation difference as it is.
  • steps S343 to S347 the repetition for each primary color data of all pixels in one frame is completed.
  • the reduction unit 110 generates fixed gradation difference data. Exit.
  • the reading unit 106 of the production apparatus 100 reads the compressed video D3 from the recording medium 300 (step S301).
  • the decompression unit 105 decompresses the read compressed video D3 to generate a re-expanded video D4 (step S302).
  • the shift unit 107 bit-shifts the re-expanded video D4 to generate a shifted re-expanded video D5 (step S303).
  • the difference calculation unit 108 calculates the difference between the original image D1 and the shift re-expanded image D5 stored in the image storage unit 101, and generates difference data D7 (step S304).
  • the shift amount data generation unit 109 calculates the shift amount P using the difference data D7, and generates the shift amount data D20 (step S305).
  • details of generation of the shift amount data D20 are as shown in FIG.
  • the reduction unit 110 reduces the gradation of the difference data D7 and generates fixed gradation difference data D8 (step S306).
  • details of generation of the fixed gradation difference data D8 are as shown in FIG.
  • the second compression unit 111 compresses the fixed tone difference data D8 to generate compressed difference data D9, and writes the compressed difference data D9 in the storage unit 112 (step S307).
  • the reading unit 106 reads the recording medium identification ID (D21) from the recording medium 300, and outputs the read recording medium identification ID (D21) to the transmission unit 114 (step S308).
  • the transmission unit 114 receives the recording medium identification ID (D21) from the reading unit 106, reads the compression difference data D9 and the shift amount data D20 from the storage unit 112, and receives the received recording medium identification ID (D21) and the read compression difference data. D9 and shift amount data D20 are transmitted to distribution server device 600 (steps S309 to S311).
  • the receiving unit 610 of the distribution server device 600 receives the recording medium identification ID (D21), the compression difference data D9, and the shift amount data D20 (steps S309 to S311), and the control unit 640 receives the received recording medium identification ID (D21). ), The compressed difference data D9 and the shift amount data D20 are written into the information storage unit 620 (step S312).
  • the control unit 414 When a recording medium is inserted into the playback device 400 by the viewer (step S401), the control unit 414 records the compressed difference data D9 and the shift amount data D20 on the inserted recording medium via the reading unit 401. Judge whether or not. In other words, the type of the recording medium is determined (step S402). When it is determined that the compression difference data D9 and the shift amount data D20 are recorded on the recording medium, the recording medium is determined to be the recording medium 200. On the other hand, when it is determined that the compression difference data D9 and the shift amount data D20 are not recorded on the recording medium, the recording medium is determined to be the recording medium 300.
  • the reproducing device 400 When the inserted recording medium is the recording medium 200 (“recording medium 200” in step S402), the reproducing device 400 performs the bit extended reproduction of the recording medium 200 (step S403). On the other hand, when the inserted recording medium is the recording medium 300 (“recording medium 300” in step S402), the playback device 400 downloads the compressed difference data and the like (step S404), and the bit extended playback of the recording medium 300 is performed. Is performed (step S405).
  • the playback apparatus 400 uses the compressed video D3, the compressed differential data D9, and the shift amount data D20 recorded on the recording medium 200 to bit-extend the compressed video D3. Reproduce.
  • the operation of the bit extended reproduction by the reproduction apparatus 400 of the content recorded on the recording medium 200 will be described with reference to the flowchart shown in FIG. The operation described here is the details of step S403 in FIG.
  • the playback device 400 performs preprocessing (1) before playback of the compressed video D3 (step S410a). Details of the preprocessing (1) will be described later.
  • the shift amount analysis unit 407 analyzes the shift amount data D20 read from the recording medium 200 by the reading unit 401, and checks whether the shift amount data D20 shown in FIG. It is confirmed whether or not the shift amount data D20a shown in 9 is described in units of the compressed video D3.
  • the shift amount analysis unit 407 designates the shift amount P in the disk unit or the compressed video D3 unit to the second shift unit 409, and the bit amount An instruction is given to shift (step S412).
  • the second decompressing unit 408 decompresses the compressed difference data D9 read from the recording medium 200 by the reading unit 401 to generate fixed tone difference data D8 (step S413).
  • the second shift unit 409 calculates the actual shift amount (MP) bits using the offset shift amount (M bits) and the shift amount P specified by the shift amount analysis unit 407.
  • the fixed gradation difference data D8 generated from all the compressed difference data D9 included in the disk is bit-shifted by (MP) bits to generate shift difference data D11
  • compressed video In the case of D3 unit, the fixed gradation difference data D8 paired with the compressed video D3 is bit-shifted by (MP) bits to generate shift difference data D11 (step S414).
  • the first decompressing unit 402 decompresses the compressed video D3 read from the recording medium 200 by the reading unit 401 and generates a re-expanded video D4 in parallel with the processing in step S412 and the processing in step S413 (step S415). ).
  • the first shift unit 403 bit-shifts the re-expanded video D4 generated by the first expansion unit 402 by M bits according to the offset shift amount M specified by the shift amount analysis unit 407, and generates a shifted video D10 ( Step S416).
  • the synthesizing unit 404 synthesizes the shift video D10 generated by the first shift unit 403 and the shift difference data D11 generated by the second shift unit to generate a synthesized video D12 (step S417).
  • the third shift unit 405 bit-shifts the synthesized video D12 generated by the synthesizing unit 404 by NM bits according to the offset shift amount (N ⁇ M) specified by the shift amount analyzing unit 407, and generates the shifted synthesized video D13. Is generated. Further, the output unit 406 performs image processing or the like on the shift composite video D13 generated by the third shift unit 405, and outputs it to a monitor or the like (step S418).
  • Read unit 401 reads shift amount data D20 from recording medium 200 (step S431).
  • the shift amount analysis unit 407 analyzes the shift amount data D20 read from the recording medium 200 by the reading unit 401, and whether there is a maximum shift amount as shown in FIG. 11 in the shift amount data D20. It is confirmed whether or not (step S432).
  • the maximum shift amount exists (“exists” in step S432)
  • the maximum shift amount is set as the offset shift amount M (step S433).
  • the maximum shift amount is extracted from the shift amount data D20, and the extracted maximum shift amount is set as the offset shift amount M (step S434).
  • the shift amount analysis unit 407 designates M bits as the offset shift amount to the first shift unit 403 and the second shift unit 409 and instructs bit shift (steps S435 to S436).
  • the shift amount analysis unit 407 designates (NM) bits as the offset shift amount to the third shift unit 405 and instructs bit shift (step S437).
  • first shift unit 403, the second shift unit 409, the third shift unit 405, and the associated first decompression unit 402 and second decompression unit 408 are used for resource expansion necessary for bit extended reproduction such as application memory and data path. Securement is performed (S438).
  • the reading unit 401 reads the compressed difference data D9 from the recording medium 200 (step S439), and reads the compressed video D3 from the recording medium 200 (step S440).
  • the playback device 400 and the distribution server device 600 establish a communication connection (step S471).
  • the reading unit 401 of the playback device 400 reads the recording medium identification ID (D21) from the recording medium 300 (step S472), and the transmission unit 410 reads the data together with the transmission request for the compression difference data D9 and the shift amount data D20.
  • the recording medium identification ID (D21) is transmitted to the distribution server device 600 (step S473).
  • the receiving unit 610 of the distribution server device 600 receives the transmission request and the recording medium identification ID (D21) (step S473), and the control unit 640 compresses the received recording medium identification ID (D21).
  • the difference data D9 and the shift amount data D20 are read from the information storage unit 620 (step S474), and the transmission unit 630 transmits the read compressed difference data D9 and shift amount data D20 to the playback device 400 (step S475).
  • the receiving unit 413 of the playback device 400 receives the compressed difference data D9 and the shift amount data D20 (step S475), and the recording unit 412 is associated with the read recording medium identification ID (D21).
  • the received compressed difference data D9 and shift amount data D20 are written to either the external storage device 500 or the built-in storage unit 411 (step S476).
  • the control unit 414 performs post-processing such as memory release (step S477).
  • the playback apparatus 400 uses the compressed difference data D9 and the shift amount data D20 recorded in either the external storage device 500 or the built-in storage unit 411 to record the recording medium 300.
  • the compressed video D3 recorded in the video is bit-extended and reproduced.
  • the operation of the bit extended reproduction by the reproduction apparatus 400 of the content recorded on the recording medium 300 will be described with reference to the flowchart shown in FIG.
  • the playback device 400 performs preprocessing (2) before playback of the compressed video D3 (step S410b).
  • the reading unit 401 reads the recording medium identification ID (D21) from the recording medium 300 (step S451).
  • the control unit 414 determines whether or not the recording medium identification ID (D21) read from the recording medium 300 exists in either the external storage device 500 or the built-in storage unit 411 (step 401). S452).
  • the playback device 400 ends the content playback process. .
  • the reading unit 401 When it is determined that the recording medium identification ID (D21) exists in either one of the external storage device 500 and the internal storage unit 411 (“exists” in step S452), the reading unit 401 reads the external storage device 500 and the internal storage unit 411.
  • the compressed difference data D9 and the shift amount data D20 stored in correspondence with the recording medium identification ID (D21) read from the recording medium 300 are read from either one of the units 411 (step S453).
  • steps S454 to S460 are the same as steps S432 to S438 shown in FIG.
  • step S460 the reading unit 401 reads the compressed video D3 from the recording medium 300 (step S461).
  • the production apparatus 100 generates difference information for compensating for missing information in the production process of the distribution content separately from the production of the distribution content, and the difference information data
  • the standard gradation depth that can be effectively processed by the existing LSI is converted so that the size does not become too large and the difference information does not involve a significant design change of the existing LSI.
  • a shift amount at the time of combination is determined and generated as meta information so that the result of combining the distribution content and the difference information can effectively improve the color tone.
  • reproduction using the distribution content, the difference information, and the meta information holding the shift amount, and reproducing them in combination, the reproduction of the content in a state in which the color tone expression is improved as compared with the reproduction of only the distribution content is realized. .
  • step S451 of FIG. 32 the reading unit 430 reads the recording medium identification ID (D21) from the recording medium 300, and in step S452, the read recording medium identification ID (D21) is stored in the external storage device 500 and the built-in storage. It is confirmed whether or not it is recorded in any of the sections 411.
  • the playback device 400 executes the download process of the compressed difference data and the like shown in FIG. 30 and is necessary for playback.
  • the compression difference data D9 and the shift amount data D20 corresponding to the recording medium identification ID (D21) may be acquired, and after the acquisition, the processing from step S454 onward in FIG. 32 may be executed.
  • the first shift unit 403 and the third shift unit 405 make the shift amount unique to the disc, and only the second shift unit 409 has the compressed video D3. What is necessary is just to change the setting of the shift amount every time. Since only the second shift unit 409 is controlled by the shift amount analysis unit 407 at the switching timing of the compressed video D3 being played back, synchronized control is unnecessary, and it is possible to avoid a relatively complicated situation.
  • the offset shift amount N bits are notified in advance to the third shift unit 405 before reproduction, and the shift amount is transmitted to the first shift unit 403 and the third shift unit 405 at the start of reproduction.
  • P bit is designated, the first shift unit 403 is shifted to P bit, the third shift unit 405 is shifted to NP bit, and the second shift unit 409 is not shifted at all.
  • Combination reproduction with the same shift amount as in the first mode is possible.
  • the playback apparatus 400 does not need to mount the second shift unit 409, and can simplify the configuration.
  • each of the above devices is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • Each device achieves its function by the microprocessor operating according to the computer program. That is, the microprocessor reads each instruction included in the computer program one by one, decodes the read instruction, and operates according to the decoding result.
  • each device is not limited to a computer system including all of a microprocessor, a ROM, a RAM, a hard disk unit, and the like, but may be a computer system including a part thereof.
  • the microprocessor operates in accordance with instructions included in the computer program stored in the RAM or the hard disk unit, the computer program and the microprocessor constitute a single hardware circuit, and this hardware It can appear as if the circuit is operating.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • each part of the constituent elements constituting each of the above devices may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration.
  • circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • FPGA Field that can be programmed after LSI manufacturing
  • Programmable Gate Array or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • a part or all of the constituent elements constituting each of the above devices may be configured by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (BLU-RAY DISC). (Registered trademark)) or a semiconductor memory. Further, the present invention may be the computer program or the digital signal recorded on these recording media.
  • a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (BLU-RAY DISC). (Registered trademark)) or a semiconductor memory.
  • the present invention may be the computer program or the digital signal recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may also be a computer system including a microprocessor and a memory.
  • the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
  • the present invention is the playback device used in a playback system including a playback device, a recording medium, and a production device.
  • the reproducing apparatus includes: a first decompressing unit that decompresses a compressed video; a second decompressing unit; a shift amount analyzing unit that analyzes shift amount data; a first shift unit that bit-shifts a video; The first decompression unit decompresses the content read by the playback device, the second decompression unit decompresses the differential data read by the playback device, and the shift amount analysis unit includes the shift amount.
  • Analyzing data and instructing the first shift means to bit-shift the content wherein the first shift means bit-shifts the content expanded by the first expansion means in accordance with an instruction from the shift amount analysis means.
  • the synthesizing unit synthesizes the content bit-shifted by the first shift unit and the difference data expanded by the second expansion unit.
  • the playback device further includes a second shift unit, and the shift amount analysis unit analyzes the shift amount data read by the playback device, and performs a bit shift of content on the second shift unit.
  • the second shift means bit-shifts the difference data expanded by the second expansion means in accordance with an instruction from the shift amount analysis means, and the composition means shifts the content shifted by the first shift means.
  • the difference data shifted by the second shift means may be combined.
  • the shift amount analyzing means may analyze the shift amount data every time the content is reproduced, and instruct the first shift means to bit-shift the content.
  • the shift amount analyzing means may analyze the shift amount data every time the content is reproduced, and instruct the second shift means to bit-shift the content.
  • another embodiment of the present invention is the production device used in a reproduction system including a reproduction device, a recording medium, and a production device.
  • the production apparatus includes: expansion / shift means that performs bit shift after expanding an image; shift amount data generation means that generates shift amount data that records a shift amount when combining content and difference data; and the two images
  • the shift amount data generation means generates the shift amount data based on the shift amount shifted by the expansion / shift means, and the difference calculation means includes the original video read by the playback device. Calculating the difference with the content expanded / shifted by the expansion / shift means to generate difference data, and the compression means By compressing the difference data unit is generated to produce a compressed difference data, said recording means to record the compressed difference data in the recording medium.
  • the shift amount data generating means may generate the shift amount data for acquiring the shift amount and holding the shift amount for each video every time the video is produced.
  • the difference information is generated to compensate for the missing information in the production process of the main content, and the data size of the difference information is not too large.
  • the difference information is converted to a standard gradation depth that can be processed effectively so that the existing LSI does not involve a significant design change of the existing LSI.
  • the shift amount at the time of combination is determined and generated as meta information so that the combined result of information can effectively improve the color tone.
  • the main content, difference information, and meta information that holds the shift amount are combined and played back, and the playback of the content in a state in which the color tone expression is improved over the playback of the main content alone is performed. Realize.
  • One aspect of the present invention is a production apparatus that produces distribution content including distribution video data, an original acquisition circuit that acquires original video data, and a conversion that lowers the gradation of an image with respect to the original video data
  • an integrated circuit constituting a production apparatus that produces distribution content including distribution video data, an original acquisition circuit that acquires original video data, and a video for the original video data
  • a distribution acquisition circuit that acquires the distribution video data generated by performing conversion that reduces the gradation of the image, a difference generation circuit that generates difference data between the original video data and the distribution video data, and outputs the difference data
  • an output circuit that outputs the difference data
  • a production apparatus for producing distribution content including distribution video data, a memory unit storing a computer program configured by combining a plurality of computer instructions, and the memory And a processor that reads out computer instructions one by one from the computer program stored in the computer, decodes the computer instructions, and operates in accordance with the decoded result.
  • the computer program includes, in a processor, an original acquisition step of acquiring original video data, and a distribution acquisition step of acquiring the distribution video data generated by converting the original video data to reduce the gradation of video.
  • a difference generation step for generating difference data between the original video data and the distribution video data and an output step circuit for outputting the difference data are executed.
  • Another aspect of the present invention is a playback method used in a playback device that plays back distributed content, the difference acquisition step of acquiring difference data, and the distribution video data and the difference data are combined to generate the original data. It is characterized by comprising a synthesizing step for generating reproduced video data having the same gradation as the video data, and a reproducing step for reproducing the generated reproduced video data.
  • Another aspect of the present invention is a computer-readable recording medium that records a computer program for reproduction used in a reproduction apparatus that reproduces distribution content, and a difference acquisition step of acquiring difference data in a computer Combining the distribution video data and the difference data to generate reproduction video data having a gradation equivalent to the original video data, and a reproduction step of reproducing the generated reproduction video data.
  • a computer program for execution is recorded.
  • Another aspect of the present invention is a computer program for reproduction used in a reproduction apparatus for reproducing distribution content, wherein the computer obtains a difference acquisition step for acquiring difference data, the distribution video data, and the difference data Are combined to generate reproduction video data having the same gradation as the original video data, and a reproduction step to reproduce the generated reproduction video data.
  • Another aspect of the present invention is a playback device that plays back distribution content, and includes a difference acquisition unit that acquires difference data, the distribution video data and the difference data, and is equivalent to the original video data.
  • the image processing apparatus includes a synthesizing unit that generates reproduction video data having gradation, and a reproduction unit that reproduces the generated reproduction video data.
  • Another aspect of the present invention is a playback device for playing distributed content, comprising a difference acquisition circuit that acquires difference data, the distribution video data and the difference data, and equivalent to the original video data
  • a synthesis circuit that generates reproduction video data having gradation and a reproduction circuit that reproduces the generated reproduction video data are provided.
  • Another aspect of the present invention is an integrated circuit that constitutes a playback device that plays back distributed content, and combines a difference acquisition circuit that acquires difference data, the distribution video data and the difference data, and It is characterized by comprising a synthesis circuit for generating reproduced video data having the same gradation as the video data, and a reproducing circuit for reproducing the generated reproduced video data.
  • a playback device that plays back distributed content, a memory unit that stores a computer program configured by combining a plurality of computer instructions, and a memory unit that stores the computer program. And a processor that reads out computer instructions one by one from the computer program, decodes the computer instructions, and operates according to the decoding result.
  • the computer program generates a reproduction video data having a gradation equivalent to the original video data by synthesizing a difference acquisition step of acquiring differential data to the processor, and synthesizing the distribution video data and the difference data. A step and a reproduction step of reproducing the generated reproduction video data.
  • the production apparatus Since the production apparatus according to the present invention generates and outputs difference data between the original video data and the distribution video data, only the distribution content recorded on the recording medium is reproduced by using the difference data in the reproduction apparatus. It is useful as a technique for producing a distribution content including distribution video data, which has an excellent effect that the content can be reproduced with the color tone expression improved.
  • 10 10a Content distribution system 100, 100a Production device 200 Recording medium 300 Recording medium 400, 400a Playback device 500 External storage device 600 Distribution server device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 映像の再生時に色調表現をさらに豊かにする流通コンテンツを制作できる制作装置100aを提供する。流通映像データを含む流通コンテンツを制作する制作装置100aは、原映像データを取得する原取得部101a、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得部102a、前記原映像データと前記流通映像データとの差分データを生成する差分生成部103a及び前記差分データを出力する出力部104aから構成されている。再生装置400aは、流通コンテンツを再生する。

Description

制作装置及びコンテンツ配信システム
 本発明は、流通映像データを含む流通コンテンツを制作する技術に関する。
 映画や音楽等のコンテンツを記録している光ディスク等の記録媒体及び記録媒体に記録されたコンテンツを再生する再生装置が普及し、家庭環境において、コンテンツの視聴が実現されている。
 特許文献1には、別々の記録媒体に記録されている複数のデジタルストリームを再生する際に、これらの同期を規定することにより、あたかも、一つの映画作品が再生されているように、視聴者にみせかける同期型アプリケーション技術が開示されている。この技術によると、映画作品の構成要素となるデジタルストリームを、別々の供給媒体を用いて、視聴者に供給することができるので、様々な再生のバリエーションを産み出すことができる。
日本国特開2009-38825号公報
 特許文献1により開示された技術は、一つの映画について様々な再生のバリエーションを産み出す一つの方法を提供しているが、映画に代表されるコンテンツのさらなる普及のため、コンテンツの再生についての様々な技術が要望されている。
 上記要望に応えるため、本発明は、映像の再生時に色調表現をさらに豊かにする流通コンテンツを制作できる制作装置、制作方法、コンピュータプログラム、記録媒体、集積回路及びコンテンツ配信システムを提供することを目的とする。
 上記目的を達成するために、本発明は、流通映像データを含む流通コンテンツを制作する制作装置であって、原映像データを取得する原取得手段と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、前記差分データを出力する出力手段とを備えることを特徴とする。
 この構成によると、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
実施の形態1としてのコンテンツ配信システム10aの全体構成図である。 実施の形態2としてのコンテンツ配信システム10の全体構成図である。 制作装置100の構成を示すブロック図である。 原映像D1、第1変換映像D2及び再伸張映像D4のデータ構造の一例を示す。 再伸張映像D4、シフト再伸張映像D5及び原映像D1のデータ構造の一例を示す。 差分データD7及び固定階調差分データD8のデータ構造の一例を示す。 差分、一次削減差分及び固定階調差分の一例を示す。 差分、一次削減差分及び固定階調差分の別の一例を示す。 シフト量データD20aのデータ構造の一例を示す。 シフト量データD20のデータ構造の一例を示す。 シフト量データD20bのデータ構造の一例を示す。 制作装置100における記録媒体の制作プロセスを示す。 記録媒体200のデータ構造を示す。 記録媒体300のデータ構造を示す。 再生装置400の構成を示すブロック図である。 再伸張映像D4及びシフト映像D10のデータ構造の一例を示す。 固定階調差分データD8及びシフト差分データD11のデータ構造の一例を示す。 シフト映像D10とシフト差分データD11とを加算して合成映像D12を生成する場合のそれぞれのデータ構造を示す。 外部記憶装置500の構成を示すブロック図である。 配信サーバ装置600の構成を示すブロック図である。 制作装置100の動作を示すフローチャートである。 制作装置100による記録媒体300の制作の動作を示すフローチャートである。 制作装置100による記録媒体200の制作の動作を示すフローチャートである。 制作装置100のシフト量データ生成部109によるシフト量データの生成の動作を示すフローチャートである。 制作装置100の削減部110による固定階調差分データの生成の動作を示すフローチャートである。 制作装置100から配信サーバ装置600へ圧縮差分データD9及びシフト量データD20を送信する際の動作を示すフローチャートである。 再生装置400によるコンテンツの再生の動作を示すフローチャートである。 記録媒体200に記録されたコンテンツのBit拡張再生の動作を示すフローチャートである。 記録媒体200に記録されたコンテンツのBit拡張再生における前処理(1)の動作を示すフローチャートである。 配信サーバ装置600から再生装置400への圧縮差分データ等のダウンロードの動作を示すフローチャートである。 記録媒体300に記録されたコンテンツのBit拡張再生の動作を示すフローチャートである。 記録媒体300に記録されたコンテンツのBit拡張再生における前処理(2)の動作を示すフローチャートである。
 本発明の一態様は、流通映像データを含む流通コンテンツを制作する制作装置であって、原映像データを取得する原取得手段と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、前記差分データを出力する出力手段とを備えることを特徴とする。
 この構成によると、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 ここで、前記原映像データ及び前記流通映像データは、それぞれ、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に原色データを含み、前記差分生成手段は、各フレーム内の各ピクセルについて原色毎に、前記原映像データにおける原色データと前記流通映像データにおける原色データとの差分を算出する差分演算部と、算出した差分のビット長を削減する削減部とを含み、前記差分データは、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に、ビット長が削減された前記差分を含むとしてもよい。
 この構成によると、差分データに含まれる差分は、ビット長が削減されているので、差分データの容量を小さくすることができる。
 ここで、前記差分生成手段は、さらに、前記差分演算部により算出された前記差分のうち、正負を示す符号ビットを除く残り部分の上位側ビットの値に応じて、シフト量を生成するシフト量生成部を含み、前記削減部は、生成されたシフト量に基づいて、前記差分のビット長を削減するとしてもよい。
 この構成によると、正負を示す符号ビットを除く残り部分の上位側ビットは、0値である場合が多く、生成されたシフト量に基づいて、前記差分のビット長を削減することにより、差分の有効値が欠落することなく、差分のビット長を効果的に削減することができる。
 ここで、前記シフト量生成部は、前記残り部分の上位側ビットにおいて、連続する0値の数に応じて、前記シフト量を生成するとしてもよい。
 この構成によると、連続する0値の数に応じて、前記シフト量を生成するので、差分の有効値が欠落することなく、差分のビット長を効果的に削減することができる。
 ここで、前記シフト量生成部は、一枚のフレームについて、一個の前記シフト量を生成するとしてもよい。
 この構成によると、一枚のフレームに含まれる個々のピクセルについて、それぞれシフト量を生成する場合と比較すると、シフト量全体の容量を削減することができる。
 ここで、前記出力手段は、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とを前記記録媒体に書き込むとしてもよい。
 この構成によると、前記記録媒体に、前記流通コンテンツ、前記差分データ及び前記シフト量が記録されるので、再生装置において、当該記録媒体に記録されている前記流通コンテンツ、前記差分データ及び前記シフト量のみを用いて、色調表現が改善された状態で、映像の再生が可能となる。
 ここで、前記出力手段は、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とをサーバ装置へ送信するとしてもよい。
 この構成によると、前記記録媒体に、前記流通コンテンツが記録され、サーバ装置に前記差分データと前記シフト量とが送信されるので、再生装置において、当該記録媒体から前記流通コンテンツを読み出し、また、サーバ装置から前記差分データ及び前記シフト量を受信することにより、色調表現が改善された状態で、映像の再生が可能となる。
 本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置で用いられる制作方法であって、原映像データを取得する原取得ステップと、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、前記差分データを出力する出力ステップとを含むことを特徴とする。
 この方法によると、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置で用いられるコンピュータプログラムを記録しているコンピュータ読取可能な記録媒体であって、コンピュータに、原映像データを取得する原取得ステップと、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、前記差分データを出力する出力ステップとを実行させるためのコンピュータプログラムを記録していることを特徴とする。
 この記録媒体に記録されているコンピュータプログラムをコンピュータにより実行すれば、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置で用いられるコンピュータプログラムであって、コンピュータに、原映像データを取得する原取得ステップと、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、前記差分データを出力する出力ステップとを実行させることを特徴とする。
 このコンピュータプログラムをコンピュータにより実行すれば、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置を構成する集積回路であって、原映像データを取得する原取得手段と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、前記差分データを出力する出力手段とを備えることを特徴とする。
 この構成によると、前記原映像データと前記流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置と前記流通コンテンツを再生する再生装置とから構成されるコンテンツ配信システムであって、前記制作装置は、原映像データを取得する原取得手段と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、前記差分データを出力する出力手段とを備え、前記再生装置は、前記差分データを取得する差分取得手段と、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成手段と、生成した前記再生映像データを再生する再生手段とを備えることを特徴とする。
 この構成によると、制作装置により、前記原映像データと前記流通映像データとの差分データを生成して出力し、再生装置により、前記流通映像データと前記差分データとを合成して再生映像データを生成するので、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、映像の再生が可能となるという優れた効果を奏する。
 以下、本発明の実施の形態について、図面を参照しながら説明する。
 1.実施の形態1
 本発明に係る一の実施の形態としてのコンテンツ配信システム10aについて説明する。
 (1)コンテンツ配信システム10aは、図1に示すように、制作装置100a及び再生装置400aから構成されている。制作装置100aは、流通映像データを含む流通コンテンツを制作する。再生装置400aは、流通コンテンツを再生する。
 制作装置100aは、この図に示すように、原取得部101a、流通取得部102a、差分生成部103a及び出力部104aから構成されている。
 原取得部101aは、原映像データを取得する。流通取得部102aは、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する。差分生成部103aは、前記原映像データと前記流通映像データとの差分データを生成する。出力部104aは、前記差分データを出力する。
 再生装置400aは、差分取得部401a、合成部402a及び再生部403aから構成されている。
 差分取得部401aは、前記差分データを取得する。合成部402aは、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する。再生部403aは、生成した前記再生映像データを再生する。
 また、次のように構成してもよい。
 (2)前記原映像データ及び前記流通映像データは、それぞれ、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に原色データを含む。
 差分生成部103aは、各フレーム内の各ピクセルについて原色毎に、前記原映像データにおける原色データと前記流通映像データにおける原色データとの差分を算出する差分演算部108a(図示していない)と、算出した差分のビット長を削減する削減部110a(図示していない)とを含む。
 前記差分データは、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に、ビット長が削減された前記差分を含む。
 (3)差分生成部103aは、さらに、差分演算部108aにより算出された前記差分のうち、正負を示す符号ビットを除く残り部分の上位側ビットの値に応じて、シフト量を生成するシフト量生成部109a(図示していない)を含む。
 削減部110aは、生成されたシフト量に基づいて、前記差分のビット長を削減する。
 (4)シフト量生成部109aは、前記残り部分の上位側ビットにおいて、連続する0値の数に応じて、前記シフト量を生成する。
 (5)シフト量生成部109aは、一枚のフレームについて、一個の前記シフト量を生成する。
 (6)出力部104aは、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とを前記記録媒体に書き込む。
 (7)出力部104aは、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とをサーバ装置へ送信する。
 2.実施の形態2
 本発明に係る別の実施の形態としてのコンテンツ配信システム10について説明する。
 2.1 コンテンツ配信システム10の全体構成
 コンテンツ配信システム10は、図2に示すように、制作装置100、再生装置400、外部記憶装置500及び配信サーバ装置600から構成されている。制作装置100と配信サーバ装置600とは、ネットワーク20を介して接続され、配信サーバ装置600と再生装置400とも、ネットワーク20を介して接続されている。制作装置100には、記録媒体200及び記録媒体300が装着され、制作装置100は、記録媒体200及び記録媒体300にコンテンツを記録する。また、再生装置400には、コンテンツが記録された記録媒体200及び記録媒体300が装着される。再生装置400には、外部記憶装置500が接続されている。
 なお、一例として、記録媒体200及び記録媒体300の制作業者が制作装置100を有し、コンテンツに関連するサービスを提供するサービス提供業者が配信サーバ装置600を有する。このサービス提供業者は、記録媒体300に記録されたコンテンツを高階調化するためのサービスを提供する。また、コンテンツの視聴者が再生装置400及び外部記憶装置500を有する。
 制作装置100は、映画制作会社により制作された原映像を含む原コンテンツを元にして、記録媒体に記録するため、流通映像を含む流通コンテンツを制作し、制作した流通コンテンツを記録媒体に記録する。従って、映画制作会社により制作された原コンテンツがそのまま市場に流通することはなく、流通コンテンツを記録している記録媒体が市場に流通することとなる。
 映画制作会社により制作された原映像は、複数のフレームから構成され、各フレームは、複数のピクセルが行列状に配されて構成され、各ピクセルは、R、G、Bの原色毎に、原色データを有する。ここで、各原色データは、一例として、12ビット長であり、各原色は、4096階調により表現される。つまり、各原色は、12ビットの色深度を有する。
 これに対し、記録媒体に記録される流通映像は、原映像と同様に、複数のフレームから構成され、各フレームは、複数のピクセルが行列状に配されて構成され、各ピクセルは、R、G、Bの原色毎に、原色データを有する。ここで、各原色データは、一例として、8ビット長であり、各原色は、256階調により表現される。つまり、各原色は、8ビットの色深度を有する。
 このように、映画制作会社により制作された原映像の各原色は、4096階調により表現される。一方、記録媒体に記録される流通映像の各原色は、256階調により表現されている。これは、記録媒体に記録できるデータの容量に制限があるためであり、例えば、記録媒体に記録される流通映像の各原色データのデータ長は、8ビット長と規定されている。
 なお、説明時の混乱を回避するために、制作装置100及び再生装置400内の各構成要素の処理対象となるデータに対して、次のように符号を付与して表現する。
 原映像D1、第1変換映像D2、圧縮映像D3、再伸張映像D4、シフト再伸張映像D5、第2変換映像D6、差分データD7、固定階調差分データD8、圧縮差分データD9、シフト映像D10、シフト差分データD11、合成映像D12、シフト合成映像D13、シフト量データD20、記録媒体識別ID(D21)。
 2.2 制作装置100の構成
 図3に、制作装置100の構成を示す。
 制作装置100は、図3に示すように、映像記憶部101、第1変換部102、第1圧縮部103、第1記録部104、伸張部105、読出部106、シフト部107、差分演算部108、シフト量データ生成部109、削減部110、第2圧縮部111、記憶部112、第2記録部113、送信部114及び制御部115から構成されている。ここで、差分演算部108、シフト量データ生成部109及び削減部110は、差分生成部116を構成する。
 制作装置100は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、制作装置100の第1変換部102、第1圧縮部103、第1記録部104、伸張部105、読出部106、シフト部107、差分演算部108、シフト量データ生成部109、削減部110、第2圧縮部111、第2記録部113、送信部114及び制御部115及び差分生成部116は、その機能を達成する。
 制作装置100は、上述したように、原映像を含む原コンテンツから流通映像を含む流通コンテンツを制作し、制作した流通コンテンツを記録媒体に記録する。ここで、各コンテンツは、映像、音声データ、字幕、副音声データ、オーディオコメンタリ、制御情報等を含む。以下においては、主として映像に関して説明し、コンテンツに含まれるその他の情報については、説明を省略する。
 (1)映像記憶部101
 映像記憶部101は、一例として、ハードディスクユニットから構成されている。
 映像記憶部101は、複数のフレームから構成される原映像D1を記憶している。原映像D1は、映画制作会社により制作された映像そのものである。原映像D1を構成する複数のフレームが時間的に連続して再生されることにより、動画像が表現される。
 原映像D1は、一例として、図4に示すように、5枚のフレームF1、F2、F3、F4及びF5を含んで構成されている。各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の原色データを有する。従って、各原色は、4096階調により表現される。
 図4に示すように、フレームF4内の一のピクセルの一の原色(R、G、Bのいずれか)701aは、4096階調により表現される。フレームF4内のその他のピクセルの原色702a、703a及び704aも、それぞれ、4096階調により表現される。
 図4においては、原色701aが有する階調を、階調表現711aにより、視覚的に表している。階調表現711aにおいては、4096個の升目を縦に並べ、一つの枡目により1階調を表現し、斜線によるハッチングが施された枡目の数により、原色701aの階調を表している。原色702a、703a及び704aについても、原色701aと同様に、階調表現712a、713a及び714aにおいて、ハッチングが施された枡目の数により、それらの原色の階調を表している。
 (2)記憶部112
 記憶部112は、一例として、ハードディスクユニットから構成されている。
 記憶部112は、圧縮差分データD9及びシフト量データD20を記憶するための領域を備えている。
 (3)第1変換部102
 第1変換部102は、以下に示すようにして、原映像D1に対して映像の階調を低下させる変換を施して、生成した第1変換映像D2を生成する。
 第1変換部102は、映像記憶部101から原映像D1を読み出し、読み出した原映像D1の各フレーム内の各ピクセルの原色毎に、原色データに第1変換を施す。
 ここで、第1変換は、一例として、原映像D1の12ビット長の原色データを、8ビット長の原色データに変換するアルゴリズムである。言い換えると、第1変換は、4096階調により表現される原色を256階調により表現される原色に変換する。例えば、第1変換は、12ビット長の原色データに対して、丸め込み(例えば、切り上げ)を施して、8ビット長の原色データを生成する。
 このようにして、第1変換部102は、原映像D1の各原色データに第1変換を施して、第1変換映像D2を生成する。第1変換映像D2は、複数のフレームから構成され、各フレームは、複数のピクセルが行列状に配されて構成され、各ピクセルは、R、G、Bの原色毎に、原色データを有する。ここで、各原色データは、8ビット長であり、各原色は、256階調により表現される。
 上述したように、原映像D1における12ビットの色深度は、映画制作会社における映画の制作過程において用いられるものであり、8ビットの色深度は、記録媒体において規定されているものである。映画制作会社において制作された原映像を、記録媒体において規定された色深度による映像に変換して記録媒体に記録するために、この第1変換が必要となる。
 こうして生成された第1変換映像D2は、一例として、図4に示すように、原映像D1のフレームF1、F2、F3、F4及びF5にそれぞれ対応するフレームF11、F12、F13、F14及びF15を含み、第1変換映像D2に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、8ビット長の原色データを有している。従って、各原色は、256階調により表現される。
 図4に示すように、フレームF14内の一のピクセルの一の原色(R、G、Bのいずれか)701bは、256階調により表現される。フレームF14内のその他のピクセルの原色702b、703b及び704bも、それぞれ、256階調により表現される。
 図4においては、原色701bが有する階調を、階調表現711bにより、視覚的に表している。階調表現711bにおいては、256個の升目を縦に並べ、一つの枡目により1階調を表現し、斜線によるハッチングが施された枡目の数により、原色701bの階調を表している。原色702b、703b及び704bについても、原色701bと同様に、階調表現712b、713b及び714bにおいて、ハッチングが施された枡目の数により、それらの原色の階調を表している。
 図4に示す第1変換映像D2の各原色データは、12ビット長の原映像D1の各原色データから8ビット長に変換されて生成されるので、12ビット長から8ビット長へ丸め込まれる際に、原映像D1の各原色データの一部の情報が欠落する。図4に示す階調表現711b、712b、713b及び714bにおいて、情報の欠落が発生している箇所を符号721b、722b、723b及び724bにより示している。
 第1変換部102は、生成した第1変換映像D2を第1圧縮部103へ出力する。
 (4)第1圧縮部103
 第1圧縮部103は、第1変換部102から第1変換映像D2を受け取り、受け取った第1変換映像D2に対して、映像の圧縮アルゴリズムを施して圧縮映像D3を生成する。ここで、映像の圧縮アルゴリズムについては、公知であり、説明を省略する。次に、生成した圧縮映像D3を第1記録部104へ出力する。また、生成した圧縮映像D3を伸張部105へ出力する。
 圧縮のアルゴリズムは、例えば、量子化符号のプロセスを含んでおり、このプロセスにおいて、情報の欠落が発生する。圧縮映像D3は、圧縮アルゴリズムにより生成された複数のコードから構成されており、圧縮映像D3については、そのままでは色深度の表現ができない。そこで、圧縮による情報欠落を説明するため、圧縮映像D3をさらに伸張して得られた再伸張映像D4を図4に示す。
 図4に示す再伸張映像D4は、第1変換映像D2のフレームF11、F12、F13、F14及びF15にそれぞれ対応するフレームF21、F22、F23、F24及びF25を含み、再伸張映像D4に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、8ビット長の原色データを有している。従って、各原色は、256階調により表現される。
 図4に示すように、フレームF24内の1箇所のピクセルの一の原色(R、G、Bのいずれか)701cは、256階調により表現される。フレームF24内のその他のピクセルの原色702c、703c及び704cも、それぞれ、256階調により表現される。
 図4においては、原色701c、702c、703c及び704cについて、原色701b等と同様に、階調表現711c、712c、713c及び714cにおいて、ハッチングが施された枡目の数により、それらの色の階調を表している。
 この図において、圧縮(量子化符号)効果により、情報が欠落した部分734cを示す。
 (5)第1記録部104
 第1記録部104は、第1圧縮部103から圧縮映像D3を受け取り、受け取った圧縮映像D3を記録媒体200及び記録媒体300に書き込む。
 (6)伸張部105
 伸張部105は、第1圧縮部103から圧縮映像D3を受け取り、又は、読出部106から圧縮映像D3を受け取る。それぞれから受け取った圧縮映像D3に対して、映像の伸張アルゴリズムを施して、再伸張映像D4を生成する。ここで、伸張のアルゴリズムについては、公知であるので説明を省略する。次に、伸張部105は、生成した再伸張映像D4をシフト部107へ出力する。
 再伸張映像D4の一例を図5に示す。なお、図5に示す再伸張映像D4の一例は、図4に示す再伸張映像D4の一例と同じものである。
 (7)シフト部107
 シフト部107は、伸張部105から再伸張映像D4を受け取る。次に、シフト部107は、映像記憶部101に記憶されている原映像D1が有する色深度に一致するものとなるように、受け取った再伸張映像D4の各フレームに含まれる各ピクセルの原色データを上位ビット側にビットシフトして、シフト再伸張映像D5を生成し、生成したシフト再伸張映像D5を差分演算部108へ出力する。
 ここで、原映像D1の各フレームに含まれる各ピクセルの各原色データは、12ビット長であり、再伸張映像D4の各フレームに含まれる各ピクセルの各原色データは、8ビット長であるので、シフト部107は、再伸張映像D4の各フレームに含まれる各ピクセルの原色データを最上位ビット側に4ビットだけシフトする。また、最下位の4ビットには、「0x0000」を詰める。ここで、「0x」に続く数値は、2進数による表現であることを示す。
 図5に一例として示すように、シフト再伸張映像D5は、再伸張映像D4に含まれるフレームの数と同じ数のフレームから構成され、再伸張映像D4のフレームF21、F22、F23、F24及びF25にそれぞれ対応するフレームF31、F32、F33、F34及びF35を含み、各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の原色データを有している。従って、各原色は、4096階調により表現される。図5に示すように、フレームF34内の一のピクセルの一の原色(R、G、Bのいずれか)701dは、4096階調により表現される。フレームF34内のその他のピクセルの原色702d、703d及び704dも、それぞれ、4096階調により表現される。
 図5においては、原色701d、702d、703d及び704dについて、原色701cと同様に、階調表現711d、712d、713d及び714dにおいて、ハッチングが施された枡目の数により、それらの色の階調を表している。
 このように、再伸張映像D4では、各原色は、256階調であったが、各原色データが上位側に4ビット分だけ、ビットシフトされることで、4096階調となっている。
 なお、シフト量は、記録媒体200及び記録媒体300に記憶されるどの圧縮映像D3について、同一値であってもよい。また、記録媒体200及び記録媒体300内の論理的な再生単位(BLU-RAY DISC(登録商標)でいうPlayList)毎に、変わってもよい。さらに、圧縮映像D3の単位(BLU-RAY DISC(登録商標)でいうClip)毎に、変わってもよい。
 (8)差分演算部108
 差分演算部108は、映像記憶部101から原映像D1を読み出し、シフト部107からシフト再伸張映像D5を受け取る。
 次に、読み出した原映像D1の各フレームの各ピクセルの各原色データと、受け取ったシフト再伸張映像D5の各フレームの各ピクセルの各原色データとの差分を計算し、計算した差分を含む差分データD7を生成する。差分データD7は、原映像D1に含まれるフレーム数と同数のフレームを含み、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に計算された差分を含む。
 図5に示す原映像D1には、原映像D1とシフト再伸張映像D5との差分721a、722a、723a及び724aが表現されている。
 差分演算部108により得られた差分データD7の一例を図6に示す。この図に示すように、差分データD7は、原映像D1に含まれるフレームF1、F2、F3、F4及びF5にそれぞれ対応するフレームF41、F42、F43、F44及びF45を含み、各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の差分を有している。
 この図に示すように、フレームF44は、一のピクセルの一の原色について、差分701eを有し、他のピクセルの原色について、差分702e、703e及び704eを有する。差分701eは、12ビット長である。差分701eの最上位ビット701eaは、符号ビットである。最上位ビット701eaが「0x0」のとき、差分701eは、正の値を有し、最上位ビット701eaが「0x1」のとき、差分701eは、負の値を有する。差分701eのうち、最上位ビット701eaを除く他のビット列701ebは、差分701eの表す数値の絶対値を示している。
 差分演算部108は、差分データD7をシフト量データ生成部109及び削減部110へ出力する。
 (9)シフト量データ生成部109
 シフト量データ生成部109は、差分演算部108から差分データD7を受け取る。
 次に、シフト量データ生成部109は、差分データD7に含まれるフレーム毎に、次のようにして、シフト量Pを決定する。
 (i)当該フレームについて、シフト量Pを4ビットとして仮に決定する。
 シフト量データ生成部109は、当該フレームの各ピクセル内の原色毎の差分について、
 (ii)12ビットの差分のうち、最上位の符号ビットを除いて、上位から4ビットが「0x0000」の場合、シフト量Pを4ビットとする。
 (iii )12ビットの差分のうち、最上位の符号ビットを除いて、上位から2ビットが「0x00」で、3ビット目及び4ビット目の両方又は一方が、「0x1」の場合、シフト量Pを2ビットとする。
 (iv)12ビットの差分のうち、最上位の符号ビットを除いて、上位から2ビットの両方又は一方が、「0x1」の場合、シフト量Pを0ビットとする。
 上記において、1枚のフレーム内において、(iv)、(iii )、(ii)の順に、シフト量Pを決定する。
 言い換えると、1枚のフレーム内において、いずれか一つの差分について、シフト量Pを0ビットと決定した場合には、当該フレームについて、シフト量Pを0ビットとする。
 1枚のフレーム内において、どの差分についても、シフト量Pを0ビットと決定しなかった場合に、いずれか一つの差分について、シフト量Pを2ビットと決定したときには、当該フレームについて、シフト量Pを2ビットとする。
 1枚のフレーム内において、どの差分についても、シフト量Pを0ビットと決定しなかった場合、かつ、どの差分についても、シフト量Pを2ビットと決定しなかった場合に、当該フレームについて、シフト量Pを4ビットとする。
 また、1枚のフレーム内において、シフト量Pは、ただ一つだけ決定される。
 シフト量データ生成部109は、こうして決定したシフト量Pを含むシフト量データD20を生成し、生成したシフト量データD20を削減部110へ出力し、生成したシフト量データD20を記憶部112へ書き込む。
 シフト量データD20の一例を図10に示す。この図に示すように、シフト量データD20は、フレームを一意に識別するフレーム番号とシフト量Pとを対応付けて含む。言い換えると、シフト量データD20は、フレーム番号とシフト量Pとからなる組を複数含んでいる。そのうちの第1の組は、フレーム番号153「1」とシフト量156「2」とからなり、第2の組は、フレーム番号155「2」とシフト量156「4」とからなり、L番目の組は、フレーム番号157「L」とシフト量158「0」とからなる。第1の組は、フレーム番号「1」により識別されるフレームについて、シフト量P「2」が設定されていることを示し、第2の組は、フレーム番号「2」により識別されるフレームについて、シフト量P「4」が設定されていることを示し、L番目の組は、フレーム番号「L」により識別されるフレームについて、シフト量P「0」が設定されていることを示している。
 また、シフト量データ生成部109は、圧縮映像を一意に識別する圧縮映像番号とシフト量Pとから構成される組を複数個含んでいるシフト量データを生成するとしてもよい。この場合には、シフト量は、一つの圧縮映像について、ただ一つ存在するものとする。
 シフト量データD20の別の一例を、シフト量データD20aとして、図9に示す。この図に示すように、シフト量データD20aは、属性151「シフト量」と値152
「2」とを対応付けて含む。これは、値152「2」がシフト量であることを示している。図9に示すシフト量データD20aは、ある映像の単位において、シフト量が固定であることを示している。記録媒体200及び記録媒体300に記録されている制御ファイルに、「属性:シフト量」と「値:2」とが追加されることで実現が可能である。例えば、BLU-RAY DISC(登録商標)の管理ファイルに追加することで、BLU-RAY DISC(登録商標)内の圧縮差分データD9のシフト量を指定することが可能である。
 シフト量データD20及びD20aは、必ずしも、圧縮映像D3とは、別個に記録媒体200に記録される必要はなく、圧縮映像D3に埋め込まれてもよい。
 また、シフト量データ生成部109は、図11に一例として示すように、データD20b1及びデータD20b2を含むシフト量データD20bを生成するとしてもよい。データD20b2は、図10に示すシフト量データD20と同一である。データD20b1は、属性155「最大シフト量」及び値156「4」を含む。ここで、最大シフト量は、データD20b2に含まれるシフト量のうち最大のシフト量を示し、その値は、「4」である。実際、データD20b2においては、最大のシフト量は、「4」である。
 シフト量データD20bを、例えば、記録媒体200及び記録媒体300に関連する管理ファイルに埋め込むことで、記録媒体200及び記録媒体300に記録された圧縮差分データD9を利用するときのシフトビット値の最大値を再生装置400に伝えることができる。記録媒体200及び記録媒体300に関連する管理ファイル以外にも、圧縮映像D3の論理的な再生単位(BLU-RAY DISC(登録商標)ではPlayListなど)、圧縮映像D3単位といったように、あらゆる単位で規定してもよい。
 (10)削減部110
 削減部110は、次に示すように、一次削減プロセス及び二次削減プロセスを経て、差分データD7のうちの余分なビットを削減し、システムで処理可能な固定階調の固定階調差分データD8を生成する。BLU-RAY DISC(登録商標)では、圧縮映像が8ビット階調であり、BLU-RAY DISC(登録商標)向けシステムLSIも多くが8ビット階調映像のデコードに最適化していることから、固定階調差分データD8も8ビット階調とすることで、LSI実装と親和性が高まる。
 削減部110は、シフト量データ生成部109からシフト量データD20を受け取る。また、差分演算部108から差分データD7を受け取る。
 次に、削減部110は、差分データD7に含まれるフレーム毎に、当該フレームに対応するシフト量Pをシフト量データD20から抽出する。
 次に、削減部110は、差分データD7に含まれるフレーム毎に、当該フレームの各ピクセル内の原色毎の差分について、一次削減プロセス及び二次削減プロセスを経て、固定階調差分データD8を生成する。
 (a)一次削減プロセス
 削減部110は、差分内の符号ビットを除いて、差分の上位からシフト量P分だけのビット列を取り除く。シフト量Pが0の場合には、元の差分をそのまま維持する。こうして、一次削減差分を生成する。
 (b)二次削減プロセス
 削減部110は、一次削減差分について、そのビット長が「8」となるように、次に示すようにして、固定階調差分を生成する。
 削減部110は、一次削減プロセスにより生成された一次削減差分のビット長が「8」であるか否かを判断する。
 一次削減差分のビット長が「8」である場合には、削減部110は、一次削減差分をそのまま維持し、固定階調差分とする。
 一次削減差分のビット長が「8」でない場合には、削減部110は、一次削減差分のビット長が「8」となるように、一次削減差分の下位ビットを取り除く。例えば、一次削減差分のビット長が「10」である場合には、一次削減差分の下位2ビットを取り除く。こうして、一次削減差分から下位ビットを取り除いて、固定階調差分を生成する。
 従って、一次削減差分に含まれる符号ビットは、固定階調差分の最上位ビットの符号ビットとしてそのまま残される。 [二次削減プロセス終了]
 削減部110は、こうして固定階調差分データD8を生成する。
 ここで、固定階調差分データD8は、差分データD7に含まれるフレームの数と同じ数のフレームから構成される。図6に一例として示すように、固定階調差分データD8は、差分データD7のフレームF41、F42、F43、F44及びF45にそれぞれ対応するフレームF51、F52、F53、F54及びF55を含み、各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、8ビット長の固定階調差分を有している。
 次に、削減部110は、生成した固定階調差分データD8を第2圧縮部111へ出力する。
 ここで、削減部110において生成される一次削減差分について、図7及び図8に示す具体例を用いて説明する。
 (i)差分データD7の各フレーム内の各ピクセルの各原色の差分について、シフト量Pが0の場合、削減部110は、当該差分の削減をしない。
 シフト量Pが0であるので、削減部110は、図8に一例として示すように、差分801e、801f及び801gについては、削減を行わず、それぞれ、差分801e、801f及び801gと同一の一次削減差分802e、802f及び802gを生成する。ここで、差分801e、801f及び801gについては、それぞれ、最上位の符号ビット801ea、801fa及び801gaを除いて、上位から2ビットの両方又は一方が、「0x1」である。
 (ii)差分データD7の各フレーム内の各ピクセルの各原色の差分について、シフト量Pが2の場合、削減部110は、当該差分から2ビットのビット列を削減する。
 シフト量Pが2であるので、削減部110は、図7に一例として示すように、差分801b、801c及び801dについて、最上位の符号ビットを除いて、上位から2ビット「0x00」を取り除き、それぞれ、一次削減差分802b、802c及び802dを生成する。ここで、差分801b、801c及び801dについては、それぞれ、最上位の符号ビット801ba、801ca及び801daを除いて、上位から2ビットが「0x00」で、3ビット目及び4ビット目の両方又は一方が、「0x1」である。
 (iii)差分データD7の各フレーム内の各ピクセルの各原色の差分について、シフト量Pが4の場合、削減部110は、当該差分から4ビットのビット列を削減する。
 シフト量Pが4であるので、削減部110は、図7に一例として示すように、差分801aについて、最上位の符号ビットを除いて、上位から4ビット「0x0000」を取り除き、一次削減差分802aを生成する。ここで、差分801aについては、最上位の符号ビット801aaを除いて、上位から4ビットが「0x0000」である。
 また、削減部110において生成される固定階調差分について、図7及び図8に示す具体例を用いて説明する。
 図7に一例として示すように、一次削減差分802aは、そのビット長が「8」であるので、一次削減差分802aは、固定階調差分803aとして、そのまま、維持される。
 一次削減差分802b、802c及び802dは、それぞれのビット長が「10」であるので、それぞれの最下位2ビットが取り除かれ、残りのビット列が、固定階調差分803b、803c及び803dとなる。
 図8に一例として示すように、一次削減差分802e、802f及び802gは、それぞれのビット長が「12」であるので、それぞれの最下位4ビットが取り除かれ、残りのビット列が、固定階調差分803e、803f及び803gとなる。
 (11)第2圧縮部111
 第2圧縮部111は、削減部110から固定階調差分データD8を受け取り、受け取った固定階調差分データD8に圧縮アルゴリズムを施して、圧縮差分データD9を生成する。
 ここで、圧縮アルゴリズムは、第1圧縮部103において用いられる圧縮アルゴリズムと同一のものである。
 第2圧縮部111は、生成した圧縮差分データD9を記憶部112へ書き込む。
 (12)第2記録部113
 第2記録部113は、記憶部112から圧縮差分データD9及びシフト量データD20を読み出し、読み出した圧縮差分データD9及びシフト量データD20を記録媒体200に書き込む。
 (13)読出部106
 読出部106は、記録媒体300から圧縮映像D3を読み出し、読み出した圧縮映像D3を、伸張部105へ出力する。また、記録媒体300から、記録媒体識別ID(D21)を読み出し、読み出した記録媒体識別ID(D21)を送信部114へ出力する。
 (14)送信部114
 送信部114は、記憶部112から圧縮差分データD9及びシフト量データD20を読み出し、読み出した圧縮差分データD9及びシフト量データD20を配信サーバ装置600へ送信する。また、送信部114は、読出部106から記録媒体識別ID(D21)を受け取り、受け取った記録媒体識別ID(D21)を配信サーバ装置600へ送信する。
 (15)制御部115
 制御部115は、制作装置100を構成する全ての構成要素の動作を制御する。
 2.3 制作装置100における記録媒体の制作プロセス
 制作装置100における記録媒体の制作プロセスについて、図12を用いて説明する。
 第1変換部102は、映像記憶部101から原映像D1を読み出し、第1変換を施して、第1変換映像D2を生成し、第1変換映像D2を第1圧縮部103へ出力する(ステップS101)。
 第1圧縮部103は、第1変換部102から受け取った第1変換映像D2に対して、圧縮アルゴリズムを施して圧縮映像D3を生成し、生成した圧縮映像D3を伸張部105及び第1記録部104へ出力する(ステップS102)。
 第1記録部104は、第1圧縮部103から圧縮映像D3を受け取り、受け取った圧縮映像D3を記録媒体200及び記録媒体300に記録する(ステップS103)。
 伸張部105は、第1圧縮部103から、又は、読出部106から圧縮映像D3を受け取り、受け取った圧縮映像D3に対して、伸張アルゴリズムを施して、再伸張映像D4を生成し、生成した再伸張映像D4をシフト部107へ出力する(ステップS104)。
 シフト部107は、伸張部105から受け取った再伸張映像D4の各フレームに含まれる各ピクセルの原色データをビットシフトして、シフト再伸張映像D5を生成し、生成したシフト再伸張映像D5を差分演算部108へ出力する(ステップS105)。
 差分演算部108は、原映像D1の各フレームの各ピクセルの原色データと、シフト再伸張映像D5の各フレームの各ピクセルの原色データとの差分を計算し、計算した差分を含む差分データD7を生成し、生成した差分データD7をシフト量データ生成部109及び削減部110へ出力する(ステップS106)。
 シフト量データ生成部109は、差分データD7からシフト量データD20を生成し、生成したシフト量データD20を削減部110へ出力し、生成したシフト量データを記憶部112へ書き込む(ステップS107)。
 削減部110は、差分データD7から固定階調差分データD8を生成し、生成した固定階調差分データD8を第2圧縮部111へ出力する(ステップS108)。
 第2圧縮部111は、削減部110から受け取った固定階調差分データD8に圧縮アルゴリズムを施して、圧縮差分データD9を生成し、生成した圧縮差分データD9を記憶部112へ書き込む(ステップS109)。
 第2記録部113は、記憶部112から読み出した圧縮差分データD9及びシフト量データD20を記録媒体200に書き込む(ステップS110)。
 読出部106は、記録媒体300から読み出した圧縮映像D3を、伸張部105へ出力する(ステップS111)。
 送信部114は、記憶部112から読み出した圧縮差分データD9及びシフト量データD20を配信サーバ装置600へ送信する(ステップS112)。
 2.4 記録媒体200のデータ構造
 図13に、記録媒体200のデータ構造を示す。
 記録媒体200は、図13に示すように、記録媒体識別ID記憶領域210、圧縮映像記憶領域220、圧縮差分データ記憶領域230及びシフト量データ記憶領域240から構成される。
 記録媒体識別ID記憶領域210は、記録媒体識別ID(D21)を記憶するための領域である。BLU-RAY DISC(登録商標)では、記録媒体を識別するIDとして利用可能な情報の一例として、AACSディレクトリの中に記録されているAACS Content Certificate Fileの一部領域であるContent Certificate IDがある。
 圧縮映像記憶領域220は、圧縮映像D3を記憶するための領域である。BLU-RAY DISC(登録商標)では、BDMVディレクトリの下のSTREAMディレクトリの中に、M2TSファイルが記録されており、これが圧縮映像D3の一例である。
 圧縮差分データ記憶領域230は、圧縮差分データD9を記憶するための領域である。
 シフト量データ記憶領域240は、シフト量データD20を記憶するための領域である。
 2.5 記録媒体300のデータ構造
 図14に、記録媒体300のデータ構造を示す。
 記録媒体300は、図14に示すように、記録媒体識別ID記憶領域310及び圧縮映像記憶領域320から構成される。
 なお、記録媒体300は、圧縮差分データD9及びシフト量データD20を記録しない。
 記録媒体識別ID記憶領域310は、記録媒体識別ID(D22)を記憶するための領域である。BLU-RAY DISC(登録商標)では、記録媒体300を識別するIDとして利用可能な情報の一例として、AACSディレクトリの中に記録されているAACS Content Certificate Fileの一部領域であるContent Certificate IDがある。
 圧縮映像記憶領域320は、圧縮映像D3を記憶するための領域である。BLU-RAY DISC(登録商標)では、BDMVディレクトリの下のSTREAMディレクトリの中に、M2TSファイルが記録されており、これが圧縮映像D3の一例である。
 2.6 再生装置400の構成
 再生装置400は、記録媒体に記録されている流通コンテンツを再生する。
 図15に再生装置400の構成を示す。
 再生装置400は、図15に示すように、読出部401、第1伸張部402、第1シフト部403、合成部404、第3シフト部405、出力部406、シフト量解析部407、第2伸張部408、第2シフト部409、送信部410、内蔵記憶部411、記録部412、受信部413及び制御部414から構成される。
 再生装置400は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、再生装置400の読出部401、第1伸張部402、第1シフト部403、合成部404、第3シフト部405、出力部406、シフト量解析部407、第2伸張部408、第2シフト部409、送信部410、記録部412、受信部413及び制御部414は、その機能を達成する。
 (1)内蔵記憶部411
 内蔵記憶部411は、一例として、ハードディスクユニットから構成される。
 内蔵記憶部411は、圧縮差分データD9及びシフト量データD20を記憶するための領域を備えている。
 (2)読出部401
 読出部401は、記録媒体200から、圧縮映像D3、圧縮差分データD9及びシフト量データD20を読み出し、読み出した圧縮映像D3を第1伸張部402へ出力し、読み出した圧縮差分データD9を第2伸張部408へ出力し、読み出したシフト量データD20をシフト量解析部407へ出力する。
 また、読出部401は、記録媒体300から、圧縮映像D3及び記録媒体識別ID(D21)を読み出し、読み出した圧縮映像D3を第1伸張部402へ出力し、読み出した記録媒体識別ID(D21)を送信部410へ出力する。
 さらに、読出部401は、外部記憶装置500及び内蔵記憶部411のいずれか一方から、圧縮差分データD9及びシフト量データD20を読み出し、読み出した圧縮差分データD9を第2伸張部408へ出力し、読み出したシフト量データD20をシフト量解析部407へ出力する。
 (3)第2伸張部408
 第2伸張部408は、読出部401から受け取った圧縮差分データD9を伸張し、固定階調差分データD8を生成し、生成した固定階調差分データD8を第2シフト部409へ出力する。
 図17に、固定階調差分データD8の一例を示す。
 (4)シフト量解析部407
 シフト量解析部407は、あらかじめ、オフセットシフト量Nを記憶している。オフセットシフト量Nは、再生装置400からの出力先の装置により定まる値であり、出力先の装置において映像が処理される際に、当該出力先の装置において要求される映像内のピクセルの各原色データのビット長である。
 シフト量解析部407は、オフセットシフト量Nを読み出す。
 シフト量解析部407は、読出部401からシフト量データD20を受け取る。シフト量データD20を受け取ると、シフト量解析部407は、受け取ったシフト量データD20を解析する。
 受け取ったシフト量データD20が、図9に示すように、属性151「シフト量」を含む場合には、シフト量解析部407は、値152「2」をシフト量Pとしてシフト量データD20から読み出す。
 受け取ったシフト量データD20が、図10に示すように、フレーム番号及びシフト量の組を複数含む場合には、シフト量解析部407は、各組のフレーム番号及びシフト量をシフト量データD20から読み出す。ここで、読み出したシフト量をシフト量Pとする。
 受け取ったシフト量データD20が、図示していない圧縮映像番号及びシフト量の組を複数含む場合には、シフト量解析部407は、各組の圧縮映像番号及びシフト量をシフト量データD20から読み出す。ここで、読み出したシフト量をシフト量Pとする。
 受け取ったシフト量データD20が、図11に示すように、シフト量データD20bである場合には、シフト量解析部407は、値156「4」を最大シフト量としてシフト量データD20bから読み出す。また、フレーム番号とシフト量の複数の組D20b2を読み出す。ここで、読み出したシフト量をシフト量Pとする。
 ここで、受け取ったシフト量データD20が図11に示すシフト量データD20bである場合には、シフト量データD20bから読み出した最大シフト量をオフセットシフト量Mとする。
 受け取ったシフト量データD20が図10に示すシフト量データD20である場合には、シフト量データD20の中から最大のシフト量を抽出し、抽出した最大のシフト量を最大シフト量とし、この最大シフト量をオフセットシフト量Mとする。
 受け取ったシフト量データが図9に示すタイプである場合には、映像のフレームやGOP、シーンなどの単位で、各ピクセルのシフト量を確認して、その中から最大のシフト量を抽出し、抽出した最大のシフト量をオフセットシフト量Mとする。
 シフト量解析部407は、第1シフト部403にオフセットシフト量Mを出力して、ビットシフトを指示する。また、シフト量解析部407は、第2シフト部409にシフト量(M-P)を出力して、ビットシフトを指示する。さらに、シフト量解析部407は、第3シフト部405にシフト量(N-M)を出力して、ビットシフトを指示する。
 (5)第2シフト部409
 第2シフト部409は、シフト量解析部407から、シフトの指示とともに、シフト量(M-P)を受け取る。また、第2伸張部408から固定階調差分データD8を受け取る。
 第2シフト部409は、第2伸張部408から受け取った固定階調差分データD8の各フレームの各ピクセルにおける原色データ毎に、シフト量解析部407に指定されたシフト量(M-P)分だけビットシフトさせることにより、シフト差分データD11を生成する。
 一例として図17に示すように、固定階調差分データD8は、フレームF51、F52、F53、F54及びF55を含み、各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、8ビット長の固定階調差分を有している。フレームF54には、固定階調差分701f、702f、703f及び704fが含まれている。一例として、固定階調差分701fは、図17に示すように、符号ビット701fa及び絶対値701fbを含んでいる。
 第2シフト部409は、固定階調差分701fについて、符号ビット701faをそのまま維持し、絶対値701fbを、上位側に(M-P)ビットだけビットシフトし、下位側には、(M-P)ビットの「0x0」を詰める。こうして、第2シフト部409は、図17に一例として示すように、シフト差分701hを生成する。
 シフト差分701hは、符号ビット701ha、絶対値701hb及び絶対値701hcから構成される。符号ビット701haは、符号ビット701faと同じ値を有する。絶対値701hbは、絶対値701fbと同じ値を有する。絶対値701hcは、(M-P)ビットの「0x0」である。
 シフト差分データD11は、固定階調差分データD8が有するフレーム数と同数のフレームから構成される。シフト差分データD11は、図17に示すように、固定階調差分データD8のフレームF51、F52、F53、F54及びF55にそれぞれ対応するフレームF71、F72、F73、F74及びF75を含み、シフト差分データD11に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長のシフト差分を有している。
 次に、第2シフト部409は、生成したシフト差分データD11を合成部404へ出力する。
 (6)第1伸張部402
 第1伸張部402は、読出部401から圧縮映像D3を受け取る。圧縮映像D3を受け取ると、第1伸張部402は、受け取った圧縮映像D3に伸張アルゴリズムを施して、再伸張映像D4を生成する。ここで、伸張アルゴリズムは、制作装置100の伸張部105において用いる伸張アルゴリズムと同一のものである。次に、生成した再伸張映像D4を第1シフト部403へ出力する。
 図16に再伸張映像D4の一例を示す。再伸張映像D4は、この図に示すように、フレームF21、F22、F23、F24及びF25を含み、再伸張映像D4に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、8ビット長の原色データを有している。フレームF24は、1箇所のピクセルにおいて、原色701cを含み、その他のピクセルにおいて、原色702c、703c及び704cを含む。
 (7)第1シフト部403
 第1シフト部403は、シフト量解析部407からシフトの指示とともに、オフセットシフト量Mを受け取る。また、第1伸張部402から再伸張映像D4を受け取る。
 第1シフト部403は、受け取った再伸張映像D4の各フレームの各ピクセルにおける原色データ毎に、シフト量解析部407に指定されたオフセットシフト量M分だけビットシフトさせ、シフト映像D10を生成する。
 図16に、シフト映像D10の一例を示す。この図に示すように、再伸張映像D4の原色701cは、8ビット長である。第1シフト部403は、原色701cに対して、オフセットシフト量M分だけ、上位側にビットシフトさせ、最下位からM個の「0x0」を詰める。こうして、原色701gを生成する。原色701gは、上位側に、原色701cと同じ値を有し、下位側に、M個の「0x0」を有する。
 こうして生成されたシフト映像D10は、再伸張映像D4が有するフレーム数と同数のフレームを含む。シフト映像D10は、図16に示すように、再伸張映像D4のフレームF21、F22、F23、F24及びF25に対応して、フレームF61、F62、F63、F64及びF65を含み、シフト映像D10に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の原色データを有している。従って、各原色は、4096階調により表現される。   
 第1シフト部403は、生成したシフト映像D10を合成部404へ出力する。
 (8)合成部404
 合成部404は、第1シフト部403からシフト映像D10を受け取り、第2シフト部409からシフト差分データD11を受け取る。シフト映像D10及びシフト差分データD11を受け取ると、各フレームの各ピクセルについて、原色データ毎に、シフト映像D10の原色データとシフト差分データの原色データとを加算し、合成映像D12を生成する。
 シフト映像D10は、一例として、図18に示すように、フレームF61、F62、F63、F64及びF65を含み、シフト映像D10に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の原色データを有している。フレームF64は、原色701g、702g、703g及び704gを含む。
 また、シフト差分データD11は、一例として、図18に示すように、フレームF71、F72、F73、F74及びF75を含み、シフト差分データD11に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長のシフト差分を有している。フレームF74は、シフト差分701h、702h、703h及び704hを含む。
 合成部404は、原色701g及びシフト差分701hを加算して、原色701iを生成する。
 合成映像D12は、一例として、図18に示すように、シフト映像D10及びシフト差分データD11にそれぞれ含まれるフレーム数と同数のフレームを含む。合成映像D12は、この図に示すように、シフト映像D10のフレームF61、F62、F63、F64及びF65に対応して、フレームF81、F82、F83、F84及びF85を含み、合成映像D12に含まれる各フレームには、複数個のピクセルが行列状に配されている。それぞれのピクセルは、R、G、Bの原色毎に、12ビット長の原色データを有している。従って、各原色は、4096階調を有する。
 次に、合成部404は、生成した合成映像D12を第3シフト部405へ出力する。
 図16に示す再伸張映像D4は、8ビット長の各原色データを有しており、各原色は、256階調を有している。これに対して、図18に示す合成映像D12は、12ビット長の各原色データを有しており、各原色は、4096階調を有している。このため、合成映像D12においては、階調表現が改善されていることが分かる。
 (9)第3シフト部405
 第3シフト部405は、シフト量解析部407から、シフトの指示とともに、シフト量(N-M)を受け取り、合成部404から、合成映像D12を受け取る。
 次に、第3シフト部405は、受け取った合成映像D12の各フレームの各ピクセルについて、原色毎に、原色データをシフト量解析部407から受け取ったシフト量(N-M)だけ、ビットシフトし、シフト合成映像D13を生成する。次に、生成したシフト合成映像D13を出力部406へ出力する。
 ここで、シフト合成映像D13は、複数のフレームを含み、各フレームは、複数のピクセルが行列状に配され、各ピクセルは、原色毎に、原色データを有する。
 (10)出力部406
 出力部406は、第3シフト部405からシフト合成映像D13を受け取り、受け取ったシフト合成映像D13に対して、出力前のイメージ加工を行い、加工後の映像をモニタなどの外部の表示装置へ出力する。
 (11)送信部410
 送信部410は、読出部401から、記録媒体300の記録媒体識別ID(D21)を受け取り、受け取った記録媒体識別ID(D21)を配信サーバ装置600に送信する。
 (12)受信部413
 受信部413は、配信サーバ装置600から、圧縮差分データD9及びシフト量データD20を受信し、受信した圧縮差分データD9及びシフト量データD20を記録部412へ出力する。
 (13)記録部412
 記録部412は、受信部413から圧縮差分データD9及びシフト量データD20を受信し、再生装置400の視聴者の指示に従って、受信した圧縮差分データD9及びシフト量データD20を内蔵記憶部411及び外部記憶装置500のいずれか一方に記録する。
 2.7 外部記憶装置500の構成
 図19に、外部記憶装置500の構成を示す。
 外部記憶装置500は、図19に示すように、情報記憶部501及び入出力部502から構成され、情報記憶部501は、記録媒体識別ID記憶領域510、圧縮差分データ記憶領域520及びシフト量データ記憶領域530を備える。
 記録媒体識別ID記憶領域510は、記録媒体識別ID(D21)を記憶するための領域である。BLU―RAY DISC(登録商標)では、記録媒体を識別するIDとして利用可能な情報の一例として、AACSディレクトリの中に記録されているAACS Content Certificate Fileの一部領域であるContent Certificate IDや、ROM Mark技術で保護されて記録されているVolume IDなどがある。
 圧縮差分データ記憶領域520は、圧縮差分データD9を記憶するための領域である。記録媒体200は、圧縮差分データD9を記録媒体200内に記録している。これに対して、記録媒体300は、圧縮差分データD9を記録せずに制作されており、この場合、外部記憶装置500に記憶することが考えられる。
 シフト量データ記憶領域530は、シフト量データD20を記憶するための領域である。記録媒体200は、シフト量データD20を記録媒体200内に記録している。これに対して、記録媒体300は、シフト量データD20を記録せずに制作されており、この場合、外部記憶装置500に記憶することが考えられる。
 2.8 配信サーバ装置600の構成
 配信サーバ装置600は、圧縮差分データD9及びシフト量データD20を視聴者が有する再生装置400に提供する。
 図20に、配信サーバ装置600の構成を示す。
 配信サーバ装置600は、図20に示すように、受信部610、情報記憶部620、送信部630及び制御部640から構成されている。
 配信サーバ装置600は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、配信サーバ装置600は、その機能を達成する。
 (1)受信部610
 受信部610は、制作装置100から、記録媒体識別ID(D21)、圧縮差分データD9、シフト量データD20を受信する。また、受信部610は、再生装置400から記録媒体識別ID(D21)を受信する。
 制作装置100から、記録媒体識別ID(D21)、圧縮差分データD9及びシフト量データD20を受信すると、受信部610は、記録媒体識別ID(D21)、圧縮差分データD9及びシフト量データD20を組として、制御部640へ出力する。再生装置400から記録媒体識別ID(D21)を受信すると、受信した記録媒体識別ID(D21)を制御部640へ出力する。
 (2)制御部640
 制御部640は、受信部610から、記録媒体識別ID(D21)、圧縮差分データD9、シフト量データD20を受け取ると、受け取った記録媒体識別ID(D21)、圧縮差分データD9、シフト量データD20を、組として、情報記憶部620に書き込む。
 制御部640は、受信部610から、記録媒体識別ID(D21)を受信すると、情報記憶部620から、受信した記録媒体識別ID(D21)に対応して、記憶されている圧縮差分データD9及びシフト量データD20を組として、読み出し、読み出した圧縮差分データD9及びシフト量データD20を、再生装置400へ送信するように、送信部630を制御する。
 (3)情報記憶部620
 情報記憶部620は、受信部610が受信した記録媒体識別ID(D21)、圧縮差分データD9、シフト量データD20を組として記憶するための領域を備える。
 (4)送信部630
 送信部630は、制御部640から、圧縮差分データD9及びシフト量データD20を受け取り、受け取った圧縮差分データD9及びシフト量データD20を、再生装置400に送信する。
 2.9 コンテンツ配信システム10の動作
 コンテンツ配信システム10の動作について説明する。
 (1)制作装置100の動作
 制作装置100の動作について、図21に示すフローチャートを用いて説明する。
 制作装置100の制御部115は、図示していない入力受付部から、利用者の入力を受け付ける。利用者の入力は、記録媒体200の制作、記録媒体300の制作及び配信サーバ装置への配信のいずれか一つの指示である(ステップS201)。
 制御部115は、利用者の入力が、記録媒体200の制作、記録媒体300の制作及び配信サーバ装置への配信のいずれであるかを判断する(ステップS202)。
 利用者の入力が記録媒体200の制作を示す場合には(ステップS202で「記録媒体200の制作」)、制御部115は、制作装置100が記録媒体200の制作をするように制御する(ステップS203)。
 利用者の入力が記録媒体300の制作を示す場合には(ステップS202で「記録媒体300の制作」)、制御部115は、制作装置100が記録媒体300の制作をするように制御する(ステップS204)。
 利用者の入力が配信サーバ装置600への送信を示す場合には(ステップS202で「配信サーバ装置への送信」)、制御部115は、制作装置100が配信サーバ装置へ送信するように制御する(ステップS205)。
 (2)制作装置100による記録媒体300の制作の動作
 制作装置100による記録媒体300の制作の動作について、図22に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図21のステップS204の詳細である。
 第1変換部102は、映像記憶部101から読み出した原映像D1に、第1変換を施して第1変換映像D2を生成し(ステップS221)、第1圧縮部103は、第1変換映像D2を圧縮して、圧縮映像D3を生成し(ステップS222)、第1記録部104は、圧縮映像D3を記録媒体300に記録する(ステップS223)。
 (3)制作装置100による記録媒体200の制作の動作
 制作装置100による記録媒体200の制作の動作について、図23に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図21のステップS203の詳細である。
 第1変換部102は、映像記憶部101から読み出した原映像D1に、第1変換を施して、第1変換映像D2を生成し(ステップS240)、第1圧縮部103は、第1変換映像D2を圧縮して、圧縮映像D3を生成する(ステップS241)。
 伸張部105は、第1圧縮部103により生成された圧縮映像D3を伸張して、再伸張映像D4を生成する(ステップS242)。
 シフト部107は、伸張部105により生成された再伸張映像D4をビットシフトし、シフト再伸張映像D5を生成する(ステップS243)。
 差分演算部108は、原映像D1とシフト再伸張映像D5との差分を演算し、差分データD7を生成する(ステップS244)。
 シフト量データ生成部109は、シフト量データD20を生成する(ステップS245)。
 削減部110は、固定階調差分データD8を生成する(ステップS246)。
 第2圧縮部111は、固定階調差分データD8を圧縮して、圧縮差分データD9を生成する(ステップS247)。
 第1記録部104は、圧縮映像D3を記録媒体200に記録し(ステップS248)、第2記録部113は、記憶部112が記憶している圧縮差分データD9とシフト量データD20を記録媒体200に記録する(ステップS249~S250)。
 (4)制作装置100によるシフト量データの生成の動作
 制作装置100のシフト量データ生成部109によるシフト量データの生成の動作について、図24に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図23のステップS245の詳細である。
 シフト量データ生成部109は、差分演算部108から差分データD7を受け取る(ステップS270)。
 次に、シフト量データ生成部109は、差分データD7に含まれる全てのフレームについて、フレーム毎に、以下に示すステップS272~282を繰り返す(ステップS271~S283)。
 シフト量データ生成部109は、仮にシフト量Pを「4」に設定し(ステップS272)、判断用のフラグSWを「0」に設定する。
 シフト量データ生成部109は、1フレーム内の全てのピクセルの原色データ毎に、以下に示すステップS275~277を繰り返す(ステップS274~S278)。
 シフト量データ生成部109は、当該原色に対する原色データのうち、符号ビットを除く最上位2ビットが「00」であるか、又は、その他(「01」、「10」又は「1
1」)であるかを判断する(ステップS275)。
 符号ビットを除く最上位2ビットがその他であると判断する場合、つまり、符号ビットを除く最上位2ビットが「01」、「10」及び「11」のいずれかであると判断する場合(ステップS275で、「01」、「10」又は「11」)、シフト量データ生成部109は、シフト量Pを「0」に設定し(ステップS281)、1フレーム内の繰返しを終了し、ステップS282へ制御を移す。
 符号ビットを除く最上位2ビットが「00」であると判断する場合、(ステップS275で、「00」)、シフト量データ生成部109は、符号ビットを除く最上位2ビットに後続する次の2ビットについて、「00」であるか、又は、その他(「01」、「10」又は「11」)であるかを判断する(ステップS276)。
 符号ビットを除く最上位2ビットに後続する次の2ビットが「00」であると判断する場合(ステップS276で、「00」)、シフト量データ生成部109は、何もしない。
 符号ビットを除く最上位2ビットに後続する次の2ビットがその他であると判断する場合、つまり、符号ビットを除く最上位2ビットに後続する次の2ビットが「01」、「10」及び「11」のいずれかであるか判断する場合(ステップS276で、「01」、「10」又は「11」)、シフト量データ生成部109は、フラグSWを「1」に設定する(ステップS277)。
 ステップS274~S278において、1フレーム内の全てのピクセルの原色データ毎の繰返しが終了すると、シフト量データ生成部109は、フラグSWが「1」であるか否かを判断する(ステップS279)。
 フラグSWが「1」であると判断する場合(ステップS279で「=1」)、シフト量データ生成部109は、シフト量Pを「2」に設定する(ステップS280)。一方、フラグSWが「0」であると判断する場合(ステップS279で「=0」)、シフト量データ生成部109は、何もしない。
 次に、シフト量データ生成部109は、フレーム番号とシフト量Pを対応付けて、シフト量データD20に書き込む(ステップS282)。
 ステップS271~S283において、フレーム毎の繰返しが終了すると、シフト量データ生成部109は、シフト量データの生成処理を終了する。
 (5)制作装置100による固定階調差分データの生成の動作
 制作装置100の削減部110による固定階調差分データの生成の動作について、図25に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図23のステップS246の詳細である。
 削減部110は、シフト量データ生成部109からシフト量データD20を受け取り、差分演算部108から差分データD7を受け取る(ステップS340)。
 次に、削減部110は、差分データD7に含まれる全てのフレームについて、フレーム毎に、以下に示すステップS342~347を繰り返す(ステップS341~S348)。
 削減部110は、シフト量データD20から、フレームに対応するシフト量Pを抽出する(ステップS342)。
 次に、削減部110は、1フレーム内の全てのピクセルの原色データ毎に、以下に示すステップS344~346を繰り返す(ステップS343~S347)。
 削減部110は、符号ビットを除き、上位からシフト量P分だけ、ビット列を取り除いて一次削減差分を生成する(ステップS344)。
 次に、削減部110は、一次削減差分のビット長が「8」であるか否かを判断する(ステップS345)。一次削減差分のビット長が「8」でないと判断する場合(ステップS345)、ビット長が「8」となるように、下位ビットを削除して固定階調差分を生成する(ステップS346)。一次削減差分のビット長が「8」であると判断する場合(ステップS345)、削減部110は、何もしない。言い換えると、一次削減差分が維持され、そのまま固定階調差分となる。
 ステップS343~S347において、1フレーム内の全てのピクセルの原色データ毎の繰返しが終了し、ステップS341~S348において、フレーム毎の繰返しが終了すると、削減部110は、固定階調差分データの生成処理を終了する。
 (6)制作装置100から配信サーバ装置600への送信の動作
 制作装置100から配信サーバ装置600へ圧縮差分データD9及びシフト量データD20を送信する際の動作について、図26に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図21のステップS205の詳細である。
 制作装置100と配信サーバ装置600との間で通信の接続を確立する(ステップS300)。
 次に、制作装置100の読出部106は、記録媒体300から、圧縮映像D3を読み出す(ステップS301)。次に、伸張部105は、読み出した圧縮映像D3を伸張して、再伸張映像D4を生成する(ステップS302)。次に、シフト部107は、再伸張映像D4をビットシフトして、シフト再伸張映像D5を生成する(ステップS303)。
 差分演算部108は、映像記憶部101が記憶する原映像D1とシフト再伸張映像D5の差分を演算して、差分データD7を生成する(ステップS304)。
 シフト量データ生成部109は、差分データD7を用いてシフト量Pを算出し、シフト量データD20を生成する(ステップS305)。ここで、シフト量データD20の生成の詳細は、図24に示す通りである。
 削減部110は、差分データD7の階調を削減して、固定階調差分データD8を生成する(ステップS306)。ここで、固定階調差分データD8の生成の詳細は、図25に示す通りである。
 第2圧縮部111は、固定階調差分データD8を圧縮して、圧縮差分データD9を生成し、記憶部112に圧縮差分データD9を書き込む(ステップS307)。
 読出部106は、記録媒体300から記録媒体識別ID(D21)を読み出し、読み出した記録媒体識別ID(D21)を送信部114へ出力する(ステップS308)。
 送信部114は、読出部106から記録媒体識別ID(D21)を受け取り、記憶部112から圧縮差分データD9及びシフト量データD20を読み出し、受け取った記録媒体識別ID(D21)、読み出した圧縮差分データD9及びシフト量データD20を配信サーバ装置600へ送信する(ステップS309~S311)。
 配信サーバ装置600の受信部610は、記録媒体識別ID(D21)、圧縮差分データD9及びシフト量データD20を受信し(ステップS309~S311)、制御部640は、受信した記録媒体識別ID(D21)、圧縮差分データD9及びシフト量データD20を情報記憶部620へ書き込む(ステップS312)。
 (7)再生装置400によるコンテンツの再生の動作
 再生装置400によるコンテンツの再生の動作について、図27に示すフローチャートを用いて説明する。
 視聴者により再生装置400に記録媒体が挿入されると(ステップS401)、制御部414は、読出部401を介して、挿入された記録媒体に、圧縮差分データD9及びシフト量データD20が記録されているか否かを判断する。言い換えると、記録媒体の種別を判断する(ステップS402)。当該記録媒体に圧縮差分データD9及びシフト量データD20が記録されていると判断する場合には、当該記録媒体は、記録媒体200であると決定する。一方、当該記録媒体に圧縮差分データD9及びシフト量データD20が記録されていないと判断する場合には、当該記録媒体は、記録媒体300であると決定する。
 挿入された記録媒体が記録媒体200である場合(ステップS402で「記録媒体200」)、再生装置400は、記録媒体200のBit拡張再生を行う(ステップS403)。一方、挿入された記録媒体が記録媒体300である場合(ステップS402で「記録媒体300」)、再生装置400は、圧縮差分データ等のダウンロードを行い(ステップS404)、記録媒体300のBit拡張再生を行う(ステップS405)。
 (8)記録媒体200のBit拡張再生の動作
 再生装置400は、記録媒体200に記録されている圧縮映像D3、圧縮差分データD9及びシフト量データD20を用いて、圧縮映像D3をビット拡張して再生する。ここでは、記録媒体200に記録されたコンテンツの再生装置400によるBit拡張再生の動作について、図28に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図27のステップS403の詳細である。
 再生装置400は、圧縮映像D3の再生前に、前処理(1)を行う(ステップS410a)。なお、前処理(1)の詳細については、後述する。
 次に、シフト量解析部407は、読出部401により記録媒体200から読み出されたシフト量データD20を解析して、図10に示すシフト量データD20がディスク単位で記載されていないか、図9に示すシフト量データD20aが圧縮映像D3単位で記載されていないか確認する。ディスク単位、又は、圧縮映像D3単位でシフト量が規定されている場合、シフト量解析部407は、第2シフト部409に、ディスク単位又は圧縮映像D3単位でシフト量Pを指定して、ビットシフトをするよう指示する(ステップS412)。
 第2伸張部408は、ステップS412による処理と並行して、読出部401により記録媒体200から読み出された圧縮差分データD9を伸張して、固定階調差分データD8を生成する(ステップS413)。
 第2シフト部409は、シフト量解析部407から指定された、オフセットシフト量(Mビット)と、シフト量Pとを用いて、実シフト量(M-P)ビットを計算する。ディスク単位指定の場合は、ディスクに含まれる全ての圧縮差分データD9から生成した固定階調差分データD8を(M-P)ビット分だけビットシフトさせて、シフト差分データD11を生成し、圧縮映像D3単位の場合は、その圧縮映像D3とペアとなる固定階調差分データD8を、(M-P)ビット分だけビットシフトさせて、シフト差分データD11を生成する(ステップS414)。
 第1伸張部402は、ステップS412による処理及びステップS413による処理と並行して、読出部401により記録媒体200から読み出された圧縮映像D3を伸張して再伸張映像D4を生成する(ステップS415)。
 第1シフト部403は、第1伸張部402により生成された再伸張映像D4を、シフト量解析部407が指定したオフセットシフト量Mに従って、Mビット分ビットシフトし、シフト映像D10を生成する(ステップS416)。
 合成部404は、第1シフト部403により生成されたシフト映像D10と、第2シフト部により生成されたシフト差分データD11を合成して、合成映像D12を生成する(ステップS417)。
 第3シフト部405は、合成部404により生成された合成映像D12を、シフト量解析部407が指定したオフセットシフト量(N-M)に従って、N-Mビット分ビットシフトさせ、シフト合成映像D13を生成する。さらに、出力部406は、第3シフト部405により生成されたシフト合成映像D13にイメージ加工などを施して、モニタなどに出力する(ステップS418)。
 (9)記録媒体200のBit拡張再生における前処理(1)
 記録媒体200のBit拡張再生における前処理(1)の動作について、図29に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図28のステップS410aの詳細である。
 読出部401は、記録媒体200からシフト量データD20を読み出す(ステップS431)。
 次に、シフト量解析部407は、読出部401により記録媒体200から読み出されたシフト量データD20を解析して、シフト量データD20内に図11に示すような最大シフト量が存在するか否かを確認する(ステップS432)。
 最大シフト量が存在する場合(ステップS432で「存在する」)、最大シフト量をオフセットシフト量Mとする(ステップS433)。最大シフト量が存在しない場合(ステップS432で「存在しない」)、シフト量データD20から最大シフト量を抽出し、抽出した最大シフト量をオフセットシフト量Mとする(ステップS434)。
 次に、シフト量解析部407は、第1シフト部403と第2シフト部409に、オフセットシフト量としてMビットを指定して、ビットシフトを指示する(ステップS435~S436)。
 また、シフト量解析部407は、第3シフト部405に対して、オフセットシフト量として(N-M)ビットを指定して、ビットシフトを指示する(ステップS437)。
 次に、第1シフト部403、第2シフト部409、第3シフト部405及び関連する第1伸張部402、第2伸張部408は、アプリケーションメモリ、データパスなどビット拡張再生に必要なリソースの確保を行う(S438)。
 読出部401は、記録媒体200から圧縮差分データD9を読み出し(ステップS439)、記録媒体200から圧縮映像D3を読み出す(ステップS440)。
 (10)圧縮差分データ等のダウンロードの動作
 再生装置400による圧縮差分データ等のダウンロードの動作について、図30に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図27のステップS404の詳細である。
 再生装置400と配信サーバ装置600とは、通信の接続を確立する(ステップS471)。
 次に、再生装置400の読出部401は、記録媒体300から記録媒体識別ID(D21)を読み出し(ステップS472)、送信部410は、圧縮差分データD9及びシフト量データD20の送信要求とともに、読み出した記録媒体識別ID(D21)を配信サーバ装置600へ送信する(ステップS473)。
 次に、配信サーバ装置600の受信部610は、送信要求と記録媒体識別ID(D21)とを受信し(ステップS473)、制御部640は、受信した記録媒体識別ID(D21)に対応する圧縮差分データD9及びシフト量データD20を情報記憶部620から読み出し(ステップS474)、送信部630は、読み出された圧縮差分データD9及びシフト量データD20を再生装置400へ送信する(ステップS475)。
 次に、再生装置400の受信部413は、圧縮差分データD9及びシフト量データD20を受信し(ステップS475)、記録部412は、読み出された記録媒体識別ID(D21)に対応付けて、受信した圧縮差分データD9及びシフト量データD20を外部記憶装置500及び内蔵記憶部411のいずれか一方に書き込む(ステップS476)。次に、制御部414は、メモリ開放などの後処理を行う(ステップS477)。
 (11)記録媒体300のBit拡張再生の動作
 再生装置400は、外部記憶装置500及び内蔵記憶部411のいずれかに記録されている圧縮差分データD9及びシフト量データD20を用いて、記録媒体300に記録されている圧縮映像D3をビット拡張して再生する。ここでは、記録媒体300に記録されたコンテンツの再生装置400によるBit拡張再生の動作について、図31に示すフローチャートを用いて説明する。
 再生装置400は、圧縮映像D3の再生前に、前処理(2)を行う(ステップS410b)。
 以降の動作は、図28に示すステップS412~S418と同一であるので、説明を省略する。
 (12)記録媒体300のBit拡張再生における前処理(2)
 記録媒体300のBit拡張再生における前処理(2)の動作について、図32に示すフローチャートを用いて説明する。なお、ここで説明する動作は、図31のステップS410bの詳細である。
 読出部401は、記録媒体300から記録媒体識別ID(D21)を読み出す(ステップS451)。
 制御部414は、記録媒体300から読み出した記録媒体識別ID(D21)が外部記憶装置500及び内蔵記憶部411の何れかに存在するか否かを、読出部401を介して、判断する(ステップS452)。
 外部記憶装置500及び内蔵記憶部411の何れにも、記録媒体識別ID(D21)が存在しないと判断する場合(ステップS452で「存在しない」)、再生装置400は、コンテンツの再生処理を終了する。
 外部記憶装置500及び内蔵記憶部411の何れか一方に、記録媒体識別ID(D21)が存在すると判断する場合(ステップS452で「存在する」)、読出部401は、外部記憶装置500及び内蔵記憶部411の何れか一方から、記録媒体300から読み出した記録媒体識別ID(D21)に対応して記憶されている圧縮差分データD9及びシフト量データD20を読み出す(ステップS453)。
 以降のステップS454~S460は、それぞれ、図29に示すステップS432~S438と同一であるので説明を省略する。
 次に、ステップS460の後において、読出部401は、記録媒体300から圧縮映像D3を読み出す(ステップS461)。
 2.10 まとめ
 以上説明したように、制作装置100は、流通コンテンツの制作とは別に、流通コンテンツの制作工程で欠落した情報を補填するための差分情報の生成を行い、かつ、差分情報のデータサイズが大きくなりすぎないように、また、差分情報が既存のLSIの大幅な設計変更を伴わないように既存LSIが効果的に処理できる標準的な階調深度に変換する。また、階調深度の変換では、流通コンテンツと差分情報の組み合わせた結果が、効果的に色調改善できるように、組合せ時のシフト量を決めてこれをメタ情報として生成する。再生においては、流通コンテンツ、差分情報及びシフト量を保持したメタ情報を用いて、これらを組み合わせて再生し、流通コンテンツのみの再生よりも色調表現が改善された状態でのコンテンツの再生を実現する。
 3.その他の変形例
 なお、本発明を上記の実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)図32のステップS451において、読出部430は、記録媒体300から記録媒体識別ID(D21)を読み出し、ステップS452において、読み出した記録媒体識別ID(D21)が外部記憶装置500及び内蔵記憶部411の何れかに記録されているか否かを確認している。
 ここで、読み出した記録媒体識別ID(D21)に対応する圧縮差分データD9及びシフト量データD20が外部記憶装置500及び内蔵記憶部411の何れかに記録されているか否かを確認してもよい。
 また、読み出した記録媒体識別ID(D21)が外部記憶装置500及び内蔵記憶部411の何れかも記録されていない場合、又は、読み出した記録媒体識別ID(D21)に対応する圧縮差分データD9及びシフト量データD20が外部記憶装置500及び内蔵記憶部411の何れかにも記録されていない場合に、再生装置400は、図30に示す圧縮差分データ等のダウンロードの処理を実行して、再生に必要な記録媒体識別ID(D21)に対応する圧縮差分データD9及びシフト量データD20を取得し、取得後、図32のステップS454以降の処理を実行してもよい。
 (2)図28及び図31に示すBit拡張再生では、再生前に、第1シフト部403、第2シフト部409に対して、オフセットシフト量Mビット、第3シフト部405に対してオフセットシフト量(N-M)ビットを予め通知し、再生開始時に、第2シフト部409に対して、シフト量Pを指定し、ある圧縮映像D3に対する一連の再生フローの中で、第1シフト部403に対して、Mビット、第2シフト部409に対して、(M-P)ビット、第3シフト部405に対して、(N-M)ビット、ビットシフトさせるとしている。しかし、これには限定されない。
 あるディスクに関して、圧縮映像D3毎にシフト量Pが異なる場合、第1シフト部403、及び、第3シフト部405については、シフト量をディスクで一意とし、第2シフト部409のみ、圧縮映像D3毎にシフト量の設定変更をすればよい。再生している圧縮映像D3の切り替わりタイミングでシフト量解析部407の制御対象が第2シフト部409のみになることで、同期した制御が不要となり、比較的複雑化を回避可能である。
 また、別構成として、再生前に、第3シフト部405に対してオフセットシフト量Nビットを予め通知し、再生開始時に、第1シフト部403と第3シフト部405とに対して、シフト量Pビットを指定し、第1シフト部403には、Pビット、第3シフト部405には、N-Pビットシフトさせることで、第2シフト部409には、一切シフトさせずに、実施の形態1と同じシフト量での組み合わせ再生が可能である。この構成であれば、再生装置400は、第2シフト部409の実装が不要であり、構成を簡素化できる。
 (3)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。つまり、前記マイクロプロセッサは、前記コンピュータプログラムに含まれる各命令を1個ずつ読み出し、読み出した命令を解読し、解読結果に従って動作する。
 なお、各装置は、マイクロプロセッサ、ROM、RAM、ハードディスクユニットなどの全てを含むコンピュータシステムに限らず、これらの一部から構成されているコンピュータシステムであってもよい。
 また、RAM又はハードディスクユニットに記憶されているコンピュータプログラムに含まれる命令に従って、マイクロプロセッサが動作することにより、当該コンピュータプログラムとマイクロプロセッサとが、あたかも、一つのハードウェア回路を構成し、このハードウェア回路が動作しているようにみせることができる。
 (4)上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI
(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 また、上記の各装置を構成する構成要素の各部は、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field 
Programmable Gate Array)やLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 (5)上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
 (6)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD―ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(BLU-RAY DISC(登録商標))、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
 また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (7)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 4.まとめ
 本発明の一の実施態様は、再生装置と記録媒体と制作装置から構成される再生システムで用いられる前記再生装置である。前記再生装置は、圧縮映像を伸張する第1伸張手段、第2伸張手段、シフト量データを解析するシフト量解析手段、映像をビットシフトする第1シフト手段及び複数の前記映像を合成する合成手段を備え、前記第1伸張手段は、前記再生装置が読み出したコンテンツを伸張し、前記第2伸張手段は、前記再生装置が読み出した差分データを伸張し、前記シフト量解析手段は、前記シフト量データを解析して、前記第1シフト手段に前記コンテンツのビットシフトを指示し、前記第1シフト手段は、前記シフト量解析手段の指示に従って、前記第1伸張手段が伸張した前記コンテンツをビットシフトさせ、前記合成手段は、前記第1シフト手段がビットシフトした前記コンテンツと、前記第2伸張手段が伸張した前記差分データを合成することを特徴とする。
 ここで、前記再生装置は、さらに、第2シフト手段を備え、前記シフト量解析手段は、前記再生装置が読み出した前記シフト量データを解析して、前記第2シフト手段にコンテンツのビットシフトを指示し、前記第2シフト手段は、前記シフト量解析手段の指示に従って、前記第2伸張手段が伸張した前記差分データをビットシフトさせ、前記合成手段は、前記第1シフト手段がシフトした前記コンテンツと、前記第2シフト手段がシフトした前記差分データとを合成してもよい。
 ここで、前記シフト量解析手段は、前記コンテンツの再生の都度、前記シフト量データを解析して、前記第1シフト手段に前記コンテンツのビットシフトを指示してもよい。
 ここで、前記シフト量解析手段は、前記コンテンツの再生の都度、前記シフト量データを解析して、前記第2シフト手段に前記コンテンツのビットシフトを指示してもよい。
 また、本発明の別の実施態様は、再生装置と記録媒体と制作装置から構成される再生システムで用いられる前記制作装置である。前記制作装置は、映像を伸張した後ビットシフトする伸張・シフト手段と、コンテンツと差分データを合成するときのシフト量を記録したシフト量データを生成するシフト量データ生成手段と、2つの前記映像の差分を演算する差分演算手段と、前記映像を圧縮する圧縮手段とデータを記録媒体に記録する記録手段とを備え、前記伸張・シフト手段は、前記再生装置が読み出した前記コンテンツを伸張した後、ビットシフトさせ、前記シフト量データ生成手段は、前記伸張・シフト手段がシフトした前記シフト量を元に前記シフト量データを生成し、前記差分演算手段は、前記再生装置が読み出した元映像と、前記伸張・シフト手段が伸張・シフトさせた前記コンテンツとの差分を演算して差分データを生成し、前記圧縮手段は、前記差分演算手段が生成した前記差分データを圧縮して、圧縮差分データを生成し、前記記録手段は、前記圧縮差分データを前記記録媒体に記録することを特徴とする。
 ここで、前記シフト量データ生成手段は、さらに前記映像の制作の都度、前記シフト量を取得して前記映像毎の前記シフト量を保持する前記シフト量データを生成してもよい。
 従来、これまでメインのコンテンツとサブのコンテンツを組み合わせて再生するようなシステムがあったが、コンテンツの制作過程で欠落した素材の情報を復元するといった色調表現の改善ができていないという問題がある。本実施の態様によると、主コンテンツの制作とは別に、主コンテンツの制作工程で欠落した情報を補填するための差分情報の生成を行い、かつ、差分情報のデータサイズが大きくなりすぎないように、また、差分情報が既存のLSIの大幅な設計変更を伴わないように既存LSIが効果的に処理できる標準的な階調深度に変換し、また、階調深度の変換では、主コンテンツと差分情報の組み合わせた結果が、効果的に色調改善できるように、組合せ時のシフト量を決めてこれをメタ情報として生成する。再生においては、主コンテンツ、差分情報、及び、シフト量を保持したメタ情報を用いて、これらを組み合わせて再生し、主コンテンツのみの再生よりも色調表現が改善された状態でのコンテンツの再生を実現する。
 本発明の一態様は、流通映像データを含む流通コンテンツを制作する制作装置であって、原映像データを取得する原取得回路と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得回路と、前記原映像データと前記流通映像データとの差分データを生成する差分生成回路と、前記差分データを出力する出力回路とを備えることを特徴とする。
 また、本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置を構成する集積回路であって、原映像データを取得する原取得回路と、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得回路と、前記原映像データと前記流通映像データとの差分データを生成する差分生成回路と、前記差分データを出力する出力回路とを備えることを特徴とする。
 また、本発明の別の態様は、流通映像データを含む流通コンテンツを制作する制作装置であって、複数のコンピュータ命令が組み合わされて構成されるコンピュータプログラムを記憶しているメモリ部と、前記メモリ部に記憶されている前記コンピュータプログラムから1個ずつコンピュータ命令を読み出し、解読し、その解読結果に応じて動作するプロセッサとを備える。前記コンピュータプログラムは、プロセッサに、原映像データを取得する原取得ステップと、前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、前記差分データを出力する出力ステップ回路とを実行させる。
 本発明の別の態様は、流通コンテンツを再生する再生装置において用いられる再生方法であって、差分データを取得する差分取得ステップと、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成ステップと、生成した前記再生映像データを再生する再生ステップとを備えることを特徴とする。
 本発明の別の態様は、流通コンテンツを再生する再生装置において用いられる再生のためのコンピュータプログラムを記録しているコンピュータ読取可能な記録媒体であって、コンピュータに、差分データを取得する差分取得ステップと、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成ステップと、生成した前記再生映像データを再生する再生ステップとを実行させるためのコンピュータプログラムを記録していることを特徴とする。
 本発明の別の態様は、流通コンテンツを再生する再生装置において用いられる再生のためのコンピュータプログラムであって、コンピュータに、差分データを取得する差分取得ステップと、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成ステップと、生成した前記再生映像データを再生する再生ステップとを実行させることを特徴とする。
 本発明の別の態様は、流通コンテンツを再生する再生装置であって、差分データを取得する差分取得手段と、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成手段と、生成した前記再生映像データを再生する再生手段とを備えることを特徴とする。
 本発明の別の態様は、流通コンテンツを再生する再生装置であって、差分データを取得する差分取得回路と、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成回路と、生成した前記再生映像データを再生する再生回路とを備えることを特徴とする。
 本発明の別の態様は、流通コンテンツを再生する再生装置を構成する集積回路であって、差分データを取得する差分取得回路と、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成回路と、生成した前記再生映像データを再生する再生回路とを備えることを特徴とする。
 また、本発明の別の態様は、流通コンテンツを再生する再生装置であって、複数のコンピュータ命令が組み合わされて構成されるコンピュータプログラムを記憶しているメモリ部と、前記メモリ部に記憶されている前記コンピュータプログラムから1個ずつコンピュータ命令を読み出し、解読し、その解読結果に応じて動作するプロセッサとを備える。前記コンピュータプログラムは、プロセッサに、差分データを取得する差分取得ステップと、前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成ステップと、生成した前記再生映像データを再生する再生ステップとを実行させる。
 本発明にかかる制作装置は、原映像データと流通映像データとの差分データを生成して出力するので、再生装置において差分データを用いることにより、記録媒体に記録されている流通コンテンツのみを再生する場合よりも、色調表現が改善された状態で、コンテンツの再生が可能となるという優れた効果を奏し、流通映像データを含む流通コンテンツを制作する技術として有用である。
  10、10a  コンテンツ配信システム
 100、100a 制作装置
 200 記録媒体
 300 記録媒体
 400、400a 再生装置
 500 外部記憶装置
 600 配信サーバ装置

Claims (12)

  1.  流通映像データを含む流通コンテンツを制作する制作装置であって、
     原映像データを取得する原取得手段と、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、
     前記差分データを出力する出力手段と
     を備えることを特徴とする制作装置。
  2.  前記原映像データ及び前記流通映像データは、それぞれ、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に原色データを含み、
     前記差分生成手段は、
     各フレーム内の各ピクセルについて原色毎に、前記原映像データにおける原色データと前記流通映像データにおける原色データとの差分を算出する差分演算部と、
     算出した差分のビット長を削減する削減部とを含み、
     前記差分データは、複数のフレームから構成され、各フレームは、複数のピクセルを含み、各ピクセルは、原色毎に、ビット長が削減された前記差分を含む
     ことを特徴とする請求項1に記載の制作装置。
  3.  前記差分生成手段は、さらに、
     前記差分演算部により算出された前記差分のうち、正負を示す符号ビットを除く残り部分の上位側ビットの値に応じて、シフト量を生成するシフト量生成部を含み、
     前記削減部は、生成されたシフト量に基づいて、前記差分のビット長を削減する
     ことを特徴とする請求項2に記載の制作装置。
  4.  前記シフト量生成部は、前記残り部分の上位側ビットにおいて、連続する0値の数に応じて、前記シフト量を生成する
     ことを特徴とする請求項3に記載の制作装置。
  5.  前記シフト量生成部は、一枚のフレームについて、一個の前記シフト量を生成する
     ことを特徴とする請求項3に記載の制作装置。
  6.  前記出力手段は、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とを前記記録媒体に書き込む
     ことを特徴とする請求項3に記載の制作装置。
  7.  前記出力手段は、前記流通コンテンツを記録媒体に書き込むことにより出力し、さらに、前記流通コンテンツに対応付けて前記差分データと前記シフト量とをサーバ装置へ送信する
     ことを特徴とする請求項3に記載の制作装置。
  8.  流通映像データを含む流通コンテンツを制作する制作装置で用いられる制作方法であって、
     原映像データを取得する原取得ステップと、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、
     前記差分データを出力する出力ステップと
     を含むことを特徴とする制作方法。
  9.  流通映像データを含む流通コンテンツを制作する制作装置で用いられるコンピュータプログラムを記録しているコンピュータ読取可能な記録媒体であって、
     コンピュータに、
     原映像データを取得する原取得ステップと、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、
     前記差分データを出力する出力ステップと
     を実行させるためのコンピュータプログラムを記録している記録媒体。
  10.  流通映像データを含む流通コンテンツを制作する制作装置で用いられるコンピュータプログラムであって、
     コンピュータに、
     原映像データを取得する原取得ステップと、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得ステップと、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成ステップと、
     前記差分データを出力する出力ステップと
     を実行させるためのコンピュータプログラム。
  11.  流通映像データを含む流通コンテンツを制作する制作装置を構成する集積回路であって、
     原映像データを取得する原取得手段と、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、
     前記差分データを出力する出力手段と
     を備えることを特徴とする集積回路。
  12.  流通映像データを含む流通コンテンツを制作する制作装置と前記流通コンテンツを再生する再生装置とから構成されるコンテンツ配信システムであって、
     前記制作装置は、
     原映像データを取得する原取得手段と、
     前記原映像データに対して映像の階調を低下させる変換を施して生成した前記流通映像データを取得する流通取得手段と、
     前記原映像データと前記流通映像データとの差分データを生成する差分生成手段と、
     前記差分データを出力する出力手段とを備え、
     前記再生装置は、
     前記差分データを取得する差分取得手段と、
     前記流通映像データと前記差分データとを合成して、前記原映像データと同等の階調を有する再生映像データを生成する合成手段と、
     生成した前記再生映像データを再生する再生手段と
     を備えることを特徴とするコンテンツ配信システム。
PCT/JP2011/006982 2010-12-16 2011-12-14 制作装置及びコンテンツ配信システム WO2012081241A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012548655A JP5891389B2 (ja) 2010-12-16 2011-12-14 制作装置及びコンテンツ配信システム
US13/819,840 US8977099B2 (en) 2010-12-16 2011-12-14 Production apparatus and content distribution system
US14/606,516 US9264756B2 (en) 2010-12-16 2015-01-27 Production apparatus and content distribution system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US42374210P 2010-12-16 2010-12-16
US61/423,742 2010-12-16

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/819,840 A-371-Of-International US8977099B2 (en) 2010-12-16 2011-12-14 Production apparatus and content distribution system
US14/606,516 Continuation US9264756B2 (en) 2010-12-16 2015-01-27 Production apparatus and content distribution system

Publications (1)

Publication Number Publication Date
WO2012081241A1 true WO2012081241A1 (ja) 2012-06-21

Family

ID=46244360

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/006982 WO2012081241A1 (ja) 2010-12-16 2011-12-14 制作装置及びコンテンツ配信システム

Country Status (3)

Country Link
US (2) US8977099B2 (ja)
JP (1) JP5891389B2 (ja)
WO (1) WO2012081241A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021034911A (ja) * 2019-08-26 2021-03-01 富士通株式会社 配信装置、配信システム、クライアント端末および配信プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977099B2 (en) * 2010-12-16 2015-03-10 Panasonic Intellectual Property Management Co., Ltd. Production apparatus and content distribution system
JP6750210B2 (ja) * 2015-02-10 2020-09-02 株式会社Jvcケンウッド 表示信号処理システム、処理装置、表示信号生成装置、処理方法、及び表示信号生成方法
US11245911B1 (en) * 2020-05-12 2022-02-08 Whirlwind 3D, LLC Video encoder/decoder (codec) for real-time applications and size/b and width reduction
CN114268704A (zh) * 2021-12-20 2022-04-01 北京镁伽科技有限公司 图像数据的转换方法、转换装置、信号发生器及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320682A (ja) * 2000-02-29 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体およびプログラム
JP2004015226A (ja) * 2002-06-04 2004-01-15 Mitsubishi Electric Corp 画像符号化装置及び画像復号化装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100477779C (zh) 2000-02-29 2009-04-08 索尼公司 数据处理设备和方法
TW544650B (en) * 2000-12-27 2003-08-01 Matsushita Electric Ind Co Ltd Matrix-type display device and driving method thereof
JP2004145482A (ja) * 2002-10-22 2004-05-20 Matsushita Electric Ind Co Ltd 画像検索装置
US7609947B2 (en) 2004-09-10 2009-10-27 Panasonic Corporation Method and apparatus for coordinating playback from multiple video sources
JP2007266749A (ja) * 2006-03-27 2007-10-11 Sanyo Electric Co Ltd 符号化方法
JP4575963B2 (ja) * 2008-02-14 2010-11-04 三菱電機株式会社 画像処理装置
US8977099B2 (en) * 2010-12-16 2015-03-10 Panasonic Intellectual Property Management Co., Ltd. Production apparatus and content distribution system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320682A (ja) * 2000-02-29 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体およびプログラム
JP2004015226A (ja) * 2002-06-04 2004-01-15 Mitsubishi Electric Corp 画像符号化装置及び画像復号化装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021034911A (ja) * 2019-08-26 2021-03-01 富士通株式会社 配信装置、配信システム、クライアント端末および配信プログラム
JP7351140B2 (ja) 2019-08-26 2023-09-27 富士通株式会社 配信装置、配信システムおよび配信プログラム

Also Published As

Publication number Publication date
US20150143445A1 (en) 2015-05-21
US20130176489A1 (en) 2013-07-11
JP5891389B2 (ja) 2016-03-23
US9264756B2 (en) 2016-02-16
US8977099B2 (en) 2015-03-10
JPWO2012081241A1 (ja) 2014-05-22

Similar Documents

Publication Publication Date Title
EP3016379B1 (en) Playback device, playback method, and recording medium
EP3016378B1 (en) Playback device and playback method
JP5891389B2 (ja) 制作装置及びコンテンツ配信システム
CN101035302B (zh) 再现信息信号的设备
JP4790599B2 (ja) サブタイトルデータの再生を管理するためのデータ構造を有する記録媒体、それによる記録及び再生方法及び装置
JP5052763B2 (ja) 映像データの記録された情報貯蔵媒体、その記録方法、記録装置、再生方法及び再生装置
JP2006244700A (ja) マルチストリームが記録された情報貯蔵媒体、その記録装置、その記録方法、その再生装置、及びその再生方法
JP2009302637A (ja) 生成装置、生成方法、及び、プログラム
JP2001229616A (ja) データ記録方法及びそれを用いたデータ記録装置
US9330717B2 (en) Editing device
US6278836B1 (en) Information reproducing apparatus for reproducing video signals and program information which are recorded in information recording media
JP2009301605A (ja) 再生装置、再生方法、プログラム、及び、データ構造
JP4271156B2 (ja) 情報記録媒体及び情報再生装置及び情報記録方法
JP2008028793A (ja) ストリーム編集方法及びストリーム編集装置
US20060123450A1 (en) Method of creating vobu in hd-dvd system
US20050069289A1 (en) Transport stream recording/editing device and recording/editing method
JP4013800B2 (ja) データ作成方法及びデータ記録装置
EP1713268A1 (en) Data broadcast recording/reproducing method, device, and recording medium
JP4425134B2 (ja) デジタルコンテンツ分割装置、デジタルコンテンツ再生装置、及びデジタルコンテンツ分割方法
JP2004343532A (ja) 符号化装置および方法、復号装置および方法、記録装置および方法、並びに再生装置および方法
JP2004007359A (ja) マルチメディアデータ復号装置
JPH1175156A (ja) ストリーム編集装置及びストリーム復号装置
WO2007011351A1 (en) System and apparatus for converting dvd content into vod content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11848376

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012548655

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13819840

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11848376

Country of ref document: EP

Kind code of ref document: A1