WO2008065864A1 - Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system - Google Patents

Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system Download PDF

Info

Publication number
WO2008065864A1
WO2008065864A1 PCT/JP2007/071655 JP2007071655W WO2008065864A1 WO 2008065864 A1 WO2008065864 A1 WO 2008065864A1 JP 2007071655 W JP2007071655 W JP 2007071655W WO 2008065864 A1 WO2008065864 A1 WO 2008065864A1
Authority
WO
WIPO (PCT)
Prior art keywords
color space
video signal
unit
space identifier
recording
Prior art date
Application number
PCT/JP2007/071655
Other languages
English (en)
French (fr)
Inventor
Osamu Date
Satoshi Tsujii
Makoto Yamada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2007800338196A priority Critical patent/CN101536533B/zh
Priority to US12/281,339 priority patent/US8620141B2/en
Priority to KR1020097010997A priority patent/KR101352761B1/ko
Priority to EP07831386.3A priority patent/EP2111048B1/en
Publication of WO2008065864A1 publication Critical patent/WO2008065864A1/ja
Priority to US14/084,007 priority patent/US8837907B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/873Regeneration of colour television signals for restoring the colour component sequence of the reproduced chrominance signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8045Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Definitions

  • Recording apparatus recording method, imaging apparatus, playback apparatus, and video system
  • the present invention relates to a recording apparatus, a recording method, an imaging apparatus, a playback apparatus, and a video system that record an imaging video signal on a recording medium.
  • a recording apparatus when a video signal corresponding to a predetermined color space obtained by processing the captured video signal is recorded on a recording medium, a color space identifier including information indicating the predetermined color space is generated, By recording the color space identifier in the recording medium in association with the video signal, the video signal is recorded on the recording medium so that the original color of the recorded video signal can be faithfully reproduced by the playback device.
  • This relates to a recording apparatus or the like for recording in
  • the sRGB standard has become an industry standard as a standard color space for computer displays.
  • an extended sRGB standard (referred to here as the “extended sRGB standard”), which is a color space wider than the color space defined by the sRGB standard, can be used for color images.
  • a playback device that can reproduce the above has been proposed.
  • Patent Document 1 describes a color liquid crystal display device that realizes the extended sRGB standard.
  • a peak wavelength pr When the red light emitting diode 22R with 645nm is used, the display light emitted from the color liquid crystal display panel is measured with a colorimeter, and the chromaticity point is plotted in the xy chromaticity diagram. A color reproduction range as shown in FIG.
  • FIGS. 17b, 17c, and 17d are enlarged views of green (G), blue (B), and red (R) regions, respectively.
  • G green
  • B blue
  • R red
  • the xy chromaticity diagrams in Fig. 17a, Fig. 17b, Fig. 17c, and Fig. 17d show the color reproduction range of the Adobe RGB standard, the XYZ color system defined by the International Lighting Commission (CIE), and the color of the sRGB standard.
  • the reproduction range and the color reproduction range when only the main white light source 21 is used as the light source are also shown.
  • the peak wavelength Fpg of the transmission wavelength band is 530 nm.
  • the half-value width Fhwg of the transmission wavelength band is 90 nm ⁇ Fhwg ⁇ lOOnm.
  • a color filter consisting of a blue filter with a peak wavelength Fpb in the transmission wavelength band of 440 nm ⁇ Fpb ⁇ 460 nm is described, it is described that the color reproduction range can be greatly expanded.
  • FIGS. 18b, 18c, and 18d are enlarged views of green (G), blue (B), and red (R) regions, respectively.
  • G green
  • B blue
  • R red
  • FIGS. 18a, 18b, 18c, and 18d the color reproduction range of the Adobe RGB standard, the XYZ color system defined by the International Lighting Commission (CIE), and the color of the sRGB standard The same color reproduction range when using only the main white light source 21 as the light source. Sometimes shown.
  • the recording device records a video signal in a color space wider than the sRGB standard and the playback device supports only the conventional sRGB color space
  • the playback device uses the video signal in its own device. Since it is simply clipped to the color space for playback, the original video signal color cannot be reproduced.
  • Patent Document 2 discloses an image reproduction device that reproduces an image based on an image set in which image data and color space identification information representing a color space related to the image data are associated with each other. Are listed. This image reproduction apparatus performs image reproduction suitable for each case, regardless of whether the color space specified by the color space identification information is a standard color space or a specific color space.
  • the image playback device when playing back image data in which the color space specified by the color space identification information is a standard color space (eg, sRGB color space), the image playback device performs basic processing on the image data. Image data for reproduction is generated by performing color space conversion.
  • Image data for reproduction is generated by converting the image data into a device-dependent color space (for example, sRGB color space).
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2006-119295
  • Patent Document 2 Reissue 2004/077837
  • Patent Document 2 image reproduction suitable for image data is performed based on color space information associated with the image data.
  • the technique described in Patent Document 2 is premised on the existence of an image data set (image data file) in which image data and color space identification information representing a color space related to the image data are associated with each other.
  • the problem is how to obtain the image data set.
  • Patent Document 2 describes a force S in which the image data set is generated by a digital camera, and a specific description of how the image data set is generated in the recording system of the digital force camera. There is no.
  • the image data set in Patent Document 2 has a configuration in which one color space identification information is added to predetermined image data. Therefore, for example, when a video signal composed of image data of a plurality of frames is handled, handling of the color space identification information becomes complicated at the time of editing such as division and combination. For example, when dividing a video signal, it is necessary to duplicate the color space information and add it to each divided portion. Also, for example, if the color space between the combined video signals of the other party is different at the time of combining, it is necessary to select V or any color space information.
  • An object of the present invention is to provide a recording apparatus and a recording method for recording a video signal on a recording medium so that the original color of the recorded video signal can be reproduced faithfully in the reproducing apparatus. .
  • a video signal processing unit that processes the captured video signal to obtain a video signal corresponding to a predetermined color space
  • a color space identifier generating unit for generating a color space identifier including information indicating the predetermined color space
  • a recording unit that records the video signal obtained by the video signal processing unit and the color space identifier generated by the color space identifier generation unit in association with a recording medium; On the recording medium, the video signal is recorded in a video stream format composed of a plurality of access units,
  • the color space identifier is associated with the predetermined access unit.
  • the recording apparatus is characterized by the above.
  • the captured video signal is processed in the video signal processing unit, and a video signal corresponding to a predetermined color space is obtained.
  • the color space selection unit selects a predetermined color space from a plurality of color spaces. This selection is performed based on, for example, a user's designated operation.
  • the color space includes an sRGB color space and an extended sRGB space. For example, when the sRGB color space is selected as the color space, a video signal corresponding to the sRGB color space is obtained, and when the extended sRGB color space is selected as the color space, the video signal corresponding to the extended sRGB space is obtained. can get.
  • a color space identifier including information indicating a predetermined color space is generated. Then, in the recording unit, the video signal obtained by the video signal processing unit and the color space identifier generated by the color space identifier generating unit are recorded in association with each other on the recording medium. In this case, the video signal is recorded on the recording medium in a video stream format composed of a plurality of access units, and the color space identifier is associated with a predetermined access unit.
  • video signal processing is performed so that a video signal corresponding to a predetermined color space is obtained, and a color space identifier including information indicating the predetermined color space is generated.
  • a color space identifier is recorded in association with the recording medium. Therefore, in a playback device that plays back a color image based on a video signal recorded on a recording medium, the video signal can be obtained by using the color space information included in the color space identifier recorded corresponding to the video signal. Can be used in a state suitable for the playback device, and the original color of the video signal can be faithfully reproduced.
  • the color space identifier generated by the color space identifier generation unit includes information indicating the color space and information related to the color gamut of the video signal (for example, the maximum value and minimum value of the color gamut) Value) Force S may be included.
  • the playback device can use the information regarding the color gamut without performing the process of acquiring the information regarding the color gamut from the video signal.
  • the color space identifier generation unit includes a storage unit that stores information about the color gamut of the video signal, and stores information about the color gamut of the video signal included in the color space identifier from the storage unit. You may make it read and obtain.
  • the color space identifier generation unit can omit processing for obtaining information about the color gamut from the video signal.
  • the video signal obtained by the video signal processing unit is subjected to predetermined data compression processing for obtaining a stream configuration in which a plurality of access units are continuous with the video signal.
  • the color space identifier generation unit generates a color space identifier corresponding to each access unit constituting the video signal stream after the data compression processing.
  • information about the color gamut can be stored for each access unit, so that the accuracy of color reproducibility in the reproducing apparatus can be increased.
  • the video signal obtained by the video signal processing unit is predetermined data for obtaining a stream configuration in which a plurality of access units are continuous with the video signal.
  • the color space identifier generating unit performs compression processing and records the corresponding color corresponding to a predetermined access unit that is intermittently arranged among the access units that constitute the video signal stream after the data compression processing.
  • a color space identifier is generated. Redundancy can be reduced when color space identifiers are generated corresponding to the access units that are arranged in an intermittent manner.
  • the video signal obtained by the video signal processing unit obtains a stream configuration in which a plurality of access units are continuous with the video signal, and a predetermined number of accesses.
  • Predetermined data compression processing is performed so that each sequence configured by the unit has a sequence parameter set including color information of the sequence.
  • the color space identifier generation unit generates a color space identifier corresponding to the access unit including the sequence parameter set among the access units constituting the stream of the video signal after the data compression process. .
  • the access unit including the sequence parameter set is an access unit including the NAL unit of the sequence parameter set.
  • the sequence parameter set and the color space identifier that is, the related color information can be read in a lump, and the playback device can access the necessary information access time. Can be shortened.
  • the color space identifier generation unit may not generate the color space identifier when a specific color space is selected by the color space selection unit.
  • the color space identifier generation unit does not generate a color space identifier when an sRGB color space is selected, and generates a color space identifier when an extended sRGB color space is selected.
  • the compatibility with the conventional recording of a video signal in a specific color space (the color space identifier is recorded! /, Nare, etc.) is maintained.
  • color space identification information is added in any color space, and conventional color space identification information is added to! /, NA! /, Compatibility is not maintained!
  • the video signal and the color space identifier recorded on the recording medium are reproduced from the recording medium and transmitted to the network via the network interface.
  • the color space identifier generation unit generates a color space identifier in a format suitable for the output form of the network interface.
  • it can be sent to the network in the same format as it is not necessary to change the format of the color space identifier recorded on the recording medium.
  • the technology described in Patent Document 2 described above does not generate color space identification information in a format that is compatible with the output form of the network interface.
  • a conversion block is required to convert to a format suitable for the output format.
  • video signals and color space identifiers are recorded on a recording medium! For example, when being transmitted to the network, it is reproduced by the reproducing unit.
  • the color space of the video signal to be reproduced may be displayed on the display unit based on the color space identifier. In this case, the user can easily grasp the color space of the video signal to be reproduced.
  • a color space identifier including information indicating the predetermined color space. Is generated and recorded in association with the video signal, and the video signal can be recorded on the recording medium so that the original color of the recorded video signal can be faithfully reproduced by the reproducing apparatus.
  • FIG. 1 is a block diagram showing a configuration of an imaging apparatus as an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of a signal processing unit in the imaging apparatus.
  • FIG. 3 is a diagram showing a color arrangement of a four-color filter arranged on the front surface of the image sensor.
  • FIG. 4A is a diagram for explaining the outline of the MPEG4-AVC standard.
  • FIG. 4B is a diagram showing an example of dividing a video stream during divided editing.
  • FIG. 5 is a diagram illustrating a structure example of a color space identifier including information indicating a color space.
  • FIG. 6 is a diagram showing the structure of a color space identifier in network interface A.
  • FIG. 7 is a diagram showing the structure of a color space identifier in network interface B.
  • FIG. 8 is a diagram showing a display example of a reproduced image (icon indicating a color space) during reproduction.
  • FIG. 9 is a diagram showing a flow of reading and transferring a color space identifier.
  • FIG. 10 is a diagram showing an example of data on a transfer path.
  • FIG. 11 is a flowchart showing a recording procedure of a color space identifier at the time of imaging (recording).
  • FIG. 12 is a diagram showing the concept of color area mapping in the playback device.
  • FIG. 13 is a diagram showing an example of clipping to the boundary of the color space region of the playback device.
  • FIG. 14 is a diagram illustrating an example of mapping according to a color space region of the playback device.
  • FIG. 15 is a block diagram showing a configuration of a video system as another embodiment.
  • FIG. 16 is a flowchart showing a procedure for changing the mapping process in the television.
  • FIG. 17a is a diagram showing a color reproduction range when an auxiliary light source is added to the main white light source.
  • FIG. 17b is an enlarged view of the color gamut of the green (G) region in FIG. 17a.
  • FIG. 17c is an enlarged view of the color gamut of the blue (B) region in FIG. 17a.
  • FIG. 17d is an enlarged view of the color gamut of the red (R) region in FIG. 17a.
  • FIG. 18a is a diagram showing a color reproduction range when a color filter is improved.
  • FIG. 18b is an enlarged view of the color gamut of the green (G) region in FIG. 18a.
  • FIG. 18c is an enlarged view of the color gamut of the blue (B) region in FIG. 18a.
  • FIG. 18d is an enlarged view of the color gamut of the red (R) region in FIG. 18a.
  • FIG. 1 shows a configuration of an imaging apparatus 100 as an embodiment.
  • the imaging device 100 includes a camera unit 110, a control unit 120, a signal processing unit 131, an encoding / decoding ⁇
  • a recording medium 135 is detachable from the medium I / F 134.
  • a semiconductor memory such as a memory card, a recordable DVD (Digital Versatile Disk), an optical recording medium such as a recordable CD (Compact Disc), or a magnetic disk or the like is used.
  • Power S can be.
  • a memory card is used as the recording medium 135.
  • the camera unit 110 includes an optical block 111, an image sensor 112, a preprocessing circuit 113, an optical block driver 114, an image sensor driver 115, and a timing control circuit 116.
  • the optical block 111 has an imaging lens, a focus mechanism, a shutter mechanism, a diaphragm (iris) mechanism, and the like.
  • the optical block driver 114 generates a drive signal for operating the optical block 111 under the control of the control unit 120, and supplies the drive signal to the optical block 111.
  • a focus mechanism, a shutter mechanism, and an aperture mechanism are controlled in accordance with a drive signal from the driver 114.
  • the image sensor 112 is an image sensor such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor).
  • the timing generation circuit 116 generates various timing signals required by the image sensor 112 and the image sensor driver 115 under the control of the control unit 120.
  • the driver 115 forms a drive signal for driving the image sensor 112 based on the timing signal from the timing generation circuit 116, and supplies the drive signal to the image sensor 112.
  • the pre-processing circuit 113 includes, for example, a CDS (Correlated Double Sampling), an AGC (Automatic Gain Control), and an AD (Analog to Digital) converter, and the like. On the other hand, it performs predetermined signal processing such as noise removal, automatic gain control, and A / D conversion, and outputs digital video data (camera output data).
  • CDS Correlated Double Sampling
  • AGC Automatic Gain Control
  • AD Analog to Digital converter
  • the control unit 120 is configured by connecting a CPU (Central Processing Unit) 121, a RAM (Random Access Memory) 122, a flash ROM (Read Only Memory) 123, and a clock circuit 124 via a system bus 125. It is a microcomputer. The control unit 120 The operation of each part of the device 100 is controlled.
  • the RAM 122 is mainly used as a work area, such as temporarily storing intermediate results of processing.
  • the flash ROM 123 stores various programs executed by the CPU 121, data necessary for processing, and the like.
  • the clock circuit 124 provides the current date, current day, and current time.
  • the operation unit 136 constitutes a user interface and accepts user operations.
  • the operation unit 136 includes a touch panel, control keys, and the like.
  • the operation unit 136 is connected to the CPU 121 and supplies an operation signal corresponding to a user operation to the CPU 121.
  • the user can operate the operation unit 136 to designate either the sR GB color space or the extended sRGB color space as the color space of the video signal to be recorded.
  • the control unit 120 (CPU12 1) selects the sRGB color space as the color space of the recorded video signal, while the user specifies the extended sRGB color space.
  • the extended sRGB color space is selected as the color space of the video signal to be recorded.
  • the control unit 120 constitutes a color space selection unit.
  • the signal processing unit 131 performs interpolation processing, filtering processing, matrix calculation processing, luminance signal generation processing, color difference processing on digital video data (camera output data) output from the preprocessing circuit 113 of the camera unit 110. Perform signal generation processing, etc., and output luminance signal Y and color difference signal Cr / Cb as imaging video signals.
  • FIG. 2 shows a configuration example of the signal processing unit 131.
  • This configuration example is an example in the case where a four-color color filter having the color arrangement shown in FIG.
  • This color filter includes an R filter that transmits only red (R) light, a B filter that transmits only blue (B) light, and a G1 filter that transmits only green light in the first wavelength band.
  • the G2 filter that transmits only green light in the second wavelength band has a configuration with a total of four units as the minimum unit.
  • the analog image signal output from the image sensor 112 is an R signal, a G1 signal, a G2 signal, or a B signal.
  • the preprocessing circuit 113 performs predetermined signal processing such as noise removal, automatic gain control, and A / D conversion on each color signal. This From the pre-processing circuit 113, the signal processing unit 131 is supplied with four types of color signals of R signal, G1 signal, G2 signal, and B signal as the digital video data.
  • the signal processing unit 131 is configured as an LSKLarge Scale Integrated Circuit (large scale integrated circuit), and includes an offset correction processing unit 151, a white balance correction processing unit 152, a vertical direction synchronization processing unit 153, A processing unit 154, a linear matrix processing unit 155, a gamma correction processing unit 156 R ⁇ ; 156 B, a luminance signal generation processing unit 157, a color difference signal generation processing unit 158, and a band limitation 'decimation processing unit 159. ing.
  • LSKLarge Scale Integrated Circuit large scale integrated circuit
  • the offset correction processing unit 151 removes noise components (offset components) included in each color signal supplied from the preprocessing circuit 113.
  • the white balance correction processing unit 152 performs white balance correction on each color signal from which the noise component has been removed by the offset correction processing unit 151. That is, the white balance correction processing unit 152 performs imbalance between colors due to the difference in the color temperature environment of the subject and the difference in sensitivity of the color filters (R, Gl, G2, B) arranged on the front surface of the image sensor 112. Correct.
  • the vertical direction synchronization processing unit 153 performs vertical direction synchronization processing on each color signal on which white balance correction has been performed by the white balance correction processing unit 152.
  • the processing unit 154 performs interpolation processing, filter processing, high-frequency correction processing, noise processing, and the like on each color signal obtained by synchronization in the vertical direction synchronization processing unit 153.
  • the interpolation process is a process of interpolating the color signal of 2 X 2 pixels, which is the minimum unit of the color filter (R, Gl, G2, B), into the same space phase.
  • the filter process is a process for limiting the signal band.
  • the high frequency component correction process is a process for correcting the high frequency component of the signal band.
  • Noise processing is processing that removes noise components from each color signal.
  • the linear matrix processing unit 155 performs a 4-input 3-output matrix operation on the R signal, G1 signal, G2 signal, and B signal output from the processing unit 154 to obtain an R signal, a G signal, Output B signal. That is, the linear matrix processing unit 155 obtains the R signal, the G signal, and the B signal from the R signal, the G1 signal, the G2 signal, and the B signal by using the matrix coefficient of the 3 ⁇ 4 matrix.
  • the matrix coefficient of the linear matrix processing unit 155 is The target color space of R signal, G signal, and B signal after matrix calculation is sRGB The color space is set.
  • the matrix coefficient of the linear matrix processing unit 155 is the R signal after matrix calculation, It is set so that the target color space of the G signal and B signal is the extended sRGB color space.
  • the gamma correction processing units 156R, 156G, and 156B perform gamma correction on the R signal, G signal, and B signal output from the linear matrix processing unit 155.
  • the nonlinear characteristic of a display device such as a CRT (Cathode Ray Tube) display or LCD (Liquid Crystal Display) is reversely corrected.
  • the luminance signal generation processing unit 157 generates a luminance signal Y by combining the R signal, the G signal, and the B signal that have been gamma corrected by the gamma correction processing units 156R, 156G, and 156B at a predetermined combining ratio.
  • the color difference signal generation processing unit 158 synthesizes the R signal, the G signal, and the B signal that have been gamma corrected by the gamma correction processing units 156R, 156G, and 156B at a predetermined synthesis ratio, so that the blue difference signal Cb and the red color difference signal C Generate signal Cr.
  • the band limitation / decimation processing unit 159 performs band limitation and decimation processing on the color difference signals Cb and Cr generated by the color difference signal generation processing unit 158, and the color difference signals Cb and Cr are time-division multiplexed. Color difference signal Cb / Cr is formed.
  • the encoding / decoding unit 132 performs data compression processing on the luminance signal Y and the color difference signal Cb / Cr output from the signal processing unit 131 to generate a compressed video signal. To do.
  • the encode / decode unit 132 performs data expansion processing on the compressed video signal reproduced from the recording medium 135 by the medium I / F 134 to generate a luminance signal Y and a color difference signal Cb / Cr.
  • the encoding / decoding unit 132 performs the above-described data compression processing and data expansion processing by using the SDRAM 133 for IJ.
  • the encode / decode unit 132 performs data compression processing and data decompression processing based on the well-known MPEG4-AVC standard.
  • the MPEG4-AVC standard is briefly described using Fig. 4A.
  • NAL Network Abstract! On Layer
  • VCL Video Coding Layer
  • the parameter set corresponding to the header information of the sequence can be handled separately from the information generated by the VCL.
  • MPEG The association of bitstreams with lower systems such as 2 systems is performed in units of “NAL units”, which are one segment of NAL.
  • the SPS (Sequence Parameter Set) NAL unit contains information related to coding of the entire sequence, such as profile and level information.
  • one sequence is composed of a plurality of consecutive access units having the access unit in which the SPSNAL unit is inserted at the head.
  • editing such as dividing, combining, and erasing streams is performed using this sequence as an editing unit.
  • a PPS (Picture Parameter Set) NAL unit includes information on the coding mode of the entire picture, such as an entropy coding mode and a quantization parameter for each picture.
  • Coded Slice of an IDR picture The encoded data of the IDR (Instantaneous Decoder Re fresh) picture is stored in the NAL unit.
  • the IDR picture is the first picture in the image sequence.
  • Coded Slice of a non IDR picture The NAL unit stores encoded data of other pictures that are not IDR pictures.
  • SEL Supplemental Enhancement Information
  • AUD Access Unit Delimiter
  • This AUDNAL unit includes information indicating the type of slice included in the access unit.
  • EOS End Of Sequence
  • EOS End Of Stream
  • an access unit In order to access information in a bitstream in picture units (frame units), a collection of several NAL units is called an access unit (AU). If the access unit includes information such as the NAL unit (Coded Slice of an IDR picture NAL unit or Coded Slice of a nonlDR picture NAL unit) corresponding to the slice of the picture, as shown in Fig. 4A It is necessary to arrange in order.
  • the NAL unit Coded Slice of an IDR picture NAL unit or Coded Slice of a nonlDR picture NAL unit
  • the encoding / decoding unit 132 converts the SPSNAL unit into a data compression process. Include a color space identifier in the containing access unit.
  • the color space identifier includes information indicating the color space selected by the control unit 120 as described above.
  • the SEINAL unit including the color space identifier is actually inserted into the access unit including the SPS NAL unit.
  • a sequence parameter set includes a VUI (Vide 0 Usability Information) parameter.
  • This VUI parameter is data relating to video display information, and includes information relating to a conversion matrix from RGB color signals to luminance signals and color difference signals, for example.
  • the SEINAL unit in which the color space identifier is stored in the access unit including the SPS NAL unit the information recorded in the color space identifier and the VUI parameters, which are information used when displaying the video signal, are used. Can be stored in the same access unit (AU).
  • AU access unit
  • FIGS. 4B (a) and (b) show examples of dividing a video stream at the time of divided editing.
  • Figure 4B (a) shows the stream before splitting
  • Figure 4B (b) shows the stream after splitting.
  • the stream is divided in units of a sequence having an access unit at the head of which the SPSNAL unit is inserted. Therefore, as shown in Fig. 4B (b), the SPSNAL unit and SEL NAL unit with color information are always included in the head access unit of each divided stream!
  • FIG. 5 shows an example of the structure of the color space identifier.
  • the color space identifier is a color space information, which is information indicating the color space of the video signal to be recorded. Area information, color accuracy information, and reserved area.
  • the information about the color gamut is for each of red (R), green (G), and blue (B) of the picture in the access unit to which the SEINAL unit storing the color space identifier is added. The maximum and minimum color gamut used.
  • Information on the color gamut includes the maximum value of the color gamut and the difference between the maximum value and the minimum value, or the minimum value of the color gamut and the difference between the minimum value and the maximum value. There may be.
  • the color accuracy information is information indicating the accuracy with which the information about the color gamut (maximum value, minimum value) is indicated with a certain degree of accuracy (specifically, information indicating how many bits).
  • the reserved area is reserved in advance for future data expansion.
  • the color space identifier is generated by the CPU 121 of the control unit 120.
  • the CPU 121 calculates information on the color gamut of each color of red (R), green (G), and blue (B) from the picture of the Coded Slice NA L unit in the access unit including the SEINAL unit in which the color space identifier is stored. Ask.
  • the compressed video signal obtained by the data compression processing in the encoding / decoding unit 132 is recorded on the recording medium 135 via the medium I / F 134. Then, the compressed video signal recorded on the recording medium 135 in this way is read out through the medium I / F 134 as necessary, for example, after data decompression processing is performed, together with the color space identifier and the external I / F. / F (network interface) Transferred from 139 to other devices via the specified network.
  • the CPU 121 generates the color space identifier in a format suitable for the output form of the network interface.
  • the CPU 121 is the recording medium 135 or
  • the format of the color space identifier recorded on the recording medium 135 does not need to be changed and can be sent to the network as it is. The load during data transfer is reduced.
  • the CPU 121 uses, for example, a color space identifier in a format that conforms to the transfer specification of user-specific data. Is generated.
  • FIG. 6 shows an example of the structure of the color space identifier in the predetermined network interface A. The structure example shown in FIG. 6 is different from the structure example shown in FIG. 5 described above, and newly includes information on the data size of the entire color space identifier.
  • Figure 7 shows an example of the structure of the color space identifier according to the user-specific data transfer rules for a given network interface B! /.
  • version information of network interface B standard, data size, and data identifier (user-defined) indicating color space identifier are included as shown in Fig.
  • Information such as color space information, color accuracy information, reserved area, and information on color gamut is stored.
  • the encoding / decoding unit 132 When performing data compression processing, the encoding / decoding unit 132 includes a SEINAL unit storing a color space identifier including information indicating the color space selected as described above, and includes an SP S NAL unit. Include in the access unit. In this case, even when the control unit 120 selects sRGB color space and extended sRGB color space! /, As the color space of the video signal to be recorded, the SEINAL unit storing the color space identifier is changed to the SPS. It may be included in access units that include NAL units.
  • the SEIN AL unit storing the color space identifier is changed to the SPS. Included in access units including NAL units.
  • the CPU 121 generates a color space identifier (see FIGS. 5 to 7) only when the extended sRGB color space is selected as the color space of the video signal to be recorded. In this case, compatibility with the conventional recording of the video signal in the sRGB color space (the color space identifier is recorded! /, Na! /,) Is maintained. [0074] In the structural examples of the color space identifier shown in Figs.
  • the information about the color gamut of the video signal is included.
  • the color space identifier does not necessarily include the information about the color gamut of the video signal. There is no need to be.
  • the playback apparatus can use the information about the color gamut without performing processing for acquiring the information about the color gamut from the video signal. The burden on the playback device can be reduced.
  • the medium I / F 134 records the compressed video signal obtained by the data compression processing in the encoding / decoding unit 132 under the control of the control unit 120. Record in 35. Further, the medium I / F 134 reproduces the compressed video signal from the recording medium 135 under the control of the control unit 120.
  • the LCD controller 137 drives the LCD 138 based on the video signal supplied from the signal processing unit 131 during imaging (recording), and displays a captured image (recorded image) on the LCD 138.
  • the LCD controller 137 causes the LCD 138 to display the color space included in the color space identifier (see FIGS. 5 to 7) recorded in association with the reproduced compressed video signal.
  • an OSD (on-screen display) icon is displayed to indicate what the color space of the played video signal is.
  • FIG. 8 shows a display example of a reproduced image on the LCD 138, and an icon indicating that the color space of the reproduced video signal is an extended sRGB color space is displayed. Since the color space of the video signal to be reproduced is displayed as an icon on the LCD 138 in this way, the user can easily grasp the color space of the video signal to be reproduced.
  • the external I / F 139 constitutes a network interface.
  • the external I / F 139 transfers the video signal and color space identifier reproduced from the recording medium 135 through the medium I / F 134 to the personal computer or the like through a predetermined network when transferring the video signal. Transfer to another device.
  • the color space identifier is read from the recording medium 135, and based on this color space identifier, the color space of the reproduced video signal is displayed as an icon on the LCD 138. Is transferred to another device through the network.
  • the color space identifier read block, icon display block, and network I / F block in FIG. 9 are configured by a control unit 120, a medium I / F 134, an LCD controller 137, an LCD 138, an external I / F 139, and the like. .
  • the flow chart of FIG. 9 can also be applied to other playback devices (players) that play back video signals from the recording medium 135 that is not limited to the imaging device 100 shown in FIG.
  • FIG. 10 shows an example of data on the transfer path.
  • the color space identifier included in the SEI NAL unit is read from the recording medium 135 and transferred from the network I / F block in FIG. 9 at a predetermined timing.
  • Image light from the subject is irradiated onto the imaging surface of the image sensor 112 via the lens block 111, and a subject image is formed on the imaging surface.
  • the image sensor 112 captures an image with a subject image formed on the imaging surface.
  • the analog imaging signal output from the imaging element 112 is supplied to the preprocessing circuit 113, and subjected to predetermined signal processing such as noise removal, automatic gain control, and A / D conversion.
  • the digital video data (camera output data) output from the preprocessing circuit 113 of the camera unit 110 is supplied to the signal processing unit 131.
  • the signal unit 131 interpolation processing, filtering processing, matrix calculation processing, luminance signal generation processing, color difference signal generation processing, and the like are performed on the camera output data, and the luminance signal Y and the imaging video signal are processed.
  • Color difference signal Cr / Cb is generated.
  • the image is recorded by the control unit 120 (CPU 121).
  • the sRGB color space is selected as the video signal color space.
  • the matrix coefficients of the linear matrix processing unit 155 are set so that the target color space of the R signal, G signal, and B signal after matrix calculation becomes the sRGB color space. It is done.
  • the user specifies the sRGB color space as the color space of the video signal to be recorded.
  • the video signal (luminance signal Y and color difference signal Cr / Cb) generated by the signal processing unit 131 is a video signal in the sRGB color space.
  • the video signal (luminance signal Y and color difference signal Cr / Cb) generated by the signal processor 131 is the extended sRGB color space. It becomes a space video signal.
  • the video signal generated by the signal processing unit 131 as described above is supplied to the LCD controller 137, and the LCD 138 receives a captured image (recorded image) based on the video signal. Is displayed.
  • the LCD 138 may display OSD information on the color space of the recording video signal designated by the user as described above, together with the captured image.
  • the video signal generated by the signal processing unit 131 is supplied to the encoding / decoding unit 132, and the data is based on the MPEG4-AVC standard. Compression processing is performed to generate a compressed video signal.
  • the SEI NAL unit in which the color space identifier including the information indicating the color space is stored in the access unit including the SPSNAL unit.
  • the color space identifier is generated only when the extended sRGB color space specified by the power user generated by the CPU 121 of the control unit 120 is specified. That is, the color space identifier is added to the compressed video signal only when the color space of the video signal to be recorded is the extended sRGB color space.
  • the compressed video signal obtained by the encoding / decoding unit 132 is supplied to the medium I / F 134 under the control of the control unit 120, and the recording mounted on the medium I / F 134 through the medium I / F 134. Recorded on media 135.
  • a predetermined compressed video signal is read from the recording medium 135 mounted on the medium I / F 134 through the medium I / F 134.
  • the compressed video signal read from the recording medium 135 in this way is supplied to the encode / decode unit 132 and subjected to data expansion processing.
  • the playback video signal obtained by the encoding / decoding unit 132 is supplied to the LCD controller 137, and the playback image is displayed on the LCD 138 based on the video signal.
  • the LCD 138 replays based on information indicating the color space included in the color space identifier (see FIGS. 5 to 7) recorded in association with the playback video signal.
  • An OSD icon is displayed showing what the color space of the raw video signal is. Note that the color space icon may be displayed only when the color space is the extended sRGB color space. In this case, when there is no icon display in the color space, the user can estimate that the color space of the reproduced video signal is the sRGB color space.
  • a predetermined compressed video signal is read from the recording medium 135 through the medium I / F 134 under the control of the control unit 120.
  • This compressed video signal is supplied to, for example, the encoding / decoding unit 132 and subjected to data expansion processing.
  • the video signal and color space identifier obtained by the encode / decode unit 132 are transferred from the external I / F 139 to another device such as a personal computer through a predetermined network.
  • the color space identifier added to the compressed video signal and recorded is generated in conformity with the network interface standard, so the color space identifier obtained by the encoding / decoding unit 132 is The data is transferred to the network as it is without the need to convert the format. In this case, the conversion block becomes unnecessary as the transfer flow of FIG. 9 does not show the conversion block for converting the format.
  • the flowchart in FIG. 11 shows the recording procedure of the color space identifier at the time of imaging (recording).
  • the CPU 121 starts processing in step ST1, and then proceeds to step ST2.
  • the CPU 121 determines whether or not the extended sRGB color space is selected.
  • the CPU 121 starts recording a video signal in step ST3, and in step ST4, information on the color gamut of the predetermined picture (access unit picture including SPSNAL unit). Ask for.
  • step ST5 the CPU 121 creates a color space identifier in a format corresponding to the network interface, and accesses the SEINAL unit storing this color space identifier including the SPS NAL unit of the compressed video signal. Record in the unit. Then, the CPU 121 repeats the processes of step ST4 and step ST5 while the video signal is being recorded, and when the recording of the video signal is completed, the process is ended in step ST6.
  • CPU 121 does not select an extended sRGB color space in step ST2. If, that is, if the sRGB color space is selected, the process proceeds to step ST7. CPU 121 does not create a color space identifier in step ST7, and ends the process in step ST6.
  • the user can specify either the sRGB color space or the extended sRGB color space as the color space of the video signal to be recorded.
  • a video signal luminance signal Y and color difference signal Cb / Cr
  • this video signal is MPE G4-AVC standard by the encoding / decoding unit 132.
  • the data compression process is performed and recorded on the recording medium 135.
  • the CPU 121 of the control unit 120 when the user specifies an extended sRGB color space as the color space of the video signal to be recorded, the CPU 121 of the control unit 120 generates a color space identifier including information indicating the extended sRGB color space.
  • the SEINAL unit storing the color space identifier is included in the access unit including the SPS NAL unit in the compressed video signal generated by the encoding / decoding unit 132 and recorded on the recording medium 135.
  • the color space force of the video signal to be recorded is the RGB color space
  • the video signal and the color space identifier are recorded in association with each other on the recording medium 135.
  • the color of the recorded video signal is based on the color space identifier recorded in association with the video signal.
  • the space can be easily identified.
  • the video signal can be used in a state suitable for the own apparatus based on the determination result described above. It is possible to faithfully reproduce the original color of the video signal.
  • FIG. 12 is a conceptual diagram of color area mapping in the playback apparatus.
  • the playback device recognizes the color space identifier, it can understand the color space of the input video signal, can optimally map the input video signal in a form suitable for the color space area of the playback device, and the recorded video signal It is possible to faithfully reproduce the original color that it has.
  • the mapping process is performed so that the color space region of the video signal is within the color space region of the playback device, so that the video signal is adapted to the playback device.
  • FIG. 13 shows an example in which clipping is performed at the boundary of the color space region of the reproduction apparatus, which is conventionally performed. Show. “ ⁇ ” is the color information of the pixels constituting the input video signal, and “ ⁇ ” is the color information after clipping.
  • FIG. 14 shows an example of mapping according to the color space region of the playback device based on the information included in the color space identifier. “ ⁇ ” is the color information held by the pixels constituting the input video signal, and “ ⁇ ” indicates the color information after mapping.
  • the color information outside the color space area of the playback device is parallel to the boundary line of the color space area of the input video signal. It is mapped to the intersection of the straight line and the boundary of the color space area of the playback device.
  • FIG. 15 shows the configuration of a video system 200 as another embodiment of the present invention.
  • the video system 200 includes a camera 201 that constitutes a recording device, a player 202 that constitutes a playback device, and a television 203 as an image display device.
  • the player 202 and the television 203 are connected via a network 204 such as a LAN.
  • the camera 201 is configured in the same manner as the imaging apparatus 100 shown in FIG.
  • a recording medium 135 in which a video signal and a color space identifier are recorded in association with each other is mounted on the player 202 and used.
  • the player 202 attaches the recording medium 135, and reproduces the video signal and color space identifier from the recording medium 135, and the reproduced video signal and color space identifier on the network 204.
  • an external I / F (network interface) 139 that transfers to the TV 203 via the network.
  • the external I / F 139 is reproduced from the recording medium 135 by the reproducing unit 202a by generating the color space identifier in a format suitable for the output form of the network interface in the camera 201 and recording it in the recording medium 135.
  • the color space identifier thus transmitted can be sent to the network 204 as it is at a predetermined transfer timing.
  • a conceptual diagram of data on the network 204 is as shown in FIG.
  • the television 203 displays an image using the video signal and the color space identifier transferred from the player 202. Based on the information included in the color space identifier sent together with the video signal, the television 203 converts the color information held by the pixels constituting the video signal into the text. Map according to the color space area of Levi 203 (see Fig. 14) and faithfully reproduce the original color of the video signal.
  • the television 203 acquires a color space identifier transmitted from the external I / F 139 of the player 202 at a predetermined transfer timing, and performs a mapping process corresponding to the acquired color space identifier. Therefore, the television 203 can faithfully reproduce the original color of the video signal having no problem even when a video signal in which a plurality of video signals having different color spaces are combined is transmitted.
  • the flowchart in FIG. 16 shows the procedure for changing the mapping process in the television 203.
  • Television 203 starts processing in step ST11, and proceeds to step ST12.
  • step ST12 the television 203 determines whether or not the color space identifier has been transferred. When the color space identifier is transferred, the television 203 proceeds to step ST13.
  • step ST13 the television 203 acquires a color space identifier. And TV
  • step ST14 the process 203 changes the mapping process so that the mapping process based on the color space identifier acquired in step ST13 is performed.
  • the television 203 returns to step ST12 after step ST14, and proceeds to transfer determination of the next color space identifier.
  • the video signal corresponding to the predetermined color space obtained by processing the captured video signal is recorded on the recording medium 135, the information indicating the predetermined color space is included.
  • a color space identifier is generated and recorded in association with the video signal, and the original color of the recorded video signal can be faithfully reproduced by the playback device.
  • the color space identifier exists corresponding to the access unit (predetermined position of the video signal) including the SPS NAL unit of the video stream, the color space differs. Even when a video signal obtained by combining a plurality of video signals is played back on a television or the like, there is no problem. Therefore, editing performance such as division and combination is improved.
  • the color space identifier includes information indicating the color space and information on the color gamut of the video signal (for example, the maximum value and the minimum value of the color gamut).
  • the information about the color gamut is used without performing processing for acquiring the information about the color gamut from the video signal. Mapping process suitable for the playback device. Can be done easily.
  • the color space identifier is inserted into the access unit including the SPS NAL unit.
  • the sequence parameter set and the color space identifier are read out.
  • the related color information can be read in a batch and played back by a recording device that records video signals (for example, the camera 201 shown in FIG. 15), or a playback device (for example, FIG. 15).
  • the required information access time can be shortened in the player 202 shown).
  • the color space identifier is not generated when the sRGB color space is selected, and the color space identifier is generated when the extended sRGB color space is selected. Therefore, it is possible to maintain compatibility with the conventional one in which the video signal of the sRGB color space as the specific color space is recorded (the color space identifier is recorded! / ,!).
  • the color space identifier is generated in a format suitable for the output form of the network interface and recorded on the recording medium 135, and the color space identifier is combined with the video signal.
  • the color space identifier When sending to the network, it can be sent in the same format, eliminating the need for conversion blocks.
  • the red (R) in each color space (sRGB color space, extended sRGB color space) supported by the imaging device 100 corresponds to the flash ROM 123 or the like.
  • Green (G), and blue (B) information about each color gamut (for example, the maximum and minimum values of the color gamut) is stored, and the CPU 121 generates the flash space identifier when generating the color space identifier.
  • Information on each color gamut may be read from 123 and the like and used.
  • the SEINAL unit is used for each access unit including the SPS NAL unit.
  • the color space identifier added is the same while the video signal is recorded, unless the user changes the color space designation. Even in this case, since the playback device can recognize the color space information of the input video signal, information about the color gamut, etc. based on the color space identifier, the video signal can be used in a state suitable for the device itself. It is possible to faithfully reproduce the original color of the video signal.
  • the encoding / decoding unit 132 performs MPEG4-AVC standard data compression processing, and the SEINAL unit storing the color space identifier is changed to an access unit including the SPS NAL unit.
  • a video signal has a stream configuration in which a plurality of access units are continuous, and a sequence parameter set including color information of the sequence for each sequence composed of a predetermined number of access units.
  • the predetermined data compression processing it is possible to obtain a similar result by adopting a configuration in which the color space identifier is included in the access unit including the sequence parameter set.
  • the access unit in which the color space identifier is included is not limited to the access unit including the SPSNAL unit.
  • the access unit that includes the color space identifier may be a predetermined access unit that is intermittently arranged regardless of the access unit that includes the SPS NAL unit.
  • an access unit including a color space identifier may be an access unit including an SPSNAL unit and another predetermined number of access units. . In this case, it is possible to reduce the redundancy that does not include SEI NAL units in all access units.
  • all access units may include access units including SEINAL units in which color space identifiers are stored.
  • the power of the video signal that increases the redundancy has information about the color gamut for each access unit, so the accuracy of color reproducibility in the playback device can be increased.
  • the present invention can record a video signal on a recording medium so that the original color of the recorded video signal can be faithfully reproduced by a playback device.

Description

明 細 書
記録装置、記録方法、撮像装置、再生装置およびビデオシステム 技術分野
[0001] この発明は、撮像ビデオ信号を記録媒体に記録する記録装置、記録方法、撮像装 置、再生装置およびビデオシステムに関する。詳しくは、この発明は、撮像ビデオ信 号を処理して得られた所定色空間に対応したビデオ信号を記録媒体に記録する際、 当該所定色空間を示す情報を含む色空間識別子を生成し、当該色空間識別子をビ デォ信号と対応付けて記録媒体に記録することにより、記録されたビデオ信号が持 つ本来の色を再生装置において忠実に再現し得るように当該ビデオ信号を記録媒 体に記録する記録装置等に係るものである。
背景技術
[0002] 近年、撮像ビデオ信号を記録再生するうえで、高画質化への要求とともに、自然界 に存在する色を忠実に再現する色再現性への要求が高くなつている。例えば、バラ の花びらの真紅色、海の鮮やかなエメラルド色などを、より自然な画像により表現する こと力 S挙げられる。
[0003] 現在、コンピュータディスプレイ用の標準色空間として sRGB規格が業界標準となつ ている。しかし、前述の色再現性のへの要求から、例えば、 sRGB規格で定義された 色空間より広い色空間である拡張された sRGB規格 (ここでは、「拡張 sRGB規格」と 呼ぶ)で、カラー画像を再現できる再生装置が提案されてレ、る。
[0004] 例えば、特許文献 1には、拡張 sRGB規格を実現するカラー液晶表示装置が記載 されている。このカラー液晶表示装置は、ノ^クライト装置の光源として、 3波長以上 の光を発光する 3波長蛍光ランプからなる主白色光源と、ピーク波長え prがえ pr = 6 45nmである赤色光を発光する赤色発光ダイオード、ピーク波長 λ pgが λ pg = 555 nmである緑色光を発光する緑色発光ダイオードおよびピーク波長 λ pbが λ pb = 44 Onmである青色光を発光する青色発光ダイオードを少なくとも 1種類以上含む補助 光源とを用いることで、 sRGB規格で定義された色空間より広!/、色空間を実現して!/、 [0005] 例えば、主白色光源 21に対して、補助光源 22として、ピーク波長え pg = 555nm である緑色発光ダイオード 22G、ピーク波長 λ pb = 440nmである青色発光ダイォ ード 22B、ピーク波長え pr = 645nmである赤色発光ダイオード 22Rを用いた場合に おいて、カラー液晶表示パネルから出射される表示光を測色計にて測定し、色度点 を xy色度図中にプロットすると、図 17aに示すような色再現範囲が得られる。
[0006] 図 17b、図 17c、図 17dは、それぞれ緑色(G)、青色(B)、赤色(R)の各領域を拡 大した図である。なお、図 17a、図 17b、図 17c、図 17dの xy色度図中には、 Adobe RGB規格の色再現範囲、国際照明委員会(CIE)が定めた XYZ表色系、 sRGB規 格の色再現範囲、主白色光源 21のみを光源として使用した場合の色再現範囲も同 時に示してある。
[0007] また、例えば、特許文献 1には、さらに、透過波長帯域のピーク波長 Fprが 685nm ≤ Fpr≤ 690nmであり、青色フィルタの透過波長帯域における当該赤色フィルタの 透過率をゼロとした赤色フィルタと、透過波長帯域のピーク波長 Fpgが 530nmであり 、青色フィルタの透過波長帯域における当該緑色フィルタの透過率を減少させること で、透過波長帯域の半値幅 Fhwgを 90nm≤Fhwg≤ lOOnmとした緑色フィルタと、 透過波長帯域のピーク波長 Fpbを 440nm≤Fpb≤460nmとした青色フィルタとから なるカラーフィルタを備えることで、色再現範囲を大幅に拡大できることが記載されて いる。
[0008] 例えば、主白色光源 21に対して、補助光源 22を用い、さらに、青色フィルタのピー ク波長を Fpb = 440nm、緑色フィルタのピーク波長を Fpg = 530nm、赤色フィルタ のピーク波長を Fpr = 690nm、緑色光の透過波長帯域の半値幅 Fhwg = 90nmとし たカラーフィルタ 19Aを備える場合において、カラー液晶表示パネルから出射される 表示光を測色計にて測定し、色度点を xy色度図中にプロットすると、図 18aに示すよ うな色再現範囲が得られる。
[0009] 図 18b、図 18c、図 18dは、それぞれ緑色(G)、青色(B)、赤色(R)の各領域を拡 大した図である。なお、図 18a、図 18b、図 18c、図 18dの xy色度図中には、 Adobe RGB規格の色再現範囲、国際照明委員会(CIE)が定めた XYZ表色系、 sRGB規 格の色再現範囲、主白色光源 21のみを光源として使用した場合の色再現範囲も同 時に示してある。
[0010] ところで、記録装置にお!/、ても、 sRGB規格より広!/、色空間でビデオ信号を記録す ることへの要求が高くなつてきている。従来のように、記録装置、再生装置がともに sR GB規格に準拠している場合は、記録装置で記録されたビデオ信号が持つ色を、再 生装置で忠実に再現できる。
[0011] しかし、記録装置が sRGB規格より広い色空間でビデオ信号を記録し、再生装置が 従来の sRGB規格の色空間のみでの対応であった場合、再生装置ではそのビデオ 信号を自機における色空間に単純にクリッピングして再生することになるので、本来 のビデオ信号が持つ色を再現できなくなる。
[0012] また、特許文献 1のように、拡張 sRGB規格でカラー画像を再現できた場合におい ても、記録装置で記録されたビデオ信号も拡張 sRGB規格で記録されて!/、た場合、 再生装置ではビデオ信号が sRGB規格か拡張 sRGB規格かを識別できな!/、限り、ビ デォ信号の色を忠実に再現できなくなる。
[0013] なお、特許文献 2には、画像データと当該画像データに関連する色空間を表す色 空間識別情報とが互いに対応付けられた画像セットに基づいて、画像を再生する画 像再生装置が記載されている。この画像再生装置は、色空間識別情報で指定された 色空間が、標準色空間である場合にも、特定色空間である場合にも、それぞれの場 合に適した画像再生を行う。
[0014] つまり、画像再生装置は、色空間識別情報で指定された色空間が標準色空間(例 えば、 sRGB色空間)である画像データを再生する際には、当該画像データに対して 基本色空間変換を行って再生用画像データを生成する。一方、画像再生装置は、 色空間識別情報で指定された色空間が標準色空間以外の色空間(例えば、 AdobeR GB (アドビ社の商標)等)である画像データを再生する際には、当該画像データに対 して装置依存色空間(例えば、 sRGB色空間等)への変換を行って再生用画像デー タを生成する。
特許文献 1:特開 2006— 119295号公報
特許文献 2:再表 2004/077837号公報
発明の開示 発明が解決しょうとする課題
[0015] 特許文献 2には、画像データに対応付けられた色空間情報に基づいて、当該画像 データに適した画像再生を行うものである。この特許文献 2に記載される技術は、画 像データと、当該画像データに関連する色空間を表す色空間識別情報とが互いに 対応付けられた画像データセット(画像データファイル)の存在が前提となっており、 当該画像データセットをどのようにして得るかが問題となる。特許文献 2には、当該画 像データセットをデジタルカメラで生成することが記載されている力 S、当該デジタル力 メラの記録系でいかなる手順をもって当該画像データセットを生成するかについての 具体的記載はない。
[0016] また、特許文献 2における画像データセットは、所定の画像データに対して 1つの色 空間識別情報が付加された構成となっている。そのため、例えば複数フレームの画 像データからなるビデオ信号を扱う場合、分割'結合等の編集時に、当該色空間識 別情報の取り扱いが複雑となる。例えば、ビデオ信号の分割時には、色空間情報を 複製して各分割部分に付加させる必要がある。また、例えば、結合時に、結合された 相手のビデオ信号との間の色空間が異なる場合には、 V、ずれかの色空間情報を選 択する必要がある。
[0017] この発明の目的は、記録されたビデオ信号が持つ本来の色を再生装置において忠 実に再現し得るように当該ビデオ信号を記録媒体に記録する記録装置および記録 方法を提供することにある。
課題を解決するための手段
[0018] この発明の概念は、
撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信号処 理部と、
前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成 部と、
前記ビデオ信号処理部で得られた前記ビデオ信号と、前記色空間識別子生成部 で生成された前記色空間識別子とを記録媒体に対応付けて記録する記録部とを備 え、 前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされる
ることを特徴とする記録装置にある。
[0019] この発明においては、ビデオ信号処理部において、撮像ビデオ信号が処理されて 、所定色空間に対応したビデオ信号が得られる。例えば、色空間選択部において、 複数の色空間から所定色空間が選択される。この選択は、例えば、ユーザの指定操 作に基づいて行われる。例えば、色空間としては、 sRGB色空間、拡張 sRGB空間な どがある。例えば、色空間として sRGB色空間が選択されるときには、 sRGB色空間 に対応したビデオ信号が得られ、色空間として拡張 sRGB色空間が選択されるときに は、拡張 sRGB空間に対応したビデオ信号が得られる。
[0020] 色空間識別子生成部において、所定色空間を示す情報を含む色空間識別子が生 成される。そして、記録部において、ビデオ信号処理部で得られたビデオ信号と、色 空間識別子生成部で生成された色空間識別子とが、記録媒体に、対応付けて記録 される。この場合、記録媒体にはビデオ信号が複数のアクセスユニットで構成される ビデオストリーム形式で記録されると共に、色空間識別子は所定のアクセスユニットに 対応付けされる。
[0021] この発明においては、所定色空間に対応したビデオ信号が得られるようにビデオ信 号処理が行われると共に、当該所定色空間を示す情報を含む色空間識別子が生成 され、これらビデオ信号および色空間識別子が記録媒体に対応づけて記録される。 そのため、記録媒体に記録されたビデオ信号によるカラー画像を再生する再生装置 にあっては、当該ビデオ信号と対応して記録されている色空間識別子に含まれる色 空間情報を用いることで、ビデオ信号を再生装置に適した状態で使用でき、ビデオ 信号が持つ本来の色を忠実に再現することが可能となる。
[0022] また、ビデオストリームの所定のアクセスユニット(ビデオ信号の所定位置)に対応し て色空間識別子が存在するため、上述の特許文献 2に記載のものと比べて、分割編 集時に色空間識別子を複製して各分割部分に付加させる必要もなぐまた、結合編 集時に、各ビデオ信号に付加されている色空間識別子をそのまま用いることで、テレ ビ等で色空間の異なるビデオ信号を結合したデータを再生する場合等でも問題がな ぐ従って、分割 ·結合等の編集性能が向上する。
[0023] この発明においては、色空間識別子生成部で生成される色空間識別子には、色空 間を示す情報と共に、ビデオ信号の色域に関する情報 (例えば、色域の最大値およ び最小値)力 S含まれるようにしてもよい。色空間識別子にビデオ信号の色域に関する 情報が含まれる場合、再生装置では、当該色域に関する情報をビデオ信号から取得 する処理を行うことなぐ当該色域に関する情報を用いることが可能となる。
[0024] また、この発明においては、色空間識別子生成部が、ビデオ信号の色域に関する 情報を記憶した記憶部を有し、色空間識別子に含めるビデオ信号の色域に関する 情報を、記憶部から読み出して得るようにしてもよい。色空間識別子生成部は、ビデ ォ信号から色域に関する情報を求める処理を省略できる。
[0025] この発明にお!/、ては、記録部では、ビデオ信号処理部で得られたビデオ信号が、 ビデオ信号に複数のアクセスユニットが連続したストリーム構成を得るための所定の データ圧縮処理が施されて記録され、色空間識別子生成部では、データ圧縮処理 後におけるビデオ信号のストリームを構成する各アクセスユニットに対応して、色空間 識別子が生成される。この場合には、アクセスユニット毎に例えば色域に関する情報 を持つことができるので、再生装置における色再現性の精度を高くできる。
[0026] この発明にお!/、ては、記録部では、ビデオ信号処理部で得られたビデオ信号が、 当該ビデオ信号に複数のアクセスユニットが連続したストリーム構成を得るための所 定のデータ圧縮処理が施されて記録され、色空間識別子生成部は、データ圧縮処 理後におけるビデオ信号のストリームを構成する各アクセスユニットのうち、間欠的に 配置されている所定のアクセスユニットに対応して、色空間識別子が生成される。間 欠的に配置されたアクセスユニットに対応して色空間識別子が生成される場合には、 冗長度を軽減できる。
[0027] この発明にお!/、ては、記録部では、ビデオ信号処理部で得られたビデオ信号が、 ビデオ信号に、複数のアクセスユニットが連続したストリーム構成を得ると共に、所定 数のアクセスユニットにより構成されるシーケンス毎に当該シーケンスの色情報を含 むシーケンスパラメータセットを有する構成とするための所定のデータ圧縮処理が施 されて記録され、色空間識別子生成部では、データ圧縮処理後におけるビデオ信号 のストリームを構成する各アクセスユニットのうち、シーケンスパラメータセットを含むァ クセスユニットに対応して、色空間識別子が生成される。
[0028] MPEG4— AVC規格のデータ圧縮処理が行われる場合、シーケンスパラメータセ ットを含むアクセスユニットは、シーケンスパラメータセットの NALユニットを含むァク セスユニットである。この場合、シーケンスパラメータセットを含むアクセスユニットを読 み出すことにより、シーケンスパラメータセットおよび色空間識別子を、つまり関連した 色情報を一括して読み出すことができ、再生装置において、必要な情報アクセス時 間を短縮できる。
[0029] この発明におレ、ては、色空間識別子生成部では、色空間選択部で特定の色空間 が選択されるときには、色空間識別子が生成されないようにしてもよい。例えば、色空 間識別子生成部では、 sRGB色空間が選択されるときは色空間識別子が生成されず 、拡張 sRGB色空間が選択されるときは色空間識別子が生成される。この場合、特定 の色空間のビデオ信号が記録される従来のもの(色空間識別子は記録されて!/、なレ、 )との互換性が保たれる。上述の特許文献 2に記載される技術では、いずれの色空間 においても色空間識別情報が付加されており、従来の色空間識別情報が付加され て!/、な!/、ものに対して、互換性が保たれな!/、。
[0030] この発明にお!/、ては、記録媒体に記録されたビデオ信号および色空間識別子は、 記録媒体から再生されて、ネットワークインタフェースを介してネットワークに送出され る。例えば、色空間識別子生成部では、ネットワークインタフェースの出力形態に適 合した形式で、色空間識別子が生成される。この場合、色空間識別子をネットワーク に送出する際に、記録媒体に記録されている色空間識別子の形式を変更する必要 がなぐそのままの形式でネットワークに送出できる。上述の特許文献 2に記載される 技術では、ネットワークインタフェースの出力形態に適合した形式で色空間識別情報 を生成するものではなぐこの色空間識別情報をネットワークに送出する際には、ネッ トワークインタフェースの出力形態に適合した形式に変換するための変換ブロックが 必要となる。
[0031] この発明にお!/、ては、記録媒体に記録されて!/、るビデオ信号および色空間識別子 は、例えば、ネットワークに送出される場合、再生部により再生される。この場合、色 空間識別子に基づいて、再生されるビデオ信号の色空間が表示部により表示される ようにしてもよい。この場合、ユーザは、再生されるビデオ信号の色空間を容易に把 握できる。
発明の効果
[0032] この発明によれば、撮像ビデオ信号を処理して得られた所定色空間に対応したビ デォ信号を記録媒体に記録する際、当該所定色空間を示す情報を含む色空間識別 子を生成してビデオ信号に対応付けて記録するものであり、記録されたビデオ信号 が持つ本来の色を再生装置において忠実に再現し得るように当該ビデオ信号を記 録媒体に記録できる。
図面の簡単な説明
[0033] [図 1]実施の形態としての撮像装置の構成を示すブロック図である。
[図 2]撮像装置における信号処理部の構成を示すブロック図である。
[図 3]撮像素子の前面に配される 4色カラーフィルタの色配列を示す図である。
[図 4A]MPEG4— AVC規格の概要を説明するための図である。
[図 4B]分割編集時におけるビデオストリームの分割例を示した図である。
[図 5]色空間を示す情報等を含む色空間識別子の構造例を示す図である。
[図 6]ネットワークインタフェース Aにおける色空間識別子の構造を示す図である。
[図 7]ネットワークインタフェース Bにおける色空間識別子の構造を示す図である。
[図 8]再生時における再生画像(色空間を示すアイコン)の表示例を示す図である。
[図 9]色空間識別子の読み取り転送フローを示す図である。
[図 10]転送路上でのデータ例を示す図である。
[図 11]撮像時 (記録時)における、色空間識別子の記録手順を示すフローチャートで ある。
[図 12]再生装置における色領域マッピングの概念を示す図である。
[図 13]再生装置の色空間領域の境界へクリッピングする例を示す図である。
[図 14]再生装置の色空間領域に応じてマッピングする例を示す図である。
[図 15]他の実施の形態としてのビデオシステムの構成を示すブロック図である。 [図 16]テレビにおけるマッピング処理の変更手順を示すフローチャートである。
[図 17a]主白色光源に補助光源を付加した場合の色再現範囲を示した図である。
[図 17b]図 17aにおける緑色(G)領域の色域を拡大して示した図である。
[図 17c]図 17aにおける青色(B)領域の色域を拡大して示した図である。
[図 17d]図 17aにおける赤色(R)領域の色域を拡大して示した図である。
[図 18a]カラーフィルタを改善した場合の色再現範囲を示した図である。
[図 18b]図 18aにおける緑色(G)領域の色域を拡大して示した図である。
[図 18c]図 18aにおける青色(B)領域の色域を拡大して示した図である。
[図 18d]図 18aにおける赤色(R)領域の色域を拡大して示した図である。
符号の説明
[0034] 100···撮像装置、 110···カメラ部、 111···レンズブロック、 112···撮像素子、 1 13···前処理回路、 114…光学ブロック用ドライバ、 115…撮像素子用ドライバ、 1 16···タイミング生成回路、 120···制御部、 121— CPU、 122·· -RAM, 123··· フラッシュ ROM、 124···時計回路、 125· "システムバス、 131···信号処理部、 13 2···エンコード/デコード部、 133— SDRAM、 134· ··媒体インタフェース、 135· ··記録媒体、 136···操作部、 137— LCDコントローラ、 138---LCD, 139· "外 部インタフェース、 151···オフセット補正処理部、 152···ホワイトバランス補正処理 部、 153···垂直方向同時化処理部、 154···処理部、 155···リニアマトリクス処理 部、 156R〜156B—ガンマ補正処理部、 157· ··輝度信号生成処理部、 158··· 色差信号生成処理部、 159···帯域制限 '間引き処理部、 200···ビデオシステム、 2 01 '"カメラ、 202· "プレーヤ、 202a. ··再生部、 203· "テレビ、 204···ネットヮ ーク
発明を実施するための最良の形態
[0035] 以下、図面を参照しながら、この発明の実施の形態について説明する。図 1は、実 施の形態としての撮像装置 100の構成を示している。
[0036] 撮像装置 100は、カメラ部 110と、制御部 120と、信号処理部 131と、エンコード/ デコード咅 | 32と、 SDRAM (Synchronous Dynamic Random Access Memory) 133と
、媒体インタフェース(媒体 I/F) 134と、操作部 136と、 LCD (Liquid Crystal Displa y)コントローラ 137と、 LCD138と、外部インタフェース(外部 I/F) 139とを備えて!/ヽ る。媒体 I/F134には、記録媒体 135が着脱可能とされている。
[0037] 記録媒体 135としては、メモリカード等の半導体メモリ、記録可能な DVD (Digital V ersatile Disk)、記録可能な CD (Compact Disc)等の光記録媒体、さらには磁気ディ スク等を用いること力 Sできる。この実施の形態においては、記録媒体 135として、例え ばメモリカードが用いられる。
[0038] カメラ部 110は、光学ブロック 111、撮像素子 112、前処理回路 113、光学ブロック 用ドライバ 114、撮像素子用ドライバ 115およびタイミング制御回路 116を備えている
[0039] 光学ブロック 111は、撮像レンズ、フォーカス機構、シャッター機構、絞り(アイリス) 機構などを有している。光学ブロック用ドライバ 114は、制御部 120の制御の下、光 学ブロック 111を動作させるための駆動信号を形成し、この駆動信号を光学ブロック 11 1に供給する。光学ブロック 111では、ドライバ 114からの駆動信号に応じて、フォ 一カス機構、シャッター機構、絞り機構が制御される。
[0040] 撮像素子 112は、 CCD(Charged Coupled Device)あるいは CMOS(Complementar yMetal-Oxide Semiconductor)等の撮像素子である。タイミング生成回路 116は、制 御部 120の制御の下、撮像素子 112および撮像素子用ドライバ 115で必要とする種 々のタイミング信号を生成する。ドライバ 1 15は、タイミング生成回路 116からのタイミ ング信号に基づいて、撮像素子 112を駆動するための駆動信号を形成し、この駆動 信号を撮像素子 112に供給する。
[0041] 前処理回路 113は、例えば、 CDS (Correlated Double Sampling)、 AGC (Automati cGain Control)、および AD (Analog toDigital)コンバータなどで構成され、撮像素子 1 12から出力されるアナログの撮像信号に対して、ノイズ除去、自動利得制御、および A/D変換などの所定の信号処理を施し、デジタルビデオデータ(カメラ出力データ) を出力する。
[0042] 制御部 120は、 CPU (Central Processing Unit) 121、 RAM (RandomAccess Memo ry) 122、フラッシュ ROM (Read Only Memory) 123、時計回路 124が、システムバス 125を介して接続されて構成されたマイクロコンピュータである。制御部 120は、撮像 装置 100の各部の動作を制御する。ここで、 RAM122は、処理の途中結果を一時 記憶する等、主に作業領域として用いられる。フラッシュ ROM123には、 CPU121 が実行する種々のプログラム、および処理に必要なデータ等が記憶されている。時 計回路 124は、現在年月日、現在曜日、現在時刻を提供する。
[0043] 操作部 136は、ユーザインタフェースを構成しており、ユーザの操作を受け付ける。
この操作部 136は、タツチパネル、コントロールキー等により構成されている。操作部 136は、 CPU121に接続されており、ユーザの操作に対応した操作信号を CPU12 1に供給する。
[0044] ユーザは、この操作部 136を操作して、記録されるビデオ信号の色空間として、 sR GB色空間または拡張 sRGB色空間のいずれかを指定できる。制御部 120 (CPU12 1)は、ユーザ力 SSRGB色空間を指定した場合には、記録されるビデオ信号の色空間 として sRGB色空間を選択し、一方、ユーザが拡張 sRGB色空間を指定した場合に は、記録されるビデオ信号の色空間として拡張 sRGB色空間を選択する。この意味で 、制御部 120は、色空間選択部を構成している。
[0045] 信号処理部 131は、カメラ部 110の前処理回路 113から出力されるデジタルビデオ データ(カメラ出力データ)に対して、補間処理、フィルタリング処理、マトリクス演算処 理、輝度信号生成処理、色差信号生成処理等を行って、撮像ビデオ信号としての輝 度信号 Yおよび色差信号 Cr/Cbを出力する。
[0046] 図 2は、信号処理部 131の構成例を示している。この構成例は、撮像素子 112の前 面に、図 3に示す色配列の 4色カラーフィルタが設けられた場合の例である。このカラ 一フィルタは、赤(R)の光のみを透過する Rフィルタと、青(B)の光のみを透過する B フィルタと、第 1の波長帯域の緑色の光のみを透過する G1フィルタと、第 2の波長帯 域の緑色の光のみを透過する G2フィルタとの、合計 4個を最小単位とする構成を有 している。
[0047] 撮像素子 112の前面に図 3に示す色配列のカラーフィルタが設けられる場合、上述 の撮像素子 112から出力されるアナログの撮像信号は、 R信号、 G1信号、 G2信号、 B信号の 4種類の色信号となる。そして、前処理回路 113では、各色信号に対して、 ノイズ除去、 自動利得制御、および A/D変換などの所定の信号処理が施される。こ の前処理回路 113から信号処理部 131には、上述のデジタルビデオデータとして、 R 信号、 G1信号、 G2信号、 B信号の 4種類の色信号が供給される。
[0048] 信号処理部 131は、 LSKLarge Scale IntegratedCircuit:大規模集積回路)の構成と されており、オフセット補正処理部 151と、ホワイトバランス補正処理部 152と、垂直方 向同時化処理部 153と、処理部 154と、リニアマトリクス処理部 155と、ガンマ補正処 理部 156R〜; 156Bと、輝度信号生成処理部 157と、色差信号生成処理部 158と、 帯域制限 '間引き処理部 159とを有している。
[0049] オフセット補正処理部 151は、前処理回路 113から供給される各色信号に含まれる ノイズ成分(オフセット成分)を除去する。ホワイトバランス補正処理部 152は、オフセ ット補正処理部 151でノイズ成分が除去された各色信号に対してホワイトバランス補 正を行う。すなわち、ホワイトバランス補正処理部 152は、被写体の色温度環境の違 い、そして撮像素子 112の前面に配されるカラーフィルタ(R, Gl , G2, B)の感度の 違いによる各色間のアンバランスを補正する。
[0050] 垂直方向同時化処理部 153は、ホワイトバランス補正処理部 152でホワイトバランス 補正が行われた各色信号に対して、垂直方向の同時化処理を行う。処理部 154は、 垂直方向同時化処理部 153で同時化されて得られる各色信号に対して、補間処理、 フィルタ処理、高域周波数補正処理およびノイズ処理等を行う。補間処理は、カラー フィルタ(R, Gl , G2, B)の最小単位である 2 X 2画素の色信号を同一空間の位相 に補間する処理である。フィルタ処理は、信号帯域を制限する処理である。高域成分 補正処理は、信号帯域の高域成分を補正する処理である。ノイズ処理は、各色信号 のノイズ成分を除去する処理である。
[0051] リニアマトリクス処理部 155は、処理部 154から出力される R信号、 G1信号、 G2信 号、 B信号に対して、 4入力 3出力のマトリクス演算を行って、 R信号、 G信号、 B信号 を出力する。すなわち、リニアマトリクス処理部 155は、 3 X 4の行列のマトリクス係数 を用いて、 R信号、 G1信号、 G2信号、 B信号から、 R信号、 G信号、 B信号を求める。
[0052] ここで、上述したように、制御部 120が、ユーザの指定に基づいて、記録されるビデ ォ信号の色空間として sRGB色空間を選択した場合、リニアマトリクス処理部 155の マトリクス係数は、マトリクス演算後の R信号、 G信号、 B信号の目標色空間が sRGB 色空間となるように、設定される。同様に、制御部 120が、ユーザの指定に基づいて 、記録されるビデオ信号の色空間として拡張 sRGB色空間を選択した場合、リニアマ トリタス処理部 155のマトリクス係数は、マトリクス演算後の R信号、 G信号、 B信号の 目標色空間が拡張 sRGB色空間となるように、設定される。
[0053] ガンマ補正処理部 156R、 156G、 156Bは、リニアマトリクス処理部 155から出力さ れる R信号、 G信号、 B信号に対して、ガンマ補正を行う。この場合、最終的にリニア な特性を実現するために、 CRT(Cathode Ray Tube)ディスプレイ、 LCD(Liquid Crys talDisplay)等の表示装置が有する非線形特性の逆補正が行われる。
[0054] 輝度信号生成処理部 157は、ガンマ補正処理部 156R、 156G、 156Bでガンマ補 正された R信号、 G信号、 B信号を所定の合成比で合成して輝度信号 Yを生成する。 色差信号生成処理部 158は、ガンマ補正処理部 156R、 156G、 156Bでガンマ補 正された R信号、 G信号、 B信号を所定の合成比で合成することによって、青色差信 号 Cbおよび赤色差信号 Crを生成する。帯域制限,間引き処理部 159は、色差信号 生成処理部 158で生成された色差信号 Cb, Crに対して帯域制限および間引きの処 理を行って、色差信号 Cb, Crが時分割多重化された色差信号 Cb/Crを形成する。
[0055] 図 1に戻って、エンコード/デコード部 132は、信号処理部 131から出力される輝 度信号 Yおよび色差信号 Cb/Crに対してデータ圧縮処理を行って、圧縮ビデオ信 号を生成する。また、エンコード/デコード部 132は、記録媒体 135から媒体 I/F13 4で再生された圧縮ビデオ信号に対してデータ伸長処理を行って、輝度信号 Yおよ び色差信号 Cb/Crを生成する。エンコード/デコード部 132は、 SDRAM133を禾 IJ 用して、上述したデータ圧縮処理およびデータ伸長処理を行う。
[0056] エンコード/デコード部 132は、従来周知の MPEG4—AVC規格に基づいて、デ ータ圧縮処理およびデータ伸長処理を行う。図 4Aを用いて、 MPEG4— AVC規格 について簡単に説明する。
[0057] MPEG4— AVC規格では、動画像符号化処理を极ぅ VCL(Video Coding Layer)と 、符号化された情報を伝送、蓄積する下位システムとの間に NAL(Network Abstract! on Layer)が存在している。また、シーケンスゃピクチャのヘッダ情報に相当するパラメ ータセットも VCLで生成した情報と分離して扱えるようになつている。さらに、 MPEG 2システムなどの下位システムへのビットストリームの対応付けは、 NALの一区切り である「NALユニット」を単位として行われる。
[0058] 主な NALユニットを説明する。 SPS(Sequence Parameter Set) NALユニットには、 プロファイル、レベル情報等、シーケンス全体の符号化に関わる情報が含まれる。ビ ットストリームにおいて、当該 SPSNALユニットが揷入されているアクセスユニットが 先頭に存在する連続した複数のアクセスユニットにより、 1シーケンスが構成されてい る。一般的には、このシーケンスを編集単位として、ストリームの分割、結合、消去等 の編集が行われる。
[0059] PPS(Picture Parameter Set) NALユニットには、エントロピー符号化モード、ピクチ ャ単位の量子化パラメータ等のピクチャ全体の符号化モードに関する情報が含まれ る。 Coded Slice of an IDR picture NALユニットに (ま、 IDR(Instantaneous Decoder Re fresh)ピクチャの符号化データが格納される。 IDRピクチャは、画像シーケンスの先頭 のピクチャであり、実際の使用例としては編集点となるピクチヤである。 Coded Slice of a non IDR picture NALユニットには、 IDRピクチャでない、その他のピクチャの符号 化データが格納される。
[0060] SEL(Supplemental Enhancement Information) NALユニットには、 VCLの符号に 必須でない付加情報が格納される。ランダムアクセスを行うのに便利な情報、ユーザ が独自に定義する情報等が格納される。 AUD(Access Unit Delimiter) NALユニット は、後述するアクセスユニット(AU)の先頭に付加される。この AUDNALユニットに は、アクセスユニットに含まれるスライスの種類を示す情報が含まれる。その他、シー ケンスの終了を示す EOS(EndOf Sequence) NALユニット、および、ストリームの終了 を示す EOS(End Of Stream) NALユニットが定義されている。
[0061] ビットストリーム中の情報をピクチャ単位(フレーム単位)にアクセスするために、いく つかの NALユニットをまとめたものをアクセスユニット(AU)と呼ぶ。アクセスユニット には、ピクチャのスライスに相当する NALユニット (CodedSlice of an IDR picture NAL ユニットまたは Coded Slice of a nonlDR picture NALユニット)が必ず含まれる力 他 の情報を含む場合には、図 4Aに示すとおりの順番に並べる必要がある。
[0062] エンコード/デコード部 132は、データ圧縮処理を行う際に、 SPSNALユニットを 含むアクセスユニットに色空間識別子を含める。この色空間識別子には、上述したよ うに制御部 120が選択した色空間を示す情報が含まれている。この場合、実際には、 色空間識別子が含められた SEINALユニットが、 SPS NALユニットを含むアクセス ユニットに揷入される。このように SPS NALユニットを含むアクセスユニットに色空間 識別子が含められることで、 SPSNALユニットを含むアクセスユニットを読み出すこと により、シーケンスパラメータセットおよび色空間識別子を一括して読み出すことがで き、再生装置において、必要な情報アクセス時間を短縮できる。
[0063] すなわち、 MPEG— 4 AVC規格として、シーケンスパラメータセットに、 VUI(Vide 0 Usability Information)パラメータが含まれる。この VUIパラメータは、ビデオの表示 情報などに関するデータであり、例えば RGBの色信号から輝度信号、色差信号への 変換行列に関する情報等が含まれる。色空間識別子が格納された SEINALユニット を、 SPS NALユニットを含むアクセスユニットに含めることにより、ビデオ信号を表示 する際に利用する情報である、色空間識別子に記録された情報および VUIパラメ一 タを、同じアクセスユニット (AU)に格納できる。この場合、再生装置では、記録媒体 1 35から、当該アクセスユニットを読み出すことにより、カラー画像を表示する際に利用 する色情報を一括して読み出すことができ、必要な情報アクセス時間を短縮できる。
[0064] さらに、 SPS NALユニットが揷入されているアクセスユニットが先頭に存在するシ 一ケンスが編集単位として用いられるため、ストリームが分割された場合、他のストリ ームと結合した場合、あるいは、ストリームの一部が削除されたりする場合においても 、もれなく関連する色情報を読み取ることが可能となり、分割'結合等の編集性能が 向上する。例えば、図 4B (a) , (b)は、分割編集時におけるビデオストリームの分割 例を示している。図 4B (a)は分割前のストリームを示し、図 4B (b)は分割後のストリー ムを示す。図 4B (a)に示すように、ストリームの分割は、 SPSNALユニットが揷入され ているアクセスユニットを先頭に持つシーケンスを単位として行われる。そのため、図 4B (b)に示すように、分割後の各ストリームの先頭アクセスユニットには、色情報を持 つ SPSNALユニットおよび SEL NALユニットが必ず含まれて!/、る。
[0065] 図 5は、色空間識別子の構造例を示している。この図 5に示す構造例では、色空間 識別子は、記録されるビデオ信号の色空間を示す情報である色空間情報の他に、色 域に関する情報、色精度情報および予約領域が含まれている。色域に関する情報 は、図 5に示す構造例では、当該色空間識別子が格納された SEINALユニットを付 加するアクセスユニットにおけるピクチャの赤 (R)、緑 (G)、青 (B)それぞれに対して使用 される色域の最大値と最小値である。
[0066] なお、色域に関する情報としては、色域の最大値と、当該最大値と最小値の差、あ るいは色域の最小値と、当該最小値と最大値との差、等であってもよい。色精度情報 は、色域に関する情報 (最大値、最小値)がどのくらいの精度(具体的には何ビットで 表されているかの情報)で示されている力、を示す情報である。予約領域は、将来のデ ータ拡張のために、予め確保されている。
[0067] 色空間識別子は、制御部 120の CPU121により生成される。 CPU121は、色空間 識別子が格納された SEINALユニットを含めるアクセスユニット内の Coded Slice NA Lユニットのピクチャから赤 (R)、緑 (G)、青 (B)の各色の色域に関する情報を計算して 求める。
[0068] 後述するように、撮像装置 100においては、エンコード/デコード部 132でデータ 圧縮処理されて得られた圧縮ビデオ信号は、媒体 I/F134を介して記録媒体 135 に記録される。そして、このように記録媒体 135に記録された圧縮ビデオ信号は、必 要に応じて、媒体 I/F134を通じて読み出され、例えば、データ伸長処理が施され た後に、色空間識別子と共に、外部 I/F (ネットワークインタフェース) 139から所定 のネットワークを通じて他の機器に転送される。
[0069] 現在、機器間をつなぐネットワークの形式は、 IEEE1394、 USB2.0, HDMI1.3等、数 多く存在している。記録媒体 135に記録された色空間識別子の形式がネットワークィ ンタフェースの出力形態に適合した形式でない場合には、ネットワークでの転送時に 、記録媒体 135から読み出された色空間識別子の形式を、ネットワークインタフエ一 スの出力形態に適合した形式に変換することが必要となる。この場合、制御部 120の CPU121にとつては大きな負荷となり、ビデオ信号の転送にも支障をきたすおそれ 力 sある。
[0070] この実施の形態において、 CPU121は、色空間識別子を、ネットワークインタフエ一 スの出力形態に適合した形式で生成する。この場合、 CPU121は、記録媒体 135か ら読み出されたビデオ信号および色空間識別子をネットワークに送出する際に、記 録媒体 135に記録されている色空間識別子の形式を変更する必要がなぐそのまま の形式でネットワークに送出でき、 CPU121のデータ転送時における負荷が軽減さ れる。
[0071] なお、ネットワークインタフェースの規格として色空間識別子のような色情報の転送 が規定されていない場合には、 CPU121は、例えば、ユーザ独自データの転送規 定に準じた形式で、色空間識別子を生成する。図 6は、所定のネットワークインタフエ ース Aにおける色空間識別子の構造例を示している。図 6に示す構造例は、上述の 図 5に示す構造例とは配列が異なり、新たに、色空間識別子全体のデータサイズに 関する情報が含まれている。図 7は、所定のネットワークインタフェース Bにおける、ュ 一ザ独自データの転送規定に従った色空間識別子の構造例を示して!/、る。ユーザ 独自データの転送規定では、ネットワークインタフェース Bの規格のバージョン情報、 データサイズ、色空間識別子であることを示すデータ識別子 (ユーザー独自定義)が 、図 7に示すように含まれ、独自データして色空間情報、色精度情報、予約領域、色 域に関する情報等の情報が格納されている。
[0072] エンコード/デコード部 132は、データ圧縮処理を行う際に、上述したように選択さ れた色空間を示す情報を含む色空間識別子が格納された SEINALユニットを、 SP S NALユニットを含むアクセスユニットに、含める。この場合、制御部 120が、記録さ れるビデオ信号の色空間として、 sRGB色空間および拡張 sRGB色空間の!/、ずれを 選択した場合にも、色空間識別子が格納された SEINALユニットを、 SPS NALュニ ットを含むアクセスユニットに、含めるようにしてもよい。
[0073] しかし、この実施の形態においては、制御部 120が、記録されるビデオ信号の色空 間として拡張 sRGB色空間を選択した場合のみ、色空間識別子が格納された SEIN ALユニットを、 SPS NALユニットを含むアクセスユニットに、含めるようにされる。こ の場合、 CPU121は、記録されるビデオ信号の色空間として拡張 sRGB色空間を選 択した場合のみ、色空間識別子(図 5〜図 7参照)を生成する。この場合、 sRGB色空 間のビデオ信号が記録される従来のもの(色空間識別子は記録されて!/、な!/、)との互 換性が保たれる。 [0074] 図 5〜図 7に示す色空間識別子の構造例では、ビデオ信号の色域に関する情報を 含んでいるが、色空間識別子には、必ずしも、当該ビデオ信号の色域に関する情報 を含んでいる必要はない。色空間識別子にビデオ信号の色域に関する情報が含ま れている場合、再生装置では、当該色域に関する情報をビデオ信号から取得する処 理を行うことなぐ当該色域に関する情報を用いることができ、再生装置の負担を軽 減できる。
[0075] 図 1に戻って、媒体 I/F134は、エンコード/デコード部 132でデータ圧縮処理さ れて得られた圧縮ビデオ信号を、制御部 120の制御の下、記録媒体 (メモリカード) 1 35に記録する。また、媒体 I/F134は、制御部 120の制御の下、記録媒体 135から 圧縮ビデオ信号を再生する。 LCDコントローラ 137は、撮像時 (記録時)には、信号 処理部 131から供給されるビデオ信号に基づいて LCD138を駆動し、この LCD138 に撮像画像 (記録画像)を表示する。
[0076] この場合、 LCDコントローラ 137は、再生される圧縮ビデオ信号に対応付けて記録 されている色空間識別子(図 5〜図 7参照)に含まれる色空間を示す情報に基づいて 、 LCD138に、再生画像と共に、再生されたビデオ信号の色空間が何である力、を示 すアイコンを、 OSD(on-screen display)表示する。図 8は、 LCD138における再生画 像の表示例を示しており、再生されたビデオ信号の色空間が拡張 sRGB色空間であ ることを示すアイコンが表示されている。 LCD138に、このように再生されるビデオ信 号の色空間がアイコン表示されることで、ユーザは、再生されるビデオ信号の色空間 を容易に把握できる。
[0077] 撮像装置 100で再生されるビデオ信号をライン入力で再生装置に供給する場合( 図 1は、ライン出力端子の図示を省略している)、再生装置に色空間情報が転送され ない。その場合、上述したように LCD138に色空間を示すアイコンが表示されると、 ユーザは当該アイコンによって再生ビデオ信号の色空間を認識して、再生装置の最 適な表示設定を手動で行うことが可能となる。
[0078] 外部 I/F139は、ネットワークインタフェースを構成している。外部 I/F139は、ビ デォ信号の転送時に、記録媒体 135から媒体 I/F134を通じて再生されたビデオ信 号および色空間識別子を、所定のネットワークを通じて、パーソナルコンピュータ等の 他の機器に転送する。
[0079] 図 9のフロー図は、色空間識別子が記録媒体 135から読み取られ、この色空間識 別子に基づいて LCD138に再生ビデオ信号の色空間がアイコン表示され、また、こ の色空間識別子がネットワークを通じて他の機器に転送されること、を示している。な お、図 9における色空間識別子読み出しブロック、アイコン表示ブロックおよびネットヮ ーク I/Fブロックは、制御部 120、媒体 I/F134、 LCDコントローラ 137、 LCD138 、外部 I/F139等で構成されている。この図 9のフロー図は、図 1に示す撮像装置 10 0だけでなぐ記録媒体 135からビデオ信号を再生する他の再生装置 (プレーヤ)に も、適用できる。
[0080] 図 10は、転送路上でのデータ例を示している。上述したように SEI NALユニット に含まれる色空間識別子が記録媒体 135から読み出され、図 9のネットワーク I/Fブ ロックから所定のタイミングで転送される。
[0081] 図 1に示す撮像装置 100の動作を説明する。被写体からの像光がレンズブロック 1 11を介して撮像素子 112の撮像面に照射され、この撮像面に被写体像が結像され る。撮像素子 112では、撮像面に被写体像が結像された状態で撮像が行われる。撮 像素子 112から出力されるアナログの撮像信号は、前処理回路 113に供給され、ノィ ズ除去、自動利得制御、および A/D変換などの所定の信号処理が施される。
[0082] カメラ部 110の前処理回路 113から出力されるデジタルビデオデータ(カメラ出力デ ータ)は、信号処理部 131に供給される。この信号部 131では、カメラ出力データに 対して、補間処理、フィルタリング処理、マトリクス演算処理、輝度信号生成処理、色 差信号生成処理等の処理が行われ、撮像ビデオ信号としての、輝度信号 Yおよび色 差信号 Cr/Cbが生成される。
[0083] ここで、撮像装置 100のユーザが、操作部 136を操作して、記録されるビデオ信号 の色空間として sRGB色空間を指定した場合には、制御部 120 (CPU121)により、 記録されるビデオ信号の色空間として sRGB色空間が選択される。そして、制御部 1 20の制御により、マトリクス演算後の R信号、 G信号、 B信号の目標色空間が sRGB 色空間となるように、リニアマトリクス処理部 155 (図 2参照)のマトリクス係数が設定さ れる。つまり、ユーザが記録されるビデオ信号の色空間として sRGB色空間を指定し た場合、信号処理部 131で生成されるビデオ信号 (輝度信号 Yおよび色差信号 Cr/ Cb)は、 sRGB色空間のビデオ信号となる。同様にして、ユーザが記録されるビデオ 信号の色空間として拡張 sRGB色空間を指定した場合、信号処理部 131で生成され るビデオ信号 (輝度信号 Yおよび色差信号 Cr/Cb)は、拡張 sRGB色空間のビデオ 信号となる。
[0084] 撮像時 (記録時)には、上述したように信号処理部 131で生成されるビデオ信号が LCDコントローラ 137に供給され、 LCD138には当該ビデオ信号に基づいて撮像画 像 (記録画像)が表示される。なお、上述していないが、 LCD138に、この撮像画像と 共に、上述したようにユーザが指定した記録ビデオ信号の色空間の情報が OSD表 示されるようにしてあよい。
[0085] また、撮像時 (記録時)には、上述したように信号処理部 131で生成されるビデオ信 号がエンコード/デコード部 132に供給され、 MPEG4—AVC規格に基づいて、デ ータ圧縮処理され、圧縮ビデオ信号が生成される。この際に、 SPSNALユニットを含 むアクセスユニットに、色空間を示す情報を含む色空間識別子(図 5〜図 7参照)が 格納された SEI NALユニットが含められる。なお、色空間識別子は、制御部 120の CPU121で生成される力 ユーザが指定した拡張 sRGB色空間を指定した場合の み、生成される。つまり、記録されるビデオ信号の色空間が拡張 sRGB色空間である 場合のみ、圧縮ビデオ信号に色空間識別子が付加される。
[0086] エンコード/デコード部 132で得られる圧縮ビデオ信号は、制御部 120の制御の 下、媒体 I/F134に供給され、この媒体 I/F134を通じて、当該媒体 I/F134に装 着された記録媒体 135に記録される。
[0087] 再生時には、媒体 I/F134を通じて、当該媒体 I/F134に装着された記録媒体 1 35から、所定の圧縮ビデオ信号が読み出される。このように記録媒体 135から読み 出される圧縮ビデオ信号は、エンコード/デコード部 132に供給され、データ伸長の 処理が施される。そして、エンコード/デコード部 132で得られる再生ビデオ信号が LCDコントローラ 137に供給され、 LCD138には当該ビデオ信号に基づいて再生画 像が表示される。この場合、 LCD138には、再生ビデオ信号に対応付けて記録され ている色空間識別子(図 5〜図 7参照)に含まれる色空間を示す情報に基づいて、再 生ビデオ信号の色空間が何であるかを示すアイコンが OSD表示される。なお、色空 間のアイコン表示は、色空間が拡張 sRGB色空間である場合のみ行うようにしてもよ い。この場合、ユーザは、色空間のアイコン表示がないときは、再生ビデオ信号の色 空間は sRGB色空間であると推定できる。
[0088] 転送時には、制御部 120の制御のもと、媒体 I/F134を通じて、記録媒体 135から 所定の圧縮ビデオ信号が読み出される。この圧縮ビデオ信号は、例えば、エンコード /デコード部 132に供給されて、データ伸長処理が施される。そして、エンコード/ デコード部 132で得られるビデオ信号および色空間識別子は、外部 I/F139から、 所定のネットワークを通じて、パーソナルコンピュータ等の他の機器に転送される。こ の場合、上述したように圧縮ビデオ信号に付加されて記録される色空間識別子は、 ネットワークインタフェースの規格に適合した形成で生成されるので、エンコード/デ コード部 132で得られる色空間識別子は、形式を変換する必要がなぐそのままネッ トワークに転送される。この場合、図 9の転送フローに、形式を変換するための変換ブ ロックが示されていないように、当該変換ブロックは不要となる。
[0089] 図 11のフローチャートは、撮像時 (記録時)における、色空間識別子の記録手順を 示している。 CPU121は、ステップ ST1で、処理を開始し、その後に、ステップ ST2 に進む。このステップ ST2において、 CPU121は、拡張 sRGB色空間が選択されて いるか否かを判別する。 CPU121は、拡張 sRGB色空間が選択されているときは、ス テツプ ST3において、ビデオ信号の記録を開始すると共に、ステップ ST4において、 所定ピクチャ(SPSNALユニットを含むアクセスユニットのピクチャ)の色域に関する 情報を求める。
[0090] 次に、 CPU121は、ステップ ST5において、ネットワークインタフェースに応じた形 式で色空間識別子を作成し、この色空間識別子が格納された SEINALユニットを圧 縮ビデオ信号の SPS NALユニットを含むアクセスユニットに含めて記録する。そして 、 CPU121は、ステップ ST4およびステップ ST5の処理をビデオ信号の記録が行わ れている間繰り返し行い、ビデオ信号の記録が終了したとき、ステップ ST6において 、処理を終了する。
[0091] また、 CPU121は、ステップ ST2において、拡張 sRGB色空間が選択されていない とき、つまり、 sRGB色空間が選択されているときは、ステップ ST7に進む。 CPU121 は、ステップ ST7において、色空間識別子を作成しないものとし、ステップ ST6で、処 理を終了する。
[0092] 図 1に示す撮像装置 100においては、ユーザは、記録されるビデオ信号の色空間 として、 sRGB色空間または拡張 sRGB色空間のいずれかを指定できる。信号処理 部 131からは、当該指定された色空間に対応したビデオ信号 (輝度信号 Yおよび色 差信号 Cb/Cr)が得られ、このビデオ信号が、エンコード/デコード部 132で MPE G4—AVC規格のデータ圧縮処理が施されて、記録媒体 135に記録される。
[0093] また、制御部 120の CPU121では、ユーザが、記録されるビデオ信号の色空間とし て拡張 sRGB色空間を指定したとき、当該拡張 sRGB色空間を示す情報を含む色空 間識別子が生成され、この色空間識別子が格納された SEINALユニットが、ェンコ ード/デコード部 132で生成される圧縮ビデオ信号における、 SPS NALユニットを 含むアクセスユニットに含められて、記録媒体 135に記録される。
[0094] つまり、図 1に示す撮像装置 100においては、記録媒体 135には、記録されるビデ ォ信号の色空間力 RGB色空間であるとき、ビデオ信号および色空間識別子が対応 づけて記録される。そのため、記録媒体 135に記録されたビデオ信号によるカラー画 像を再生する再生装置にあっては、当該ビデオ信号と対応づけて記録されている色 空間識別子に基づき、当該記録されたビデオ信号の色空間を容易に判別できる。
[0095] したがって、記録媒体 135に記録されたビデオ信号によるカラー画像を再生する再 生装置にあっては、上述の判別結果に基づいて、当該ビデオ信号を自装置に適した 状態で使用でき、ビデオ信号が持つ本来の色を忠実に再現することが可能となる。
[0096] 図 12は、再生装置における色領域マッピングの概念図である。再生装置は、色空 間識別子を認識すると、入力されるビデオ信号の色空間を理解でき、再生装置の色 空間領域に適した形で入力ビデオ信号を最適にマッピングでき、記録されたビデオ 信号が持つ本来の色を忠実に再現することが可能となる。例えば、ビデオ信号の色 空間領域が再生装置の色空間領域の内部にくるようにマッピング処理が行われるこ とで、ビデオ信号が再生装置に適合するようにされる。
[0097] 図 13は、従来行われている、再生装置の色空間領域の境界にクリッピングする例を 示している。「會」は入力されたビデオ信号を構成する画素が持つ色情報で、「〇」は クリッピングされた後の色情報を示している。これに対して、図 14は、色空間識別子 に含まれる情報に基づき、再生装置の色空間領域に応じてマッピングする例を示し ている。「譬」は入力されたビデオ信号を構成する画素が持つ色情報で、「〇」はマツ ビングされた後の色情報を示している。この例では、入力されたビデオ信号を構成す る画素が持つ色情報のうち、再生装置の色空間領域の外にある色情報は、入力され たビデオ信号の色空間領域の境界線と平行な直線と再生装置の色空間領域の境界 との交点にマッピングされている。
[0098] 図 15は、この発明の他の実施の形態としてのビデオシステム 200の構成を示して いる。この図 15において、図 1と対応する部分には同一符号を付して示している。こ のビデオシステム 200は、記録装置を構成するカメラ 201と、再生装置を構成するプ レーャ 202と、画像表示装置としてのテレビ 203とを備えている。プレーヤ 202および テレビ 203は LAN等のネットワーク 204を介して接続されている。
[0099] カメラ 201は、詳細説明は省略する力 上述の図 1に示す撮像装置 100と同様に構 成されている。なお、このビデオシステム 200においては、ビデオ信号および色空間 識別子が対応付けて記録された記録媒体 135をプレーヤ 202に装着して使用する。
[0100] プレーヤ 202は、記録媒体 135を装着し、当該記録媒体 135からビデオ信号およ び色空間識別子を再生する再生部 202aと、当該再生されたビデオ信号および色空 間識別子を、ネットワーク 204を介してテレビ 203に転送する外部 I/F (ネットワーク インタフェース) 139とを有している。この場合、カメラ 201において色空間識別子を ネットワークインタフェースの出力形態に適合した形式で生成して記録媒体 135に記 録しておくことで、外部 I/F139は、再生部 202aにより記録媒体 135から再生された 色空間識別子を、所定の転送タイミングでそのままの形式でネットワーク 204に送出 することが可能となる。ネットワーク 204上でのデータの概念図は、図 10で示した通り である。
[0101] テレビ 203は、プレーヤ 202から転送されてきたビデオ信号および色空間識別子を 用いて、画像を表示する。テレビ 203は、ビデオ信号と共に送られてくる色空間識別 子に含まれる情報に基づいて、ビデオ信号を構成する画素が持つ色情報を、当該テ レビ 203の色空間領域に応じてマッピングし(図 14参照)、ビデオ信号が持つ本来の 色を忠実に再現する。
[0102] なお、テレビ 203では、プレーヤ 202の外部 I/F139から所定の転送タイミングで 送信された色空間識別子を取得し、当該取得された色空間識別子に対応したマツピ ング処理を行う。そのため、テレビ 203では、色空間が異なっている複数のビデオ信 号が結合されたビデオ信号が送られてくる場合等でも問題がなぐビデオ信号が持 つ本来の色を忠実に再現できる。
[0103] 図 16のフローチャートは、テレビ 203におけるマッピング処理の変更手順を示して いる。テレビ 203は、ステップ ST11で処理を開始し、ステップ ST12に移る。このステ ップ ST12において、テレビ 203は、色空間識別子が転送されてきたか否かを判別す る。テレビ 203は、色空間識別子が転送されてきたときは、ステップ ST13に移る。
[0104] テレビ 203は、ステップ ST13において、色空間識別子を取得する。そして、テレビ
203は、ステップ ST14に移り、ステップ ST13で取得した色空間識別子に基づいた マッピング処理が行われるように、マッピング処理を変更する。テレビ 203は、ステツ プ ST14の後に、ステップ ST12に戻り、次の色空間識別子の転送判別に移る。
[0105] 上述の実施の形態によれば、撮像ビデオ信号を処理して得られた所定色空間に対 応したビデオ信号を記録媒体 135に記録する際、当該所定色空間を示す情報を含 む色空間識別子を生成してビデオ信号に対応付けて記録するものであり、記録され たビデオ信号が持つ本来の色を再生装置において忠実に再現できる。
[0106] また、上述の実施の形態によれば、ビデオストリームの SPS NALユニットが含まれ るアクセスユニット(ビデオ信号の所定位置)に対応して色空間識別子が存在するた め、色空間の異なる複数のビデオ信号を結合したビデオ信号をテレビ等で再生する 場合でも問題がなぐ従って、分割'結合等の編集性能が向上する。
[0107] また、上述の実施の形態によれば、色空間識別子には、色空間を示す情報と共に 、ビデオ信号の色域に関する情報 (例えば、色域の最大値および最小値)が含まれ るものであり、ネットワークを介して接続された再生装置 (例えば、図 15に示すテレビ 203等)では、当該色域に関する情報をビデオ信号から取得する処理を行うことなく 当該色域に関する情報を用いることができ、当該再生装置に適合したマッピング処 理を容易に行うことができる。
[0108] また、上述実施の形態によれば、 SPS NALユニットを含むアクセスユニットに色空 間識別子が揷入されるものであり、当該アクセスユニットを読み出すことにより、シー ケンスパラメータセットおよび色空間識別子を、つまり関連した色情報を一括して読 み出すことができ、ビデオ信号を記録する記録装置 (例えば、図 15に示すカメラ 201 等)で再生する場合や、再生装置 (例えば、図 15に示すプレーヤ 202等)において、 必要な情報アクセス時間を短縮できる。
[0109] また、上述実施の形態によれば、 sRGB色空間が選択されるときは色空間識別子 が生成されず、拡張 sRGB色空間が選択されるときは色空間識別子が生成されるも のであり、特定の色空間としての sRGB色空間のビデオ信号が記録される従来のもの (色空間識別子は記録されて!/、な!/、)との互換性を保つことができる。
[0110] また、上述実施の形態によれば、色空間識別子はネットワークインタフェースの出 力形態に適合した形式で生成されて記録媒体 135に記録されるものであり、当該色 空間識別子をビデオ信号と共にネットワークに送出する際には、そのままの形式で送 出でき、変換ブロック等が不要となる。
[0111] なお、上述実施の形態においては、色空間識別子に含める赤 (R)、緑 (G)、青 (B)の 各色の色域に関する情報を、当該色空間識別子が格納された SEINALユニットを含 めるアクセスユニット内の Coded Slice NALユニットのピクチャから計算して求めている
[0112] し力、し、記録能力の低いモパイル機器の場合は、 SEINALユニットが付加されるァ クセスユニットに対応するピクチャから各色の色域に関する情報を計算で求めること 力咽難な場合が多い。
[0113] そこで、例えば、図 1に示す撮像装置 100において、フラッシュ ROM123等に、当 該撮像装置 100が対応している各色空間(sRGB色空間、拡張 sRGB色空間)にお ける赤 (R)、緑 (G)、青 (B)の各の色域に関する情報 (例えば、色域の最大値、最小値) を格納しておき、 CPU121は、色空間識別子を生成する際に、当該フラッシュ ROM 123等から各色域に関する情報を読み出して用いるようにしてもよい。
[0114] この場合、 SPS NALユニットを含むアクセスユニット毎に、 SEINALユニットを用 いて付加される色空間識別子は、ビデオ信号が記録されている間、ユーザが、色空 間の指定を変更しない限り、同じものとなる。この場合においても、再生装置が当該 色空間識別子に基づいて、入力されたビデオ信号の色空間情報、色域に関する情 報等を認識できるので、当該ビデオ信号を自装置に適した状態で使用でき、ビデオ 信号が持つ本来の色を忠実に再現することが可能となる。
[0115] また、上述実施の形態においては、エンコード/デコード部 132で MPEG4— AV C規格のデータ圧縮処理が行われ、色空間識別子が格納された SEINALユニットを 、 SPS NALユニットを含むアクセスユニットに含めるものを示した。し力、し、一般に、 ビデオ信号に、複数のアクセスユニットが連続したストリーム構成を得ると共に、所定 数のアクセスユニットにより構成されるシーケンス毎に当該シーケンスの色情報を含 むシーケンスパラメータセットを有する構成とするための所定のデータ圧縮処理を施 すものにあっては、シーケンスパラメータセットを含むアクセスユニットに色空間識別 子を含める構成とすることで、同様の ¾]果を得ること力 Sできる。
[0116] なお、色空間識別子が含められるアクセスユニットは、 SPSNALユニットを含むァク セスユニットに限定されるものではない。例えば、色空間識別子が含められるアクセス ユニットを、 SPS NALユニットを含むアクセスユニットとは無関係に、間欠的に配置さ れた所定のアクセスユニットとしてもよい。例えば、図 4B(a)に「◎」印を付して示すよう に、色空間識別子が含められるアクセスユニットを、 SPSNALユニットを含むアクセス ユニットと、さらにその他の所定数毎のアクセスユニットとしてもよい。この場合、全て のアクセスユニットに SEI NALユニットを含めるものではなぐ冗長度を軽減できる。
[0117] また、例えば、色空間識別子が格納された SEINALユニットを含めるアクセスュニ ットを全てのアクセスユニットとしてもよい。この場合、冗長度は高くなる力 ビデオ信 号はアクセスユニット毎に色域に関する情報を持つことになるので、再生装置におけ る色再現性の精度を高くできる。
[0118] また、上述では、拡張 sRGB色空間の例として、図 17a〜図 17dに「☆」印で示す色 空間領域を持つもの、および図 18a〜図 18dに「〇」印で示す色空間領域を持つも のの 2つを示したが、拡張 sRGB色空間はこれらに限定されるものではなぐその他 の色空間領域を持つものであってもよレ、。 [0119] また、上述実施の形態においては、ユーザの指定に基づいて CPU121が選択し 得る色空間力 SSRGB色空間および拡張 sRGB色空間の 2つであるものを示した力 さ らに多くの色空間から任意の色空間を選択できるものにも、この発明を同様に適用で きる。その場合において、特定の色空間が選択された場合には、色空間識別子を生 成して付加することを省略できる。
産業上の利用可能性
[0120] この発明は、記録されたビデオ信号が持つ本来の色を再生装置において忠実に再 現できるように当該ビデオ信号を記録媒体に記録できるものであり、例えば、撮像ビ デォ信号を MPEG4— AVC規格でデータ圧縮して記録媒体に記録する撮像装置 等に適用できる。

Claims

請求の範囲
[1] 撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信号処 理部と、
前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成 部と、
前記ビデオ信号処理部で得られた前記ビデオ信号と、前記色空間識別子生成部 で生成された前記色空間識別子とを記録媒体に対応付けて記録する記録部とを備 え、
前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされる
ことを特徴とする記録装置。
[2] 複数の色空間から前記所定色空間を選択する色空間選択部をさらに備える
ことを特徴とする請求項 1に記載の記録装置。
[3] 前記色空間識別子生成部で生成される色空間識別子には、前記色空間を示す情 報と共に、前記ビデオ信号の色域に関する情報が含まれる
ことを特徴とする請求項 1に記載の記録装置。
[4] 前記色空間識別子生成部は、
前記ビデオ信号の色域に関する情報を記憶した記憶部を有し、
前記色空間識別子に含める前記ビデオ信号の色域に関する情報を前記記憶部か ら読み出して得る
ことを特徴とする請求項 3に記載の記録装置。
[5] 前記色空間識別子生成部は、前記ビデオ信号の所定位置に、前記色空間識別子 を生成し、
前記記録部は、前記ビデオ信号の前記所定位置に、前記ビデオ信号と前記色空 間識別子生成部で生成された前記色空間識別子とを前記記録媒体に対応付けて記 録する
ことを特徴とする請求項 1に記載の記録装置。 [6] 前記記録部は、前記ビデオ信号処理部で得られたビデオ信号を、当該ビデオ信号 に複数のアクセスユニットが連続したストリーム構成を得るための所定のデータ圧縮 処理を施して記録し、
前記色空間識別子生成部は、前記データ圧縮処理後における前記ビデオ信号の ストリームを構成する各アクセスユニットに対応して、前記色空間識別子を生成する ことを特徴とする請求項 5に記載の記録装置。
[7] 前記記録部は、前記ビデオ信号処理部で得られたビデオ信号を、当該ビデオ信号 に複数のアクセスユニットが連続したストリーム構成を得るための所定のデータ圧縮 処理を施して記録し、
前記色空間識別子生成部は、前記データ圧縮処理後における前記ビデオ信号の ストリームを構成する各アクセスユニットのうち、間欠的に配置されている所定のァク セスユニットに対応して、前記色空間識別子を生成する
ことを特徴とする請求項 5に記載の記録装置。
[8] 前記記録部は、前記ビデオ信号処理部で得られたビデオ信号を、当該ビデオ信号 に、複数のアクセスユニットが連続したストリーム構成を得ると共に、所定数の前記ァ クセスユニットにより構成されるシーケンス毎に当該シーケンスの色情報を含むシー ケンスパラメータセットを有する構成とするための所定のデータ圧縮処理を施して記 録し、
前記色空間識別子生成部は、前記データ圧縮処理後における前記ビデオ信号の ストリームを構成する各アクセスユニットのうち、前記シーケンスパラメータセットを含 むアクセスユニットに対応して、前記色空間識別子を生成する
ことを特徴とする請求項 5に記載の記録装置。
[9] 前記所定のデータ圧縮処理部は、 MPEG4— AVC規格のデータ圧縮処理を行う データ圧縮処理部であり、
前記シーケンスパラメータセットを含むアクセスユニットは、前記シーケンスパラメ一 タセットの NALユニットを含むアクセスユニットである
ことを特徴とする請求項 8に記載の記録装置。
[10] 前記色空間識別子生成部は、 前記色空間選択部で特定の色空間が選択されるときには、前記色空間識別子を 生成しない
ことを特徴とする請求項 2に記載の記録装置。
[11] 前記記憶媒体に記憶された前記ビデオ信号および前記色空間識別子をネットヮー クに送出するネットワークインタフェースをさらに備え、
前記色空間識別子生成部は、前記ネットワークインタフェースの出力形態に適合し た形式で前記色空間識別子を生成する
ことを特徴とする請求項 1に記載の記録装置。
[12] 前記記録媒体に記録された前記ビデオ信号および前記色空間識別子を再生する 再生部と、
前記再生部により再生された前記色空間識別子に基づいて、前記再生部により再 生される前記ビデオ信号に対応する前記色空間の情報を表示する表示部とをさらに 備える
ことを特徴とする請求項 1に記載の記録装置。
[13] 撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信号処 前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成ス 前記ビデオ信号処理ステップで得られた前記ビデオ信号と、前記色空間識別子生 成ステップで生成された前記色空間識別子とを記録媒体に対応付けて記録する記 録ステップとを備え、
前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされる
ことを特徴とする記録方法。
撮像ビデオ信号を処理してビデオ信号を記録媒体に記録する記録処理部と、前記 記録媒体に記録されているビデオ信号を再生してネットワークに送出する再生処理 部とを有する記録装置にお!/ヽて、 前記記録処理部は、
前記撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信 号処理部と、
前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成 部と、
前記ビデオ信号処理部で得られた前記ビデオ信号と、前記色空間識別子生成部 で生成された前記色空間識別子とを記録媒体に対応付けて記録する記録部とを備 、
前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされ、
前記再生処理部は、
前記記録媒体に記録されている前記ビデオ信号および前記色空間識別子を再生 する再生部と、
前記再生部で再生された前記ビデオ信号および前記色空間識別子を前記ネットヮ ークに送出するネットワークインタフェースとを備える
ことを特徴とする記録装置。
被写体を撮像して撮像ビデオ信号を出力する撮像部と、前記撮像ビデオ信号を処 理してビデオ信号を記録媒体に記録する記録処理部と、前記記録媒体に記録され ているビデオ信号を再生してネットワークに送出する再生処理部とを有する撮像装置 において、
前記記録処理部は、
前記撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信 号処理部と、
前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成 部と、
前記ビデオ信号処理部で得られた前記ビデオ信号と、前記色空間識別子生成部 で生成された前記色空間識別子とを記録媒体に対応付けて記録する記録部とを備 え、
前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされ、
前記再生処理部は、
前記記録媒体に記録されている前記ビデオ信号および前記色空間識別子を再生 する再生部と、
前記再生部で再生された前記ビデオ信号および前記色空間識別子を前記ネットヮ ークに送出するネットワークインタフェースとを備える
ことを特徴とする撮像装置。
[16] 所定色空間に対応したビデオ信号が複数のアクセスユニットで構成されるビデオス トリーム形式で記録されると共に、前記所定色空間を示す情報を含む色空間識別子 が前記所定のアクセスユニットに対応付けて記録されている記録媒体を扱う再生装 置において、
前記記録媒体に記録されている前記ビデオ信号および前記色空間識別子を再生 する再生部と、
前記再生部で再生された前記ビデオ信号および前記色空間識別子をネットワーク に送出するネットワークインタフェースと
を備えることを特徴とする再生装置。
[17] 記録装置と再生装置とを有するビデオシステムにおいて、
前記記録装置は、
撮像ビデオ信号を処理して所定色空間に対応したビデオ信号を得るビデオ信号処 理部と、
前記所定色空間を示す情報を含む色空間識別子を生成する色空間識別子生成 部と、
前記ビデオ信号処理部で得られた前記ビデオ信号と、前記色空間識別子生成部 で生成された前記色空間識別子とを記録媒体に対応付けて記録する記録部とを備 え、 前記記録媒体には、前記ビデオ信号が複数のアクセスユニットで構成されるビデオ ストリーム形式で記録され、
前記色空間識別子は、前記所定のアクセスユニットに対応付けされ、
前記再生装置は、
前記記録媒体に記録されている前記ビデオ信号および前記色空間識別子を再生 する再生部と、
前記再生部で再生された前記ビデオ信号および前記色空間識別子をネットワーク に送出するネットワークインタフェースとを備える
ことを特 ί毁とするビデ才システム。
PCT/JP2007/071655 2006-11-29 2007-11-07 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system WO2008065864A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2007800338196A CN101536533B (zh) 2006-11-29 2007-11-07 记录装置、记录方法、摄像装置、再生装置及视频系统
US12/281,339 US8620141B2 (en) 2006-11-29 2007-11-07 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system
KR1020097010997A KR101352761B1 (ko) 2006-11-29 2007-11-07 기록 장치, 기록 방법, 정보 처리 장치, 정보 처리 방법, 촬상 장치 및 비디오 시스템
EP07831386.3A EP2111048B1 (en) 2006-11-29 2007-11-07 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system
US14/084,007 US8837907B2 (en) 2006-11-29 2013-11-19 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-321178 2006-11-29
JP2006321178A JP5157140B2 (ja) 2006-11-29 2006-11-29 記録装置、記録方法、情報処理装置、情報処理方法、撮像装置およびビデオシステム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/281,339 A-371-Of-International US8620141B2 (en) 2006-11-29 2007-11-07 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system
US14/084,007 Continuation US8837907B2 (en) 2006-11-29 2013-11-19 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system

Publications (1)

Publication Number Publication Date
WO2008065864A1 true WO2008065864A1 (en) 2008-06-05

Family

ID=39467659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/071655 WO2008065864A1 (en) 2006-11-29 2007-11-07 Recording apparatus, recording method, image pickup apparatus, reproducing apparatus and video system

Country Status (6)

Country Link
US (2) US8620141B2 (ja)
EP (1) EP2111048B1 (ja)
JP (1) JP5157140B2 (ja)
KR (1) KR101352761B1 (ja)
CN (2) CN103167296A (ja)
WO (1) WO2008065864A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121189B2 (en) * 2007-09-20 2012-02-21 Microsoft Corporation Video decoding using created reference pictures
US9848209B2 (en) * 2008-04-02 2017-12-19 Microsoft Technology Licensing, Llc Adaptive error detection for MPEG-2 error concealment
US9924184B2 (en) * 2008-06-30 2018-03-20 Microsoft Technology Licensing, Llc Error detection, protection and recovery for video decoding
US9788018B2 (en) * 2008-06-30 2017-10-10 Microsoft Technology Licensing, Llc Error concealment techniques in video decoding
US9131241B2 (en) * 2008-11-25 2015-09-08 Microsoft Technology Licensing, Llc Adjusting hardware acceleration for video playback based on error detection
CN101488220B (zh) * 2009-01-05 2011-01-05 浙江大学 基于视觉注意力的实时的视频和图像抽象化方法
US8340510B2 (en) 2009-07-17 2012-12-25 Microsoft Corporation Implementing channel start and file seek for decoder
US20120320965A1 (en) * 2009-12-09 2012-12-20 Sk Telecom Co., Ltd. Apparatus and method for encoding/decoding a multi-plane image, and recording medium for same
CN102572206B (zh) * 2010-12-31 2015-05-13 比亚迪股份有限公司 一种色彩校正方法
US9420307B2 (en) 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
KR20130116782A (ko) 2012-04-16 2013-10-24 한국전자통신연구원 계층적 비디오 부호화에서의 계층정보 표현방식
US9225991B2 (en) 2013-05-30 2015-12-29 Apple Inc. Adaptive color space transform coding
US9225988B2 (en) 2013-05-30 2015-12-29 Apple Inc. Adaptive color space transform coding
WO2015102449A1 (ko) * 2014-01-06 2015-07-09 엘지전자 주식회사 컬러 개멋 리샘플링을 기반으로 하는 방송 신호 송수신 방법 및 장치
JP6149777B2 (ja) * 2014-03-28 2017-06-21 ソニー株式会社 再生装置、再生方法、プログラム、および記録媒体
TWM484091U (zh) * 2014-03-31 2014-08-11 Unibase Information Corp 具有稽核及影像同步功能的航空器導引系統、及其稽核與影像同步裝置
EP3010231A1 (en) 2014-10-17 2016-04-20 Thomson Licensing Method for color mapping a video signal based on color mapping data and method of encoding a video signal and color mapping data and corresponding devices
US10572153B2 (en) 2016-07-26 2020-02-25 Western Digital Technologies, Inc. Efficient data management through compressed data interfaces
AU2017339463B2 (en) 2016-10-05 2020-09-03 Dolby Laboratories Licensing Corporation Source color volume information messaging
JP6479905B2 (ja) * 2017-07-24 2019-03-06 東芝映像ソリューション株式会社 放送信号送信装置および放送信号送受信装置
JP6611403B2 (ja) * 2019-02-05 2019-11-27 東芝映像ソリューション株式会社 放送信号送信装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191388A (ja) * 1996-12-27 1998-07-21 Canon Inc 画像記録装置、方法及びコンピュータ可読メモリ
JP2004077837A (ja) 2002-08-19 2004-03-11 Sony Corp 設計パターンの補正方法
JP2004096400A (ja) * 2002-08-30 2004-03-25 Minolta Co Ltd 撮像装置、画像記録装置及びプログラム
JP2005192197A (ja) * 2003-12-04 2005-07-14 Canon Inc 撮像装置、撮像方法、記録媒体及びプログラム及び表示装置
JP2006119295A (ja) 2004-10-20 2006-05-11 Sony Corp カラー液晶表示装置
WO2007023698A1 (ja) * 2005-08-26 2007-03-01 Matsushita Electric Industrial Co., Ltd. 多重化方法および記録媒体
JP2007251891A (ja) * 2006-03-20 2007-09-27 Matsushita Electric Ind Co Ltd コンテンツの撮影装置
WO2007125697A1 (ja) * 2006-04-26 2007-11-08 Panasonic Corporation 映像処理装置、記録媒体、映像信号処理方法、映像信号処理用プログラムおよび集積回路

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754279B2 (en) * 1999-12-20 2004-06-22 Texas Instruments Incorporated Digital still camera system and method
WO2004056112A1 (en) * 2002-12-16 2004-07-01 Koninklijke Philips Electronics N.V. Method and apparatus to encrypt video data streams
JP2004200902A (ja) 2002-12-17 2004-07-15 Nikon Corp 画像処理装置、電子カメラ、及び画像処理プログラム
CN1754391B (zh) * 2003-02-27 2010-05-26 精工爱普生株式会社 利用特定颜色空间的图像再生装置及方法
US7580062B2 (en) * 2003-12-04 2009-08-25 Canon Kabushiki Kaisha Image capturing system, image capturing method, and recording medium, program, and display method used therewith
US7428332B2 (en) * 2004-01-14 2008-09-23 Spaulding Kevin E Applying an adjusted image enhancement algorithm to a digital image
EP1993284B1 (en) * 2004-06-02 2013-07-03 Panasonic Corporation Picture coding apparatus and picture decoding apparatus
US7600343B2 (en) * 2004-10-22 2009-10-13 General Patent, Llc Method of stimulating plant growth
US20060182418A1 (en) * 2005-02-01 2006-08-17 Yoichiro Yamagata Information storage medium, information recording method, and information playback method
US7864235B2 (en) * 2005-03-30 2011-01-04 Hoya Corporation Imaging device and imaging method including generation of primary color signals
US20080137732A1 (en) * 2005-09-20 2008-06-12 Mitsubishi Electric Corporation Image encoding method and image decoding method, image encoder and image decoder, and image encoded bit stream and recording medium
US7573611B2 (en) * 2006-04-04 2009-08-11 Onyx Graphics, Inc. Gamut maximizing black generation for printers

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191388A (ja) * 1996-12-27 1998-07-21 Canon Inc 画像記録装置、方法及びコンピュータ可読メモリ
JP2004077837A (ja) 2002-08-19 2004-03-11 Sony Corp 設計パターンの補正方法
JP2004096400A (ja) * 2002-08-30 2004-03-25 Minolta Co Ltd 撮像装置、画像記録装置及びプログラム
JP2005192197A (ja) * 2003-12-04 2005-07-14 Canon Inc 撮像装置、撮像方法、記録媒体及びプログラム及び表示装置
JP2006119295A (ja) 2004-10-20 2006-05-11 Sony Corp カラー液晶表示装置
WO2007023698A1 (ja) * 2005-08-26 2007-03-01 Matsushita Electric Industrial Co., Ltd. 多重化方法および記録媒体
JP2007251891A (ja) * 2006-03-20 2007-09-27 Matsushita Electric Ind Co Ltd コンテンツの撮影装置
WO2007125697A1 (ja) * 2006-04-26 2007-11-08 Panasonic Corporation 映像処理装置、記録媒体、映像信号処理方法、映像信号処理用プログラムおよび集積回路

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KADONO S. ET AL.: "revisted edition H. 264/AVC Kyokasho", 1 January 2006, IMPRESS R&D, pages: 308 - 310, XP003022667 *
See also references of EP2111048A4 *

Also Published As

Publication number Publication date
KR20090088890A (ko) 2009-08-20
CN101536533B (zh) 2013-05-22
CN101536533A (zh) 2009-09-16
US8620141B2 (en) 2013-12-31
US8837907B2 (en) 2014-09-16
EP2111048A1 (en) 2009-10-21
JP2008136025A (ja) 2008-06-12
US20140105579A1 (en) 2014-04-17
KR101352761B1 (ko) 2014-01-16
US20090052858A1 (en) 2009-02-26
CN103167296A (zh) 2013-06-19
EP2111048B1 (en) 2017-08-23
JP5157140B2 (ja) 2013-03-06
EP2111048A4 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
JP5157140B2 (ja) 記録装置、記録方法、情報処理装置、情報処理方法、撮像装置およびビデオシステム
JP6558599B2 (ja) 再生装置、再生方法、及び、コンピュータプログラム
JP5314029B2 (ja) 色信号変換装置及び色信号変換方法
KR101237608B1 (ko) 다중화 방법 및 기록 매체
US8339412B2 (en) Video processing device, recording medium, video signal processing method, video signal processing program, and integrated circuit
US20120148209A1 (en) Image signal processing apparatus, image signal processing method, and program
JP2009038683A (ja) 画像信号出力装置及び方法
JP2004289450A (ja) 情報処理方法及び装置及びプログラム、及びプログラムを格納する記憶媒体
JP2005303336A (ja) 映像信号記録装置および映像信号再生装置
JP2008271411A (ja) 画像符号化装置、画像符号化装置の制御方法、プログラム、及び記憶媒体
JP6928885B2 (ja) 表示装置、表示方法及びコンピュータプログラム
JP2011119921A (ja) 符号変換装置
JP6643669B2 (ja) 表示装置および表示方法
TW566049B (en) Video apparatus, process for a video apparatus and video recorder
JP2008312021A (ja) 画像表示システム、画像再生装置、撮影機器

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780033819.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07831386

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12281339

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2007831386

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007831386

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020097010997

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE