WO2003085986A1 - Dispositif de traitement de signaux video et procede de traitement de signaux video - Google Patents

Dispositif de traitement de signaux video et procede de traitement de signaux video Download PDF

Info

Publication number
WO2003085986A1
WO2003085986A1 PCT/JP2003/003695 JP0303695W WO03085986A1 WO 2003085986 A1 WO2003085986 A1 WO 2003085986A1 JP 0303695 W JP0303695 W JP 0303695W WO 03085986 A1 WO03085986 A1 WO 03085986A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
video signal
white balance
processing
knee
Prior art date
Application number
PCT/JP2003/003695
Other languages
English (en)
French (fr)
Inventor
Masayuki Serizawa
Kenji Tabei
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to MXPA04002221A priority Critical patent/MXPA04002221A/es
Priority to CA002459751A priority patent/CA2459751A1/en
Priority to AU2003227206A priority patent/AU2003227206B2/en
Priority to EP03715410.1A priority patent/EP1494485B1/en
Priority to NZ531529A priority patent/NZ531529A/en
Priority to US10/488,271 priority patent/US7656431B2/en
Publication of WO2003085986A1 publication Critical patent/WO2003085986A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Definitions

  • the present invention relates to a video signal processing device and a video signal processing method, and more particularly to a video signal processing device and a video signal processing method for processing a signal obtained via an image sensor such as a CCD (Charge Coupled Device).
  • an image sensor such as a CCD (Charge Coupled Device).
  • JP-A-9-238359 a video signal processing apparatus and a video signal processing method for performing one process on three primary color signals obtained through an imaging device such as a CCD in a video camera are disclosed in JP-A-9-238359. Some are described in
  • This conventional video signal processing device uses R (red), G (green), and B (blue) primary color signals (R signal, G signal, and B signal) obtained from each CCD, which is a three-chip imaging device. After performing the knee processing, a luminance signal and a color difference signal are generated based on the signal subjected to the knee processing.
  • FIG. 1 is a block diagram showing a configuration of a conventional video signal processing device 10.
  • each primary color signal (R signal, G signal, and B signal) supplied from the image sensor is input to a corresponding gamma correction circuit 11a, 11b, and 11c. Is done.
  • the gamma correction circuit 11a performs gamma correction on the R signal according to the light emission characteristics of a display device such as a CRT (Cathode Ray Tube).
  • Knee circuit 1 2 a to the gamma correction circuit 1 1 a of the output signal, from 1 to performing nonlinear signal compression processing for the signal exceeding a predetermined level, a wide dynamic range of natural light, the video signal ( Video signal) within the narrow dynamic range. Dynamic range is compressed in the knee circuit 12a.
  • the supplied signal is supplied to the corresponding white clip circuit 13a and color difference signal generation circuit 15.
  • the white clip circuit 13a performs white clip processing on a signal exceeding a predetermined level on the output signal of the knee circuit 12a, and supplies the result to the luminance signal generation circuit 14.
  • the gamma correction circuit 11b performs gamma correction on the G signal according to the light emission characteristics of the display device such as CRT.
  • the knee circuit 12b subjects the output signal of the gamma correction circuit 11b to a non-linear signal compression process for a signal exceeding a predetermined level, thereby providing a wide dynamic range of natural light to a video signal (video). Video signal) within a narrow dynamic range.
  • the signal whose dynamic range has been compressed in the knee circuit 12 b is supplied to the corresponding white clip circuit 13 b and color difference signal generation circuit 5.
  • the white clip circuit 13 b performs white clip processing on a signal exceeding a predetermined level on the output signal of the knee circuit 12 b, and supplies the result to the luminance signal generation circuit 14.
  • the gamma correction circuit 11c performs gamma correction on the B signal according to the light emission characteristics of the display device such as CRT.
  • the knee circuit 12c subjects the output signal of the gamma correction circuit 11c to a non-linear signal compression process for a signal exceeding a predetermined level, thereby providing a wide dynamic range of natural light to a video signal (video). Video signal) within a narrow dynamic range.
  • Knee circuit 1 2.
  • the signal of which the dynamic range has been compressed is supplied to the corresponding white clip circuit 13c and color difference signal generation circuit 5.
  • the white clip circuit 13c performs white clip processing on a signal exceeding a predetermined level on the output signal of the knee circuit 12c, and supplies the result to the luminance signal generation circuit 14.
  • the luminance signal generation circuit 14 generates a luminance signal Y based on the signals supplied from the white clip circuits 13a, 13b and 13c. Also, color difference signal The generation circuit 15 generates color difference signals RY and BY by performing matrix processing based on the signals supplied from the knee circuits 12a, 12b and 12c.
  • the luminance signal Y and the color difference signals R_Y and BY are generated by the luminance signal generation circuit 14 and the color difference signal generation circuit 15 are supplied to a display device such as a CRT.
  • a display device such as a CRT.
  • knee processing is individually performed on each of the primary color signals (R signal, G signal, and B signal) obtained via the imaging means.
  • the primary color R (red), G (green) and B (blue)
  • complementary colors Ye (yellow), Mg (Magenta), G (green), Cy (cyan)
  • This single-panel video camera has the advantage that the use of one CCD image sensor allows the optical system to be compact and the entire video camera to be compact.
  • This single-panel video camera is also generally subjected to knee processing.
  • a gamma correction and a u-color correction are performed on a primary color signal or a complementary color signal (hereinafter, referred to as a video signal) before generating a luminance signal and a color difference signal, respectively.
  • processing and color signal processing such as white clipping, for example, a part that exceeds the signal level (knee point, that is, the reference point of the A processing) that determines whether or not to compress the signal in the knee processing. If there is a portion of the existing video signal that does not exceed the knee point, the characteristics of the A-processing differ depending on whether the signal level exceeds the knee point.
  • An object of the present invention is to provide a video signal processing apparatus and a video signal processing method that can appropriately generate a color component (color difference signal) and a luminance component (luminance signal) even when knee processing is performed. .
  • the video signal processing device maintains a signal level ratio between at least adjacent pixels among the pixels with respect to a video signal in which color components are arranged for each pixel. Knee processing means for performing knee processing is provided.
  • a video signal processing device includes: a luminance signal generation unit configured to generate a luminance signal from a video signal in which color components are arranged for each pixel; and a luminance signal generation unit.
  • a knee process that performs two processes on the generated luminance signal Means for calculating the rate of change in the signal level of the luminance signal associated with the knee processing; and multiplying the video signal by the rate of change calculated by the rate of change calculation means.
  • a video signal processing device includes: a separating unit configured to separate a luminance signal and a color difference signal from a video signal in which color components are arranged for each pixel; Knee processing means for performing knee processing on the luminance signal, change rate calculation means for calculating a change rate of the signal level of the luminance signal accompanying the knee processing, and a change rate calculated by the change rate calculation means. Multiplying means for multiplying the color difference signal separated by the separating means; and video signal processing means for performing predetermined signal processing on the color difference signal multiplied by the change rate and the knee-processed luminance signal.
  • a video signal processing apparatus comprising: a white balance adjustment unit configured to adjust a white balance of a video signal in which color components are arranged for each pixel; and the white balance adjustment unit.
  • Luminance signal generating means for generating a luminance signal from a video signal whose white balance has been adjusted by the above, knee processing means for performing knee processing on the luminance signal generated by the luminance signal generating means;
  • a change rate calculating means for calculating a change rate of the signal level of the luminance signal; a multiplying means for multiplying the video signal whose white balance has been adjusted by the change rate calculated by the change rate calculating means;
  • Video signal processing means for generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing device includes: a white balance adjustment unit that adjusts a white balance of a video signal in which color components are arranged for each pixel; and a white balance adjustment unit.
  • a luminance signal generating means for generating a luminance signal from a video signal whose white balance has been adjusted; Knee processing means for performing knee processing on the luminance signal generated by the signal generation means with input / output characteristics corresponding to the signal level of the luminance signal; and a signal of a video signal input to the white balance adjustment means A level is detected, a white balance gain that matches the input / output characteristics of the knee processing applied to the signal level is determined, and the white balance adjustment unit is executed by the determined white balance gain.
  • White balance gain determining means change rate calculating means for calculating a change rate of the signal level of the luminance signal in accordance with the knee processing, and the change rate calculated by the change rate calculating means, wherein the white balance is adjusted.
  • Multiplying means for multiplying the video signal, and a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing means for generating comprises a.
  • a video signal processing device includes: a white balance adjustment unit configured to adjust a white balance of a video signal in which color components are arranged for each pixel; and the white balance adjustment unit.
  • a luminance signal generating means for generating a luminance signal from the video signal whose white balance has been adjusted, and a first or a second signal corresponding to the signal level of the luminance signal generated by the luminance signal generating means.
  • Knee processing means for performing an A-process with the input / output characteristics of: and calculating an average value of signal levels to which the first input / output characteristic is applied in the knee processing among the luminance signals input to the one processing means.
  • an average value of a signal level to which the second input / output characteristic is applied in the knee processing is calculated, and the calculated second average value is calculated based on the calculated second average value.
  • a white balance gain calculating means for weighting a white balance gain in the white balance adjusting means with an average value; a change rate calculating means for calculating a change rate of a signal level of the luminance signal due to the knee processing; Multiplying means for multiplying the video signal whose white balance has been adjusted by the change rate calculated by the rate calculating means; and generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • Video signal processing means for weighting a white balance gain in the white balance adjusting means with an average value; a change rate calculating means for calculating a change rate of a signal level of the luminance signal due to the knee processing; Multiplying means for multiplying the video signal whose white balance has been adjusted by the change rate calculated by the rate calculating means; and generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing method wherein a ratio of a signal level between at least adjacent pixels among the pixels is compared with a video signal in which color components are arranged for each pixel.
  • a video signal processing method includes: a luminance signal generating step of generating a luminance signal from a video signal in which color components are arranged for each pixel; A knee process for performing a knee process on the received luminance signal; a change rate calculating step for calculating a change rate of a signal level of the luminance signal in accordance with the -one process; and a change calculated in the change rate calculating step. And a video signal processing step of generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing method comprising: a separating step of separating a luminance signal and a color difference signal from a video signal in which color components are arranged for each pixel; A knee processing step of performing a knee process on the luminance signal; a change rate calculation step of calculating a change rate of a signal level of the luminance signal in accordance with the one process; and a change rate calculated in the change rate calculation step.
  • a video signal processing method includes: a white balance adjustment step of adjusting a white balance of a video signal in which color components are arranged for each pixel; and the white balance adjustment step.
  • a video signal processing step of generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing method includes: a white balance adjustment step of adjusting a white balance of a video signal in which color components are arranged for each pixel; and the white balance adjustment step.
  • a luminance signal generating step of generating a luminance signal from the video signal whose white balance has been adjusted; and a necessity of input / output characteristics corresponding to the signal level of the luminance signal with respect to the luminance signal generated in the luminance signal generating step.
  • the balance gain is determined, and the white balance adjustment step is performed according to the determined white balance gain. Determining a white balance gain to be changed, a change rate calculating step of calculating a change rate of the signal level of the luminance signal due to the knee processing, and a change rate calculated in the change rate calculating step. A multiplication step of multiplying the adjusted video signal; and a video signal processing step of generating a luminance signal and a color difference signal based on the video signal multiplied by the change rate.
  • a video signal processing method comprising: a white balance for adjusting a white balance of a video signal in which color components are arranged for each pixel.
  • a luminance signal generating step of generating a luminance signal from the video signal of which the white balance has been adjusted in the white balance adjusting step, and a luminance signal generated in the luminance signal generating step.
  • a knee processing step of performing knee processing with the first or second input / output characteristic according to the signal level of the signal; and the luminance signal subjected to the knee processing in the one processing step, wherein the first processing in the one processing is performed.
  • Figure 1 is a block diagram showing the configuration of a conventional video signal processing device.
  • FIG. 2 is a block diagram showing a configuration of a video signal processing device according to Embodiment 1 of the present invention
  • FIG. 3A is a schematic diagram for explaining a complementary color filter according to Embodiment 1
  • FIG. 3B is a schematic diagram for explaining an image sensor output according to Embodiment 1
  • FIG. 4 is a schematic diagram for explaining knee processing characteristics of a knee processing unit according to Embodiment 1
  • FIG. 5A is a schematic diagram showing a luminance signal level and a color difference signal level of each adjacent pixel of the (2R-G) system before knee processing;
  • FIG. 5B is a schematic diagram showing a luminance signal level and a color difference signal level of each adjacent pixel of the (2B-G) system before knee processing;
  • FIG. 6A is a schematic diagram showing the luminance signal level and the color difference signal level of the adjacent pixels of the (2R ⁇ G) system after the conventional knee processing,
  • FIG. 6B is a schematic diagram showing the luminance signal level and the color difference signal level of the adjacent pixels of the (2B-G) system after the conventional knee processing,
  • FIG. 7A is a schematic diagram illustrating a luminance signal level and a chrominance signal level of each pixel adjacent to each other in the (2R ⁇ G) system after knee processing according to the first embodiment
  • FIG. 7B is a schematic diagram illustrating a luminance signal level and a color difference signal level of each adjacent pixel of the (2B-G) system after knee processing according to the first embodiment
  • FIG. 8 is a block diagram showing a configuration of a video signal processing device according to Embodiment 2 of the present invention.
  • FIG. 9 is a block diagram showing a configuration of a video signal processing device according to Embodiment 3 of the present invention.
  • FIG. 10 is a schematic diagram illustrating a knee characteristic of a knee processing unit according to the third embodiment.
  • FIG. 11 is a block diagram illustrating a configuration of a video signal processing device according to the fourth embodiment of the present invention.
  • FIG. 12 is a block diagram showing a configuration of a video signal processing device according to Embodiment 5 of the present invention.
  • FIG. 13 is a block diagram showing a configuration of a video signal processing device according to Embodiment 6 of the present invention.
  • FIG. 14 is a schematic line showing knee characteristics of the knee processing unit according to Embodiment 6 of the present invention.
  • FIG. 15 is a block diagram illustrating a configuration of a video signal processing device according to Embodiment 7 of the present invention.
  • FIG. 16 is a schematic diagram illustrating knee characteristics of a knee processing unit according to Embodiment 7 of the present invention.
  • FIG. 17 is a block diagram illustrating a configuration of a video signal processing device according to Embodiment 8 of the present invention.
  • FIG. 18 is a block diagram showing a configuration of a video signal processing device according to Embodiment 9 of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the video signal processing device 100 for a video camera according to Embodiment 1 of the present invention.
  • a CCD image sensor 102 In a video camera, subject light obtained through a lens 101 is incident on a CCD image sensor 102 constituting a single-plate image pickup unit.
  • the CCD image sensor 102 supplies an analog video signal obtained by subjecting the subject light to photoelectric conversion to the preprocessing unit 103.
  • the preprocessing unit 103 removes noise components from the CDS (Correlated Double Sampling) circuit for removing reset noise from analog video signals supplied from the CCD image sensor 102.
  • An AGC (Automatic Gain Control) circuit that adjusts the amplitude of the adjusted video signal to keep the signal level constant, and an A / D (analog Z digital) ) includes a clamp circuit that performs clamp processing for conversion processing.
  • the video signal output from the preprocessor 103 is supplied to the A / D converter 104. It is. / / 0 conversion unit 1 0 4 converts the movies image signal of an analog supplied from the preprocessing unit 1 0 3 to a digital signal, supplied which the luminance generation unit 1 0 6 and multiplying section 1 0 5 I do.
  • Luminance generation unit 1 0 6 the digital signal supplied from AZD conversion unit 1 0 4, and generates a luminance signal Y by the LPF (low pass filter) having a characteristic such as 1 + Z 1, the luminance signal Y Are supplied to the knee processing unit 107 and the knee change rate calculation unit 108, respectively.
  • LPF low pass filter
  • the knee processing unit 107 performs a knee process on the luminance signal Y supplied from the luminance generation unit 106 to compress a portion of the luminance signal Y at a predetermined signal level (knee point) or more.
  • the knee-processed luminance signal Y ′ is supplied to the knee change rate calculation unit 108.
  • the Y change rate calculation unit 108 calculates the knee of the luminance signal level.
  • the change rate Y ′ due to the processing is calculated, and the calculated change rate Y ′ / Y is supplied to the multiplier 105.
  • the multiplication unit 105 multiplies the digital signal supplied from the AZD conversion unit 104 by the change rate Y′ZY supplied from the knee change rate calculation unit 108. In other words, the digital video signal before being converted to the luminance signal Y is multiplied by the rate of change Y '/ Y. Feed to 109.
  • the camera process unit 109 performs signal processing such as gamma correction and contour correction on the multiplication result supplied from the multiplication unit 108, and generates final luminance signals and color difference signals. Is output.
  • the color-capturing CCD image sensor 102 in the case of the color-capturing CCD image sensor 102, as shown in FIG. 3A, colors (Ye (yellow), Cy (shear), G (green) and (magenta) color filters are attached to each pixel. Output signal of CCD image sensor 102 obtained through this color filter The (video signal) is added to each of the upper and lower two pixels of the color filter, and as shown in Fig. 3 (B), output from the image sensor as a video signal for one line of the upper and lower two lines of the color filter.
  • the color image pickup device described for the color-capture image pickup device includes a color image pickup device to which a primary color RGB color filter is attached.
  • the luminance generation unit 106 obtains a luminance signal Y by taking an average of pixels adjacent to each other in the video signal shown in FIG. 3B.
  • the luminance generation unit 106 generates a luminance signal Y for each line by the following (Equation 4) and (Equation 5) based on the above (Equation 1) to (Equation 3).
  • the luminance generation unit 106 obtains the luminance signal Y by using an LPF (low-pass filter) having the characteristic of (1 + ZZ2).
  • the knee processing unit 107 converts the luminance signal Y generated by the luminance generation unit 106 into a signal level based on the input / output characteristics shown by the solid line in FIG.
  • the luminance signal ⁇ 'after knee processing is obtained by performing knee processing to compress the level output signal.
  • the broken line shows the input / output characteristics when the knee processing is not performed.
  • the signal level (Y) of the luminance signal Y ′ output from the knee processing unit 107 is set as 21 “point” NP as the signal level “100”. If it is less than or equal to “0”, the signal level (Y,) of the luminance signal Y ′ output from the knee processing unit 107 is obtained by the following (Equation 6).
  • the ratio (knee change rate: Y ′ / ⁇ ) between the luminance signal ⁇ ⁇ , which is the result of the knee processing performed by the knee processing unit 107, and the luminance signal ⁇ before the knee processing is performed, is obtained.
  • the change rate is calculated by the change rate calculation unit 108.
  • the knee change rate ( ⁇ , / ⁇ ) calculated by the knee change rate calculation unit 108 is multiplied by the digital video signal output from the AZD conversion unit 104 in the multiplication unit 105.
  • the video signal input to the multiplication unit 105 has a change that follows the change amount of the luminance signal in the knee processing.
  • the video signal output from the AZD conversion unit 104 is referred to as AD OUT
  • the brightness signal after knee processing output from the knee processing unit 107 is Y '
  • the brightness output from the brightness generation unit 106 Assuming that the signal is Y, the video signal output from the multiplier 105 is AD. Determined by UT ( ⁇ '/ ⁇ ).
  • a color difference signal is generated in the camera process unit 109 from the video signal controlled according to the change amount of the luminance signal in the knee processing.
  • the color difference signals R— ⁇ , ⁇ — calculated by the camera process unit 109 Y is calculated by the following (Equation 8) and (Equation 9) by calculating the difference between adjacent pixels among the pixels shown in Fig. 3 ( ⁇ ).
  • Equation 9 For such a color difference signal, represents an odd line (2 R-G)' and represents an even line Since each of the two (2B—G) 'systems is multiplied by the same coefficient of Y, the balance of each of the R— ⁇ and ⁇ — ⁇ systems is maintained, which changes the hue. Disappears.
  • the luminance signal Y ′ calculated in the camera process unit 109 the system of (2R ⁇ G), and the system of (1BG) ′ are respectively described in FIGS. 7 (A) and 7 ( The same signal level is obtained as shown in B). Therefore, even if various kinds of signal processing such as contour correction and gamma correction are performed in the camera process section 109, it is possible to obtain good video signals (luminance signal and color difference signal) without line shading and false color.
  • FIGS. 5 (A) and 5 (B) show the adjacent pixels Y e + Mg and C y + G of the (2R-G) system and one (2B-G) system before knee processing. Alternatively, it indicates the video signal level of Ye + G and Cy + Mg, the color difference signal level (2R-G), one (2B-G), and the signal level (Y) of the luminance signal Y.
  • FIGS. 7 ( ⁇ ) and 7 ( ⁇ ) show adjacent pixels Ye + Mg and Cy + of the (2R-G) and-(2B-G) systems after the conventional knee processing. Indicates the video signal level of G or Ye + G and Cy + Mg, the color difference signal level (2R-G) ', one (2BG)' and the signal level ( ⁇ ⁇ ') of the luminance signal Y. It is. Further, FIGS. 7 ( ⁇ ) and 7 ( ⁇ ) show the (2R ⁇ G) system and one (2) as a result of multiplication of the knee change rate ⁇ ′ / ⁇ after the knee processing according to the present embodiment.
  • the luminance signal level generated based on the video signal output from the multiplier 105 also becomes (2 Both the R-G line and the (2B-G) line have the same luminance signal level “105”. Therefore, the signal level ( ⁇ ,) of the luminance signal Y ′ output from the camera process section 109 coincides with each line as shown in FIGS. 7 ( ⁇ ⁇ ) and 7 ( ⁇ ). As a result, the cause of line shading can be improved.
  • the color difference signal level is also calculated based on the result of multiplying each video signal level before knee processing by the same knee change rate ⁇ , / ⁇ ⁇ , whereby the (2R—G) system and ( By maintaining the signal level balance of each pixel of the 2BG) system, it is possible to improve the cause of the false color in the color difference signal generated in the camera process unit 109.
  • one processing is performed on the video signal output from the A / D conversion section 104 before the separation of the luminance component and the color difference component.
  • the video signal is temporarily converted to a luminance signal that is the average of its neighboring pixels, and then the knee signal is applied to the luminance signal so that the hue does not change for the pixels that match each other. Knee processing can be performed while maintaining the state.
  • the hue does not change for each pixel adjacent to the video signal. It is possible to control the signal level following the amount of change in the luminance signal in the knee processing while maintaining the above, that is, perform the signal level control equivalent to the knee processing while maintaining the balance of each adjacent pixel.
  • the camera process unit 109 generates a luminance signal and a color difference signal based on the signal levels of the pixels adjacent to each other in the input video signal, the signal levels of the pixels adjacent to each other are calculated. A luminance signal and a color difference signal are generated based on the balanced signal, and as a result, the occurrence of line shading and false colors can be prevented.
  • the present invention is not limited to this, and the case where an imaging device having a primary color Bay array is used is used. Can also obtain the same effect.
  • FIG. 8 is a block diagram showing a configuration of a video signal processing apparatus 200 for a video camera according to Embodiment 2 of the present invention.
  • components having the same configuration as in FIG. 2 are assigned the same reference numerals as in FIG. 2 and detailed description thereof is omitted.
  • the video signal processing device 200 is different from the video signal processing device 100 of Embodiment 1 described above with reference to FIG. 2 in that a YC separation unit 200 1 that generates a luminance signal YSIG and a color difference signal CSIG. And the luminance generation unit 106 is deleted.
  • the YC separation unit 201 generates the luminance signal YSIG by performing the above-described calculations (Equation 4) and (Equation 5) on the digital video signal supplied from the AZD conversion unit 104. At the same time, the color difference signal CSIG is generated by the above (Equation 8) and (Equation 9).
  • the knee processing unit 107 performs knee processing on the luminance signal Y SIG supplied from the YC separation unit 201, and then supplies the processing result to the knee change rate calculation unit 108.
  • the knee change rate calculation unit 108 calculates the knee change rates Y and ZY SIG based on the luminance signal YSIG and the luminance signal Y ′ which is the result of the knee processing in the same manner as described above with reference to FIG. .
  • the multiplication unit 105 calculates the knee change rate Y ′ / YSIG calculated by the knee change rate calculation unit 108 and the color difference signal CSIG supplied from the YC separation unit 201. Multiply. As a result, the color difference signal CSIG becomes a color difference signal CSIG ( ⁇ 'ZYS IG) to which a change following the change amount of the luminance signal due to the knee processing is added.
  • the knee processing is performed on the luminance signal YS IG already separated in the YC separation unit 201, and the knee change rate ( ⁇ ′ ZYS IG), the camera processing unit 109 obtains a luminance signal based on the luminance signal Y ′ subjected to the knee processing and the color difference signal multiplied by the knee change rate ( ⁇ ′ ZYS IG). Generate and output signal and color difference signal. This makes it possible to obtain a color difference signal CSIG ( ⁇ '/ ⁇ ⁇ SIG) corrected in accordance with the rate of change of the luminance signal Y' ( ⁇ '/ YS IG).
  • the hue balance can be maintained as compared with the case where the minus signal processing is individually performed on the luminance signal and the color difference signal.
  • the knee change rate (Y, / YS IG) by the knee processing performed on the luminance signal Y ′ is fed back to the color difference signal CSIG. Then, by performing the same processing as the knee processing on the luminance signals ⁇ and, the hue balance of the color difference signal after performing gamma correction and contour correction in the camera process unit 109 can be maintained. Wear.
  • FIG. 9 is a block diagram showing a configuration of a video signal processing apparatus 300 for a video camera according to Embodiment 3 of the present invention.
  • components having the same configuration as in FIG. 2 are assigned the same reference numerals as in FIG. 2 and detailed description is omitted.
  • the video signal processing device 300 is different from the video signal processing device 100 of the first embodiment described above with reference to FIG. 2 in that a screen average value generation unit 30 that calculates the average value of the luminance signal ⁇ in one screen is used. It has a configuration that adds 1.
  • the screen average value generation unit 301 calculates an average value for one screen based on the luminance signal ⁇ supplied from the luminance generation unit 106, and determines whether or not the calculation result is larger than a predetermined reference value. Knee processing unit 307 applies luminance signal ⁇ The knee point (reference point) of the knee processing.
  • the screen average value generation section 301 when the average luminance value Y a V e for one screen is larger than a certain reference value Y th, the screen average value generation section 301, as shown in FIG.
  • the gradation of the screen with many white areas can be sufficiently reproduced in the white areas, and the phenomenon called so-called white loss can be reduced. .
  • the screen average value generation section 3101 when the average luminance value Y a Ve for one screen is smaller than a reference value Y th, the screen average value generation section 3101, as shown in FIG.
  • the gradation of the screen with many black parts can be reproduced in + minutes in the black parts, reducing the phenomenon called so-called black-out Can be done.
  • the output of the knee processing section 307 is obtained.
  • the dynamic range can be fully utilized.
  • the gradation of the subject can be kept good, and even if various kinds of signal processing such as gamma correction and contour correction are performed in the camera process section 109, the final luminance signal and color difference signal will not A good tone signal that follows the brightness is obtained.
  • the video signal processing device 300 of the present embodiment instead of performing the A processing on each pixel of the video signal, the video signal is converted into a luminance signal that is the average of adjacent pixels. Once converted, the luminance signal is subjected to knee processing to perform one processing while maintaining the balance between adjacent pixels, and to reduce phenomena such as overexposure and underexposure. As a result, an image with good gradation can be obtained. (Embodiment 4)
  • FIG. 11 is a block diagram showing a configuration of a video signal processing device 400 of a video camera according to Embodiment 4 of the present invention.
  • components having the same configuration as in FIG. 9 are denoted by the same reference numerals as in FIG. 9 and detailed description is omitted.
  • the video signal processing device 400 is different from the video signal processing device 300 of the third embodiment described above with reference to FIG.
  • the first knee processing unit 402 or the second knee processing unit 403 having different knee points from each other is selected by the selector 404 based on the average value of the luminance signal Y, and the selected knee is selected.
  • the output from the processing unit is supplied to the knee change rate calculation unit 108.
  • a low knee point is set as the knee point N1 shown in FIG. 10
  • the second knee processing unit 400 As a knee point, a high knee point is set, such as a knee point N2 shown in FIG.
  • the selector 410 selects the average of the luminance signal.
  • the first knee processing section 402 is selected based on the value. As a result, it is possible to process a video with high brightness and clearness.
  • the selector 404 Selects the second knee processing unit 403 based on the average value of the luminance signal.
  • the video signal is converted into a luminance signal that is the average of the adjacent pixels.
  • first knee processing unit 402 and second knee processing unit 400 having different knee points are used.
  • the present invention is not limited to this, and more knee processing units in which different knee points are set may be provided, and these may be switched based on the average value of the luminance signal Y. By doing so, it is possible to perform gradation expression that follows the luminance level more finely, and it is possible to obtain a better image.
  • FIG. 12 is a block diagram showing a configuration of a video signal processing device 500 for a video camera according to Embodiment 5 of the present invention.
  • components having the same configuration as in FIG. 2 are assigned the same reference numerals as in FIG. 2 and detailed description is omitted.
  • the video signal processing device 500 is different from the video signal processing device 100 according to the first embodiment described above with reference to FIG. 2 in that the video signal output from the AZD converter 104 is The difference is that a white balance control section 502 that performs white balance control and a white balance gain calculation section 503 that calculates a white balance gain are added to the white balance control section 502.
  • the white balance gain calculator 503 calculates an average value for each color in one screen based on the video signal output from the AZD converter 104, and calculates 2R-G and 2 Calculate the white balance gain so that the ratio of B to G becomes equal, and supply the calculation result to the white balance control unit 502.
  • the white balance control section 502 performs white balance control by performing level adjustment for each color based on the white balance gain supplied from the white balance gain calculation section 503. As a result, the white balance control section 502 outputs a video signal in which the balance of each color is adjusted.
  • the luminance generation unit 106 receives the white output from the white balance control unit 502.
  • a luminance signal Y is generated by using the adjacent pixels of the video signal whose balance has been adjusted by the above-described calculation of (Equation 4) and (Equation 5), and this is processed by the knee processing unit 107 and -Supply to the change rate calculator 108.
  • the knee processing unit 107 performs an A process based on the luminance signal Y of which the white balance has been adjusted, that is, the luminance signal ⁇ ⁇ of which the signal level of each pixel has been appropriately adjusted.
  • the knee change rate calculating unit 108 also calculates an appropriate knee change rate based on the luminance signal ⁇ that has been subjected to the white balance adjustment and the result obtained by performing one process based on the luminance signal ⁇ . ( ⁇ , / ⁇ ) can be calculated.
  • the multiplying unit 105 multiplies the white balance adjusted video signal output from the white balance control unit 502 by the ⁇ ⁇ change rate ( ⁇ ′ / ⁇ ).
  • a signal obtained by adjusting the white balance and further multiplying by an appropriate knee change rate ( ⁇ ′ / ⁇ ) by the white balance is supplied to the camera process unit 109.
  • the camera process unit 109 performs signal processing such as gamma correction and contour correction based on the video signal supplied from the multiplier 105 to adjust white balance and further perform knee processing. Appropriate luminance and chrominance signals are obtained.
  • the color component is adjusted by performing the white balance adjustment in advance on the luminance signal ⁇ generated for performing the knee processing. Knee processing is performed based on the luminance signal ⁇ thus obtained.
  • the signal levels of the pixels (Ye + G, Cy + Mg) are appropriately adjusted by the white balance control, and the knee processing is performed based on the resulting luminance signal Y.
  • inconveniences such as compression of only specific color components more than necessary can be reduced.
  • the appropriate knee change rate ( ⁇ '/ ⁇ ) is multiplied
  • the supplied video signal can be supplied to the camera process unit 109.
  • FIG. 13 is a block diagram showing a configuration of a video signal processing device 600 of a video camera according to Embodiment 6 of the present invention.
  • components having the same configuration as in FIG. 12 are assigned the same reference numerals as in FIG. 12 and detailed description thereof is omitted.
  • the video signal processing device 600 uses the white balance gain calculating section 503 of the video signal processing device 500 of the fifth embodiment described above with reference to FIG. Instead of the balance gain calculating sections 603 and 604, one of them is switched based on the signal level of the video signal detected by the signal level detecting section 602.
  • the signal level detection unit 602 detects the signal level of the video signal before the white balance adjustment output from the AZD conversion unit 104, and detects the signal level as a knee point. If it is greater than or equal to ⁇ 100 ”, a signal indicating that it is greater than or equal to the knee point is supplied to the selector 605, and the selector 605 causes the first white balance gain calculator 603 to supply the signal. Output is selected.
  • the signal level of the video signal output from the A / D converter 104 before white balance adjustment is lower than the knee point “100”, the signal must be smaller than the knee point.
  • the selector 605 whereby the output of the second white balance gain calculator 604 is selected by the selector 605.
  • the knee point is supplied from the knee processing unit 107 to the signal level detection unit 62.
  • the first white balance gain calculating section 603 calculates a white balance gain for adjusting a white balance for a signal level equal to or higher than a knee point in knee processing. Calculate the average value for each color in one screen, and calculate the white balance gain based on the average value so that the ratios of 2R-G and 2B-G are equal.
  • the first white gain calculating section 603 calculates the white When knee processing is performed on a video signal whose white balance has been adjusted (a signal having a level equal to or higher than the knee point), as shown in FIG. 14, the knee based on the input / output characteristics having a slope of 1 Z 2 Processing is performed. Accordingly, the white balance gain calculated by the first white balance gain calculating section 603 is weighted by 1 Z 2 times the white balance gain calculated by the second white balance gain calculating section 604. I have.
  • the second white balance gain calculator 604 calculates a white balance gain for adjusting the white balance for a signal level that is smaller than the e-point in the knee processing. Calculate the average value for each of the colors inside, and calculate the white balance gain based on the average value so that the ratio of 2RG is equal to 2BG.
  • knee processing is performed based on the input / output characteristics having a slope of 1.
  • weighting processing can be performed on the white balance gain with the knee processing reference point (knee point) in the knee processing unit 107 as a boundary, so that the video signal in the signal level range compressed in the knee processing can be obtained.
  • white balance adjustment using the white balance gain according to the compression is performed. This makes it possible to adjust the white balance in accordance with the knee processing.
  • FIG. 15 is a block diagram showing a configuration of a video signal processing device 700 for a video camera according to Embodiment 7 of the present invention.
  • components having the same configuration as in FIG. 12 are assigned the same reference numerals as in FIG. 12 and detailed description is omitted.
  • the video signal processing device 700 calculates the white balance gain calculated by the white balance gain calculator 503 of the video signal processing device 500 of the fifth embodiment described above with reference to FIG. The difference is that weighting is performed at the knee point in the knee processing unit 107.
  • the video signal processing device 700 shown in FIG. 15 converts the luminance signal Y generated in the luminance generation unit 106 into a first screen average value generation unit 703 and a second screen average value generation unit. 704 respectively.
  • the first screen average value generation unit 703 calculates the average value in one screen for the signal level equal to or higher than the knee point of the knee processing unit 107, and the second screen average value generation unit 704 -For the signal level smaller than the knee point of the processing unit 107, calculate the average value in one screen.
  • the characteristic when the knee processing point is equal to or greater than the knee point in one processing of the knee processing unit 107 is a gradient 1 Z2, and the characteristic when the value is smaller than the knee point is a gradient.
  • the output of the first screen average value generation unit 703 is ⁇ times the luminance average value of one screen, and the output of the second screen average value generation unit 704 is Is weighted in advance so that the average luminance value in one screen is made one time.
  • the knee level detection unit 706 determines whether or not the signal level of the pixel to be subjected to the knee processing supplied from the knee processing unit 107 is equal to or higher than the knee point of the knee processing, If the signal level is equal to or higher than the knee point, the output of the first screen average value generation unit 703 is selected. If the signal level is lower than the knee point, the second screen average value generation unit 7 The selector 705 is controlled so as to select the output of 04. As a result, the weighted average value and the second screen average value supplied from the first screen average value generation unit 703 are output from the white balance gain calculation unit 503 at the knee point in the knee processing as a boundary. The weighted average value supplied from the generation unit 704 can be sorted to weight the white balance gain.
  • the weighting process can be performed on the white balance gain with the knee processing reference point (knee point) in the knee processing unit 107 as a boundary, so that the signal level range compressed in the U processing can be obtained.
  • the video signal is subjected to white balance adjustment using a white balance gain in accordance with the compression. This makes it possible to adjust the white balance in accordance with the knee processing.
  • the subsequent luminance generation unit 106 can generate luminance based on the video signal whose white balance has been adjusted, and the knee processing unit 107 can adjust the white balance. Knee processing can be appropriately performed based on the luminance signal obtained. Further, the change rate ( ⁇ '/
  • is also calculated as an appropriate rate of change ( ⁇ / / ⁇ ⁇ ⁇ ), because the video signal whose white balance has been adjusted is used as a reference.
  • the multiplication unit 105 at the subsequent stage multiplies the video signal output from the white balance control unit 502 by the rate of change ( ⁇ ′ / ⁇ ) to maintain the white balance.
  • the video signal in which the knee point in the knee processing is maintained can be supplied to the camera process unit 109.
  • the white balance adjustment according to the signal level of the luminance signal generated for performing the knee processing is performed in advance.
  • the knee processing is performed based on the luminance signal ⁇ in which the color components are adjusted according to the one processing.
  • the video signal multiplied by the appropriate knee change rate ( ⁇ ′ / ⁇ ) can be supplied to the camera process unit 109.
  • the present invention is not limited to this, and by further providing a large number of screen average value generation units and weighting the luminance average value of one screen in accordance with the knee characteristic of the twenty-first processing, higher accuracy is achieved.
  • White balance adjustment can be performed.
  • FIG. 17 is a block diagram showing a configuration of a video signal processing device 800 for a video camera according to Embodiment 8 of the present invention.
  • components having the same configuration as in FIG. 2 are assigned the same reference numerals as in FIG. 2 and detailed description is omitted.
  • the video signal processing device 800 is the same as the video signal processing device 100 of the first embodiment described with reference to FIG. 2 except that the knee change rate ( ⁇ ′) output from the multiplication unit 105 is used.
  • the difference from the video signal processing apparatus 100 is that a flaw correction unit 802 for performing flaw correction of the video signal multiplied by (/ ⁇ ) is added.
  • the flaw removal unit 802 uses the video signal output from the multiplication unit 105 for each image of the video signal based on the comparison result with the surrounding image and the signal level of each pixel. Scratch detection is performed, and flaw correction is performed by performing interpolation processing based on the average value of the peripheral pixels of the pixel determined to be flawed.
  • the defect correction is performed with high accuracy. be able to.
  • the camera process unit 109 when the camera process unit 109 generates a luminance signal based on the video signal supplied from the multiplier 105, the video signal includes the color component as described above with reference to FIG. Since the pixels are arranged as pixels, a luminance signal is generated by the operation shown in (Equation 4) or (Equation 5) using these adjacent pixels.
  • a filter for generating a luminance signal is obtained.
  • one pixel's flaw also spreads to adjacent pixels used to generate the luminance signal.
  • the video signal input to the camera process unit 109 that is, before the filtering process for generating the luminance signal and the color difference signal is performed.
  • flaw detection By performing flaw detection on this video signal, flaws can be corrected without causing flaws to spread.
  • the output signal of the multiplying unit 105 without filtering is subjected to the flaw correction. It can be carried out. Therefore, it is possible to reduce the spread of the flaw to the surrounding pixels, and it is possible to accurately detect the flaw in the camera process unit 109.
  • the flaw correction before generating the luminance signal and the color difference signal, it is not necessary to provide a flaw correction circuit for each of the luminance signal and the color difference signal, thereby reducing an increase in the circuit scale. You can also.
  • FIG. 18 is a block diagram showing a configuration of a video signal processing device 900 for a video camera according to Embodiment 9 of the present invention.
  • components having the same configuration as in FIG. 17 are assigned the same reference numerals as in FIG. 17 and detailed description is omitted.
  • the video signal processing device 900 is the same as the video signal processing device 800 of the eighth embodiment described above with reference to FIG. And an image processing unit 902 for inputting the image data.
  • the video signal processing device 900 captures, for example, the state of a product flowing on the production line, and supplies this to the image processing unit 902.
  • the luminance signal and the color difference signal output from the camera process unit 109 are sufficiently reduced in line density and false color due to knee processing in the same manner as in the case of the video signal processing device 100 described above with reference to FIG. Display, the luminance signal and color difference signal
  • the image processing section 902 can appropriately determine the color and luminance level of the captured image. Therefore, in the case where a good or defective product is determined based on the color or luminance level of the product flowing on the production line, the probability of erroneous determination of the color or luminance level is significantly reduced in the image processing section 902, and accurate Make a good judgment.
  • the video signal processing apparatus 900 of the present embodiment it is possible to perform high-accuracy image processing with less erroneous determination of color / erroneous determination of luminance level.
  • the image processing unit 922 determines a non-defective product or a defective product flowing through a manufacturing line.
  • the present invention is not limited to this. It can be used for various purposes, such as judging a person entering or leaving a room by image processing, or recognizing a number displayed on a license plate of a car running on a road.
  • knee processing is performed on a video signal in which color components are arranged for each pixel while maintaining at least the signal level ratio between adjacent pixels among the pixels.
  • the present invention can be applied to an imaging device such as a video camera that obtains a video signal via an imaging device such as a CCD.

Description

明 細 書 映像信号処理装置及び映像信号処理方法 技術分野
本発明は、 映像信号処理装置及び映像信号処理方法に関し、 特に C C D (Charge Coupled Device) 等の撮像素子を介して得られた信号を処理する 映像信号処理装置及び映像信号処理方法に関する。 背景技術
従来、 ビデオ力メラにおいて C C D等の撮像素子を介して得られた 3つの 原色信号に対して-一処理を行う映像信号処理装置及び映像信号処理方法と しては、 特開平 9-238359号公報に記載されているものがある。
この従来の映像信号処理装置は、 3板式撮像手段である各 C C Dから得ら れた R (レッド)、 G (グリーン) 及び B (ブルー) の各原色信号 (R信号、 G信号及び B信号) に対して、 ニー処理を施した後、 ニー処理が施された信 号に基づいて、 輝度信号及び色差信号を生成する。
すなわち、 図 1は、 従来の映像信号処理装置 1 0の構成を示すブロック図 である。この図 1に示されるように、撮像素子から供給された各原色信号(R 信号、 G信号及び B信号) は、 それぞれ対応するガンマ補正回路 1 1 a、 1 1 b及ぴ 1 1 cに入力される。 ガンマ補正回路 1 1 aは、 C R T (Cathode Ray Tube)等の表示装置の発光特性に応じたガンマ補正を R信号に対して施 す。
ニー回路 1 2 aは、 ガンマ補正回路 1 1 aの出力信号に対して、 所定のレ ベルを超える信号に対する非線形の信号圧縮処理を施すことに1より、 自然光 の広いダイナミックレンジを、 映像信号 (ビデオ信号) 用の狭いダイナミッ クレンジに収める。 ニー回路 1 2 aにおいてダイナミックレンジが圧縮され た信号は、 対応するホワイ トクリップ回路 1 3 a及び色差信号生成回路 1 5 に供給される。
ホワイ トクリップ回路 1 3 aは、 ニー回路 1 2 aの出力信号に対して、 所 定レベルを超える信号に対するホワイ トクリップ処理を施し、 その結果を輝 度信号生成回路 1 4に供給する。
また、 ガンマ捕正回路 1 1 bは、 C R T等の表示装置の発光特性に応じた ガンマ捕正を G信号に対して施す。 ニー回路 1 2 bは、 ガンマ捕正回路 1 1 bの出力信号に対して、 所定のレベルを超える信号に対する非線形の信号圧 縮処理を施すことにより、自然光の広いダイナミックレンジを、映像信号(ビ デォ信号) 用の狭いダイナミックレンジに収める。 ニー回路 1 2 bにおいて ダイナミックレンジが圧縮された信号は、 対応するホワイ トクリップ回路 1 3 b及び色差信号生成回路 5に供給される。
ホワイ トクリップ回路 1 3 bは、 ニー回路 1 2 bの出力信号に対して、 所 定レベルを超える信号に対するホワイ トクリップ処理を施し、 その結果を輝 度信号生成回路 1 4に供給する。
また、 ガンマ補正回路 1 1 cは、 C R T等の表示装置の発光特性に応じた ガンマ補正を B信号に対して施す。 ニー回路 1 2 cは、 ガンマ捕正回路 1 1 cの出力信号に対して、 所定のレベルを超える信号に対する非線形の信号圧 縮処理を施すことにより、自然光の広いダイナミックレンジを、映像信号(ビ デォ信号) 用の狭いダイナミックレンジに収める。 ニー回路 1 2。において ダイナミックレンジが圧縮された信号は、 対応するホワイ トクリ ップ回路 1 3 c及び色差信号生成回路 5に供給される。
ホワイ トクリップ回路 1 3 cは、 ニー回路 1 2 cの出力信号に対して、 所 定レベルを超える信号に対するホワイ トクリップ処理を施し、 その結果を輝 度信号生成回路 1 4に供給する。
輝度信号生成回路 1 4は、 ホワイトクリツプ回路 1 3 a 、 1 3 b及び 1 3 cから供給される信号に基づいて、 輝度信号 Yを生成する。 また、 色差信号 生成回路 1 5は、 ニー回路 1 2 a 、 1 2 b及ぴ 1 2 cから供給される信号に 基づいて、 マトリクス処理を行うことにより色差信号 R—Y、 B— Yを生成 する。
輝度信号生成回路 1 4及び色差信号生成回路 1 5において生成された輝度 信号 Y及び色差信号 R _ Y、 B— Yは、 C R T等の表示装置に供給される。 このように、 従来の映像信号処理装置 1◦においては、 撮像手段を介して 得られた各原色信号 (R信号、 G信号及び B信号) に対して、 それぞれ個別 にニー処理を行う。
一方、 従来のビデオカメラとして、 1つの C C Dの入射面に、 画素に対応 して原色 (R (レッ ド)、 G (グリーン) 及び B (ブルー)) 又は補色 (Y e (イェロー)、 M g (マゼンタ)、 G (グリーン)、 C y (シアン)) の色フィ ルタを設け、 これらのフィルタを介して光電変換された色信号に基づいて輝 度信号 Y及び色差信号 R— Y、 Β— Υを生成する単板式のものがある。
この単板式のビデオカメラは、 1つの C C D撮像素子を用いていることに より、 光学系が小型となり、 ビデオカメラ全体をコンパク トにまとめること ができるという利点がある。 この単板式のビデオカメラにおいても、 一般的 にはニー処理が施されている。
しかしながら、 従来の単板式のビデオカメラにおいては、 輝度信号及ぴ色 差信号を生成する前の、 原色信号又は補色信号 (以下、 これらを映像信号と 呼ぶ) に対して、 それぞれガンマ捕正、 ユー処理及びホワイトクリップ等の 色信号処理を施すことにより、 例えば、 ニー処理において信号の圧縮を行う か否かの境目になる信号レベル (ニーポイント、 つまりエー処理の基準点) を超えるような部分が存在する映像信号に、 ニーポイントを超えない部分が 存在する場合には、 その信号レベルがニーボイントを超えるか否かによって エー処理の特性が異なる。
このように、 一連の映像信号において、 ニー処理の特性が異なる部分が生 じると、 ユー処理が施された映像信号の連続した 1画素ごとの信号レベルの 差分から色成分を生成する際に、 色成分を適切に生成することが困難になる という問題があった。
また、 C C D撮像素子から得られた映像信号の連続した 2画素分を加算し、 それを基にして輝度信号を生成する場合においても、 映像信号の信号レベル がニーポイントを超えるような被写体の中に、 ニーポイントを超えない画素 が混在する場合には、 ニーポイントを超えるか否かで-一処理の特性が異な る。この結果、ニー処理後の映像信号を基に輝度信号を生成しようとすると、 正確な輝度信号を得ることが困難になる場合があり、 同一の被写体であって も、 ラインごとに輝度レベルが変動するライン濃淡と呼ばれる現象が生じる 問題があった。
さらに、 C C D撮像素子の出力信号から輝度信号及び色差信号を生成した 後に、 キズ補正を行うような場合には、 輝度信号の生成及び色差信号の生成 に伴って、 フィルタ処理を行っていることにより、 キズが周囲の画素に広が ることとなり、 適切なキズ検出を行うことが困難になるとともに、 輝度信号 用及び色差信号用にそれぞれキズ捕正回路を設ける分、 回路規模の増加につ ながるという問題があった。 発明の開示
本発明の目的は、 ニー処理を行っても、 色成分 (色差信号) 及び輝度成分 (輝度信号) を適切に生成することができる映像信号処理装置及ぴ映像信号 処理方法を^供することである。
本発明の一形態によれば、 映像信号処理装置は、 色成分が画素ごとに配列 されてなる映像信号に対して、 前記画素のうち、 少なくとも隣接する画素間 の信号レベルの比率を保ちながら、ニー処理を施すニー処理手段を具備する。 本発明の他の形態によれば、 映像信号処理装置は、 色成分が画素ごとに配 列されてなる映像信号から輝度信号を生成する輝度信号生成手段と、 前記輝 度信号生成手段によつて生成された輝度信号に対して二 処理を施すニー処 理手段と、 前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出す る変化率算出手段と、 前記変化率算出手段によって算出された変化率を、 前 記映像信号に対して乗算する乗算手段と、 前記変化率が乗算された映像信号 に基づいて、 輝度信号及び色差信号を生成する映像信号処理手段と、 を具備 する。
本発明のさらに他の形態によれば、 映像信号処理装置は、 色成分が画素ご とに配列されてなる映像信号から輝度信号及び色差信号を分離する分離手段 と、 前記分離手段によって分離された輝度信号に対してニー処理を施すニー 処理手段と、 前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出 する変化率算出手段と、 前記変化率算出手段によって算出された変化率を、 前記分離手段によって分離された色差信号に乗算する乗算手段と、 前記変化 率が乗算された色差信号及び前記ニー処理された輝度信号に対して、 所定の 信号処理を施す映像信号処理手段と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理装置は、 色成分が画素ご とに配列されてなる映像信号のホワイ トバランスを調整するホワイトバラン ス調整手段と、 前記ホワイ トバランス調整手段によってホワイ トバランスが 調整された映像信号から輝度信号を生成する輝度信号生成手段と、 前記輝度 信号生成手段によって生成された輝度信号に対してニー処理を施すニー処理 手段と、 前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する 変化率算出手段と、 前記変化率算出手段によって算出された変化率を、 前記 ホワイトバランスが調整された映像信号に対して乗算する乗算手段と、 前記 変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生成する 映像信号処理手段と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理装置は、 色成分が画素ご とに配列されてなる映像信号のホワイ トバランスを調整するホワイトバラン ス調整手段と、 前記ホワイ トパランス調整手段によってホワイトバランスが 調整された映像信号から輝度信号を生成する輝度信号生成手段と、 前記輝度 信号生成手段によって生成された輝度信号に対して、 その輝度信号の信号レ ベルに応じた入出力特性でニー処理を施すニー処理手段と、 前記ホワイ トバ ランス調整手段に入力される映像信号の信号レベルを検出し、 その信号レべ ルに適用される前記ニー処理の入出力特性に合致したホヮイ トバランスゲイ ンを決定し、 決定されたホワイ トバランスゲインによって前記ホワイ トバラ ンス調整手段を実行させるホワイトバランスゲイン決定手段と、 前記ニー処 理に伴う前記輝度信号の信号レベルの変化率を算出する変化率算出手段と、 前記変化率算出手段によって算出された変化率を、 前記ホワイトバランスが 調整された映像信号に対して乗算する乗算手段と、 前記変化率が乗算された 映像信号に基づいて、輝度信号及び色差信号を生成する映像信号処理手段と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理装置は、 色成分が画素ご とに配列されてなる映像信号のホワイ トバランスを調整するホワイ トバラン ス調整手段と、 前記ホワイトバランス調整手段によってホワイトバランスが 調整された映像信号から輝度信号を生成する輝度信号生成手段と、 前記輝度 信号生成手段によって生成された輝度信号に対して、 その輝度信号の信号レ ベルに応じた第 1又は第 2の入出力特性でエー処理を行うニー処理手段と、 前記-一処理手段に入力される輝度信号のうち、 前記ニー処理における前記 第 1の入出力特性が適用される信号レベルの平均値を算出するとともに、 こ の算出された第 1の平均値に対して、 前記第 1の入出力特性に対応した重み 付けを行う第 1の平均値算出手段と、 前記ニー処理手段に入力される輝度信 号のうち、 前記ニー処理における前記第 2の入出力特性が適用される信号レ ベルの平均値を算出するとともに、 この算出された第 2の平均値に対して、 前記第 2の入出力特性に対応した重み付けを行う第 2の平均値算出手段と、 前記映像信号の信号レベルに基づいて、 前記第 1の平均値算出手段によって 算出及び重み付けされた第 1の平均値、 又は前記第 2の平均値算出手段によ つて算出及び重み付けされた第 2の平均値のいずれかを選択し、 選択された 平均値によって前記ホワイトバランス調整手段におけるホワイトバランスゲ インに重み付けを行うホワイ トバランスゲイン算出手段と、 前記ニー処理に 伴う前記輝度信号の信号レベルの変化率を算出する変化率算出手段と、 前記 変化率算出手段によって算出された変化率を、 前記ホワイトバランスが調整 された映像信号に対して乗算する乗算手段と、 前記変化率が乗算された映像 信号に基づいて、 輝度信号及び色差信号を生成する映像信号処理手段と、 を 具備する。
本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号に対して、 前記画素のうち、 少なくとも隣接す る画素間の信号レベルの比率を保ちながら、 ニー処理を施すニー処理工程を 具備する。
本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号から輝度信号を生成する輝度信号生成工程と、 前記輝度信号生成工程において生成された輝度信每に対してニー処理を施す ニー処理工程と、 前記-一処理に伴う前記輝度信号の信号レベルの変化率を 算出する変化率算出工程と、 前記変化率算出工程において算出された変化率 を、 前記映像信号に対して乗算する乗算工程と、 前記変化率が乗算された映 像信号に基づいて、 輝度信号及び色差信号を生成する映像信号処理工程と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号から輝度信号及び色差信号を分離する分離工程 と、 前記分離工程において分離された輝度信号に対してニー処理を施すニー 処理工程と、 前記-一処理に伴う前記輝度信号の信号レベルの変化率を算出 する変化率算出工程と、 前記変化率算出工程において算出された変化率を、 前記分離工程によって分離された色差信号に乗算する乗算工程と、 前記変化 率が乗算された色差信号及び前記ニー処理された輝度信号に対して、 所定の 信号処理を施す映像信号処理工程と、 を具備する。 本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号のホワイトバランスを調整するホワイ トバラン ス調整工程と、 前記ホワイ トバランス調整工程においてホワイ トバランスが 調整された映像信号から輝度信号を生成する輝度信号生成工程と、 前記輝度 信号生成工程において生成された輝度信号に対してニー処理を施すニー処理 工程と、 前記-一処理に伴う前記輝度信号の信号レベルの変化率を算出する 変化率算出工程と、 前記変化率算出工程によって算出された変化率を、 前記 ホワイトバランスが調整された映像信号に対して乗算する乗算工程と、 前記 変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生成する 映像信号処理工程と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号のホワイトバランスを調整するホワイ トバラン ス調整工程と、 前記ホワイ トバランス調整工程においてホワイトバランスが 調整された映像信号から輝度信号を生成する輝度信号生成工程と、 前記輝度 信号生成工程において生成された輝度信号に対して、 その輝度信号の信号レ ベルに応じた入出力特性でニー処理を施すニー処理工程と、 前記ホワイ トバ ランス調整工程においてホワイ トバランス調整される映像信号の信号レベル を検出し、 その信号レベルに適用される前記ニー処理の入出力特性に合致し たホワイ トバランスゲインを決定し、 決定されたホワイ トバランスゲインに よって前記ホワイトバランス調整工程を実行させるホワイ トバランスゲイン 決定工程と、 前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出 する変化率算出工程と、 前記変化率算出工程において算出された変化率を、 前記ホワイ トバランスが調整された映像信号に対して乗算する乗算工程と、 前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生成 する映像信号処理工程と、 を具備する。
本発明のさらに他の形態によれば、 映像信号処理方法は、 色成分が画素ご とに配列されてなる映像信号のホワイ トパランスを調整するホワイトバラン ス調整工程と、 前記ホワイ トバランス調整工程においてホワイ トバランスが 調整された映像信号から輝度信号を生成する輝度信号生成工程と、 前記輝度 信号生成工程において生成された輝度信号に対して、 その輝度信号の信号レ ベルに応じた第 1又は第 2の入出力特性でニー処理を行うニー処理工程と、 前記-一処理工程においてニー処理される輝度信号のうち、 前記-一処理に おける前記第 1の入出力特性が適用される信号レベルの平均値を算出すると ともに、 この算出された第 1の平均値に対して、 前記第 1の入出力特性に対 応した重み付けを行う第 1の平均値算出工程と、 前記ニー処理工程において ニー処理される輝度信号のうち、 前記ニー処理における前記第 2の入出力特 性が適用される信号レベルの平均値を算出するとともに、 この算出された第 2の平均値に対して、 前記第 2の入出力特性に対応した重み付けを行う第 2 の平均値算出工程と、 前記映像信号の信号レベルに基づいて、 前記第 1の平 均値算出工程において算出及び重み付けされた第 1の平均値、 又は前記第 2 の平均値算出工程において算出及び重み付けされた第 2の平均値のいずれか を選択し、 選択された平均値によって前記ホワイトバランス調整工程におけ るホワイ トバランスゲインに重み付けを行ぅホワイ トパランスゲイン算出ェ 程と、 前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変 化率算出工程と、 前記変化率算出工程において算出された変化率を、 前記ホ ワイ トバランスが調整された映像信号に対して乗算する乗算工程と、 前記変 化率が乗算された映像信号に基づいて、 輝度信号及ぴ色差信号を生成する映 像信号処理工程と、 を具備する。 図面の簡単な説明
図 1は、 従来の映像信号処理装置の構成を示すプロック図.、
図 2は、 本発明の実施の形態 1に係る映像信号処理装置の構成を示すプロ ック図、
図 3 Aは、実施の形態 1に係る補色の色フィルタを説明するための略線図、 図 3 Bは、 実施の形態 1に係る撮像素子出力を説明するための略線図、 図 4は、 実施の形態 1に係るニー処理部のニー処理特性を説明するための 略線図、
図 5 Aは、 (2 R— G )系の隣り合う各画素のニー処理前の輝度信号レベル 及び色差信号レベルを示す略線図、
図 5 Bは、 (2 B— G )系の隣り合う各画素のニー処理前の輝度信号レベル 及び色差信号レベルを示す略線図、
図 6 Aは、 (2 R— G )系の隣り合う各画素の従来のニー処理後の輝度信号 レベル及び色差信号レベルを示す略線図、
図 6 Bは、 (2 B— G )系の隣り合う各画素の従来のニー処理後の輝度信号 レベル及び色差信号レベルを示す略線図、
図 7 Aは、 (2 R— G )系の隣り合う各画素の実施の形態 1に係るニー処理 後の輝度信号レベル及び色差信号レベルを示す略線図、
図 7 Bは、 (2 B— G)系の隣り合う各画素の実施の形態 1に係るニー処理 後の輝度信号レベル及び色差信号レベルを示す略線図、
図 8は、 本発明の実施の形態 2に係る映像信号処理装置の構成を示すプロ ック図、
図 9は、 本発明の実施の形態 3に係る映像信号処理装置の構成を示すプロ ック図、
図 1 0は、 実施の形態 3に係るニー処理部のニー特性を示す略線図、 図 1 1は、 本発明の実施の形態 4に係る映像信号処理装置の構成を示すブ 口ック図、
図 1 2は、 本発明の実施の形態 5に係る映像信号処理装置の構成を示すブ 口ック図、
図 1 3は、 本発明の実施の形態 6に係る映像信号処理装置の構成を示すブ 口ック図、
図 1 4は、 本発明の実施の形態 6に係るニー処理部のニー特性を示す略線 図、
図 1 5は、 本発明の実施の形態 7に係る映像信号処理装置の構成を示すブ ロック図、
図 1 6は、 本発明の実施の形態 7に係るニー処理部のニー特性を示す略線 図、
図 1 7は、 本発明の実施の形態 8に係る映像信号処理装置の構成を示すブ ロック図、
図 1 8は、 本発明の実施の形態 9に係る映像信号処理装匱の構成を示すブ 口ック図である。 発明を実施するための最良の形態
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
(実施の形態 1 )
図 2は、 本発明の実施の形態 1に係るビデオ力メラの映像信号処理装置 1 0 0の構成を示すプロック図である。
ビデオカメラにおいて、 レンズ 1 0 1を介して得られた被写体光は、 単板 式の撮像部を構成する C C D撮像素子 1 0 2に入射される。 C C D撮像素子 1 0 2は、 被写体光を光電変換することにより得られるアナログの映像信号 を前処理部 1 0 3に供給する。
前処理部 1 0 3は、 C C D撮像素子 1 0 2から供給されるアナログの映像 信号に対して、 そのリセットノイズを除去するための C D S (Correlated Double Sampling) 回路と、 C D S回路においてノイズ成分が除去された映像 信号の振幅調整を行うことによってその信号レベルを一定とする A G C (Automatic Gain Control) 回路と、 A G C回路によって振幅調整された映 像信号に対して、 後段の A/D (アナログ Zディジタル) 変換処理のために クランプ処理を行うクランプ回路を含んでいる。
前処理部 1 0 3から出力される映像信号は、 A/D変換部 1 0 4に供給さ れる。 //0変換部1 0 4は、 前処理部 1 0 3から供給されるアナログの映 像信号をディジタル信号に変換した後、 これを輝度生成部 1 0 6及び乗算部 1 0 5にそれぞれ供給する。
輝度生成部 1 0 6は、 AZD変換部 1 0 4から供給されるディジタル信号 に対して、 1 + Z 1等の特性を有する L P F (ローパスフィルタ) によって 輝度信号 Yを生成し、 この輝度信号 Yをニー処理部 1 0 7及びニー変化率算 出部 1 0 8にそれぞれ供給する。
ニー処理部 1 0 7は、 輝度生成部 1 0 6から供給される輝度信号 Yに対し て、 この輝度信号 Yの所定信号レベル (ニーポイント) 以上の部分を圧縮す るニー処理を施した後、 ニー処理が施された輝度信号 Y ' をニー変化率算出 部 1 0 8に供給する。
ユー変化率算出部 1 0 8は、ニー処理部 1 0 7から供給される輝度信号 Y ' 及び上述の輝度生成部 1 0 6において生成された輝度信号 Yに基づいて、 輝 度信号レベルのニー処理による変化率 Y ' を算出し、 算出された変化率 Y ' /Yを乗算部 1 0 5に供給する。
乗算部 1 0 5は、 AZ D変換部 1 0 4から供給されるディジタル信号と、 ニー変化率算出部 1 0 8から供給される変化率 Y ' ZYとを乗算する。 すな わち、 輝度信号 Yに変換される前のディジタルの映像信号に対して、 輝度信 号 Y ' の-一処理による変化率 Y ' /Y.を乗算し、 その結果をカメラプロセ ス部 1 0 9に供給する。
カメラプロセス部 1 0 9は、 乗算部 1 0 8から供給される乗算結果に対し て、 ガンマ補正及び輪郭補正等の信号処理を行った後、 最終的な輝度信号及 び色差信号を生成しこれらを出力する。
以上の構成において、捕色の C C D撮像素子 1 0 2の場合には、 図 3 (A) に示されるように、 互いに補色関係にある色 (Y e (イェロー)、 C y (シァ ン)、 G (グリーン) 及び (マゼンタ)) の色フィルタが各画素に貼られ ている。 この色フィルタを介して得られた C C D撮像素子 1 0 2の出力信号 (映像信号) は、 色フィルタの上下 2画素ずつ加算され、 図 3 (B) に示さ れるように、 色フィルタの上下 2ラインで 1ライン分の映像信号として撮像 素子から出力される。 なお、 ここでは、 捕色の撮像素子について述べている 力 撮像素子としては、 原色の RGBの色フィルタが貼られているものもあ る。
ここで、 互いに捕色関係にある色成分 Y e、 C y及び Mgは、 それぞれ、 以下に示す (式 1) 〜 (式 3) の関係を有している。
Y e =G + R …… (式 1)
M g =R + B (式 2)
C y =G+ B …… (式 3)
輝度生成部 1 06は、 図 3 (B) に示された映像信号のうち、 各ラインご とに隣合う画素の平均をとることにより輝度信号 Yを求める。
すなわち、輝度生成部 106では、上述の (式 1) 〜 (式 3) に基づいて、 以下の (式 4) 及び (式 5) によって各ラインの輝度信号 Yを生成する。 Y = { (Y e +Mg) + (Cy + G) }/ 2= (2 R+ 3G+ 2B) / 2…… (式 4)
Y^{ (Y e +G) + (Cy+Mg) }/ 2= (2 R+ 3 G+ 2 B) / 2…… (式 5)
具体的には、 輝度生成部 1 06は、 (1 +Z Z2の特性を有する L PF (ローパスフィルタ) によって輝度信号 Yを得る。
ニー処理部 1 0 7は、 輝度生成部 1 06において生成された輝度信号 Yに 対して、 図 4に実線で示されるような入出力特性に基づく信号レベルの変換 を行うことにより、 ニーボイントを超えるレベルの出力信号を圧縮するよう なニー処理を施すことによりニー処理後の輝度信号 γ' を得る。 因みに、 図 4において、破線はニー処理を行わない場合の入出力特性を示すものである。 この実施の形態の場合、二一ポィント NPを信号レベル「 1 00」として、 ニー処理部 1 07から出力される輝度信号 Y' の信号レベル (Y) 力 S 「1 0 0」 以下である場合、 ニー処理部 107から出力される輝度信号 Y' の信号 レベル (Y,) は、 以下に示す (式 6) によって求められる。
(Υ') =Υ …… (式 6)
これに対して、 ニー処理部 1 07から出力される輝度信号 Y' の信号レべ ル (Υ) 力 「1 00」 よりも大きい場合、 ニー処理部 1 0 7から出力される 輝度信号 Υ, の信号レベル (Υ') は、 以下に示す (式 7) によって求められ る。
(Υ') = 100+ (Υ— 1 00) /2 …… (式 7)
従って、 図 4において、 輝度信号 Υの入力レベルが (Α) である場合、 輝 度信号 Υは、 ニー処理部 1 07によって出力レベルが同レベルの (Α,) であ る輝度信号 Y' となるのに対して、 輝度信号 Υの入力レベルが (Β) である 場合、 輝度信号 Υは、 ニー処理部 107によって出力レベルが (Β) よりも 小さい出力レベル (Β') の輝度信号 Y' となる。
そして、 ニー処理部 1 07においてニー処理が施された結果である輝度信 号 Υ, と、 ニー処理が施される前の輝度信号 Υとの比 (ニー変化率: Y' / Υ) 力 ニー変化率算出部 1 08において算出される。
ニー変化率算出部 1 08において算出されたニー変化率 (Υ, /Υ) は、 乗算部 1 05において AZD変換部 1 04から出力されるディジタルの映像 信号に対して乗算される。この結果、乗算部 1 05に入力された映像信号は、 ニー処理での輝度信号の変化量に追従した変化が加えられたものとなる。 因 みに、 AZD変換部 1 04から出力される映像信号を ADOUTとし、 ニー処 理部 107から出力されるニー処理後の輝度信号を Y'、輝度生成部 1 06か ら出力される輝度信号を Yとすると、 乗算部 1 0 5から出力される映像信号 は、 AD。UT (Υ' /Υ) によって求められる。
このようにして、 ニー処理での輝度信号の変化量に追従して制御された映 像信号から、 カメラプロセス部 109において、 色差信号が生成される。 こ の場合、 カメラプロセス部 1 09において算出される色差信号 R— Υ、 Β— Yは、 図 3 (Β) に示された各画素のうち、 隣接画素差分を求めることによ り、 以下に示す (式 8) 及び (式 9) によって算出される。
R-Y= (Ye +Mg) — (C y + G) = (2R— G), …… (式 8 )
B - Y= (Ye +G) — (C y+Mg) =— (2 B -G) ' (式 9 ) かかる色差信号に関して、 奇数ラインを表わす (2 R— G)'、 偶数ライン を表わす一 (2 B— G)' の系のそれぞれに Y, という同じ係数が乗算さ れているため、 R— Υ及ぴ Β— Υの各系のバランスが保たれ、 これにより色 相が変わることがなくなる。
また、 カメラプロセス部 1 0 9において算出される輝度信号 Y' について も、 (2 R— G),、 一 (2 B-G)' の系のそれぞれが後述する図 7 (A) 及 び図 7 (B) に示されるように同一の信号レベルとなる。 従って、 カメラプ 口セス部 1 09において、 輪郭補正及びガンマ補正等の各種信号処理を行つ ても、 ライン濃淡や偽色のない良好な映像信号 (輝度信号及び色差信号) を 得ることができる。
因みに、 図 5 (A) 及び図 5 (B) は、 ニー処理前の (2 R— G) 系及び 一 ( 2 B -G) 系の隣り合う各画素 Y e +Mg及び C y +G、 又は、 Y e + G及び C y +M gの映像信号レベル、 色差信号レベル (2 R— G)、 一 ( 2 B -G) 及び輝度信号 Yの信号レベル (Y) を示すものである。
また、 図 6 (A) 及び図 6 (B) は、 従来のニー処理後の (2 R— G) 系 及び— (2 B— G) 系の隣り合う各画素 Y e +Mg及び C y +G、 又は、 Y e +G及び C y +Mgの映像信号レベル、 色差信号レベル (2 R— G)'、 一 (2 B-G)' 及び輝度信号 Y, の信号レベル (Υ') を示すものである。 さらに、 図 7 (Α) 及び図 7 (Β) は、 本実施の形態によるニー処理後の ニー変化率 Υ' /Υが乗算された結果としての、 (2 R— G) 系及び一 (2 Β 一 G) 系の隣り合う各画素 Y e +Mg及び C y +G、 又は、 Ye +G及び C y +Mgの映像信号レベル、 色差信号レベル (2R— G)'、 一 (2 B-G)' 及び輝度信号 Y' の信号レベル (Υ') を示すものである。 この図 7 (Α) 及 び図 7 (B) に示されるように、 本実施の形態におけるカメラプロセス部 1 0 9に供給される映像信号は、 乗算部 1 0 5において、 同じ二一変化率 Y' ZYが乗算されていることにより、 例えば、 図 5 (A) 及び図 5 (B) に示 されるように、 ニー処理前の輝度信号に基づいて生成される輝度信号のレべ ルとして、 (2R— G) 系のライン及び(2 B—G) 系のラインがともに同じ 輝度信号レベル 「1 1 0」 であったとすると、 乗算器 105から出力される 映像信号に基づいて生成される輝度信号レベルも、 (2 R— G)系のライン及 び (2 B— G) 系のラインがともに同じ輝度信号レベル 「1 05」 となる。 従って、 カメラプロセス部 1 0 9から出力される輝度信号 Y' の信号レべ ル (Υ,) は、 図 7 (Α) 及び図 7 (Β) に示されるように、 各ラインごとに 一致しており、 これにより、 ライン濃淡の原因を改善することができる。 ま た、 色差信号レベルもニー処理前の各映像信号レベルに同じニー変化率 Υ, /Υが乗算された結果に基づいて算出されることとなり、これにより、 (2 R — G) 系及び (2 B-G) 系の各画素の信号レベルのバランスが保たれるこ とにより、 カメラプロセス部 1 0 9において生成された色差信号における偽 色の原因を改善することができる。
このように、 本実施の形態の映像信号処理装置 1 00によれば、 A/D変 換部 1 04から出力される、 輝度成分及び色差成分を分離する前の映像信号 に対して-一処理を行うのではなく、 映像信号をその隣合う画素の平均であ る輝度信号に一旦変換した後、 その輝度信号に対してニー処理を施すことに より、 互いに瞵合う画素について、 色相が変わらない状態を保ったままニー 処理を行うことができる。
そして、 エー処理前後の輝度信号の変化率 Υ, ΖΥを A/D変換部 1 04 から出力される映像信号に対して乗算することにより、 映像信号の隣り合う 各画素について、 色相が変わらない状態を保ったまま、 ニー処理での輝度信 号の変化量に追従した信号レベルの制御、 すなわち隣り合う各画素のバラン スを保ったままニー処理と等価の信号レベル制御を行うことができる。 従つ て、 カメラプロセス部 1 0 9では、 入力される映像信号の、 互いに隣合う画 素の信号レベルに基づいて、 輝度信号及び色差信号を生成することから、 互 いに隣り合う画素の信号レベルのバランスが保たれている信号に基づいて輝 度信号及び色差信号が生成され、 この結果、 ライン濃淡や偽色の発生を防止 することができる。
なお、 上述の実施の形態においては、 補色の C C D撮像素子 1 0 2を用い た場合について述べたが、 本発明はこれに限らず、 原色のべィヤー配列の撮 像素子等を用いた場合においても、 同様の効果を得ることができる。
(実施の形態 2 )
図 8は、 本発明の実施の形態 2に係るビデオ力メラの映像信号処理装置 2 0 0の構成を示すブロック図である。 伹し、 図 2と同一の構成となるものに ついては、 図 2と同一番号を付し、 詳しい説明を省略する。
図 8において映像信号処理装置 2 0 0は、 図 2について上述した実施の形 態 1の映像信号処理装置 1 0 0に対して、 輝度信号 Y S I G及び色差信号 C S I Gを生成する Y C分離部 2 0 1を設け、 輝度生成部 1 0 6を削除した構 成となっている。
Y C分離部 2 0 1は、 AZD変換部 1 0 4から供給されるディジタルの映 像信号に対して、上述の (式 4 )及び(式 5 ) による演算を行うことにより、 輝度信号 Y S I Gを生成するとともに、 上述の (式 8 ) 及び (式 9 ) によつ て色差信号 C S I Gを生成する。
ニー処理部 1 0 7は、 Y C分離部 2 0 1から供給される輝度信号 Y S I G に対して、 ニー処理を施した後、 この処理結果をニー変化率算出部 1 0 8に 供給する。 ニー変化率算出部 1 0 8は、 図 2について上述した場合と同様に して、 輝度信号 Y S I Gとニー処理結果である輝度信号 Y ' とに基づいて、 ニー変化率 Y, ZY S I Gを算出する。
乗算部 1 0 5は、 ニー変化率算出部 1 0 8によって算出されたニー変化率 Y ' /Y S I Gと、 Y C分離部 2 0 1から供給される色差信号 C S I Gとを 乗算する。 この結果、 色差信号 C S I Gは、 ニー処理による輝度信号の変化 量に追従した変化が加えられた色差信号 C S I G (Υ' ZYS I G) となる。 このように、 YC分離部 20 1において既に分離された輝度信号 YS I G に対してニー処理が行われるとともに、 YC分離部 20 1において分離され た色差信号 C S I Gに対してニー変化率 (Υ' ZYS I G) が乗算されるこ とにより、 カメラプロセス部 1 09は、 ニー処理が施された輝度信号 Y' 及 びニー変化率 (Υ' ZYS I G) が乗算された色差信号に基づいて、 輝度信 号及び色差信号を生成し、 出力する。 これにより、 輝度信号 Y' における二 一変化率 (Υ' /YS I G) に応じて補正された色差信号 C S I G (Υ' / Ύ S I G) を得ることができる。 従って、 輝度信号及び色差信号に対して個 別に-一処理を行う場合に比べて、 色相のバランスを保つことができる。 このように、 本実施の形態の映像信号処理装置 200によれば、 輝度信号 Y' に対して施されたニー処理によるニー変化率 (Y, /YS I G) を色差 信号 C S I Gに対してもフィードバックして、 輝度信号 Υ, に対するニー処 理と同様の処理を施すことにより、 カメラプロセス部 1 0 9におけるガンマ 補正及ぴ輪郭補正等を行った後の色差信号の色相のバランスを保つことがで きる。
(実施の形態 3)
図 9は、 本発明の実施の形態 3に係るビデオ力メラの映像信号処理装置 3 00の構成を示すブロック図である。 但し、 図 2と同一の構成となるものに ついては、 図 2と同一番号を付し、 詳しい説明を省略する。
図 9において映像信号処理装置 300は、 図 2について上述した実施の形 態 1の映像信号処理装置 1 00に対して、 1画面中の輝度信号 Υの平均値を 算出する画面平均値生成部 30 1を加えた構成となっている。
画面平均値生成部 30 1は、 輝度生成部 1 06から供給される輝度信号 Υ に基づいて、 その 1画面分の平均値を算出し、 算出結果が所定の基準値より 大きいか否かによって、 ニー処理部 30 7において輝度信号 Υに対して施さ れるニー処理のニーポイント (基準点) を変動させる。
すなわち、 画面平均値生成部 3 0 1は、 1画面分の輝度平均値 Y a V eが ある基準値 Y t hより大きい場合、 図 1 0に示されるように、 ニー処理部 3 ◦ 7におけるニーポイントを、 基準のニーポイント Nから、 ニーポイント N 1に下げることにより、 白い部分が多い画面の諧調を白い部分において十分 に再現することができ、 いわゆる白つぶれと呼ばれる現象を軽減することが できる。
また、 画面平均値生成部 3 0 1は、 1画面分の輝度平均値 Y a V eがある 基準値 Y t hより小さい場合、 図 1 0に示されるように、 ニー処理部 3 0 7 におけるニーポイントを、 基準のニーポイント Nから、 エーポイント N 2に 上げることにより、 黒い部分が多い画面の諧調を黒い部分において +分に再 現することができ、 いわゆる黒つぶれと呼ばれる現象を軽減することができ る。
このように、 画面平均値生成部 3 0 1によつて生成された 1画面分の輝度 平均値 Y a V eに基づいてニーポイント Nを、 変化させることにより、 ニー 処理部 3 0 7における出力ダイナミックレンジを最大限に活用することがで きる。
この結果、 被写体の諧調を良好に保つことができ、 カメラプロセス部 1 0 9において、 ガンマ捕正、 輪郭補正等の各種信号処理を行っても、 最終的な 輝度信号及び色差信号は、 被写体の明るさに追従した諧調の良好な信号とな る。
このように、 本実施の形態の映像信号処理装置 3 0 0によれば、 映像信号 の各画素に対してエー処理を行うのではなく、 映像信号をその隣合う画素の 平均である輝度信号に一旦変換した後、 その輝度信号に対してニー処理を施 すことにより、 互いに隣合う画素同士のバランスを保ったまま-一処理を行 うことができるとともに、 白つぶれや黒つぶれといった現象を軽減して、 諧 調の良好な映像を得ることができる。 (実施の形態 4 )
図 1 1は、 本発明の実施の形態 4に係るビデオカメラの映像信号処理装置 4 0 0の構成を示すプロック図である。 但し、 図 9と同一の構成となるもの については、 図 9と同一番号を付し、 詳しい説明を省略する。
図 1 1において映像信号処理装置 4 0 0は、 図 9について上述した実施の 形態 3の映像信号処理装置 3 0 0に対して、 画面平均値生成部 3 0 1から出 力される、 画面中の輝度信号 Yの平均値に基づいて、 互いにニーポイントの 異なる第 1 ニー処理部 4 0 2又は第 2ニー処理部 4 0 3のいずれかをセレク タ 4 0 4によって選択し、 選択されたニー処理部からの出力を、 ニー変化率 算出部 1 0 8に供給する。
例えば、 第 1 ニー処理部 4 0 2の-一ポィントとして、 図 1 0に示された ニーポイント N 1のように、 低いニーポイントを設定しておき、 また、 第 2 ニー処理部 4 0 3のニーポィントとして、 図 1 0に示されたニーポィント N 2のように、 高いニーポイントを設定しておく。
そして、 画面平均値生成部 3 0 1から出力される画面中の輝度信号 Yの平 均値が、 予め設定されている所定の基準レベルよりも大きい場合、 セレクタ 4 0 4は、輝度信号の平均値に基づいて、第 1 ニー処理部 4 0 2を選択する。 これにより、 高輝度で映像を鮮明に処理することができる。
また、 これに対して、 画面平均値生成部 3 0 1から出力される画面中の輝 度信号 Yの平均値が、 予め設定されている所定の基準レベルより も小さい場 合、 セレクタ 4 0 4は、 輝度信号の平均値に基づいて、 第 2ニー処理部 4 0 3を選択する。 これにより、 低輝度で映像を鮮明に処理することができる。 このように、 本実施の形態の映像信号処理装置 4 0 0によれば、 映像信号 の各画素に対してニー処理を行うのではなく、 映像信号をその隣合う画素の 平均である輝度信号に一旦変換した後、 その輝度信号に対してニー処理を施 すことにより、 互いに隣合う画素同士のバランスを保ったままニー処理を行 うことができるとともに、 白つぶれや黒つぶれといった現象を軽減して、 諧 調の良好な映像を得ることができる。
なお、 上述の実施の形態においては、 ニーポイントの異なる 2つのエー処 理部 (第 1 ニー処理部 4 0 2及ぴ第 2ニー処理部 4 0 3 ) を用いる場合につ いて述べたが、 本発明はこれに限らず、 互いに異なるニーポイントが設定さ れたさらに多くのニー処理部を設け、 これらを、 輝度信号 Yの平均値に基づ いて切り換えるようにしてもよい。 このようにすれば、 さらに細かく輝度レ ベルに追従した諧調表現を行うことができ、 一段と良好な画像を得ることが できる。
(実施の形態 5 )
図 1 2は、 本発明の実施の形態 5に係るビデオ力メラの映像信号処理装置 5 0 0の構成を示すブロック図である。 但し、 図 2と同一の構成となるもの については、 図 2と同一番号を付し、 詳しい説明を省略する。
図 1 2において映像信号処理装置 5 0 0は、 図 2について上述した実施の 形態 1の映像信号処理装置 1 0 0に対して、 AZD変換部 1 0 4から出力さ れる映像信号に対して、 ホワイ トバランス制御を行うホワイ トバランス制御 部 5 0 2と、 ホワイ トバランス制御部 5 0 2に対する、 ホワイ トバランスゲ インを算出するホワイ トバランスゲイン算出部 5 0 3を加えた点が異なる。 ホワイ トバランスゲイン算出部 5 0 3は、 AZD変換部 1 0 4から出力さ れる映像信号に基づいて、 1画面中の各色ごとの平均値を算出し、 平均値を 基に 2 R— G及び 2 B— Gの割合が同等になるようにホワイ トバランスゲイ ンを算出し、 算出結果をホワイ トバランス制御部 5 0 2に供給する。
ホワイ トバランス制御部 5 0 2は、 ホワイ トバランスゲイン算出部 5 0 3 から供給されるホワイ トバランスゲインに基づいて、 各色ごとにレベル調整 を行うことにより、ホワイ トバランス制御を行う。これにより、これにより、 ホワイ トバランス制御部 5 0 2から、 各色のパランスが調整された映像信号 が出力される。
輝度生成部 1 0 6は、 ホワイ トバランス制御部 5 0 2から出力されるホヮ イ トバランス調整された映像信号の隣合う画素を用いて、 上述の (式 4) 及 び (式 5) について上述した演算により輝度信号 Yを生成し、 これをニー処 理部 1 0 7及び-一変化率算出部 1 0 8に供給する。
これにより、 ニー処理部 1 0 7においては、 ホワイトバランスが調整され た輝度信号 Y、 すなわち、 各画素の信号レベルが適正に調整された輝度信号 Υを基準にしたエー処理が行われる。 また、 ニー変化率算出部 1 0 8におい ても、 同様にして、 ホワイ トバランス調整された輝度信号 Υと、 輝度信号 Υ に基づいて-一処理された結果を基準として、適切なニー変化率 (Υ, /Υ) を算出することができる。
かく して、 乗算部 1 0 5によって、 ホワイ トバランス制御部 5 0 2から出 力されるホワイ トバランス調整された映像信号に対して、 ユー変化率 (Υ' /Ύ) を乗算することにより、 ホワイ トバランスが調整され、 さらにホワイ トバランスによる適切なニー変化率 (Υ' /Υ) が乗算された信号がカメラ プロセス部 1 0 9に供給される。
従って、 カメラプロセス部 1 0 9においては、 乗算器 1 0 5から供給され る映像信号に基づいて、 ガンマ補正及び輪郭補正等の信号処理を行うことに より、 ホワイトバランス調整され、 さらにニー処理が適切に施された輝度信 号及び色差信号が得られる。
このように、 本実施の形態の映像信号処理装置 5 0 0によれば、 ニー処理 を行うために生成される輝度信号 Υに対して、 予めホワイ トバランス調整を 行うことにより、 色成分が調整された輝度信号 Υに基づいて、 ニー処理が行 われる。 この結果、 図 5 (Α) 及び図 5 (Β) について上述したニー処理前 の (2 R— G) 系の画素 (Y e +Mg、 C y + G) 及び、 (2 B— G) 系の画 素 (Y e +G、 C y+Mg) の信号レベルは、 ホワイ トバランス制御によつ て適切に調整され、 その結果である輝度信号 Yに基づいてニー処理が行われ ることにより、 特定の色成分だけが必要以上に圧縮されるなどの不都合を軽 減することができる。 かくして、 適切なニー変化率 (Υ' /Υ) が乗算され た映像信号をカメラプロセス部 1 0 9に供給することができる。
(実施の形態 6 )
図 1 3は、 本発明の実施の形態 6に係るビデオカメラの映像信号処理装置 6 0 0の構成を示すプロック図である。 但し、 図 1 2と同一の構成となるも のについては、 図 1 2と同一番号を付し、 詳しい説明を省略する。
図 1 3において映像信号処理装置 6 0 0は、 図 1 2について上述した実施 の形態 5の映像信号処理装置 5 0 0のホワイ 卜バランスゲイン算出部 5 0 3 を、 互いに特性の異なる 2つのホワイ トバランスゲイン算出部 6 0 3及び 6 0 4に代え、 これらのいずれかを、 信号レベル検出部 6 0 2において検出さ れた映像信号の信号レベルに基づいて切り換えるように構成されている。 例えば、 図 1 4に示されるように、 信号レベル検出部 6 0 2は、 AZD変 換部 1 0 4から出力されるホワイ トパランス調整前の映像信号の信号レベル を検出し、信号レベルがニーボイントである Γ 1 0 0」以上である場合には、 ニーポイント以上であることを表わす信号をセレクタ 6 0 5に供給すること により、 セレクタ 6 0 5によって、 第 1ホワイ トバランスゲイン算出部 6 0 3の出力が選択される。 また、 A/D変換部 1 0 4から出力されるホワイ ト バランス調整前の映像信号の信号レベルがニーポイントである 「 1 0 0」 よ りも小さい場合には、 ニーボイントより小さい信号であることを表わす信号 をセレクタ 6 0 5に供給することにより、 セレクタ 6 0 5によって、 第 2ホ ワイ トバランスゲイン算出部 6 0 4の出力が選択される。 因みに、 ニーボイ ントは、ニー処理部 1 0 7から信号レベル検出部 6 0 2に対して供給される。 第 1ホワイ トバランスゲイン算出部 6 0 3は、 図 1 4に示されるように、 ニー処理におけるニーポィント以上の信号レベルに対するホワイ トバランス を調整するためのホワイ トバランスゲインを算出するものであり、 1画面中 の各色ごとの平均値を算出し、 平均値を基に 2 R— G、 2 B— Gの割合が同 等になるようにホワイ トバランスゲインを算出する。 この第 1ホワイ トパラ ンスゲイン算出部 6 0 3によって算出されたホワイ てホワイ トバランス調整された映像信号(ニーボイント以上のレベルの信号) に対してニー処理を行う場合には、 図 1 4に示されるように、 傾きが 1 Z 2 である入出力特性に基づくニー処理が施される。 従って、 第 1ホワイ トバラ ンスゲイン算出部 6 0 3によって算出されるホワイトバランスゲインは、 第 2ホワイ トバランスゲイン算出部 6 0 4において算出されるホワイ トバラン スゲインに対して 1 Z 2倍に重み付けされている。
これに対して、 第 2ホワイトバランスゲイン算出部 6 0 4は、 ニー処理に おけるエーポイントょり小さい信号レベルに対するホワイ トバランスを調整 するためのホワイ トバランスゲインを算出するものであり、 1画面中の各色 ごとの平均値を算出し、 平均値を基に 2 R— G、 2 B— Gの割合が同等にな るようにホワイ トバランスゲインを算出する。 この第 2ホワイ トバランスゲ イン算出部 6 0 4によって算出されたホワイ トバランスゲインを用いてホヮ ィ トバランス調整された映像信号 (ニーポイントより小さいレベルの信号) に対して-一処理を行う場合には、 図 1 4に示されるように、 傾きが 1であ る入出力特性に基づくニー処理が施される。
かくして、 ニー処理部 1 0 7におけるニー処理の基準点 (ニーポイント) を境界にして、 ホワイ トバランスゲインに重み付け処理を行うことができる ことにより、 ニー処理において圧縮される信号レベル域の映像信号に対して は、 圧縮に合わせたホワイトバランスゲインを用いたホワイトパランス調整 が行われる。 これにより、 ニー処理に合わせたホワイ トバランス調整を行う ことができる。 '
このように、 本実施の形態の映像信号処理装置 6 0 0によれば、 ニー処理 を行うために生成される輝度信号 Yに対して、 その信号レベルに応じたホヮ ィ トバランス調整を予め行うことにより、 色成分がニー処理に合わせて調整 された輝度信号 Yに基づいて、 ニー処理が行われる。 かく して、 適切なニー 変化率 (Υ ' /Υ) が乗算された映像信号をカメラプロセス部 1 0 9に供給 することができる。 (実施の形態 7 )
図 1 5は、 本発明の実施の形態 7に係るビデオカメラの映像信号処理装置 7 0 0の構成を示すブロック図である。 但し、 図 1 2と同一の構成となるも のについては、 図 1 2と同一番号を付し、 詳しい説明を省略する。
図 1 5において映像信号処理装置 7 0 0は、 図 1 2について上述した実施 の形態 5の映像信号処理装置 5 0 0のホワイ トバランスゲイン算出部 5 0 3 において算出されるホワイ トバランスゲインを、 ニー処理部 1 0 7における ニーポイントを境に、 重み付けする点が異なる。
すなわち、 図 1 5に示される映像信号処理装置 7 0 0は、 輝度生成部 1 0 6において生成された輝度信号 Yを、 第 1画面平均値生成部 7 0 3及び第 2 画面平均値生成部 7 0 4にそれぞれ供給する。
第 1画面平均値生成部 7 0 3は、 ニー処理部 1 0 7のニーポィント以上の 信号レベルについて 1画面中の平均値を算出し、 また、 第 2画面平均値生成 部 7 0 4は、 -ー処理部 1 0 7のニーポィントより小さい信号レベルについ て 1画面中の平均値を算出する。
このとき、 図 1 6に示されるように、 ニー処理部 1 0 7の-一処理におけ るニーボイント以上の場合の特性が傾き 1 Z 2であり、 また、 ニーポイント より小さい場合の特性が傾き 1である場合には、 第 1画面平均値生成部 7 0 3の出力は、 1画面中の輝度平均値を 1 / 2倍に、 また、 第 2画面平均値生 成部 7 0 4の出力は、 1画面中の輝度平均値を 1倍にするように、 予め重み 付けしておく。
そして、 ニーレベル検出部 7 0 6は、 ニー処理部 1 0 7から供給される、 ニー処理の対象である画素の信号レベルが、 ニー処理のニーボイント以上の 信号レベルであるか否かを判別し、 ニーボイント以上の信号レベルである場 合には、 第 1画面平均値生成部 7 0 3の出力を選択し、 また、 ニーポイント より小さい信号レベルである場合には、 第 2画面平均値生成部 7 0 4の出力 を選択するように、 セレクタ 7 0 5を制御する。 これにより、 ホワイ トバランスゲイン算出部 5 0 3の出力では、 ニー処理 におけるニーポイントを境界に、 第 1画面平均値生成部 7 0 3から供給され る重み付け済みの平均値及び第 2画面平均値生成部 7 0 4から供給される重 み付け済みの平均値を振り分けて、 ホワイ トバランスゲインを重み付けする ことができる。
かく して、 ニー処理部 1 0 7におけるニー処理の基準点 (ニーポイント) を境界にして、 ホワイ トバランスゲインに重み付け処理を行うことができる ことにより、 ユー処理において圧縮される信号レベル域の映像信号に対して は、 圧縮に合わせたホワイ トバランスゲインを用いたホワイ トバランス調整 が行われる。 これにより、 ニー処理に合わせたホワイ トバランス調整を行う ことができる。
従って、 後段の輝度生成部 1 0 6は、 ホワイ トバランスが調整された映像 信号を基に輝度生成を行うことができ、 また、 ニー処理部 1 0 7では、 ホヮ ィ トバランスが調整された輝度信号を基準に適切にニー処理を行うことがで きる。 さらに、 ニー変化率算出部 1 0 8において算出される変化率 (Υ ' /
Υ)もホワイトバランスが調整された映像信号を基準としていることにより、 適切な変化率 (Υ ' / Υ ) として算出される。
従って、 後段の乗算部 1 0 5において、 ホワイトバランス制御部 5 0 2か ら出力される映像信号に対して、変化率(Υ ' /Υ) を乗算することにより、 ホワイトバランスが保たれ、 さらにニー処理におけるニーポイントが保たれ た映像信号をカメラプロセス部 1 0 9に供給することができる。
このように、 本実施の形態の映像信号処理装置 7 0 0によれば、 ニー処理 を行うために生成される輝度信号 Υに対して、 その信号レベルに応じたホヮ ィトバランス調整を予め行うことにより、 色成分が-一処理に合わせて調整 された輝度信号 Υに基づいて、 ニー処理が行われる。 かく して、 適切なニー 変化率 (Υ ' /Υ ) が乗算された映像信号をカメラプロセス部 1 0 9に供給 することができる。 なお、 上述の実施の形態においては、 2種類の画面平均値生成部 (第 1画 面平均値生成部 7 0 3及び第 2画面平均値生成部 7 0 4 ) を用いる場合につ いて述べたが、 本発明はこれに限らず、 さらに多数の画面平均値生成部を用 意し、 二一処理のニー特性に応じて 1画面の輝度平均値に重み付けをするこ とにより、 一段と精度の高いホワイトバランス調整を行うことができる。
(実施の形態 8 )
図 1 7は、 本発明の実施の形態 8に係るビデオカメラの映像信号処理装置 8 0 0の構成を示すブロック図である。 但し、 図 2と同一の構成となるもの については、 図 2と同一番号を付し、 詳しい説明を省略する。
図 1 7において映像信号処理装置 8 0 0は、 図 2について上述した実施の 形態 1の映像信号処理装置 1 0 0の構成において、 乗算部 1 0 5から出力さ れる、 ニー変化率 (Υ ' /Υ ) が乗算された映像信号のキズ補正を行うキズ 補正部 8 0 2を加えた点が映像信号処理装置 1 0 0と異なる。
すなわち、 キズ捕正部 8 0 2は、 乗算部 1 0 5から出力された映像信号に 対して、 映像信号の各画像ごとにその周辺画像との比較結果や画素ごとの信 号レベルに基づいてキズ検出を行い、 キズであると判断された画素の周辺画 素の平均値に基づいて補間処理を施すことにより、 キズ補正を行う。
この場合、 乗算部 1 0 5から出力される映像信号は、 カメラプロセス部 1 0 9における輝度信号生成及び色差信号生成のためのフィルタ処理が施され ていないことにより、 キズ補正を高精度で行うことができる。
例えば、 カメラプロセス部 1 0 9において、 乗算器 1 0 5から供給された 映像信号に基づいて輝度信号を生成する場合、 映像信号は、 図 3 ( Β ) につ いて上述したように、 色成分が各画素として配列されている状態であること により、 これらの隣接画素を用いて (式 4 ) 又は (式 5 ) に示された演算に よって輝度信号を生成する。
このようなフィルタ処理を行った後に、あるキズ検出された画素に対して、 その周辺画素の平均値を用いたキズ補正を行うと、 輝度信号を生成するフィ ルタ処理の過程において、 1画素分のキズが輝度信号を生成するために使用 された隣接する画素にも広がることとなる。
従って、 この実施の形態の映像信号処理装置 8 0 0においては、 カメラプ 口セス部 1 0 9に入力される映像信号、 すなわち、 輝度信号及び色差信号を 生成するためのフィルタ処理が施される前の映像信号に対して、 キズ捕正を 行うことにより、 キズが広がることなく、 キズの補正を行うことができる。 このように、 本実施の形態の映像信号処理装置 8 0 0によれば、 輝度信号 及ぴ色差信号を生成するためにフィルタ処理を伴わない乗算部 1 0 5の出力 信号に対してキズ補正を行うことができる。 従って、 キズが周囲の画素に広 がることを軽減することができ、 カメラプロセス部 1 0 9において、 キズ検 出を正確に行うことができる。 また、 輝度信号及び色差信号を生成する前に キズ補正を行うことにより、 輝度信号及び色差信号の各々に対してキズ補正 用の回路を設ける必要がなくなり、 この分、 回路規模の増加を軽減すること もできる。
(実施の形態 9 )
図 1 8は、 本発明の実施の形態 9に係るビデオカメラの映像信号処理装置 9 0 0の構成を示すブロック図である。 但し、 図 1 7と同一の構成となるも のについては、 図 1 7と同一番号を付し、 詳しい説明を省略する。
図 1 8において映像信号処理装置 9 0 0は、 図 1 7ついて上述した実施の 形態 8の映像信号処理装置 8 0 0の構成において、 カメラプロセス部 1 0 9 から出力される輝度信号及び色差信号を入力する画像処理部 9 0 2を加えた 構成となっている。
この場合、 映像信号処理装置 9 0 0は、 例えば、 製造ラインを流れる製品 の状態を撮像し、 これを画像処理部 9 0 2に供給する。 カメラプロセス部 1 0 9から出力される輝度信号及び色差信号は、 図 2について上述した映像信 号処理装置 1 0 0の場合と同様にして、 ニー処理によるライン濃淡や偽色が 十分に低減されていることにより、 その輝度信号及び色差信号を入力した画 像処理部 9 0 2では、 撮像された画像の色及ぴ輝度レベルを適切に判定する ことができる。 従って、 製造ラインを流れる製品の色や輝度レベルに基づい て良品又は不良品の判定を行う場合において、 画像処理部 9 0 2では、 色や 輝度レベルを誤判定する確立が格段に低くなり、 正確な判定を行うことがで さる。
このように、 本実施の形態の映像信号処理装置 9 0 0によれば、 色の誤判 定ゃ輝度レベルの誤判定の少ない、 高精度の画像処理を行うことができる。 なお、 上述の実施の形態においては、 画像処理部 9 0 2において、 製造ラ ィンを流れる製品の良品又は不良品を判定する場合について述べたが、 本発 明はこれに限らず、 例えば、 部屋への入退出者を画像処理によって判断した り、 又は道路上を走る自動車のナンバープレートに表示されたナンバーを認 識する場合等、 種々の用途に使用することができる。
以上説明したように、 本発明によれば、 色成分が画素ごとに配列されてな る映像信号に対して、 画素のうち、 少なくとも隣接する画素間の信号レベル の比率を保ちながら、 ニー処理を施すことにより、 ニー処理を行った結果に 基づいて輝度信号及び色差信号を生成する際に、 隣接画素の加算結果に基づ いて得られる輝度信号及ぴ、 隣接画素の差分に基づいて得られる色差信号を 適切に生成することができる。
本明細書は、 2 0 0 2年 4月 8日出願の特願 2 0 0 2— 1 0 5 5 2 8に基 づく。 この内容はすべてここに含めておく。 産業上の利用可能性
本発明は、 C C D等の撮像素子を介して映像信号を得るビデオカメラ等の 撮像装置に適用することができる。

Claims

請求の範囲
1 . 色成分が画素ごとに配列されてなる映像信号に対して、 前記画素のう ち、 少なくとも隣接する画素間の信号レベルの比率を保ちながら、 ニー処理 を施す-一処理手段を具備する映像信号処理装置。
2 . 色成分が画素ごとに配列されてなる映像信号から輝度信号を生成する 輝度信号生成手段と、
前記輝度信号生成手段によって生成された輝度信号に対してニー処理を施 すニー処理手段と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出手段と、
前記変化率算出手段によって算出された変化率を、 前記映像信号に対して 乗算する乗算手段と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理手段と、
を具備する映像信号処理装置。
3 . 前記輝度信号生成手段によって生成された輝度信号の平均値を算出す る平均値算出手段を具備し、 前記ニー処理手段は、 前記平均値に基づいて、 ニー処理におけるニー特性を変化させる請求の範囲第 2項記載の映像信号処 理装置。
4 . 色成分が画素ごとに配列されてなる映像信号から輝度信号及び色差信 号を分離する分離手段と、
前記分離手段によって分離された輝度信号に対してニー処理を施すニー処 理手段と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出手段と、
前記変化率算出手段によって算出された変化率を、 前記分離手段によって 分離された色差信号に乗算する乗算手段と、
前記変化率が乗算された色差信号及び前記-一処理された輝度信号に対し て、 所定の信号処理を施す映像信号処理手段と、
を具備する映像信号処理装置。
5 . 色成分が画素ごとに配列されてなる映像信号のホワイ トバランスを調 整するホワイ トバランス調整手段と、
前記ホワイ トバランス調整手段によってホワイ トバランスが調整された映 像信号から輝度信号を生成する輝度信号生成手段と、
前記輝度信号生成手段によって生成された輝度信号に対してニー処理を施 す-一処理手段と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出手段と、
前記変化率算出手段によって算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算手段と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理手段と、
を具備する映像信号処理装置。
6 . 色成分が画素ごとに配列されてなる映像信号のホワイ トバランスを調 整するホワイトバランス調整手段と、
前記ホワイ トバランス調整手段によってホワイトバランスが調整された映 像信号から輝度信号を生成する輝度信号生成手段と、
前記輝度信号生成手段によって生成された輝度信号に対して、 その輝度信 号の信号レベルに応じた入出力特性でニー処理を施すニー処理手段と、 前記ホワイ トバランス調整手段に入力される映像信号の信号レベルを検出 し、 その信号レベルに適用される前記ニー処理の入出力特性に合致したホヮ ィ トバランスゲインを決定し、 決定されたホワイ トバランスゲインによって 前記ホワイトバランス調整手段を実行させるホワイ トバランスゲイン決定手 段と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出手段と、
前記変化率算出手段によって算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算手段と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理手段と、
を具備する映像信号処理装置。
7 . 色成分が画素ごとに配列されてなる映像信号のホワイ トバランスを調 整するホワイ トバランス調整手段と、
前記ホワイ トバランス調整手段によってホワイトバランスが調整された映 像信号から輝度信号を生成する輝度信号生成手段と、
前記輝度信号生成手段によって生成された輝度信号に対して、 その輝度信 号の信号レベルに応じた第 1又は第 2の入出力特性で-一処理を行うニー処 理手段と、
前記ニー処理手段に入力される輝度信号のうち、 前記ニー処理における前 記第 1の入出力特性が適用される信号レベルの平均値を算出するとともに、 この算出された第 1の平均値に対して、 前記第 1の入出力特性に対応した重 み付けを行う第 1の平均値算出手段と、
前記エー処理手段に入力される輝度信号のうち、 前記ニー処理における前 記第 2の入出力特性が適用される信号レベルの平均値を算出するとともに、 この算出された第 2の平均値に対して、 前記第 2の入出力特性に対応した重 み付けを行う第 2の平均値算出手段と、
前記映像信号の信号レベルに基づいて、 前記第 1の平均値算出手段によつ て算出及び重み付けされた第 1の平均値、 又は前記第 2の平均値算出手段に よって算出及び重み付けされた第 2の平均値のいずれかを選択し、 選択され た平均値によって前記ホワイトバランス調整手段におけるホワイ トバランス ゲインに重み付けを行うホワイ トバランスゲイン算出手段と、
前記-一処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出手段と、
前記変化率算出手段によって算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算手段と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理手段と、
を具備する映像信号処理装置。
8 . 色成分が画素ごとに配列されてなる映像信号に対して、 前記画素のう ち、 少なくとも隣接する画素間の信号レベルの比率を保ちながら、 ニー処理 を施すニー処理工程を具備する映像信号処理方法。
9 . 色成分が画素ごとに配列されてなる映像信号から輝度信号を生成する 輝度信号生成工程と、
前記輝度信号生成工程において生成された輝度信号に対してニー処理を施 すニー処理工程と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出工程と、
前記変化率算出工程において算出された変化率を、 前記映像信号に対して 乗算する乗算工程と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理工程と、
を具備する映像信号処理方法。
1 0 . 前記輝度信号生成工程において生成された輝度信号の平均値を算出 する平均値算出工程を具備し、 前記ニー処理工程では、 前記平均値に基づい て、 ニー処理におけるニー特性が変化する請求の範囲第 9項記載の映像信号 処理方法。
1 1 . 色成分が画素ごとに配列されてなる映像信号から輝度信号及び色差 信号を分離する分離工程と、
前記分離工程において分離された輝度信号に対してニー処理を施すニー処 理工程と、
前記-一処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出工程と、
前記変化率算出工程において算出された変化率を、 前記分離工程によって 分離された色差信号に乗算する乗算工程と、
前記変化率が乗算された色差信号及び前記ニー処理された輝度信号に対し て、 所定の信号処理を施す映像信号処理工程と、
を具備する映像信号処理方法。
1 2 . 色成分が画素ごとに配列されてなる映像信号のホワイトバランスを 調整するホワイトバランス調整工程と、
前記ホワイトバランス調整工程においてホワイトバランスが調整された映 像信号から輝度信号を生成する輝度信号生成工程と、
前記輝度信号生成工程において生成された輝度信号に対してニー処理を施 すニー処理工程と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出工程と、
前記変化率算出工程によって算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算工程と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理工程と、
を具備する映像信号処理方法。
1 3 . 色成分が画素ごとに配列されてなる映像信号のホワイトバランスを 調整するホワイ トバランス調整工程と、
前記ホワイトバランス調整工程においてホワイトバランスが調整された映 像信号から輝度信号を生成する輝度信号生成工程と、 前記輝度信号生成工程において生成された輝度信号に対して、 その輝度信 号の信号レベルに応じた入出力特性でニー処理を施すニー処理工程と、 前記ホワイトバランス調整工程においてホワイ トバランス調整される映像 信号の信号レベルを検出し、 その信号レベルに適用される前記-一処理の入 出力特性に合致したホワイトバランスゲインを決定し、 決定されたホワイ ト バランスゲインによつて前記ホワイトバランス調整工程を実行させるホワイ 卜バランスゲイン決定工程と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出工程と、
前記変化率算出工程において算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算工程と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理工程と、
を具備する映像信号処理方法。
1 4 . 色成分が画素ごとに配列されてなる映像信号のホワイ トバランスを 調整するホワイトバランス調整工程と、
前記ホワイ トバランス調整工程においてホワイトバランスが調整された映 像信号から輝度信号を生成する輝度信号生成工程と、
前記輝度信号生成工程において生成された輝度信号に対して、 その輝度信 号の信号レベルに応じた第 1又は第 2の入出力特性でニー処理を行うニー処 理工程と、
前記ニー処理工程においてニー処理される輝度信号のうち、 前記ニー処理 における前記第 1の入出力特性が適用される信号レベルの平均値を算出する とともに、 この算出された第 1の平均値に対して、 前記第 1の入出力特性に 対応した重み付けを行う第 1の平均値算出工程と、
前記ニー処理工程においてニー処理される輝度信号.のうち、 前記ニー処理 における前記第 2の入出力特性が適用される信号レベルの平均値を算出する とともに、 この算出された第 2の平均値に対して、 前記第 2の入出力特性に 対応した重み付けを行う第 2の平均値算出工程と、
前記映像信号の信号レベルに基づいて、 前記第 1の平均値算出工程におい て算出及び重み付けされた第 1の平均値、 又は前記第 2の平均値算出工程に おいて算出及ぴ重み付けされた第 2の平均値のいずれかを選択し、 選択され た平均値によって前記ホワイ トバランス調整工程におけるホワイトバランス ゲインに重み付けを行うホワイ トバランスゲイン算出工程と、
前記ニー処理に伴う前記輝度信号の信号レベルの変化率を算出する変化率 算出工程と、
前記変化率算出工程において算出された変化率を、 前記ホワイ トバランス が調整された映像信号に対して乗算する乗算工程と、
前記変化率が乗算された映像信号に基づいて、 輝度信号及び色差信号を生 成する映像信号処理工程と、
を具備する映像信号処理方法。
PCT/JP2003/003695 2002-04-08 2003-03-26 Dispositif de traitement de signaux video et procede de traitement de signaux video WO2003085986A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
MXPA04002221A MXPA04002221A (es) 2002-04-08 2003-03-26 Aparato de procesamiento de senales de video y metodo de procesamiento de senales de video.
CA002459751A CA2459751A1 (en) 2002-04-08 2003-03-26 Video signal processing apparatus and video signal processing method
AU2003227206A AU2003227206B2 (en) 2002-04-08 2003-03-26 Video signal processing apparatus and video signal processing method
EP03715410.1A EP1494485B1 (en) 2002-04-08 2003-03-26 Video signal processing apparatus and video signal processing method
NZ531529A NZ531529A (en) 2002-04-08 2003-03-26 Video signal processing apparatus and video signal processing method
US10/488,271 US7656431B2 (en) 2002-04-08 2003-03-26 Video signal processing apparatus and video signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-105528 2002-04-08
JP2002105528A JP4153715B2 (ja) 2002-04-08 2002-04-08 映像信号処理装置及び映像信号処理方法

Publications (1)

Publication Number Publication Date
WO2003085986A1 true WO2003085986A1 (fr) 2003-10-16

Family

ID=28786386

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003695 WO2003085986A1 (fr) 2002-04-08 2003-03-26 Dispositif de traitement de signaux video et procede de traitement de signaux video

Country Status (9)

Country Link
US (1) US7656431B2 (ja)
EP (1) EP1494485B1 (ja)
JP (1) JP4153715B2 (ja)
CN (1) CN100426870C (ja)
AU (1) AU2003227206B2 (ja)
CA (1) CA2459751A1 (ja)
MX (1) MXPA04002221A (ja)
NZ (1) NZ531529A (ja)
WO (1) WO2003085986A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4767525B2 (ja) * 2004-11-16 2011-09-07 オリンパス株式会社 撮像システム及び撮像処理プログラム
JP4645466B2 (ja) * 2006-01-31 2011-03-09 パナソニック株式会社 撮像装置
JP4131280B2 (ja) * 2006-04-20 2008-08-13 ソニー株式会社 撮像装置と映像信号処理方法
KR100834762B1 (ko) * 2006-09-29 2008-06-05 삼성전자주식회사 이 기종간 색역 사상 방법 및 장치
JP2008258828A (ja) * 2007-04-03 2008-10-23 Nikon Corp 撮像装置
JP2012049627A (ja) * 2010-08-24 2012-03-08 Sony Corp 信号処理装置、信号処理方法およびプログラム
DE102010041569B4 (de) * 2010-09-28 2017-04-06 Leica Geosystems Ag Digitales Kamerasystem, Farbfilterelement für digitales Kamerasystem, Verfahren zur Bestimmung von Abweichungen zwischen den Kameras eines digitalen Kamerasystems sowie Bildverarbeitungseinheit für digitales Kamerasystem
JP6200687B2 (ja) 2013-05-10 2017-09-20 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. 画像処理装置および画像処理方法
MX2018000575A (es) * 2015-07-16 2018-08-21 Thomson Licensing Metodo y dispositivo para asignar tono a una imagen usando una funcion de ajuste de tono parametrica.
CN110491342A (zh) * 2019-09-23 2019-11-22 深圳清华大学研究院 一种用于amoled显示驱动装置的低功耗显示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831434A (en) 1986-08-29 1989-05-16 Agfa Gevaert Aktiengesellschaft Method of correcting color saturation in electronic image processing
EP0801509A2 (en) 1996-04-12 1997-10-15 Sony Corporation Video camera, video signal processing, video signal compression and video signal conversion
JPH1023437A (ja) * 1996-07-03 1998-01-23 Sony Corp 固体撮像装置
JP2000232654A (ja) * 1999-02-10 2000-08-22 Canon Inc 信号処理装置及び信号処理方法、撮像装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6423439A (en) 1987-07-20 1989-01-26 Canon Kk Card-shaped optical memory medium
JPH03238992A (ja) * 1990-02-15 1991-10-24 Sony Corp ビデオカメラ装置
JP3094231B2 (ja) 1990-11-07 2000-10-03 キヤノン株式会社 信号処理装置
EP0613294B1 (en) * 1993-02-24 1998-10-28 Matsushita Electric Industrial Co., Ltd. Gradation correction device and image sensing device therewith
JPH07143516A (ja) * 1993-11-16 1995-06-02 Ikegami Tsushinki Co Ltd 映像信号圧縮装置
JP2884384B2 (ja) * 1993-12-16 1999-04-19 池上通信機株式会社 映像信号圧縮方法
JP3134660B2 (ja) * 1994-04-14 2001-02-13 松下電器産業株式会社 色変換方法および色変換装置
JP3408316B2 (ja) * 1994-04-18 2003-05-19 日本フィリップス株式会社 ニー回路
JP3444449B2 (ja) * 1994-12-26 2003-09-08 ソニー株式会社 映像信号処理装置
US6545710B1 (en) * 1995-08-11 2003-04-08 Minolta Co., Ltd. Image pick-up apparatus
JPH09238359A (ja) 1996-02-29 1997-09-09 Hitachi Denshi Ltd カラーテレビジョンカメラ
US6400403B1 (en) 1996-07-03 2002-06-04 Sony Corporation Solid-state imaging device having improved resolution without generating a pseudo signal
JP3791061B2 (ja) 1996-08-30 2006-06-28 ソニー株式会社 信号圧縮回路
US6583820B1 (en) * 1997-03-17 2003-06-24 Konica Corporation Controlling method and apparatus for an electronic camera
EP0920782B1 (en) * 1997-05-22 2002-02-13 Koninklijke Philips Electronics N.V. White balance control
JP3490888B2 (ja) * 1998-03-10 2004-01-26 三洋電機株式会社 色抑圧回路
JP4683678B2 (ja) * 1998-07-03 2011-05-18 忠弘 大見 画像信号処理方法、画像信号処理システム、記憶媒体及び撮像装置
EP0969674A3 (en) * 1998-07-03 2004-01-02 Canon Kabushiki Kaisha Image sensing device processing image signals in blocks
JP3565723B2 (ja) * 1998-09-30 2004-09-15 富士写真光機株式会社 カラー画像処理装置
WO2000040037A1 (fr) * 1998-12-26 2000-07-06 Sony Corporation Dispositif de traitement de signaux video et son procede
JP3699873B2 (ja) * 1999-10-27 2005-09-28 オリンパス株式会社 画像処理装置
JP3596387B2 (ja) * 1999-11-22 2004-12-02 松下電器産業株式会社 高輝度圧縮回路
JP3545979B2 (ja) * 1999-11-30 2004-07-21 シャープ株式会社 輪郭補正装置
US6791606B1 (en) * 2000-05-09 2004-09-14 Eastman Kodak Company Auto white balancing apparatus and method
JP3745948B2 (ja) * 2000-08-25 2006-02-15 シャープ株式会社 画像処理装置およびデジタルカメラ
JP4011861B2 (ja) * 2001-03-29 2007-11-21 キヤノン株式会社 信号処理装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831434A (en) 1986-08-29 1989-05-16 Agfa Gevaert Aktiengesellschaft Method of correcting color saturation in electronic image processing
EP0801509A2 (en) 1996-04-12 1997-10-15 Sony Corporation Video camera, video signal processing, video signal compression and video signal conversion
JPH1023437A (ja) * 1996-07-03 1998-01-23 Sony Corp 固体撮像装置
JP2000232654A (ja) * 1999-02-10 2000-08-22 Canon Inc 信号処理装置及び信号処理方法、撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1494485A4

Also Published As

Publication number Publication date
EP1494485B1 (en) 2013-12-11
US20040263637A1 (en) 2004-12-30
CA2459751A1 (en) 2003-10-16
EP1494485A1 (en) 2005-01-05
US7656431B2 (en) 2010-02-02
CN100426870C (zh) 2008-10-15
MXPA04002221A (es) 2004-06-07
AU2003227206A1 (en) 2003-10-20
CN1572118A (zh) 2005-01-26
JP2003304556A (ja) 2003-10-24
EP1494485A4 (en) 2009-06-17
JP4153715B2 (ja) 2008-09-24
NZ531529A (en) 2005-07-29
AU2003227206B2 (en) 2006-04-06

Similar Documents

Publication Publication Date Title
JP4154847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
US8081239B2 (en) Image processing apparatus and image processing method
JPH04172066A (ja) ビデオカメラ
JP4892909B2 (ja) 信号処理方法、信号処理回路およびこれを用いたカメラシステム
US6950133B2 (en) Method of detecting defective pixels of a solid-state image-pickup device and image-pickup apparatus using the same
US20040095475A1 (en) Camera signal processing apparatus and camera signal processing method
US6618502B1 (en) Color image processing method and apparatus
JP2004200902A (ja) 画像処理装置、電子カメラ、及び画像処理プログラム
US9131199B2 (en) Imaging apparatus capable of generating an appropriate color image
US7453504B2 (en) Signal processing method and apparatus, and image sensing apparatus
WO2003085986A1 (fr) Dispositif de traitement de signaux video et procede de traitement de signaux video
US8384799B2 (en) Image processing apparatus and image processing method
JP4666681B2 (ja) 画像処理装置および画像処理方法
JPH11313338A (ja) 信号処理装置および撮像用信号処理方法
JP2001148864A (ja) 高輝度圧縮回路
JP4069522B2 (ja) 映像信号処理装置、カラービデオカメラ及び映像信号の処理方法
JPH11177995A (ja) 画像処理装置および画像処理方法、並びにカメラ
JP2004222160A (ja) デジタルカメラ
JPH11177996A (ja) 画像処理装置および画像処理方法、並びにカメラ
JP3112531B2 (ja) 撮像装置
JP4461684B2 (ja) 画像信号処理装置、カメラシステムおよび画像信号処理プログラム
JP2006324789A (ja) 映像信号処理方法および映像信号処理装置
JPH08279902A (ja) 撮像装置
JPH11220743A (ja) カメラ信号処理装置及びカメラ信号処理方法
JPH0419756B2 (ja)

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU CA CN MX NZ US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10488271

Country of ref document: US

Ref document number: 2003227206

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 531529

Country of ref document: NZ

WWE Wipo information: entry into national phase

Ref document number: 2003715410

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2459751

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: PA/a/2004/002221

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 20038013215

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2003715410

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 531529

Country of ref document: NZ

WWG Wipo information: grant in national office

Ref document number: 531529

Country of ref document: NZ