WO2006004151A1 - 信号処理システム及び信号処理プログラム - Google Patents

信号処理システム及び信号処理プログラム Download PDF

Info

Publication number
WO2006004151A1
WO2006004151A1 PCT/JP2005/012478 JP2005012478W WO2006004151A1 WO 2006004151 A1 WO2006004151 A1 WO 2006004151A1 JP 2005012478 W JP2005012478 W JP 2005012478W WO 2006004151 A1 WO2006004151 A1 WO 2006004151A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise
signal
luminance
amount
area
Prior art date
Application number
PCT/JP2005/012478
Other languages
English (en)
French (fr)
Inventor
Takao Tsuruoka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP05757820A priority Critical patent/EP1764738A1/en
Publication of WO2006004151A1 publication Critical patent/WO2006004151A1/ja
Priority to US11/649,924 priority patent/US20070132864A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/618Noise processing, e.g. detecting, correcting, reducing or removing noise for random or high-frequency noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours

Definitions

  • the present invention relates to a process for reducing random noise of color signals and luminance signals caused by an image sensor system, and by dynamically estimating the amount of noise generated, only noise components are affected.
  • the noise components contained in the digitized signal obtained by the image sensor and the accompanying analog circuit and A / D converter power can be broadly classified into fixed pattern noise and random noise.
  • Fixed pattern noise is noise caused mainly by the image sensor, represented by defective pixels.
  • random noise is generated in the image sensor and analog circuit and has characteristics close to white noise characteristics.
  • random noise for example, as disclosed in Japanese Patent Laid-Open No. 2001-157057, the luminance noise amount is functioned with respect to the signal level, and the luminance noise amount with respect to the signal level is estimated based on the function noise.
  • a method for controlling the frequency characteristics of filtering based on the amount of noise is disclosed. As a result, an appropriate noise reduction process is performed on the signal level.
  • an input signal is separated into a luminance signal and a color difference signal, an edge strength is obtained from the luminance signal and the color difference signal, and the color difference signal is applied to an area other than the edge portion.
  • N the luminance noise amount
  • D the signal level converted to the density value
  • N abeD
  • a, b, and c constant terms and are given statically.
  • the amount of luminance noise changes dynamically depending on factors such as temperature, exposure time, and gain during shooting. That is, there is a problem that the function cannot be adapted to the noise amount at the time of shooting and the estimation accuracy of the noise amount is poor.
  • the power to control the frequency characteristics of filtering from the amount of noise. The minutes are treated equally without distinction. For this reason, the edge portion in the region where the signal level force noise amount is estimated to be large deteriorates. That is, there is a problem that processing that distinguishes the original signal and noise cannot be handled, and the preservation of the original signal is poor. Furthermore, there is a problem that cannot be dealt with with respect to color noise generated between each color signal.
  • the present invention pays attention to the above-mentioned problems, and performs modeling of the noise amount of the color signal and the luminance signal corresponding to factors that change dynamically such as temperature and gain at the time of shooting as well as the signal level! Accordingly, it is an object of the present invention to provide a signal processing system and a signal processing program that enable noise reduction processing optimized for shooting conditions. In addition, by performing noise reduction processing independently of luminance noise and color noise, it is possible to provide a signal processing system and a signal processing program that reduce both noises with high accuracy and generate high-quality signals. Objective.
  • a signal processing system is a signal processing system that performs noise reduction processing on a signal from an image sensor having a color filter disposed on the front surface.
  • Extraction means for extracting a local region comprising at least one or more neighboring regions in the vicinity of the region and the attention region; separation means for calculating a luminance signal and a color difference signal for each of the attention region and the neighboring region; and the attention region Selection means for selecting the neighboring area similar to the above, noise estimation means for estimating the amount of noise based on the attention area and the neighboring area selected by the selection means, and noise of the attention area based on the noise amount.
  • Noise reduction means for reducing. Examples corresponding to the present invention correspond to Example 1 shown in FIGS.
  • the extraction means is the extraction unit 112 shown in FIGS. 1, 8, and 10
  • the separation means is the Y / C separation unit 113 shown in FIGS. 1, 8, and 10
  • the selection means is the FIGS.
  • the selection unit 114 shown in FIG. 8, FIG. 10, FIG. 12, and FIG. 13 is the noise estimation unit, and the noise estimation unit 115 shown in FIG. 1, FIG. 5, FIG. 8, FIG. Corresponds to the noise reduction unit 116 shown in FIG. 1, FIG. 7, FIG. 8, and FIG.
  • a preferred application example of the present invention is to extract a local region including a region of interest for which noise reduction processing is performed by the extraction unit 112 and at least one neighboring region in the vicinity of the region of interest, and perform Y / C separation.
  • the unit 113 separates the signal into a luminance signal and a color difference signal
  • the selection unit 114 selects a neighborhood region similar to the region of interest
  • the noise estimation unit 115 calculates the noise amount from the region of interest and the selected neighborhood region.
  • This is a signal processing system that estimates and reduces noise in a region of interest by a noise reduction unit 116.
  • a neighborhood region similar to a region of interest for which noise reduction processing is performed is selected, a noise amount is estimated for each region of interest and the selected neighborhood region, and noise corresponding to the estimated noise amount is selected. Since the reduction process is performed, it is possible to estimate the amount of noise with high accuracy and to reduce the noise optimally for the entire screen, and to obtain a high-quality signal.
  • the image sensor is a single-plate image sensor in which R (red), G (green), and B (blue) Bayer (hereinafter referred to as Bayer) primary color filters are arranged on the front surface, or Cy
  • R red
  • G green
  • B blue
  • Cy This is a single-plate imaging device with (cyan), Mg (magenta), Ye (yellow), and G (green) color difference line sequential complementary filters arranged on the front.
  • Examples corresponding to the present invention correspond to Example 1 shown in FIGS. 1 to 9 and Example 2 shown in FIGS. 10 to 15.
  • a preferred application example of the present invention is the Bayer-type primary color filter shown in FIG. 2A or FIG.
  • the noise reduction processing is performed in accordance with the Bayer type or color difference line sequential type color filter arrangement, so that high-speed processing is possible.
  • the attention area and the vicinity area are the luminance signal and the color. This is an area that contains at least one set of color filters necessary to calculate the difference signal.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS. 1 to 9 and the embodiment 2 shown in FIGS. 10 to 15.
  • a preferred application example of the present invention is a signal processing system using a region of interest and a neighboring region shown in Figs. 2A, 2C, 2D and 11A.
  • the present invention since it is possible to calculate the luminance signal and the color difference signal in each of the attention area where noise reduction processing is performed and the neighboring area where the noise amount is estimated, noise amount estimation using a wider range is possible. This makes it possible to improve the estimation accuracy.
  • the selecting means is based on at least one of the hue signal calculating means for calculating a hue signal for each of the attention area and the vicinity area, and the luminance signal and the hue signal. Similarity determining means for determining the similarity between the area and the neighboring area; and a neighboring area selecting means for selecting the neighboring area based on the similarity.
  • the embodiment corresponding to the present invention corresponds to Embodiment 1 shown in FIGS. 1 to 9 and Embodiment 2 shown in FIGS. 10 to 15.
  • the hue calculation means is the hue calculation section 203 shown in FIGS. 3, 12, and 13
  • the similarity determination means is the similarity determination section 206 shown in FIGS. 3, 12, and 13
  • the neighborhood region selection means is the figure. 3, the neighborhood region selection unit 207 shown in FIGS. 12 and 13 is applicable.
  • a preferable application example of the present invention is that the hue calculation unit 203 calculates the hue signals of the attention region and the neighboring region, and the similarity determination unit 206 calculates the attention region based on at least one of the luminance signal and the hue signal.
  • This is a signal processing system that determines the similarity of neighboring areas and extracts a neighboring area similar to the attention area by the neighboring area selection unit 207.
  • the present invention since a neighborhood region similar to the region of interest is extracted based on at least one of the luminance signal and the hue signal, it is possible to estimate the amount of noise from a homogeneous region force, and to estimate the accuracy. Will improve. In addition, the calculation of the luminance signal and hue signal is easy, and a high-speed and low-cost system can be provided.
  • the selection means includes a hue calculation means for calculating a hue signal for each of the attention area and the vicinity area, and an edge for calculating an edge signal for each of the attention area and the vicinity area.
  • the hue calculating means is the hue calculating section 203 shown in FIG. 12
  • the edge calculating means is the edge calculating section 600 shown in FIG. 12
  • the similarity determining means is the similarity determining section 206 shown in FIG.
  • the region selection means corresponds to the neighborhood region selection unit 207 shown in FIG.
  • the hue calculation unit 203 calculates the hue signal of the attention area and the neighboring area
  • the edge calculation unit 600 calculates the edge signal
  • the similarity determination unit 206 This is a signal processing system that determines the similarity between the attention area and the neighboring area based on at least one of the luminance signal, the hue signal, and the edge signal, and extracts a neighboring area similar to the attention area by the neighboring area selection unit 207. .
  • the present invention since a neighboring region similar to the region of interest is extracted based on at least one of the luminance signal, the hue signal, and the edge signal, it is possible to estimate the amount of noise from a homogeneous region. Accuracy is improved. In addition, calculation of the luminance signal, hue signal, and edge signal is easy, and a high-speed and low-cost system can be provided.
  • the selecting means calculates a hue signal for calculating the hue signal for each of the attention area and the vicinity area, and calculates a frequency signal for each of the attention area and the vicinity area.
  • Frequency calculation means for determining similarity between the attention area and the neighboring area based on at least one of the luminance signal, the hue signal, and the frequency signal; and the neighborhood based on the similarity Neighboring region selection means for selecting a region.
  • the embodiment corresponding to the present invention corresponds to embodiment 2 shown in FIGS.
  • the hue calculation means is the hue calculation section 203 shown in FIG. 13
  • the frequency calculation means is the DCT conversion section 700 shown in FIG. 13
  • the similarity judgment means is the similarity judgment section 206 shown in FIG.
  • the area selection means corresponds to the neighborhood area selection unit 207 shown in FIG.
  • the application example of the present invention is that the hue calculation unit 203 calculates the hue signal of the attention area and the neighboring area, the DCT conversion unit 700 calculates the frequency signal, and the similarity determination unit 206
  • the This is a signal processing system that determines the similarity between a region of interest and a neighborhood region based on at least one of a luminance signal, a hue signal, and a frequency signal, and extracts a neighborhood region similar to the region of interest using a neighborhood region selection unit 207.
  • the present invention since a neighboring region similar to the region of interest is extracted based on at least one of the luminance signal, the hue signal, and the frequency signal, it is possible to estimate the amount of noise from a homogeneous region. Accuracy is improved. In addition, selection based on frequency signals can make similarity verification more accurate.
  • the selection means includes control means for controlling the neighboring regions used in the noise estimation means and the noise reduction means to be different.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS. 1 to 9 and the embodiment 2 shown in FIGS. 10 to 15.
  • the control means corresponds to the control unit 119 shown in FIGS.
  • control unit 119 uses the noise estimation unit 115 and the noise reduction unit 116 for the attention area and the neighboring area obtained by the extraction unit 112 and the selection unit 114. This is a signal processing system that controls different neighboring areas.
  • the neighborhood region used by the noise estimation unit is controlled to be small, and the neighborhood region used by the noise reduction unit is controlled to be large. Therefore, the noise estimation process is narrow, and the accuracy is obtained by estimating from the region. In the noise reduction processing, the effect is improved by reducing from a wide area.
  • the area size suitable for each process can be set, and higher quality signals can be obtained.
  • the selection means has a removal means for removing predetermined minute fluctuations from the signals of the attention area and the vicinity area.
  • the embodiment corresponding to the present invention corresponds to Embodiment 1 shown in FIGS. 1 to 9 and Embodiment 2 shown in FIGS. 10 to 15.
  • the removing means corresponds to the minute fluctuation removing unit 200 shown in FIG. 3, FIG. 12, and FIG.
  • a preferred application example of the present invention is a signal processing system in which a minute fluctuation removing unit 200 removes minute fluctuations in a region of interest and a neighboring area.
  • the hue signal is obtained after removing minute fluctuations in the signal.
  • the stability of the phase signal is improved, and the neighborhood region can be extracted with higher accuracy.
  • the selecting means includes coefficient calculating means for calculating a weighting coefficient for the neighboring region based on the similarity.
  • Examples corresponding to the present invention correspond to Example 1 shown in Figs. 1 to 9 and Example 2 shown in Figs.
  • the coefficient calculation means corresponds to the coefficient calculation unit 208 shown in FIG. 3, FIG. 12, and FIG.
  • a preferred application example of the present invention is a signal processing system in which the coefficient calculation unit 208 calculates a weighting coefficient based on the similarity between the attention area and the neighboring area.
  • the weighting factor is calculated based on the similarity of the neighboring area, the similarity with the attention area can be utilized in more stages, and the noise amount can be estimated with high accuracy.
  • the noise estimation means includes color noise estimation means for estimating a color noise amount from the attention area and the vicinity area selected by the selection means, or the attention area and the selection means. It has at least one luminance noise estimating means for estimating the luminance noise amount from the selected neighborhood region.
  • the embodiment corresponding to the present invention corresponds to Embodiment 1 shown in FIGS. 1 to 9 and Embodiment 2 shown in FIGS. 10 to 15.
  • the color noise estimation means is the noise estimation unit 115 shown in FIG. 1, FIG. 5, FIG. 8, FIG. 10, and FIG. 14, and the luminance noise estimation means is shown in FIG. This corresponds to the noise estimation unit 115.
  • a preferred application example of the present invention is a signal processing system in which at least one of a color noise amount and a luminance noise amount is estimated by the noise estimation unit 115.
  • the estimation accuracy can be improved by estimating the color noise amount and the luminance noise amount independently.
  • the color noise estimating means includes a collecting means for collecting information related to a temperature value of the image sensor and a gain value for the signal, and V and information obtained by the collecting means.
  • a means for assigning a standard value an average color difference calculating means for calculating an average color difference value from the attention area and a neighboring area selected by the selecting means; information from the collecting means or the giving means; and the average color difference value
  • Color noise amount calculation means for obtaining a color noise amount based on the above.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS. 1 to 9 and the embodiment 2 shown in FIGS. 10 to 15.
  • the collecting means is the temperature sensor 121, the control unit 119 and the gain calculating unit 302 shown in FIGS.
  • the average color difference calculation means is the average calculation section 301 shown in FIG. 5 and FIG. 14, and the color noise amount calculation means is the parameter ROM 304, parameter selection section 305, interpolation section 306, correction section 307 and FIG.
  • information used for noise amount estimation is collected by the temperature sensor 121, the control unit 119, and the gain calculation unit 302, and the temperature sensor 121, the control unit 119 is collected by the standard value providing unit 303.
  • a standard value is set, the average calculation unit 301 calculates the average color difference value from the attention area and the neighboring area, and the parameter ROM 304, parameter selection unit 305, In this signal processing system, the interpolation unit 306, the correction unit 307, or the lookup table unit 800 obtains the amount of color noise.
  • various information related to the amount of noise is dynamically obtained for each shooting, and for information that cannot be obtained, standard values are set, and the information color noise amount is calculated.
  • dynamically adapting to different conditions for each shooting it is possible to estimate the amount of color noise with high accuracy. Even if necessary information cannot be obtained, the amount of color noise can be estimated, and a stable noise reduction effect can be obtained.
  • the luminance noise estimating means includes a collecting means for collecting information related to a temperature value of the image sensor and a gain value for the signal, and a standard value for information that is not obtained by the collecting means.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS. 1 to 9 and the embodiment 2 shown in FIGS. 10 to 15.
  • the collecting means is the temperature sensor 121, the control unit 119 and the gain calculating unit 302 shown in FIGS. 5 and 14 shown in FIGS. 1 and 10, and the assigning means is the standard value giving unit 303 shown in FIGS.
  • the average luminance calculation means is the average calculation shown in FIG. 5 and FIG.
  • the unit 301 corresponds to the luminance noise amount calculation means corresponding to the parameter ROM 304, the parameter selection unit 305, the interpolation unit 306, the correction unit 307 shown in FIG. 5, and the lookup table unit 800 shown in FIG.
  • information used for noise amount estimation is collected by the temperature sensor 121, the control unit 119 and the gain calculation unit 3 02, and the temperature sensor 121 and the control unit 119 are collected by the standard value providing unit 303.
  • a standard value is set, the average calculation unit 301 calculates the average luminance value from the attention area and the neighboring area, and the parameter ROM 304, parameter selection unit 305, This is a signal processing system in which the luminance noise amount is obtained by the interpolation unit 306, the correction unit 307, or the lookup table unit 800.
  • the present invention various information related to the amount of noise is dynamically obtained for each shooting, and a standard value is set for information that cannot be obtained, and the luminance noise amount is calculated from the information. Therefore, it is possible to estimate the amount of luminance noise with high accuracy by dynamically adapting to different conditions for each shooting. Even when necessary information cannot be obtained, the luminance noise amount can be estimated, and a stable noise reduction effect can be obtained.
  • the collecting means has a temperature sensor for measuring the temperature value of the imaging element.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS. 1 to 9 and the embodiment 2 shown in FIGS. 10 to 15.
  • the temperature sensor corresponds to the temperature sensor 12 1 shown in FIGS.
  • a preferred application example of the present invention is a signal processing system that measures the temperature of the CCD 103 from the temperature sensor 121 in real time.
  • the temperature of the image sensor at the time of shooting is measured and used as noise amount estimation information. Therefore, the noise amount is dynamically adapted to the temperature change at the time of shooting, and the noise amount is estimated with high accuracy. Is possible.
  • the collecting means includes gain calculating means for obtaining the gain value based on at least one information of ISO sensitivity, exposure information, and white balance information.
  • Examples corresponding to the present invention correspond to Example 1 shown in FIGS. 1 to 9 and Example 2 shown in FIGS. 10 to 15.
  • the gain calculation means is the gain calculation unit 3 shown in FIGS.
  • Control part 119 corresponds.
  • a preferred application example of the present invention is a signal processing system in which the control unit 119 transfers ISO sensitivity, exposure information, white balance information, and the like, and the gain calculation unit 302 calculates the total gain amount at the time of shooting. It is.
  • ISO sensitivity, exposure information, white balance information power Gain amount at the time of shooting is obtained and used as noise amount estimation information, so it can be dynamically adapted to gain changes at the time of shooting and is highly accurate. It is possible to estimate the amount of noise.
  • the color noise amount calculating means includes a recording means for recording at least one set of a parameter group including a reference color noise model and a correction coefficient corresponding to a predetermined hue, and the collecting means or The parameter group power based on the information from the assigning means and the average color difference value, the parameter selection means for selecting the necessary parameters, and the reference color in the parameter group selected by the average color difference value and the parameter selection means.
  • Interpolation means for obtaining the reference color noise amount by interpolation calculation based on the noise model, and correction for obtaining the color noise amount by correcting the reference color noise amount based on the correction coefficient in the parameter group selected by the parameter selection means. Means.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS.
  • the recording means is the parameter ROM 304 shown in FIG. 5
  • the parameter selection means is the parameter selection section 305 shown in FIG. 5
  • the interpolation means is the interpolation section 306 shown in FIG. 5
  • the correction means is shown in FIG.
  • the correction unit 307 is applicable.
  • the coefficient and correction coefficient of the reference color noise model used for estimating the noise amount measured in advance in the parameter ROM 304 are recorded and stored in the parameter selection unit 305.
  • This is a signal processing system for obtaining the amount of color noise.
  • the color noise amount is obtained by performing the interpolation and correction processing based on the reference color noise model, it is possible to estimate the noise amount with high accuracy. Also, interpolation and correction processing can be easily implemented, and a low-cost system can be provided.
  • the reference color noise model is composed of a plurality of coordinate point data consisting of color noise amounts for color difference values.
  • a preferred application example of the present invention is a signal processing system using a reference color noise model composed of a plurality of coordinate point data shown in FIG. 6B.
  • the reference color noise model is composed of a plurality of coordinate point data, it is possible to achieve low cost with a small amount of memory required for the model.
  • the color noise amount calculating means includes a look-up table means for obtaining the color noise amount by inputting the information on the collecting means or the applying means force and the average color difference value.
  • An embodiment corresponding to the present invention corresponds to the embodiment 2 shown in Figs.
  • the lookup table means corresponds to the lookup table section 800 shown in FIG.
  • a preferred application example of the present invention is a signal processing system that obtains the amount of color noise in lookup table unit 800.
  • the lookup table force color noise amount is calculated, so that high-speed processing is possible.
  • the luminance noise amount calculating means includes a recording means for recording a parameter group including a reference luminance noise model and a correction coefficient, information from the collecting means or the giving means, and the average.
  • Parameter selection means for selecting a required parameter from the parameter group based on the brightness value, and reference brightness by interpolation based on the average brightness value and a reference brightness noise model in the parameter group selected by the parameter selection means.
  • Interpolating means for obtaining a noise amount
  • correcting means for obtaining a luminance noise amount by correcting the reference luminance noise amount based on a correction coefficient in the parameter group selected by the parameter selecting means.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS.
  • the recording means is the parameter ROM 304 shown in FIG. 5
  • the parameter selection means is the parameter selection section 305 shown in FIG. 5
  • the interpolation means is the interpolation section 306 shown in FIG. 5
  • the correction means is shown in FIG.
  • the correction unit 307 is applicable.
  • the coefficient and correction coefficient of the reference luminance noise model used for estimating the noise amount measured in advance in the parameter ROM 304 are recorded.
  • the data selection unit 305 selects the coefficient and correction coefficient of the reference luminance noise model
  • the interpolation unit 306 calculates the reference luminance noise amount based on the reference luminance noise model
  • the correction unit 307 calculates the correction coefficient. This is a signal processing system that determines the amount of luminance noise by correcting it based on the above.
  • the luminance noise amount is obtained by performing interpolation and correction processing based on the reference luminance noise model, so that the noise amount can be estimated with high accuracy.
  • Interpolation and correction processing can be easily implemented, and a low-cost system can be provided.
  • the reference luminance noise model is composed of a plurality of coordinate point data including luminance noise amounts with respect to luminance values.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS.
  • a preferred application example of the present invention is a signal processing system using a reference luminance noise model including a plurality of coordinate point data shown in FIG. 6B.
  • the reference luminance noise model is composed of a plurality of coordinate point data, it is possible to reduce costs by reducing the amount of memory required for the model.
  • the luminance noise amount calculating means includes lookup table means for receiving the information from the collecting means or the assigning means and the average luminance value as input and calculating the luminance noise amount.
  • the embodiment corresponding to the present invention corresponds to the embodiment 2 shown in FIGS.
  • the lookup table means corresponds to the lookup table section 800 shown in FIG.
  • a preferred application example of the present invention is a signal processing system in which the look-up table unit 800 determines the luminance noise amount.
  • the luminance noise amount is calculated from the lookup table, high-speed processing is possible.
  • the noise reduction means reduces color noise from the attention area based on the noise amount or color noise reduction means for reducing color noise from the attention area based on the noise amount. And at least one luminance noise reduction means.
  • Examples corresponding to the present invention correspond to Example 1 shown in FIGS. 1 to 9 and Example 2 shown in FIGS. 10 to 15.
  • the color noise reduction means are shown in Fig. 1, Fig. 7, Fig. 8, and Fig. 10.
  • the noise reduction unit 116 corresponds to the noise noise reduction unit 116 shown in FIG. 1, FIG. 7, FIG. 8, and FIG.
  • a preferred application example of the present invention is a signal processing system in which at least one of color noise or luminance noise is reduced by the noise reduction unit 116.
  • each reduction accuracy can be improved by independently reducing the amount of color noise and the amount of luminance noise.
  • the color noise reduction means relates to setting means for setting a noise range in the attention area based on a noise amount of the noise estimation means, and a color difference signal of the attention area.
  • the embodiment corresponding to the present invention corresponds to the embodiment 1 shown in FIGS.
  • the setting means is the range setting section 400 shown in FIG. 7, the first smoothing means is the first smoothing section 402 shown in FIG. 7, and the second smoothing means is the second smoothing section 4003 shown in FIG. Is applicable.
  • the first smoothing unit 402 performs smoothing on the color difference signal of the attention area determined to belong to the noise range! This is a signal processing system that corrects the color difference signal in the region of interest that is determined not to belong to the noise range by the second smoothing unit 403.
  • the smoothing process is performed on the color difference signal of the attention area determined to belong to the noise range, and the correction process is performed on the color difference signal of the attention area determined to not belong.
  • the generation of discontinuities associated with noise reduction processing is prevented, and a high-quality signal can be obtained.
  • the luminance noise reduction means relates to setting means for setting a noise range in the attention area based on a luminance noise amount from the noise estimation means, and a luminance signal of the attention area.
  • a first smoothing unit that performs smoothing when belonging to a noise range
  • a second smoothing unit that performs correction when the luminance signal of the region of interest does not belong to the noise range.
  • the embodiment corresponding to the present invention corresponds to Embodiment 1 shown in FIGS.
  • Setting hand 7 corresponds to the range setting section 400 shown in FIG. 7
  • the first smoothing means corresponds to the first smoothing section 402 shown in FIG. 7
  • the second smoothing means corresponds to the second smoothing section 4003 shown in FIG. To do.
  • a preferred application example of the present invention is to smooth the luminance signal of the attention area determined to belong to the noise range by the first smoothing unit 402, and into the noise range by the second smoothing unit 403.
  • This is a signal processing system that corrects the luminance signal of a region of interest that is determined not to belong.
  • the smoothing process is performed on the luminance signal of the attention area determined to belong to the noise range, and the correction process is performed on the luminance signal of the attention area determined not to belong. It is possible to prevent discontinuity due to the luminance noise reduction processing and to obtain a high-quality signal.
  • the signal processing program according to the present invention corresponds to each of the signal processing systems according to the above-described invention, and can obtain the same effect as the computer by executing the processing.
  • FIG. 1 is a configuration diagram of a signal processing system according to Embodiment 1 of the present invention.
  • FIG. 2A is an explanatory diagram regarding a local region in a Bayer type color filter.
  • FIG. 2B is an explanatory diagram regarding a local region in a Bayer type color filter.
  • FIG. 2C is an explanatory diagram regarding a local region in a Bayer type color filter.
  • FIG. 2D is an explanatory diagram regarding a local region in a Bayer type color filter.
  • FIG. 3 is a configuration diagram of the selection unit in FIG.
  • FIG. 4A is an explanatory diagram regarding hue classification based on the slope gradient.
  • FIG. 4B is an explanatory diagram regarding hue classification based on the slope gradient.
  • FIG. 4C is an explanatory diagram regarding hue classification based on a spectral gradient.
  • FIG. 4D is an explanatory diagram regarding hue classification based on a spectral gradient.
  • FIG. 5 is a block diagram of the noise estimation unit of FIG.
  • FIG. 6A is an explanatory diagram regarding estimation of noise amount.
  • FIG. 6B is an explanatory diagram regarding estimation of noise amount.
  • FIG. 6C is an explanatory diagram regarding estimation of noise amount.
  • FIG. 6D is an explanatory diagram regarding noise amount estimation.
  • FIG. 7 is a block diagram of the noise reduction unit of FIG.
  • FIG. 8 is a configuration diagram of a signal processing system according to another embodiment of the first embodiment of the present invention.
  • FIG. 9 is a flowchart of noise reduction processing according to the first embodiment.
  • FIG. 10 is a configuration diagram of a signal processing system according to a second embodiment of the present invention.
  • FIG. 11A is an explanatory diagram regarding a local region in a color difference line sequential color filter.
  • FIG. 11B is an explanatory diagram regarding a local region in a color difference line sequential color filter.
  • FIG. 11C is an explanatory diagram regarding a local region in a color difference line sequential color filter.
  • FIG. 12 is a configuration diagram of the selection unit in FIG.
  • FIG. 13 is a configuration diagram of another configuration selection unit according to the second embodiment.
  • FIG. 14 is a block diagram of the noise estimation unit in FIG.
  • FIG. 15 is a flowchart of noise reduction processing according to the second embodiment of the present invention.
  • FIG. 1 shows a configuration diagram of the signal processing system according to the first embodiment of the present invention
  • FIGS. 2A to 2D are explanatory diagrams regarding a local region in a Bayer-type color filter
  • FIG. 3 is a configuration diagram of a selection unit in FIG. 4A to 4D are explanatory diagrams regarding hue classification based on spectral gradients
  • FIG. 5 is a configuration diagram of the noise estimation unit of FIG. 1
  • FIGS. 6A to 6D are explanatory diagrams regarding noise amount estimation
  • FIG. FIG. 8 is a block diagram of another embodiment of the first embodiment
  • FIG. 9 is a flowchart of noise reduction processing in the first embodiment.
  • FIG. 1 is a configuration diagram of Embodiment 1 of the present invention.
  • the image taken through the lens system 100, the aperture 101, the low-pass filter 102, and the single plate CCD 103 is sampled by a correlated double sampling circuit (hereinafter abbreviated as CDS, CDS is abbreviated as Correlated Double Sampling) 104, Gain control amplifier (hereinafter abbreviated as “Gain”) 105 amplifies, and analog / digital conversion (hereinafter abbreviated as “A / D”) 106 converts it to a digital signal.
  • the signal from the A / D 106 is transferred to the extraction unit 112 via the notch 107.
  • Noffa 107 has a pre-white balance (hereinafter referred to as Pre Also abbreviated as WB) unit 108, photometric evaluation unit 109, and in-focus detection unit 110.
  • WB pre-white balance
  • the PreWB unit 108 is connected to Gainl05, the photometric evaluation unit 109 is connected to the aperture 101, CCD103, and Gainl05, and the focusing point detection unit 110 is connected to the AF motor 111.
  • the signal from the extraction unit 112 is connected to the Y / C separation unit 113 and the selection unit 114.
  • the Y / C separation unit 113 is connected to the selection unit 114, and the selection unit 114 is connected to the noise estimation unit 115 and the noise reduction unit 116.
  • the noise reduction unit 116 is connected to an output unit 118 such as a memory card via a signal processing unit 117.
  • a control unit 119 such as a microcomputer includes a CDS104, Gainl05, A / D106, PreWB unit 108, photometry evaluation unit 109, in-focus detection unit 110, extraction unit 112, Y / C separation unit 113, selection unit 114.
  • the noise estimation unit 115, the noise reduction unit 116, the signal processing unit 117, and the output unit 118 are bidirectionally connected.
  • An external I / F unit 120 having an interface for switching between a power switch, a shutter button, and various modes at the time of shooting is also connected to the control unit 119 bidirectionally. Further, a signal from a temperature sensor 121 arranged in the vicinity of the CCD 103 is connected to the control unit 119.
  • the signal flow is described.
  • the shutter button halfway to enter the pre-shooting mode.
  • a video signal photographed through the lens system 100, the aperture 101, the low-pass filter 102, and the CCD 103 is read out as an analog signal by the CDS 104 by known correlated double sampling.
  • the CCD 103 is assumed to be a single-plate CCD having a Bayer-type primary color filter on the front surface.
  • FIG. 2A shows the configuration of a Bayer color filter.
  • the Bayer type uses 2 X 2 pixels as a basic unit, and red (R) and blue (B) are arranged one pixel at a time, and green (G) is arranged at two pixels.
  • the analog signal is amplified by a predetermined amount by GainlO 5, converted to a digital signal by A / D 106, and transferred to buffer 107.
  • GainlO 5 a predetermined amount
  • a / D 106 converts to a digital signal with 12-bit gradation.
  • the video signal in the buffer 107 is transferred to the PreWB unit 108, the photometric evaluation unit 109, and the in-focus point detection unit 110.
  • PreWB section 108 calculates a simple white balance coefficient by integrating signals of a predetermined luminance level in the video signal for each color signal. Transfer the above coefficient to Gainl05, color signal White balance is performed by multiplying a different gain for each.
  • the photometric evaluation unit 109 takes into account the set ISO sensitivity, shutter speed at the limit of camera shake, etc., and obtains the brightness level in the signal to obtain the appropriate exposure so that the shutter speed of the aperture 101 and CCD103 and the gain of Gainl 05 can be adjusted. Control etc.
  • the focus detection unit 110 detects the edge intensity in the signal and controls the AF motor 111 so as to maximize the edge intensity, thereby obtaining a focus signal.
  • full shooting is performed by fully pressing the shutter button via the external I / F unit 120, and the video signal is transferred to the buffer 107 in the same manner as the pre-shooting.
  • the actual shooting is performed based on the white balance coefficient obtained by the PreWB unit 108, the exposure condition obtained by the photometric evaluation unit 109, and the focusing condition obtained by the in-focus detection unit 110.
  • the time condition is transferred to the control unit 119.
  • the video signal in the buffer 107 is transferred to the extraction unit 112. Based on the control of the control unit 119, the extraction unit 112 sequentially extracts a local region that also has a region of interest and a nearby region force as shown in FIG.
  • the Y / C separation unit 113 Based on the control of the control unit 119, the Y / C separation unit 113 also calculates the luminance signal Y and the color difference signals Cb and Cr for the region of interest in the region of interest. In this embodiment, an RGB primary color filter is assumed, and the luminance signal and the color difference signal are calculated based on Equation (1).
  • the calculated luminance signal and color difference signal are transferred to the selection unit 114.
  • the selection unit 114 uses the local region from the extraction unit 112 and the luminance signal and color difference signal from the Y / C separation unit 113 to select a neighboring region similar to the attention region.
  • the region of interest, the selected neighboring region, and the corresponding luminance signal and color difference signal are transferred to the noise estimation unit 115 and the noise reduction unit 116. Also, a weighting factor for the selected neighborhood region is calculated and transferred to the noise estimation unit 115.
  • the noise estimation unit 115 selects the region of interest and selection from the extraction unit 112 based on the control of the control unit 119.
  • the amount of noise is estimated based on the adjacent area, luminance signal, color difference signal, weighting factor, and other information at the time of shooting, and this is transferred to the noise reduction unit 116.
  • the noise reduction unit 116 Based on the control of the control unit 119, the noise reduction unit 116 performs noise reduction processing of the attention region based on the attention region, luminance signal, color difference signal from the extraction unit 112, and noise amount from the noise estimation unit 115 !, and after processing Is transferred to the signal processing unit 117.
  • the processing in the extraction unit 112, Y / C separation unit 113, selection unit 114, noise estimation unit 115, and noise reduction unit 116 is performed synchronously in units of local regions based on the control of the control unit 119.
  • the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs well-known enhancement processing, compression processing, and the like on the video signal after noise reduction, and transfers the video signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • FIGS. 2A to 2D are explanatory diagrams regarding a local region in a Bayer color filter.
  • Figure 2A shows the configuration of a 6 x 6 pixel local area
  • Figure 2B shows the separation into luminance Z color difference signals
  • Figure 2C shows another form of 6 x 6 pixels
  • Figure 2D shows another form of 10 x 10 pixels. Each area is shown.
  • FIG. 2A shows the configuration of the local region in the present example.
  • the attention area is 2 ⁇ 2 pixels
  • the neighboring area is 2 ⁇ 2 pixels
  • eight are arranged so as to include the attention area
  • the local area is 6 ⁇ 6 pixels.
  • the extraction unit 112 extracts the local region while overlapping the 2 rows and 2 columns so that the region of interest covers all signals.
  • FIG. 2B shows the luminance signal and the color difference signal calculated based on the equation (1) for each region of interest and neighboring regions.
  • the luminance signal and color difference signal of the attention area are represented by Y, Cb, Cr
  • the luminance signal Y and the color difference signals Cb and Cr are calculated using equation (2).
  • FIG. 2C shows another configuration of a local area of 6 ⁇ 6 pixel size, and the neighboring areas are arranged so that the neighboring areas overlap by one row and one column.
  • Fig. 2D shows another configuration of a local area of 10 X 10 pixels.
  • the neighboring area consists of four 2 X 2 pixels and four 3X3 pixels, and is sparsely arranged in the local area. .
  • the focus area and the neighboring area can be configured in any form as long as one or more R, G, and B pairs are required for calculating the luminance signal and the color difference signal.
  • FIG. 3 shows an example of the configuration of the selection unit 114, which includes a minute fluctuation removal unit 200, a noffer 1201, a gradient calculation unit 202, a hue calculation unit 203, a hue class ROM 204, a buffer 2205, and a similarity determination unit. 206, a neighborhood region selection unit 207, and a coefficient calculation unit 208.
  • the extraction unit 112 is connected to the hue calculation unit 203 via the minute fluctuation removal unit 200, the buffer 1201, and the gradient calculation unit 202.
  • the hue class ROM 204 is connected to the hue calculation unit 203.
  • the Y / C separation unit 113 is connected to the similarity determination unit 206 and the neighborhood region selection unit 207 via the notifier 2205.
  • Hue calculation unit 203 is connected to similarity determination unit 206, and similarity determination unit 206 is connected to neighborhood region selection unit 207 and coefficient calculation unit 208.
  • the neighborhood region selection unit 207 is connected to the noise estimation unit 115 and the noise reduction unit 116.
  • the coefficient calculation unit 208 is connected to the noise estimation unit 115.
  • the control unit 119 is bidirectionally connected to the minute fluctuation removing unit 200, the gradient calculating unit 202, the hue calculating unit 203, the similarity determining unit 206, the neighborhood region selecting unit 207, and the coefficient calculating unit 208.
  • the local region from the extraction unit 112 is transferred to the minute fluctuation removing unit 200 based on the control of the control unit 119, and a predetermined minute fluctuation component is removed. This is done by removing the lower bits of the video signal.
  • the A / D106 is assumed to be digital in 12-bit gradation. By shifting the lower 4 bits, a minute fluctuation component is removed and converted into an 8-bit signal. Transfer to buffer 1201.
  • the gradient calculation unit 202, the hue calculation unit 203, and the hue class ROM 204 are based on the control of the control unit 119.
  • a vector gradient is obtained and transferred to the similarity determination unit 206.
  • FIGS. 4A to 4D are explanatory diagrams regarding hue classification based on the spectral gradient.
  • 4A shows the input image
  • FIG. 4B shows the hue classification based on the spectral gradient
  • FIG. 4C shows the CCD output signal
  • FIG. 4D shows the result of the hue classification.
  • Fig. 4A shows an example of the input image.
  • the upper area A is white and the lower area B is red.
  • Fig. 4B is a plot of signal values (I) for the R, G, and B spectra in the A and B regions.
  • Area B is red and
  • FIG. 4C shows an image when the input image of FIG. 4A is captured by the Bayer-type single-plate CCD shown in FIG. 2A and the focus area and the vicinity area described above are set.
  • the power to find the gradient of the spectrum in the region of interest and the neighborhood region There are two G signals in each region. This is handled by calculating the average value and using it as the G signal.
  • Fig. 4D shows a state in which 0 to 12 classes are assigned in the attention area and neighboring area units as described above.
  • the obtained image is output to the similarity determination unit 206.
  • the gradient calculation unit 202 obtains the magnitude relationship between the RGB signals in units of the attention area and the neighboring area, and transfers this to the hue calculation unit 203.
  • the hue calculation unit 203 obtains 13 hue classes based on the magnitude relationship between the RGB signals from the gradient calculation unit 202 and the information on the hue class from the hue class ROM 204, and transfers these to the similarity determination unit 206.
  • the hue class ROM 204 stores information on the spectral gradient shown in Table 1 and 13 hue classes.
  • the luminance signal and the color difference signal from the Y / C separation unit 113 are stored in the buffer 2205.
  • the similarity determination unit 206 reads the luminance signals of the attention area and the neighboring area from the nother 2205.
  • the similarity determination unit 206 determines the similarity between the attention area and the neighboring area based on the hue class and the luminance signal from the hue calculation unit 203. This means that “the same hue class as the region of interest” and “the luminance signal Y of the region of interest is close to the range of ⁇ 20%.
  • Neighboring areas satisfying the condition “brightness signal Yi of area belongs” are determined to have high similarity, and the above determination result is transferred to neighboring area selecting section 207 and coefficient calculating section 208.
  • the neighborhood region selection unit 207 reads out from the buffer 2205 the luminance signal Yi ′ and color difference signals CW ′ and Cri ′ of the neighborhood region for which the similarity is determined to be high from the similarity determination unit 206 based on the control of the control unit 119. Transfer to the noise estimation unit 115. In addition, the luminance signal Y and the color difference signals Cb and Cr of the region of interest are read from 2205 buffers, and noise estimation is performed.
  • the coefficient calculation unit 208 calculates the weighting coefficient Wi ′ for the neighborhood area determined to have a high degree of similarity. This is calculated based on equation (3).
  • the calculated weight coefficient Wi ′ is transferred to the noise estimation unit 115.
  • FIG. 5 shows an example of the configuration of the noise estimation unit 115.
  • the selection unit 114 is connected to the buffer 300 and the average calculation unit 301.
  • the buffer 300 is connected to the average calculator 301 and the average calculator 301 is connected to the parameter selector 305.
  • the gain calculation unit 302, the standard value assigning unit 303, and the parameter ROM 304 are connected to the parameter selection unit 3 05.
  • the parameter selection unit 305 is connected to the interpolation unit 306 and the correction unit 307.
  • the interpolation unit 306 is connected to the correction unit 307.
  • the correction unit 307 is connected to the noise reduction unit 116.
  • the control unit 119 is connected bidirectionally to an average calculation unit 301, a gain calculation unit 302, a standard value assigning unit 303, a parameter selection unit 305, an interpolation unit 306, and a correction unit 307.
  • the luminance signal and the color difference signal of the attention area and the vicinity area determined to have high similarity from the selection unit 114 are stored in the buffer 300.
  • the weighting coefficient related to the neighborhood area determined to have a high degree of similarity is transferred to the average calculation unit 301.
  • the average calculation unit 301 reads the luminance signal and the color difference signal from the buffer 300 based on the control of the control unit 119, and uses the weighting coefficient to calculate the average value AV, AVcb, AVer of the luminance signal and the color difference signal for the local region.
  • the average value of the luminance signal and the color difference signal is transferred to the parameter selection unit 305.
  • Gain calculating section 302 obtains the amplification amount in Gain 105 based on the ISO sensitivity, exposure conditions, and white balance coefficient information transferred from control section 119, and transfers the gain to parameter selection section 305.
  • the control unit 119 obtains the temperature information of the CCD 103 from the temperature sensor 121 and transfers this to the parameter selection unit 305.
  • the parameter selection unit 305 estimates the amount of noise based on the average value of the luminance signal and the color difference signal from the average calculation unit 301, the gain information from the gain calculation unit 302, and the temperature information from the control unit 119.
  • FIG. 6A to FIG. 6D are explanatory diagrams relating to the estimation of the noise amount.
  • Fig. 6A shows the relationship between noise level and signal level
  • Fig. 6B shows a simplified noise model
  • Fig. 6C shows how to calculate the amount of noise from a simplified noise model
  • Fig. 6D shows six methods for color noise models. Hue is shown.
  • N s a s L 2 + s L + y s (5 )
  • j8 s are constant terms.
  • the amount of noise varies not only with the signal level but also with the temperature and gain of the element.
  • Figure 6A plots the amount of noise for three ISO sensitivities 100, 200, and 400 related to gain as an example. In other words, it shows the noise amount for 1, 2, and 4 times the gain.
  • For temperature t the average amount of noise at three environmental temperatures of 20, 50, and 80 ° C is shown.
  • Each curve has the form shown in Eq. (5), but the coefficient varies depending on the ISO sensitivity related to the gain.
  • N s a sgt L 2 + p 3 ⁇ 4 t L + Y sgt (6)
  • a sgt, iS sgt, and y sgt are constant terms.
  • a sgt, iS sgt, and y sgt are constant terms.
  • iS sgt, and y sgt are constant terms.
  • the model is simplified as shown in Fig. 6B.
  • the model that gives the maximum amount of noise is selected as the reference noise model, which is approximated by a predetermined number of broken lines.
  • the inflection point of the broken line is expressed by coordinate data (Ln, Nn) consisting of the signal level L and the noise amount N.
  • n indicates the number of inflection points.
  • a correction coefficient ksgt for deriving other noise models such as the reference noise model is also prepared.
  • the correction coefficient ksgt is calculated by the least square method from between each noise model and the reference noise model. Derivation of other noise models such as the reference noise model is performed by multiplying the correction coefficient ksgt.
  • Figure 6C is the same as Figure 6B.
  • a method of calculating the noise amount from the simplified noise model shown is shown. For example, suppose that a noise level Ns corresponding to a given signal level 1, signal s, gain g, and temperature power is obtained. First, it searches for which section of the reference noise model signal level 1 belongs to. Here, it is assumed that it belongs to the section between (Ln, Nn) and (Ln + 1, Nn + 1). The reference noise amount N in the reference noise model is obtained by linear interpolation.
  • the noise amount Ns is obtained by multiplying the correction coefficient ksgt.
  • the above-mentioned reference noise model has basically the same configuration as the power that can be divided into a reference luminance noise model for luminance signals and a reference color noise model for color difference signals.
  • the amount of color noise for the color difference signals Cb and Cr varies depending on the hue direction.
  • the reference colors are set for each of the six hues R (red), G (green), B (blue), Cy (cyan), Mg (magenta), and Ye (yellow).
  • the color difference signals Cb and Cr are not two types.
  • the inflection point coordinate data (Ln, Nn) and correction coefficient ksgt of the reference noise model for the luminance and color difference signals are recorded in the ROM 304 for the meter.
  • the parameter selection unit 305 obtains the signal level 1 from the average values AV, AVcb, and AVer of the luminance signal and the color difference signal from the average calculation unit 301 and calculates the gain.
  • the gain information force from the output unit 302 also sets the gain g
  • the temperature information force from the control unit 119 also sets the temperature t.
  • the hue signal H is obtained from the average value AVcb, AVer of the color difference signal based on the equation (9), and the hue closest to the above six hue medium strength hue signals H of G, B, Cy, Mg, Ye is selected. Cb_H, Cr_I "[is set.
  • the coordinate data (Ln, Nn) and (Ln + 1, Nn + 1) of the section to which the signal level 1 belongs are searched from the parameter ROM 304 and transferred to the interpolation unit 306. Further, the correction coefficient ksgt is searched from the parameter ROM 304 and transferred to the correction unit 307. Based on the control of the control unit 119, the interpolation unit 306 is based on the signal level 1 from the parameter selection unit 305 and the coordinate data (Ln, Nn) and (Ln + 1, Nn + 1) of the section based on the formula (7).
  • the correction unit 307 calculates the noise amount Ns based on the correction coefficient ksgt from the parameter selection unit 305 and the reference noise amount N force (8) from the interpolation unit 306. Average value of color difference signal AV, AVcb, AVer
  • the noise reduction unit 116 It is not necessary to obtain information such as temperature t and gain g for each image.
  • a configuration in which arbitrary information is recorded in the standard value assigning unit 303 and the calculation process is omitted is also possible. Thereby, high-speed processing and power saving can be realized.
  • the force using the hues in the six directions shown in FIG. 6D as the reference color noise model need not be limited to this. For example, a free configuration is possible, such as using an important skin color as a memory color.
  • FIG. 7 shows an example of the configuration of the noise reduction unit 116, which includes a range setting unit 400, a switching unit 401, a first smoothing unit 402, and a second smoothing unit 403.
  • Noise estimation unit 115 is connected to range setting unit 400, and range setting unit 400 is connected to switching unit 401, first smoothing unit 402, and second smoothing unit 403.
  • the selection unit 114 is connected to the switching unit 401, and the switching unit 401 is connected to the first smoothing unit 402 and the second smoothing unit 403.
  • the first smoothing unit 402 and the second smoothing unit 403 are connected to the signal processing unit 117.
  • the control unit 119 is bi-directionally connected to the range setting unit 400, the switching unit 401, the first smoothing unit 402, and the second smoothing unit 403.
  • the noise estimation unit 115 transfers the average values AV, AVcb, AVer and the noise amount Ns of the luminance signal and the color difference signal to the range setting unit 400.
  • Range setting section 400 includes a range
  • Equation (10) the upper limit Us and the lower limit Ds are set as shown in Equation (10) as an allowable range regarding the noise amount of the luminance signal and the color difference signal.
  • U Cr AV Cr + N Cr / 2
  • D Cr AV Cf ⁇ N Cr / 2
  • the allowable ranges Us and Ds are transferred to the switching unit 401.
  • the range setting unit 400 calculates the average value AV, AVcb, AVer and the noise amount Ns of the luminance signal and the color difference signal as the first smoothing.
  • the switching unit 401 reads the luminance signal Y and the color difference signals Cb and Cr of the region of interest from the selection unit 114 based on the control of the control unit 119.
  • the switching unit 401 transfers the luminance signal Y and the color difference signals Cb and Cr of the attention area to the first smoothing unit 402 when “belonging to the noise range”, and to the second smoothing unit 403 otherwise.
  • the first smoothing unit 402 receives the luminance signal Y and the attention area from the switching unit 401.
  • the processing in the equation can be converted as shown in the equation (12) based on the equation (2).
  • the processing in Eq. (12) is the attention area that was processed with the luminance signal Y and the color difference signals Cb and Cr.
  • the second smoothing unit 403 includes the average value AV of the luminance signal from the range setting unit 400 and the luminance signal Y and the color difference signals Cb and Cr of the attention area from the switching unit 401.
  • G 23 AV Y -N y / 2
  • B 33 B 33 + AV Y -N Cb / 2 (14)
  • R 22 R 22 + AV Y -N Cf / 2 Also, if “below the noise range! To correct.
  • G n AV Y + N Y / 2
  • R 22 R 22 + AV Y -N Cr / 2
  • the processing in (14) or (16) is processed with the luminance signal Y and the color difference signals Cb and Cr. V also means that the attention area is restored to the original RGB signal.
  • the RGB signal of equation (14) or equation (16) is transferred to the signal processing unit 117.
  • the estimation accuracy of each can be improved by estimating the color noise amount and the luminance noise amount independently. Since a model is used to calculate the amount of noise, it is possible to estimate the amount of noise with high accuracy. Also, interpolation and correction processing based on the reference model can be easily implemented, and a low-cost system can be provided.
  • the amount of memory required for the model can be reduced and the cost can be reduced.
  • the noise reduction process sets an allowable range based on the amount of noise, so that it is excellent in the preservation of the original signal and can be reduced without causing discontinuities. Furthermore, since the signal after noise reduction processing is output as the original signal, compatibility with conventional processing systems is maintained, and various system combinations are possible.
  • the noise amount estimation and the noise reduction processing have been performed using all the selected neighboring regions, but it is not necessary to be limited to such a configuration.
  • the neighboring region in the diagonal direction of the region of interest is excluded, and the accuracy is improved by estimating in a relatively narrow region, and the comparison using all the selected neighboring regions is performed in the noise reduction process. It can be configured freely, for example, by increasing the smoothing ability, such as in a wide area.
  • the lens system 100 the aperture 101, the low-pass filter 102, the CCD 103, and the CDS 104, Gainl05, A / D106, PreWB unit 108, Metering evaluation unit 109, Focus detection unit 110, AF motor 111, Temperature sensor 121
  • the configuration need not be limited.
  • a recording medium such as a memory card in which a video signal picked up by a separate image pickup unit is in an unprocessed raw data form, and additional information such as image pickup conditions is recorded in the header part. Processing is also possible.
  • FIG. 8 shows the configuration shown in FIG.
  • the motor 111 and the temperature sensor 121 are omitted, and the input unit 500 and the header information analysis unit 501 are added.
  • the basic configuration is the same as in Fig. 1, and the same name and number are assigned to the same configuration. Only different parts will be described below.
  • the input unit 500 is connected to the buffer 107 and the header information analysis unit 501.
  • the control unit 119 is bi-directionally connected to the input unit 500 and the header information analysis unit 501.
  • the external I / F unit 120 such as a mouse or a keyboard
  • signals and header information stored in a recording medium such as a memory card are read from the input unit 500.
  • the signal from the input unit 500 is transferred to the buffer 107, and the header information is transferred to the header information analysis unit 501.
  • the header information analysis unit 501 extracts information at the time of shooting as the header information power and transfers the information to the control unit 119.
  • the subsequent processing is the same as in Figure 1.
  • FIG. 9 shows a flow relating to software processing of noise reduction processing.
  • step S1 read the signal and header information such as temperature and gain.
  • step S2 a local region composed of a region of interest and a neighboring region as shown in FIG. 2A is extracted.
  • step S3 the luminance signal and the color difference signal are separated as shown in equation (1).
  • step S4 the attention area and the neighboring area in the local area are classified into hue classes as shown in Table 1.
  • step S5 based on the hue class information from step S4 and the luminance information from step S3, the similarity between each neighboring area and the attention area is determined.
  • step S6 Calculate the indicated weighting factor.
  • step S7 the luminance signal and color difference signal of the focus area and the neighboring area where the similarity is determined to be high based on the similarity from step S5 are selected from step S3.
  • step S8 the average value of the luminance signal and the color difference signal shown in equation (4) is calculated.
  • step S9 information such as temperature and gain is set from the read header information. If the required parameters do not exist in the header information, a predetermined standard value is assigned.
  • step S10 the coordinate data and correction coefficient of the reference noise model are read.
  • step S11 the reference noise amount is obtained by the interpolation process shown in equation (7).
  • step S12 the amount of noise is obtained by the correction process shown in equation (8).
  • step S13 it is determined whether or not the luminance signal and color difference signal of the region of interest belong to the allowable range shown in equation (10). If so, go to step S14. If not, go to step S14. Branch to S15.
  • step S14 the processing shown in equation (12) is performed.
  • step S15 the processing shown in equations (14) and (16) is performed.
  • step S16 it is determined whether or not all local regions are completed. If not completed, the process branches to step S2, and if completed, the process branches to step S17.
  • step S17 known enhancement processing and compression processing are performed.
  • step S18 the processed signal is output and the process ends.
  • FIG. 10 is a block diagram of the system according to the signal view of the second embodiment of the present invention.
  • FIGS. 11A to 11C are explanatory diagrams regarding local regions in the color difference line sequential color filter
  • FIG. 12 is a block diagram of the selection unit of FIG.
  • FIG. 13 is a configuration diagram of a selection unit having another configuration
  • FIG. 14 is a configuration diagram of the noise estimation unit of FIG. 10
  • FIG. 15 is a flowchart of the noise reduction processing of the second embodiment.
  • FIG. 10 is a configuration diagram of Embodiment 2 of the present invention.
  • the connection from the extraction unit 112 to the selection unit 114 in the first embodiment of the present invention is eliminated.
  • the basic configuration is the same as in the first embodiment, and the same name and number are assigned to the same configuration.
  • FIG. 11A shows the configuration of the color difference line sequential type color filter.
  • FIG. 11A shows the configuration of a local region of 8 ⁇ 8 pixels
  • FIG. 11B shows separation into luminance Z color difference signals
  • FIG. 11C shows edge component extraction.
  • the color difference line sequential method uses 2 X 2 pixels as a basic unit, and cyan (Cy), magenta (Mg), yellow (Ye), and green (G) are arranged one by one. However, the positions of Mg and G are reversed for each line.
  • the video signal in the buffer 107 is transferred to the extraction unit 112.
  • the extraction unit 112 Based on the control of the control unit 119, the extraction unit 112 sequentially extracts a 4 ⁇ 4 pixel region of interest and a local region force of 8 ⁇ 8 pixels as shown in FIG. Transfer to / C separation unit 113 and selection unit 114. In this case, the extraction unit 112 extracts the local region while overlapping the 2 rows and 2 columns so that the region of interest covers the entire signal.
  • the Y / C separation unit 113 calculates the luminance signal Y and the color difference signals Cb and Cr from the neighboring region and the region of interest in units of 2 ⁇ 2 pixels based on the equation (17).
  • the luminance signal and chrominance signal are related to the attention area and neighboring area of 4 X 4 pixels.
  • Figure 11B shows the luminance signal and chrominance signal calculated based on Eq. (17) for each region of interest and neighboring region.
  • the data is transferred to the selection unit 114.
  • the selection unit 114 uses the luminance signal and the color difference signal from the Y / C separation unit 113 based on the control of the control unit 119 to select a neighborhood region similar to the attention region.
  • the region, the selected neighboring region, and the corresponding luminance signal and color difference signal are transferred to the noise estimating unit 115 and the noise reducing unit 116. Also, a weighting coefficient for the selected neighboring region is calculated, and the noise estimating unit 115 is also calculated. Forwarded to
  • the noise estimation unit 115 performs noise based on the region of interest from the extraction unit 112, the selected neighboring region, the luminance signal, the color difference signal, the weighting factor, and other information at the time of shooting. The amount is estimated and transferred to the noise reduction unit 116. Noise reduction unit 116 is controlled Based on the control of the unit 119, noise reduction processing is performed on the attention area based on the attention area, luminance signal, chrominance signal from the extraction section 112, and the noise amount from the noise estimation section 115 !, and the processed attention area is signal processed Transfer to part 117.
  • the processing in the extraction unit 112, Y / C separation unit 113, selection unit 114, noise estimation unit 115, and noise reduction unit 116 is performed in synchronization with each local region based on the control of the control unit 119.
  • the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs well-known enhancement processing, compression processing, and the like on the video signal after noise reduction, and transfers the video signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • FIG. 12 shows an example of the configuration of the selection unit 114 of FIG. 10.
  • An edge calculation unit 600 is added to the selection unit 114 shown in FIG. 3 of Example 1 of the present invention, and the gradient calculation unit 202
  • the hue class ROM 204 has been deleted.
  • the basic configuration is the same as the selection unit 114 shown in FIG. 3, and the same name and number are assigned to the same configuration. Only the differences will be described below.
  • the Y / C separation unit 113 is connected to the minute fluctuation removal unit 200.
  • the minute fluctuation removing unit 200 is connected to the hue calculating unit 203 via the buffer 1201.
  • the buffer 2205 is connected to the edge calculation unit 600, and the edge calculation unit 600 is connected to the similarity determination unit 206.
  • the control unit 119 is connected to the edge calculation unit 600 in both directions.
  • the luminance signal and the color difference signal in the attention area and the neighboring area from the Y / C separation unit 113 are transferred to the minute fluctuation removal unit 200 and the buffer 2205.
  • the minute fluctuation removing unit 200 removes minute fluctuation components by shifting the lower bits of the color difference signal, and transfers them to the buffer 1201.
  • the hue calculation unit 203 calculates the hue signal H based on the equation (9) from the color difference signals of the attention area and the neighboring area of the buffer 1201. As shown in Fig. 11B, nine hue signals are obtained from the attention area and neighboring areas. By averaging these hue signals, the hue signals of each area are obtained.
  • the calculated hue signal is transferred to the similarity determination unit 206.
  • the edge calculation unit 600 reads the luminance signals of the attention region and the neighboring region from the buffer 2205 based on the control of the control unit 119.
  • the edge intensity value E is calculated by applying the 3 X 3 Laplacian operator shown in Eq. (18) to the luminance signal in each region.
  • the attention area and the neighboring area have 9 luminance signals as shown in FIG. 11B, so the edge intensity values are as shown in FIG. 11C.
  • One point is calculated for each area.
  • the calculated edge strength value is transferred to the similarity determination unit 206.
  • the similarity determination unit 206 reads the luminance signals of the attention area and the neighboring area from the nother 2205.
  • the similarity determination unit 206 determines the similarity between the attention region and the neighboring region based on the hue signal from the hue calculation unit 203, the edge intensity value from the edge calculation unit 600, and the luminance signal. This means that the hue signal H of the region of interest is close to the range of ⁇ 25%.
  • the hue signal Hi of the neighboring area belongs to "and the edge intensity value E of the attention area is close to the range of ⁇ 20%.
  • the edge intensity value Ei of the neighboring region belongs ”and“ the luminance signal Y of the attention region is close to the range of ⁇ 20%.
  • a neighboring region that satisfies the condition “the luminance signal Yi of the neighboring region belongs” is determined to have a high similarity, and the above determination result is transferred to the neighboring region selecting unit 207 and the coefficient calculating unit 208.
  • the subsequent processing is the same as that of the first embodiment of the present invention shown in FIG.
  • the brightness, hue, and edge intensity are used to determine the similarity between the attention area and the neighboring area.
  • frequency information can be used as shown in FIG. 13 replaces the edge calculation unit 600 in FIG. 12 with a DCT conversion unit 700.
  • the basic configuration is the same as the selection unit 114 shown in FIG. 12, and the same name and number are assigned to the same configuration. Yes. Only the different parts are described below.
  • the nota 2205 is connected to the DCT conversion unit 700, and the DCT conversion unit 700 is connected to the similarity determination unit 206.
  • the control unit 119 is connected to the DCT conversion unit 700 in both directions.
  • the DCT conversion unit 700 reads the luminance signals of the attention area and the neighboring area from the nother 2205. A known DCT conversion is performed on the luminance signal of each region. The converted frequency signal is transferred to the similarity determination unit 206. In the similarity determination unit 206, the similarity determination unit 206 determines the similarity between the attention area and the neighboring area based on the hue signal from the hue calculation section 203, the frequency signal from the DCT conversion section 700, and the luminance signal. .
  • FIG. 14 shows an example of the configuration of the noise estimation unit 115 of FIG. 10, and the example 1 of the present invention
  • a look-up table unit 800 is added to the noise estimation unit 115 shown in FIG. 5, and the parameter ROM 304, the parameter selection unit 305, the interpolation unit 306, and the correction unit 307 are omitted.
  • the basic configuration is equivalent to the noise estimation unit 115 shown in FIG. 5, and the same name and number are assigned to the same configuration. Only different parts will be described below.
  • Average calculating section 301, gain calculating section 302, and standard value assigning section 303 are connected to look-up table section 800.
  • Look-up table unit 800 is connected to noise reduction unit 116.
  • the control unit 119 is bidirectionally connected to the look-up table unit 800.
  • the average calculation unit 301 reads the luminance signal and the color difference signal from the buffer 300 based on the control of the control unit 119, and calculates the average values AV, AVcb, AVer of the luminance signal and the color difference signal for the local region using the weighting factor.
  • the average values of the luminance signal and the color difference signal are transferred to the look-up table unit 800.
  • the gain calculation unit 302 obtains the amplification amount in Gain 105 based on the ISO sensitivity and exposure conditions transferred from the control unit 119 and information on the white balance coefficient, and transfers the gain to the lookup table unit 800. Further, the control unit 119 obtains the temperature information of the CCD 103 from the temperature sensor 121 and transfers it to the lookup table unit 800.
  • Lookup table section 800 estimates the amount of noise based on the average value of the luminance signal and the color difference signal from average calculation section 301, gain information from gain calculation section 302, and temperature information from control section 119.
  • the look-up table unit 800 is a look-up table that records the relationship among temperature, signal value level, gain, shutter speed, and noise amount, and is constructed by the same method as in the first embodiment.
  • the amount of noise obtained by look-up table unit 800 is transferred to noise reduction unit 116.
  • the standard value assigning unit 303 has a function of giving a standard value when any of the parameters is omitted.
  • the estimation accuracy of each can be improved. Since a look-up table is used to calculate the amount of noise, it is possible to estimate the amount of noise at high speed. In addition, since the noise reduction process sets an allowable range based on the noise amount, it is possible to perform a reduction process that is excellent in the preservation of the original signal and prevents the occurrence of discontinuity.
  • the signal after noise reduction processing is output as the original signal, compatibility with the conventional processing system is maintained, and various system combinations are possible.
  • the luminance signal and color difference signal are obtained in accordance with the color filter arrangement of the color difference line order method, high-speed processing is possible.
  • a single color CCD of complementary color type color difference line sequential method has been described as an example, but the present invention is not limited to this.
  • the present invention can be similarly applied to the primary color Bayer type shown in the first embodiment. It can also be applied to two- and three-plate CCDs.
  • the signal from the CCD 103 can be output as unprocessed raw data, and the temperature, gain, shutter speed, etc. at the time of shooting from the control unit 119 can be output as header information and processed separately by software. .
  • FIG. 15 shows a flow relating to software processing of noise reduction processing. Note that the same step numbers are assigned to the same processing steps as the noise reduction processing flow in the first embodiment of the present invention shown in FIG.
  • step S1 header information such as signal, temperature, and gain is read.
  • step S2 a local region composed of a region of interest and a neighboring region as shown in FIG. 11A is extracted.
  • step S3 the luminance signal and the color difference signal are separated as shown in equation (17).
  • step S4 a hue signal is calculated from the attention area and the neighboring area in the local area based on the equation (9).
  • the edge strength value is calculated by applying the Laplacian operator shown in Equation (18).
  • step S5 based on the hue information from step S4, the luminance information from step S3, and the edge information from step S20, the similarity between each neighboring region and the region of interest is determined.
  • step S6 the weighting coefficient shown in equation (3) is calculated.
  • step S7 the luminance signal and the color difference signal of the attention area and the neighboring area where the similarity is determined to be high based on the similarity from step S5 are selected from step S3.
  • step S8 the brightness shown in equation (4) The average value of the degree signal and the color difference signal is calculated.
  • step S9 information such as temperature and gain is set from the read header information. If the necessary parameters do not exist in the header information, a predetermined standard value is assigned.
  • step S21 the amount of noise is calculated using a lookup table.
  • step S13 it is determined whether or not the luminance signal and color difference signal of the region of interest belong to the allowable range shown in equation (10). If so, go to step S14. If not, step S14. Branch to S15.
  • step S14 the processing shown in equation (11) is performed.
  • step S15 the processing shown in equations (13) and (15) is performed.
  • step S16 it is determined whether or not all local regions are completed. If not completed, the process branches to step S2, and if completed, the process branches to step S17.
  • step S17 known enhancement processing and compression processing are performed.
  • step S18 the processed signal is output and the process ends.
  • the noise amount of the color signal and the luminance signal corresponding to the factors that change dynamically such as the temperature and gain at the time of shooting as well as the signal level is modeled. This makes it possible to perform noise reduction processing optimized for the shooting situation.
  • noise reduction processing is performed independently for luminance noise and color noise, so that both noises can be reduced with high accuracy and a high-quality signal can be generated.
  • the present invention can be widely used in an apparatus such as an imaging apparatus or an image reading apparatus that needs to reduce color signal and luminance signal random noise caused by an imaging element system with high accuracy. is there.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Processing Of Color Television Signals (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)

Abstract

 色フィルタを前面に配置した撮像素子103からの信号に対しノイズ低減処理を行う信号処理システムであって、抽出部112にてノイズ低減処理を行う注目領域及び注目領域近傍にある少なくとも1つ以上の近傍領域から成る局所領域を抽出し、Y/C分離部113にて信号を輝度信号および色差信号に分離し、選択部114にて注目領域に類似する近傍領域を選択し、ノイズ推定部115にて注目領域及び選択された近傍領域からノイズ量を推定し、ノイズ低減部116にて注目領域のノイズを低減する。

Description

明 細 書
信号処理システム及び信号処理プログラム
技術分野
[0001] 本発明は、撮像素子系に起因する色信号および輝度信号のランダムノイズの低減 処理に係わり、ノイズの発生量を動的に推定することで撮影条件に影響されずにノィ ズ成分のみを高精度に低減する信号処理システム及び信号処理プログラムに関する 背景技術
[0002] 撮像素子とそれに付随するアナログ回路および A/Dコンバータ力 得られるデジタ ル化された信号中に含まれるノイズ成分は、固定パターンノイズとランダムノイズに大 別できる。固定パターンノイズは、欠陥画素などに代表される主に撮像素子に起因す るノイズである。一方、ランダムノイズは撮像素子およびアナログ回路で発生するもの で、ホワイトノイズ特性に近い特性を有する。ランダムノイズに関しては、例えば特開 2 001— 157057号公報に示されるように、輝度ノイズ量を信号レベルに対して関数ィ匕 し、この関数カゝら信号レベルに対する輝度ノイズ量を推定し、輝度ノイズ量に基づき フィルタリングの周波数特性を制御する手法が開示されている。これにより、信号レべ ルに対して適用的なノイズ低減処理が行われることになる。
[0003] また、特開 2001— 175843号公報では、入力信号を輝度と色差信号に分離し、輝 度信号および色差信号からエッジ強度を求め、エッジ部以外の領域にお!、て色差信 号に平滑化処理を行う手法が開示されている。これにより、平坦部における色ノイズ の低減処理が行われることになる。
[0004] 特開 2001— 157057号公報では、輝度ノイズ量を N、濃度値に変換した信号レべ ルを Dとした場合に N = abeDで関数ィ匕していた。ここで、 a, b, cは定数項であり、静 的に与えられる。しカゝしながら、輝度ノイズ量は撮影時の温度,露光時間,ゲインなど の要因により動的に変化する。すなわち、撮影時のノイズ量に合わせた関数ィ匕に対 応することができず、ノイズ量の推定精度が劣るという課題がある。また、ノイズ量から フィルタリングの周波数特性を制御する力 このフィルタリングは平坦部分もエッジ部 分も区別することなく同等に処理する。このため、信号レベル力 ノイズ量が大と推定 された領域にあるエッジ部は劣化することになる。すなわち、原信号とノイズを区別し た処理に対応することができず、原信号の保存性が悪いという課題がある。さらに、 各色信号間に発生する色ノイズに関しては対応できない課題がある。
[0005] また、特開 2001— 175843号公報では、エッジ部以外の平坦な領域で色差信号 に平滑ィ匕処理を行っている力 上記平滑化処理は固定的に行われている。しかしな がら、色ノイズ量は信号レベルにより異なるため、平滑化処理を最適に制御すること はできない。このため、色ノイズ成分の残存や原信号の劣化などが発生することにな る。
[0006] 本発明は上記問題点に着目し、信号レベルのみならず撮影時の温度,ゲインなど の動的に変化する要因に対応した色信号および輝度信号のノイズ量のモデルィ匕を 行!ヽ、これにより撮影状況に最適化されたノイズ低減処理を可能とする信号処理シス テム及び信号処理プログラムを提供することを目的とする。また、ノイズ低減処理を、 輝度ノイズと色ノイズに対して独立に行うことで、両者のノイズを高精度に低減し、高 品位な信号を生成する信号処理システム及び信号処理プログラムを提供することを 目的とする。
発明の開示
課題を解決するための手段
[0007] 以下に、本発明による信号処理システムについて、その構成、対応する実施例、適 用例、作用及び効果を述べる。
[0008] 本発明による信号処理システムは、色フィルタを前面に配置した撮像素子からの信 号に対しノイズ低減処理を行う信号処理システムにお 、て、上記信号カゝらノイズ低減 処理を行う注目領域および注目領域近傍にある少なくとも 1つ以上の近傍領域から 成る局所領域を抽出する抽出手段と、上記注目領域および上記近傍領域ごとに輝 度信号および色差信号を算出する分離手段と、上記注目領域と類似する上記近傍 領域を選択する選択手段と、上記注目領域および上記選択手段で選択された近傍 領域カゝらノイズ量を推定するノイズ推定手段と、上記ノイズ量に基づき上記注目領域 のノイズを低減するノイズ低減手段と、を有する。 [0009] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。抽出手段は図 1,図 8,図 10に示される抽出部 112が、 分離手段は図 1,図 8,図 10に示される Y/C分離部 113が、選択手段は図 1,図 3,図 8,図 10,図 12,図 13に示される選択部 114が、ノイズ推定手段は図 1,図 5,図 8,図 1 0,図 14に示されるノイズ推定部 115が、ノイズ低減手段は図 1,図 7,図 8,図 10に示 されるノイズ低減部 116が該当する。
[0010] この発明の好ましい適用例は、抽出部 112にてノイズ低減処理を行う注目領域およ び注目領域近傍にある少なくとも 1つ以上の近傍領域から成る局所領域を抽出し、 Y /C分離部 113にて信号を輝度信号および色差信号に分離し、選択部 114にて注目領 域に類似する近傍領域を選択し、ノイズ推定部 115にて注目領域および選択された 近傍領域からノイズ量を推定し、ノイズ低減部 116にて注目領域のノイズを低減する 信号処理システムである。
[0011] この発明によれば、ノイズ低減処理を行う注目領域と類似する近傍領域を選択し、 注目領域および選択された近傍領域ごとにノイズ量を推定し、推定されたノイズ量に 応じたノイズ低減処理を行うので、高精度なノイズ量の推定および画面全体での最 適なノイズ低減が可能となり、高品位な信号が得られる。
[0012] 本発明において、上記撮像素子は、 R (赤), G (緑), B (青)べィヤー(以下、 Bayer と記す)型原色フィルタを前面に配置した単板撮像素子、または Cy (シアン), Mg (マ ゼンタ) , Ye (イェロー), G (緑)色差線順次型補色フィルタを前面に配置した単板撮 像素子である。
[0013] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。
[0014] この発明の好ましい適用例は、図 2Aに示される Bayer型原色フィルタ、または図 11
Aに示される色差線順次型補色フィルタを撮像素子前面に配置した信号処理システ ムである。
[0015] この発明によれば、 Bayer型または色差線順次型の色フィルタ配置にあわせてノィ ズ低減処理を行うため、高速な処理が可能となる。
[0016] 本発明にお ヽて、上記注目領域および近傍領域は、上記輝度信号および上記色 差信号を算出するに必要となる色フィルタの組を少なくとも 1組以上含む領域、であ る。
[0017] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。
[0018] この発明の好ましい適用例は、図 2A,図 2C,図 2Dおよび図 11Aに示される注目 領域および近傍領域を用いた信号処理システムである。
[0019] この発明によれば、ノイズ低減処理を行う注目領域とノイズ量を推定する近傍領域 の各々で輝度信号と色差信号を算出可能とするので、より広い範囲を用いてのノイズ 量推定が可能となり、推定の精度を向上することができる。
[0020] 本発明にお 、て、上記選択手段は、上記注目領域および上記近傍領域ごとに色 相信号を算出する色相算出手段と、上記輝度信号および上記色相信号の少なくとも 1つに基づき上記注目領域と上記近傍領域の類似度を判断する類似度判断手段と 、上記類似度に基づき上記近傍領域を選択する近傍領域選択手段と、を有する。
[0021] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。色相算出手段は図 3,図 12,図 13に示される色相算出 部 203が、類似度判断手段は図 3,図 12,図 13に示される類似度判断部 206が、近傍 領域選択手段は図 3,図 12,図 13に示される近傍領域選択部 207が該当する。
[0022] この発明の好ましい適用例は、色相算出部 203にて注目領域および近傍領域の色 相信号を算出、類似度判断部 206にて輝度信号および色相信号の少なくとも 1つに 基づき注目領域と近傍領域の類似度を判断し、近傍領域選択部 207にて注目領域 に類似する近傍領域を抽出する信号処理システムである。
[0023] この発明によれば、輝度信号および色相信号の少なくとも 1つに基づき注目領域に 類似する近傍領域を抽出するので、均質な領域力ゝらのノイズ量推定が可能となり、推 定の精度が向上する。また、輝度信号および色相信号の算出は容易であり、高速か つ低コストなシステムが提供可能となる。
[0024] 本発明にお 、て、上記選択手段は、上記注目領域および上記近傍領域ごとに色 相信号を算出する色相算出手段と、上記注目領域および上記近傍領域ごとにエッジ 信号を算出するエッジ算出手段と、上記輝度信号および上記色相信号および上記 エッジ信号の少なくとも 1つに基づき上記注目領域と上記近傍領域の類似度を判断 する類似度判断手段と、上記類似度に基づき上記近傍領域を選択する近傍領域選 択手段と、を有する。
[0025] この発明に対応する実施例は、図 10〜図 15に示される実施例 2が対応する。色相 算出手段は図 12に示される色相算出部 203が、エッジ算出手段は図 12に示されるェ ッジ算出部 600が、類似度判断手段は図 12に示される類似度判断部 206が、近傍領 域選択手段は図 12に示される近傍領域選択部 207が該当する。
[0026] この発明の好まし 、適用例は、色相算出部 203にて注目領域および近傍領域の色 相信号を算出し、エッジ算出部 600にてエッジ信号を算出し、類似度判断部 206にて 輝度信号および色相信号およびエッジ信号の少なくとも 1つに基づき注目領域と近 傍領域の類似度を判断し、近傍領域選択部 207にて注目領域に類似する近傍領域 を抽出する信号処理システムである。
[0027] この発明によれば、輝度信号および色相信号およびエッジ信号の少なくとも 1つに 基づき注目領域に類似する近傍領域を抽出するので、均質な領域からのノイズ量推 定が可能となり、推定の精度が向上する。また、輝度信号および色相信号およびエツ ジ信号の算出は容易であり、高速かつ低コストなシステムが提供可能となる。
[0028] 本発明にお 、て、上記選択手段は、上記注目領域および上記近傍領域ごとに色 相信号を算出する色相算出手段と、上記注目領域および上記近傍領域ごとに周波 数信号を算出する周波数算出手段と、上記輝度信号および上記色相信号および上 記周波数信号の少なくとも 1つに基づき上記注目領域と上記近傍領域の類似度を判 断する類似度判断手段と、上記類似度に基づき上記近傍領域を選択する近傍領域 選択手段と、を有する。
[0029] この発明に対応する実施例は、図 10〜図 15に示される実施例 2が対応する。色相 算出手段は図 13に示される色相算出部 203が、周波数算出手段は図 13に示される D CT変換部 700が、類似度判断手段は図 13に示される類似度判断部 206が、近傍領 域選択手段は図 13に示される近傍領域選択部 207が該当する。
[0030] この発明の好まし 、適用例は、色相算出部 203にて注目領域および近傍領域の色 相信号を算出し、 DCT変換部 700にて周波数信号を算出し、類似度判断部 206にて 輝度信号および色相信号および周波数信号の少なくとも 1つに基づき注目領域と近 傍領域の類似度を判断し、近傍領域選択部 207にて注目領域に類似する近傍領域 を抽出する信号処理システムである。
[0031] この発明によれば、輝度信号および色相信号および周波数信号の少なくとも 1つに 基づき注目領域に類似する近傍領域を抽出するので、均質な領域からのノイズ量推 定が可能となり、推定の精度が向上する。また、周波数信号に基づく選択は、類似性 の検証をより高精度化できる。
[0032] 本発明にお ヽて、上記選択手段は、上記ノイズ推定手段と上記ノイズ低減手段で 使用する上記近傍領域を異なるよう制御する制御手段を有する。
[0033] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。制御手段は図 1,図 8,図 10に示される制御部 119が 該当する。
[0034] この発明の好ましい適用例は、抽出部 112および選択部 114にて得られた注目領域 および近傍領域に関して、制御部 119にてノイズ推定部 115とノイズ低減部 116にて使 用される近傍領域が異なるよう制御する信号処理システムである。
[0035] この発明によれば、ノイズ推定手段で使用する近傍領域は少なぐノイズ低減手段 で使用する近傍領域は多くなるよう制御するので、ノイズ推定処理では狭 、領域から 推定を行うことで精度を高め、ノイズ低減処理では広 ヽ領域から低減することで効果 を向上させる。各々の処理に適した領域サイズの設定が可能となり、より高品位な信 号が得られる。
[0036] 本発明にお 、て、上記選択手段は、上記注目領域および上記近傍領域の信号か ら所定の微小変動を除去するための除去手段を有する。
[0037] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。除去手段は図 3,図 12,図 13に示される微小変動除去 部 200が該当する。
[0038] この発明の好ましい適用例は、微小変動除去部 200にて注目領域および近傍領域 の微小変動を除去する信号処理システムである。
[0039] この発明によれば、信号の微小変動を除去した後に、色相信号を求めるので、色 相信号の安定性が向上し、より高精度な近傍領域の抽出が可能となる。
[0040] 本発明にお 、て、上記選択手段は、上記類似度に基づき上記近傍領域に対する 重み係数を算出する係数算出手段を有する。
[0041] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。係数算出手段は図 3,図 12,図 13に示される係数算出 部 208が該当する。
[0042] この発明の好ましい適用例は、係数算出部 208にて注目領域および近傍領域の類 似度に基づき重み係数を算出する信号処理システムである。
[0043] この発明によれば、近傍領域の類似度に基づき重み係数を算出するので、注目領 域との類似性をより多段階に活用でき、高精度なノイズ量の推定が可能となる。
[0044] 本発明にお 、て、上記ノイズ推定手段は、上記注目領域および上記選択手段で選 択された近傍領域から色ノイズ量を推定する色ノイズ推定手段または上記注目領域 および上記選択手段で選択された近傍領域カゝら輝度ノイズ量を推定する輝度ノイズ 推定手段の少なくとも一つを有する。
[0045] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。色ノイズ推定手段は図 1,図 5,図 8,図 10,図 14に示 されるノイズ推定部 115が、輝度ノイズ推定手段は図 1,図 5,図 8,図 10,図 14に示さ れるノイズ推定部 115が該当する。
[0046] この発明の好ましい適用例は、ノイズ推定部 115にて色ノイズ量または輝度ノイズ量 の少なくとも 1つを推定する信号処理システムである。
[0047] この発明によれば、色ノイズ量と輝度ノイズ量を独立に推定することで、各々の推定 精度を向上できる。
[0048] 本発明にお 、て、上記色ノイズ推定手段は、上記撮像素子の温度値および上記信 号に対するゲイン値に関する情報を収集する収集手段と、上記収集手段で得られな V、情報に関して標準値を付与する付与手段と、上記注目領域および上記選択手段 で選択された近傍領域から平均色差値を算出する平均色差算出手段と、上記収集 手段または上記付与手段からの情報および上記平均色差値に基づき色ノイズ量を 求める色ノイズ量算出手段と、を有する。 [0049] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。収集手段は図 1,図 10に示される温度センサー 121, 制御部 119および図 5,図 14に示されるゲイン算出部 302が、付与手段は図 5,図 14に 示される標準値付与部 303が、平均色差算出手段は図 5,図 14に示される平均算出 部 301が、色ノイズ量算出手段は図 5に示されるパラメータ用 ROM304,パラメータ選 択部 305,補間部 306,補正部 307および図 14に示されるルックアップテーブル部 800 が該当する。
[0050] この発明の好ましい適用例は、温度センサー 121,制御部 119およびゲイン算出部 3 02にてノイズ量推定に用いる情報を収集し、標準値付与部 303にて温度センサー 121 ,制御部 119およびゲイン算出部 302からの情報が得られない場合に標準値を設定し 、平均算出部 301にて注目領域および近傍領域から平均色差値を算出し、パラメ一 タ用 ROM304,パラメータ選択部 305,補間部 306,補正部 307またはルックアップテー ブル部 800にて色ノイズ量を求める信号処理システムである。
[0051] この発明によれば、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求めら れない情報に関しては標準値を設定し、これらの情報力 色ノイズ量を算出するので 、撮影ごとに異なる条件に動的に適応し、高精度な色ノイズ量の推定が可能となる。 また、必要となる情報が得られない場合でも色ノイズ量の推定が可能となり、安定した ノイズ低減効果が得られる。
[0052] 本発明にお ヽて、上記輝度ノイズ推定手段は、上記撮像素子の温度値および上記 信号に対するゲイン値に関する情報を収集する収集手段と、上記収集手段で得られ な 、情報に関して標準値を付与する付与手段と、上記注目領域および上記選択手 段で選択された近傍領域から平均輝度値を算出する平均輝度算出手段と、上記収 集手段または上記付与手段からの情報および上記平均輝度値に基づき輝度ノイズ 量を求める輝度ノイズ量算出手段と、を有する。
[0053] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。収集手段は図 1,図 10に示される温度センサー 121, 制御部 119および図 5,図 14に示されるゲイン算出部 302が、付与手段は図 5,図 14に 示される標準値付与部 303が、平均輝度算出手段は図 5,図 14に示される平均算出 部 301が、輝度ノイズ量算出手段は図 5に示されるパラメータ用 ROM304,パラメータ 選択部 305,補間部 306,補正部 307および図 14に示されるルックアップテーブル部 80 0が該当する。
[0054] この発明の好ましい適用例は、温度センサー 121,制御部 119およびゲイン算出部 3 02にてノイズ量推定に用いる情報を収集し、標準値付与部 303にて温度センサー 121 ,制御部 119およびゲイン算出部 302からの情報が得られない場合に標準値を設定し 、平均算出部 301にて注目領域および近傍領域から平均輝度値を算出し、パラメ一 タ用 ROM304,パラメータ選択部 305,補間部 306,補正部 307またはルックアップテー ブル部 800にて輝度ノイズ量を求める信号処理システムである。
[0055] この発明によれば、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求めら れない情報に関しては標準値を設定し、これらの情報から輝度ノイズ量を算出するの で、撮影ごとに異なる条件に動的に適応し、高精度な輝度ノイズ量の推定が可能とな る。また、必要となる情報が得られない場合でも輝度ノイズ量の推定が可能となり、安 定したノイズ低減効果が得られる。
[0056] 本発明にお 、て、上記収集手段は、上記記撮像素子の温度値を測定する温度セ ンサーを有する。
[0057] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。温度センサーは図 1,図 10に示される温度センサー 12 1が該当する。
[0058] この発明の好ましい適用例は、温度センサー 121から CCD103の温度をリアルタイム で測定する信号処理システムである。
[0059] この発明によれば、撮影時の撮像素子の温度を計測して、ノイズ量推定の情報とす るので、撮影時の温度変化に動的に適応し、高精度なノイズ量の推定が可能となる。
[0060] 本発明にお 、て、上記収集手段は、 ISO感度,露出情報,ホワイトバランス情報の 少なくとも 1つ以上の情報に基づき上記ゲイン値を求めるゲイン算出手段を有する。
[0061] この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。ゲイン算出手段は図 5,図 14に示されるゲイン算出部 3
02,制御部 119が該当する。 [0062] この発明の好ましい適用例は、制御部 119にて ISO感度,露出情報,ホワイトバラン ス情報などを転送し、ゲイン算出部 302にて撮影時のトータルのゲイン量を求める信 号処理システムである。
[0063] この発明によれば、 ISO感度,露出情報,ホワイトバランス情報力 撮影時のゲイン 量を求め、ノイズ量推定の情報とするので、撮影時のゲイン変化に動的に適応し、高 精度なノイズ量の推定が可能となる。
[0064] 本発明において、上記色ノイズ量算出手段は、所定の色相に対応する基準色ノィ ズモデルおよび補正係数カゝらなるパラメータ群を少なくとも 1組以上記録する記録手 段と、上記収集手段または上記付与手段からの情報および上記平均色差値に基づ き上記パラメータ群力 必要となるパラメータを選択するパラメータ選択手段と、上記 平均色差値および上記パラメータ選択手段により選択されたパラメータ群中の基準 色ノイズモデルに基づき補間演算により基準色ノイズ量を求める補間手段と、上記基 準色ノイズ量を上記パラメータ選択手段により選択されたパラメータ群中の補正係数 に基づき補正することで色ノイズ量を求める補正手段と、を有する。
[0065] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。記録手 段は図 5に示されるパラメータ用 ROM304が、パラメータ選択手段は図 5に示されるパ ラメータ選択部 305が、補間手段は図 5に示される補間部 306が、補正手段は図 5に 示される補正部 307が該当する。
[0066] この発明の好ましい適用例は、パラメータ用 ROM304に予め測定しておいたノイズ 量推定のための使用される基準色ノイズモデルの係数と補正係数を記録し、パラメ一 タ選択部 305にて基準色ノイズモデルの係数と補正係数を選択し、補間部 306にて基 準色ノイズモデルに基づき基準色ノイズ量を補間処理にて算出し、補正部 307にて補 正係数に基づき補正することで色ノイズ量を求める信号処理システムである。
[0067] この発明によれば、基準色ノイズモデルに基づき補間および補正処理を行うことで 色ノイズ量を求めるので、高精度なノイズ量の推定が可能となる。また、補間および補 正処理は実装が容易であり、低コストなシステムが提供可能となる。
[0068] 本発明にお 、て、上記基準色ノイズモデルは、色差値に対する色ノイズ量カゝら成る 複数の座標点データから構成される。 [0069] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。
[0070] この発明の好ましい適用例は、図 6Bに示される複数の座標点データからなる基準 色ノイズモデルを用いる信号処理システムである。
[0071] この発明によれば、基準色ノイズモデルを複数の座標点データで構成するので、モ デルに必要となるメモリ量が少なぐ低コストィ匕が可能となる。
[0072] 本発明において、上記色ノイズ量算出手段は、上記収集手段または上記付与手段 力 の情報および上記平均色差値を入力とし色ノイズ量を求めるルックアップテープ ル手段を有する。
[0073] この発明に対応する実施例は、図 10〜図 15に示される実施例 2が対応する。ルック アップテーブル手段は図 14に示されるルックアップテーブル部 800が該当する。
[0074] この発明の好ましい適用例は、ルックアップテーブル部 800にて色ノイズ量を求める 信号処理システムである。
[0075] この発明によれば、ルックアップテーブル力 色ノイズ量を算出するので、高速な処 理が可能となる。
[0076] 本発明にお 、て、上記輝度ノイズ量算出手段は、基準輝度ノイズモデルおよび補 正係数からなるパラメータ群を記録する記録手段と、上記収集手段または上記付与 手段からの情報および上記平均輝度値に基づき上記パラメータ群から必要となるパ ラメータを選択するパラメータ選択手段と、上記平均輝度値および上記パラメータ選 択手段により選択されたパラメータ群中の基準輝度ノイズモデルに基づき補間演算 により基準輝度ノイズ量を求める補間手段と、上記基準輝度ノイズ量を上記パラメ一 タ選択手段により選択された上記パラメータ群中の補正係数に基づき補正することで 輝度ノイズ量を求める補正手段と、を有する。
[0077] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。記録手 段は図 5に示されるパラメータ用 ROM304が、パラメータ選択手段は図 5に示されるパ ラメータ選択部 305が、補間手段は図 5に示される補間部 306が、補正手段は図 5に 示される補正部 307が該当する。
[0078] この発明の好ましい適用例は、パラメータ用 ROM304に予め測定しておいたノイズ 量推定のための使用される基準輝度ノイズモデルの係数と補正係数を記録し、パラメ ータ選択部 305にて基準輝度ノイズモデルの係数と補正係数を選択し、補間部 306に て基準輝度ノイズモデルに基づき基準輝度ノイズ量を補間処理にて算出し、補正部 307にて補正係数に基づき補正することで輝度ノイズ量を求める信号処理システムで ある。
[0079] この発明によれば、基準輝度ノイズモデルに基づき補間および補正処理を行うこと で輝度ノイズ量を求めるので、高精度なノイズ量の推定が可能となる。また、補間およ び補正処理は実装が容易であり、低コストなシステムが提供可能となる。
[0080] 本発明にお ヽて、上記基準輝度ノイズモデルは、輝度値に対する輝度ノイズ量から 成る複数の座標点データから構成される。
[0081] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。
[0082] この発明の好ましい適用例は、図 6Bに示される複数の座標点データからなる基準 輝度ノイズモデルを用いる信号処理システムである。
[0083] この発明によれば、基準輝度ノイズモデルを複数の座標点データで構成するので、 モデルに必要となるメモリ量が少なぐ低コストィ匕が可能となる。
[0084] 本発明において、上記輝度ノイズ量算出手段は、上記収集手段または上記付与手 段からの情報および上記平均輝度値を入力とし輝度ノイズ量を求めるルックアップテ 一ブル手段を有する。
[0085] この発明に対応する実施例は、図 10〜図 15に示される実施例 2が対応する。ルック アップテーブル手段は図 14に示されるルックアップテーブル部 800が該当する。
[0086] この発明の好ましい適用例は、ルックアップテーブル部 800にて輝度ノイズ量を求め る信号処理システムである。
[0087] この発明によれば、ルックアップテーブルから輝度ノイズ量を算出するので、高速な 処理が可能となる。
[0088] 本発明にお 、て、上記ノイズ低減手段は、上記ノイズ量に基づき上記注目領域か ら色ノイズを低減する色ノイズ低減手段または上記ノイズ量に基づき上記注目領域か ら輝度ノイズを低減する輝度ノイズ低減手段の少なくとも一つを有する。
この発明に対応する実施例は、図 1〜図 9に示される実施例 1および図 10〜図 15に 示される実施例 2が対応する。色ノイズ低減手段は図 1,図 7,図 8,図 10に示されるノ ィズ低減部 116が、輝度ノイズ低減手段は図 1,図 7,図 8,図 10に示されるノイズ低減 部 116が該当する。
[0089] この発明の好ましい適用例は、ノイズ低減部 116にて色ノイズまたは輝度ノイズの少 なくとも 1つを低減する信号処理システムである。
[0090] この発明によれば、色ノイズ量と輝度ノイズ量を独立に低減することで、各々の低減 精度を向上できる。
[0091] 本発明にお 、て、上記色ノイズ低減手段は、上記ノイズ推定手段力ゝらのノイズ量に 基づき上記注目領域にノイズ範囲を設定する設定手段と、上記注目領域の色差信 号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1のスムージング手段と、上記 注目領域の色差信号に関してノイズ範囲に属さない場合に補正を行う第 2のスムー ジング手段と、を有する。
[0092] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。設定手 段は図 7に示される範囲設定部 400が、第 1のスムージング手段は図 7に示される第 1 スムージング部 402が、第 2のスムージング手段は図 7に示される第 2スムージング部 4 03が該当する。
[0093] この発明の好ましい適用例は、第 1スムージング部 402にてノイズ範囲に属すると判 断された注目領域の色差信号に平滑化を行!ヽ、第 2スムージング部 403にてノイズ範 囲に属さないと判断された注目領域の色差信号に補正を行う信号処理システムであ る。
[0094] この発明によれば、ノイズ範囲に属すると判断された注目領域の色差信号には平 滑化処理を、属さないと判断された注目領域の色差信号には補正処理を行うので、 色ノイズ低減処理に伴う不連続性の発生を防止し、高品位な信号が得られる。
[0095] 本発明にお ヽて、上記輝度ノイズ低減手段は、上記ノイズ推定手段からの輝度ノィ ズ量に基づき上記注目領域にノイズ範囲を設定する設定手段と、上記注目領域の輝 度信号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1のスムージング手段と、 上記注目領域の輝度信号に関してノイズ範囲に属さな 、場合に補正を行う第 2のス ムージング手段と、を有する。
[0096] この発明に対応する実施例は、図 1〜図 9に示される実施例 1が対応する。設定手 段は図 7に示される範囲設定部 400が、第 1のスムージング手段は図 7に示される第 1 スムージング部 402が、第 2のスムージング手段は図 7に示される第 2スムージング部 4 03が該当する。
[0097] この発明の好ましい適用例は、第 1スムージング部 402にてノイズ範囲に属すると判 断された注目領域の輝度信号に平滑化を行 ヽ、第 2スムージング部 403にてノイズ範 囲に属さないと判断された注目領域の輝度信号に補正を行う信号処理システムであ る。
[0098] この発明によれば、ノイズ範囲に属すると判断された注目領域の輝度信号には平 滑化処理を、属さな 、と判断された注目領域の輝度信号には補正処理を行うので、 輝度ノイズ低減処理に伴う不連続性の発生を防止し、高品位な信号が得られる。
[0099] 本発明による信号処理プログラムは、上記の発明による信号処理システムそれぞれ に対応しており、コンピュータに処理を実行させて同様な作用'効果を得ることができ る。
図面の簡単な説明
[0100] [図 1]本発明の実施例 1の信号処理システムの構成図。
[図 2A]Bayer型色フィルタにおける局所領域に関する説明図。
[図 2B]Bayer型色フィルタにおける局所領域に関する説明図。
[図 2C]Bayer型色フィルタにおける局所領域に関する説明図。
[図 2D]Bayer型色フィルタにおける局所領域に関する説明図。
[図 3]図 1の選択部の構成図。
[図 4A]スぺ外ル勾配に基づく色相分類に関する説明図。
[図 4B]スぺ外ル勾配に基づく色相分類に関する説明図。
[図 4C]スペクトル勾配に基づく色相分類に関する説明図。
[図 4D]スペクトル勾配に基づく色相分類に関する説明図。
[図 5]図 1のノイズ推定部の構成図。
[図 6A]ノイズ量の推定に関する説明図。
[図 6B]ノイズ量の推定に関する説明図。
[図 6C]ノイズ量の推定に関する説明図。 [図 6D]ノイズ量の推定に関する説明図。
[図 7]図 1のノイズ低減部の構成図。
[図 8]本発明の実施例 1の別形態の信号処理システムの構成図。
[図 9]実施例 1におけるノイズ低減処理のフローチャート。
[図 10]本発明の実施例 2の信号処理システムの構成図。
[図 11A]色差線順次型色フィルタにおける局所領域に関する説明図。
[図 11B]色差線順次型色フィルタにおける局所領域に関する説明図。
[図 11C]色差線順次型色フィルタにおける局所領域に関する説明図。
[図 12]図 10の選択部の構成図。
[図 13]実施例 2の別構成の選択部の構成図。
[図 14]図 10のノイズ推定部の構成図。
[図 15]本発明の実施例 2のノイズ低減処理のフローチャート。
発明を実施するための最良の形態
[0101] 発明の実施例について図面を参照して説明する。
[0102] (実施例 1)
図 1は本発明の実施例 1の信号処理システムの構成図を示し、図 2 A〜図 2Dは Bay er型色フィルタにおける局所領域に関する説明図、図 3は図 1の選択部の構成図、図 4A〜図 4Dはスペクトル勾配に基づく色相分類に関する説明図、図 5は図 1のノイズ 推定部の構成図、図 6A〜図 6Dはノイズ量の推定に関する説明図、図 7は図 1のノィ ズ低減部の構成図、図 8は実施例 1の別形態の構成図、図 9は実施例 1におけるノィ ズ低減処理のフローチャートを示して 、る。
[0103] [構成]
図 1は、本発明の実施例 1の構成図である。レンズ系 100,絞り 101, ローパスフィル タ 102,単板式 CCD103を介して撮影された映像は、相関二重サンプリング回路 (以下 、 CDSと略記、 CDSは Correlated Double Samplingの略) 104にてサンプリングされ、利 得制御増幅器 (以下、 Gainと略記) 105にて増幅され、アナログ/デジタル変 (以 下、 A/Dと略記) 106にてデジタル信号へ変換される。 A/D106からの信号は、ノ ッファ 107を介して抽出部 112へ転送される。ノ ッファ 107は、プリホワイトバランス(以下、 Pre WBと略記)部 108,測光評価部 109,合焦点検出部 110へも接続されている。
[0104] PreWB部 108は Gainl05へ、測光評価部 109は絞り 101, CCD103, Gainl05へ、合焦 点検出部 110は AFモータ 111へ接続されている。抽出部 112からの信号は、 Y/C分離 部 113および選択部 114へ接続されている。 Y/C分離部 113は選択部 114へ、選択部 1 14はノイズ推定部 115およびノイズ低減部 116へ接続されて ヽる。ノイズ低減部 116は 、信号処理部 117を経由してメモリーカードなどの出力部 118に接続されている。
[0105] マイクロコンピュータなどの制御部 119は、 CDS104, Gainl05, A/D106, PreWB部 10 8,測光評価部 109,合焦点検出部 110,抽出部 112, Y/C分離部 113,選択部 114,ノ ィズ推定部 115,ノイズ低減部 116,信号処理部 117,出力部 118と双方向に接続され ている。また、電源スィッチ,シャッターボタン,撮影時の各種モードの切り替えを行う ためのインターフェースを備えた外部 I/F部 120も制御部 119に双方向に接続されて いる。さらに、 CCD103の近傍に配置された温度センサー 121からの信号は制御部 11 9へ接続されている。
[0106] [作用]
図 1において、信号の流れを説明する。外部 I/F部 120を介して ISO感度などの撮影 条件を設定した後、シャッターボタンを半押しにすることでプリ撮像モードに入る。レ ンズ系 100,絞り 101,ローパスフィルタ 102, CCD103を介して撮影された映像信号は 、 CDS104にて公知の相関二重サンプリングによりアナログ信号として読み出される。 なお、本実施例において CCD103は Bayer型原色フィルタを前面に有する単板 CCD を想定する。
[0107] 図 2Aは、 Bayer型の色フィルタの構成を示す。 Bayer型は 2 X 2画素を基本単位とし 、赤 (R),青 (B)が 1画素ずつ、緑 (G)が 2画素配置される。上記アナログ信号は GainlO 5にて所定量増幅され、 A/D106にてデジタル信号へ変換されてバッファ 107へ転送さ れる。なお、本実施例において A/D106は 12bit階調でデジタル信号へ変換するもの と想定する。バッファ 107内の映像信号は、 PreWB部 108,測光評価部 109および合焦 点検出部 110へ転送される。
[0108] PreWB部 108では、映像信号中の所定輝度レベルの信号を色信号ごとに積算する ことで、簡易ホワイトバランス係数を算出する。上記係数を Gainl05へ転送し、色信号 ごとに異なるゲインを乗算させることでホワイトバランスを行わせる。測光評価部 109で は、設定された ISO感度,手ぶれ限界のシャッター速度などを加味し、信号中の輝度 レベルを求めて適正露光となるよう絞り 101や CCD103の電子シャッター速度や Gainl 05の増幅率などを制御する。また、合焦点検出部 110では信号中のエッジ強度を検 出し、これが最大となるように AFモータ 111を制御することで合焦信号を得る。
[0109] 次に、外部 I/F部 120を介してシャッターボタンを全押しにすることにより本撮影が行 われ、映像信号はプリ撮像と同様にバッファ 107へ転送される。本撮影は、 PreWB部 1 08にて求められたホワイトバランス係数、測光評価部 109にて求められた露光条件、 合焦点検出部 110にて求められた合焦条件に基づき行われ、これらの撮影時の条件 は制御部 119へ転送される。バッファ 107内の映像信号は抽出部 112へ転送される。 抽出部 112は、制御部 119の制御に基づき図 2Aに示されるような注目領域およぶ近 傍領域力もなる局所領域を順次抽出し、 Y/C分離部 113および選択部 114へ転送す る。 Y/C分離部 113は、制御部 119の制御に基づき注目領域およぶ近傍領域力も輝 度信号 Yおよび色差信号 Cb, Crを領域単位に算出する。なお、本実施例では RGB 原色系の色フィルタを想定しており、輝度信号および色差信号を (1)式に基づき算出 する。
[0110] [式 1]
Y = GAV
Cb = BAV - oAV ( j )
Cr = RAV― GAV なお、(1)式における R , G , B は注目領域および近傍領域内における R, G, Bの
AV AV AV
平均値を意味する。算出された輝度信号および色差信号は選択部 114へ転送される 。選択部 114は、制御部 119の制御に基づき抽出部 112からの局所領域および Y/C分 離部 113からの輝度信号,色差信号を用いて注目領域と類似する近傍領域を選択す る。上記注目領域と選択された近傍領域および対応する輝度信号と色差信号は、ノ ィズ推定部 115およびノイズ低減部 116へ転送される。また、選択された近傍領域に 関する重み係数も算出され、ノイズ推定部 115へ転送される。
[0111] ノイズ推定部 115は、制御部 119の制御に基づき抽出部 112からの注目領域,選択さ れた近傍領域,輝度信号,色差信号,重み係数およびその他の撮影時の情報に基 づきノイズ量を推定し、これをノイズ低減部 116へ転送する。ノイズ低減部 116は、制御 部 119の制御に基づき抽出部 112からの注目領域,輝度信号,色差信号、ノイズ推定 部 115からのノイズ量に基づき注目領域のノイズ低減処理を行!、、処理後の注目領 域を信号処理部 117へ転送する。
[0112] 上記抽出部 112, Y/C分離部 113,選択部 114,ノイズ推定部 115,ノイズ低減部 116 における処理は、制御部 119の制御に基づき局所領域単位で同期して行われる。信 号処理部 117は、制御部 119の制御に基づきノイズ低減後の映像信号に対して、公知 の強調処理や圧縮処理などを行い、出力部 118へ転送する。出力部 118は、メモリー カードなどへ信号を記録保存する。
[0113] 図 2A〜図 2Dは、 Bayer型色フィルタにおける局所領域に関する説明図である。図 2Aは 6 X 6画素の局所領域の構成、図 2Bは輝度 Z色差信号への分離、図 2Cは 6 X 6画素の別形態の局所領域、図 2Dは 10 X 10画素の別形態の局所領域、をそれ ぞれ示している。
[0114] 図 2Aは、本実施例における局所領域の構成を示す。本実施例において、注目領 域は 2 X 2画素を、近傍領域は 2 X 2画素で注目領域を包含するように配置された 8つ を、局所領域は 6 X 6画素サイズを想定する。この場合、抽出部 112は注目領域が全 信号をカバーするよう、局所領域を 2行 2列オーバーラップしながら抽出する。
[0115] 図 2Bは、注目領域および近傍領域単位で (1)式に基づき算出される輝度信号およ び色差信号を示す。以下、注目領域の輝度信号および色差信号を Y , Cb , Cr
0 0 0で、 近傍領域の輝度信号および色差信号を Yi, Cbi, Cri (i=l〜8)で表す。 Y/C分離部 11 3にて行われる処理は単板状態で行われ、注目領域および局所領域に対して一組の 輝度信号および色差信号が算出される。注目領域が図 2Aに示されるように R , G ,
22 32
G , B 画素で構成されるとすると、輝度信号 Yおよび色差信号 Cb , Crは (2)式で算
23 33 0 0 0 出される。
[0116] [式 2] Yo =(G32 +G23)/2
Cb0 =B33-(G32+G23)/2 (2) Cr0 =R22-(G32+G23)/2 その他、近傍領域も同様にして算出される。なお、局所領域の構成としては、上記例 に限定される必要はない。例えば図 2Cは、 6X6画素サイズの局所領域の別構成を 示すもので、近傍領域が 1行 1列オーバーラップするよう配置されている。また、図 2D は 10 X 10画素サイズの局所領域の別構成を示すもので、近傍領域は 2 X 2画素が 4 つ、 3X3画素が 4つ力 成り、局所領域内に疎に配置されている。上記のように、注 目領域および近傍領域は輝度信号および色差信号を算出するに要する R, G, Bの 組が 1組以上あれば任意の形態で構成することができる。
[0117] 図 3は選択部 114の構成の一例を示すもので、微小変動除去部 200,ノッファ 1201 ,勾配算出部 202,色相算出部 203,色相クラス用 ROM204,バッファ 2205,類似度判 断部 206,近傍領域選択部 207,係数算出部 208からなる。抽出部 112は、微小変動 除去部 200,バッファ 1201,勾配算出部 202を介して色相算出部 203へ接続している。 色相クラス用 ROM204は、色相算出部 203へ接続している。 Y/C分離部 113は、ノ ッフ ァ 2205を介して類似度判断部 206および近傍領域選択部 207へ接続して 、る。色相 算出部 203は類似度判断部 206へ、類似度判断部 206は近傍領域選択部 207および 係数算出部 208へ接続している。近傍領域選択部 207は、ノイズ推定部 115およびノィ ズ低減部 116へ接続している。係数算出部 208は、ノイズ推定部 115へ接続している。
[0118] 制御部 119は、微小変動除去部 200,勾配算出部 202,色相算出部 203,類似度判 断部 206,近傍領域選択部 207,係数算出部 208と双方向に接続されている。
[0119] 抽出部 112からの局所領域は、制御部 119の制御に基づき微小変動除去部 200へ 転送され、所定の微小変動成分が除去される。これは、映像信号の下位 bitを除去す ることでなされる。例えば本実施例にぉ 、て A/D106は 12bit階調でデジタルィ匕するこ とを想定している力 下位 4bitをシフト処理することで微小変動成分を除去し、 8bitの 信号に変換してバッファ 1201へ転送する。
[0120] 勾配算出部 202,色相算出部 203,色相クラス用 ROM204は、制御部 119の制御に 基づきバッファ 1201の局所領域に対して、注目領域および近傍領域単位で RGBのス ベクトル勾配を求め、これを類似度判断部 206へ転送する。
[0121] 図 4A〜図 4Dは、スペクトル勾配に基づく色相分類に関する説明図である。図 4A は入力画像、図 4Bはスペクトル勾配に基づく色相分類、図 4Cは CCD出力信号、図 4Dは色相分類の結果、をそれぞれ示している。
[0122] 図 4Aは、入力画像の一例を示すもので、上部の A領域が白で下部の B領域が赤と する。図 4Bは、 A領域と B領域において、 R, G, B3つのスペクトルに対する信号値 (I) をプロットした図である。 A領域は白であり、 R, G, B3つの波長に対するスペクトル強 度の勾配は I A=I (A)= I (A)とほぼ等しぐこれをクラス 0とする。 B領域は赤であり、信
R G B
号値の勾配 I (B)>I (B)=I (B)と R信号の強度が大きぐ G, Bはほぼ等しく R信号の強度
R G B
より小さい。これをクラス 4とする。 R, G, B3つの信号の勾配の組み合わせは 13通り存 在し、これを表 1に示す。即ち、表 1はスペクトル勾配に基づく 13の色相クラスを示し ている。
[0123] [表 1]
Figure imgf000022_0001
図 4Cは、図 4Aの入力画像を図 2Aに示す Bayer型単板 CCDで撮像し、上記した注 目領域および近傍領域を設定したときの画像を示す。注目領域および近傍領域単 位でスペクトルの勾配を求める力 各領域には G信号が 2つ存在する。これは、平均 値を求めて G信号とすることで処理する。図 4Dは、注目領域および近傍領域単位で 上記のように 0〜12までのクラスが割り当てられた状態を示すもので、このクラス分けさ れた画像が類似度判断部 206へ出力される。
[0124] 勾配算出部 202は、注目領域および近傍領域単位で RGB信号の大小関係を求め、 これを色相算出部 203へ転送する。色相算出部 203は、勾配算出部 202からの RGB信 号の大小関係と色相クラス用 ROM204からの色相クラスに関する情報に基づき 13の 色相クラスを求め、これを類似度判断部 206へ転送する。なお、色相クラス用 ROM204 には表 1に示されるスペクトル勾配と 13の色相クラスに関する情報が記録されている。
[0125] 一方、 Y/C分離部 113からの輝度信号および色差信号はバッファ 2205へ保存され る。類似度判断部 206は、制御部 119の制御に基づきノ ッファ 2205から注目領域およ び近傍領域の輝度信号を読み込む。類似度判断部 206は、色相算出部 203からの上 記色相クラスと輝度信号に基づき注目領域と近傍領域の類似度を判断する。これは 、「注目領域と同一の色相クラス」かつ「注目領域の輝度信号 Y ±20%の範囲に近傍
0
領域の輝度信号 Yiが属する」条件を満たす近傍領域を類似度が高 ヽと判断し、上記 判断結果を近傍領域選択部 207,係数算出部 208へ転送する。
[0126] 以下、類似度が高!ヽと判断された近傍領域の輝度信号および色差信号を Yi' , Cbi
' , Cri' (i' =l〜8のいずれか)で表す。近傍領域選択部 207は、制御部 119の制御に 基づき類似度判断部 206から類似度が高 ヽと判断された近傍領域の輝度信号 Yi'と 色差信号 CW', Cri'をバッファ 2205から読み出し、ノイズ推定部 115へ転送する。また 、注目領域の輝度信号 Yと色差信号 Cb , Crをバッファ 2205カゝら読み出し、ノイズ推
0 0 0
定部 115およびノイズ低減部 116へ転送する。一方、係数算出部 208は類似度が高い と判断された近傍領域に関して、重み係数 Wi'を算出する。これは、 (3)式に基づき 算出される。
[0127] [式 3]
Figure imgf000023_0001
算出された重み係数 Wi'は、ノイズ推定部 115へ転送される。
図 5はノイズ推定部 115の構成の一例を示すもので、バッファ 300,平均算出部 301, ゲイン算出部 302,標準値付与部 303,パラメータ用 ROM304,パラメータ選択部 305, 補間部 306,補正部 307からなる。選択部 114は、 ッファ 300および平均算出部 301 接続している。バッファ 300は平均算出部 301 平均算出部 301はパラメータ選択部 305 接続している。
[0129] ゲイン算出部 302,標準値付与部 303,パラメータ用 ROM304は、パラメータ選択部 3 05 接続している。パラメータ選択部 305は、補間部 306および補正部 307 接続して いる。補間部 306は補正部 307 補正部 307はノイズ低減部 116 接続している。制 御部 119は、平均算出部 301,ゲイン算出部 302,標準値付与部 303,パラメータ選択 部 305,補間部 306,補正部 307 双方向に接続されている。
[0130] 選択部 114からの注目領域および類似度が高!ヽと判断された近傍領域の輝度信号 および色差信号はバッファ 300 保存される。また、類似度が高いと判断された近傍 領域に関する重み係数は平均算出部 301 転送される。平均算出部 301は、制御部 119の制御に基づきバッファ 300から輝度信号および色差信号を読み込み、重み係 数を用いて局所領域に対する輝度信号および色差信号の平均値 AV , AVcb, AVer
Y
を算出する。
[0131] [式 4]
Figure imgf000024_0001
上記輝度信号および色差信号の平均値はパラメータ選択部 305 転送される。ゲイ ン算出部 302は、制御部 119から転送される ISO感度および露光条件およびホワイトバ ランス係数に関する情報に基づき Gainl05における増幅量を求め、パラメータ選択部 305へ転送する。また、制御部 119は温度センサー 121から CCD103の温度情報を得 て、これをパラメータ選択部 305へ転送する。パラメータ選択部 305は、平均算出部 30 1からの輝度信号および色差信号の平均値,ゲイン算出部 302からのゲインの情報, 制御部 119からの温度情報に基づきノイズ量を推定する。 [0132] 図 6A〜図 6Dは、ノイズ量の推定に関する説明図である。図 6Aは信号レベルに対 するノイズ量の関係、図 6Bはノイズモデルの簡略化、図 6Cは簡略ィ匕されたノイズモ デルからのノイズ量の算出法、図 6Dは色ノイズモデル用の 6つの色相、をそれぞれ 示している。
[0133] 図 6Aは、輝度信号または色差信号の平均値を信号レベル Lとした場合のノイズ量 Ns (s=Y, Cb, Cr)をプロットしたもので、信号レベルに対して 2次曲線的に増加してい る。これを 2次関数でモデルィ匕すると (5)式が得られる。
[0134] [式 5]
Ns = asL2 + sL + ys ( 5) ここで、 a s, j8 s, は定数項である。しかしながら、ノイズ量は信号レベルだけでは なぐ素子の温度やゲインによっても変化する。図 6Aは、一例としてゲインに関連す る 3種類の ISO感度 100, 200, 400に対するノイズ量をプロットしている。換言すれば、 ゲインの 1, 2, 4倍に対するノイズ量を示している。また、温度 tについては、 3種類の 環境温度 20, 50, 80°Cにおける平均値のノイズ量を示している。個々の曲線は (5)式 に示される形態をしているが、その係数はゲインに関連する ISO感度により異なる。温 度を t、ゲインを gとし、上記を考慮した形でモデルの定式化を行うと、
6]
Ns = asgtL2 + p¾tL + Ysgt (6) となる。ここで、 a sgt, iS sgt, y sgtは定数項である。 ただし、(6)式の関数を複数記 録し、その都度演算によりノイズ量を算出することは処理的に煩雑である。このため、 図 6Bに示すようなモデルの簡略ィ匕を行う。図 6Bにおいては、最大のノイズ量を与え るモデルを基準ノイズモデルとして選択し、これを所定数の折れ線で近似する。折れ 線の変曲点は、信号レベル Lとノイズ量 Nカゝらなる座標データ (Ln, Nn)で表す。ここで 、 nは変曲点の数を示す。また、上記基準ノイズモデルカゝら他のノイズモデルを導出 するための補正係数 ksgtも用意される。補正係数 ksgtは、各ノイズモデルと基準ノィ ズモデル間から最小自乗法により算出される。基準ノイズモデルカゝら他のノイズモデ ルを導出するには、上記補正係数 ksgtを乗算することで行われる。図 6Cは、図 6Bに 示す簡易化されたノイズモデルカゝらノイズ量を算出する方法を示す。例えば、与えら れた信号レベル 1、信号が s、ゲインが g、温度力 ¾に対応するノイズ量 Nsを求めることを 想定する。まず、信号レベル 1が基準ノイズモデルのどの区間に属するかを探索する 。ここでは、(Ln, Nn)と (Ln+1, Nn+1)間の区間に属するとする。基準ノイズモデルに おける基準ノイズ量 Nを線形補間にて求める。
1
[0135] [式 7]
Figure imgf000026_0001
次に補正係数 ksgtを乗算することで、ノイズ量 Nsを求める。
[0136] [式 8]
Ns = ks N' ( 8 ) 上記基準ノイズモデルは、輝度信号に関する基準輝度ノイズモデルと色差信号に関 する基準色ノイズモデルに分けられる力 基本的には同一の構成となる。なお、輝度 信号 Yに関しての基準輝度ノイズモデルと補正係数の組は一つしか存在しないが、 色差信号 Cb, Crに関しては色相方向により色ノイズ量が異なる。本実施例において は、図 6Dに示されるように R (赤), G (緑), B (青), Cy (シアン), Mg (マゼンタ), Ye (イェロー)の 6つの色相ごとに基準色ノイズモデルと補正係数の組を用意する。すな わち、色差信号 Cb, Crは 2種類ではなぐ Cb_H, Cr_H (H=R, G, B, Cy, Mg, Ye)の 1 2種類の基準色ノイズモデルと補正係数の組を用意する。上記輝度および色差信号 に関する基準ノイズモデルの変曲点の座標データ (Ln, Nn)および補正係数 ksgtは ノ ラメータ用 ROM304に記録される。パラメータ選択部 305は、平均算出部 301からの 輝度信号および色差信号の平均値 AV , AVcb, AVerから信号レベル 1を、ゲイン算
Y
出部 302からのゲインの情報力もゲイン gを、制御部 119からの温度情報力も温度 tを 設定する。さらに、色差信号の平均値 AVcb, AVerから (9)式に基づき色相信号 Hを求 め、上記 G, B, Cy, Mg, Yeの 6つの色相中力 色相信号 Hと最も近い色相を選択 し Cb_H, Cr_I" [を設定する。
[0137] [式 9]
Figure imgf000027_0001
次に、信号レベル 1が属する区間の座標データ (Ln, Nn)と (Ln+1, Nn+1)をパラメータ 用 ROM304から探索し、これを補間部 306へ転送する。さらに、補正係数 ksgtをパラメ ータ用 ROM304から探索し、これを補正部 307へ転送する。補間部 306は、制御部 119 の制御に基づきパラメータ選択部 305からの信号レベル 1および区間の座標データ (L n, Nn)と (Ln+1, Nn+1)から (7)式に基づき基準ノイズモデルにおける基準ノイズ量 N
1 を算出し、補正部 307へ転送する。補正部 307は、制御部 119の制御に基づきパラメ ータ選択部 305からの補正係数 ksgtおよび補間部 306からの基準ノイズ量 N力 (8)式 に基づきノイズ量 Nsを算出し、輝度信号および色差信号の平均値 AV , AVcb, AVer
Y
と共にノイズ低減部 116へ転送する。なお、温度 t,ゲイン gなどの情報は撮影ごとに求 める必要はない。任意の情報を標準値付与部 303に記録させておき、算出過程を省 略する構成も可能である。これにより、高速処理や省電力化などが実現できる。また、 基準色ノイズモデルとして図 6Dに示めされる 6方向の色相を用いた力 これに限定さ れる必要はない。例えば、記憶色として重要な肌色などを用いるなど、自由な構成が 可能である。
図 7はノイズ低減部 116の構成の一例を示すもので、範囲設定部 400,切り換え部 40 1,第 1スムージング部 402,第 2スムージング部 403からなる。ノイズ推定部 115は範囲 設定部 400へ、範囲設定部 400は切り換え部 401,第 1スムージング部 402,第 2スムー ジング部 403へ接続している。選択部 114は切り換え部 401へ、切り換え部 401は第 1ス ムージング部 402および第 2スムージング部 403へ接続して!/、る。第 1スムージング部 4 02および第 2スムージング部 403は、信号処理部 117へ接続している。制御部 119は、 範囲設定部 400,切り換え部 401,第 1スムージング部 402,第 2スムージング部 403と 双方向に接続している。ノイズ推定部 115は、輝度信号および色差信号の平均値 AV , AVcb, AVerおよびノイズ量 Nsを範囲設定部 400へ転送する。範囲設定部 400は、
Y
制御部 119の制御に基づきに輝度信号および色差信号のノイズ量に関する許容範 囲として上限 Usおよび下限 Dsを (10)式のように設定する。 [0139] [式 10]
UY =AVY +NY/2, DY = AVY -NY/2
Figure imgf000028_0001
UCr =AVCr +NCr/2, DCr =AVCf -NCr/2 上記許容範囲 Us, Dsは、切り換え部 401へ転送される。また、範囲設定部 400は輝度 信号および色差信号の平均値 AV , AVcb, AVerおよびノイズ量 Nsを第 1スムージン
Y
グ部 402および第 2スムージング部 403へ転送する。切り換え部 401は、制御部 119の 制御に基づき選択部 114からの注目領域の輝度信号 Yおよび色差信号 Cb , Crを読
0 0 0 み込み、上記許容範囲に属するカゝ否かの判断を行う。判断は、「ノイズ範囲に属して いる」, 「ノイズ範囲を上回っている」, 「ノイズ範囲を下回っている」の三通りである。切 り換え部 401は、「ノイズ範囲に属している」場合は第 1スムージング部 402へ、それ以 外は第 2スムージング部 403へ注目領域の輝度信号 Yおよび色差信号 Cb , Crを転
0 0 0 送する。第 1スムージング部 402は、切り換え部 401からの注目領域の輝度信号 Yおよ
0 び色差信号 Cb , Crに範囲設定部 400からの輝度信号および色差信号の平均値 AV
0 0
, AVcb, AVerを代入する処理を行う。
Y
[0140] [式 11]
Y0 = AVy
C 0 = AVCb ( n ) 0 = AVCr 注目領域が図 2Aに示されるように R , G , G , B 画素で構成されるとすると、(11)
22 32 23 33
式での処理は (2)式に基づき (12)式で示されるように変換できる。
[0141] [式 12]
G32 = AVY
G2, = AVY
' (12) B22 = AVa + AVY
R 2 一 A Cr + A y
(12)式での処理は、輝度信号 Yおよび色差信号 Cb , Crで処理されていた注目領域
0 0 0
が本来の RGBの信号へ戻されることも意味して 、る。(12)式での RGBの信号は信号処 理部 117へ転送される。第 2スムージング部 403は、切り換え部 401からの注目領域の 輝度信号 Yおよび色差信号 Cb , Crに範囲設定部 400からの輝度信号の平均値 AV
0 0 0
とノイズ量 Nsを用いて補正する処理を行う。まず、「ノイズ範囲を上回っている」場合
Y
は (13)式のように補正する。
[0142] [式 13]
Y0 =Y0 -NY/2
Cb0 =Cb0 -No/2 (13) Cr0 =Cr0 - NCr/2 注目領域が図 2Aに示されるように R , G , G , B 画素で構成されるとすると、(13)
22 32 23 33
式での処理は (14)式で示される。
[0143] [式 14]
G32 - AVV - Νγ/2
G23 = AVY -Ny/2
B33 =B33 +AVY -NCb/2 (14) R22 = R22 +AVY -NCf/2 また、「ノイズ範囲を下回って!/、る」場合は (15)式のように補正する。
[0144] [式 15]
Υ= γ+ Νγ /2
Cb0 = Cb0 + NCb/2 U J Cr0 =Cr0 + NCr/2 注目領域が図 2Aに示されるように R , G , G , B 画素で構成されるとすると、(15)
22 32 23 33
式での処理は (16)式で示される。
[0145] [式 16]
Gn = AVY +NY/2
Figure imgf000029_0001
R22 =R22+AVY-NCr/2
(14)式または (16)式での処理は、輝度信号 Yおよび色差信号 Cb , Crで処理されて V、た注目領域が本来の RGBの信号へ戻されることも意味して 、る。(14)式または (16) 式の RGBの信号は信号処理部 117へ転送される。
[0146] 上記構成により、信号レベル,撮影時の温度,ゲインなどの動的に変化する条件に 対応したノイズ量の推定および画面全体での最適なノイズ低減が可能となり、高品位 な信号が得られる。上記情報が得られな 、場合でも標準値を用いることでノイズ量の 推定を行うため安定したノイズ低減効果が得られる。
[0147] さらに、一部のパラメータ算出を意図的に省略することで低コスト,省電力化を可能 とする信号処理システムが提供できる。また、ノイズ低減処理を行う注目領域と類似 する近傍領域を色相や輝度情報に基づき選択後、これをあわせて処理を行うため、 より広い範囲を用いてのノイズ量推定が可能となり、推定の精度を向上することがで きる。
[0148] さらに、色ノイズ量と輝度ノイズ量を独立に推定することで、各々の推定精度を向上 できる。ノイズ量の算出にモデルを用いているため、高精度なノイズ量の推定が可能 となる。また、基準モデルに基づく補間および補正処理は実装が容易であり、低コス トなシステムが提供可能となる。
[0149] さらに、モデルに必要となるメモリ量は少なぐ低コストィ匕が可能となる。また、ノイズ 低減処理はノイズ量から許容範囲を設定するため、原信号の保存性に優れ不連続 性の発生を防止した低減処理が可能となる。さらに、ノイズ低減処理後の信号を本来 の信号として出力するため、従来の処理系との互換性が維持され、多様なシステムの 組み合わせが可能となる。
[0150] また、 Bayer型の色フィルタ配置にあわせて輝度信号と色差信号を求めるため、高 速な処理が可能となる。なお、上記実施例では選択された近傍領域すベてを用いて ノイズ量の推定およびノイズ低減処理を行って ヽたが、このような構成に限定される 必要はない。例えば、ノイズ量の推定においては注目領域の斜め方向の近傍領域 は除外し、比較的狭い領域で推定を行うことで精度を高め、ノイズ低減処理において は選択された近傍領域すベてを用いる比較的広 、領域で行うなど平滑ィヒの能力を 高めるなど自由な構成が可能である。
[0151] また、上記実施例ではレンズ系 100,絞り 101,ローパスフィルタ 102, CCD103, CDS 104, Gainl05, A/D106, PreWB部 108,測光評価部 109,合焦点検出部 110, AFモ ータ 111,温度センサー 121からなる撮像部と一体ィ匕した構成になっていた力 このよ うな構成に限定される必要はない。例えば、図 8に示されるように、別体の撮像部で 撮像された映像信号を未処理の生データ形態で、さらに撮像条件などの付随情報を ヘッダ部に記録したメモリカードなどの記録媒体力 処理をすることも可能である。
[0152] 図 8は、図 1に示す構成からレンズ系 100,絞り 101,ローパスフィルタ 102, CCD103 , CDS104, Gainl05, A/D106, PreWB部 108,測光評価部 109,合焦点検出部 110, A Fモータ 111,温度センサー 121を省略し、入力部 500,ヘッダ情報解析部 501を追カロ した形態となっている。基本構成は図 1と同等であり、同一の構成には同一の名称と 番号を割り当てている。以下、異なる部分のみ説明する。入力部 500は、バッファ 107 およびヘッダ情報解析部 501へ接続している。制御部 119は、入力部 500,ヘッダ情報 解析部 501と双方向に接続している。マウス,キーボードなどの外部 I/F部 120を介し て再生操作を開始することで、メモリカードなどの記録媒体に保存された信号および ヘッダ情報が入力部 500から読み込まれる。入力部 500からの信号はバッファ 107へ、 ヘッダ情報はヘッダ情報解析部 501へ転送される。ヘッダ情報解析部 501は、ヘッダ 情報力も撮影時の情報を抽出して制御部 119へ転送する。以後の処理は、図 1と同 等である。
[0153] さらに、上記実施例ではハードウェアによる処理を前提としていた力 このような構 成に限定される必要はない。例えば、 CCD103からの信号を未処理のままの生デー タとして、制御部 119からの撮影時の温度,ゲインなどをヘッダ情報として出力し、別 途ソフトウェアにて処理する構成も可能である。
[0154] 図 9は、ノイズ低減処理のソフトウェア処理に関するフローを示す。ステップ S1にて、 信号と温度,ゲインなどのヘッダ情報を読み込む。ステップ S2にて、図 2Aに示される ような注目領域および近傍領域から構成される局所領域を抽出する。ステップ S3に て、(1)式に示されるように輝度信号および色差信号に分離する。ステップ S4にて、局 所領域内の注目領域および近傍領域を表 1に示されるような色相クラスに分類する。 ステップ S5にて、ステップ S4からの色相クラス情報およびステップ S3からの輝度情報 に基づき、各近傍領域と注目領域との類似度を判断する。ステップ S6にて、(3)式に 示される重み係数を算出する。ステップ S7にて、ステップ S5からの類似度に基づき注 目領域および類似度が高!ヽと判断された近傍領域の輝度信号および色差信号をス テツプ S3から選択する。ステップ S8にて、(4)式に示される輝度信号および色差信号 の平均値を算出する。ステップ S9にて、読み込まれたヘッダ情報から温度,ゲインな どの情報を設定する。もし、ヘッダ情報に必要なパラメータが存在しない場合は所定 の標準値を割り当てる。ステップ S10にて、基準ノイズモデルの座標データおよび補 正係数を読み込む。ステップ S11にて、(7)式に示される補間処理にて基準ノイズ量を 求める。ステップ S12にて、(8)式に示される補正処理にてノイズ量を求める。
[0155] ステップ S13にて、注目領域の輝度信号および色差信号が (10)式に示される許容 範囲内に属する力否かを判断し、属する場合はステップ S 14へ、属さない場合はステ ップ S15へ分岐する。ステップ S14にて、(12)式に示される処理を行う。ステップ S15に て、(14)式,(16)式に示される処理を行う。ステップ S16にて、全局所領域が完了した かを判断し、完了していない場合はステップ S2へ、完了した場合はステップ S 17へ分 岐する。ステップ S 17にて、公知の強調処理や圧縮処理などが行われる。ステップ S1 8にて、処理後の信号が出力され終了する。
[0156] (実施例 2)
図 10は本発明の実施例 2の信号視よりシステムの構成図を示し、図 11A〜図 11Cは 色差線順次型色フィルタにおける局所領域に関する説明図、図 12は図 10の選択部 の構成図、図 13は別構成の選択部の構成図、図 14は図 10のノイズ推定部の構成図 、図 15は実施例 2のノイズ低減処理のフローチャートを示している。
[0157] [構成]
図 10は、本発明の実施例 2の構成図である。本実施例は、本発明の実施例 1にお ける抽出部 112から選択部 114への接続が削除された構成になつて ヽる。基本構成は 実施例 1と同等であり、同一の構成には同一の名称と番号を割り当てている。
[0158] [作用]
基本的に実施例 1と同等であり、異なる部分のみ説明する。図 10において、信号の 流れを説明する。レンズ系 100,絞り 101, ローパスフィルタ 102, CCD103を介して撮 影された映像信号は、バッファ 107へ転送される。 [0159] なお、本実施例において CCD103は色差線順次型補色フィルタを前面に有する単 板 CCDを想定する。図 11Aは色差線順次型の色フィルタの構成を示す。図 11Aは 8 X 8画素の局所領域の構成、図 11Bは輝度 Z色差信号への分離、図 11Cはエッジ成 分の抽出、をそれぞれ示している。
[0160] 色差線順次方式は 2 X 2画素を基本単位とし、シアン (Cy),マゼンタ (Mg),イェロー( Ye),緑 (G)が 1画素ずつ配置される。ただし、 Mgと Gの位置はラインごとに反転してい る。バッファ 107内の映像信号は抽出部 112へ転送される。抽出部 112は、制御部 119 の制御に基づき図 11 Aに示されるような 4 X 4画素の注目領域および 4 X 4画素の近傍 領域力もなる 8 X 8画素の局所領域を順次抽出し、 Y/C分離部 113および選択部 114 へ転送する。この場合、抽出部 112は注目領域が全信号をカバーするよう、局所領域 を 2行 2列オーバーラップしながら抽出する。 Y/C分離部 113は、制御部 119の制御に 基づき注目領域およぶ近傍領域から輝度信号 Yおよび色差信号 Cb, Crを (17)式に 基づき 2 X 2画素単位に算出する
17]
Y = Cy + Ye + G + Mg
Cb = (Cy + Mg)-(Ye + GJ ( 17) Cr = (Ye + Mg)- (Cy + G) すなわち、輝度信号および色差信号は、 4 X 4画素の注目領域および近傍領域に関 して 9点ずつ算出されることになる。図 11Bは、注目領域および近傍領域単位で (17) 式に基づき算出される輝度信号および色差信号を示す。算出された輝度信号およ び色差信号は選択部 114へ転送される。選択部 114は、制御部 119の制御に基づき Y /C分離部 113からの輝度信号および色差信号を用い、注目領域と類似する近傍領 域を選択する。上記注目領域と選択された近傍領域および対応する輝度信号と色差 信号は、ノイズ推定部 115およびノイズ低減部 116へ転送される。また、選択された近 傍領域に関する重み係数も算出され、ノイズ推定部 115へ転送される。
[0161] ノイズ推定部 115は、制御部 119の制御に基づき抽出部 112からの注目領域,選択さ れた近傍領域,輝度信号,色差信号,重み係数およびその他の撮影時の情報に基 づきノイズ量を推定し、これをノイズ低減部 116へ転送する。ノイズ低減部 116は、制御 部 119の制御に基づき抽出部 112からの注目領域,輝度信号,色差信号、ノイズ推定 部 115からのノイズ量に基づき注目領域のノイズ低減処理を行!、、処理後の注目領 域を信号処理部 117へ転送する。
[0162] 上記抽出部 112, Y/C分離部 113,選択部 114,ノイズ推定部 115,ノイズ低減部 116 における処理は、制御部 119の制御に基づき局所領域単位で同期して行われる。信 号処理部 117は、制御部 119の制御に基づきノイズ低減後の映像信号に対して、公知 の強調処理や圧縮処理などを行い、出力部 118へ転送する。出力部 118は、メモリー カードなどへ信号を記録保存する。
[0163] 図 12は図 10の選択部 114の構成の一例を示すもので、本発明の実施例 1の図 3〖こ 示される選択部 114にエッジ算出部 600が追加され、勾配算出部 202および色相クラ ス用 ROM204が削除された形態になつて 、る。基本構成は図 3に示す選択部 114と同 等であり、同一の構成には同一の名称と番号を割り当てている。以下、異なる部分の み説明する。 Y/C分離部 113は、微小変動除去部 200へ接続している。微小変動除 去部 200は、バッファ 1201を介して色相算出部 203へ接続している。バッファ 2205は エッジ算出部 600へ、エッジ算出部 600は類似度判断部 206へ接続している。制御部 1 19は、エッジ算出部 600と双方向に接続されている。 Y/C分離部 113からの注目領域 および近傍領域の輝度信号と色差信号は、微小変動除去部 200およびバッファ 2205 へ転送される。微小変動除去部 200は、色差信号の下位ビットをシフト処理することで 微小変動成分を除去し、バッファ 1201へ転送する。色相算出部 203は、制御部 119の 制御に基づきバッファ 1201の注目領域および近傍領域の色差信号から (9)式に基づ き色相信号 Hを求める。注目領域および近傍領域からは、図 11Bに示されるように 9点 ずつの色相信号が得られるが、これを平均化することで各領域の色相信号とする。算 出された色相信号は、類似度判断部 206へ転送される。一方、エッジ算出部 600は制 御部 119の制御に基づきバッファ 2205から注目領域および近傍領域の輝度信号を読 み込む。各領域の輝度信号に対して (18)式に示される 3 X 3のラプラシアンオペレー タを適用することでエッジ強度値 Eを算出する。
[0164] [式 18] 1 - 1 - 1
1 8 - 1 ( 18) 1 - 1 - 1 本実施例では、注目領域および近傍領域は図 11Bに示されるように 9点ずつの輝度 信号を有するため、エッジ強度値は図 11Cに示されるよう各領域に対して 1点ずつ算 出されることになる。算出されたエッジ強度値は類似度判断部 206へ転送される。類 似度判断部 206は、制御部 119の制御に基づきノ ッファ 2205から注目領域および近 傍領域の輝度信号を読み込む。類似度判断部 206は、色相算出部 203からの上記色 相信号とエッジ算出部 600からの上記エッジ強度値と輝度信号に基づき注目領域と 近傍領域の類似度を判断する。これは、「注目領域の色相信号 H ±25%の範囲に近
0
傍領域の色相信号 Hiが属する」かつ「注目領域のエッジ強度値 E ±20%の範囲に近
0
傍領域のエッジ強度値 Eiが属する」かつ「注目領域の輝度信号 Y ±20%の範囲に近
0
傍領域の輝度信号 Yiが属する」条件を満たす近傍領域を類似度が高 ヽと判断し、上 記判断結果を近傍領域選択部 207,係数算出部 208へ転送する。以後の処理は、図 3に示す本発明の実施例 1と同様である。
[0165] なお、上記実施例では注目領域と近傍領域の類似度の判断に、輝度,色相,エツ ジ強度を用いたが、このような構成に限定される必要はない。例えば、図 13に示され るように、周波数情報を用いることも可能である。図 13は、図 12におけるエッジ算出部 600を DCT変換部 700へ置換したもので、基本構成は図 12に示す選択部 114と同等で あり、同一の構成には同一の名称と番号を割り当てている。以下、異なる部分のみ説 明する。ノ ッファ 2205は DCT変換部 700へ、 DCT変換部 700は類似度判断部 206へ 接続している。制御部 119は、 DCT変換部 700と双方向に接続されている。 DCT変換 部 700は、制御部 119の制御に基づきノッファ 2205から注目領域および近傍領域の 輝度信号を読み込む。各領域の輝度信号に対して公知の DCT変換を行う。変換後 の周波数信号は、類似度判断部 206へ転送される。類似度判断部 206では、類似度 判断部 206は、色相算出部 203からの上記色相信号と DCT変換部 700からの上記周 波数信号と輝度信号に基づき注目領域と近傍領域の類似度を判断する。
[0166] 図 14は図 10のノイズ推定部 115の構成の一例を示すもので、本発明の実施例 1の 図 5に示されるノイズ推定部 115にルックアップテーブル部 800が追加され、パラメータ 用 ROM304,パラメータ選択部 305,補間部 306,補正部 307が省略された形態になつ ている。基本構成は図 5に示すノイズ推定部 115と同等であり、同一の構成には同一 の名称と番号を割り当てている。以下、異なる部分のみ説明する。平均算出部 301, ゲイン算出部 302,標準値付与部 303は、ルックアップテーブル部 800へ接続している 。ルックアップテーブル部 800は、ノイズ低減部 116へ接続している。制御部 119は、ル ックアップテーブル部 800へ双方向に接続されている。平均算出部 301は、制御部 11 9の制御に基づきバッファ 300から輝度信号および色差信号を読み込み、重み係数を 用いて局所領域に対する輝度信号および色差信号の平均値 AV , AVcb, AVerを算
Y
出する。上記輝度信号および色差信号の平均値はルックアップテーブル部 800へ転 送される。ゲイン算出部 302は、制御部 119から転送される ISO感度および露光条件 およびホワイトバランス係数に関する情報に基づき Gainl05における増幅量を求め、 ルックアップテーブル部 800へ転送する。また、制御部 119は温度センサー 121から C CD103の温度情報を得て、これをルックアップテーブル部 800へ転送する。
[0167] ルックアップテーブル部 800は、平均算出部 301からの輝度信号および色差信号の 平均値,ゲイン算出部 302からのゲインの情報,制御部 119からの温度情報に基づき ノイズ量を推定する。ルックアップテーブル部 800は、温度,信号値レベル,ゲイン,シ ャッター速度とノイズ量間の関係を記録したルックアップテーブルで、実施例 1と同等 の手法により構築される。ルックアップテーブル部 800で得られたノイズ量はノイズ低 減部 116へ転送される。また、標準値付与部 303は実施例 1と同様に、いずれかのパ ラメータが省略された場合に標準値を与える機能を受け持つ。
[0168] 上記構成により、信号レベル,撮影時の温度,ゲインなどの動的に変化する条件に 対応したノイズ量の推定および画面全体での最適なノイズ低減が可能となり、高品位 な信号が得られる。上記情報が得られな 、場合でも標準値を用いることでノイズ量の 推定を行うため安定したノイズ低減効果が得られる。さら〖こ、一部のパラメータ算出を 意図的に省略することで低コスト,省電力化を可能とする信号処理システムが提供で きる。また、ノイズ低減処理を行う注目領域と類似する近傍領域を色相,輝度,エッジ ,周波数情報に基づき選択後、これをあわせて処理を行うため、より広い範囲を用い てのノイズ量推定が可能となり、推定の精度を向上することができる。
[0169] さらに、色ノイズ量と輝度ノイズ量を独立に推定することで、各々の推定精度を向上 できる。ノイズ量の算出にルックアップテーブルを用いているため、高速なノイズ量の 推定が可能となる。また、ノイズ低減処理はノイズ量カゝら許容範囲を設定するため、 原信号の保存性に優れ不連続性の発生を防止した低減処理が可能となる。
[0170] さらに、ノイズ低減処理後の信号を本来の信号として出力するため、従来の処理系 との互換性が維持され、多様なシステムの組み合わせが可能となる。また、色差線順 次方式の色フィルタ配置にあわせて輝度信号と色差信号を求めるため、高速な処理 が可能となる。なお、上記実施例では補色系の色差線順次方式の単板 CCDを例に 説明したがこれに限定される必要はない。例えば、実施例 1で示した原色 Bayer型に も同様に適応可能である。また、二板,三板 CCDにも適用可能である。
[0171] さらに、上記実施例ではハードウェアによる処理を前提としていた力 このような構 成に限定される必要はない。例えば、 CCD103からの信号を未処理のままの生デー タとして、制御部 119からの撮影時の温度,ゲイン,シャッター速度などをヘッダ情報 として出力し、別途ソフトウェアにて処理する構成も可能である。
[0172] 図 15は、ノイズ低減処理のソフトウェア処理に関するフローを示す。なお、図 9に示 す本発明の実施例 1におけるノイズ低減処理のフローと同一な処理ステップに関して は、同一なステップ番号を割り当てている。ステップ S1にて、信号と温度,ゲインなど のヘッダ情報を読み込む。ステップ S2にて、図 11Aに示されるような注目領域および 近傍領域から構成される局所領域を抽出する。ステップ S3にて、(17)式に示されるよ うに輝度信号および色差信号に分離する。ステップ S4にて、局所領域内の注目領域 および近傍領域から (9)式に基づき色相信号を算出する。ステップ S20にて、(18)式に 示されるラプラシアンオペレータを適用することでエッジ強度値を算出する。ステップ S5にて、ステップ S4からの色相情報およびステップ S3からの輝度情報およびステツ プ S20からのエッジ情報に基づき、各近傍領域と注目領域との類似度を判断する。ス テツプ S6にて、(3)式に示される重み係数を算出する。ステップ S7にて、ステップ S5か らの類似度に基づき注目領域および類似度が高!ヽと判断された近傍領域の輝度信 号および色差信号をステップ S3から選択する。ステップ S8にて、(4)式に示される輝 度信号および色差信号の平均値を算出する。ステップ S9にて、読み込まれたヘッダ 情報から温度,ゲインなどの情報を設定する。もし、ヘッダ情報に必要なパラメータが 存在しない場合は所定の標準値を割り当てる。ステップ S21にて、ルックアップテープ ルを用いてノイズ量を算出する。
[0173] ステップ S13にて、注目領域の輝度信号および色差信号が (10)式に示される許容 範囲内に属する力否かを判断し、属する場合はステップ S 14へ、属さない場合はステ ップ S15へ分岐する。ステップ S14にて、(11)式に示される処理を行う。ステップ S15に て、(13)式,(15)式に示される処理を行う。ステップ S16にて、全局所領域が完了した かを判断し、完了していない場合はステップ S2へ、完了した場合はステップ S 17へ分 岐する。ステップ S 17にて、公知の強調処理や圧縮処理などが行われる。ステップ S1 8にて、処理後の信号が出力され終了する。
[0174] 以上述べたように、本発明によれば、信号レベルのみならず撮影時の温度,ゲイン などの動的に変化する要因に対応した色信号および輝度信号のノイズ量のモデル 化を行い、これにより撮影状況に最適化されたノイズ低減処理が可能となる。また、ノ ィズ低減処理を、輝度ノイズと色ノイズに対して独立に行うことで、両者のノイズを高 精度に低減し、高品位な信号を生成することができる。
産業上の利用可能性
[0175] 本発明は、撮像装置や画像読取装置など、撮像素子系に起因する色信号および 輝度信号のランダムノイズの低減を高精度に行うことが必要な装置に広く利用するこ とが可能である。

Claims

請求の範囲
[1] 色フィルタを前面に配置した撮像素子力ゝらの信号に対しノイズ低減処理を行う信号 処理システムにおいて、
上記信号からノイズ低減処理を行う注目領域および注目領域近傍にある少なくとも
1つ以上の近傍領域から成る局所領域を抽出する抽出手段と、
上記注目領域および上記近傍領域ごとに輝度信号および色差信号を算出する分 離手段と、
上記注目領域と類似する上記近傍領域を選択する選択手段と、
上記注目領域および上記選択手段で選択された近傍領域からノイズ量を推定する ノイズ推定手段と、
上記ノイズ量に基づき上記注目領域のノイズを低減するノイズ低減手段と、 を有することを特徴とする信号処理システム。
[2] 請求項 1における撮像素子は、
R (赤), G (緑) , B (青)べィヤー型原色フィルタを前面に配置した単板撮像素子、 または Cy (シアン) , Mg (マゼンタ) , Ye (イェロー), G (緑)色差線順次型補色フィル タを前面に配置した単板撮像素子であることを特徴とする信号処理システム。
[3] 請求項 1における注目領域および近傍領域は、
上記輝度信号および上記色差信号を算出するに必要となる色フィルタの組を少な くとも 1組以上含む領域、であることを特徴とする信号処理システム。
[4] 請求項 1における選択手段は、
上記注目領域および上記近傍領域ごとに色相信号を算出する色相算出手段と、 上記輝度信号および上記色相信号の少なくとも 1つに基づき上記注目領域と上記 近傍領域の類似度を判断する類似度判断手段と、
上記類似度に基づき上記近傍領域を選択する近傍領域選択手段と、 を更に有することを特徴とする信号処理システム。
[5] 請求項 1における選択手段は、
上記注目領域および上記近傍領域ごとに色相信号を算出する色相算出手段と、 上記注目領域および上記近傍領域ごとにエッジ信号を算出するエッジ算出手段と 上記輝度信号および上記色相信号および上記エッジ信号の少なくとも 1つに基づ き上記注目領域と上記近傍領域の類似度を判断する類似度判断手段と、
上記類似度に基づき上記近傍領域を選択する近傍領域選択手段と、 を更に有することを特徴とする信号処理システム。
[6] 請求項 1における選択手段は、
上記注目領域および上記近傍領域ごとに色相信号を算出する色相算出手段と、 上記注目領域および上記近傍領域ごとに周波数信号を算出する周波数算出手段 と
上記輝度信号および上記色相信号および上記周波数信号の少なくとも 1つに基づ き上記注目領域と上記近傍領域の類似度を判断する類似度判断手段と、
上記類似度に基づき上記近傍領域を選択する近傍領域選択手段と、 を更に有することを特徴とする信号処理システム。
[7] 請求項 1における選択手段は、
上記ノイズ推定手段と上記ノイズ低減手段で使用する上記近傍領域を異なるよう制 御する制御手段を更に有することを特徴とする信号処理システム。
[8] 請求項 4, 5又は 6における選択手段は、
上記注目領域および上記近傍領域の信号から所定の微小変動を除去するための 除去手段を更に有することを特徴とする信号処理システム。
[9] 請求項 4, 5又は 6における選択手段は、
上記類似度に基づき上記近傍領域に対する重み係数を算出する係数算出手段を 更に有することを特徴とする信号処理システム。
[10] 請求項 1におけるノイズ推定手段は、
上記注目領域および上記選択手段で選択された近傍領域から色ノイズ量を推定 する色ノイズ推定手段または上記注目領域および上記選択手段で選択された近傍 領域から輝度ノイズ量を推定する輝度ノイズ推定手段の少なくとも一つを有すること を特徴とする信号処理システム。
[11] 請求項 10における色ノイズ推定手段は、
上記撮像素子の温度値および上記信号に対するゲイン値に関する情報を収集す る収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目領域および上記選択手段で選択された近傍領域から平均色差値を算出 する平均色差算出手段と、
上記収集手段または上記付与手段からの情報および上記平均色差値に基づき色 ノイズ量を求める色ノイズ量算出手段と、
を更に有することを特徴とする信号処理システム。
[12] 請求項 10における輝度ノイズ推定手段は、
上記撮像素子の温度値および上記信号に対するゲイン値に関する情報を収集す る収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目領域および上記選択手段で選択された近傍領域から平均輝度値を算出 する平均輝度算出手段と、
上記収集手段または上記付与手段からの情報および上記平均輝度値に基づき輝 度ノイズ量を求める輝度ノイズ量算出手段と、
を更に有することを特徴とする信号処理システム。
[13] 請求項 11又は 12における収集手段は、
上記記撮像素子の温度値を測定する温度センサーを更に有することを特徴とする 信号処理システム。
[14] 請求項 11又は 12における収集手段は、
ISO感度,露出情報,ホワイトバランス情報の少なくとも 1つ以上の情報に基づき上 記ゲイン値を求めるゲイン算出手段を更に有することを特徴とする信号処理システム
[15] 請求項 11における色ノイズ量算出手段は、
所定の色相に対応する基準色ノイズモデルおよび補正係数カゝらなるパラメータ群を 少なくとも 1組以上記録する記録手段と、
上記収集手段または上記付与手段からの情報および上記平均色差値に基づき上 記パラメータ群力 必要となるパラメータを選択するパラメータ選択手段と、 上記平均色差値および上記パラメータ選択手段により選択されたパラメータ群中の 基準色ノイズモデルに基づき補間演算により基準色ノイズ量を求める補間手段と、 上記基準色ノイズ量を上記パラメータ選択手段により選択されたパラメータ群中の 補正係数に基づき補正することで色ノイズ量を求める補正手段と、
を更に有することを特徴とする信号処理システム。
[16] 請求項 15における基準色ノイズモデルは、
色差値に対する色ノイズ量から成る複数の座標点データから構成されることを特徴 とする信号処理システム。
[17] 請求項 11における色ノイズ量算出手段は、
上記収集手段または上記付与手段からの情報および上記平均色差値を入力とし 色ノイズ量を求めるルックアップテーブル手段を更に有することを特徴とする信号処 理システム。
[18] 請求項 12における輝度ノイズ量算出手段は、
基準輝度ノイズモデルおよび補正係数カゝらなるパラメータ群を記録する記録手段と
上記収集手段または上記付与手段からの情報および上記平均輝度値に基づき上 記パラメータ群力 必要となるパラメータを選択するパラメータ選択手段と、
上記平均輝度値および上記パラメータ選択手段により選択されたパラメータ群中の 基準輝度ノイズモデルに基づき補間演算により基準輝度ノイズ量を求める補間手段 と、
上記基準輝度ノイズ量を上記パラメータ選択手段により選択された上記パラメータ 群中の補正係数に基づき補正することで輝度ノイズ量を求める補正手段と、 を更に有することを特徴とする信号処理システム。
[19] 請求項 18における基準輝度ノイズモデルは、
輝度値に対する輝度ノイズ量から成る複数の座標点データから構成されることを特徴 とする信号処理システム。
[20] 請求項 12における輝度ノイズ量算出手段は、
上記収集手段または上記付与手段からの情報および上記平均輝度値を入力とし輝 度ノイズ量を求めるルックアップテーブル手段を更に有することを特徴とする信号処 理システム。
[21] 請求項 1におけるノイズ低減手段は、
上記ノイズ量に基づき上記注目領域から色ノイズを低減する色ノイズ低減手段また は上記ノイズ量に基づき上記注目領域から輝度ノイズを低減する輝度ノイズ低減手 段の少なくとも一つを有することを特徴とする信号処理システム。
[22] 請求項 21における色ノイズ低減手段は、
上記ノイズ推定手段からのノイズ量に基づき上記注目領域にノイズ範囲を設定する 設定手段と、
上記注目領域の色差信号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1の スムージング手段と、
上記注目領域の色差信号に関してノイズ範囲に属さない場合に補正を行う第 2の スムージング手段と、
を更に有することを特徴とする信号処理システム。
[23] 請求項 21における輝度ノイズ低減手段は、
上記ノイズ推定手段からの輝度ノイズ量に基づき上記注目領域にノイズ範囲を設 定する設定手段と、
上記注目領域の輝度信号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1の スムージング手段と、
上記注目領域の輝度信号に関してノイズ範囲に属さない場合に補正を行う第 2の スムージング手段と、
を更に有することを特徴とする信号処理システム。
[24] コンピュータに、
色フィルタを前面に配置した撮像素子力ゝらの信号カゝらノイズ低減処理を行う注目領 域および注目領域近傍にある少なくとも 1つ以上の近傍領域から成る局所領域を抽 出する処理と、
上記注目領域および上記近傍領域ごとに輝度信号および色差信号を算出する処 理と、 上記注目領域と類似する上記近傍領域を選択する処理と、
上記注目領域および上記選択された近傍領域からノイズ量を推定する処理と、 該ノイズ量に基づき上記注目領域のノイズを低減する処理と、
を実行させることを特徴とする信号処理プログラム。
[25] 請求項 24における選択する処理は、
上記注目領域および上記近傍領域ごとに色相信号を算出する処理と、 上記輝度信号および上記色相信号の少なくとも 1つに基づき上記注目領域と上記 近傍領域の類似度を判断する処理と、
上記類似度に基づき上記近傍領域を選択する処理と、
を有することを特徴とする信号処理プログラム。
[26] 請求項 24における選択する処理は、
上記注目領域および上記近傍領域ごとに色相信号を算出する処理と、 上記注目領域および上記近傍領域ごとにエッジ信号を算出する処理と 上記輝度信号および上記色相信号および上記エッジ信号の少なくとも 1つに基づ き上記注目領域と上記近傍領域の類似度を判断する処理と、
上記類似度に基づき上記近傍領域を選択する処理と、
を有することを特徴とする信号処理プログラム。
[27] 請求項 24における選択する処理は、
上記注目領域および上記近傍領域ごとに色相信号を算出する処理と、 上記注目領域および上記近傍領域ごとに周波数信号を算出する処理と 上記輝度信号および上記色相信号および上記周波数信号の少なくとも 1つに基づ き上記注目領域と上記近傍領域の類似度を判断する処理と、
上記類似度に基づき上記近傍領域を選択する処理と、
を有することを特徴とする信号処理プログラム。
[28] 請求項 24における選択する処理は、
上記ノイズ量を推定する処理と上記ノイズを低減する処理で使用する上記近傍領 域を異なるよう制御する処理を有することを特徴とする信号処理プログラム。
[29] 請求項 24におけるノイズ量を推定する処理は、 上記注目領域および上記選択する処理で選択された近傍領域から色ノイズ量を推 定する処理または上記注目領域および上記選択する処理で選択された近傍領域か ら輝度ノイズ量を推定する処理の少なくとも一つを有することを特徴とする信号処理 プログラム。
[30] 請求項 29における色ノイズ量を推定する処理は、
上記撮像素子の温度値および上記信号に対するゲイン値に関する情報を収集す る処理と、
上記収集する処理で得られない情報に関して標準値を付与する処理と、 上記注目領域および上記選択する処理で選択された近傍領域から平均色差値を 算出する処理と、
上記収集する処理または上記付与する処理からの情報および上記平均色差値に 基づき色ノイズ量を求める処理と、
を有することを特徴とする信号処理プログラム。
[31] 請求項 29における輝度ノイズ量を推定する処理は、
上記撮像素子の温度値および上記信号に対するゲイン値に関する情報を収集す る処理と、
上記収集する処理で得られない情報に関して標準値を付与する処理と、 上記注目領域および上記選択する処理で選択された近傍領域から平均輝度値を 算出する処理と、
上記収集する処理または上記付与する処理からの情報および上記平均輝度値に 基づき輝度ノイズ量を求める処理と、
を有することを特徴とする信号処理プログラム。
[32] 請求項 30における色ノイズ量を求める処理は、
所定の色相に対応する基準色ノイズモデルおよび補正係数カゝらなるパラメータ群を 少なくとも 1組以上記録する処理と、
上記収集する処理または上記付与する処理からの情報および上記平均色差値に 基づき上記パラメータ群力 必要となるパラメータを選択する処理と、
上記平均色差値および上記パラメータを選択する処理により選択されたパラメータ 群中の基準色ノイズモデルに基づき補間演算により基準色ノイズ量を求める処理と、 上記基準色ノイズ量を上記パラメータを選択する処理により選択されたパラメータ 群中の補正係数に基づき補正することで色ノイズ量を求める処理と、
を有することを特徴とする信号処理プログラム。
[33] 請求項 30における色ノイズ量を求める処理は、
上記収集する処理または上記付与する処理からの情報および上記平均色差値を 入力とし色ノイズ量を求める処理を有することを特徴とする信号処理プログラム。
[34] 請求項 31における輝度ノイズ量を求める処理は、
基準輝度ノイズモデルおよび補正係数カゝらなるパラメータ群を記録する処理と、 上記収集する処理または上記付与する処理からの情報および上記平均輝度値に 基づき上記パラメータ群力 必要となるパラメータを選択する処理と、
上記平均輝度値および上記パラメータを選択する処理により選択されたパラメータ 群中の基準輝度ノイズモデルに基づき補間演算により基準輝度ノイズ量を求める処 理と、
上記基準輝度ノイズ量を上記パラメータを選択する処理により選択された上記パラ メータ群中の補正係数に基づき補正することで輝度ノイズ量を求める処理と、 を有することを特徴とする信号処理プログラム。
[35] 請求項 31における輝度ノイズ量を求める処理は、
上記収集する処理または上記付与する処理からの情報および上記平均輝度値を 入力とし輝度ノイズ量を求める処理を有することを特徴とする信号処理プログラム。
[36] 請求項 24におけるノイズを低減する処理は、
上記ノイズ量に基づき上記注目領域から色ノイズを低減する処理または上記ノイズ 量に基づき上記注目領域から輝度ノイズを低減する処理の少なくとも一つを有するこ とを特徴とする信号処理プログラム。
[37] 請求項 36における色ノイズを低減する処理は、
上記ノイズ量を推定する処理からのノイズ量に基づき上記注目領域にノイズ範囲を 設定する設定手段と、
上記注目領域の色差信号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1の 処理と、
上記注目領域の色差信号に関してノイズ範囲に属さない場合に補正を行う第 2の 処理と、
を有することを特徴とする信号処理プログラム。
請求項 36における輝度ノイズを低減する処理は、
上記ノイズ量を推定する処理からの輝度ノイズ量に基づき上記注目領域にノイズ範 囲を設定する処理と、
上記注目領域の輝度信号に関してノイズ範囲に属する場合に平滑ィ匕を行う第 1の 処理と、
上記注目領域の輝度信号に関してノイズ範囲に属さない場合に補正を行う第 2の 処理と、
を有することを特徴とする信号処理プログラム。
PCT/JP2005/012478 2004-07-07 2005-07-06 信号処理システム及び信号処理プログラム WO2006004151A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05757820A EP1764738A1 (en) 2004-07-07 2005-07-06 Signal processing system and signal processing program
US11/649,924 US20070132864A1 (en) 2004-07-07 2007-01-03 Signal processing system and signal processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-201091 2004-07-07
JP2004201091A JP2006023959A (ja) 2004-07-07 2004-07-07 信号処理システム及び信号処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/649,924 Continuation US20070132864A1 (en) 2004-07-07 2007-01-03 Signal processing system and signal processing program

Publications (1)

Publication Number Publication Date
WO2006004151A1 true WO2006004151A1 (ja) 2006-01-12

Family

ID=35782951

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/012478 WO2006004151A1 (ja) 2004-07-07 2005-07-06 信号処理システム及び信号処理プログラム

Country Status (4)

Country Link
US (1) US20070132864A1 (ja)
EP (1) EP1764738A1 (ja)
JP (1) JP2006023959A (ja)
WO (1) WO2006004151A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043325A1 (ja) * 2005-10-12 2007-04-19 Olympus Corporation 画像処理システム、画像処理プログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583303B2 (en) * 2005-01-31 2009-09-01 Sony Corporation Imaging device element
JP4265546B2 (ja) * 2005-01-31 2009-05-20 ソニー株式会社 撮像装置、画像処理装置および画像処理方法
EP1976268A1 (en) * 2005-12-28 2008-10-01 Olympus Corporation Imaging system and image processing program
JP4959237B2 (ja) 2006-06-22 2012-06-20 オリンパス株式会社 撮像システム及び撮像プログラム
JP4653059B2 (ja) 2006-11-10 2011-03-16 オリンパス株式会社 撮像システム、画像処理プログラム
JP4523008B2 (ja) 2007-01-10 2010-08-11 学校法人神奈川大学 画像処理装置および撮像装置
JP5052189B2 (ja) 2007-04-13 2012-10-17 オリンパス株式会社 映像処理装置及び映像処理プログラム
JP5165300B2 (ja) * 2007-07-23 2013-03-21 オリンパス株式会社 映像処理装置および映像処理プログラム
JP5012315B2 (ja) * 2007-08-20 2012-08-29 セイコーエプソン株式会社 画像処理装置
JP2009188822A (ja) * 2008-02-07 2009-08-20 Olympus Corp 画像処理装置及び画像処理プログラム
JP2010147568A (ja) * 2008-12-16 2010-07-01 Olympus Corp 画像処理装置、画像処理方法、および、画像処理プログラム
JP5197423B2 (ja) * 2009-02-18 2013-05-15 オリンパス株式会社 画像処理装置
US9204113B1 (en) 2010-06-28 2015-12-01 Ambarella, Inc. Method and/or apparatus for implementing high dynamic range image processing in a video processing system
JP6071419B2 (ja) * 2012-10-25 2017-02-01 キヤノン株式会社 画像処理装置及び画像処理方法
JP6349614B2 (ja) * 2015-05-15 2018-07-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像処理方法及び画像処理システム
US9977986B2 (en) * 2015-11-19 2018-05-22 Streamax Technology Co, Ltd. Method and apparatus for switching a region of interest
WO2021225030A1 (ja) * 2020-05-08 2021-11-11 ソニーセミコンダクタソリューションズ株式会社 電子機器及び撮像装置
KR20220090920A (ko) * 2020-12-23 2022-06-30 삼성전자주식회사 이미지 센서, 이미지 센서의 동작 방법 및 이를 포함하는 이미지 센싱 장치
JP2022137916A (ja) * 2021-03-09 2022-09-22 キヤノン株式会社 画像処理装置、画像形成システム、画像処理方法及びプログラム
KR20220145694A (ko) * 2021-04-22 2022-10-31 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157057A (ja) * 1999-11-30 2001-06-08 Konica Corp 画像読取装置
JP2001175843A (ja) * 1999-12-15 2001-06-29 Canon Inc 画像処理方法、装置および記憶媒体
JP2004128985A (ja) * 2002-10-03 2004-04-22 Olympus Corp 撮像システム、再生システム、撮像プログラム、再生プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980326B2 (en) * 1999-12-15 2005-12-27 Canon Kabushiki Kaisha Image processing method and apparatus for color correction of an image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001157057A (ja) * 1999-11-30 2001-06-08 Konica Corp 画像読取装置
JP2001175843A (ja) * 1999-12-15 2001-06-29 Canon Inc 画像処理方法、装置および記憶媒体
JP2004128985A (ja) * 2002-10-03 2004-04-22 Olympus Corp 撮像システム、再生システム、撮像プログラム、再生プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043325A1 (ja) * 2005-10-12 2007-04-19 Olympus Corporation 画像処理システム、画像処理プログラム
JP2007110338A (ja) * 2005-10-12 2007-04-26 Olympus Corp 画像処理システム、画像処理プログラム
US8019174B2 (en) 2005-10-12 2011-09-13 Olympus Corporation Image processing system, image processing method, and image processing program product

Also Published As

Publication number Publication date
EP1764738A1 (en) 2007-03-21
US20070132864A1 (en) 2007-06-14
JP2006023959A (ja) 2006-01-26

Similar Documents

Publication Publication Date Title
WO2006004151A1 (ja) 信号処理システム及び信号処理プログラム
JP4465002B2 (ja) ノイズ低減システム、ノイズ低減プログラム及び撮像システム。
JP3899118B2 (ja) 撮像システム、画像処理プログラム
JP4547223B2 (ja) 撮像システム、ノイズ低減処理装置及び撮像処理プログラム
JP3934597B2 (ja) 撮像システムおよび画像処理プログラム
JP3762725B2 (ja) 撮像システムおよび画像処理プログラム
JP4054184B2 (ja) 欠陥画素補正装置
JP4427001B2 (ja) 画像処理装置、画像処理プログラム
JP4979595B2 (ja) 撮像システム、画像処理方法、画像処理プログラム
JP4660342B2 (ja) 画像処理システム、画像処理プログラム
JP5165300B2 (ja) 映像処理装置および映像処理プログラム
WO2005104531A1 (ja) 映像信号処理装置と映像信号処理プログラムおよび映像信号記録媒体
US7916187B2 (en) Image processing apparatus, image processing method, and program
WO2008056565A1 (fr) Système d'analyse d'image et programme de traitement d'image
WO2007049418A1 (ja) 画像処理システム、画像処理プログラム
JP5052189B2 (ja) 映像処理装置及び映像処理プログラム
WO2005099356A2 (ja) 撮像装置
JP4916341B2 (ja) 画像処理装置及び画像処理プログラム
JP2004266323A (ja) 撮像システム、画像処理プログラム
JP2009100207A (ja) ノイズ低減システム、ノイズ低減プログラム及び撮像システム
JP2009027615A (ja) 映像処理装置および映像処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005757820

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11649924

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005757820

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11649924

Country of ref document: US