WO2006006373A1 - 画像処理装置およびコンピュータプログラム製品 - Google Patents

画像処理装置およびコンピュータプログラム製品 Download PDF

Info

Publication number
WO2006006373A1
WO2006006373A1 PCT/JP2005/011598 JP2005011598W WO2006006373A1 WO 2006006373 A1 WO2006006373 A1 WO 2006006373A1 JP 2005011598 W JP2005011598 W JP 2005011598W WO 2006006373 A1 WO2006006373 A1 WO 2006006373A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
gradation
signal
image processing
offset
Prior art date
Application number
PCT/JP2005/011598
Other languages
English (en)
French (fr)
Inventor
Kenichi Ishiga
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US11/631,170 priority Critical patent/US7957588B2/en
Priority to EP05753013A priority patent/EP1781043B1/en
Priority to JP2006528611A priority patent/JP4910699B2/ja
Publication of WO2006006373A1 publication Critical patent/WO2006006373A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Definitions

  • the present invention relates to an image processing technique that uses a gradation space suitable for processing an image including noise, particularly an image including noise of an image sensor.
  • Patent Document 2 a color component signal is preliminarily assigned to a gamma space (R 1 / r , G 1) in accordance with compression processing after interpolation processing, display display processing, and the like. / r , B 1 / r ), and a technique for suppressing quantization error due to repeated gradation conversion by performing image processing such as interpolation processing in this gamma space in a single image is disclosed.
  • Patent Document 3 discloses a technique for obtaining a clear image by converting the color component signal into a gamma space having a square root characteristic and performing an interpolation process in the gamma space to suppress the influence of the side noise included in the image. It is disclosed.
  • Patent Document 1 US Patent No. 4642678
  • Patent Document 2 U.S. Pat.No. 5,172,227
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-7164
  • the image processing apparatus includes: an image input unit that inputs a linear gradation image signal represented by a signal proportional to the amount of received light by each pixel; and a linear gradation image signal.
  • Offset means for applying a predetermined amount of offset signal to the image
  • gradation converting means for converting each of the image signals to which the offset signal has been added into an image signal having a square root gradation
  • image conversion means for performing predetermined image processing using image signals of a plurality of pixels after gradation conversion and converting the first image into the second image.
  • the image processing apparatus includes a plurality of types of color component signals each having at least one color component signal in each pixel, each represented by a signal proportional to the amount of received light.
  • An image input means for inputting an image signal of linear gradation, an offset means for applying a predetermined amount of offset signal to each of the image signals of linear gradation, and each of the image signals to which the offset signal is added are square roots.
  • Gradation conversion means for converting to a gradation image signal; and color information generation means for generating at least one common color component signal for each pixel by using the image signals of a plurality of pixels after gradation conversion.
  • the input image signal further has a fluctuation amount of the image signal represented by a constant width in the gradation space after gradation conversion.
  • the image conversion unit is configured to convert the first image into the second image using the representative value obtained by the noise evaluation unit.
  • a stage may be configured.
  • the input image signal further has a fluctuation amount of the image signal represented by a constant width in the gradation space after gradation conversion.
  • color is generated so as to generate at least one common color component signal for each pixel using the representative value obtained by the noise evaluation means. You may configure the information generation means.
  • the image processing apparatus includes: an image input unit that inputs a linear gradation image signal represented by a signal proportional to the amount of light received by each pixel; and a linear gradation image signal.
  • Offset means for applying a predetermined amount of offset signal to the image
  • gradation conversion means for converting each of the image signals to which the offset signal has been added to an image signal of non-linear gradation, and an image of a plurality of pixels after gradation conversion
  • Image conversion means for performing predetermined image processing using the signal and converting the first image into the second image;
  • the image processing apparatus includes a plurality of types of color component signals each having at least one color component signal in each pixel, each represented by a signal proportional to the amount of received light.
  • An image input means for inputting a linear gradation image signal, an offset means for adding a predetermined amount of offset signal to each of the linear gradation image signals, and each of the image signals to which the offset signal has been added are nonlinear Gradation conversion means for converting to a gradation image signal; and color information generation means for generating at least one common color component signal for each pixel by using the image signals of a plurality of pixels after gradation conversion.
  • the offset means may be configured to make the predetermined amount a positive value.
  • V is set to the image sensor at the time of capturing an input image, and a predetermined amount is set according to the imaging sensitivity.
  • the offset means may be configured to change the value.
  • the offset means may be configured to increase the predetermined amount as the imaging sensitivity is higher.
  • the image processing apparatus further includes an inverse step for inversely converting each of the converted second image signals into linear gradation image signals.
  • a tone conversion means, and a reverse offset means for reducing a predetermined amount of offset signal for each of the image signals after inverse gradation conversion.
  • the image processing apparatus further includes a live Each of the generated color component signal image signals is inversely converted to a linear gradation image signal, and each of the image signals after the inverse gradation conversion is inversely subtracted by a predetermined amount of offset signal. You may have offset means.
  • the image processing device includes: an image input unit that inputs a linear gradation image signal represented by a signal that is proportional to the amount of light received by each pixel; and a linear gradation image signal. Performs predetermined image processing using the tone conversion means for converting the image signal into a non-linear tone image signal and the multi-pixel image signal after the tone conversion, and converts the first image into the second image.
  • the image processing apparatus includes a plurality of types of color component signals each having at least one color component signal in each pixel, and each image is a linear gradation image represented by a signal proportional to the amount of received light.
  • Each of the image input means for inputting the signal and the linear gradation image signal A tone conversion unit that converts the image signal into a non-linear tone image signal, a color information generation unit that generates at least one common color component signal for each pixel using the image signal of the plurality of pixels after the tone conversion,
  • a control means for controlling the gradation converting means so as to change the nonlinear gradation characteristic in accordance with the imaging sensitivity set in the image sensor at the time of capturing the input image.
  • the lower the imaging sensitivity the larger the curvature of the gradation characteristic on the lower luminance side, and the higher the imaging sensitivity, the smaller the gradation characteristic on the lower luminance side.
  • a control means may be configured to control the conversion means.
  • the gradation conversion means is controlled so as to approach the square root gradation characteristic as the imaging sensitivity is lower. You may configure the control means to do this.
  • a color component signal common to each pixel is used, and at least two types of color component signals are used. You can configure the color information generation means to generate immediately! / ⁇ .
  • similarity is calculated in at least two directions using the non-linear color component signals of a plurality of pixels after gradation conversion, and the similarity in each direction is calculated. By comparing the difference between the degrees with a predetermined threshold value, the degree of similarity in each direction is determined, and the color information generation means is configured to generate a color component signal common to each pixel using the determination result. You can configure it.
  • the computer program product includes an offset process for adding a predetermined amount of an offset signal to each linear gradation image signal in which each pixel is represented by a signal proportional to the amount of received light. Then, each of the image signals after the offset processing is converted into a non-linear gradation image signal, and predetermined image processing is performed using the image signals of a plurality of pixels after the gradation conversion processing. And an image processing program for executing an image conversion process for converting the first image into the second image.
  • the computer program product converts gradation image signals each of which represents a linear gradation represented by a signal proportional to the amount of received light into a non-linear gradation image signal.
  • Processing and image conversion processing for converting the first image into the second image by performing predetermined image processing using the image signals of the plurality of pixels after the gradation conversion processing, and the image sensor at the time of image capturing
  • an image processing program for executing a gradation control process for changing the nonlinear gradation characteristic in accordance with the set imaging sensitivity.
  • the image input unit may be replaced with image input means.
  • the offset unit may be replaced with an offset unit.
  • the gradation conversion unit may be replaced with gradation conversion means.
  • the image conversion unit may be replaced with image conversion means.
  • the color information generation unit may be replaced with color information generation means.
  • the noise evaluation unit may be replaced with noise evaluation means.
  • the above reverse gradation conversion unit may be replaced with reverse gradation conversion means.
  • the reverse offset unit may be replaced with reverse offset means.
  • the control unit may be replaced with control means.
  • Image processing can be performed using a gradation space that is not easily affected by the shift.
  • FIG. 1 is a diagram showing a bay arrangement.
  • FIG. 2 is a flowchart illustrating the flow of image interpolation processing according to the present invention.
  • FIG. 3 is a diagram for explaining a program provision form.
  • ⁇ 4 It is a diagram for explaining pixel positions when G color interpolation is performed.
  • FIG. 5 is a diagram for explaining pixel positions when G color interpolation is performed.
  • FIG. 6 is a diagram for explaining pixel positions when R color interpolation is performed.
  • FIG. 7 is a diagram for explaining pixel positions when R color interpolation is performed.
  • FIG. 8 is a diagram for explaining pixel positions when B color interpolation is performed.
  • FIG. 9 is a diagram for explaining pixel positions when B color interpolation is performed.
  • FIG. 10 is a diagram illustrating signal characteristics of the image sensor.
  • FIG. 11 is a schematic diagram for explaining a uniform noise space.
  • FIG. 12 is a diagram showing input / output characteristics of each gradation space.
  • FIG. 13 is a diagram showing input / output characteristics of each gradation space.
  • FIG. 14 is a flowchart illustrating the flow of image processing according to the second embodiment.
  • FIG. 15 is a diagram for explaining high-pass filter processing.
  • FIG. 16 is a diagram illustrating low-pass filter processing.
  • FIG. 1 is a diagram showing a bay arrangement.
  • An image signal output from an image sensor provided with such a color filter has information of any one color component of RGB per pixel. That is, the R color information is output from the pixel corresponding to the R color filter, the G color information is output from the pixel corresponding to the G color filter, and the pixel corresponding to the B color filter. Will output B color information.
  • pixel information corresponding to the R color filter as an example, there is no information on the G component and B component, only on the R component information. Therefore, all the pixels that make up the image
  • FIG. 2 is a flowchart for explaining the flow of image interpolation processing according to the present invention.
  • an image processing apparatus is provided by causing a computer apparatus 100 shown in FIG. 3 to execute a program for performing the processing shown in FIG.
  • the program is loaded into the personal computer 100, it is used as an image processing device by loading the program in the data storage device of the personal computer 100 and then executing the program.
  • the loading of the program may be performed by setting a recording medium 104 such as a CD-ROM storing the program in the personal computer 100, or to the personal computer 100 by a method via the communication line 101 such as a network. You may load.
  • the program is stored in the hard disk device 103 of the server computer 102 connected to the network 101.
  • the program is supplied as various forms of computer program products such as provision via the recording medium 104 and the communication line 101.
  • step S1 of FIG. 2 the CPU of computer device 100 (FIG. 3) inputs an image signal (bay signal) expressed in a linear gradation space, and proceeds to step S2. Specifically, the image data to be interpolated is read out to the work area. At this time, if each color component is expressed in a tone-corrected tone space, the signal value is returned to the linear tone space before gamma correction.
  • an image signal (bay signal) expressed in a linear gradation space
  • step S2 the CPU performs an offset process on the image signals corresponding to all the pixels constituting the image, and then proceeds to step S3. Specifically, as shown in the following equation (1), the offset ⁇ is added to the signal value X [i, j] corresponding to the pixel indicated by the pixel position [i, j], and the signal value X after the offset processing is added. 'Get [i, j].
  • the offset ⁇ is the imaging sensitivity (referred to as IS O sensitivity).
  • 0.05 ⁇ max for ISO6400
  • 0.02Xmax for ISO1600
  • 0 for ISO200 and below.
  • Xmax is the maximum number of gradations (ie, full scale value) of the input image signal X. That is, the range of the linear input gradation signal X is 0 ⁇ X ⁇ Xma X.
  • a common offset ⁇ is provided for the R component, G component, and B component.
  • step S3 the CPU performs gamma correction on the square root gradation space by the following equation (2) for the signal value X ′ [i, j] after the offset process, and then proceeds to step S4.
  • the square root tone space after gamma correction is a space for interpolation processing.
  • the range of signal Y after gradation conversion is 0 ⁇ Y ⁇ Ymax.
  • step S4 the CPU performs an interpolation process as follows.
  • a pixel having R component color information is called an R pixel
  • a pixel having B component color information is called a B pixel
  • a pixel having G component color information is called a G pixel
  • the pixel position in the interpolation processing space [ The signal value of the R component corresponding to the pixel indicated by i, j] is R [i, j]
  • the signal value of the G component is G [i, j]
  • the signal value of the B component is B [i, j] I will represent it.
  • the CPU determines the vertical similarity CvN [i, j] and the horizontal similarity ChN [i, j for the non-G pixel (R pixel or B pixel) indicated by the pixel position [i, j]. ] Are calculated by the following equations (3) and (4), respectively.
  • Ch [i, j] ⁇ iG [i-1, j] -G [i + 1J]
  • Z [i, j] is the R component or B component signal value indicated by the pixel position [i, j].
  • the absolute value of the first term in the above formulas (3) and (4) is used to detect a large directionality by comparing the G color components.
  • the absolute values of the second and third terms in Equations (3) and (4) detect fine similarities that cannot be detected by the first term.
  • the CPU calculates the vertical similarity and horizontal similarity obtained by the above equations (3) and (4) for each coordinate, and calculates the vertical and horizontal similarity at the target coordinates [i, j]. Based on this, the direction of similarity is determined by the following equation (5). [0019] [Equation 2]
  • HV [i, j] indicates the direction of similarity with respect to the pixel position [i, j].
  • the CPU interpolates the G component using the R / B component unevenness information.
  • G color interpolation is calculated by the following formulas (6) and (9) when the vertical direction is similar to the position [i, j] of the center R pixel shown in Fig. 4, for example, and when the horizontal direction is similar Is calculated by the following equations (7) and (10).
  • Figure 5 shows the pixel position when G color interpolation is performed for the B pixel position.
  • Gv [i, j] (G [i, j-1] + G [i, j + 1]) / 2 + ⁇ 2 * Z [i t i3-ZEi, j-2] -Z [i, j + 2]) / 4 (9)
  • Gh [i, j] (G [i-1, j] + G [i + 1, j]) / 2 + (2 * Z [i, j] -2 [ i-2, j] -Z [i + 2, j]) / 4 ( 10 ) where Z [i, j] is the R component or B component signal value indicated by pixel position [i, j] .
  • the first term in the above equation (9) is obtained from the G component signal values G [i, j-1] and G [i, j + 1] vertically aligned with respect to the pixel position [i, j]. Represents the calculated average value.
  • the second term in Eq. (9) is the amount of change calculated from the R component signal values R [i, j], R [i, j-2] and R [i, j + 2] that are aligned vertically. Represents.
  • the G component complement value G [i, j] is obtained.
  • this interpolation is called extrapolation because it can predict other than the G component internal dividing point.
  • the CPU calculates G color interpolation values by the above formulas (9) and (10), respectively, and calculates the average of the two calculated G color interpolation values. Is used as the G color interpolation value.
  • R color interpolation is performed at pixel positions [i + l, j], [i, j + 1], [i + l, j + l] other than the R pixel position [i, j] shown in FIG.
  • it is calculated by the following equations (11) to (13), respectively.
  • the unevenness information of the G component signal values (Fig. 7) corresponding to all pixel positions obtained by the G interpolation described above is used.
  • R [i, j + 1] (R [i, j] + R [i, j + 2 ⁇ ) / 2 + ⁇ 2 * G [i, i + 1] -G [i t j] -Gtl, j + 2
  • R ⁇ i + 1, j + 1] (R [l, jl + R [: + 2, j] + R [i,] + 2] + R [i + 2, j + 2]) / 4
  • the first term in the above equations (11) to (13) represents an average value calculated from the R component signal values adjacent to the coordinates subject to R component interpolation
  • Interpolation is performed for B component interpolation in the same way as for R component. For example, for the pixel positions [i + l, j], [U + l], [i + l, j + l] other than the position [U] of the B pixel shown in FIG. Calculated from 4) to (16). At this time, the unevenness information of the G component signal values (FIG. 9) corresponding to all the pixel positions obtained by the G interpolation described above is used.
  • the B component interpolation value is obtained by adding the amount of change in the G component signal value to the average value of the B component signal value.
  • step S6 the CPU performs reverse offset processing on the image signals corresponding to all the pixels, and proceeds to step S7. Specifically, as shown in the following equation (18), the signal value after the inverse offset processing is performed by subtracting the offset ⁇ from the signal value X ′ [i, j] corresponding to the pixel indicated by the pixel position [U]. Get X [i, j].
  • step S7 the CPU outputs the restored image, that is, the image signal (RGB signal) expressed in the linear gradation space, and ends the processing in FIG.
  • the CPU uses this RGB signal for final gamma correction (for example, correction suitable for the display monitor to be used) and color adjustment (adjusted by the user or converted to a device-independent color space). Adjust) if necessary.
  • noises are included in the image signal output from the image sensor. Noise is roughly divided into random noise and fixed pattern noise. Random noise is further divided into shot noise and dark noise. And classified.
  • Shot noise and dark noise are noise caused by characteristics of photoelectric conversion elements such as photodiodes that constitute pixels of the image sensor. Shot noise is noise generated by fluctuations in photons, and increases in proportion to the square root of the incident light quantity. Dark noise includes dark current noise, which occurs regardless of the amount of incident light, and increases in proportion to the analog gain. Analog gain is a parameter that determines ISO sensitivity.
  • FIG. 10 is a diagram for explaining the signal characteristics of the image sensor.
  • the horizontal axis represents the illuminance on the imaging surface, and the vertical axis represents the number of electrons in the signal.
  • Line 11 represents the optical signal and indicates that the optical signal (number of electrons) increases in proportion to the amount of incident light.
  • Line 12 represents light shot noise, and shows that the noise (number of electrons) increases in proportion to the 1Z square of the incident light intensity.
  • Line 13 represents dark noise, indicating that there is noise (number of electrons) regardless of the amount of incident light! /
  • total noise ⁇ X is expressed by the following equation (19).
  • Ns is shot noise and Nd is dark noise.
  • X is the signal level immediately after A / D conversion and has already been amplified by analog gain. Also, X is normalized / divided by the maximum value of the number of gradations of the input signal (ie, full scale value) for convenience!
  • Shot noise and dark noise can be modeled by the following equations (20) and (21), respectively.
  • Ns (g) ms X ⁇ (g X x) (20)
  • Nd (g) md X g + nd (21)
  • n and n are noise model parameters
  • g is the analog gain (ie, the ISO sensitivity set for the image sensor!).
  • the space for interpolation processing (referred to as a square root gradation space with an offset) converted by the square root gamma processing (step S3) after the offset processing (step S2) described above is expressed by the following equation (23). Is done.
  • FIG. 11 is a schematic diagram for explaining the uniform noise space.
  • the horizontal axis represents the input value X of the linear gradation signal
  • the vertical axis represents the output value y after gradation conversion.
  • the error ⁇ y is superimposed on the output value y represented by the curve 23, and this error ⁇ y is always a constant value a (g) regardless of the value of the input value X.
  • the noise fluctuation width is always constant regardless of the brightness of the image (the magnitude of the input value).
  • Figure 12 shows a linear tone space, a square root tone space, and a square root tone space with an offset. It is a figure which shows each input-output characteristic in.
  • the horizontal axis represents the linear gradation signal input value X
  • the vertical axis represents the output value y after gradation conversion.
  • the straight line 21 shows the input / output characteristics at the time of linear transformation
  • the curve 22 shows the input / output characteristics to the square root space
  • the curve 23 shows the input / output characteristics to the square root space with offset.
  • the slope becomes steep in the region where the linear input value where the dark noise is dominant is small (for example, 0 ⁇ x ⁇ 0.1), that is, in the low luminance region. For this reason, when fluctuations due to noise occur in the input value, fluctuations that are amplified more than fluctuations generated on the input side are output.
  • the noise ⁇ R included in the interpolated R component signal value is not shaken.
  • the error included in the signal value after the gamma conversion by the error propagation law is equalized over all gradations because the force ⁇ is corrected by adding the offset ⁇ .
  • the noise fluctuation level that is equalized over all gradations is expressed as a single representative value as a noise profile for each ISO sensitivity, and the direction determination threshold Th (Th ⁇ (ISO sensitivity)) is determined according to this representative value.
  • the curve 23 indicating the square root gradation space with an offset has a smaller linear input signal value than the curve 22 indicating a simple square root gradation space (for example, 0 The slope does not become steep when X ⁇ 0. 1).
  • noise amplified to a level greater than the noise generated in the linear input value is output, and the problem that occurs when performing interpolation processing in the square root tone space where the image quality after image restoration deteriorates due to the amplified noise is resolved. it can.
  • a remarkable effect can be obtained in a state where a lot of dark noise is included (when the sensitivity of the image sensor is increased to ISO 1600 equivalent to 6400 equivalent or when the dark current of the photoelectric conversion element constituting the image sensor is large). .
  • the color filter of the bay arrangement has been described as an example. It can also be applied to other filter arrangements such as the first one.
  • interpolation processing image restoration
  • processing by other interpolation methods may be performed.
  • multi-color extrapolation interpolation described in US Patent Application Publication No. 2002Z0001409
  • Y-interpolation described in International Publication WO02Z071761
  • pamphlet color ratio interpolation or color difference described in US Pat.
  • 'Extrapolation interpolation delta array interpolation described in Japanese Patent Laid-Open No. 2003-348608.
  • the common offset ⁇ is adjusted for the R component, the G component, and the B component. Instead, different offsets may be used for each component.
  • step S2 The above-described offset processing (step S2) and square root gamma correction processing (step S3) may be collectively performed as interpolation gamma correction processing.
  • step S5 The reverse gamma correction process (step S5) and the reverse offset process (step S6) described above may be performed together as a reverse gamma correction process.
  • FIG. 13 is a diagram showing input / output characteristics in the linear gradation space, the square root gradation space, and the interpolation gradation space according to Expression (27).
  • the horizontal axis represents the linear gradation signal input value X
  • the vertical axis represents the output value y after gradation conversion.
  • the straight line 21 and the curved line 22 are the same as those in FIG. 12, and show the input / output characteristics at the time of linear transformation and the input / output characteristics to the square root space, respectively.
  • Curve 31 shows the input / output characteristics to the interpolation gradation space. Curve 31 differs from curve 23 in Figure 12 in that it passes through the origin. Even when image restoration processing is performed using such an interpolation gradation space, high-quality image restoration can be performed as in the case of using the square root gradation space with an offset indicated by the curve 23 in FIG. .
  • an image processing apparatus that performs an interpolation process in a uniform noise space (a square root gradation space with an offset (or an interpolation processing space)) to restore an image has been described.
  • the uniform noise space is also effective when processing other than the interpolation processing is performed.
  • a flat portion (a portion without change) of an image is detected in a uniform noise space, and a blurring process is performed on the detected flat portion.
  • FIG. 14 is a flowchart for explaining the flow of image processing according to the second embodiment.
  • step S11 of FIG. 14 the CPU of the computer apparatus 100 (FIG. 3) Input the image signal expressed in between, and proceed to Step S2.
  • the image signal is, for example, a monochromatic single-plate image, a three-plate color image, and an interpolated color image obtained by the interpolation processing according to the first embodiment.
  • Step S2 and step S3 are the same as the processing of the same step number in FIG.
  • step S14 the CPU performs image processing (in this case, flat portion detection processing and blur processing).
  • image processing in this case, flat portion detection processing and blur processing.
  • the CPU performs high frequency component extraction (noisy filter processing) shown by the following equation (30) and FIG.
  • the pixel of interest is the pixel located at the center in FIG. 15, and ⁇ in the equation (30) represents the Labrussian operator.
  • the CPU determines the flatness by the following equation (31) based on the high frequency component obtained by the above equation (30).
  • ⁇ Th is a judgment threshold value used to avoid misjudgment due to noise contained in the signal, and has the relationship a Thc a (g).
  • the CPU determines that the image is flat when 1 is obtained from the above equation (31), and determines that the image is flat when 0 is obtained.
  • Step S5 and step S6 are the same as the processing of the same step number in FIG.
  • step S17 the CPU outputs the corrected image, that is, the image signal represented in the linear gradation space, and ends the processing in FIG.
  • the noise profile for each ISO sensitivity can be expressed by one representative value (a (g)) over all gradations. Since the judgment threshold value ⁇ ⁇ 1 ⁇ ( ⁇ ⁇ 1 ⁇ a (g)) when detecting the flat part can be determined according to the representative value, the flat part detection of the image can be extracted extremely simply and accurately. . Since the blur processing is performed on the flat part extracted in this way, it is not affected by the noise with different characteristics depending on the brightness of the image. Therefore, it is possible to appropriately perform the blurring process over all gradations.
  • a configuration may be adopted in which edge enhancement is performed by performing BPF (band pass filter) processing instead of LPF (low pass filter) processing according to the above equation (32).
  • BPF band pass filter
  • LPF low pass filter
  • Step S 11 of FIG. 14 the CPU inputs the interpolated color image signal expressed in the linear gradation space, and proceeds to Step S 2.
  • Steps S2 and S3 are the same as the processing of the same step number in FIG.
  • the CPU performs image processing (in this case, color space conversion (RGB ⁇ YCbCr) processing, noise removal processing, and color space conversion (YCbCr ⁇ RGB) processing).
  • the CPU converts the image signal from the color space (RGB) to the color space (YCbCr), for example, by performing a known color space conversion process using 3 ⁇ 3 matrix coefficients.
  • the CPU performs further noise removal processing (Gaussian blurring processing in this example) for each of the converted luminance signal Y and color difference signals Cb and Cr using the following equation (33).
  • the range may be set arbitrarily according to the purpose, such as 7 X 7 pixels or 1 5 1 5 pixels, etc.
  • the CPU converts from the color space (YCbCr) to the color space (RGB).
  • X represents the pixel of interest in the two-dimensional plane
  • x ' represents its neighboring pixel.
  • the pixel value difference with respect to ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ (g)) is determined according to the change ratio of A (x)-A (x ')
  • the smoothing integration range may be arbitrarily set according to the purpose, such as 7 ⁇ 7 pixels or 15 ⁇ 15 pixels.
  • Step S5 and step S6 are the same as the process of the same step number in FIG.
  • step S 17 the CPU outputs the image after image processing, that is, the image signal expressed in the linear gradation space, and ends the processing in FIG.
  • the noise profile for each ISO sensitivity can be represented by one representative value over all gradations by using the uniform noise space, and according to this representative value, Since the ratio of the smoothing weighting coefficient based on the signal difference in the Gaussian blurring process is determined, the Gaussian blurring process will not change due to the influence of noise with different characteristics depending on the brightness of the image, making the Gaussian blurring process extremely It will be easier to do. In addition, an excellent noise removal effect can be obtained over all gradations.
  • the noise removal processing for the color difference surface is effective in suppressing color mottle and color moire.
  • the noise removal process for the luminance surface has an effect of suppressing the roughness.
  • the power for performing noise removal processing using a common threshold ⁇ Th for luminance and color difference may be performed using different parameters. Further, only the process for the color difference plane may be performed, or only the process for the luminance plane may be performed.

Abstract

 画像を構成する全ての画素位置において全色成分(RGB)の信号値を得るために、不足する色成分の信号値を補間する処理を以下のように線形階調空間からオフセット付き平方根階調空間に変換して行う。すなわち、線形階調信号xに対して撮像素子に設定されているISO感度に比例するオフセットεを加え、オフセット後の(x+ε)を1/2乗のガンマ空間へ変換する。したがって、誤差伝播則によってガンマ変換後の信号値に含まれる誤差は全階調にわたって均等になる。オフセット付き平方根階調空間を示す曲線23は、単なる平方根階調空間を示す曲線22と比べると線形入力信号値が小さい領域(たとえば、0<x<0.1)において傾きが急峻とならない。

Description

明 細 書
画像処理装置およびコンピュータプログラム製品
技術分野
[0001] 本発明は、ノイズを含む画像、とくに、撮像素子のノイズを含む画像を処理する場 合に適した階調空間を利用する画像処理技術に関する。
背景技術
[0002] 例えば、べィァ配列のような色配列を有するカラーフィルタを通して撮像され、その 色成分がサブサンプリングされた画像を補間してカラー画像に復元する処理におい ては、補間処理を行うための階調空間力 ^、くつ力提案されている。特許文献 1には、 G色成分を線形階調で単純平均した後、 R色、 G色、 B色の各色成分を対数階調空 間へ変換し、この階調空間で R色成分および B色成分を G色成分との差分をとること により色差面で補間する技術が開示されている。また、特許文献 2には、補間処理以 降の圧縮処理、およびディスプレイ表示等の処理に合わせて、色成分信号をあらか じめ Γ = 2. 4のガンマ空間 (R1/r,G1/ r,B1/ r)へ変換し、このガンマ空間で補間処理 等の画像処理を一本ィヒして行うことによって階調変換の繰り返しに伴う量子化誤差を 抑える技術が開示されている。特許文献 3には、色成分信号を平方根特性のガンマ 空間に変換し、このガンマ空間で補間処理を行うことによって画像に含まれているシ ヨットノイズの影響を抑えて鮮明な画像を得る技術が開示されている。
[0003] 特許文献 1:米国特許第 4642678号明細書
特許文献 2 :米国特許第 5172227号明細書
特許文献 3:特開 2004— 7164号公報
発明の開示
発明が解決しょうとする課題
[0004] 上述した階調空間は!、ずれも画像に含まれるダークノイズによる影響を受けやすく 、撮像素子で生じる暗電流ノイズに関連したノイズを多く含む画像に対して補間処理 を行うと、これらのダークノイズを増幅してしまい、復元後の画質を損ねてしまうおそれ があった。とくに、 ISO感度を高めて (たとえば、 ISO1600相当以上)撮像された画 像に対して補間処理を行う場合には問題となりやすい。画質劣化の例として、補間処 理後の画像の赤地領域に黒点が発生することがあげられる。また、補間処理に限ら ず撮像素子を用いて取得した画像を処理するとき、一般にこれらセンサーノイズの影 響を受ける。そこで本件は、センサーノイズを含む画像を処理する場合に適した階調 空間を提供する。
課題を解決するための手段
本発明の第 1の態様によると、画像処理装置は、各画素が受光量に比例した信号 で表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号 の各々に対して所定量のオフセット信号を加えるオフセット手段と、オフセット信号が 加えられた画像信号の各々を、平方根階調の画像信号に変換する階調変換手段と
、階調変換後の複数画素の画像信号を用いて所定の画像処理を行い、第 1の画像 を第 2の画像に変換する画像変換手段とを備える。
本発明の第 2の態様によると、画像処理装置は、各画素に少なくとも 1つの色成分 信号を有した複数種類の色成分信号カゝらなり、それぞれが受光量に比例した信号で 表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号の 各々に対して所定量のオフセット信号を加えるオフセット手段と、オフセット信号が加 えられた画像信号の各々を、平方根階調の画像信号に変換する階調変換手段と、 階調変換後の複数画素の画像信号を用いて、各画素に少なくとも 1つの共通した色 成分信号を生成する色情報生成手段とを備える。
本発明の第 3の態様によると、第 1の態様の画像処理装置はさらに、階調変換後の 階調空間において一定幅で表される画像信号の揺らぎ量を、入力画像信号が有す るノイズ特性の代表値として評価するノイズ評価手段を備えてもよい。
本発明の第 4の態様によると、第 3の態様の画像処理装置において、ノイズ評価手 段で得られる代表値を用いて、第 1の画像を第 2の画像に変換するように画像変換手 段を構成してもよい。
本発明の第 5の態様によると、第 2の態様の画像処理装置はさらに、階調変換後の 階調空間において一定幅で表される画像信号の揺らぎ量を、入力画像信号が有す るノイズ特性の代表値として評価するノイズ評価手段を備えてもよい。 本発明の第 6の態様によると、第 5の態様の画像処理装置において、ノイズ評価手 段で得られる代表値を用いて、各画素に少なくとも 1つの共通した色成分信号を生成 するように色情報生成手段を構成してもよ 、。
本発明の第 7の態様によると、画像処理装置は、各画素が受光量に比例した信号 で表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号 の各々に対して所定量のオフセット信号を加えるオフセット手段と、オフセット信号が 加えられた画像信号の各々を、非線形階調の画像信号に変換する階調変換手段と 、階調変換後の複数画素の画像信号を用いて所定の画像処理を行い、第 1の画像 を第 2の画像に変換する画像変換手段とを備える。
本発明の第 8の態様によると、画像処理装置は、各画素に少なくとも 1つの色成分 信号を有した複数種類の色成分信号カゝらなり、それぞれが受光量に比例した信号で 表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号の 各々に対して所定量のオフセット信号を加えるオフセット手段と、オフセット信号が加 えられた画像信号の各々を、非線形階調の画像信号に変換する階調変換手段と、 階調変換後の複数画素の画像信号を用いて、各画素に少なくとも 1つの共通した色 成分信号を生成する色情報生成手段とを備える。
本発明の第 9の態様によると、第 1〜第 8のいずれかの態様の画像処理装置におい て、所定量を正の値にするようにオフセット手段を構成してもよ 、。
本発明の第 10の態様によると、第 1〜第 9のいずれかの態様の画像処理装置にお V、て、入力画像の撮像時に撮像素子に設定されて 、た撮像感度に応じて所定量を 変化させるようにオフセット手段を構成してもよ 、。
本発明の第 11の態様によると、第 10の態様の画像処理装置において、撮像感度 が高 、ほど所定量を増カロさせるようにオフセット手段を構成してもよ 、。
本発明の第 12の態様によると、第 1または第 7の態様の画像処理装置はさらに、変 換後の第 2の画像の信号の各々を、線形階調の画像信号へ逆変換する逆階調変換 手段と、逆階調変換後の画像信号の各々力 所定量のオフセット信号を減じる逆ォ フセット手段とを備えてもょ 、。
本発明の第 13の態様によると、第 2または第 8の態様の画像処理装置はさらに、生 成された色成分信号の画像信号の各々を、線形階調の画像信号へ逆変換する逆階 調変換手段と、逆階調変換後の画像信号の各々力 所定量のオフセット信号を減じ る逆オフセット手段とを備えてもよ 、。
本発明の第 14の態様によると、画像処理装置は、各画素が受光量に比例した信号 で表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号 の各々を非線形階調の画像信号に変換する階調変換手段と、階調変換後の複数画 素の画像信号を用いて所定の画像処理を行 ヽ、第 1の画像を第 2の画像に変換する 画像変換手段と、入力画像の撮像時に撮像素子に設定されて!ヽた撮像感度に応じ て非線形階調特性を変化させるように階調変換手段を制御する制御手段とを備える 本発明の第 15の態様によると、画像処理装置は、各画素に少なくとも 1つの色成分 信号を有した複数種類の色成分信号カゝらなり、それぞれが受光量に比例した信号で 表される線形階調の画像信号を入力する画像入力手段と、線形階調の画像信号の 各々を非線形階調の画像信号に変換する階調変換手段と、階調変換後の複数画素 の画像信号を用いて、各画素に少なくとも 1つの共通した色成分信号を生成する色 情報生成手段と、入力画像の撮像時に撮像素子に設定されていた撮像感度に応じ て非線形階調特性を変化させるように階調変換手段を制御する制御手段とを備える 本発明の第 16の態様によると、第 14または第 15の態様の画像処理装置において 、撮像感度が低いほど低輝度側の階調特性の曲率を大きくし、撮像感度が高いほど 低輝度側の階調特性の曲率を小さくするように階調変換手段を制御するべく制御手 段を構成してもよい。
本発明の第 17の態様によると、第 14〜第 16のいずれかの態様の画像処理装置に ぉ 、て、撮像感度が低 、ほど平方根階調特性に近づけるように階調変換手段を制 御するべく制御手段を構成してもよ ヽ。
本発明の第 18の態様によると、第 2、第 8、第 15のいずれかの態様の画像処理装 置において、各画素に共通した色成分信号を、少なくとも 2種類の色成分信号を用 Vヽて生成するべく色情報生成手段を構成してもよ!/ヽ。 本発明の第 19の態様によると、第 18の態様の画像処理装置において、階調変換 後の複数画素の非線形色成分信号を用いて少なくとも 2方向について類似度を算出 し、各方向についての類似度間の差異を所定の閾値と比較することによって各方向 についての類似性の強弱を判定し、この判定結果を用いて各画素に共通した色成 分信号を生成するように色情報生成手段を構成してもよ ヽ。
本発明の第 20の態様によると、コンピュータプログラム製品は、各画素が受光量に 比例した信号で表される線形階調の画像信号の各々に対して所定量のオフセット信 号を加えるオフセット処理と、オフセット処理後の画像信号の各々を、非線形階調の 画像信号に変換する階調変換処理と、階調変換処理後の複数画素の画像信号を用 V、て所定の画像処理を行!ヽ、第 1の画像を第 2の画像に変換する画像変換処理とを 実行させる画像処理プログラムを有する。
本発明の第 21の態様によると、コンピュータプログラム製品は、各画素が受光量に 比例した信号で表される線形階調の画像信号の各々を非線形階調の画像信号に変 換する階調変換処理と、階調変換処理後の複数画素の画像信号を用いて所定の画 像処理を行い、第 1の画像を第 2の画像に変換する画像変換処理と、画像の撮像時 に撮像素子に設定されていた撮像感度に応じて非線形階調特性を変化させる階調 制御処理とを実行させる画像処理プログラムを有する。
上記画像入力部は、画像入力手段と置き換えてもよい。
上記オフセット部は、オフセット手段と置き換えてもよい。
上記階調変換部は、階調変換手段と置き換えてもよい。
上記画像変換部は、画像変換手段と置き換えてもよい。
上記色情報生成部は、色情報生成手段と置き換えてもよ 、。
上記ノイズ評価部は、ノイズ評価手段と置き換えてもよ ヽ。
上記逆階調変換部は、逆階調変換手段と置き換えてもよ ヽ。
上記逆オフセット部は、逆オフセット手段と置き換えてもよ 、。
上記制御部は、制御手段と置き換えてもよい。
発明の効果
本発明によれば、撮像素子に起因するノイズが含まれる画像であっても、当該ノィ ズの影響を受けにくい階調空間を利用して画像処理を行うことができる。 図面の簡単な説明
[0007] [図 1]べィァ配列を示す図である。
[図 2]本発明による画像補間処理の流れを説明するフローチャートである。
[図 3]プログラムの提供形態を説明する図である。
圆 4]G色補間を行う場合の画素位置を説明する図である。
[図 5]G色補間を行う場合の画素位置を説明する図である。
[図 6]R色補間を行う場合の画素位置を説明する図である。
[図 7]R色補間を行う場合の画素位置を説明する図である。
[図 8]B色補間を行う場合の画素位置を説明する図である。
[図 9]B色補間を行う場合の画素位置を説明する図である。
[図 10]撮像素子の信号特性を説明する図である。
[図 11]均等ノイズ空間を説明する模式図である。
[図 12]各階調空間の入出力特性を示す図である。
[図 13]各階調空間の入出力特性を示す図である。
[図 14]第二の実施形態による画像処理の流れを説明するフローチャートである。
[図 15]ハイパスフィルタ処理を説明する図である。
[図 16]ローパスフィルタ処理を説明する図である。
発明を実施するための最良の形態
[0008] 以下、本発明を実施するための最良の形態について説明する。
(第一の実施形態)
第一の実施形態では、 R (赤)、 G (緑)、 B (青)がべィァ配列されたカラーフィルタを 通して撮像された画像に対して補間処理を行う画像処理を例にあげて説明する。こ の場合の画像の色は RGB表色系で示される。
[0009] 図 1は、べィァ配列を示す図である。このようなカラーフィルタを備える撮像素子から 出力される画像信号は、 1画素当たり RGBのうちいずれか 1つの色成分の情報を有 する。すなわち、 R色フィルタに対応する画素からは R色の情報が出力され、 G色フィ ルタに対応する画素からは G色の情報が出力され、 B色フィルタに対応する画素から は B色の情報が出力される。 R色フィルタに対応する画素情報を例にとれば、 R成分 の情報だけで G成分、 B成分の情報がない。このため、画像を構成する全ての画素
Figure imgf000009_0001
、て RGB全色分の情報を得るためには、各画素位置にお 、て不足する色 成分の情報を補間処理によって算出する必要がある。
[0010] 図 2は、本発明による画像補間処理の流れを説明するフローチャートである。本実 施形態では、図 2による処理を行うプログラムを図 3に示すコンピュータ装置 100に実 行させること〖こより、画像処理装置を提供する。プログラムをパーソナルコンピュータ 1 00に取込む場合には、パーソナルコンピュータ 100のデータストレージ装置にプログ ラムをローデイングした上で当該プログラムを実行させることにより、画像処理装置とし て使用する。
[0011] プログラムのローデイングは、プログラムを格納した CD—ROMなどの記録媒体 10 4をパーソナルコンピュータ 100にセットして行ってもよいし、ネットワークなどの通信 回線 101を経由する方法でパーソナルコンピュータ 100へローデイングしてもよい。 ネットワーク 101を経由する場合は、ネットワーク 101に接続されたサーバコンビユー タ 102のハードディスク装置 103などにプログラムを格納しておく。このように、プログ ラムは記録媒体 104や通信回線 101を介する提供などの種々の形態のコンピュータ プログラム製品として供給される。
[0012] 図 2のステップ S1において、コンピュータ装置 100 (図 3)の CPUは、線形階調空間 で表された画像信号 (ベィァ信号)を入力してステップ S2へ進む。具体的には、補間 処理の対象とする画像データをワークエリアに読み出す。このとき、各色成分がガン マ補正された階調空間で表されている場合には、ガンマ補正前の線形階調空間に おける信号値へ戻す。
[0013] ステップ S2において、 CPUは、画像を構成する全画素に対応する画像信号に対し てそれぞれオフセット処理を行ってステップ S3へ進む。具体的には、次式(1)で示す ように、画素位置 [i,j]で示される画素に対応する信号値 X[i,j]にオフセット Λを加え、 オフセット処理後の信号値 X'[i,j]を得る。
X'[U] =X[U] + A (1)
ただし、オフセット Λは撮影時に撮像素子に対して設定されて ヽた撮像感度(以後 IS O感度と呼ぶ)に応じて決定する。たとえば、 ISO6400相当の場合には Λ=0.05Χ maxに、 ISO1600相当の場合には Λ=0.02Xmaxに、 ISO200相当以下では Λ = 0にする。 Xmaxは、入力される画像信号 Xの階調数の最大値 (すなわち、フルスケー ル値)である。すなわち、線形入力階調信号 Xの範囲は 0≤X≤XmaXである。本実施 形態では、 R成分、 G成分、および B成分に対して共通のオフセット Λをカ卩える。
[0014] ステップ S3において、 CPUは、オフセット処理後の信号値 X'[i,j]に対して次式(2) による平方根階調空間へのガンマ補正を行ってステップ S4へ進む。ガンマ補正後の 平方根階調空間は、補間処理用の空間である。
Y=Ymax X ^(X'/Xmax) (2)
ただし、階調変換後の信号 Yの範囲は 0≤ Y≤ Ymaxである。
[0015] ステップ S4において、 CPUは以下のように補間処理を行う。ここで、 R成分の色情 報を有する画素を R画素、 B成分の色情報を有する画素を B画素、 G成分の色情報 を有する画素を G画素と呼び、補間処理用の空間における画素位置 [i,j]で示される 画素に対応する R成分の信号値を R[i,j]、 G成分の信号値を G[i,j]、 B成分の信号値 を B[i,j]で表すことにする。
[0016] (方向判定)
CPUは、画素位置 [i,j]で示される G画素でない画素 (R画素もしくは B画素)に関し て、縦方向の類似度 CvN[i,j]、および横方向の類似度 ChN[i,j]をそれぞれ次式 (3)、 (4)により算出する。
[0017] [数 1]
【数 1】 Cv[i,j] = {|G[i,j-1]-G[i,i + 1]| + {[G[i,|-1]-Z[i,j]| + |G[i,j + 1]-Z[i,i]|)/2}/2 (3)
Ch[i,j]={iG[i-1 ,j]-G[i + 1J]| + {|G[I-1,j]-Z[i,j]| + |Gfi + 1 ,j]-Z[i,j]|)/2}/2 (4) ただし、 Z[i,j]は画素位置 [i,j]で示される R成分または B成分の信号値である。
[0018] 上式 (3)、(4)における第 1項の絶対値は、 G色成分同士で比較して大ま力な方向性 を検出するものである。上式 (3)、(4)の第 2項および第 3項の絶対値は、第 1項では検 出できない細かな類似性を検出するものである。 CPUは、上式 (3)、(4)により得られ た縦方向の類似度および横方向の類似度を各座標ごとに算出し、対象とする座標 [i, j]における縦横の類似度に基づいて次式 (5)により類似性の方向を判定する。 [0019] [数 2]
【数 2】 if |Cv[i, j]-Ch[i, j]|≤Th HV[i, j]=0
(5) else if Cv[i, j]<Ch[i, j] HV[i, j] = 1
e!se HV[i, j]= -1 ただし、 Thは信号値に含まれるノイズによる誤判定を避けるために用いられる判定閾 値であり、上記 ISO感度に応じて変化させる。 HV[i,j]は画素位置 [i,j]に関する類似 性の方向を示し、 HV[i,j]=0の場合は縦横両方向類似、 HV[i,j]=lの場合は縦方向 類似、 HV[i,j]=- 1の場合は横方向類似である。
[0020] (G補間)
CPUは、判定した類似方向に基づき、 R成分もしくは B成分の凸凹情報を利用して G成分の補間を行う。 G色補間は、たとえば図 4で示される中央の R画素の位置 [i,j] に対して、縦方向類似の場合は次式 (6)および (9)により算出し、横方向類似の場合 は次式 (7)および(10)により算出する。 B画素の位置に対して G色補間を行う場合の 画素位置は図 5によって示される。
[0021] [数 3]
【数 3】 HV[i,j] = 1の場合 G j] = Gv[i,jl (6)
HV[i,j]=-1の場合 G[i,j】=Gh[i,j】 (7)
HV[i,j】=0の場合 G[i,j] = (Gv[i,j] + Gh[i,j])/2 (8)
Gv[i,j] = (G[i,j-1] + G[i,j + 1])/2 + {2*Z[iti3-ZEi,j-2]-Z[i,j + 2])/4 (9) Gh[i,j] = (G[i-1,j] + G[i + 1 ,j])/2 + (2*Z[i,j]-2[i-2,j]-Z[i + 2,j])/4 (10) ただし、 Z[i,j]は画素位置 [i,j]で示される R成分または B成分の信号値である。
[0022] 上式 (9)における第 1項は、画素位置 [i,j]に対して縦に並ぶ G成分の信号値 G[i,j- 1]および G[i,j+1]から算出される平均値を表す。上式 (9)における第 2項は、縦に並 ぶ R成分の信号値 R[i,j]、 R[i,j-2]および R[i,j+2]から算出される変化量を表す。 G 成分の信号値の平均値に R成分の信号値の変化量を加えることにより、 G成分の補 間値 G[i,j]が得られる。このような補間を G成分の内分点以外も予測可能なことから、 便宜的に外挿補間と呼ぶことにする。
[0023] 上式 (10)は、上述した縦方向の外挿補間の場合と同様に、画素位置 [i,j]に対して 横に並ぶ画素の信号値を用いて横方向に外挿補間を行うものである。
[0024] CPUは、類似の方向が縦横両方向と分類されている場合は、上式 (9)および (10) により G色補間値をそれぞれ算出し、算出された 2つの G色補間値の平均をとつて G 色補間値とする。
[0025] (R補間)
R色補間は、たとえば図 6で示される R画素の位置 [i,j]以外の画素位置 [i+l,j]、 [i,j +1]、 [i+l,j+l]に対して、それぞれ次式 (11)〜(13)により算出される。このとき、上述 した G補間により得られた全ての画素位置に対応する G成分信号値 (図 7)の凸凹情 報が利用される。
[0026] 画
【数 4】 R[i + 1,j】 = (R〖i,j】 + R[i + 2,j])/2 + (2*G[i + 1,j】-G[i,j]-G【i+2,n)/2 。"
R[i,j + 1] = (R[i,j] + R[i,j + 2})/2 + {2*G[i,i + 1]-G[itj]-Gtl,j + 2|)/2 (12) R{i + 1 ,j + 1] = (R[l,jl + R[: + 2,j] + R[i,] + 2] + R[i + 2,j + 2])/4
+ {2*GIi + 1 ,] + 1]-G[i,i]-G[i + 2,j]-G[iJ + 23-G[i + 2,i+2])/4 (13)
[0027] 上式 (11)〜(13)における第 1項は、 R成分補間の対象とする座標に隣接する R成分 信号値から算出される平均値を表し、上式 (11)〜(13)における第 2項は、 R成分補間 の対象とする座標およびこの座標に隣接する G成分信号値カゝら算出される変化量を 表す。すなわち、 G補間で行われた外挿補間と同様に、 R成分信号値の平均値に G 成分の信号値の変化量を加えて R成分の補間値を得る。これは、 R位置で色差 Cr= R—Gを生成し、この色差面内で平均補間する方式と等価である。
[0028] (B補間)
B成分補間についても R成分と同様に補間処理を行う。たとえば図 8で示される B画 素の位置 [U]以外の画素位置 [i+l,j]、 [U+l]、 [i+l,j+l]に対して、それぞれ次式 (1 4)〜(16)により算出される。このとき、上述した G補間により得られた全ての画素位置 に対応する G成分信号値 (図 9)の凸凹情報が利用される。
[0029] [数 5]
【数 5】 B[i÷1 ,n = (B[i,j] + B[i+2,j】)/2 + (2*Gii + 1 ,j】-G i,j]-G[i + 2,j】)/2 (14)
B[i,j + 1] = (B[i,j】 + B[i,j + 2】)/2+(2*G【i,j÷1j-G[i,n-G[i,j + 2】)/2 (15) B{i + 1 ,j+1〗 = (B【i,j】 + B[i + 2,j】 + Bii,j + 2】 + B[i + 2,j + 2】)Z4
+ (2*G[i + 1 ,j + 1]-G[i,]]-G[i + 2,j]-GEi,j + 2]-Gti + 2,j + 2])/4 (16) [0030] 上式 (14)〜(16)によれば、 B成分信号値の平均値に G成分の信号値の変化量を加 えて B成分の補間値を得る。これは、 B位置で色差 Cb = B— Gを生成し、この色差面 内で平均補間する方式と等価である。 R成分および B成分は、 G成分に比べてサン プル周波数が低いので、色差 R— G、色差 B— Gを利用して G成分信号値が有する 高周波数成分を反映させる。よって、このようなクロマ成分に対する補間を便宜的に 色差補間と呼ぶことにする。
[0031] 以上説明した補間処理により、全画素位置に対応した G成分、 R成分、および B成 分の 3色分の信号値を有する画像が復元される。 CPUは、補間処理を終了するとス テツプ S 5へ進む。
[0032] ステップ S5において、 CPUは、画像復元後の信号値 Y=R,G,Bに対して次式(17 )による線形階調空間への逆ガンマ補正を行ってステップ S6へ進む。
X' = Xmax X (Y/Ymax)2 (17)
ただし、 X' = Rout', Gout', Bout'を表す。
[0033] ステップ S6において、 CPUは、全画素に対応する画像信号に対してそれぞれ逆ォ フセット処理を行ってステップ S7へ進む。具体的には、次式(18)で示すように、画素 位置 [U]で示される画素に対応する信号値 X'[i,j]からオフセット Λを減じ、逆オフセッ ト処理後の信号値 X[i,j]を得る。
X[i,j] =X'[i,j] - A (18)
ただし、 X= Rout, Gout, Boutを表す。
[0034] ステップ S7において、 CPUは、復元後の画像、すなわち、線形階調空間で表され た画像信号 (RGB信号)を出力して図 2による処理を終了する。 CPUは、この RGB 信号に対して最終的なガンマ補正 (たとえば、使用する表示モニタに適した補正)や 色調整 (ユーザーにより指示された調整やデバイスインディペンデントな色空間に変 換するための調整)などを必要に応じて行う。
[0035] (オフセット付き平方根変換による均等ノイズ空間)
上述した補間処理用の空間について、さらに詳細に説明する。一般に、撮像素子 から出力される画像信号には種々のノイズが含まれている。ノイズはランダムノイズと 固定パターンノイズとに大別され、ランダムノイズはさらに、ショットノイズとダークノイズ とに分類される。
[0036] 固定パターンノイズは、撮像素子の製造プロセスにおいて発生する開口ムラなどに 起因する素子固有のノイズである。ショットノイズおよびダークノイズは、撮像素子の 画素を構成するフォトダイオードなどの光電変換素子の特性に起因するノイズである 。ショットノイズはフオトンの揺らぎによって生じするノイズであり、入射光量の平方根 に比例して増加する。ダークノイズは暗電流ノイズを含み、入射光量に無関係に生じ るとともに、アナログゲインに比例して増加する。アナログゲインは、 ISO感度を決定 するノ ラメータである。
[0037] 図 10は、撮像素子の信号特性を説明する図である。両対数スケールで表された図 10において、横軸は撮像面照度を、縦軸は信号の電子数をそれぞれ表す。直線 11 は光信号を表し、入射光量に比例して光信号 (電子数)が増加することを示している 。直線 12は光ショットノイズを表し、入射光量の 1Z2乗に比例してノイズ (電子数)が 増加することを示している。直線 13はダークノイズを表し、入射光量にかかわらずノィ ズ (電子数)が存在することを示して!/、る。
[0038] 階調変換時に影響を及ぼすダークノイズ、ショットノイズに着目すると、トータルノィ ズ δ Xは次式( 19)で表される。
δ χ= (Ns2+Nd2) (19)
ただし、 Nsはショットノイズ、 Ndはダークノイズである。 Xは A/D変換直後の信号レ ベルであり、既にアナログゲインによって増幅されている。また、 Xは便宜上入力され る信号の階調数の最大値 (すなわち、フルスケール値)で除して規格化されて!/ヽるも のとする。
[0039] ショットノイズおよびダークノイズは、それぞれ次式(20)および(21)のようにモデル 化できる。
Ns(g)=ms X ^(g X x) (20)
Nd(g)=md X g+nd (21)
ただし、 mおよび nはノイズモデルのパラメータ、 gはアナログゲイン (すなわち、撮像 素子に対して設定されて!ヽる ISO感度)である。
[0040] 上式(20)および(21)によるノイズモデルを式(19)へ代入し、ノ ラメータを簡略な 形式に再定義すると次式(22)が得られる。
Figure imgf000015_0001
|8 (8》 (22)
[0041] 一方、上述したオフセット処理 (ステップ S2)後の平方根ガンマ処理 (ステップ S3) によって変換された補間処理用の空間 (オフセット付き平方根階調空間と呼ぶ)は、 次式(23)で表される。
y= (x+ ε ) (23)
ただし、 x=XZXmax、 y=Y/Ymax, εはオフセット Λに対応する( ε = Λ/Xmax
) ο
[0042] 式(23)の補間用階調空間におけるノイズ δ yは、誤差伝播則を用いると次式(24) で表される。
6 y=^((dy/dx)2 X δ x ) (24)
式(24)に上式(22)および(23)を代入するとノイズ δ yは次式(25)のように求まる。 6 y= a (g) X ((x+ β (g))/(x+ ε》 (25)
[0043] 上式 (25) } ε = β (g)が成立する場合にノイズ δ yが線形入力階調信号の値 χに よらず一定値 a (g)となることを示す。つまり、オフセット付き平方根階調空間は、 ε = β (g)が成立する場合に均等ノイズ空間になる。本発明では、オフセット量 ε (ステツ プ S2の Λ)を ISO感度に応じて変化させることにより、 ε = j8 (g)を成立させる。この 成立条件の例が、上述した Λ =0. 05Xmax (ISO6400相当)、 Λ =0. 02Xmax (lS O1600相当)である。なお、均等ノイズ a (g)は ISO感度に応じて変化する(ここでは 増加)ため、上述した判定閾値 Thについて、 Th^ a (g)の関係を有するように変化さ せる。
[0044] 図 11は、均等ノイズ空間を説明する模式図である。図 11において、横軸は線形階 調信号の入力値 Xを、縦軸は階調変換後の出力値 yを示す。曲線 23によって表され る出力値 yには誤差 δ yが重畳し、この誤差 δ yは入力値 Xの値によらず常に一定値 a (g)である。つまり、均等ノイズ空間ではノイズの揺らぎ幅が画像の明るさ (入力値の 大きさ)によらず常に一定になる。
[0045] (平方根階調空間との比較)
図 12は、線形階調空間、平方根階調空間、およびオフセット付き平方根階調空間 におけるそれぞれの入出力特性を示す図である。図 12において、横軸は線形階調 信号入力値 Xを、縦軸は階調変換後の出力値 yをそれぞれ表す。直線 21は線形変 換時の入出力特性を、曲線 22は平方根空間への入出力特性を、曲線 23はオフセッ ト付き平方根空間への入出力特性を、それぞれ示す。曲線 22によれば、ダークノィ ズが支配的となる線形入力値が小さい領域 (たとえば、 0< x< 0. 1)、すなわち、低 輝度領域において傾きが急峻になる。このため、入力値にノイズによる揺らぎが生じ ると、入力側で生じた揺らぎより大きく増幅された揺らぎが出力される。
[0046] 平方根階調空間で発生する揺らぎの増幅によって生じる画質劣化について説明す る。 R成分補間を例にとれば、 G補間により得られた G成分信号値の凸凹情報を利用 して R成分を補間するので、補間された R成分信号値は G成分信号値に含まれるノィ ズ揺らぎの影響を受ける。補間された R成分信号値に含まれるノイズ δ R
interpolatedは、 誤差伝播則を用いると次式 (26)で表される。
[0047] [数 6]
【数 6】 (26)
Figure imgf000016_0001
ただし、各誤差項の前につく偏微分係数は 1程度の値なので省略して!/、る。
[0048] 赤地の画像の場合、 R画素で得られる信号値は大きぐ補間される G成分信号値は 小さい。上述したように、平方根階調空間(曲線 22)では暗い (線形入力値が小さい) ところでノイズが増幅されるので、大きな R成分の信号値に重畳するノイズ δ R に
Bayer 比べて小さな G成分信号値に重畳するノイズ δ G は非常に大きな値になる。こ
interpolated
の結果、補間される R成分信号値のノイズ δ R G
interpolatedがノイズ δ
interpolatedによって大 きく振られた場合には当該 R成分信号値が 0付近まで小さく落ち込むので、この信号 値は赤地の中の黒点として表現されてしまう。このように、単なる平方根階調空間で 補間処理を行うと、 R G Bそれぞれの明るさに依存して δ R と δ G とが振
Bayer interpolated れてしまう。
[0049] これに対して、オフセット付き平方根階調空間(曲線 23)では、ダークノイズが支配 的となる領域 (たとえば、 0< x< 0. 1)でも傾きが急峻にならない。したがって、赤地 の画像の場合に小さな G成分信号値に重畳するノイズ δ G が大きな値になら
interpolated
な 、ため、補間された R成分信号値に含まれるノイズ δ R が振られることがなく
interpolated
なり、赤地の中に黒点が生じることがなくなる。
[0050] 以上説明した第一の実施形態によれば、次の作用効果が得られる。
( 1)画像を構成する全ての画素位置にぉ ヽて全色成分 (上記の例では RGB)の信 号値を得るために、不足する色成分の信号値を補間する処理を以下のように線形階 調空間からオフセット付き平方根階調空間に変換して行う。すなわち、線形階調信号 Xに対して撮像素子に設定されている ISO感度の関数として表されるオフセット ε ( ε = iS lSO感度))を加え、オフセット後の (x+ ε )を 1Z2乗のガンマ空間へ変換する 。したがって、誤差伝播則によってガンマ変換後の信号値に含まれる誤差は、オフセ ット εを付加して力もガンマ補正するので全階調にわたって均等になる。全階調にわ たって均等化されたノイズの揺らぎ幅を ISO感度毎のノイズプロファイルとして 1つの 代表値で表し、この代表値に応じて方向判定閾値 Th (Th ^ (ISO感度))を定める結 果、補間処理時の方向判定精度が高まると同時に、補間後(画像復元後)の画像の 色鮮明性が向上するという、平方根特性が有する高画質な画像復元の性質をも継承 できる。
[0051] (2)上記(1 )に加えて、オフセット付き平方根階調空間を示す曲線 23は、単なる平方 根階調空間を示す曲線 22と比べると線形入力信号値が小さい領域 (たとえば、 0く X < 0. 1)において傾きが急峻とならない。この結果、線形入力値に生じたノイズより大 きく増幅されたノイズが出力され、増幅されたノイズで画像復元後の画質が劣化する という平方根階調空間で補間処理を行う場合に生じる問題を解消できる。とくに、ダ ークノイズが多く含まれる状態 (撮像素子の感度を ISO 1600相当〜6400相当に高 めた場合や、撮像素子を構成する光電変換素子の暗電流が大きい場合)において 顕著な効果が得られる。
[0052] (3)上記(1)および(2)により、線形階調空間で生じやすい暗部との色境界での滲み が無ぐ鮮明で、かつ平方根階調空間より曲がり(曲率)が強いガンマ空間や対数空 間で生じやす!/、色境界での黒筋 ·黒縁の発生がな!、高画質な復元画像が得られる。
[0053] 上述した説明では、べィァ配列のカラーフィルタを例に説明したが、デルタ配列を はじめとする他のフィルタ配列の場合にも適用できる。
[0054] 上記の説明で行った補間処理 (画像復元)は一例であり、他の補間方式による処理 を行ってもよい。たとえば、米国特許出願公開第 2002Z0001409号明細書に記載 されている多色外挿補間、国際公開 WO02Z071761号パンフレットに記載の Y方 式補間、米国特許第 5552827号明細書に記載の色比補間または色差'外挿補間、 特開 2003 - 348608号公報に記載のデルタ配列補間などである。
[0055] 以上の説明では、カラーフィルタを介して単板式撮像素子で撮像される画像につ いて説明したが、 2板式撮像素子で撮像される画像に対して適用してもよい。
[0056] 上述したオフセット値 Λ =0. 05Xmax (ISO6400相当)、 Λ =0. 02Xmax(lSO16 00相当)は一例であり、設定されているアナログゲイン、周囲温度、実際のノイズの状 態に応じて適宜変更してょ 、。
[0057] 上記の説明では、 R成分、 G成分、および B成分に対して共通のオフセット Λをカロえ るようにした。この代わりに、各成分に対してそれぞれ異なるオフセットをカ卩えるように してちよい。
[0058] 上述したオフセット処理 (ステップ S2)および平方根ガンマ補正処理 (ステップ S3) を補間用ガンマ補正処理として纏めて行うようにしてもょ 、。
[0059] 上述した逆ガンマ補正処理 (ステップ S5)および逆オフセット処理 (ステップ S6)を 逆ガンマ補正処理として纏めて行うようにしてもょ 、。
[0060] 補間用ガンマ補正処理として纏めて行う場合、次式(27)で表される補間処理用空 間へ変換してもよい。
[0061] [数 7]
【数フ】
Figure imgf000018_0001
ただし、 x=XZXmax、 y=Y/Ymax, εはオフセット Λに対応する( ε = Λ/Xmax
) ο
[0062] 式(27)の補間用階調空間におけるノイズ δ yは、誤差伝播則を用いると次式(28) で表される。上式(28)に ε = β (g)を代入するとノイズ δ yは式(29)で表され、補間 用階調空間は ε = i8 (g)が成立する場合に均等ノイズ空間になる。
[0063] 図 13は、線形階調空間、平方根階調空間、および式 (27)による補間用階調空間 におけるそれぞれの入出力特性を示す図である。図 13において、横軸は線形階調 信号入力値 Xを、縦軸は階調変換後の出力値 yをそれぞれ表す。直線 21および曲 線 22は図 12と同一であり、それぞれ線形変換時の入出力特性、および平方根空間 への入出力特性を示す。曲線 31は補間用階調空間への入出力特性を示す。曲線 3 1は、原点を通る点が図 12の曲線 23と異なっている。この様な補間用階調空間を用 いて画像復元処理を行う場合にも、図 12の曲線 23が示すオフセット付き平方根階調 空間を用いる場合と同様に、高画質な画像復元を行うことができる。
[0064] オフセット付き平方根階調空間(曲線 23)の代わりに、撮像素子に設定されて!、る I SO感度に応じて曲率が異なる曲線によって示される階調空間を用いてもよ!、。この 場合には、 ISO感度が低いほど曲率を大きぐ ISO感度が高いほど曲率を小さくする
。曲率を大きくするには平方根特性(曲線)に近づければよぐ曲率を小さくするには 、線形特性 (直線)に近づければよい。このような階調空間は、たとえば、線形特性( 直線) +平方根特性(曲線)で構成される入出力特性を有する空間、 Γ = 1. 67のガ ンマ空間などによって与えられる。
[0065] (第二の実施形態)
第一の実施形態では均等ノイズ空間 (オフセット付き平方根階調空間 (もしくは補間 処理用空間) )で補間処理を行って画像を復元する画像処理装置につ ヽて説明した 。均等ノイズ空間は、補間処理以外の他の処理を行う場合にも有効である。第二の 実施形態では、均等ノイズ空間にお 、て画像の平坦部 (変化がな 、部分)を検出し、 検出した平坦部に対してぼかし処理を行う場合について説明する。
[0066] 図 14は、第二の実施形態による画像処理の流れを説明するフローチャートである。
図 14のステップ S 11において、コンピュータ装置 100 (図 3)の CPUは、線形階調空 間で表された画像信号を入力してステップ S2へ進む。画像信号は、たとえば、モノク 口単板画像、 3板式カラー画像、および第一の実施形態による補間処理で得られた 補間済みカラー画像などである。
[0067] ステップ S2およびステップ S3は、図 2における同一ステップ番号の処理と同一なの で説明を省略する。
[0068] ステップ S14において、 CPUは画像処理(この場合は平坦部検出処理およびぼか し処理)を行う。
(平坦部検出)
入力された画像信号がモノクロ画像の場合を例にすると、 CPUは次式(30)および 図 15によって示される高周波数成分の抽出(ノヽィパスフィルタ処理)を行う。
[0069] [数 8]
【数 8】 (30)
Figure imgf000020_0001
ただし、注目画素は図 15において中心に位置する画素とし、式(30)における Δはラ ブラシアン演算子を表す。
[0070] CPUは、上式 (30)により得られた高周波数成分に基づいて次式(31)により平坦度 を判定する。
[0071] [数 9]
【数 9】
Figure imgf000020_0002
ただし、 σ Thは信号に含まれるノイズによる誤判定を避けるために用いられる判定閾 値であり、 a Thc a (g)の関係を有する。 CPUは、上式(31)で 1が得られる場合に 画像が平坦であると判定し、 0が得られる場合には平坦でな ヽと判定する。
[0072] (ぼかし処理)
CPUは、上式 (31)により得られた判定結果に基づいて次式(32)および図 16によ つて示されるローパスフィルタ処理を行う。この処理により、高周波数成分が除去され てぼ力し効果が得られる。 CPUは、ローパスフィルタ処理(ぼ力し処理)を終了すると 図 14のステップ S 5へ進む。
[0073] [数 10]
【数 1 0】
(32)
Figure imgf000021_0001
[0074] ステップ S5およびステップ S6は、図 2における同一ステップ番号の処理と同一なの で説明を省略する。
[0075] ステップ S17において、 CPUは、補正処理後の画像、すなわち、線形階調空間で 表された画像信号を出力して図 14による処理を終了する。
[0076] 以上説明した第二の実施形態によれば、均等ノイズ空間を利用することにより全階 調にわたって ISO感度毎のノイズプロファイルを 1つの代表値( a (g) )で表すことが でき、この代表値に応じて平坦部検出時の判定閾値 σ Τ1ι ( σ Τ1ι a (g) )を定めるこ とができるので、画像の平坦部検出を極めて簡略に、かつ正確に抽出することができ る。このように抽出した平坦部に対してぼ力し処理を行うので、画像の明るさによって 特性の異なるノイズの影響を受けてぼ力し処理を施したり施さな力つたりすることがな くなり、全階調にわたって適切にぼかし処理を行うことができる。
[0077] 上式(32)による LPF (ローパスフィルタ)処理の代わりに BPF (バンドパスフィルタ) 処理を行うことにより、エッジ強調を行う構成にしてもよい。ただし、この場合は平坦部 でな 、領域にかけるのが望まし 、。
[0078] (第三の実施形態)
第三の実施形態では、均等ノイズ空間においてカラー画像の輝度面、色差面のそ れぞれにノイズ除去処理を行う場合について説明する。
[0079] 図 14のステップ S 11において、 CPUは、線形階調空間で表された補間済みカラー 画像信号を入力してステップ S 2へ進む。ステップ S2およびステップ S3は、図 2にお ける同一ステップ番号の処理と同一なので説明を省略する。 [0080] ステップ S14において、 CPUは画像処理 (この場合は色空間変換 (RGB→YCbCr )処理、ノイズ除去処理および色空間変換 (YCbCr→RGB)処理)を行う。 CPUは、 たとえば、 3 X 3マトリクス係数を用いた周知の色空間変換処理を施すことによって画 像信号を色空間(RGB)から色空間 (YCbCr)へ変換する。 CPUはさら〖こ、変換後の 輝度信号 Y、色差信号 Cbおよび Crのそれぞれに対して次式(33)によるノイズ除去 処理 (この例ではガウスぼかし処理)を行う。
[0081] [数 11]
【数 1 1】
Figure imgf000022_0001
ただし、 は2次元平面内の注目画素、^はその近傍画素を示す。平滑化の加重係数 を閾値ぴ丁|!(ひ ∞ ¾) )に対する画素値差分 | ( ー ( ) I の変化比に応じて 決定するため、 YCbo各 がノイ^:揺らぎの大き 応じてぼ力、し処理される。すなわ ち、平坦部では信号 liAG?) =Α(ί)であっても Α ( ) =A ( ) ± CTTh程度の揺らぎ *も つておリ、この程度に揺らぐ似 fc^うな信号領域は平滑化対象領域となり、エッジ部な どの構造が異なる領域は | A ( )— A ( | » σΤΉとなるので平滑化対象領域からは ずれることになる。なお、平滑化の積分範囲は 7 X 7画素や 1 5 1 5画素といったよう に目的に応じて任意に設定してよい。 CPUは、上記ガウスぼかし処理を終了すると色 空間 (YCbCr)から色空間(RGB)に変換した後、図 1 4のステップ S5へ進む。 ただし、 Xは 2次元平面内の注目画素、 x'はその近傍画素を示す。平滑化の加重係 数を閾値 σ Τ σ ΤΙι^ α (g) )に対する画素値差分 | A(x) - A(x') | の変化比に 応じて決定するため、 YCbCr各面がノイズ揺らぎの大きさに応じてぼかし処理される 。すなわち、平坦部では信号は A (χ') A (x)であっても Α (χ') =Α (χ)士 σ Th程度 の揺らぎをもっており、この程度に揺らぐ似たような信号領域は平滑ィ匕対象領域となり 、エッジ部などの構造が異なる領域は | A (x')—A (x) | 》 σ Thとなるので平滑ィ匕 対象領域からはずれることになる。なお、平滑化の積分範囲は 7 X 7画素や 15 X 15 画素といったように目的に応じて任意に設定してよい。 CPUは、上記ガウスぼかし処 理を終了すると色空間 (YCbCr)から色空間 (RGB)に変換した後、図 14のステップ S5へ進む。
[0082] ステップ S5およびステップ S6は、図 2における同一ステップ番号の処理と同一なの で説明を省略する。
[0083] ステップ S 17にお 、て、 CPUは画像処理後の画像、すなわち、線形階調空間で表 された画像信号を出力して図 14による処理を終了する。
[0084] 以上説明した第三の実施形態によれば、均等ノイズ空間を利用することにより全階 調にわたって ISO感度毎のノイズプロファイルを 1つの代表値で表すことができ、この 代表値に応じてガウスぼかし処理における信号差分に基づいた平滑化加重係数の 割合を定めるので、画像の明るさによって特性の異なるノイズの影響を受けてガウス ぼかし処理の程度が変化することがなくなり、ガウスぼかし処理が非常に行いやすく なる。また、全階調にわたって抜群のノイズ除去効果を得ることができる。
[0085] 上記色差面に対するノイズ除去処理は、色まだらや色モアレの抑制に効果が得ら れる。また、上記輝度面に対するノイズ除去処理は、ざらつきを抑える効果が得られ る。
[0086] 上述した説明では、輝度および色差に対して共通の閾値 σ Thを用いてノイズ除去 処理を行うようにした力 それぞれ異なるパラメータを用いて独立した処理を行うよう にしてもよい。また、色差面に対する処理だけを行ってもよいし、輝度面に対する処 理だけを行ってもよい。
[0087] 以上の説明では種々の実施形態および変形例を説明したが、本発明はこれらの内 容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の 態様も、本発明の範囲内に含まれる。
[0088] 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。 日本国特許出願 2004年第 200890号(2004年 7月 7日出願)

Claims

請求の範囲
[1] 各画素が受光量に比例した信号で表される線形階調の画像信号を入力する画像 入力部と、
前記線形階調の画像信号の各々に対して所定量のオフセット信号を加えるオフセ ット部と、
前記オフセット信号が加えられた画像信号の各々を、平方根階調の画像信号に変 換する階調変換部と、
前記階調変換後の複数画素の画像信号を用いて所定の画像処理を行い、第 1の 画像を第 2の画像に変換する画像変換部とを備えることを特徴とする画像処理装置。
[2] 各画素に少なくとも 1つの色成分信号を有した複数種類の色成分信号からなり、そ れぞれが受光量に比例した信号で表される線形階調の画像信号を入力する画像入 力部と、
前記線形階調の画像信号の各々に対して所定量のオフセット信号を加えるオフセ ット部と、
前記オフセット信号が加えられた画像信号の各々を、平方根階調の画像信号に変 換する階調変換部と、
前記階調変換後の複数画素の画像信号を用いて、各画素に少なくとも 1つの共通 した色成分信号を生成する色情報生成部とを備えることを特徴とする画像処理装置
[3] 請求項 1に記載の画像処理装置において、
前記階調変換後の階調空間において一定幅で表される画像信号の揺らぎ量を、 前記入力画像信号が有するノイズ特性の代表値として評価するノイズ評価部をさらに 備えることを特徴とする画像処理装置。
[4] 請求項 3に記載の画像処理装置において、
前記画像変換部は、前記ノイズ評価部で得られる前記代表値を用いて、前記第 1 の画像を前記第 2の画像に変換することを特徴とする画像処理装置。
[5] 請求項 2に記載の画像処理装置において、
前記階調変換後の階調空間において一定幅で表される画像信号の揺らぎ量を、 前記入力画像信号が有するノイズ特性の代表値として評価するノイズ評価部をさらに 備えることを特徴とする画像処理装置。
[6] 請求項 5に記載の画像処理装置において、
前記色情報生成部は、前記ノイズ評価部で得られる前記代表値を用いて、前記各 画素に少なくとも 1つの共通した色成分信号を生成することを特徴とする画像処理装 置。
[7] 各画素が受光量に比例した信号で表される線形階調の画像信号を入力する画像 入力部と、
前記線形階調の画像信号の各々に対して所定量のオフセット信号を加えるオフセ ット部と、
前記オフセット信号が加えられた画像信号の各々を、非線形階調の画像信号に変 換する階調変換部と、
前記階調変換後の複数画素の画像信号を用いて所定の画像処理を行い、第 1の 画像を第 2の画像に変換する画像変換部とを備えることを特徴とする画像処理装置。
[8] 各画素に少なくとも 1つの色成分信号を有した複数種類の色成分信号からなり、そ れぞれが受光量に比例した信号で表される線形階調の画像信号を入力する画像入 力部と、
前記線形階調の画像信号の各々に対して所定量のオフセット信号を加えるオフセ ット部と、
前記オフセット信号が加えられた画像信号の各々を、非線形階調の画像信号に変 換する階調変換部と、
前記階調変換後の複数画素の画像信号を用いて、各画素に少なくとも 1つの共通 した色成分信号を生成する色情報生成部とを備えることを特徴とする画像処理装置
[9] 請求項 1〜8のいずれか一項に記載の画像処理装置において、
前記オフセット部は、前記所定量を正の値にすることを特徴とする画像処理装置。
[10] 請求項 1〜9のいずれか一項に記載の画像処理装置において、
前記オフセット部は、前記入力画像の撮像時に撮像素子に設定されて!ヽた撮像感 度に応じて前記所定量を変化させることを特徴とする画像処理装置。
[11] 請求項 10に記載の画像処理装置において、
前記オフセット部は、前記撮像感度が高! ヽほど前記所定量を増加させることを特徴 とする画像処理装置。
[12] 請求項 1または 7に記載の画像処理装置において、
前記変換後の第 2の画像の信号の各々を、線形階調の画像信号へ逆変換する逆 階調変換部と、
前記逆階調変換後の画像信号の各々から前記所定量のオフセット信号を減じる逆 オフセット部とをさらに備えることを特徴とする画像処理装置。
[13] 請求項 2または 8に記載の画像処理装置において、
前記生成された色成分信号の画像信号の各々を、線形階調の画像信号へ逆変換 する逆階調変換部と、
前記逆階調変換後の画像信号の各々から前記所定量のオフセット信号を減じる逆 オフセット部とをさらに備えることを特徴とする画像処理装置。
[14] 各画素が受光量に比例した信号で表される線形階調の画像信号を入力する画像 入力部と、
前記線形階調の画像信号の各々を非線形階調の画像信号に変換する階調変換 部と、
前記階調変換後の複数画素の画像信号を用いて所定の画像処理を行い、第 1の 画像を第 2の画像に変換する画像変換部と、
前記入力画像の撮像時に撮像素子に設定されていた撮像感度に応じて非線形階 調特性を変化させるように前記階調変換部を制御する制御部とを備えることを特徴と する画像処理装置。
[15] 各画素に少なくとも 1つの色成分信号を有した複数種類の色成分信号力もなり、そ れぞれが受光量に比例した信号で表される線形階調の画像信号を入力する画像入 力部と、
前記線形階調の画像信号の各々を非線形階調の画像信号に変換する階調変換 部と、 前記階調変換後の複数画素の画像信号を用いて、各画素に少なくとも 1つの共通 した色成分信号を生成する色情報生成部と、
前記入力画像の撮像時に撮像素子に設定されていた撮像感度に応じて非線形階 調特性を変化させるように前記階調変換部を制御する制御部とを備えることを特徴と する画像処理装置。
[16] 請求項 14または 15に記載の画像処理装置において、
前記制御部は、前記撮像感度が低!ヽほど低輝度側の階調特性の曲率を大きくし、 前記撮像感度が高 ヽほど低輝度側の階調特性の曲率を小さくするように前記階調 変換部を制御することを特徴とする画像処理装置。
[17] 請求項 14〜16のいずれか一項に記載の画像処理装置において、
前記制御部は、前記撮像感度が低!ヽほど平方根階調特性に近づけるように前記 階調変換部を制御することを特徴とする画像処理装置。
[18] 請求項 2、 8、 15のいずれか一項に記載の画像処理装置において、
前記色情報生成部は、前記各画素に共通した色成分信号を、少なくとも 2種類の 色成分信号を用いて生成することを特徴とする画像処理装置。
[19] 請求項 18に記載の画像処理装置において、
前記色情報生成部は、前記階調変換後の複数画素の非線形色成分信号を用いて 少なくとも 2方向について類似度を算出し、各方向についての類似度間の差異を所 定の閾値と比較することによって前記各方向につ 、ての類似性の強弱を判定し、こ の判定結果を用いて前記各画素に共通した色成分信号を生成することを特徴とする 画像処理装置。
[20] 各画素が受光量に比例した信号で表される線形階調の画像信号の各々に対して 所定量のオフセット信号を加えるオフセット処理と、
前記オフセット処理後の画像信号の各々を、非線形階調の画像信号に変換する階 調変換処理と、
前記階調変換処理後の複数画素の画像信号を用いて所定の画像処理を行! \第 1の画像を第 2の画像に変換する画像変換処理とをコンピュータ装置に実行させる画 像処理プログラムを有するコンピュータプログラム製品。 [21] 各画素が受光量に比例した信号で表される線形階調の画像信号の各々を非線形 階調の画像信号に変換する階調変換処理と、
前記階調変換処理後の複数画素の画像信号を用いて所定の画像処理を行! \第 1の画像を第 2の画像に変換する画像変換処理と、
画像の撮像時に撮像素子に設定されていた撮像感度に応じて非線形階調特性を 変化させる階調制御処理とをコンピュータ装置に実行させる画像処理プログラムを有 するコンピュータプログラム製品。
PCT/JP2005/011598 2004-07-07 2005-06-24 画像処理装置およびコンピュータプログラム製品 WO2006006373A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/631,170 US7957588B2 (en) 2004-07-07 2005-06-24 Image processor and computer program product
EP05753013A EP1781043B1 (en) 2004-07-07 2005-06-24 Image processor and computer program product
JP2006528611A JP4910699B2 (ja) 2004-07-07 2005-06-24 画像処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004200890 2004-07-07
JP2004-200890 2004-07-07

Publications (1)

Publication Number Publication Date
WO2006006373A1 true WO2006006373A1 (ja) 2006-01-19

Family

ID=35783720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011598 WO2006006373A1 (ja) 2004-07-07 2005-06-24 画像処理装置およびコンピュータプログラム製品

Country Status (4)

Country Link
US (1) US7957588B2 (ja)
EP (1) EP1781043B1 (ja)
JP (2) JP4910699B2 (ja)
WO (1) WO2006006373A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282005A (ja) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp 画像処理装置、画像処理方法、画像出力装置、画像処理システム
JP2008107893A (ja) * 2006-10-23 2008-05-08 Mitsubishi Electric Corp ノイズ低減装置および方法
JP2008131529A (ja) * 2006-11-24 2008-06-05 Sony Corp 撮像装置、画像処理装置、方法およびプログラム
JP2010187233A (ja) * 2009-02-12 2010-08-26 Canon Inc 撮像装置、その制御方法及びプログラム
US8249341B2 (en) 2007-02-28 2012-08-21 Nikon Corporation Image processing method for removing noise contained in an image
JP2015027038A (ja) * 2013-07-29 2015-02-05 日本放送協会 色情報補完装置およびそのプログラム
US9509978B2 (en) 2012-08-10 2016-11-29 Nikon Corporation Image processing method, image processing apparatus, image-capturing apparatus, and image processing program
US10027942B2 (en) 2012-03-16 2018-07-17 Nikon Corporation Imaging processing apparatus, image-capturing apparatus, and storage medium having image processing program stored thereon

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2464125B1 (en) 2004-12-17 2013-07-31 Nikon Corporation Image processing device
JP4862897B2 (ja) * 2007-02-02 2012-01-25 株式会社ニコン 画像処理方法
JP4766118B2 (ja) * 2007-02-02 2011-09-07 株式会社ニコン 画像処理方法
EP2048869B1 (en) * 2007-10-12 2011-10-26 Vidiom SA Method for colour interpolation
WO2009050766A1 (ja) * 2007-10-18 2009-04-23 Fujitsu Limited 映像圧縮符号化・復元装置、映像圧縮符号化・復元プログラム、及び映像生成・出力装置
US8120679B2 (en) * 2008-08-01 2012-02-21 Nikon Corporation Image processing method
EP2461566A4 (en) * 2009-07-31 2013-06-19 Sharp Kk GRADING DEVICE, IMAGE DISPLAY, TELEVISION RECEIVER, PROGRAM, AND COMPUTER READABLE STORAGE MEDIUM WITH SAVED PROGRAM
JP6131545B2 (ja) 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
JP5906884B2 (ja) * 2012-03-29 2016-04-20 株式会社ニコン 画像処理装置、撮像装置及びプログラム
WO2013161313A1 (ja) 2012-04-25 2013-10-31 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
KR101981573B1 (ko) 2012-11-22 2019-05-23 삼성전자주식회사 이미지 신호 프로세서 및 이미지 신호 프로세서를 포함하는 모바일 촬영 장치
JPWO2014192300A1 (ja) 2013-05-31 2017-02-23 株式会社ニコン 撮像素子、撮像装置、および画像処理装置
JP2015154307A (ja) * 2014-02-17 2015-08-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6354838B2 (ja) 2014-04-04 2018-07-11 株式会社ニコン 撮像素子、撮像装置および画像処理装置
JP2018151679A (ja) * 2015-08-03 2018-09-27 オリンパス株式会社 画像信号処理方法、画像信号処理装置および画像信号処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333613A (ja) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd ニー補正回路及び撮像装置
JP2004007164A (ja) * 2002-05-31 2004-01-08 Nikon Corp 画像処理方法、画像処理プログラム、画像処理装置
JP2004112741A (ja) * 2002-07-25 2004-04-08 Fujitsu Ltd 画質を向上させた画像処理回路

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1226976A (en) * 1984-03-30 1987-09-15 Nobuyoshi Nakajima Method and apparatus for automatically correcting subtraction image density
JPH069376B2 (ja) 1984-04-16 1994-02-02 日本ビクター株式会社 ガンマ補正回路
US4642678A (en) 1984-09-10 1987-02-10 Eastman Kodak Company Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal
DE4012905A1 (de) * 1990-04-23 1991-10-24 Linotype Ag Verfahren und vorrichtung zur erzeugung einer digitalen drucktabelle fuer druckfarben bei bildreproduktionsgeraeten
US5091972A (en) 1990-09-17 1992-02-25 Eastman Kodak Company System and method for reducing digital image noise
US5172227A (en) * 1990-12-10 1992-12-15 Eastman Kodak Company Image compression with color interpolation for a single sensor image system
DE69331719T2 (de) 1992-06-19 2002-10-24 Agfa Gevaert Nv Verfahren und Vorrichtung zur Geräuschunterdrückung
JPH0678320A (ja) * 1992-08-25 1994-03-18 Matsushita Electric Ind Co Ltd 色調整装置
EP0639818B1 (en) 1993-08-16 1997-01-22 Agfa-Gevaert N.V. Method and apparatus for monitoring the sensitivity of a system for reading a radiation image stored in a photostimulable phosphor screen
JP2931520B2 (ja) 1993-08-31 1999-08-09 三洋電機株式会社 単板式カラービデオカメラの色分離回路
EP0784399B1 (en) * 1994-09-30 2006-04-12 Matsushita Electric Industrial Co., Ltd. Image pickup device
JP3609138B2 (ja) 1995-02-27 2005-01-12 富士写真フイルム株式会社 ビデオカメラ
JPH11187420A (ja) 1997-12-24 1999-07-09 Sony Corp 信号処理装置及び信号処理方法
US6415053B1 (en) * 1998-04-20 2002-07-02 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6608943B1 (en) * 1999-02-05 2003-08-19 Fuji Photo Film, Co., Ltd. Image processing method and apparatus
JP2001169127A (ja) 1999-12-10 2001-06-22 Konica Corp 画像処理方法および画像処理装置
JP4599672B2 (ja) * 1999-12-21 2010-12-15 株式会社ニコン 補間処理装置および補間処理プログラムを記録した記録媒体
EP1137267A3 (en) 2000-02-07 2005-09-14 Sony Corporation Device and method for image processing
US6738510B2 (en) * 2000-02-22 2004-05-18 Olympus Optical Co., Ltd. Image processing apparatus
JP3757747B2 (ja) * 2000-04-03 2006-03-22 株式会社ニコン 電子カメラ、画像処理プログラムを記録した記録媒体、および画像処理方法
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
JP2002112121A (ja) 2000-10-03 2002-04-12 Sony Corp 撮像装置および方法
JP4845256B2 (ja) * 2000-10-18 2011-12-28 キヤノン株式会社 画像処理装置
WO2002056604A1 (fr) * 2001-01-09 2002-07-18 Sony Corporation Dispositif de traitement d'images
EP1377072A4 (en) 2001-03-05 2006-09-13 Nikon Corp PROGRAM AND DEVICE FOR PROCESSING IMAGES
EP1292113A3 (en) * 2001-08-23 2005-03-23 Eastman Kodak Company Tone scale adjustment
US7317481B2 (en) * 2002-02-20 2008-01-08 Canon Kabushiki Kaisha Image data correction processing based on sensitivity
JP4239480B2 (ja) 2002-05-24 2009-03-18 株式会社ニコン 画像処理方法、画像処理プログラム、画像処理装置
JP4015492B2 (ja) 2002-07-22 2007-11-28 富士フイルム株式会社 画像合成方法および撮像装置
JP2004112742A (ja) 2002-07-25 2004-04-08 Fujitsu Ltd 画像歪みを抑制したイメージセンサ
EP1394742B1 (en) * 2002-08-23 2007-12-12 STMicroelectronics S.r.l. Method for filtering the noise of a digital image sequence
CN1732682B (zh) * 2002-12-27 2010-04-21 株式会社尼康 图像处理装置
JP4438363B2 (ja) 2002-12-27 2010-03-24 株式会社ニコン 画像処理装置および画像処理プログラム
JP4019417B2 (ja) * 2003-01-14 2007-12-12 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4470485B2 (ja) * 2003-12-25 2010-06-02 株式会社ニコン 固定ビット長の予測差分圧縮データを生成する画像圧縮装置および画像圧縮プログラム、画像伸張装置および画像伸張プログラム、並びに電子カメラ
US7714928B2 (en) * 2004-05-28 2010-05-11 Konica Minolta Holdings, Inc. Image sensing apparatus and an image sensing method comprising a logarithmic characteristic area and a linear characteristic area
JP2005348005A (ja) * 2004-06-02 2005-12-15 Konica Minolta Holdings Inc 撮像装置、撮像システム及び撮像システム動作プログラム
US7667764B2 (en) * 2004-06-04 2010-02-23 Konica Minolta Holdings, Inc. Image sensing apparatus
EP2464125B1 (en) * 2004-12-17 2013-07-31 Nikon Corporation Image processing device
WO2006068025A1 (ja) * 2004-12-20 2006-06-29 Nikon Corporation 画像処理方法
DE602006021728D1 (de) * 2005-03-31 2011-06-16 Nippon Kogaku Kk Bildverarbeitungsverfahren

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333613A (ja) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd ニー補正回路及び撮像装置
JP2004007164A (ja) * 2002-05-31 2004-01-08 Nikon Corp 画像処理方法、画像処理プログラム、画像処理装置
JP2004112741A (ja) * 2002-07-25 2004-04-08 Fujitsu Ltd 画質を向上させた画像処理回路

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1781043A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007282005A (ja) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp 画像処理装置、画像処理方法、画像出力装置、画像処理システム
US7982910B2 (en) 2006-04-10 2011-07-19 Mitsubishi Electric Corporation Image processing apparatus, image processing method, image output apparatus, and image processing system
JP2008107893A (ja) * 2006-10-23 2008-05-08 Mitsubishi Electric Corp ノイズ低減装置および方法
JP2008131529A (ja) * 2006-11-24 2008-06-05 Sony Corp 撮像装置、画像処理装置、方法およびプログラム
US8249341B2 (en) 2007-02-28 2012-08-21 Nikon Corporation Image processing method for removing noise contained in an image
JP2010187233A (ja) * 2009-02-12 2010-08-26 Canon Inc 撮像装置、その制御方法及びプログラム
US10027942B2 (en) 2012-03-16 2018-07-17 Nikon Corporation Imaging processing apparatus, image-capturing apparatus, and storage medium having image processing program stored thereon
US9509978B2 (en) 2012-08-10 2016-11-29 Nikon Corporation Image processing method, image processing apparatus, image-capturing apparatus, and image processing program
JP2015027038A (ja) * 2013-07-29 2015-02-05 日本放送協会 色情報補完装置およびそのプログラム

Also Published As

Publication number Publication date
EP1781043A1 (en) 2007-05-02
JPWO2006006373A1 (ja) 2008-04-24
US7957588B2 (en) 2011-06-07
EP1781043A4 (en) 2009-12-30
JP5067499B2 (ja) 2012-11-07
JP2012054985A (ja) 2012-03-15
EP1781043B1 (en) 2013-01-23
JP4910699B2 (ja) 2012-04-04
US20080123999A1 (en) 2008-05-29

Similar Documents

Publication Publication Date Title
JP5067499B2 (ja) 画像処理装置
JP4662584B2 (ja) 画像センサのライン毎ノイズ除去装置及び方法
US8175378B2 (en) Method and system for noise management for spatial processing in digital image/video capture systems
JP5045421B2 (ja) 撮像装置、色ノイズ低減方法および色ノイズ低減プログラム
JP5454075B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP4952251B2 (ja) 画像処理方法、画像処理プログラム、記録媒体、および画像処理装置
JP5169997B2 (ja) フィルタ回路、画像処理装置、撮像装置、画像処理方法及びプログラム
JP5337049B2 (ja) デジタル画像内の位置に依存するノイズの低減
US20080123950A1 (en) Image processing apparatus, image capturing apparatus, image processing method in these apparatuses, and program allowing computer to execute the method
JP2013219705A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2004112401A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置
JP2010092461A (ja) 画像処理装置及び画像処理方法
JP5169994B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6282123B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2006023959A (ja) 信号処理システム及び信号処理プログラム
US8699793B2 (en) Image processing apparatus, image processing method, and program
JP2008124653A (ja) 画像信号処理装置、画像信号処理プログラム、画像信号処理方法
JP2010171940A (ja) 画像処理装置及び画像処理方法
JP6143575B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2006041687A (ja) 画像処理装置、画像処理方法、画像処理プログラム、電子カメラ、及びスキャナ
JP2020198540A (ja) 画像信号処理方法
JP3730063B2 (ja) 色成分生成装置および色成分生成方法並びにこれを用いた多色画像撮像装置
JP4596069B2 (ja) ノイズ除去フィルタ処理回路、画像処理回路、撮像装置及びノイズ除去プログラム
JP2010178226A (ja) 撮像装置、色収差抑制方法、色収差抑制回路及びプログラム
JP4973428B2 (ja) 画像処理装置、電子カメラ、および画像処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006528611

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 2005753013

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11631170

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005753013

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11631170

Country of ref document: US