WO2005013622A1 - 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 - Google Patents

色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 Download PDF

Info

Publication number
WO2005013622A1
WO2005013622A1 PCT/JP2004/009601 JP2004009601W WO2005013622A1 WO 2005013622 A1 WO2005013622 A1 WO 2005013622A1 JP 2004009601 W JP2004009601 W JP 2004009601W WO 2005013622 A1 WO2005013622 A1 WO 2005013622A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
processing apparatus
similarity
component
Prior art date
Application number
PCT/JP2004/009601
Other languages
English (en)
French (fr)
Inventor
Zhehong Chen
Kenichi Ishiga
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to JP2005512463A priority Critical patent/JPWO2005013622A1/ja
Priority to EP04747070A priority patent/EP1641285A4/en
Publication of WO2005013622A1 publication Critical patent/WO2005013622A1/ja
Priority to US11/320,460 priority patent/US20060119896A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Definitions

  • Image processing apparatus image processing program, electronic camera, and image processing method
  • the present invention relates to an image processing technique for converting a first image (for example, RAW data) in which color components are mixedly arranged to generate a second image in which at least one type of component is arranged in pixel units.
  • a first image for example, RAW data
  • second image in which at least one type of component is arranged in pixel units.
  • this kind of spatial filter processing involves color interpolation processing and color system conversion processing into luminance and color difference YC b C r for R AW data (for example, bay array data) output from a single-chip image sensor. Is performed on the luminance / color difference YC b C r (particularly, the luminance component Y).
  • a typical ⁇ -filter is known as a typical noise removal filter.
  • the R AW data When color interpolation is performed on the R AW data of a single-chip image sensor, the R AW data The original signal existing in the data and the interpolated signal generated by averaging the original signal are arranged on one screen. At this time, the spatial frequency characteristics are slightly different between the original signal and the interpolation signal.
  • Patent Document 1 a low-pass filter process is performed only on the original signal, and the space between the original signal and the intercept signal is reduced. The difference in frequency characteristics is reduced.
  • the original signal is subjected to low-pass filter processing using the intercept signal close to the original signal. Therefore, even in this processing, the color interpolation and the spatial filter processing are performed stepwise, and there is still a problem that fine image information is easily lost.
  • Patent Document 2 discloses an image processing apparatus that directly performs color system conversion processing on RAW data.
  • the color system conversion is performed by weighted addition of the RAW data according to the coefficient table.
  • coefficient terms for edge enhancement and noise removal can be fixedly included in advance.
  • Patent Literature 1 and Patent Literature 2 do not specifically refer to a technique for changing a conversion filter of a first image according to imaging sensitivity as in an embodiment described later. Therefore, for a high SZN image due to low imaging sensitivity, the smoothing of the conversion filter was too strong, and there was a possibility that the image would be excessively blurred. On the other hand, for low SZN images due to high imaging sensitivity, the smoothing of the conversion filter was insufficient, conversely, and false colors could be conspicuous or the images could be grainy. Disclosure of the invention
  • An object of the present invention is to efficiently and easily perform advanced spatial filter processing adapted to an image structure in view of the above-mentioned problems.
  • Another object of the present invention is to provide an image processing technique capable of appropriately removing noise while maintaining resolution and contrast even when the imaging sensitivity changes.
  • the invention will be described.
  • the image processing apparatus comprises: a first image in which any one of the first to n-th color components (n 2) is distributed in pixel units; a first to n-th color component in pixel units.
  • This is an image processing device that converts the image into a second image.
  • This image processing device includes a smoothing unit.
  • the smoothing unit performs smoothing using a first color component of a peripheral pixel on a pixel position having a first color component in the first image.
  • the smoothing unit uses the smoothed first color component as the first color component at the pixel position of the second image.
  • the smoothing unit includes a control unit.
  • the control unit changes the characteristics of the filter for smoothing according to the imaging sensitivity at which the first image was captured.
  • the first color component is a color component that carries a luminance signal among the first to n-th color components.
  • the first to n-th color components are red, green, and blue, and the first color component is green.
  • control unit changes the size of the filter (reference pixel range) according to the imaging sensitivity.
  • control unit changes the element value of the filter (contribution ratio of the peripheral reference component to the smoothing target) according to the imaging sensitivity.
  • the smoothing unit includes a similarity determination unit and a switching unit.
  • the similarity determination unit determines the degree of similarity between pixels in a plurality of directions.
  • the switching unit outputs the first color component of the first image as it is as the first color component of the second image or outputs the smoothed first color component to the second image according to the determination result. Switch whether to output as the first color component of.
  • the similarity determination unit determines the similarity by calculating the similarity between pixels in at least four directions.
  • Another image processing apparatus includes a first image in which one of the first to n-th color components (n2) is distributed in pixel units, and at least one signal component in pixel units.
  • This is an image processing device that converts the image into a second image.
  • This image processing device includes a signal generation unit.
  • the signal generation unit generates a signal component of the second image by performing a weighted addition of the color components of the first image.
  • the signal generation unit includes a control unit.
  • the control unit changes a weighted addition coefficient used when performing weighted addition of the color components of the first image according to the imaging sensitivity at the time of capturing the first image.
  • the signal generator generates a signal component different from the first to n-th color components.
  • the signal generation unit generates a luminance component different from the first to n-th color components.
  • control unit changes the weighted addition coefficient according to the imaging sensitivity for the pixel position having the first color component in the first image.
  • control unit changes the range of the weighted addition according to the imaging sensitivity.
  • control unit changes the weighting coefficient of the weighted addition according to the imaging sensitivity.
  • the signal generation unit includes a similarity determination unit.
  • the similarity determination unit determines the degree of similarity between pixels in a plurality of directions.
  • the control unit changes the weight coefficient of the weighted addition according to the similarity determination result in addition to the imaging sensitivity.
  • control unit is configured such that “the similarity determination result cannot distinguish the similarity in any direction” or “the similarity in any direction is stronger than a predetermined level.
  • the color component inherent in the processing target pixel of the first image and the same color component of the peripheral pixels are weighted and added.
  • the similarity determination unit determines the similarity by calculating the similarity between pixels in at least four directions.
  • Another image processing apparatus of the present invention converts a first image in which a plurality of types of color components constituting a color system are mixed and arranged on a pixel array, and converts at least one type of signal component (hereinafter, referred to as a signal component).
  • This is an image processing device that generates a second image in which “new components” are aligned in pixel units. '
  • This image processing device includes a similarity determination unit, a coefficient selection unit, and a conversion processing unit.
  • the similarity determination unit determines the similarity of the image in a plurality of directions at the processing target pixel of the first image.
  • the coefficient selection unit selects a predetermined coefficient table in accordance with the similarity direction determination by the similarity determination unit.
  • the conversion processing unit generates a new component by weighting and adding the color components of the local area including the pixel to be processed according to the selected coefficient table.
  • the coefficient selection unit changes the coefficient table to one having a different spatial frequency characteristic according to the analysis of the image structure based on the similarity. By changing such a coefficient table, adjustment of the spatial frequency component of the new component is realized.
  • the spatial frequency component of the new component to be generated is adjusted by switching the coefficient table to one having a different spatial frequency characteristic according to the analysis of the image structure based on the similarity.
  • the weight ratio of the color component is made to correspond to the weight ratio of the color system conversion.
  • the conventional “color interpolation processing” is not required, and the “color system conversion processing” and the “spatial filter processing considering the image structure” can be performed by a single weighted addition.
  • image processing of RAW data or the like which has conventionally taken a long time, can be significantly simplified and significantly speeded up.
  • the coefficient selection unit analyzes the image structure near the pixel to be processed by judging the magnitude of the similarity value.
  • the coefficient selector changes the coefficient table to one having a different spatial frequency characteristic according to the analysis result.
  • the coefficient selection unit changes the coefficient table to one having a different array size. With such a change, the coefficient table is changed to one having a different spatial frequency characteristic.
  • the coefficient selection unit preferably includes a high-frequency component of the signal component. To a stronger or wider band. Change to a "coefficient table of a type with a stronger degree of noise removal".
  • the coefficient selecting unit may determine that the similarity in a plurality of directions is substantially equal in the direction determination and that the similarity is weak in the analysis of the image structure. Suppress components strongly or broadly Change to a "coefficient table with a stronger degree of noise removal".
  • the coefficient selection unit emphasizes the high-frequency component in the direction of weak similarity.
  • a coefficient table of a stronger type is preferably, when it is determined in the analysis of the image structure that the strength difference between the directions of similarity is large.
  • the coefficient selection unit emphasizes the high-frequency component of the signal component. To a stronger type coefficient table.
  • the coefficient selection unit changes the coefficient table to one with a higher degree of noise removal as the imaging sensitivity at the time of capturing the first image is higher.
  • the weight ratio between the color components is kept substantially constant before and after the change of the coefficient table.
  • the weight ratio between the color components is a weight ratio for color system conversion.
  • Another image processing device of the present invention includes a smoothing unit and a control unit.
  • the smoothing unit performs a smoothing process on the image data by performing weighted addition of a pixel to be processed and peripheral pixels of the image data.
  • control unit changes the reference range of the peripheral pixels according to the imaging sensitivity at the time of capturing the image data.
  • An image processing program causes a computer to function as the image processing device according to any one of (1) to (27).
  • An electronic camera includes: the image processing device according to any one of (1) to (27); and an imaging unit configured to image a subject and generate a first image.
  • a first image captured by an imaging unit is processed by an image processing device to generate a second image.
  • the image processing method according to the present invention provides a method for generating a first image in which any one of the first to n-th color components (n 2) is allocated to each pixel by using at least one signal component for each pixel. This is an image processing method for converting into a complete second image.
  • the image processing method includes a step of generating a signal component of the second image by weighted addition of the color components of the first image.
  • the step of changing the weighted addition coefficient used when weighting and adding the color components of the first image is performed according to the imaging sensitivity when the first image is captured.
  • Another image processing method of the present invention converts a first image in which a plurality of types of color components constituting a color system are mixed and arranged on a pixel array, and converts at least one type of signal component (hereinafter referred to as a signal component).
  • This is an image processing method that generates a second image in which “new components” are aligned in pixel units.
  • This image processing method has the following steps.
  • [S1] A step of determining image similarity in a plurality of directions in a processing target pixel of the first image.
  • [S2] A step of selecting a predetermined coefficient table according to the similarity direction determination in the similarity determination step.
  • [S3] A step of weight-adding the color components of the local area including the pixel to be processed by the selected coefficient table to generate a new component.
  • the coefficient table is changed to one having a different spatial frequency characteristic according to the analysis of the image structure based on the similarity. With this change, the spatial frequency component of the new component is adjusted.
  • FIG. 1 is a block diagram showing a configuration of the electronic camera 1.
  • FIG. 2 is a flowchart showing a rough operation of the color system conversion processing.
  • FIG. 3 is a flowchart showing the setting operation of the index HV.
  • FIG. 4 is a flowchart showing the operation of setting the index DN.
  • FIG. 5 is a flowchart (1/3) showing a process of generating a luminance component.
  • FIG. 6 is a flowchart (2/3) showing the process of generating the luminance component.
  • FIG. 7 is a flowchart (3Z3) showing a process of generating a luminance component.
  • FIG. 8 is a diagram showing the relationship between the index (HV, DN) and the similar direction.
  • FIG. 9 is a diagram illustrating an example of the coefficient table.
  • FIG. 10 is a diagram showing an example of the coefficient table.
  • FIG. 11 is a diagram illustrating an example of the coefficient table.
  • FIG. 12 is a diagram illustrating an example of the coefficient table.
  • FIG. 13 is a diagram illustrating an example of the coefficient table.
  • FIG. 14 is a flowchart illustrating the operation of the RGB color interpolation.
  • FIG. 15 is a diagram illustrating an example of the coefficient table.
  • FIG. 16 is a diagram illustrating an example of the coefficient table.
  • FIG. 17 is a flowchart for explaining the operation of the RGB color interpolation. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram of an electronic camera 1 corresponding to the first embodiment.
  • a photographing lens 20 is attached to an electronic camera 1.
  • the imaging surface of the imaging element 21 is arranged.
  • a RGB primary color filter having a bay array is arranged.
  • the image signal output from the image sensor 21 is digitally converted into RAW data (corresponding to the first image) through an analog signal processing unit 22 and an A / D conversion unit 10 and then transmitted through a bus. Is temporarily stored in the memory 13.
  • the memory 13 has an image processing unit (for example, one chip dedicated to image processing; a microprocessor) 11, a control unit 12, a compression / expansion unit 14, an image display unit 15, and a recording unit via a bus. 17 and the external interface section 19 are connected.
  • image processing unit for example, one chip dedicated to image processing; a microprocessor
  • the electronic camera 1 is provided with an operation unit 24, a monitor 25, and a timing control unit 23. Further, a memory card 16 is attached to the electronic camera 1. The recording unit 17 compresses and records the processed image on the memory card 16.
  • the electronic camera 1 can be connected to an external computer 18 via an external interface unit 19 (such as a USB).
  • an external interface unit 19 such as a USB
  • the similarity determination unit described in the claims is based on “the similarity in the vertical and horizontal directions is determined by the image processing unit 11, and each pixel of the RAW data is converted into cases 1 to 12 (described later) by determining the similarity direction. Classification function].
  • the coefficient selecting unit described in the claims is a function of the image processing unit 11, “a function of switching and using a group of coefficient tables having different spatial frequency characteristics based on a similarity determination, and a table of coefficients according to ease 1 to 12. Function to select coefficient table from group].
  • the conversion processing unit described in the claims corresponds to the “function of obtaining a new component (here, a luminance component) by weight-adding the color components of the local area of the RAW data according to the coefficient table” of the image processing unit 11.
  • the first image described in the claims corresponds to the RAW data.
  • the second image described in the claims corresponds to the image data after the color system conversion.
  • FIG. 2 to 7 are operation flowcharts of the image processing unit 11.
  • Fig. 2 shows the general flow of color system conversion.
  • Fig. 3 and Fig. 4 show the operation to find the index (HV, DN) for determining the direction of similarity.
  • 5 to 7 show the processing for generating a luminance component.
  • the image processing unit 11 determines the direction of similarity in the vertical and horizontal directions of the screen, centering on the pixel to be processed of the raw data, and obtains the index HV (step S1).
  • This index HV is set to “1” when the vertical similarity is stronger than the horizontal, and is set to “1 1” when the horizontal similarity is stronger than the vertical. "0" is set if not connected.
  • the image processing section 11 determines the direction of similarity with respect to the slanting direction of the screen, centering on the pixel to be processed of the RAW data, and obtains the index DN (step S2).
  • This index DN is set to ⁇ 1 '' when the similarity of oblique 45 degrees is stronger than 135 degrees, and is set to 1 when the similarity of oblique 135 degrees is stronger than 45 degrees. "1" is set, and "0" is set if these similarities cannot be distinguished.
  • the image processing unit 11 performs a “chromaticity component generation process” (step S4) together with the “luminance component generation process” (step S3).
  • Step S12 First, the image processing unit 11 calculates the difference between pixels in the vertical and horizontal directions at the coordinates [i, j] of the RAW data, and sets it as the similarity.
  • the image processing unit 11 calculates the similarity Cv [i, j] in the vertical direction and the similarity Ch [i, j] in the horizontal direction using Equations 1 to 4 below. (Note that the absolute value II in the equation may be replaced by a square operation or the like.)
  • Ch [i, j] (
  • Ch [i, j] (
  • Step S13 Next, the image processing unit 11 compares the similarities in the vertical and horizontal directions.
  • Step S14 For example, if the following condition 2 is satisfied, the image processing unit 11 determines that the vertical and horizontal similarities are substantially the same, and sets 0 to the index HV [i, j].
  • Step S 1 5 If condition 2 is not satisfied and the following condition 3 is satisfied, the image processing unit 11 determines that the vertical similarity is strong and sets the index HV [i, j] to 1 Set.
  • Step S16 If the conditions 2 and 3 are not satisfied, the image processing unit 11 determines that the horizontal similarity is strong, and sets 1 to the index HV [i, j].
  • the similarity was calculated for both the RB position and the G position.
  • the similarity was calculated only for the RB position, and the direction index HV of the RB position was set.
  • the direction index of the G position may be determined with reference to the surrounding HV value. For example, it is also possible to calculate the average value of the indices of four points adjacent to the G position and convert it to an integer to use it as the direction index of the G position.
  • Step S31 First, at the coordinates [i, j] of the RAW data, the image processing section 11 calculates a pixel-to-pixel difference in the diagonal 45-degree direction and the diagonal 135-degree direction to determine the similarity. For example, the image processing unit 11 calculates the similarity C45 [i, j] in the diagonal 45-degree direction and the similarity C135 [i, j] in the diagonal 135-degree direction using the following Expressions 5 to 8. And ask.
  • Step S 3 2 the image processing unit 1 1, in this way, when calculating the similarity to the oblique direction of 45 degrees and the swash Me 13 5-degree direction, based on these similarity of the two diagonal directions similarity Are determined to be the same.
  • such a determination can be realized by determining whether the following condition 5 is satisfied.
  • the threshold value Th5 is such that when the difference between the two degrees of similarity C45 [i, j] and C135 [i, j] is very small, it is erroneously determined that one similarity is strong due to noise. Play a role to avoid. Therefore, it is preferable to set the threshold Th5 to a high value for a color image having much noise.
  • Step S33 The image processing unit 11 sets 0 to the index DN [i, j] when the diagonal similarities are substantially the same from such a determination.
  • Step S34 On the other hand, if a direction having strong oblique similarity can be determined, it is determined whether or not the similarity in oblique 45 degrees is strong.
  • such a determination can be realized by determining whether the following condition 6 is satisfied.
  • Step S35 If the similarity in the diagonal 45-degree direction is strong (if Condition 5 is not satisfied and Condition 6 is satisfied), the image processing unit 11 determines that the index DN Set [i, j] to 1.
  • Step S36 On the other hand, if the similarity in the diagonal 135-degree direction is strong (when the conditions 5 and 6 are not satisfied), set 1 to the index DN [i, j].
  • the similarity was calculated for both the RB position and the G position, but for the sake of simplicity, the similarity was calculated only for the RB position, and the direction index DN of the RB position was set.
  • the direction index of the G position may be determined with reference to the DN values in the vicinity. For example, it is also possible to calculate the average value of the indices of four points adjacent to the G position and convert it to an integer to use it as the direction index of the G position.
  • Step S41 The image processing section 11 determines whether or not the index (HV, DN) 1S ( ⁇ , 0) of the pixel to be processed.
  • the image processing unit 11 shifts the operation to Step S42.
  • Step S42 The image processing section 11 acquires information on the imaging sensitivity (corresponding to the amplifier gain of the imaging element) at the time of capturing the RAW data from the control section 12.
  • the image processing unit 11 shifts the operation to step S46.
  • the image processing unit 11 shifts the operation to Step S43.
  • Step S43 The image processing section 11 performs similarity strength determination. For example, such strength judgment is based on the similarity Cv [i, j] and Ch [i, j] used for calculating the index HV, the similarity C4 5 [i, j] used for calculating the index DN, and the like. Judgment is made based on whether any of Cl 35 [i, j] satisfies the following condition 7.
  • the threshold value th6 is a boundary value for determining whether a portion having isotropic similarity is a “flat portion” or a “portion having significant undulation information”, and is set according to the actual RAW data value. Is set in advance.
  • the image processing unit 11 shifts the operation to step S44. On the other hand, when the condition 7 is not satisfied, the image processing unit 11 shifts the operation to Step S45.
  • Step S44 Here, since the condition 7 is satisfied, it can be determined that the pixel to be processed has weak similarity with the peripheral pixels, that is, a portion having significant undulation information. Therefore, the image processing unit 11 selects a coefficient table 1 (see FIG. 9) indicating a weak LPF characteristic in order to leave this significant undulation information.
  • This coefficient table 1 has RG This is a coefficient table that can be used in common for the B position. After this selection operation, the image processing section 11 shifts the operation to step S51.
  • Step S45 Here, since the condition 7 is not satisfied, it can be determined that the pixel to be processed has strong similarity with the surrounding pixels, that is, it is a flat portion. Therefore, the image processing unit 11 selects one of the coefficient tables 2 and 3 (see Fig. 9) that strongly and broadly suppresses high-frequency components in order to reliably remove the small amplitude noise that stands out in the flat part. I do.
  • This coefficient table 2 is a coefficient table selected when the pixel to be processed is at the RB position.
  • coefficient table 3 is a coefficient template selected when the pixel to be processed is at the G position.
  • the image processing unit 11 shifts the operation to step S51.
  • Step S46 Here, since the imaging sensitivity is high, it can be determined that the SZN of the RAW data is low. Therefore, the image processing unit 11 selects a coefficient table 4 (see FIG. 9) that suppresses high-frequency components more strongly and more widely in order to reliably remove the noise of the RAW data.
  • the coefficient table 4 is a coefficient table that can be used in common for the RGB positions. After this selection operation, the image processing section 11 shifts the operation to step S51.
  • Step S47 Here, the processing target pixel has anisotropic similarity. Therefore, the image processing unit 11 obtains the difference between “similarity in similar directions” and “similarity in dissimilar directions”.
  • Such a strength difference is obtained from, for example, a difference or a ratio between “vertical similarity Cv [i, j]” and “horizontal similarity Ch [i, j]” used for calculating the index HV. Can be. Also, for example, it is obtained from the difference or ratio between “similarity C45 [i, j] in the diagonal 45 ° direction” used in the calculation of the index DN and “similarity C135 [i, j] in the diagonal 135 ° direction”. You can also.
  • Step S48 The image processing section 11 judges a threshold value of the obtained strength difference according to the following condition 8.
  • the threshold value th7 is a value for discriminating whether or not the processing target pixel has the image structure of the contour portion, and is set in advance according to the actual value of the raw data.
  • the image processing unit 11 shifts the operation to step S50.
  • the operation shifts to step S49.
  • Step S49 Here, since the condition 8 is not satisfied, it is presumed that the pixel to be processed is not the contour of the image. Therefore, the image processing unit 11 uses a coefficient table group having an array size of 3 ⁇ 3 as shown in FIGS.
  • the image processing unit 11 determines a pixel to be processed based on a condition in which “direction determination of similarity using the index (HV, DN)” and “color component of the pixel to be processed” are combined. Classified into easel ⁇ 12. Note that the following “x” may be any of 1, 0, _1. ⁇ R position or B position ⁇
  • the image processing unit 11 sets the coefficient table group with weak contour enhancement (coefficient tables 5, 7, 9, 11, 13, 15, 17, 19, and 19 shown in FIGS. 9 to 13). , 21, 23, 25, 27), select the following coefficient table.
  • casel l— 2 Select coefficient table 25.
  • the image processing unit 11 After selecting such a coefficient table, the image processing unit 11 shifts the operation to step S51.
  • Step S50 Here, since the condition 8 is satisfied, the pixel to be processed is estimated to be the contour of the image. Therefore, the image processing unit 11 includes a group of coefficient tables with strong edge enhancement (coefficient tables with an array size of 5 ⁇ 5, shown in FIGS. 9 to 13, 6, 8, 10, 12, 14, 16, 18, 20) , 22, 24, 26, 28) to select the coefficient table.
  • the image processing unit 11 classifies the processing target pixels into cases 1 to 12 as in step S49.
  • the image processing unit 11 uses a group of coefficient tables with strong edge enhancement (coefficient tables 6, 8, 10, 12, 14, 16, 18, 18 shown in Figs. 9 to 13). 20, 22, 24, 26, 28), select the following coefficient table.
  • a coefficient table in which coefficients are preferentially allocated in the direction of relatively strong similarity is selected. Furthermore, this coefficient table enables the contour enhancement of the image by distributing negative coefficient terms in a direction substantially orthogonal to the similar direction. After selecting such a coefficient table, the image processing unit 11 shifts the operation to step S51.
  • Step S51 The coefficient table is selected for each pixel by a series of operations described above.
  • the image processing unit 11 multiplies the coefficient term of the coefficient table thus selected by multiplying the color component of the local area including the pixel to be processed of the RAW data and adds the result.
  • This weighting ratio is equal to the weighting ratio when calculating the luminance component Y from the RGB color components. Therefore, in the above-described weighted addition, the luminance component Y is directly generated from the RAW data in pixel units.
  • a group of coefficient tables having different spatial frequency characteristics is prepared in advance, and the group of coefficient tables is switched and used according to the analysis result of the image structure (steps S43 and S44). 8).
  • the originally separate image processing of “color system conversion” and “spatial filter processing in consideration of the image structure” with one weighted addition.
  • step S 43 when it is determined that “similarity in multiple directions is isotropic” and “similarity is strong”, “a coefficient table of a type with a high degree of noise removal” is selected (step S 43, step S45). For this reason, at the same time as the color system conversion, noise conspicuous in flat portions of the image can be strongly suppressed.
  • a coefficient table having a weak LPF characteristic is selected (step S43, step S44). Therefore, high-quality image data including a lot of image information can be generated.
  • the mode when it is determined that the difference in similarity is large in a plurality of directions, the mode is switched to a “coefficient table of a type having a stronger degree of contour enhancement” that emphasizes high-frequency components in dissimilar directions (Ste S48, step S50).
  • the coefficient table is changed to one with a higher degree of noise removal as the imaging sensitivity is higher (steps S42 and S46). As a result, simultaneously with the color system conversion, the noise that increases at high imaging sensitivity can be further suppressed.
  • the electronic camera (including the image processing device) of the second embodiment performs color interpolation on the R-AW data (corresponding to the first image) in the RGB bay array to obtain image data (the second image data) in which the RGB signal components are arranged in pixel units. (Corresponding to two images).
  • the configuration of the electronic camera (FIG. 1) is the same as in the first embodiment. Therefore, description is omitted.
  • FIG. 14 is a flowchart illustrating color interpolation processing according to the second embodiment.
  • the image processing unit 11 determines whether or not the G pixel [i, j] of the RAW data to be processed is a place where similarity cannot be distinguished in any direction. Similarity of "Is there any significant directionality in the image structure and is it highly isotropic?" Judge by judgment.
  • the image processing unit 11 obtains an index (HV, DN) for the G pixel [i, j]. This processing is the same as that of the first embodiment (FIGS. 3 and 4), and thus the description is omitted.
  • the image processing unit 11 determines whether or not the obtained index (H V, D N) force S (0, 0).
  • the image processing unit 11 shifts the operation to Step S63.
  • the image processing unit 11 shifts the operation to step S62.
  • Step S62 In this step, there is a significant directionality in the image structure.
  • the G pixel [i, j] to be processed is located at the outline or detail of the image, and is likely to be an important image structure.
  • the image processing unit 11 avoids smoothing processing (steps S63 and S64) described later in order to keep important image structures faithful. That is, the image processing unit 11 uses the value of the G pixel [i, j] of the raw data as the G color component of the pixel [i, j] after color interpolation.
  • the image processing unit 11 shifts the operation to Step S65.
  • Step S63 On the other hand, in this step, there is no significant directionality in the image structure. Therefore, there is a high possibility that the noise is point-like noise isolated from the flat part of the image or the surroundings.
  • the image processing unit 11 can suppress the noise of the G pixel to a low level without impairing an important image structure by performing smoothing only on such a portion.
  • the image processing unit 11 determines the degree of smoothing with reference to the imaging sensitivity at the time of capturing the RAW data, in addition to the above-described similarity determination (determination of the image structure).
  • FIG. 15 is a diagram showing a coefficient table prepared in advance to change the degree of smoothing. This coefficient table specifies the weighting factor when the central G pixel [i, j] to be processed and the peripheral G pixels are weighted and added.
  • the image processing unit 11 selects the coefficient table shown in FIG. 15 (A).
  • This coefficient table has a weighting ratio of 4: 1 between the central G pixel and the peripheral G pixel, and is a coefficient table with a low degree of smoothing.
  • the image processing unit 11 selects the coefficient table shown in FIG. 15 (B).
  • This coefficient table has a weight ratio of 2: 1 between the central G pixel and the peripheral G pixel, and is an intermediate coefficient table with an intermediate degree of smoothing.
  • the image processing unit 11 selects the coefficient table shown in FIG. 15 (C).
  • This coefficient table has a weighting ratio of the central G pixel to the peripheral G pixel of 1: 1 and is a coefficient table with a high degree of smoothing.
  • the degree of smoothing may be changed using the coefficient table shown in FIG.
  • FIG. 16 a case where the coefficient table shown in FIG. 16 is used will be described.
  • the coefficient table shown in FIG. 16A is selected.
  • This coefficient table has a size of 3 ⁇ 3 pixels in the vertical and horizontal directions, and smoothing is performed on the unevenness of the spatial pixel values below this range. As a result, smoothing processing is performed on the undulation (high-frequency spatial frequency component) of this fine size, and the degree of smoothing can be relatively reduced.
  • the coefficient table shown in FIG. 16 (B) is selected.
  • weighting coefficients are distributed in a diamond shape within a range of 5 ⁇ 5 pixels vertically and horizontally.
  • a rhombus table corresponding to a diagonal of 4.24 ⁇ 4.24 pixels is calculated in terms of vertical and horizontal pixel intervals.
  • undulations spatial frequency components in the middle and high frequencies below this range are subject to smoothing, and the degree of smoothing is slightly higher.
  • the coefficient table shown in FIG. 16 (C) is selected.
  • This coefficient table has a size of 5 ⁇ 5 pixels in the vertical and horizontal directions, and smoothing is performed on the unevenness of the spatial pixel values below this range. As a result, undulations (mid-spatial frequency components) below this range are included in the smoothing target, and the degree of smoothing is further increased.
  • the image processing unit 11 relatively increases the weight coefficient of the center G pixel and / or increases the coefficient test. Reduce the size of a pull. Such a change in the coefficient table can reduce the smoothing.
  • the image processing unit 11 relatively reduces the weight coefficient of the center G pixel and increases the size of the coefficient table or coefficient table. By changing the coefficient table, smoothing can be enhanced. ⁇
  • Step S64 The image processing unit 11 weights and adds the values of the peripheral G pixels to the G pixel [i, j] to be processed according to the weight coefficient of the selected coefficient table.
  • the image processing unit 11 uses the value of the G pixel [i, j] after the weighted addition as the 0 color component of the pixel after color interpolation, "].
  • the image processing unit 11 shifts the operation to Step S65.
  • Step S65 The image processing section 11 repeatedly executes the above-described adaptive smoothing processing (steps S61 to S64) on the G pixels of the RAW data.
  • the image processing unit 11 shifts the operation to step S66.
  • Step S66 Subsequently, the image processing section 11 performs an interpolating process on the RB position (empty lattice position of the G color component) of the RAW data to generate an interpolating component of G color.
  • Gvl35 (G [i, j-l] + G [i, j + l]) / 2
  • Ghl35 (G [i-l, j] + G [i + l, j]) / 2
  • Step S67 Subsequently, the image processing section 11 performs an interpolation process for the R color component. For example, here, for pixels [i + l, j], [i, j + l], and [i + 1, j + 1] other than the R position [i, j], Perform processing.
  • R [i + 1, j] (R [i, j] + R [i + 2, j]) / 2+ (2-G [i + l, j] -G [i, j]-G [ i + 2, j]) / 2
  • R [i, j + l] (R [i, j] + R [i, j + 2]) / 2+ (2'G [i, j + 1] -G [i, j] _G [i , J + 2]) / 2
  • R [i + 1, j + l] (R [i, j] + R [i + 2, j] + R [i, j + 2] + R [i + 2, j + 2]) / 4
  • Step S68 Subsequently, the image processing section 11 performs an interpolating process for the B color component. For example, here, for the pixels [i + 1, j], [i, j + 1] and [i + l, j + 1] other than the B position [i, j], Is carried out.
  • B [i + 1, j] (B [i, j] + B [i + 2, j]) / 2+ (2-G [i + l, j] -G [i, j] -G [ i + 2, j]) / 2
  • B [i, j + l] (B [i, j] + B [i, j + 2]) / 2+ (2-G [i, j + 1]-G [i, j] -G [ i, j + 2]) / 2
  • B [i + 1, j + l] (B [i, j] + B [i + 2, j] + B [i, j + 2] + B [i + 2, j + 2]) / 4
  • the electronic camera (including the image processing device) according to the third embodiment performs color interpolation on RAW data (corresponding to the first image) in the RGB Bayer array to obtain image data (second image) in which RGB signal components are arranged in pixel units. (Corresponding to the image).
  • the configuration of the electronic camera (FIG. 1) is the same as in the first embodiment. Therefore, description is omitted.
  • FIG. 17 is a flowchart illustrating color interpolation processing according to the third embodiment.
  • Step S71 For the G pixel [i, j] of the RAW data to be processed, the image processing unit 11 “cannot determine whether the similarity is stronger than a predetermined level in any direction”, Or no flat direction is found, and whether the area is highly flat or not ”by the similarity judgment.
  • the image processing unit 11 obtains similarities Cv, Ch, C45, and C135 for the G pixel [i, j]. This processing is the same as in the first embodiment, and a description thereof will not be repeated.
  • the image processing unit 11 determines whether or not all of the obtained similarities C V, Ch, C 45, and C 135 are equal to or smaller than a predetermined threshold based on the following conditional expressions.
  • the threshold value in the equation is used to determine whether the similarity indicates a significant change in pixel value. Value. Therefore, as the imaging sensitivity increases, it is preferable to increase the threshold value in consideration of an increase in noise.
  • the image processing unit 11 shifts the operation to step S73.
  • the image processing unit 11 shifts the operation to step S72.
  • Steps S72 to S78 are the same as steps S62 to S68 in the second embodiment, and thus description thereof is omitted.
  • RGB color interpolation is completed.
  • step S43 of the first embodiment described above if it is determined that “similarity in multiple directions is isotropic” and “similarity is weak”, “the type of noise removal is stronger Coefficient table ”may be selected.
  • a part having a weak similarity can be regarded as noise and strongly removed.
  • undulation information at an isotropic location a location that is clearly not a contour
  • step S48 of the first embodiment described above when it is determined that the strength difference between the directions of similarity is small, the high frequency component of the signal component is emphasized. May be selected. In this case, simultaneously with the color system conversion, a fine image structure having no directionality can be emphasized.
  • the color system conversion into the luminance component has been described.
  • the present invention is not limited to this.
  • the present invention may be implemented when a color system is converted into a color difference component.
  • spatial filter processing especially LPF processing
  • the present invention is applied to the color system conversion has been described.
  • the present invention is not limited to this. For example, by replacing the coefficient table for color system conversion with the coefficient table for color interpolation, it is possible to perform "color interpolation processing" and "advanced spatial filter processing considering the image structure" together. become.
  • an external computer 18 may execute the operations shown in FIGS. 2 to 7 by using an image processing program.
  • the image processing service of the present invention may be provided through a communication line such as the Internet.
  • the image processing function of the present invention may be added later to the electronic camera by rewriting the firmware of the electronic camera.
  • the present invention is an invention that can be used for an image processing device and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

本発明の画像処理装置は、第1~第n色成分(n≧2)の1つを画素配分した第1画像を、画素単位に第1~第n色成分が揃った第2画像に変換する画像処理装置である。この画像処理装置の平滑化部は、第1画像で第1色成分を有する画素位置に対して、周辺画素の第1色成分を用いた平滑化を施し、平滑化後の第1色成分を第2画像の画素位置の第1色成分とする。更に、この平滑化部は、第1画像が撮像された撮像感度に応じて、平滑化するためのフィルタの特性を変更する制御部を備える。

Description

明細書- 色成分の混在配列された画像を処理する .
画像処理装置、 画像処理プログラム、 電子カメラ、 および画像処理方法 技術分野
本発明は、 色成分が混在配置された第 1画像 (例えば R AWデータ) を変換し て、 少なくとも 1種類の成分を画素単位に揃えた第 2画像を生成する画像処理技 術に関する。 背景技術
(背景技術 1 )
従来、 電子カメラにおいて、 輪郭強調やノイズ除去などの空間フィルタ処理を 実施するものが知られている。
通常、 この種の空間フィルタ処理は、 単板撮像素子から出力される R AWデー タ (例えばべィヤー配列データ) に対して、 色補間処理、 輝度色差 Y C b C rへ の表色系変換処理を実施した後、 輝度色差 Y C b C r (特に輝度成分 Y) に対し て実施される。 例えば、 代表的なノイズ除去フィルタとして、 ε一フィルタなど が知られている。
ところで、 この処理では、 色補間、 表色系変換処理、 および空間フィルタ処理 を個別に実施しなければならず、 画像処理が複雑になってしまうという問題点が あった。 そのため、 R AWデータの処理時間が長くなるなどの問題点があった。 また、 画像処理が複雑なために、 電子カメラに搭載される画像処理用 I Cの構成 が複雑になるという問題点もあった。 . さらに、 これらの処理 (色補間、 表色系変換処理、 および空間フィルタ処理) を一つの画像に段階的に実施するため、 度重なる処理の過程で微細な画像情報が 失われやすいという問題点もあつた。
(背景技術 2 )
通常、 単板撮像素子の R AWデータに対して色補間を実施すると、 R AWデー タに元から存在する原信号と、 原信号の平均処理によって生成される捕間信号と がーつの画面に並ぶ。 このとき、 原信号と補間信号とでは、 空間周波数特性が微 妙に異なる。
そこで、 米国特許第 5 5 9 6 3 6 7号明細書 (以下 『特許文献 1』 という) で は、 原信号のみにローパスフィルタ処理を実施して、 原信号と捕間信号との間の 空間周波数特性の違いを軽減している。
ところで、 この処理では、 原信号に近接する捕間信号を使って、 原信号にロー パスフィルタ処理を施す。 そのため、 この処理においても、 色補間と空間フィル タ処理を段階的に実施していることに変わりなく、 やはり微細な画像情報が失わ れやすいという問題点があった。
(背景技術 3 )
なお、 本発明者は、 先に、 国際公開 WO O 2 / 2 1 8 4 9号パンフレツト (以 下『特許文献 2』 という) に示す国際出願を行っている。 この国際出願には、 R AWデータに対して直に表色系変換処理を実施する画像処理装置が開示されてい る。
この処理では、係数テーブルに従って R AWデータを加重加算することにより、 表色系変換を実施している。 この係数テーブルには、 輪郭強調やノイズ除去用の 係数項を、 予め固定的に含めることができる。 しかしながら、 後述する実施形態 のように、 空間周波数特性の異なる係数テーブル群を予め準備し、 これら係数テ 一ブル群を随時に切り換える技術については特に言及されていない。
(撮像感度の問題)
一般的な電子カメラでは、 撮像素子の撮像感度 (例えば、 撮像素子出力のアン プゲイン) を変更することができる。 この撮像感度の変更によって、 撮像される 画像のノイズ振幅が大きく変化する。 特許文献 1および特許文献 2では、 後述す る実施形態のように、 撮像感度に応じて第 1画像の変換フィルタを変更する技術 については特に言及されていない。 そのため、 低い撮像感度による高 S ZN画像 については、 変換フィルタの平滑化が強すぎて、 過度にボケた画像となる恐れが あった。 また、 高い撮像感度による低 S ZN画像については、 変換フィルタの平 滑化が逆に不足し、 偽色が目立ったり、 ザラザラした画像になる恐れがあった。 発明の開示
本発明の目的は、 上述した問題点に鑑みて、 画像構造に適合した高度な空間フ ィルタ処理を効率良く簡易に実施することである。
また、 本発明の別の目的は、 撮影感度が変わっても、 解像度やコントラストを 維持しつつ適切なノィズ除去が可能な画像処理技術を提供することである。 以下、 発明について説明する。
( 1 ) 本発明の画像処理装置は、 画素単位に第 1〜第 n色成分 (n 2 ) のい ずれか 1つが配分されてなる第 1画像を、 画素単位に第 1〜第 n色成分が揃った 第 2画像に変換する画像処理装置である。
この画像処理装置は、 平滑化部を備える。 この平滑化部は、 第 1画像で第 1色 成分を有する画素位置に対して、 周辺画素の第 1色成分を用いた平滑化を施す。 平滑化部は、 この平滑化後の第 1色成分を、 第 2画像の画素位置の第 1色成分と する。
更に、 この平滑化部は、 制御部を備える。 この制御部は、 第 1画像が撮像され た撮像感度に応じて、 平滑化するためのフィルタの特性を変更する。
このような処理により、 撮像感度の条件が変わってもそれぞれに適した高精細 なノイズ除去効果が得ることが可能になる。
( 2 ) なお好ましくは、 第 1色成分を、 第 1〜第 n色成分の中で輝度信号を担 う色成分とする。
( 3 ) また好ましくは、 第 1〜第 n色成分は赤色、 緑色、 青色であり、 かつ第 1色成分は緑色とする。
( 4 ) なお好ましくは、 制御部は、 撮像感度に応じてフィルタのサイズ (参照 する画素範囲) を変更する。
( 5 ) また好ましくは、 制御部は、 撮像感度に応じて、 フィルタの要素値 (平 滑対象に対する周辺の参照成分の寄与率) を変更する。
( 6 ) なお好ましくは、 平滑化部は、 類似性判定部、 および切り換え部を備え る。
この類似判定部は、 複数の方向に対する画素の類似性の強弱を判定する。 一方、 切り換え部は、 その判定結果に応じて、 第 1画像の第 1色成分をそのま ま第 2画像の第 1色成分として出力するか、 平滑化後の第 1色成分を第 2画像の 第 1色成分として出力するかを切り換える。
(7) また好ましくは、 類似性判定部は、 少なくとも 4方向に関する画素間の 類似度を算出して類似性を判定する。
(8) 本発明の別の画像処理装置は、 画素単位に第 1〜第 n色成分 (n 2) のいずれか 1つが配分されてなる第 1画像を、 画素単位に少なくとも 1つの信号 成分が揃った第 2画像に変換する画像処理装置である。
この画像処理装置は、 信号生成部を備える。 この信号生成部は、 第 1画像の色 成分を加重加算することによって、 第 2画像の信号成分を生成する。
さらに、 この信号生成部は、 制御部を備える。 この制御部は、 第 1画像を撮像 したときの撮像感度に応じて、 第 1画像の色成分を加重加算するときに用いる加 重加算係数を変更する。
(9) なお好ましくは、 信号生成部は、 第 1〜第 n色成分とは異なる信号成分 を生成する。
(1 0) また好ましくは、 信号生成部は、 第 1〜第 n色成分とは異なる輝度成 分を生成する。
(1 1) なお好ましくは、 制御部は、 第 1画像で第 1色成分を有する画素位置 に対して、 加重加算係数を撮像感度に応じて変更する。
(1 2) また好ましくは、 制御部は、 撮像感度に応じて加重加算の範囲を変更 する。
(1 3) なお好ましくは、 制御部は、 撮像感度に応じて加重加算の重み係数を 変更する。
(14) また好ましくは、 信号生成部は、 類似性判定部を有する。 この類似性 判定部は、 複数の方向に対する画素の類似性の強弱を判定する。
制御部は、 撮像感度の他に、 類似性判定結果にも応じて加重加算の重み係数を 変更する。
(1 5) なお好ましくは、 制御部は、 『類似性判定結果が何れの方向にも類似 性の区別がつかない』 もしくは 『何れの方向にも類似性が所定レベルより強いと 判断される』 の場合、 第 1画像の処理対象画素が本来有する色成分と、 周辺画素 の同一色成分とを加重加算する。
( 1 6 ) また好ましくは、 類似性判定部は、 少なくとも 4方向に関する画素間 の類似度を算出して類似性を判定する。
( 1 7 ) 本発明の別の画像処理装置は、 表色系を構成する複数種類の色成分を 画素配列上に混在配置してなる第 1画像を変換し、 少なくとも 1種類の信号成分 (以下 『新成分』 という) を画素単位に揃えた第 2画像を生成する画像処理装置 である。 '
この画像処理装置は、類似性判定部、係数選択部、および変換処理部を備える。 まず、 類似性判定部は、 第 1画像の処理対象画素において、 複数方向について 画像の類似性を判定する。
係数選択部は、 類似性判定部による類似性の方向判定に応じて、 予め定められ た係数テープルを選択する。
変換処理部は、 選択した係数テーブルにより処理対象画素を含む局所域の色成 分を加重加算して、 新成分を生成する。
特に、 上記の係数選択部は、 類似性による画像構造の解析に応じて、 係数テー ブルを空間周波数特性の異なるものに変更する。 このような係数テーブルの変更 によって、 新成分の空間周波数成分の調整を実現する。
以上説明したように、 本発明では、 類似性による画像構造の解析に応じて、 係 数テーブルを空間周波数特性の異なるものに切り換えることにより、 生成される 新成分の空間周波数成分を調整する。
このような動作では、 背景技術のように、 新成分を一旦生成した後、 この新成 分を空間フィルタ処理するといつた段階的な処理が不要になる。 そのため、 画像 処理の手順を効率よく簡略化できる。
また、 新成分の生成に使用していた類似性を使用して、 画像構造の解析も済ま せているため、 その点でも処理に無駄が少なく、 画像構造を考慮した高度な空間 フィルタ処理を簡易に実現できる。
さらに、 この処理では、 『新成分の生成』 と 『画像構造解析に基づく空間周波 数成分の調整』 とが 1回の加重加算で実施されるため、 演算処理を複数回に分け て繰り返す場合に比べて微細な画像情報が失われにくい。
なお好ましくは、 本発明において、 色成分の加重比率を表色系変換の加重比率 に対応させる。 この場合、 従来の 『色補間処理』 を不要とし、 かつ 『表色系変換 処理』.および 『画像構造を考慮した空間フィルタ処理』 を、 一回の加重加算で済 ますことができる。 このような処理により、 例えば、 従来の時間がかかっていた R AWデータ等の画像処理を、 顕著に簡略化し、 かつ顕著に高速化することが可 能になる。
( 1 8 ) なお好ましくは、 係数選択部は、 類似性の値の大小判定により、 処理 対象画素の近傍の画像構造を解析する。 係数選択部は、 この解析結果に応じて、 係数テ一ブルを空間周波数特性の異なるものに変更する。
( 1 9 ) また好ましくは、 係数選択部は、 係数テーブルを配列サイズの異なる ものに変更する。 このような変更により、 係数テーブルを空間周波数特性の異な るものに変更する。
( 2 0 ) なお好ましくは、 係数選択部は、 方向判定において複数方向の類似性 が略均等と判定され、 かつ画像構造の解析において類似性が強いと判定された場 合、 信号成分の高周波成分を強くおよぴノまたは広帯域に抑制する 『ノイズ除去 の度合いがより強いタイプの係数テーブル』 に変更する。
( 2 1 ) また好ましくは、 係数選択部は、 方向判定において複数方向の類似性 • が略均等と判定され、 かつ画像構造の解析において類似性が弱いと判定された場 合、 信号成分の高周波成分を強くおよぴノまたは広帯域に抑制する 『ノイズ除去 の度合いがより強いタイプの係数テーブル』 に変更する。
( 2 2 ) なお好ましくは、 係数選択部は、 画像構造の解析において類似性の方 向間の強弱差が大きいと判定された場合、 類似性の弱い方向の高周波成分を強調 する 『輪郭強調の度合いがより強いタイプの係数テーブル』 に変更する。
( 2 3 ) また好ましくは、 係数選択部は、 画像構造の解析において類似性の方 向間の強弱差が小さいと判定された場合、 信号成分の高周波成分を強調する 『デ ィテール強調の度合いがより強いタイプの係数テーブル』 に変更する。
( 2 4 ) なお好ましくは、 係数選択部は、 第 1画像を撮像した際の撮像感度が 高いほど、 係数テーブルをノイズ除去の度合いの強いものに変更する。 (25) また好ましくは、 係数テーブルの変更前後において、 色成分間の加重 比率を略一定に保つ。
(26) なお好ましくは、 色成分間の加重比率は、 表色系変換用の加重比率で ある。
(27) 本発明の別の画像処理装置は、 平滑化部、 および制御部を備える。 この平滑化部は、 画像データの処理対象画素と周辺画素とを加重加算すること により、 前記画像データに平滑化処理を施す。
一方、 制御部は、 この画像データを撮影した際の撮像感度に応じて、 上記の周 辺画素の参照範囲を変更する。
(28) 本発明の画像処理プログラムは、 コンピュータを、 上記 (1) 〜 (2 7) のいずれか 1項に記載の画像処理装置として機能させる。
(29) 本発明の電子カメラは、 上記 (1) 〜 (27) のいずれか 1項に記載 の画像処理装置と、 被写体を撮像して、 第 1画像を生成する撮像部とを備える。 この電子カメラでは、 撮像部で撮像して得た第 1画像を、 画像処理装置で処理し て、 第 2画像を生成する。
(30) 本発明の画像処理方法は、 画素単位に第 1〜第 n色成分 (n 2) の いずれか 1つが配分されてなる第 1画像を、 画素単位に少なくとも 1つの信号成. 分が揃った第 2画像に変換する画像処理方法である。
この画像処理方法は、 第 1画像の色成分を加重加算することによって第 2画像 の信号成分を生成するステップを備える。
特に、 この信号成分を生成するステップにおいて、 第 1画像を撮像したときの 撮像感度に応じて、 第 1画像の色成分を加重加算するときに用いる加重加算係数 を変更するステップを実施する。
(3 1) 本発明の別の画像処理方法は、 表色系を構成する複数種類の色成分を 画素配列上に混在配置してなる第 1画像を変換し、 少なくとも 1種類の信号成分 (以下 『新成分』 という) を画素単位に揃えた第 2画像を生成する画像処理方法 である。 この画像処理方法は、 下記のステップを有する。
[S 1] 第 1画像の処理対象画素において、 複数方向について画像の類似性 を判定するステップ。 [S 2] 類似性判定のステップによる類似性の方向判定に応じて、 予め定め られた係数テーブルを選択するステップ。
[S 3] 選択した係数テーブルにより処理対象画素を含む局所域の色成分を 加重加算して、 新成分を生成するステップ。
特に、上記の係数選択のステップでは、類似性による画像構造の解析に応じて、 係数テーブルを空間周波数特性の異なるものに変更する。 この変更により、 新成 分の空間周波数成分を調整する。 図面の簡単な説明
なお、 本発明における上述した目的およびそれ以外の目的は、 以下の説明と添 付図面とによつて容易に確認することができる。
図 1は、 電子カメラ 1の構成を示すプロック図である。
図 2は、 表色系変換処理の大まかな動作を示す流れ図である。
図 3は、 指標 HVの設定動作を示す流れ図である。
図 4は、 指標 DNの設定動作を示す流れ図である。
図 5は、 輝度成分の生成処理を示す流れ図 ( 1 /3 ) である。
図 6は、 輝度成分の生成処理を示す流れ図 (2/3) である。
図 7は、 輝度成分の生成処理を示す流れ図 (3Z3) である。
図 8は、 指標 (HV,DN) と類似方向との関係を示す図である。
図 9は、 係数テーブルの一例を示す図である。
図 1 0は、 係数テーブルの一例を示す図である。
図 1 1は、 係数テーブルの一例を示す図である。
図 1 2は、 係数テーブルの一例を示す図である。
図 1 3は、 係数テーブルの一例を示す図である。
図 14は、 RGB色補間の動作を説明する流れ図である。
図 1 5は、 係数テーブルの一例を示す図である。
図 1 6は、 係数テーブルの一例を示す図である。
図 1 7は、 RGB色補間の動作を説明する流れ図である。 発明を実施するための最良の形態
* * * 第 1実施形態 * * *
以下、 図面に基づいて本発明にかかる第 1実施形態を説明する。
図 1は、 第 1実施形態に対応する電子カメラ 1のブロック図である。
図 1において、 電子カメラ 1には、 撮影レンズ 2 0が装着される。 この撮影レ ンズ 2 0の像空間には、撮像素子 2 1の撮像面が配置される。この撮像面上には、 べィヤー配列の R G B原色フィルタが配置される。 この撮像素子 2 1から出力さ れる画像信号は、 アナログ信号処理部 2 2および A/D変換部 1 0を介して、 R AWデータ (第 1画像に対応) にデジタル変換された後、 バスを介してメモリ 1 3に一時記憶される。
このメモリ 1 3には、 バスを介して、 画像処理部 (例えば、 画像処理専用の 1 チップ .マイクロプロセッサ) 1 1、 制御部 1 2、 圧縮伸張部 1 4、 画像表示部 1 5、 記録部 1 7および外部インタフェース部 1 9が接続される。
また、 電子カメラ 1には、 操作部 2 4、 モニタ 2 5、 およびタイミング制御部 2 3が設けられる。さらに、電子カメラ 1には、メモリカード 1 6が装着される。 記録部 1 7は、 このメモリカード 1 6に、 処理済みの画像を圧縮記録する。
なお、 電子カメラ 1は、 外部インタフェース部 1 9 (U S Bなど) を介して、 外部コンピュータ 1 8に接続することもできる。
[発明との対応関係]
以下、 発明と第 1実施形態との対応関係について説明する。 なお、 ここでの対 応関係は、 参考のために一解釈を例示するものであり、 本発明を徒らに限定する ものではない。
請求項記載の類似性判定部は、 画像処理部 1 1の 『縦横斜め方向の類似性を求 め、これら類似性の方向判定により R AWデータの各画素を case 1〜 1 2 (後述) に分類する機能』 に対応する。
請求項記載の係数選択部は、 画像処理部 1 1の 『空間周波数特性の異なる係数 テーブル群を類似性の強弱判定などに基づいて切り換え使用する機能、 および ease l〜 1 2に応じて係数テーブル群から係数テーブルを選択する機能』 に対応 する。 請求項記載の変換処理部は、 画像処理部 1 1の 『係数テーブルに従って R AW データの局所域の色成分を加重加算して、 新成分 (ここでは輝度成分) を求める 機能』 に対応する。
請求項記載の第 1画像は、 R AWデータに対応する。
請求項記載の第 2画像は、 表色系変換後の画像データに対応する。
[第 1実施形態の動作説明]
図 2〜図 7は、画像処理部 1 1の動作フローチャートである。なお、図 2には、 表色系変換のおおまかな流れを示す。 図 3および図 4には、 類似性の方向判別の 指標 (HV, DN) を求める動作を示す。 また、 図 5〜7には、 輝度成分の生成処理を 示す。
まず、 図 2を用いて、 表色系変換のおおまかな動作を説明する。
画像処理部 1 1は、 R AWデータの処理対象画素を中心に、 画面の縦横方向に ついて類似性の方向判定を行い、 指標 HV を求める (ステップ S 1 ) 。 この指標 HVは、 横よりも縦の類似性が強い場合に 『1』 が設定され、 縦よりも横の類似性 が強い場合に『一 1』が設定され、縦横間で類似性に区別がつかない場合に『0』 が設定される。
さらに、 画像処理部 1 1は、 R AWデータの処理対象画素を中心に、 画面の斜 め方向について類似性の方向判定を行い、 指標 DNを求める (ステップ S 2 ) 。 こ の指標 DNは、斜め 1 3 5度よりも斜め 4 5度の類似性が強い場合に『1』が設定 され、斜め 4 5度よりも斜め 1 3 5度の類似性が強い場合に『一 1』が設定され、 これら類似性に区別がつかない場合に 『0』 が設定される。
次に、 画像処理部 1 1は、 「輝度成分生成処理」 を行う (ステップ S 3 ) と共 に、 「色度成分生成処理」 を行う (ステップ S 4 ) 。
なお、 色度成分生成処理については、 上述した特許文献 3の実施形態に詳しく 説明されているため、 ここでの説明を省略する。
以下、 「指標 HVの設定処理」 、 「指標 DNの設定処理」 、 および 「輝度成分生 成処理」 の順番に具体的な動作説明を行う。
《指標 HVの設定処理》
まず、 図 3を参照して、 指標 HV [i, j]の算出処理を説明する。 なお、 後述する 演算式では、 色成分 RBを一般化し、 『Z』 と表記する。
ステップ S 1 2: まず、画像処理部 1 1は、 RAWデータの座標 [i, j]において、 縦横方向の画素間差分を算出し、 類似度とする。
例えば、 画像処理部 1 1は、 以下の式 1〜式 4を用いて、 縦方向の類似度 Cv[i,j]と横方向の類似度 Ch[i, j]とを算出する。 (なお、 式中の絶対値 IIについ ては、 2乗演算などに代えてもよい。 )
( 1 ) 座標 [i,j]が、 R位置または B位置の場合
Cv[i, j] = (|G[i, j - 1]- G[i, | + |G[i-l, j-2]-G[i-l, j] |
+ |G[i - 1, j+2]-G[i-l, j] | + |G[i+l, j-2]-G[i+l, j] | + |G[i+l, j+2]-G[i+l, j] | +|Z[i, j - 2] - Z[i, j] | + |Z[i, j+2]_Z[i, j] |)/7 ···式 1
Ch[i, j] = (|G[i-l, j]一 G[i+1, j] | + |G[i-2, j - 1] - G[i, j_l] |
+ |G[i+2, j-l]-G[i, j-l]| + |G[i-2, j+l]-G[i, j+l] | + |G[i+2, j+1]- G[i, j+1] | + |Z[i-2, j]-Z[i, j] | + |Z[i+2, j]- Z[i, j] |)/7 · · ·式 2
(2) 座標 [i,j]が、 G位置の場合
Cv[i, j] = (|G[i, j -2] _G[i, j] | + |G[i, j+2]-G[i, j] |
+ |G[i- 1, j-l]-G[i-l, j+1] | + |G[i+l, j - 1]- G[i+1, j+1] |
+ |Z[i, j-l]-Z[i, j+1] |)/5 …式 3
Ch[i, j] = (|G[i-2, j]-G[i, j] | + |G[i+2, j]_G[i, j] I
+ |G[i - 1, j- 1]一 G[i+1, j一 1] | + |G[i-l, j+1]— G[i+1, j+l] |
+|Z[i— 1, j]—Z[i+l, j] |)/5 …式 4
このようにして算出される類似度は値が小さい程、 類似性が強いことを示す。 ステップ S 1 3 : 次に、 画像処理部 1 1は、 縦横方向の類似度を比較する。 ステップ S 1 4 : 例えば、 下記の条件 2が成り立つ場合、 画像処理部 1 1は、 縦横の類似度が同程度であると判定し、 指標 HV[i, j]に 0を設定する。
|Cv[i, j]-Ch[i, j] I≤Th4 ···条件 2
なお、 条件 2において、 閾値 Th4は、 縦横の類似度の差異が微少である場合、 ノイズによって一方の類似性が強いと誤判定されることを避ける役割を果たす。 そのため、 ノイズの多いカラー画像に対しては、 閾値 Th4の値を高く設定するこ とが好ましい。 ステップ S 1 5 : —方、条件 2が不成立で、かつ下記の条件 3が成り立つ場合、 画像処理部 1 1は、縦の類似性が強いと判定して、指標 HV[i, j]に 1を設定する。
Cv[i, j]<Ch[i, j] ···条件 3
ステップ S 1 6 : また、 条件 2および条件 3が不成立の場合、 画像処理部 1 1 は、 横の類似性が強いと判定して、 指標 HV[i, j]に一 1を設定する。
ところで、 ここでは RB位置と G位置の両方に対して類似度を算出したが、 簡 略化のためには、 RB位置のみ類似度を算出して、 RB位置の方向指標 HVを設 定し、 G位置の方向指標は周辺の HV値を参照して決めるようにしてもよい。 例 えば、 G位置の隣接 4点の指標について平均値を求めて整数化を行い、 G位置の 方向指標としてもよい。
《指標 DNの設定処理》
次に、 図 4を参照して、 指標 DN[i, j]の設定処理を説明する。
ステップ S 3 1 : まず、画像処理部 1 1は、 RAWデータの座標 [i,j]において、 斜め 45度方向および斜め 135度方向の画素間差分を算出して、 類似度とする。 例えば、 画像処理部 1 1は、 以下の式 5〜式 8を用いて、 斜め 45度方向の類 似度 C45[i, j]と、 斜め 1 35度方向の類似度 C135[i, j]とを求める。
(1) 座標 [i,j]が、 R位置または B位置の場合
C45[i, j] = (|G[i-l, j]一 G[i, j-1] | + |G[i, j+1] - G[i+1, j] |
+ |G[i - 2, j-l]-G[i-l, j-2] | + |G[i+l, j+2]-G[i+2, j+1] |
+|Z[i-l, j+l]-Z[i+l, j-1] |)/5 …式 5
C135[i, j] = (|G[i_l, j]-G[i, j+1] | + |G[i, j— 1]—G[i+1, j] |
+ |G[i- 2, j + 1]— G[i- 1, j+2] | + |G[i+l, j-2]-G[i+2, j-l] |
+ |Z[i- 1, j- l]_Z[i+l, j+1] |)/5 …式 6
(2) 座標 [i,j]が、 G位置の場合
C45[i, j] = (|G[i- 1, j+l]-G[i, j] | + |G[i+l, j - l]_G[i, j] |
+ |Z[i - 1, j]_Z[i, j - 1] | + |Z[i, j+1] - Z[i+1, j] |)/4 …式 7
C135[i, j] = (|G[i-l, j-l]-G[i, j] | + |G[i + l, j+l]-G[i, j] |
+ |Z[i - 1, j]-Z[i, j+1] | + |Z[i, j-1]- Z[i+1, j] |)/4 …式 8
このようにして算出される類似度は、値が小さい程、類似性が強いことを示す。 ステップ S 3 2: 画像処理部 1 1は、 このようにして、斜め 45度方向および斜 め 135度方向に対する類似度を算出すると、 これらの類似度に基づいて、 2つの 斜め方向の類似性が同程度であるか否かを判定する。
例えば、 このような判定は、 下記の条件 5が成り立つか否かを判定することに よって実現できる。
| C45 [i, j] - C135 [i, j] I≤Th5 · · ·条件 5
なお、 閾値 Th5は、 2方向の類似度 C45 [i, j] , C135 [i, j]の差異が微少である場 合、 ノィズによつて一方の類似性が強いと誤判定されることを避ける役割を果た す。 そのため、 ノイズの多いカラー画像に対しては、 閾値 Th5の値を高く設定す ることが好ましい。
ステップ S 3 3 : このような判定から斜め類似性が同程度の場合、 画像処理部 1 1は、 指標 DN[i, j]に 0を設定する。
ステップ S 3 4 : 一方、斜め類似性が強い方向が判別できる場合、斜め 45度方 向の類似性が強いか否かを判定する。
例えば、 このような判定は、 下記の条件 6が成り立つか否かを判定することに よって実現できる。
C45 [i, j] <C135 [i, j] · ' ·条件 6
ステップ S 3 5 : そして、 画像処理部 1 1は、 ステップ S 3 4の判定結果とし て、斜め 45度方向の類似性が強い場合(条件 5が成り立たず、条件 6が成り立つ 場合) 、 指標 DN[i, j]に 1を設定する。
ステップ S 3 6 : 一方、 斜め 135度方向の類似性が強い場合 (条件 5および条 件 6が成り立たない場合) 、 指標 DN[i, j]に一 1を設定する。
ところで、 ここでは R B位置と G位置の両方に対して類似度を算出したが、 簡 略化のためには、 R B位置のみ類似度を算出して、 R B位置の方向指標 D Nを設 定し、 G位置の方向指標は周辺の D N値を参照して決めるようにしてもよい。 例 えば、 G位置の隣接 4点の指標について平均値を求めて整数化を行い、 G位置の 方向指標としてもよい。
《輝度成分生成処理》
次に、 図 5〜図 7を参照して 「輝度成分生成処理」 の動作を説明する。 ステップ S 4 1 : 画像処理部 1 1は、処理対象画素の指標 (HV, DN) 1S (◦, 0) か否かを判定する。
ここで、 指標 (HV, DN) が (0, 0) の場合、 縦横方向および斜め方向の類似 性がそれぞれ略均等であり、 等方的な類似性を示す箇所であると判定できる。 こ の場合、 画像処理部 1 1は、 ステップ S 42に動作を移行する。
一方、 指標 (HV, DN) が (0, 0) 以外の場合、 縦横方向または斜め方向の類 似性が不均等であり、 図 8に示すように、 画像構造に方向性を有する箇所である と判定できる。 この場合、 画像処理部は、 ステップ S 47に動作を移行する。 ステップ S 42 : 画像処理部 1 1は、 RAWデータを撮像した際の撮像感度(撮 像素子のアンプゲインに対応) を制御部 1 2から情報取得する。
撮像感度が高感度であった場合 (例えば I S0800相当以上) 、 画像処理部 1 1はステップ S 46に動作を移行する。
一方、 撮像感度が低感度であった場合、 画像処理部 1 1はステップ S 43に動 作を移行する。
ステップ S 43 : 画像処理部 1 1は、 類似性の強弱判定を実施する。 例えば、 このような強弱判定は、指標 HVの算出に用いた類似度 Cv[i, j],Ch[i, j]や、 指標 DNの算出に用いた類似度 C45[i, j],Cl35[i, j]のいずれかが、次の条件 7を満たす か否かによって判断される。
類似度 >閾値 th6 ' · ·条件 7
ただし、 閾値 th6は、 等方的な類似性を有する箇所が、 『平坦部』 か 『有意な 起伏情報を有する箇所』 かを判別するための境界値であり、 実際の RAWデータ の値に合わせて予め設定される。
条件 7が成立する場合、 画像処理部 1 1はステップ S 44に動作を移行する。 一方、 条件 7が不成立の場合、 画像処理部 1 1はステップ S 45に動作を移行 する。
ステップ S 44 : ここでは、 条件 7が成立しているため、 処理対象画素は周辺 画素との類似性が弱く、 すなわち有意な起伏情報を有する箇所であると判断でき る。 そこで、 画像処理部 1 1は、 この有意な起伏情報を残すため、 弱い L PF特 性を示す係数テーブル 1 (図 9参照) を選択する。 この係数テーブル 1は、 RG B位置共通に使用可能な係数テーブルである。 この選択動作の後、 画像処理部 1 1は、 ステップ S 5 1に動作を移行する。
ステップ S 4 5 : ここでは、 条件 7が不成立のため、 処理対象画素は周辺画素 との類似性が強く、 すなわち平坦部であると判断できる。 そこで、 画像処理部 1 1は、 この平坦部に目立つ微小振幅のノイズを確実に除去するため、 強くかつ広 帯域に高周波成分を抑制する係数テーブル 2, 3 (図 9参照) のいずれかを選択 する。 この係数テーブル 2は、 処理対象画素が R B位置の場合に選択される係数 テーブルである。 一方、 係数テーブル 3は、 処理対象画素が G位置の場合に選択 される係数テ一プルである。
このような選択動作の後、 画像処理部 1 1は、 ステップ S 5 1に動作を移行す る。
ステップ S 4 6 : ここでは、 撮像感度が高いために、 R AWデータの S ZNが 低いと判断できる。 そこで、 画像処理部 1 1は、 R AWデータのノイズを確実に 除去するため、 一段と強くかつ一段と広帯域に高周波成分を抑制する係数テープ ル 4 (図 9参照) を選択する。 この係数テーブル 4は、 R G B位置共通に使用可 能な係数テーブルである。 この選択動作の後、 画像処理部 1 1は、 ステップ S 5 1に動作を移行する。
ステップ S 4 7 : ここでは、 処理対象画素が非等方性の類似性を有する。 そこ で、 画像処理部 1 1は、 『類似方向の類似性』 と 『非類似方向の類似性』 の強弱 差を求める。
このような強弱差は、 例えば、 指標 HV の算出に使用した 『縦方向の類似度 Cv [i,j]』 と 『横方向の類似度 Ch [i,j]』 の差分や比率から求めることができる。 また例えば、 指標 D Nの算出に使用した『斜め 4 5度方向の類似度 C45 [i, j]』 と 『斜め 1 3 5度方向の類似度 C135 [i, j]』の差分や比率から求めることもできる。 ステップ S 4 8 : 画像処理部 1 1は、 求めた強弱差を、 次の条件 8に従って、 閾値判定する。
I強弱差 | >閾値 th7 · · ·条件 8
ただし、 閾値 th7は、 処理対象画素が、 輪郭部の画像構造であるか否かを区別 するための値であり、 実際の R AWデータの値に合わせて予め設定される。 画像処理部 1 1は、条件 8が成立する場合、ステップ S 5 0に動作を移行する。 一方、 条件 8が不成立の場合、 ステップ S 4 9に動作を移行する。
ステップ S 4 9 : ここでは、 条件 8が不成立のため、 処理対象画素は、 画像の 輪郭部ではないと推定される。 そこで、 画像処理部 1 1は、 輪郭強調の弱い係数 テーブル群 (図 9〜図 1 3 に示す、 配列サイズ 3 X 3の係数テーブル
5, 7, 9, 11, 13, 15, 17, 19, 21, 23, 25, 27) の中から、 係数テーブルを選択する。 具体的には、 画像処理部 1 1は、 『指標 (HV, DN) による類似性の方向判定』 と『処理対象画素の色成分』とを組み合わせた条件に基づいて、処理対象画素を、 下記の easel〜 1 2に分類する。 なお、下記の『x』は、 1, 0, _1の何れでもよい。 《R位置または B位置》
easel: (HV, DN) = (l, 1):縦および斜め 45度方向の類似性が強い。
case2: (HV, DN) = (1, 0):縦方向の類似性が強い。
case3: (HV, DN) = (1,- 1):縦および斜め 135度方向の類似性が強い。
case4: (HV, DN) = (0, 1):斜め 45度方向の類似性が強い。
case5:欠番
case6: (HV, DN) = (0,-1):斜め 135度方向の類似性が強い。
case7: (HV, DN) = (- 1, 1):横および斜め 45度方向の類似性が強い。
case8: (HV, DN) = (- 1, 0):横方向の類似性が強い。
case9: (HV, DN) = (- 1, - 1):横および斜め 135度方向の類似性が強い。
《G位置》
case 10: (HV, DN) = (1, x):少なくとも縦方向の類似性が強い。
casell— 1: (HV,DN) = (0, 1):斜め 45度方向の類似性が強い。
casell— 1: (HV, DN) = (0,-l):斜め 135度方向の類似性が強い。
easel2: (HV, DN) = (-l,x):少なくとも横方向の類似性が強い。
この easel〜1 2の分類に従い、 画像処理部 1 1は、 輪郭強調の弱い係数テー ブル群 (図 9〜図 1 3に示す係数テーブル 5, 7, 9, 11, 13, 15, 17, 19, 21, 23, 25, 27) の中から、 下記の係数テーブルを選択する。
easelのとき:係数テーブル 5を選択する。
case2のとき:係数テーブル 7を選択する。 case3のとき:係数テーブル 9を選択する。
case4のとき:係数テーブル 1 1を選択する。
case5のとき:欠番
case6のとき:係数テーブル 1 3を選択する。
case7のとき:係数テーブル 1 5を選択する。
case8のとき:係数テーブル' 1 7を選択する。
case9のとき:係数テーブル 1 9を選択する。
caselOのとき:係数テープ^ ^ 2 1を選択する。
casel l— 1のとき:係数テーブル 2 3を選択する。
casel l— 2のとき:係数テーブル 2 5を選択する。
case l2のとき:係数テープル 2 7を選択する。
なお、 ここでは、 類似性の比較的強い方向に係数を優先的に配分した係数テー プルを選択している。
このような係数テーブルの選択後、 画像処理部 1 1は、 ステップ S 5 1に動作 を移行する。
ステップ S 5 0 : ここでは、 条件 8が成立しているため、 処理対象画素は、 画 像の輪郭部であると推定される。 そこで、 画像処理部 1 1は、 輪郭強調の強い係 数テーブル群 (図 9〜図 1 3に示す、 配列サイズ 5 X 5の係数テーブル 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28) の中から係数テーブルを選択する。
具体的には、画像処理部 1 1は、ステップ S 4 9と同様に、処理対象画素を case 1 ~ 1 2に分類する。
この ease l〜1 2の分類に従い、 画像処理部 1 1は、 輪郭強調の強い係数テー ブル群(図 9〜図 1 3に示す係数テーブル 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28) の中から、 下記の係数テーブルを選択する。
easelのとき:係数テーブル 6を選択する。
case2のとき:係数テーブル 8を選択する。
case3のとき:係数テ一ブル 1 0を選択する。
case4のとき:係数テープノレ 1 2を選択する。
case5のとき:欠番 case6のとき:係数テープノレ 1 4を選択する。
case7のとき:係数テーブル 1 6を選択する。
case8のとき:係数テーブル 1 8を選択する。
case9のとき:係数テープノレ 20を選択する。
caselOのとき:係数テーブル 2 2を選択する。
casell__lのとき:係数テーブル 24を選択する。
case 11— 2のとき:係数テーブル 2 6を選択する。
casel2のとき:係数テーブル 2 8を選択する。
なお、 ここでは、 類似性の比較的強い方向に係数を優先的に配分した係数テー ブルを選択している。 さらに、 この係数テーブルは、 類似方向と略直交する方向 には負の係数項を配分することにより、 画像の輪郭強調を可能にしている。 このような係数テーブルの選択後、 画像処理部 1 1は、 ステップ S 5 1に動作 を移行する。
ステップ S 5 1 : 上述した一連の動作により、 画素単位に係数テーブルが選択 される。 画像処理部 1 1は、 このように選択された係数テーブルの係数項を、 R AWデータの処理対象画素を含む局所域の色成分に乗じて加算する。 . このとき、 図 9〜図 1 3に示す係数テーブルのいずれが選択されても、 この加 重加算における色成分ごとの加重比率は『R : G : B= 1 : 2 : 1』を常に保つ。 この加重比率は、 RGB色成分から輝度成分 Yを求める際の加重比率に等しい。 そのため、 上述した加重加算では、 RAWデータから輝度成分 Yが画素単位に直 に生成される。
[第 1実施形態の効果など]
以上説明したように、 第 1実施形態では、 空間周波数特性の異なる係数テープ ル群を予め準備し、 画像構造の解析結果に応じて係数テーブル群を切り換え使用 する (ステップ S 4 3, ステップ S 4 8) 。 その結果、 『表色系変換』および『画 像構造を考慮した空間フィルタ処理』 という本来別々の画像処理を、 一回の加重 加算で実行することが可能になる。
したがって、 空間フィルタ処理を表色系変換と別に行う必要がなくなり、 RA Wデータの処理にかかる時間を格段に短縮することができる。 また、 一回の加重加算で済むため、 表色系変換と空間フィルタ処理を段階的に 実施する背景技術に比べて、 画像情報の劣化を小さくすることもできる。
また、 第 1実施形態は、 『複数方向の類似性が等方的』 かつ 『類似性が強い』 と判定された場合、 『ノイズ除去の度合いが強いタイプの係数テーブル』 を選択 する (ステップ S 4 3 , ステップ S 4 5 ) 。 そのため、 表色系変換と同時に、 画 像の平坦部に目立つノィズを強力に抑制することができる。
一方、 第 1実施形態では、 有意な起伏情報を有する箇所については、 弱い L P F特性を有する係数テーブルを選択する (ステップ S 4 3、 ステップ S 4 4 ) 。 そのため、 画像情報をたくさん含む良質な画像データを生成できる。
さらに、 第 1実施形態では、 複数方向において類似性の強弱差が大きいと判定 されると、 非類似方向の高周波成分を強調する 『輪郭強調の度合いのより強いタ イブの係数テーブル』 に切り換える (ステップ S 4 8, ステップ S 5 0 ) 。 その 結果、表色系変換と同時に、画像の輪郭コントラス トを鮮明にすることができる。 その上、 第 1実施形態では、 撮像感度が高いほど、 係数テーブルをノイズ除去 の度合いの強いものに変更する (ステップ S 4 2 , ステップ S 4 6 )。その結果、 表色系変換と同時に、 高い撮像感度において増加するノィズを一段と強く抑制す ることができる。
次に、 別の実施形態について説明する。
* * * 第 2実施形態 * * *
第 2実施形態の電子カメラ (画像処理装置を含む) は、 R G Bべィヤー配列の R AWデータ (第 1画像に対応) を色補間して、 画素単位に R G B信号成分が揃 つた画像データ (第 2画像に対応) を生成する。
なお、 電子カメラの構成 (図 1 ) については、 第 1実施形態と同一である。 そ のため、 説明を省略する。
図 1 4は、 第 2実施形態における色補間処理を説明する流れ図である。
以下、 図 1 4に示すステップ番号に沿って、 第 2実施形態の動作説明を行う。 ステップ S 6 1 : 画像処理部 1 1は、 処理対象である R AWデータの G画素 [i, j]について、 『いずれの方向にも類似性の区別がつかない箇所か否か』すなわ ち 『画像構造に有意な方向性が見当たらず、 等方性の高い箇所か否か』 を類似性 判定によって判断する。
例えば、 画像処理部 1 1は、 この G画素 [i, j]について、 指標 (H V, D N) を 求める。 この処理は、 第 1実施形態 (図 3, 図 4 ) と同様であるため、 説明を省 略する。
次に、 画像処理部 1 1は、 求めた指標 (H V, D N) 力 S ( 0, 0 ) か否かを判 定する。
もし、 指標 (HV, DN) が (0 , 0 ) の場合、 縦横方向および斜め方向の類似性 がそれぞれ略均等であり、 G画素 [i, j]は類似性の区別がつかない箇所であると判 定できる。 この場合、 画像処理部 1 1は、 ステップ S 6 3に動作を移行する。 一方、 指標 (HV, DN) 力 S ( 0, 0 ) 以外の場合、 画像'構造に有意な方向性が存 在する。 この場合、 画像処理部 1 1は、 ステップ S 6 2に動作を移行する。
ステップ S 6 2 : このステップでは、 画像構造に有意な方向性が存在する。 す なわち、 処理対象の G画素 [i, j]は、 画像の輪郭部やディテール部などに位置し、 重要な画像構造である可能性が高い。
そこで、 画像処理部 1 1は、 重要な画像構造を忠実に保っため、 後述する平滑 化処理 (ステップ S 6 3 , S 6 4 ) を回避する。 すなわち、 画像処理部 1 1は、 R AWデータの G画素 [i, j]の値を、そのまま色補間後の画素 [i, j]の G色成分と する。
この処理の後、 画像処理部 1 1はステップ S 6 5に動作を移行する。
ステップ S 6 3 : 一方、 このステップでは、 画像構造に有意な方向性が存在し ない。 そのため、 画像の平坦部や、 周囲と孤立した点状のノイズである可能性が 高い。画像処理部 1 1は、このような箇所に限って平滑化を実施することにより、 重要な画像構造を損ねることなく、 G画素のノィズを低く抑えることができる。 なお、 画像処理部 1 1は、 上述した類似性判定 (画像構造の判定) の他に、 R AWデータ撮像時の撮像感度を参考にして、 平滑化の度合いを決定する。
図 1 5は、 この平滑化の度合いを変更するために、 予め準備する係数テーブル を示す図である。 この係数テーブルは、処理対象の中心 G画素 [i, j]と、周辺 G画 素とを加重加算する際の重み係数を規定するものである。
以下、 図 1 5に示す係数テーブルの選択について説明する。 まず、 撮像感度が I S O 2 0 0の場合、 画像処理部 1 1は、 図 1 5 (A) に示 す係数テーブルを選択する。 この係数テーブルは、 中心 G画素と周辺 G画素との 加重比率が 4 : 1であり、 平滑化の度合いの低い係数テーブルである。
また、 撮像感度が I S O 8 0 0の場合、 画像処理部 1 1は、 図 1 5 ( B ) に示 す係数テーブルを選択する。 この係数テーブルは、 中心 G画素と周辺 G画素との 加重比率が 2 : 1であり、 平滑化の度合いが中間的な係数テーブルである。 また、 撮像感度が I S O 3 2 0 0の場合、 画像処理部 1 1は、 図 1 5 ( C ) に 示す係数テーブルを選択する。 この係数テーブルは、 中心 G画素と周辺 G画素と の加重比率が 1 : 1であり、 平滑化の度合いの強い係数テーブルである。
なお、図 1 6に示す係数テーブルを用いて、平滑化の度合いを変更してもよい。 以下、 図 1 6に示す係数テーブルを使用する場合について説明する。
まず、 撮像感度が I S O 2 0 0の場合、 図 1 6 (A) に示す係数テーブルを選 択する。 この係数テーブルは、 縦横 3 X 3画素のサイズであり、 この範囲以下の 空間的な画素値の起伏について平滑化が実施される。 その結果、 この微細サイズ の起伏 (高域空間周波数成分) に対する平滑化処理となり、 平滑化の度合いを比 較的に低くすることができる。
また、 撮像感度が I S O 8 0 0の場合、 図 1 6 ( B ) に示す係数テーブルを選 択する。 この係数テーブルは、 縦横 5 X 5画素の範囲内に、 菱形状に重み係数を 配分する。 その結果、 縦横の画素間隔に換算して、 斜め 4 . 2 4 X 4 . 2 4画素 相当分の菱形テーブルと る。 その結果、 この範囲以下の起伏 (中高域の空間周 波数成分) までが平滑化の対象に入り、 平滑化の度合いは若干高くなる。
また、 撮像感度が I S O 3 2 0 0の場合、 図 1 6 ( C ) に示す係数テーブルを 選択する。 この係数テーブルは、 縦横 5 X 5画素のサイズであり、 この範囲以下 の空間的な画素値の起伏について平滑化が実施される。 その結果、 この範囲以下 の起伏 (中域空間周波数成分) までが平滑化の対象に入り、 平滑化の度合いは更 に高くなる。
続いて、 ここでの重み係数の一般的な変更ルールについて説明する。
まず、 撮像感度が低く、 すなわち R AWデータのノイズが少ないほど、 画像処 理部 1 1は、 中心 G画素の重み係数を相対的に増やすか、 および/または係数テ 一プルのサイズを縮小する。 このような係数テーブルの変更により、 平滑化を弱 めることができる。
逆に、 撮像感度が高く、 RAWデータのノイズが多いほど、 画像処理部 1 1は 中心 G画素の重み係数を相対的に減らすか、 およびノまたは係数テーブルのサイ ズを拡大する。 このような係数テーブルの変更により、 平滑化を強めることがで さる。 ·
ステップ S 64 : 画像処理部 1 1は、 選択した係数テーブルの重み係数に従つ て、処理対象の G画素 [i, j]に対して、周辺 G画素の値を加重加算する。 画像処理 部 1 1は、加重加算後の G画素 [i,j]の値を、色補間後の画素 ,」]の0色成分と する。
この処理の後、 画像処理部 1 1はステップ S 6 5に動作を移行する。
ステップ S 6 5 : 画像処理部 1 1は、 RAWデータの G画素を対象に、 上述し た適応型の平滑化処理 (ステップ S 6 1〜S 64) を繰り返し実行する。
画像処理部 1 1は、 RAWデータの G画素全てについて、 この適応型の平滑化 処理を完了すると、 ステップ S 66に動作を移行する。
ステップ S 66 : 続いて、 画像処理部 1 1は、 RAWデータの RB位置 (G色 成分の空格子位置) について捕間処理を行い、 G色の捕間成分を生成する。 例え ば、 ここでは下記のような、 指標 (HV, DN) を考慮した補間処理を実施する。 な お、 式中の 『Z』 は、 色成分 RBのいずれかを一般化して示すものである。 (HV,DN) = (0,0)ならば、 G[i, j] = (Gv+Gh)/2
(HV,DN) = (0, 1)ならば、 G[i, j] = (Gv45+Gh45)/2
(HV, DN) = (0, -1)ならば、 G[i, j] = (Gvl35+Ghl35)/2
(HV,DN) = (1,0)ならば、 G[i,j]=Gv
(HV, DN) = (1, 1)ならば、 G[i, j]=Gv45
(HV,DN) = (1,- 1)ならば、 G[i, j]=Gvl35
(HV,DN) = (-1,0)ならば、 G[i, j]=Gh
(HV,DN) = (-1, 1)ならば、 G[i, j]=Gh45
(HV, DN) = (-1,—1)ならば、 G[i, j]=Ghl35
ただし、 Gv=(G[i, j-l]+G[i, j+l])/2
+ (2'Z[i, j]-Z[i, j-2]-Z[i, j+2])/8
+ (2'G[i— 1, j]— G[i - 1, j_2] - G[i_l, j+2]
+2-G[i+l, j]-G[i+l, j- 2] - G[i+1, j+2])/16
Gv45=(G[i, j-l]+G[i, j+l])/2
+ (2'Z[i, j]-Z[i, j - 2]-Z[i, j+2])/8
+ (2-Z[i-l, j+l]-Z[i-l, j一 1]一 Z[i-1, j+3]
+2-Z[i+l, j - 1]- Z[i+1, j- 3] - Z[i+1, j+1]) 6
Gvl35=(G[i, j-l]+G[i, j+l])/2
+(2-Z[i, j]-Z[i, j - 2] - Z[i, i+2])/8
+ (2'Z[i- 1, j- 1]- Z[i- 1, j-3]-Z[i-l, j+1]
+2-z[i+l, j+1]- z[i+l, j- 1]- Z[i+1, j+3])/16
Gh=(G[i-l, j]+G[i+l, j])/2
+ (2-Z[i, j]-Z [i-2, j]一 Z [i+2, j] ) /8
+(2-G[i, j— l]_G[i— 2, j— l]_G[i+2, j一 1]
+2-G[i, j+l]-G[i- 2, j+l]-G[i+2, j+1]) 6
Gh45=(G[i-l, j]+G[i+l, j])/2
+ (2-z[i, j]-Z[i-2, j]-z[i+2, j])/8
+ (2'Z[i+l, j - 1]- Z[i-1, i-l]-Z[i+3, j - 1]
+2'Z[i- 1, j+l]_Z[i- 3, j+l]-Z[i+l, j+l])/16
Ghl35=(G[i-l, j]+G[i+l, j])/2
+ (2-Z[i, j]- Z[i- 2, j]-Z[i+2, j])/8
+ (2-Z[i-l, j-l]-Z[i-3, j-l]-Z[i+l, j-l]
+2-Z[i+l, j+1]- Z[i- 1, j+1]- Z[i+3, j+l])/16
ステップ S 6 7 : 続いて、 画像処理部 1 1は、 R色成分の補間処理を行う。 例 えば、 ここでは、 R位置 [i, j]以外の画素 [i+l, j], [i, j+l], [i+1, j+1]について、 それぞれ下記のような捕間処理を実施する。
R[i+1, j]=(R[i, j]+R[i+2, j]) /2+ (2-G[i+l, j]-G[i, j] - G[i+2, j])/2
R[i, j+l] = (R[i, j]+R[i, j+2])/2+(2'G[i, j+1]- G[i, j]_G[i, j+2])/2 R[i+1, j+l] = (R[i, j]+R[i+2, j]+R[i, j+2]+R[i+2, j+2])/4
+ (4-G[i+l, j+1] - G[i, j]-G[i+2, j] - G[i, j+2]- G[i+2, j+2])/4
ステップ S 68 : 続いて、 画像処理部 1 1は、 B色成分の捕間処理を行う。 例 えば、 ここでは、 B位置 [i, j]以外の画素 [i+1, j], [i, j+1], [i+l, j+1]について、 それぞれ下記のような補間処理を実施する。
B[i+1, j] = (B[i, j]+B[i+2, j])/2+(2-G[i+l, j]- G[i, j]- G[i+2, j])/2
B[i, j+l] = (B[i, j]+B[i, j+2])/2+(2-G[i, j + 1] - G[i, j]- G[i, j+2])/2
B[i+1, j+l] = (B[i, j]+B[i+2, j]+B[i, j+2]+B[i+2, j+2])/4
+ (4-G[i+l, j+1] - G[i, j]-G[i+2, j]-G[i, j+2]- G[i+2, j+2])/4
上述した一連の処理により、 RGB色補間が完了する。
* * * 第 3実施形態 * * *
第 3実施形態の電子カメラ (画像処理装置を含む) は、 RGBべィヤー配列の RAWデータ (第 1画像に対応) を色補間して、 画素単位に RGB信号成分が揃 つた画像データ (第 2画像に対応) を生成する。
なお、 電子カメラの構成 (図 1) については、 第 1実施形態と同一である。 そ のため、 説明を省略する。
図 1 7は、 第 3実施形態における色補間処理を説明する流れ図である。
以下、 図 1 7に示すステップ番号に沿って、 第 3実施形態の動作説明を行う。 ステップ S 7 1 : 画像処理部 1 1は、 処理対象である RAWデータの G画素 [i, j]について、 『いずれの方向も類似性が所定レベルより強いか否か』すなわち 『画像構造に有意な方向性が見当たらず、 平坦性の高い箇所か否か』 を類似性判 定によって判断する。
例えば、 画像処理部 1 1は、 この G画素 [i, j]について、 類似度 C v, Ch, C 45, C 1 3 5を求める。 この処理は、 第 1実施形態と同様であるため、 説明を 省略する。
次に、画像処理部 1 1は、下記の条件式に基づいて、求めた類似度 C V , C h, C 45 , C 1 3 5がいずれも所定の閾値以下か否かを判定する。
(Cv≤Thv) AND (Ch≤Thh) AND (C45≤Th45) AND (C135≤Thl35)
なお、 式中の閾値は、 類似度が有意な画素値変化を示しているかを判別するた めの値である。 そのため、 撮像感度が高くなるに従って、 ソィズ増加を考慮して 閾値を大きくすることが好ましい。
もし、 この条件式を満足した場合、 縦横方向および斜め方向に平坦な箇所で あると判定できる。 この場合、 画像処理部 1 1は、 ステップ S 7 3に動作を移行 する。
一方、 この条件式を満足しない場合、 画像構造に有意な方向性が存在する。 こ の場合、 画像処理部 1 1は、 ステップ S 7 2に動作を移行する。
ステップ S 7 2〜S 7 8 : 第 2実施形態のステップ S 6 2〜S 6 8と同一であ るため、 説明を省略する。
上述した一連の処理により、 R G B色補間が完了する。
* * * 実施形態の捕足事項 * * *
なお、 上述した第 1実施形態のステップ S 4 3において、 『複数方向の類似性 が等方的』 かつ 『類似性が弱い』 と判定された場合に、 『ノイズ除去の度合いが より強いタイプの係数テーブル』 を選択してもよい。 この場合、 表色系変換と同 時に、 類似性の弱い箇所をノイズとみなして強力に除去することができる。 この ような動作では、 等方的な箇所 (明らかに輪郭ではない箇所) における起伏情報 を、 孤立したノイズ点として強力にノイズ除去することができる。 つまり、 輪郭 部の画像構造を損なわずに、 ブッブッ状のノイズや、 モザイク状の色ノイズなど を適切に除去することが可能になる。
また、 上述した第 1実施形態のステップ S 4 8において、 類似性の方向間の強 弱差が小さいと判定された場合に、 信号成分の高周波成分を強調する 『ディテー ル強調タィプの係数テーブル』 を選択してもよい。 この場合、 表色系変換と同時 に、 方向性を持たない微細な画像構造を強調することができる。
なお、 上述したひとつの実施形態の中では、 輝度成分への表色系変換について 説明した。 しかしながら、 本発明はこれに限定されるものではない。 例えば、 本 発明を色差成分への表色系変換に際して実施してもよい。 この場合、 色差成分の 生成と同時に、 画像構造を考慮した空間フィルタ処理 (特に L P F処理) を実施 することが可能になり、 色差ノィズによる偽色発生を良好に抑制することができ る。 また、 上述したひとつの実施形態の中では、 表色系変換に本発明を適用するケ ースについて説明した。しかしながら、本発明はこれに限定されるものではない。 例えば、 表色系変換用の係数テーブルを、 色補間用の係数テーブルに代えること により、 『色補間処理』 と 『画像構造を考慮した高度な空間フィルタ処理』 を一 緒に実施することが可能になる。
すなわち、 第 2実施では色補間とローパス処理を一緒に実施する場合について のみ示したが、 第 1実施形態と同様に輪郭強調処理を含めてもよい。
さらに、 上述した実施形態では、 電子カメラ 1に本発明を適用するケースにつ いて説明した。 しかしながら、本発明はこれに限定されるものではない。例えば、 画像処理プログラムによって、 外部コンピュータ 1 8に、 図 2〜図 7に示す動作 を実行させてもよい。
また、 本発明の画像処理サービスを、 インターネットなどの通信回線を介して サービス提供してもよい。
さらに、 電子カメラのファームウェアの書き換えにより、 本発明の画像処理機 能を電子カメラに後から付加してもよい。
なお、 本発明は、 その精神または主要な特徴から逸脱することなく、 他のいろ いろな形で実施することができる。 そのため、 前述の実施例はあらゆる点で単な る例示に過ぎず、 限定的に解釈してはならない。 本発明の範囲は、 特許請求の範 囲によって示すものであって、 明細書本文には、 なんら拘束されない。 さらに、 特許請求の範囲の均等範囲に属する変形や変更は、 すべて本発明の範囲内のもの 、、ある。 産業上の利用可能性
以上説明したように、 本発明は、 画像処理装置などに利用可能な発明である。

Claims

請求の範囲
1 . 画素単位に第 1〜第 n色成分 (n 2 ) のいずれか 1つが配分されてなる 第 1画像を、 画素単位に第 1〜第 n色成分が揃った第 2画像に変換する画像処理 装置であって、
第 1画像で第 1色成分を有する画素位置に対して、 周辺画素の第 1色成分を用 いた平滑化を施し、 平滑化後の第 1色成分を、 第 2画像の前記画素位置の第 1色 成分とする平滑化部を備え、
前記平滑化部は、 前記第 1画像が撮像された撮像感度に応じて、 前記平滑化す るためのフィルタの特性を変更する制御部を有する
ことを特徴とする画像処理装置。
2 . 請求項 1に記載の画像処理装置において、
前記第 1色成分は、 第 1〜第 n色成分の中で輝度信号を担う色成分である ことを特徴とする画像処理装置。
3 . 請求項 2に記載の画像処理装置において、
第 1〜第 n色成分は赤色、 緑色、 青色であり、 かつ第 1色成分は緑色に相当す る
ことを特徴とする画像処理装置。
4 . 請求項 1に記載の画像処理装置において、
前記制御部は、 撮像感度に応じて前記フィルタのサイズ (参照する画素範囲) を変更する
ことを特徴とする画像処理装置。
5 . 請求項 1に記載の画像処理装置において、
前記制御部は、 撮像感度に応じて、 前記フィルタの要素値 (平滑対象に対する 周辺の参照成分の寄与率) を変更する
ことを特徴とする画像処理装置。
6 . 請求項 1に記載の画像処理装置において、
前記平滑化部は、
複数の方向に対する画素の類似性の強弱を判定する類似性判定部と、 その判定結果に応じて、 第 1画像の第 1色成分をそのまま第 2画像の第 1色成 分として出力するか、 平滑化後の第 1色成分を第 2画像の第 1色成分として出力 するかを切り換える切り換え部とを有する
ことを特徴とする画像処理装置。
7 . 請求項 6に記載の画像処理装置において、
前記類似性判定部は、 少なくとも 4方向に関する画素間の類似度を算出して類 似性を判定する
ことを特徴とする画像処理装置。
8 . 画素単位に第 1〜第 n色成分 (n 2 ) のいずれか 1つが配分されてなる 第 1画像を、 画素単位に少なくとも 1つの信号成分が揃った第 2画像に変換する 画像処理装置であって、
前記第 1画像の色成分を加重加算することによつて前記第 2画像の前記信号成 分を生成する信号生成部を備え、
前記信号生成部は、 前記第 1画像を撮像したときの撮像感度に応じて、 前記第 1画像の色成分を加重加算するときに用いる加重加算係数を変更する制御部を有 する
ことを特徴とする画像処理装置。
9 . 請求項 8に記載の画像処理装置において、
前記信号生成部は、 前記第 1〜第 n色成分とは異なる信号成分を生成する ことを特徴とする画像処理装置。
1 0 . 請求項 9に記載の画像処理装置において、
前記信号生成部は、 前記第 1〜第 n色成分とは異なる輝度成分を生成する ことを特徴とする画像処理装置。
1 1 . 請求項 8に記載の画像処理装置において、
前記制御部は、 第 1画像で第 1色成分を有する画素位置に対して、 前記加重加 算係数を前記撮像感度に応じて変更する
ことを特徴とする画像処理装置。
1 2 . 請求項 8に記載の画像処理装置において、
前記制御部は、 前記撮像感度に応じて前記加重加算の範囲を変更する ことを特徴とする画像処理装置。
1 3 . 請求項 8に記載の画像処理装置において、
前記制御部は、 前記撮像感度に応じて前記加重加算の重み係数を変更する ことを特徴とする画像処理装置。
1 4 . 請求項 8に記載の画像処理装置において、
前記信号生成部は、
複数の方向に対する画素の類似性の強弱を判定する類似性判定部を有し、 前記制御部は、 更に前記撮像感度の他に、 前記類似性判定結果にも応じて前記 加重加算の重み係数を変更する
ことを特徴とする画像処理装置。
1 5 . 請求項 1 4に記載の画像処理装置において、
前記制御部は、 前記類似性判定結果が何れの方向も類似性の区別がっかない、 もしくは何れの方向も類似性が所定レベルより強いと判断される場合、
第 1画像の処理対象画素が本来有する色成分と、 周辺画素の同一色成分とを加 重加算する
ことを特徴とする画像処理装置。
1 6 . 請求項 1 4に記載の画像処理装置において、
前記類似性判定部は、 少なくとも 4方向に関する画素間の類似度を算出して類 似性を判定する
ことを特徴とする画像処理装置。
1 7 . 表色系を構成する複数種類の色成分を画素配列上に混在配置してなる第 1画像を変換し、 少なくとも 1種類の信号成分 (以下 『新成分』 という) を画素 単位に揃えた第 2画像を生成する画像処理装置であって、
前記第 1画像の処理対象画素において、 複数方向について画像の類似性を判定 する類似性判定部と、
前記類似性判定部による前記類似性の方向判定に応じて、 予め定められた係数 テーブルを選択する係数選択部と、
選択した係数テーブルにより前記処理対象画素を含む局所域の前記色成分を加 重加算して、 前記新成分を生成する変換処理部とを備え、
前記係数選択部は、 前記類似性による画像構造の解析に応じて、 前記係数テー ブルを空間周波数特性の異なるものに変更することにより、 前記新成分の空間周 波数成分を調整する
ことを特徴とする画像処理装置。
1 8 . 請求項 1 7に記載の画像処理装置において、
前記係数選択部は、 前記類似性の値の大小判定により、 前記処理対象画素の近 傍の画像構造を解析し、 解析結果に応じて前記係数テーブルを空間周波数特性の 異なるものに変更する
ことを特徴とする画像処理装置。
1 9 . 請求項 1 7または請求項 1 8に記載の両像処理装置において、
前記係数選択部は、 前記係数テーブルを配列サイズの異なるものに変更するこ とにより、 前記係数テーブルを空間周波数特性の異なるものに変更する
ことを特徴とする画像処理装置。
2 0 . 請求項 1 7ないし請求項 1 9のいずれか 1項に記載の画像処理装置にお いて、
前記係数選択部は、
前記方向判定において前記複数方向の前記類似性が略均等と判定され、 かつ前 記画像構造の解析において前記類似性が強いと判定された場合、 前記信号成分の 高周波成分を強くおよび Zまたは広帯域に抑制する 『ノイズ除去の度合いがより 強いタイプの係数テーブル』 に変更する
ことを特徴とする画像処理装置。 '
2 1 . 請求項 1 7ないし請求項 1 9のいずれか 1項に記載の画像処理装置にお レヽて、
前記係数選択部は、
前記方向判定において前記複数方向の前記類似性が略均等と判定され、 かつ前 記画像構造の解析において前記類似性が弱いと判定された場合、 前記信号成分の 高周波成分を強くおよび または広帯域に抑制する 『ノイズ除去の度合いがより 強いタイプの係数テーブル』 に変更する
ことを特徴とする画像処理装置。
2 2 . 請求項 1 Ίないし請求項 1 9のいずれか 1項に記載の画像処理装置にお レ、て、
前記係数選択部は、
前記画像構造の解析において前記類似性の方向間の強弱差が大きいと判定され た場合、 前記類似性の弱い方向の高周波成分を強調する 『輪郭強調の度合いがよ り強いタイプの係数テーブル』 に変更する
ことを特徴とする画像処理装置。
2 3 . 請求項 1 7ないし請求項 1 9のいずれか 1項に記載の画像処理装置にお ' いて、
前記係数選択部は、
前記画像構造の解析において前記類似性の方向間の強弱差が小さいと判定され た場合、 前記信号成分の高周波成分を強調する 『ディテール強調の度合いがより 強いタイプの係数テーブル』 に変更する
ことを特徴とする画像処理装置。
2 4 . 請求項 1 7ないし請求項 2 3のいずれか 1項に記載の画像処理装置にお いて、
前記係数選択部は、
前記第 1画像を撮像した際の撮像感度が高いほど、 前記係数テーブルをノイズ 除去の度合いの強いものに変更する
ことを特徴とする画像処理装置。
2 5 . 請求項 1 7ないし請求項 2 4のいずれか 1項に記載の画像処理装置にお いて、
前記係数テーブルの変更前後において、 前記色成分間の加重比率を略一定に保 つ
ことを特徴とする画像処理装置。
2 6 . 請求項 1 7ないし請求項 2 5のいずれか 1項に記載の画像処理装置にお いて、
前記色成分間の加重比率は、 表色系変換用の加重比率である
ことを特徴とする画像処理装置。
2 7 . 画像データの処理対象画素と周辺画素とを加重加算することにより、 前 記画像データに平滑化処理を施す平滑化部と、
前記画像データを撮影した際の撮像感度に応じて、 前記周辺画素の参照範囲を 変更する制御部と
を備えたことを特徴とする画像処理装置。
2 8 . コンピュータを、 請求項 1ないし請求項 2 7のいずれか 1項に記載の画 像処理装置として機能させるための画像処理プログラム。
2 9 . 請求項 1ないし請求項 2 7のいずれか 1項に記載の画像処理装置と、 被写体を撮像して、 前記第 1画像を生成する撮像部とを備え、
前記第 1画像を前記画像処理装置で処理して、 前記第 2画像を生成する ことを特徴とする電子カメラ。
3 0 . 画素単位に第 1〜第 n色成分 (n 2 ) のいずれか 1つが配分されてな る第 1画像を、 画素単位に少なくとも 1つの信号成分が揃った第 2画像に変換す る画像処理方法であって、
前記第 1画像の色成分を加重加算することによって前記第 2画像の前記信号成 分を生成するステップを備え、
前記信号成分を生成するステップは、 前記第 1画像を撮像したときの撮像感度 に応じて、 前記第 1画像の色成分を加重加算するときに用いる加重加算係数を変 更するステップを有する
ことを特徴とする画像処理方法。
3 1 . 表色系を構成する複数種類の色成分を画素配列上に混在配置してなる第 1画像を変換し、 少なくとも 1種類の信号成分 (以下 『新成分』 という) を画素 単位に揃えた第 2画像を生成する画像処理方法であって、
前記第 1画像の処理対象画素において、 複数方向について画像の類似性を判定 するステップと、
前記類似性判定のステップによる前記類似性の方向判定に応じて、 予め定めら れた係数テーブルを選択するステップと、
選択した係数テーブルにより前記処理対象画素を含む局所域の前記色成分を加 重加算して、 前記新成分を生成するステップとを備え、
前記係数選択のステップは、 前記類似性による画像構造の解析に応じて、 前記 係数テーブルを空間周波数特性の異なるものに変更する の空間周波数成分を調整する
ことを特徴とする画像処理方法。
PCT/JP2004/009601 2003-06-30 2004-06-30 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 WO2005013622A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005512463A JPWO2005013622A1 (ja) 2003-06-30 2004-06-30 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
EP04747070A EP1641285A4 (en) 2003-06-30 2004-06-30 IMAGE PROCESSING DEVICE COMPRISING DIFFERENT COLOR ELEMENTS, IMAGE PROCESSING PROGRAM, ELECTRONIC CAMERA, AND IMAGE PROCESSING METHOD
US11/320,460 US20060119896A1 (en) 2003-06-30 2005-12-29 Image processing apparatus, image processing program, electronic camera, and image processing method for smoothing image of mixedly arranged color components

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003186629 2003-06-30
JP2003-186629 2003-06-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/320,460 Continuation US20060119896A1 (en) 2003-06-30 2005-12-29 Image processing apparatus, image processing program, electronic camera, and image processing method for smoothing image of mixedly arranged color components

Publications (1)

Publication Number Publication Date
WO2005013622A1 true WO2005013622A1 (ja) 2005-02-10

Family

ID=34113557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/009601 WO2005013622A1 (ja) 2003-06-30 2004-06-30 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法

Country Status (5)

Country Link
US (1) US20060119896A1 (ja)
EP (1) EP1641285A4 (ja)
JP (1) JPWO2005013622A1 (ja)
CN (1) CN1817047A (ja)
WO (1) WO2005013622A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338296A (ja) * 2005-06-01 2006-12-14 Noritsu Koki Co Ltd 微小ノイズ抑制のための画像処理方法及びプログラム及びこの方法を実施するノイズ抑制モジュール
JP2007143120A (ja) * 2005-10-18 2007-06-07 Ricoh Co Ltd ノイズ除去装置、ノイズ除去方法、ノイズ除去プログラム及び記録媒体
WO2007097170A1 (ja) * 2006-02-23 2007-08-30 Nikon Corporation スペクトル画像処理方法、コンピュータ実行可能なスペクトル画像処理プログラム、スペクトルイメージングシステム
JP2007306501A (ja) * 2006-05-15 2007-11-22 Fujifilm Corp 画像処理方法、画像処理装置、および画像処理プログラム
JP2009516256A (ja) * 2005-11-10 2009-04-16 ディー−ブルアー テクノロジーズ リミティド モザイクドメインにおける画像向上
JP2009100150A (ja) * 2007-10-16 2009-05-07 Acutelogic Corp 画像処理装置及び画像処理方法、画像処理プログラム
US7817852B2 (en) 2006-07-20 2010-10-19 Casio Computer Co., Ltd. Color noise reduction image processing apparatus
US8045153B2 (en) 2006-02-23 2011-10-25 Nikon Corporation Spectral image processing method, spectral image processing program, and spectral imaging system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5399739B2 (ja) * 2009-02-25 2014-01-29 ルネサスエレクトロニクス株式会社 画像処理装置
JP5665508B2 (ja) * 2010-11-30 2015-02-04 キヤノン株式会社 画像処理装置及び方法、並びにプログラム及び記憶媒体
US8654225B2 (en) * 2011-05-31 2014-02-18 Himax Imaging, Inc. Color interpolation system and method thereof
TWI455570B (zh) * 2011-06-21 2014-10-01 Himax Imaging Inc 彩色內插系統及方法
CN102857765B (zh) * 2011-06-30 2014-11-05 英属开曼群岛商恒景科技股份有限公司 彩色内插系统及方法
CN104756151A (zh) * 2012-07-03 2015-07-01 马赛网络股份有限公司 用于增强和处理数字图像的系统及方法
CN104618701B (zh) * 2015-01-13 2017-03-29 小米科技有限责任公司 图像处理方法及装置、电子设备
WO2016158317A1 (ja) * 2015-03-31 2016-10-06 京セラドキュメントソリューションズ株式会社 画像処理装置および画像形成装置
JP7079680B2 (ja) * 2018-07-05 2022-06-02 富士フイルムヘルスケア株式会社 超音波撮像装置、および、画像処理装置
WO2022126516A1 (en) * 2020-12-17 2022-06-23 Covidien Lp Adaptive image noise reduction system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233395A (ja) * 1996-02-26 1997-09-05 Toshiba Corp 固体撮像装置
JP2001292455A (ja) * 2000-04-06 2001-10-19 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
WO2002056604A1 (fr) * 2001-01-09 2002-07-18 Sony Corporation Dispositif de traitement d'images
JP2003087808A (ja) * 2001-09-10 2003-03-20 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450502A (en) * 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
JP3221291B2 (ja) * 1995-07-26 2001-10-22 ソニー株式会社 画像処理装置、画像処理方法、ノイズ除去装置及びノイズ除去方法
US5596367A (en) * 1996-02-23 1997-01-21 Eastman Kodak Company Averaging green values for green photosites in electronic cameras
US5901242A (en) * 1996-07-03 1999-05-04 Sri International Method and apparatus for decoding spatiochromatically multiplexed color images using predetermined coefficients
US6392699B1 (en) * 1998-03-04 2002-05-21 Intel Corporation Integrated color interpolation and color space conversion algorithm from 8-bit bayer pattern RGB color space to 12-bit YCrCb color space
US6075889A (en) * 1998-06-12 2000-06-13 Eastman Kodak Company Computing color specification (luminance and chrominance) values for images
US6625325B2 (en) * 1998-12-16 2003-09-23 Eastman Kodak Company Noise cleaning and interpolating sparsely populated color digital image using a variable noise cleaning kernel
EP1059811A2 (en) * 1999-06-10 2000-12-13 Fuji Photo Film Co., Ltd. Method and system for image processing, and recording medium
JP2001186353A (ja) * 1999-12-27 2001-07-06 Noritsu Koki Co Ltd 画像処理方法および画像処理プログラムを記録した記録媒体
JP4402262B2 (ja) * 2000-06-07 2010-01-20 オリンパス株式会社 プリンタ装置及び電子カメラ
US20020047907A1 (en) * 2000-08-30 2002-04-25 Nikon Corporation Image processing apparatus and storage medium for storing image processing program
EP1337115B1 (en) * 2000-09-07 2010-03-10 Nikon Corporation Image processor and colorimetric system converting method
JP4406195B2 (ja) * 2001-10-09 2010-01-27 セイコーエプソン株式会社 画像データの出力画像調整
US20030169353A1 (en) * 2002-03-11 2003-09-11 Renato Keshet Method and apparatus for processing sensor images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233395A (ja) * 1996-02-26 1997-09-05 Toshiba Corp 固体撮像装置
JP2001292455A (ja) * 2000-04-06 2001-10-19 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
WO2002056604A1 (fr) * 2001-01-09 2002-07-18 Sony Corporation Dispositif de traitement d'images
JP2003087808A (ja) * 2001-09-10 2003-03-20 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1641285A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338296A (ja) * 2005-06-01 2006-12-14 Noritsu Koki Co Ltd 微小ノイズ抑制のための画像処理方法及びプログラム及びこの方法を実施するノイズ抑制モジュール
JP4645896B2 (ja) * 2005-06-01 2011-03-09 ノーリツ鋼機株式会社 微小ノイズ抑制のための画像処理方法及びプログラム及びこの方法を実施するノイズ抑制モジュール
JP2007143120A (ja) * 2005-10-18 2007-06-07 Ricoh Co Ltd ノイズ除去装置、ノイズ除去方法、ノイズ除去プログラム及び記録媒体
JP2009516256A (ja) * 2005-11-10 2009-04-16 ディー−ブルアー テクノロジーズ リミティド モザイクドメインにおける画像向上
KR101292458B1 (ko) * 2005-11-10 2013-07-31 테세라 인터내셔널, 인크 모자이크 도메인에서의 이미지 개선
WO2007097170A1 (ja) * 2006-02-23 2007-08-30 Nikon Corporation スペクトル画像処理方法、コンピュータ実行可能なスペクトル画像処理プログラム、スペクトルイメージングシステム
US8045153B2 (en) 2006-02-23 2011-10-25 Nikon Corporation Spectral image processing method, spectral image processing program, and spectral imaging system
US8055035B2 (en) 2006-02-23 2011-11-08 Nikon Corporation Spectral image processing method, computer-executable spectral image processing program, and spectral imaging system
JP4826586B2 (ja) * 2006-02-23 2011-11-30 株式会社ニコン スペクトル画像処理方法、コンピュータ実行可能なスペクトル画像処理プログラム、スペクトルイメージングシステム
JP2007306501A (ja) * 2006-05-15 2007-11-22 Fujifilm Corp 画像処理方法、画像処理装置、および画像処理プログラム
US7817852B2 (en) 2006-07-20 2010-10-19 Casio Computer Co., Ltd. Color noise reduction image processing apparatus
JP2009100150A (ja) * 2007-10-16 2009-05-07 Acutelogic Corp 画像処理装置及び画像処理方法、画像処理プログラム

Also Published As

Publication number Publication date
EP1641285A4 (en) 2009-07-29
US20060119896A1 (en) 2006-06-08
JPWO2005013622A1 (ja) 2006-09-28
CN1817047A (zh) 2006-08-09
EP1641285A1 (en) 2006-03-29

Similar Documents

Publication Publication Date Title
WO2005013622A1 (ja) 色成分の混在配列された画像を処理する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
JP4815807B2 (ja) Rawデータから倍率色収差を検出する画像処理装置、画像処理プログラム、および電子カメラ
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
US7373020B2 (en) Image processing apparatus and image processing program
JP5315158B2 (ja) 画像処理装置及び画像処理方法
JP5260635B2 (ja) パンクロマチック画像を用いたノイズ低減されたカラーの画像
CN1812592B (zh) 用于处理滤色器阵列的图像数据的方法和设备
JP4054184B2 (ja) 欠陥画素補正装置
US7634153B2 (en) Image processing apparatus and control method thereof
US8456544B2 (en) Image processing apparatus, image pickup apparatus, storage medium for storing image processing program, and image processing method for reducing noise in RGB bayer array image data
JP4668185B2 (ja) 画像処理方法
WO2002060186A1 (fr) Procede de traitement d&#39;image, programme de traitement d&#39;image et processeur d&#39;image
WO2008001629A1 (fr) dispositif de traitement d&#39;image, programme de traitement d&#39;image et procédé de traitement d&#39;image
WO2004112401A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置
WO2005112470A1 (ja) 画像処理装置および画像処理プログラム
JP4329542B2 (ja) 画素の類似度判定を行う画像処理装置、および画像処理プログラム
US7623705B2 (en) Image processing method, image processing apparatus, and semiconductor device using one-dimensional filters
US8184183B2 (en) Image processing apparatus, image processing method and program with direction-dependent smoothing based on determined edge directions
JP5121675B2 (ja) 画像処理装置、映像表示装置、撮像装置、画像処理方法
US20050220350A1 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing image processing program
US20100215267A1 (en) Method and Apparatus for Spatial Noise Adaptive Filtering for Digital Image and Video Capture Systems
US7876370B2 (en) Image capture apparatus with noise removal using high frequency signal extraction
JP2003101774A (ja) 画像処理装置
JP5153842B2 (ja) 画像処理装置、画像処理プログラム
JP4053362B2 (ja) 補間処理方法、補間処理プログラムおよびこれを記録した記録媒体ならびに画像処理装置およびこれを備えた画像形成装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005512463

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11320460

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048188227

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004747070

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004747070

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11320460

Country of ref document: US