WO2012004973A1 - 画像処理装置、撮像装置および画像処理プログラム - Google Patents

画像処理装置、撮像装置および画像処理プログラム Download PDF

Info

Publication number
WO2012004973A1
WO2012004973A1 PCT/JP2011/003813 JP2011003813W WO2012004973A1 WO 2012004973 A1 WO2012004973 A1 WO 2012004973A1 JP 2011003813 W JP2011003813 W JP 2011003813W WO 2012004973 A1 WO2012004973 A1 WO 2012004973A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
pixel
image
color component
component
Prior art date
Application number
PCT/JP2011/003813
Other languages
English (en)
French (fr)
Inventor
慎哉 海老原
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2010152923A external-priority patent/JP5630105B2/ja
Priority claimed from JP2011145919A external-priority patent/JP5811635B2/ja
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US13/805,213 priority Critical patent/US20130100310A1/en
Publication of WO2012004973A1 publication Critical patent/WO2012004973A1/ja
Priority to US15/631,350 priority patent/US20170287117A1/en
Priority to US16/191,956 priority patent/US20190087941A1/en

Links

Images

Classifications

    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Definitions

  • the present invention relates to an image processing device, an imaging device, and an image processing program.
  • an image of a subject imaged and imaged by an optical system is affected by chromatic aberration caused by the optical system, in particular, axial chromatic aberration.
  • the color structure portion of the image other than the influence of the axial chromatic aberration may change color.
  • an object of the present invention is to provide a technique capable of correcting axial chromatic aberration with high accuracy without causing color loss or the like.
  • one aspect of an image processing apparatus illustrating the present invention is to smooth a target image having pixel values of a plurality of color components with a plurality of different smoothing degrees, thereby to obtain a plurality of smoothed images.
  • a color difference that is a difference between a pixel value of a predetermined color component of the target image and a pixel value of a color component different from the predetermined color component of the smooth image at each pixel position of the target image.
  • the calculation means for calculating the variance of the obtained color difference and the sharpness of each color component of the target image are compared based on the variance of the color difference, and the color component having the highest sharpness is determined. Determination means, and adjustment means for adjusting the sharpness of at least one color component of the target image based on the color component having the highest sharpness.
  • the calculation means includes a pixel value of a predetermined color component and a pixel value of a color component different from the predetermined color component in the first region centered on the pixel position to be processed in the target image and each smoothed image. May be used to calculate the variance of the color difference.
  • Determination means for determining whether or not the calculation means determines that there is a color boundary, and the distribution width of pixel values of a predetermined color component in the second region of the target image and each smooth image The variance of the color difference may be calculated by matching the distribution width of the pixel values of the color component different from the predetermined color component.
  • the determining means may determine the color component of the smooth image that gives the smallest variance value among the color difference variances as the color component having the highest sharpness at each pixel.
  • the determining means may determine the minimum variance value based on the interpolation method.
  • Another aspect of the image processing apparatus illustrating the present invention includes an image smoothing unit that smoothes a target image having pixel values of a plurality of color components at a plurality of different smoothing levels, and generates a plurality of smoothed images.
  • a color difference that is a difference between a pixel value of a predetermined color component of the target image and a pixel value of a color component different from the predetermined color component of the smooth image is obtained, and the color difference according to the degree of smoothness Calculating means for calculating the variance of the color difference, determining means for determining whether or not each pixel position is a color boundary based on the variance of the color difference, and a pixel at the pixel position where the determination of the color boundary is determined to be false as the target pixel Determining means for comparing the sharpness of each color component based on the variance of the color difference and determining the color component having the highest sharpness; and at least one color component of the target pixel based on the color component having
  • the calculation means may obtain the color difference as an absolute value of the difference.
  • the determining means determines whether the color boundary is a color blur due to a density difference around the saturation region based on the distribution of pixel values of each color component, and the determining means is when the color boundary is determined to be a color blur
  • the pixel at the pixel position determined as the color boundary may be the target pixel.
  • a color difference correction unit that corrects the pixel value of the target pixel whose sharpness has been adjusted to be the same as the direction of the color difference of the pixel value before the sharpness adjustment in the color difference space may be provided.
  • the color difference correction unit in the color difference space, if the size of the color difference component of the pixel value of the target pixel whose sharpness is adjusted is equal to or greater than a predetermined size, the color difference of the pixel value of the target pixel whose sharpness is adjusted You may make the magnitude
  • the calculation means uses the pixel value of the predetermined color component of the target image and the pixel value of the color component different from the predetermined color component of the smooth image in the region centered on the pixel position, and distributes the color difference. It may be calculated.
  • the determining means determines the color component of the smooth image that gives the minimum dispersion value for each color difference in the target pixel as a color component having high sharpness, and compares the sharpness of the determined color component to determine the sharpness.
  • the highest color component may be determined.
  • calculation means may determine the minimum variance value based on the interpolation method.
  • One aspect of an image pickup apparatus illustrating the present invention includes an image pickup unit that picks up an image of a subject and generates a target image having pixel values of a plurality of color components, and the image processing apparatus of the present invention.
  • One aspect of an image processing program illustrating the present invention is an input procedure for reading a target image having pixel values of a plurality of color components, smoothing the target image with a plurality of different smoothing degrees, The image smoothing procedure to be generated, the color difference that is the difference between the pixel value of the predetermined color component of the target image and the pixel value of the color component different from the predetermined color component of the smoothed image at each pixel position of the target image, A calculation procedure for calculating the dispersion of the obtained color difference for each smooth image, a determination procedure for comparing the sharpness of each color component of the target image based on the dispersion of the color difference, and determining the color component having the highest sharpness, An adjustment procedure for adjusting the sharpness of at least one color component of the target image based on the color component having the highest sharpness is executed by the computer.
  • Another aspect of the image processing program illustrating the present invention is an input procedure for reading a target image having pixel values of a plurality of color components, smoothing the target image with a plurality of different smoothing degrees,
  • the image smoothing procedure to be generated, at each pixel position of the target image obtains the color difference that is the difference between the pixel value of the predetermined color component of the target image and the pixel value of the color component different from the predetermined color component of the smoothed image, and smoothes
  • a target pixel a determination procedure for comparing the sharpness of each color component based on variance of color differences and determining the color component having the highest sharpness, and at least one of the target pixels based on the color component having the highest sharpness Sharpness of color components Adjustment
  • axial chromatic aberration can be corrected with high accuracy without causing color loss or the like.
  • FIG. 1 is a block diagram showing the configuration of a computer 10 that operates as an image processing apparatus according to a first embodiment.
  • the figure which shows the relationship between an attention pixel and a reference region The figure which shows distribution of standard deviation DEVr [k '] in an attention pixel.
  • the block diagram which shows the structure of CPU1 in the computer 10 of 2nd Embodiment. Diagram explaining the difference between color structure and color boundary Diagram explaining level correction
  • FIG. 1 is a block diagram showing a configuration of a computer 10 that operates as an image processing apparatus according to the first embodiment of the present invention. It is assumed that the target image processed by the computer 10 has pixel values of red (R), green (G), and blue (B) color components in each pixel. That is, it is assumed that the target image of the present embodiment is an image captured by a three-plate color digital camera or an image captured by a single-plate color digital camera and subjected to color interpolation processing. The target image is assumed to have an influence of axial chromatic aberration due to the imaging lens when picked up by a digital camera or the like, and the sharpness between the color components is different.
  • R red
  • G green
  • B blue
  • the CPU 1 is a processor that comprehensively controls each unit of the computer 10. For example, the CPU 1 reads an image processing program stored in the storage unit 2 based on an instruction from the user received by the input device 40.
  • the CPU 1 operates as an image smoothing unit 20, a calculation unit 21, a determination unit 22, and an adjustment unit 23 by executing the image processing program (FIG. 1B), and the axis of the target image stored in the storage unit 2. Upper chromatic aberration correction processing is performed.
  • the CPU 1 displays the image processing result of the image on the output device 30.
  • the determining unit 22 determines the color component having the highest sharpness based on the blurring index that gives the minimum standard deviation.
  • the adjusting unit 23 adjusts the sharpness between the color components based on the color component having the highest sharpness determined by the determining unit 22.
  • the storage unit 2 records an image processing program and the like for correcting axial chromatic aberration in the target image together with the target image that is a captured image of the captured subject. Captured images, programs, and the like stored in the storage unit 2 can be appropriately referred to from the CPU 1 via the bus 4.
  • a storage device such as a general hard disk device or a magneto-optical disk device can be selected and used for the storage unit 2.
  • the storage unit 2 is incorporated in the computer 10 but may be an external storage device. In this case, the storage unit 2 is connected to the computer 10 via the input / output I / F 3.
  • the user inputs an image processing program command using the input device 40 or double-clicks the icon of the program displayed on the output device 30 to output an instruction to start the image processing program to the CPU 1.
  • the CPU 1 receives the instruction via the input / output I / F 3 and reads and executes the image processing program stored in the storage unit 2.
  • the CPU 1 starts processing from step S10 to step S17 in FIG.
  • Step S10 The CPU 1 reads the correction target image designated by the user via the input device 40.
  • Step S11 The image smoothing unit 20 of the CPU 1 smoothes the read target image according to the blur index of each Gaussian filter, and generates N smooth images.
  • the target image itself is also one of the smooth images, and the total number of smooth images in this embodiment is (N + 1).
  • Step S12 The calculation unit 21 of the CPU 1 uses the color difference surface Cr of the R component and the G component, the color difference surface Cb of the B component and the G component, and the color difference surface Crb of the R component and the B component as the target image and each smoothed image. And using
  • the calculation unit 21 calculates the pixel value G0 (i, j) of the G component that is a predetermined color component of the target image and the pixel value Rk of the R component that is a color component different from the predetermined color component of the smooth image.
  • a difference from (i, j) is obtained, and a color difference plane Cr [ ⁇ k] (i, j) shown in the following equation (1) is calculated.
  • Cr [ ⁇ k] (i, j) Rk (i, j) ⁇ G0 (i, j) (1)
  • (i, j) indicates the coordinates of the pixel position of the target pixel that is the pixel to be processed.
  • the negative blur index k indicates that the color difference surface Cr is obtained by sequentially blurring the R surface on the negative side.
  • the calculation unit 21 calculates the pixel value R0 (i, j) of the R component that is a predetermined color component of the target image and the pixel value of the G component that is a color component different from the predetermined color component of the smooth image.
  • a difference from Gk (i, j) is obtained, and a color difference surface Cr [k] (i, j) of the following equation (2) is calculated.
  • Cr [k] (i, j) R0 (i, j) ⁇ Gk (i, j) (2)
  • the blurring index k being positive indicates that the color difference surface Cr is obtained by sequentially blurring the G surface on the positive side.
  • the calculation unit 21 calculates the color difference surface Cb between the B component and the G component and the color difference surface Crb between the R component and the B component based on the equations (3) to (6).
  • Cb [ ⁇ k] (i, j) Bk (i, j) ⁇ G0 (i, j) (3)
  • Cb [k] (i, j) B0 (i, j) ⁇ Gk (i, j) (4)
  • Crb [ ⁇ k] (i, j) Rk (i, j) ⁇ B0 (i, j) (5)
  • Crb [k] (i, j) R0 (i, j) ⁇ Bk (i, j) (6)
  • Step S13 The calculation unit 21 calculates the standard deviations DEVr, DEVb, and DEVrb of each color difference surface at the target pixel using the color difference surfaces Cr, Cb, and Crb calculated in step S12.
  • the calculation unit 21 has each color difference plane Cr of a pixel in the reference area AR ⁇ b> 1 (first area) having a size of 15 pixels ⁇ 15 pixels centered on the target pixel indicated by hatching. , Cb and Crb are used to calculate the standard deviation.
  • the size of the reference area is 15 pixels ⁇ 15 pixels, but it is preferable that the size is appropriately determined according to the processing capability of the CPU 1 and the accuracy of correction of axial chromatic aberration. In the case of this embodiment, for example, it is preferable that one side has a size in the range of 10-30 pixels.
  • the calculation unit 21 calculates standard deviations DEVr, DEVb, and DEVrb of each color difference plane using the following equations (7) to (9).
  • k ′ is an integer blur index of ⁇ N to N.
  • (l, m) and (x, y) represent pixel positions in the reference area AR1, respectively.
  • Step S14 The determination unit 22 of the CPU 1 determines the color component having the highest sharpness in the target pixel (i, j) based on the standard deviations DEVr, DEVb, and DEVrb of the color difference planes calculated in step S13.
  • the calculation unit 21 obtains a blurring index k ′ that gives the minimum standard deviation DEVr at the target pixel (i, j).
  • FIG. 4 shows the distribution of the standard deviation DEVr [k ′] at the target pixel (i, j).
  • the determination unit 22 determines that the sharpness is higher in the target pixel (i, j) is the G component.
  • the determination unit 22 determines that the sharpness is higher in the target pixel (i, j) is the R component.
  • the determination unit 22 determines the color component with the higher sharpness based on the signs of the blurring indexes ⁇ b and ⁇ rb .
  • Step S15 The CPU 1 determines whether or not the color component with the highest sharpness has been determined for the pixel of interest (i, j) based on the result of step S14. That is, when the same color component is determined in two of the results in the three color difference planes, the determination unit 22 sets the color component as the color component having the highest sharpness in the pixel of interest (i, j). decide. CPU1 transfers to step S16 (YES side).
  • the determining unit 22 determines the R component, the G component, and the B component based on the standard deviations DEVr, DEVb, and DEVrb of each color difference surface, the determining unit 22 determines that the target pixel (i, j) The color component with the highest sharpness cannot be determined as one. In such a case, the CPU 1 determines that it is indeterminate, does not perform the process of correcting the longitudinal chromatic aberration for the target image, and proceeds to step S17 (NO side).
  • Step S16 The adjusting unit 23 of the CPU 1 corrects the axial chromatic aberration by adjusting the sharpness between the color components for each target pixel based on the color component determined for each target pixel in Step S15.
  • the calculation unit 21 determines the pixel of interest (i, j) based on the distribution of the standard deviation DEVr [k ′] (i, j) of the color difference plane Cr between the R component and the G component as shown in FIG. Find a more accurate blur index s in j). That is, the blurring index ⁇ r that minimizes the standard deviation DEVr obtained by the calculation unit 21 in step S14 is not necessarily the blurring index that truly gives the minimum standard deviation DEVr, as indicated by the dotted line in FIG.
  • the arithmetic unit 21 applies the interpolation and blur index alpha r standard deviation DEVr is minimized calculated with respect to three points and blur index alpha r -1 and alpha r +1 adjacent ends, A more accurate blur index (interpolation point) s is obtained.
  • Blur index s (( ⁇ r +1) + ⁇ r ) / 2 + (DEVr [ ⁇ r +1] (i, j) ⁇ DEVr [ ⁇ r ] (i, j)) / 2 / a (10)
  • the coefficient a is a slope and is (DEVr [ ⁇ r ⁇ 1] (i, j) ⁇ DEVr [ ⁇ r ] (i, j)) / (( ⁇ r ⁇ 1) ⁇ r ).
  • the blurring index s is expressed by the following equation (11).
  • Blur index s (( ⁇ r ⁇ 1) + ⁇ r ) / 2 + (DEVr [ ⁇ r ⁇ 1] (i, j) ⁇ DEVr [ ⁇ r ] (i, j)) / 2 / a (11)
  • the slope a is (DEVr [ ⁇ r +1] (i, j) ⁇ DEVr [ ⁇ r ] (i, j)) / (( ⁇ r +1) ⁇ r ).
  • the calculation unit 21 performs known weighted addition using G ⁇ r (i, j) and G ( ⁇ r +1) (j, j) of the blurring indexes ⁇ r and ⁇ r +1 together with the interpolation point s, A correction value G ′ (i, j) is calculated.
  • the adjusting unit 23 corrects the axial chromatic aberration by adjusting the sharpness of the R component in the target pixel (i, j) based on the following equation (12).
  • R ′ (i, j) R0 (i, j) + (G0 (i, j) ⁇ G ′ (i, j)) (12)
  • the adjustment unit 23 calculates a correction value G ′′ (i, j) for the B component based on the distribution of the standard deviation DEVb of the color difference plane Cb between the B component and the G component, and the following equation (13): Based on the above, the sharpness of the B component in the target pixel (i, j) is adjusted to correct the axial chromatic aberration.
  • Step S17 The CPU 1 determines whether or not the processing has been completed for all the pixels of the target image. When the CPU 1 determines that the processing has not been completed for all the pixels, the CPU 1 proceeds to step S12 (NO side), and performs the processing from step S12 to step S16 with the next pixel as the target pixel. On the other hand, when the CPU 1 determines that the processing has been completed for all the pixels, the CPU 1 records an image composed of the color components R ′, G, and B ′ as a new image with corrected axial chromatic aberration in the storage unit 2. Or displayed on the output device 30. Then, the CPU 1 ends a series of processes.
  • the color component having the highest sharpness is determined based on the standard deviation distribution of each color difference plane, and the sharpness between the color components is adjusted. It is possible to correct axial chromatic aberration with high accuracy while avoiding it.
  • the image processing apparatus according to the second embodiment of the present invention operates the computer 10 as an image processing apparatus, similarly to the image processing apparatus according to the first embodiment shown in FIG. Components in the present embodiment that are the same as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
  • FIG. 5 shows a flowchart of the image processing operation by the computer 10 of this embodiment.
  • the same steps as those in the first embodiment shown in FIG. 2 are denoted by the same step numbers, and detailed description thereof is omitted.
  • the image processing by the computer 10 is different from that of the first embodiment in that the CPU 1 executes an image processing program so that the CPU 1 executes an image smoothing unit 20, a calculation unit 21, and a determination unit 22 as shown in FIG.
  • the determination unit 24 operates.
  • step S20 for determining whether or not there is a color boundary in the target image by the determination unit 24, and step S21 for performing level correction for avoiding the influence of the color boundary on the image processing by the calculation unit 21. Newly added between step S11 and step S12.
  • the computer 10 of the present embodiment performs processing for avoiding the influence of the color boundary in step S20 and step S21.
  • the color component having the highest sharpness is determined based on the standard deviation distribution of each color difference plane, and the sharpness between the color components is adjusted. It is possible to correct axial chromatic aberration with high accuracy while avoiding it.
  • the image processing by the computer 10 is different from that of the first embodiment in that the CPU 1 executes an image processing program so that the CPU 1 executes an image smoothing unit 50, a calculation unit 51, and a determination unit 52 as shown in FIG. , The determination unit 53, the adjustment unit 54, and the color difference correction unit 55.
  • the image smoothing unit 50 performs the same operation process as the image smoothing unit 20 of the first embodiment, and detailed description thereof is omitted.
  • the determination unit 52 of the present embodiment determines whether or not there is a gap in which the standard deviation value of the color difference between the color components in each calculated blur index is equal to or larger than the threshold ⁇ , thereby It is determined whether the color structure is a color boundary.
  • the determination unit 52 determines that the color structure at the pixel position is a color boundary, in the present embodiment, correction of axial chromatic aberration for the pixel at the pixel position is not performed. Thereby, the discoloration which arises by performing the correction process of the axial chromatic aberration with respect to a color boundary can be suppressed.
  • the determination unit 52 determines whether or not the color structure of the pixel position determined to be a color boundary is a color blur due to a density difference around the saturated region, for example, whether it is a purple fringe. The determination is made based on the distribution of pixel values.
  • purple fringing refers to purple color blur that occurs around high-luminance areas (saturated areas) where the pixel values of each color component are saturated due to the large amount of light, such as the surroundings of light sources such as streetlights and the reflection of water. It is.
  • the determination unit 52 obtains a distribution of pixel values of each color component in the peripheral area centered on the pixel position or the entire target image, and a saturation area of the pixel values of each color component from the distribution. Ask for.
  • the determination unit 52 extracts the saturation region (R component in the case of FIG. 10) of the most widely distributed color component and a region widened by ⁇ from the end of the saturation region as a purple fringe region.
  • the determination unit 52 determines whether or not the pixel position is included in the extracted purple fringe region, and determines whether or not the color structure of the pixel position is purple fringe. Then, the pixel at the pixel position determined as purple fringe is subjected to axial chromatic aberration correction processing as the target pixel.
  • the color difference correction unit 55 corrects the pixel value of each color component of the pixel whose sharpness has been adjusted to be the same as the direction of the color difference before the adjustment in the color difference space, and the discoloration caused by the axial chromatic aberration correction process. Suppress.
  • the user uses the input device 40 to input an image processing program command or double-click the icon of the program displayed on the output device 30 to instruct the CPU 1 to start the image processing program.
  • the CPU 1 receives the instruction via the input / output I / F 3 and reads and executes the image processing program stored in the storage unit 2.
  • the CPU 1 starts processing from step S30 to step S40 in FIG.
  • Step S31 Similar to step S11 of the first embodiment, the image smoothing unit 50 of the CPU 1 smoothes the read target image according to the blurring index of each Gaussian filter, and generates N smooth images.
  • Step S32 The calculation unit 51 of the CPU 1 applies the color difference surface Cr of the R component and the G component, the color difference surface Cb of the B component and the G component, and the color difference surface Crb of the R component and the B component to the target image and each smoothing. Calculation is performed using the image and equations (14)-(19).
  • Step S33 Similar to Step S13 of the first embodiment, the calculation unit 51 uses the color difference surfaces Cr, Cb, and Crb calculated in Step S32 and the equations (7) to (9) to calculate the target pixel (i, The standard deviation DEVr, DEVb, DEVrb of each color difference surface in j) is calculated for each blurring index.
  • Step S35 The determination unit 52 of the CPU 1 determines the standard deviations DEVr [k ′], DEVb [k ′], and DEVrb [k ′] of each color difference plane at each blurring index k ′ in the target pixel (i, j). Based on the value, it is determined whether or not the color structure of the target pixel (i, j) has a hue of a color boundary. The determination unit 52 determines whether any one of the standard deviation values is equal to or greater than the threshold ⁇ . Note that the threshold ⁇ of the present embodiment is set to 50 when the target image is an image having 255 gradations, for example.
  • the value of the threshold ⁇ is preferably determined according to the gradation of the target image, the pixel position of the target pixel, the reference area AR1, and the like, and is preferably set to a value in the range of 40 to 60, for example. .
  • the determination unit 52 determines that the color structure of the pixel of interest (i, j) is a color boundary when there is a standard deviation value equal to or greater than the threshold ⁇ , and sets the pixel position of the pixel of interest to a working memory (not shown). And the process proceeds to step S36 (YES side). On the other hand, when there is no standard deviation value equal to or greater than the threshold ⁇ , the determination unit 52 determines that the color structure of the pixel of interest (i, j) is not a color boundary, and the pixel of interest is subject to correction processing for axial chromatic aberration. The process proceeds to step S37 (NO side) as a pixel.
  • Step S36 The determination unit 52 determines whether or not the color structure of the target pixel (i, j) determined as the color boundary in step S35 is a purple fringe. As shown in FIGS. 7 and 10, the determination unit 52 uses the pixel value of each color component of the target pixel (i, j) and its surrounding pixels or the entire target image to determine their distribution. The determination unit 52 obtains a saturated region in which the pixel value is saturated from the distribution of the pixel value for each color component (in the case of an image with 255 gradations, the pixel value is 255).
  • the determination unit 52 sets the purple fringe region as the purple fringe region, which has the widest region among the saturation regions of each color component, for example, a region that combines the saturation region of the R component and the region widened by ⁇ from the end of the saturation region. Then, it is determined whether or not the target pixel is in the purple fringe region.
  • the value of the width ⁇ in this embodiment is, for example, about 10 pixels.
  • the size of the width ⁇ is preferably determined according to the processing capability of the CPU 1, the accuracy of the axial chromatic aberration correction processing, and the degree of decrease from the saturated state in each color component.
  • the determination unit 52 determines that the color structure of the target pixel is purple fringe in the purple fringe region, and records the pixel position of the target pixel in a working memory (not shown).
  • the determination unit 52 sets the target pixel as a target pixel for the axial chromatic aberration correction process, and proceeds to step S37 (YES side).
  • step S40 NO side.
  • Step S37 The determination unit 53 determines the color component having the highest sharpness at the pixel of interest (i, j) based on the blurring coefficients ⁇ r , ⁇ b , and ⁇ rb of each color difference surface obtained in step S34.
  • the determination unit 53 determines that the sharpness is higher in the target pixel (i, j) is the G component.
  • the determination unit 53 determines that the sharpness is higher in the target pixel (i, j) is the R component.
  • the determination unit 53 also determines color components with higher sharpness based on the signs of the blur indices ⁇ b and ⁇ rb .
  • the determination unit 53 determines whether or not the color component with the highest sharpness has been determined in the target pixel (i, j). That is, when the same color component is determined in two of the results on the three color difference planes, the determination unit 53 sets the color component as the color component having the highest sharpness in the pixel of interest (i, j). The determination is made, and the process proceeds to step S38 (YES side).
  • the determination unit 53 determines the pixel of interest (i, j).
  • the color component having the highest sharpness cannot be determined as one.
  • the determination unit 53 determines that the pixel is indeterminate, does not perform the axial chromatic aberration correction process on the pixel of interest, and proceeds to step S40 (NO side).
  • the color component having the highest sharpness may be determined by comparing the sharpness of each color component determined for each color difference plane.
  • Step S38 The adjusting unit 54 of the CPU 1 corrects the axial chromatic aberration by adjusting the sharpness between the color components of the pixel of interest (i, j) based on the color component determined in step S37.
  • the calculation unit 51 uses the expressions (10) to (11), for example, based on the distribution of the standard deviation DEVr of the color difference plane Cr shown in FIG. A blurring index (interpolation point) s that gives the value of the minimum standard deviation of is obtained.
  • the calculation unit 51 uses a known weighted addition using G ⁇ r (i, j) and G ( ⁇ r +1) (j, j) of the blurring indices ⁇ r and ⁇ r +1 together with the obtained interpolation point s.
  • the correction value G ′ (i, j) is calculated.
  • the adjusting unit 54 corrects the longitudinal chromatic aberration by adjusting the sharpness of the R component and the B component in the target pixel (i, j) based on, for example, the equations (12) to (13).
  • Step S39 The color difference correction unit 55 of the CPU 1 performs color difference correction on the pixel value of each color component of the target pixel on which the axial chromatic aberration correction processing has been performed.
  • step S38 the pixel value of each color component of the pixel of interest that has been subjected to the axial chromatic aberration correction processing has a particularly large direction of the color difference component in the color space of the luminance color difference when compared with the pixel value before correction. This is because it may change. As a result, discoloration occurs in the pixel of interest (i, j). Therefore, in this embodiment, in order to suppress the occurrence of the color change, the color difference correction unit 55 causes the color difference component after correction in the target pixel to be the same as the direction of the color difference component before correction in the luminance color difference space. Correct as follows.
  • the color difference correction unit 55 applies a known conversion process to the pixel value of each color component before and after correcting the target pixel, and converts the RGB pixel values (R ′, G, B ′) to the luminance of YCrCb.
  • the component and the color difference component (Y ′, Cr ′, Cb ′) are converted.
  • the luminance component and the color difference component before correction are (Y0, Cr0, Cb0).
  • the color difference correction unit 55 corrects the direction of the color difference component of the target pixel to the direction before correction by the following equation (20). In the present embodiment, the luminance component Y ′ is not corrected.
  • the color difference correction unit 55 again applies the above-described known conversion process to change the luminance component and color difference components (Y ′, Cr ′′, Cb ′′) after the color difference correction of the target pixel into RGB pixel values (R 1 , G 1 , B 1 ).
  • the color difference correction unit 55 sets the pixel value (R 1 , G 1 , B 1 ) as the pixel value of the target pixel (i, j).
  • Step S40 The CPU 1 determines whether or not the processing has been completed for all the pixels of the target image. When the CPU 1 determines that the processing has not been completed for all the pixels, the CPU 1 proceeds to step S32 (NO side), and performs the processing from step S32 to step S39 with the next pixel as the target pixel. On the other hand, when the CPU 1 determines that the processing has been completed for all the pixels, the CPU 1 records the image with the corrected axial chromatic aberration in the storage unit 2 or displays it on the output device 30. Then, the CPU 1 ends a series of processes.
  • axial chromatic aberration can be corrected with high accuracy by determining the color structure at each pixel position based on the standard deviation value of each color difference plane.
  • the difference between the computer 10 of this embodiment and that of the third embodiment is that (1) the calculation unit 51 uses the target image, N smooth images, and equations (1) to (6). The value of the color difference plane (color difference) corresponding to the blur index is calculated, and (2) the determination unit 52 calculates the difference of the standard deviation values between the color difference planes in each blur index, and based on the absolute value, It is to determine whether the color structure at the pixel position is a color boundary.
  • the user uses the input device 40 to input an image processing program command or double-click the icon of the program displayed on the output device 30 to instruct the CPU 1 to start the image processing program.
  • the CPU 1 receives the instruction via the input / output I / F 3 and reads and executes the image processing program stored in the storage unit 2.
  • the CPU 1 starts processing from step S50 to step S60 in FIG.
  • Step S50 The CPU 1 reads the correction target image designated by the user via the input device 40.
  • Step S51 Similar to step S31 of the third embodiment, the image smoothing unit 50 of the CPU 1 smoothes the read target image according to the blurring index of each Gaussian filter, and generates N smooth images.
  • Step S52 The calculation unit 51 of the CPU 1 applies the color difference surface Cr of the R component and the G component, the color difference surface Cb of the B component and the G component, and the color difference surface Crb of the R component and the B component to the target image and each smoothing. Calculation is performed using the image and equations (1)-(6).
  • Step S53 Similar to Step S33 of the third embodiment, the calculation unit 51 uses the color difference surfaces Cr, Cb, and Crb calculated in Step S52, and uses the standard deviation DEVr of each color difference surface at the target pixel (i, j). , DEVb, DEVrb are calculated for each blurring index based on equations (7)-(9).
  • Step S54 Similar to step S34 of the third embodiment, the calculation unit 51 uses the standard deviations DEVr, DEVb, and DEVrb of the color difference planes calculated in step S53, and uses the minimum in the target pixel (i, j).
  • Step S55 The determination unit 52 of the CPU 1 determines the difference of the standard deviation of each color difference plane at each blurring index k ′ at the target pixel (i, j), DEVr [k ′] ⁇ DEVb [k ′], DEVb [k]. '] -DEVrb [k'], DEVr [k ']-DEVrb [k'] are obtained, and based on the absolute value of the difference, whether the color structure of the pixel of interest (i, j) has a hue at the color boundary Determine whether or not. The determination unit 52 determines whether any one of the absolute values of the differences between the standard deviations is equal to or greater than the threshold value ⁇ .
  • the threshold ⁇ of the present embodiment is set to 50 when the target image is an image having 255 gradations, for example.
  • the value of the threshold ⁇ is preferably determined according to the gradation of the target image, the pixel position of the target pixel, the reference area AR1, and the like, and is preferably set to a value in the range of 40 to 60, for example. .
  • the determination unit 52 determines that the color structure of the target pixel (i, j) is a color boundary when there is an absolute value of the standard deviation difference that is equal to or greater than the threshold ⁇ , and the pixel position of the target pixel is not illustrated. In step S56 (YES side). On the other hand, when there is no absolute value of the standard deviation difference equal to or greater than the threshold value ⁇ , the determination unit 52 determines that the color structure of the pixel of interest (i, j) is not a color boundary, and corrects the pixel of interest for axial chromatic aberration correction. The process proceeds to step S57 (NO side) as a processing target pixel.
  • Step S56 The determination unit 52 determines whether or not the color structure of the pixel of interest (i, j) determined as the color boundary in step S55 is a purple fringe, as in step S36 of the third embodiment. .
  • the determination unit 52 determines that the color structure of the target pixel is purple fringe in the purple fringe region, and records the pixel position of the target pixel in a working memory (not shown).
  • the determination unit 52 sets the target pixel as a target pixel for the axial chromatic aberration correction process, and proceeds to step S57 (YES side).
  • step S57 YES side
  • the color structure of the target pixel is determined to be a color boundary, and the process of correcting axial chromatic aberration for the target pixel is not performed, and the process proceeds to step S60 (NO side).
  • Step S57 Similar to step S37 of the third embodiment, the determination unit 53 determines the pixel of interest (i, j) based on the blurring coefficients ⁇ r , ⁇ b , ⁇ rb of each color difference surface obtained in step S54. The color component having the highest sharpness is determined. When the color component having the highest sharpness can be determined for the target pixel (i, j), the determination unit 53 proceeds to step S58 (YES side).
  • the determining unit 53 does not perform the process of correcting the axial chromatic aberration for the pixel of interest and performs step S60. Move to (NO side).
  • Step S58 The adjustment unit 54 of the CPU 1 determines the sharpness between the color components of the target pixel (i, j) based on the color component determined in Step S57, as in Step S38 of the third embodiment. Adjust and correct axial chromatic aberration.
  • Step S59 Similar to step S39 of the third embodiment, the color difference correction unit 55 of the CPU 1 uses the equation (20) to calculate the pixel value of each color component of the target pixel on which the axial chromatic aberration correction processing has been performed. Correct the color difference.
  • Step S60 The CPU 1 determines whether or not the processing has been completed for all the pixels of the target image. When the CPU 1 determines that the processing has not been completed for all the pixels, the CPU 1 proceeds to step S52 (NO side), and performs the processing from step S52 to step S59 with the next pixel as the target pixel. On the other hand, when the CPU 1 determines that the processing has been completed for all the pixels, the CPU 1 records the image with the corrected axial chromatic aberration in the storage unit 2 or displays it on the output device 30. Then, the CPU 1 ends a series of processes.
  • axial chromatic aberration can be corrected with high accuracy by determining the color structure at each pixel position based on the difference in standard deviation of each color difference plane.
  • the present invention can be applied to a digital camera as shown in FIGS. 13 and 14 having the image processing program of the present invention.
  • the image sensor 102 and the DFE 103 of the digital front-end circuit that performs signal processing such as A / D conversion of the image signal input from the image sensor 102 and color interpolation processing, However, it is preferable to constitute an imaging unit.
  • the CPU 104 When the digital camera is operated as the image processing apparatus of the present invention, the CPU 104 performs the image smoothing unit 20, the calculation unit 21, the determination unit 22, the adjustment unit 23, the determination unit 24, or the image smoothing unit 50 and the calculation unit 51.
  • Each process of the determination unit 52, the determination unit 53, the adjustment unit 54, and the color difference correction unit 55 may be realized by software, or each of these processes may be realized by hardware using an ASIC. .
  • the image smoothing units 20 and 50 generate N smooth images from the target image using a plurality of Gaussian filters, but the present invention is not limited to this.
  • a point spread function (PSF) of an optical system such as the imaging lens 101 of the digital camera as shown in FIGS. 13 and 14
  • the image smoothing units 20 and 50 use PSF instead of using a Gaussian filter.
  • PSF point spread function
  • the longitudinal chromatic aberration of the target image is based on the color difference surface Cr of the R component and the G component, the color difference surface Cb of the B component and the G component, and the color difference surface Crb of the R component and the B component.
  • the present invention is not limited to this.
  • the axial chromatic aberration of the target image may be corrected based on two of the three color difference surfaces. As a result, the speed of the correction process can be increased.
  • the target image has pixel values of R component, G component, and B component in each pixel, but the present invention is not limited to this.
  • each pixel of the target image may have two or four or more color components.
  • R, G, and B color filters are arranged in accordance with a known Bayer array on each image element on the light receiving surface of the image sensor 102 of the digital camera shown in FIGS. 13 and 14, the image is captured by the image sensor 102.
  • the present invention can also be applied to a RAW image that has been processed.
  • the chrominance correction unit 55 performs chrominance correction on all pixels of interest that have been subjected to axial chromatic aberration correction processing. It is not limited.
  • the color difference correcting unit 55 may not perform the color difference correction when the value of the color difference component L ′ after the correction of the target pixel is smaller than the value of the color difference component L before the correction.
  • the color difference correction unit 55 is defined by FIG. 15 and the following equation (21) when the corrected color difference component size L ′ is larger than the uncorrected color difference component size L (predetermined size).
  • the corrected color difference component output rate may be reduced based on the following equation (22) obtained by modifying the equation (20) using the corrected output rate ⁇ (L ′).
  • the function clip (V, U 1, U 2) when the value of the parameter V is outside the range of values of the lower limit value U 1 and the upper limit value U 2, is clipped to the lower limit value U 1 or the upper limit value U 2 .
  • the value of WV 5 to 10 is assumed.
  • the value of the coefficient WV is preferably set as appropriate according to the required degree of suppression of discoloration.
  • step S37 to step S39 or step S57 to step S59 may be performed on the target pixel (i, j) located at the color boundary.
  • the adjustment unit 54 is preferably performed using the following equations (23) and (24) instead of the equations (12) and (13) in step S38 or step S58.
  • the color difference correction unit 55 preferably performs color difference correction on the target pixel determined to be a color boundary.
  • R ′ (i, j) R0 (i, j) + ⁇ ⁇ (G0 (i, j) ⁇ G ′ (i, j)) (23)
  • B ′ (i, j) B0 (i, j) + ⁇ ⁇ (G0 (i, j) ⁇ G ′′ (i, j))
  • the coefficient ⁇ is preferably set to a value of 0.1 to 0.2 or less so as not to be affected by the color boundary.
  • the value of the coefficient ⁇ is preferably determined according to the standard deviation value of each color difference plane or the absolute value of the difference of the standard deviation in each blurring index at the target pixel (i, j).
  • the coefficient ⁇ may be set for each color component.
  • the adjustment unit 54 may apply a known smoothing process in order to maintain spatial continuity of the gradation of the image.
  • the determination unit 52 determines whether or not the color structure of the pixel of interest (i, j) is a color boundary using one threshold ⁇ .
  • the present invention is not limited to this.
  • the determination unit 52 may use two threshold values ⁇ 1 and ⁇ 2 ( ⁇ 1 ⁇ 2 ). In this case, it is preferable to use formulas (23) and (24) instead of formulas (12) and (13).
  • the determination unit 52 determines the color structure of the pixel of interest indefinite and, adjusting unit 54, for example, the standard deviation
  • the coefficient ⁇ is set to a value between 1 and 0 according to the absolute value of the value or the absolute value of the difference and the thresholds ⁇ 1 and ⁇ 2, and the axial chromatic aberration correction processing for the pixel of interest is performed.
  • the color difference correction unit 55 preferably performs color difference correction processing on all the target pixels.
  • the adjustment unit 54 may apply a known smoothing process in order to maintain spatial continuity of the gradation of the image.
  • the determination unit 52 obtains a purple fringe region based on the pixel value distribution of each color component of the pixel of interest (i, j) and its surrounding pixels, although it was determined whether or not the color structure of the pixel of interest (i, j) is purple fringe, the present invention is not limited to this.
  • the determination unit 52 may first determine a region where the luminance component is saturated as a saturated region based on the luminance component of the target image.
  • the obtained saturation region includes a region of several pixels due to shot noise or the like. Therefore, the determination unit 52 uses a known method, for example, to delete a peripheral region of about one pixel width from each obtained saturation region and reduce the saturation region. As a result, a saturated region having a size of about several pixels due to shot noise or the like is removed. Then, the determination unit 52 expands the reduced saturation region by adding a peripheral region of about one pixel width to the reduced saturation region, for example. The determination unit 52 performs this extension processing a plurality of times until a region having a width of about ⁇ is finally added to the saturated region, thereby obtaining a purple fringe region.
  • the determination unit 52 may apply a known noise removal process in order to remove a saturated region having a size of about several pixels due to shot noise or the like.
  • the calculation units 21 and 51 calculate the color difference surfaces Cr, Cb, and Crb using the equations (1) to (6).
  • the color difference surfaces Cr, Cb, and Crb may be absolute values of differences between pixel values of different color components, or may be obtained by squaring the differences.
  • the calculation unit 51 obtains the color difference planes Cr, Cb, and Crb as absolute values of differences between pixel values of different color components using the equations (14) to (19).
  • the color difference planes Cr, Cb, and Crb may simply be a difference value between pixel values of different color components, or may be a square of the difference.

Abstract

 複数の色成分の画素値を有する対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手段と、対象画像の各画素位置における、対象画像の所定の色成分の画素値と、平滑画像の所定の色成分とは異なる色成分の画素値との差分である色差を、各平滑画像毎に求めて、求めた色差の分散を算出する演算手段と、色差の分散に基づいて、対象画像の各色成分の鮮鋭度を比較し、鮮鋭度が最も高い色成分を決定する決定手段と、鮮鋭度が最も高い色成分に基づいて、対象画像の少なくとも1つの色成分の鮮鋭度を調整する調整手段と、を備える。

Description

画像処理装置、撮像装置および画像処理プログラム
 本発明は、画像処理装置、撮像装置および画像処理プログラムに関する。
 従来、撮像レンズ等の光学系によって結像され撮像された被写体の画像は、光学系による色収差、特に、軸上色収差の影響を受ける。
 それを解決するために、例えば、基準となる一の色成分の色面を平滑化して他の色成分の色面との色差が最小となるように、各色成分間のMTF特性の不整合を調整することにより、軸上色収差を補正する技術が開発されている(特許文献1等参照)。
特開2007-28041号公報
 しかしながら、従来技術では、基準となる色成分の色面の平滑化を、他の色成分の色面との色差が最小となるようにする際、平滑化の度合いが大きくなると色差が予測できない振る舞いをする場合がある。
 また、軸上色収差による影響以外の画像の色構造部分に上記補正を適用すると、彩度が小さくなって色抜けするという問題がある。あるいは、軸上色収差による影響以外の画像の色構造部分が変色する場合もある。
 上記従来技術が有する問題を鑑み、本発明の目的は、色抜け等が生じることなく、軸上色収差を確度高く補正できる技術を提供することにある。
 上記課題を解決するために、本発明を例示する画像処理装置の一の態様は、複数の色成分の画素値を有する対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手段と、対象画像の各画素位置における、対象画像の所定の色成分の画素値と、平滑画像の所定の色成分とは異なる色成分の画素値との差分である色差を、各平滑画像毎に求めて、求めた色差の分散を算出する演算手段と、色差の分散に基づいて、対象画像の各色成分の鮮鋭度を比較し、鮮鋭度が最も高い色成分を決定する決定手段と、鮮鋭度が最も高い色成分に基づいて、対象画像の少なくとも1つの色成分の鮮鋭度を調整する調整手段と、を備える。
 また、演算手段は、対象画像および各平滑画像で処理対象の画素位置を中心とする第1領域にある、所定の色成分の画素値と、所定の色成分とは異なる色成分の画素値とを用い、色差の分散を算出してもよい。
 また、対象画像の処理対象の画素位置を中心とする第2領域において、所定の色成分の色構造と、所定の色成分とは異なる色成分の色構造とが異なることによる色境界が存在するか否かを判定する判定手段を備え、演算手段は、判定手段により色境界が存在すると判定された場合、対象画像および各平滑画像の第2領域における、所定の色成分の画素値の分布幅と、所定の色成分とは異なる色成分の画素値の分布幅とを互いに一致させ、色差の分散を算出してもよい。
 また、決定手段は、色差の分散のうちで最小の分散値を与える平滑画像の色成分を、各画素での鮮鋭度が最も高い色成分と決定してもよい。
 また、決定手段は、最小の分散値を内挿法に基づいて決定してもよい。
 本発明を例示する画像処理装置の他の態様は、複数の色成分の画素値を有する対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手段と、対象画像の各画素位置において、対象画像の所定の色成分の画素値と平滑画像の所定の色成分とは異なる色成分の画素値との差分である色差を求め、平滑の度合いに応じた色差の分散を算出する演算手段と、色差の分散に基づいて、各画素位置が色境界か否かを判定する判定手段と、色境界の判定が偽と判定された画素位置の画素を対象画素として、色差の分散に基づいて各色成分の鮮鋭度を比較し、鮮鋭度が最も高い色成分を決定する決定手段と、鮮鋭度が最も高い色成分に基づいて、対象画素の少なくとも1つの色成分の鮮鋭度を調整する調整手段と、を備える。
 また、演算手段は、色差を差分の絶対値として求めてもよい。
 また、判定手段は、各色成分の画素値の分布に基づいて、色境界が飽和領域周辺の濃度差による色にじみか否かを判定し、決定手段は、色境界が色にじみと判定された場合、色境界と判定された画素位置の画素を対象画素としてもよい。
 また、鮮鋭度が調整された対象画素の画素値を、色差空間において、鮮鋭度の調整前の画素値の色差の向きと同じになるように補正する色差補正部を備えてもよい。
 また、色差補正部は、色差空間において、鮮鋭度が調整された対象画素の画素値の色差成分の大きさが所定の大きさ以上の場合、鮮鋭度が調整された対象画素の画素値の色差成分の大きさを小さくしてもよい。
 また、演算手段は、画素位置を中心とする領域にある、対象画像の所定の色成分の画素値と平滑画像の所定の色成分とは異なる色成分の画素値とを用い、色差の分散を算出してもよい。
 また、決定手段は、対象画素において、色差ごとに最小の分散値を与える平滑画像の色成分を鮮鋭度が高い色成分と決定し、決定された色成分の鮮鋭度を比較して鮮鋭度が最も高い色成分を決定してもよい。
 また、演算手段は、最小の分散値を内挿法に基づいて決定してもよい。
 本発明を例示する撮像装置の一の態様は、被写体を撮像して、複数の色成分の画素値を有する対象画像を生成する撮像手段と、本発明の画像処理装置と、を備える。
 本発明を例示する画像処理プログラムの一の態様は、複数の色成分の画素値を有する対象画像を読み込む入力手順、対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手順、対象画像の各画素位置における、対象画像の所定の色成分の画素値と、平滑画像の所定の色成分とは異なる色成分の画素値との差分である色差を、各平滑画像毎に求めて、求めた色差の分散を算出する演算手順、色差の分散に基づいて、対象画像の各色成分の鮮鋭度を比較し、鮮鋭度が最も高い色成分を決定する決定手順、鮮鋭度が最も高い色成分に基づいて、対象画像の少なくとも1つの色成分の鮮鋭度を調整する調整手順、をコンピュータに実行させる。
 本発明を例示する画像処理プログラムの他の態様は、複数の色成分の画素値を有する対象画像を読み込む入力手順、対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手順、対象画像の各画素位置において、対象画像の所定の色成分の画素値と平滑画像の所定の色成分とは異なる色成分の画素値との差分である色差を求め、平滑の度合いに応じた色差の分散を算出する演算手順、色差の分散に基づいて、各画素位置が色境界か否かを判定する判定手順、色境界の判定が偽と判定された画素位置の画素を対象画素として、色差の分散に基づいて各色成分の鮮鋭度を比較し、鮮鋭度が最も高い色成分を決定する決定手順、鮮鋭度が最も高い色成分に基づいて、対象画素の少なくとも1つの色成分の鮮鋭度を調整する調整手順、をコンピュータに実行させる。
 本発明によれば、色抜け等が生じることなく、軸上色収差を確度高く補正できる。
第1の実施形態に係る画像処理装置として動作させるコンピュータ10の構成を示すブロック図 第1の実施形態に係るコンピュータ10による画像処理の動作を示すフローチャート 注目画素と参照領域との関係を示す図 注目画素における標準偏差DEVr[k’]の分布を示す図 第2の実施形態に係るコンピュータ10による画像処理の動作を示すフローチャート 第2の実施形態のコンピュータ10におけるCPU1の構成を示すブロック図 色構造と色境界との違いを説明する図 レベル補正について説明する図 第3の実施形態のコンピュータ10におけるCPU1の構成を示すブロック図 パープルフリンジについて説明する図 第3の実施形態に係るコンピュータ10による画像処理の動作を示すフローチャート 第4の実施形態に係るコンピュータ10による画像処理の動作を示すフローチャート 本発明に係るデジタルカメラの構成の一例を示す図 本発明に係るデジタルカメラの構成の別例を示す図 補正後の色差成分の大きさに応じた補正出力率を示す図
《第1の実施形態》
 図1は、本発明の第1の実施形態に係る画像処理装置として動作させるコンピュータ10の構成を示すブロック図である。コンピュータ10によって処理される対象画像は、各画素において、赤色(R)、緑色(G)、青色(B)の色成分それぞれの画素値を有することを前提とする。すなわち、本実施形態の対象画像は、3板式カラーのデジタルカメラで撮像された、または、単板式カラーのデジタルカメラで撮像され色補間処理された画像であるとする。また、対象画像は、デジタルカメラ等による撮像の際、撮像レンズによる軸上色収差の影響を有し、色成分間の鮮鋭度が異なるものとする。
 図1(a)に示すコンピュータ10は、CPU1、記憶部2、入出力インタフェース(入出力I/F)3およびバス4から構成される。CPU1、記憶部2および入出力I/F3は、バス4を介して情報伝達可能に接続される。また、コンピュータ10には、入出力I/F3を介して、画像処理の途中経過や処理結果を表示する出力装置30、ユーザからの入力を受け付ける入力装置40がそれぞれ接続される。出力装置30には、一般的な液晶モニタやプリンタ等を用いることができ、入力装置40には、キーボードやマウス等をそれぞれ適宜選択して使用できる。
 CPU1は、コンピュータ10の各部を統括的に制御するプロセッサである。例えば、CPU1は、入力装置40で受け付けたユーザからの指示に基づいて、記憶部2に記憶されている画像処理プログラムを読み込む。CPU1は、その画像処理プログラムの実行により、画像平滑部20、演算部21、決定部22、調整部23として動作し(図1(b))、記憶部2に記憶されている対象画像の軸上色収差の補正処理を行う。CPU1は、その画像の画像処理の結果を、出力装置30に表示する。
 画像平滑部20は、平滑化の度合い(ぼかし指標)が相異なる、例えば、N個の公知のガウシアンフィルタを用い、各ガウシアンフィルタのぼかし指標に応じて対象画像を平滑化したN個の平滑画像を生成する(Nは2以上の自然数)。なお、本実施形態におけるぼかし指標とは、例えば、ぼかし半径の大きさを指す。
 演算部21は、後述するように、対象画像およびN個の平滑画像を用い、各色成分間の差分である色差面(色差)およびその標準偏差(分散)の値を算出する。そして、演算部21は、その標準偏差の分布に公知の内挿法を適用することにより、最小の標準偏差を与えるぼかし指標を求める。
 決定部22は、その最小の標準偏差を与えるぼかし指標に基づいて、最も高い鮮鋭度の色成分を決定する。
 調整部23は、決定部22によって決定された最も高い鮮鋭度の色成分に基づいて、色成分間の鮮鋭度を調整する。
 記憶部2は、撮像した被写体の撮像画像である対象画像とともに、対象画像における軸上色収差を補正するための画像処理プログラム等を記録する。記憶部2に記憶される撮像画像やプログラム等は、バス4を介して、CPU1から適宜参照することができる。記憶部2には、一般的なハードディスク装置、光磁気ディスク装置等の記憶装置を選択して用いることができる。なお、記憶部2は、コンピュータ10に組み込まれているが、外付けの記憶装置でもよい。この場合、記憶部2は、入出力I/F3を介してコンピュータ10に接続される。
 次に、本実施形態のコンピュータ10による画像処理の動作について、図2に示すフローチャートを参照しつつ説明する。
 ユーザは、入力装置40を用いて、画像処理プログラムのコマンドを入力、または、出力装置30に表示されたそのプログラムのアイコンをダブルクリック等し、画像処理プログラムの起動指示をCPU1に出力する。CPU1は、その指示を入出力I/F3を介して受け付け、記憶部2に記憶されている画像処理プログラムを読み込み実行する。CPU1は、図2のステップS10からステップS17の処理を開始する。
 ステップS10:CPU1は、入力装置40を介して、ユーザによって指定された補正対象の対象画像を読み込む。
 ステップS11:CPU1の画像平滑部20は、各ガウシアンフィルタのぼかし指標に応じ、読み込んだ対象画像を平滑化し、N個の平滑画像を生成する。なお、本実施形態では、対象画像自身も平滑画像の1つとし、本実施形態における平滑画像の総数は、(N+1)個となる。
 ステップS12:CPU1の演算部21は、R成分とG成分との色差面Cr、B成分とG成分との色差面Cb、およびR成分とB成分との色差面Crbを対象画像と各平滑画像とを用いて算出する。
 例えば、演算部21は、対象画像の所定の色成分であるG成分の画素値G0(i,j)と、平滑画像の上記所定の色成分とは異なる色成分であるR成分の画素値Rk(i,j)との差分を求め、次式(1)に示す色差面Cr[-k](i,j)を算出する。
Cr[-k](i,j)=Rk(i,j)-G0(i,j)  …(1)
ここで、(i,j)は、処理対象の画素である注目画素の画素位置の座標を示す。kは、平滑画像のぼかし指標であり、0≦k≦Nの整数である。なお、式(1)において、ぼかし指標kがマイナスであるのは、マイナス側にR面を順次ぼかした色差面Crであることを表す。また、ぼかし指標k=0は、対象画像自身、すなわち平滑化されていない画像を表す。
 同様に、演算部21は、対象画像の所定の色成分であるR成分の画素値R0(i,j)と、平滑画像の上記所定の色成分とは異なる色成分であるG成分の画素値Gk(i,j)との差分を求め、次式(2)の色差面Cr[k](i,j)を算出する。
Cr[k](i,j)=R0(i,j)-Gk(i,j)   …(2)
 なお、式(2)において、ぼかし指標kがプラスであるのは、プラス側にG面を順次ぼかした色差面Crであることを表す。
 同様に、演算部21は、式(3)-式(6)に基づいて、B成分とG成分との色差面Cb、R成分とB成分との色差面Crbそれぞれを算出する。
Cb[-k](i,j)=Bk(i,j)-G0(i,j)  …(3)
Cb[k](i,j)=B0(i,j)-Gk(i,j)   …(4)
Crb[-k](i,j)=Rk(i,j)-B0(i,j) …(5)
Crb[k](i,j)=R0(i,j)-Bk(i,j)  …(6)
 ステップS13:演算部21は、ステップS12で算出した色差面Cr、Cb、Crbを用い、注目画素における各色差面の標準偏差DEVr、DEVb、DEVrbを算出する。本実施形態の演算部21は、図3に示すように、斜線で示す注目画素を中心とする15ピクセル×15ピクセルの大きさの参照領域AR1(第1領域)にある画素の各色差面Cr、Cb、Crbの値を用い標準偏差を算出する。なお、本実施形態では、参照領域の大きさを15ピクセル×15ピクセルとするが、CPU1の処理能力や軸上色収差の補正の精度に応じて適宜決めることが好ましい。本実施形態の場合には、例えば、一辺を10-30ピクセルの範囲の大きさとするのがよい。
 演算部21は、次式(7)-(9)を用い各色差面の標準偏差DEVr、DEVb、DEVrbを算出する。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
ここで、k’は、-N~Nの整数のぼかし指標である。rは、参照領域の一辺のピクセル数を示し、本実施形態では、r=15ピクセルである。また、(l、m)および(x、y)は、参照領域AR1内の画素位置をそれぞれ表す。
 ステップS14:CPU1の決定部22は、ステップS13で算出された各色差面の標準偏差DEVr、DEVb、DEVrbに基づいて、注目画素(i,j)において最も鮮鋭度の高い色成分を決定する。
 例えば、演算部21は、注目画素(i,j)において、最小の標準偏差DEVrを与えるぼかし指標k’を求める。図4は、注目画素(i,j)における標準偏差DEVr[k’]の分布を示す。図4に示す分布に基づいて、演算部21は、標準偏差DEVr[k]が最小となるぼかし指標k’=αを求める。決定部22は、最小の標準偏差を与えるぼかし指標αが正の場合、注目画素(i,j)において鮮鋭度がより高いのはG成分であると決定する。一方、決定部22は、最小の標準偏差を与えるぼかし指標αが負の場合、注目画素(i,j)において鮮鋭度がより高いのはR成分であると決定する。
 演算部21は、B成分とG成分、R成分とB成分との場合についても同様に処理を行い、最小の標準偏差DEVb、DEVrbを与えるぼかし指標k’=αやk’=αrbを求める。決定部22は、ぼかし指標αおよびαrbの符号に基づいて、鮮鋭度がより高い方の色成分を決定する。
 ステップS15:CPU1は、ステップS14の結果に基づいて、注目画素(i,j)において、最も鮮鋭度の高い色成分が決定できたか否かを判定する。すなわち、3つの色差面における結果のうち、2つで同一の色成分が決定された場合、決定部22は、その色成分を、注目画素(i,j)における最も鮮鋭度の高い色成分として決定する。CPU1は、ステップS16(YES側)へ移行する。
 一方、例えば、各色差面の標準偏差DEVr、DEVb、DEVrbそれぞれに基づいて、決定部22がR成分、G成分、B成分を決定した場合、決定部22は、注目画素(i,j)において、最も鮮鋭度の高い色成分を1つに決定することができない。このような場合、CPU1は、不定と判定し対象画像に対する軸上色収差の補正処理を行わず、ステップS17(NO側)へ移行する。
 ステップS16:CPU1の調整部23は、ステップS15において、注目画素毎に決定された色成分に基づいて、注目画素毎に色成分間の鮮鋭度を調整し軸上色収差を補正する。
 そのために、演算部21は、例えば、図4に示すようなR成分とG成分との色差面Crの標準偏差DEVr[k’](i,j)の分布に基づいて、注目画素(i,j)におけるより正確なぼかし指標sを求める。すなわち、演算部21がステップS14で求めた標準偏差DEVrを最小にするぼかし指標αは、図4の点線が示すように、必ずしも真に最小の標準偏差DEVrを与えるぼかし指標ではない。そこで、演算部21は、算出された標準偏差DEVrが最小になるぼかし指標αと、隣接する両端のぼかし指標α-1およびα+1との3点に対し内挿法を適用し、より正確なぼかし指標(内挿点)sを求める。
 ここで、標準偏差DEVr[k’](i,j)の分布において、DEVr[α-1](i,j)>DEVr[α+1](i,j)の場合、ぼかし指標sは、次式(10)のように表される。
ぼかし指標s=((α+1)+α)/2+(DEVr[α+1](i,j)-DEVr[α](i,j))/2/a  …(10)
ここで、係数aは傾きであり、(DEVr[α-1](i,j)-DEVr[α](i,j))/((α-1)-α)となる。
 一方、DEVr[α-1](i,j)<DEVr[α+1](i,j)の場合、ぼかし指標sは、次式(11)のように表される。
ぼかし指標s=((α-1)+α)/2+(DEVr[α-1](i,j)-DEVr[α](i,j))/2/a  …(11)
なお、傾きaは(DEVr[α+1](i,j)-DEVr[α](i,j))/((α+1)-α)となる。
 そして、演算部21は、内挿点sとともに、ぼかし指標α、α+1のGα(i,j)、G(α+1)(j,j)を用いた公知の重み付け加算により、補正値G’(i,j)を算出する。
 以下は注目画素(i,j)で最も鮮鋭度が高いのがG面とした場合の例である。
 調整部23は、次式(12)に基づいて、注目画素(i,j)におけるR成分の鮮鋭度を調整し軸上色収差を補正する。
R’(i,j)=R0(i,j)+(G0(i,j)-G’(i,j)) …(12)
 調整部23は、同様にB成分についても、B成分とG成分との色差面Cbの標準偏差DEVbの分布に基づいて、補正値G”(i,j)を算出し、次式(13)に基づいて、注目画素(i,j)におけるB成分の鮮鋭度を調整し軸上色収差を補正する。
B’(i,j)=B0(i,j)+(G0(i,j)-G”(i,j)) …(13)
 ステップS17:CPU1は、対象画像の全ての画素について処理が終了したか否かを判定する。CPU1は、全ての画素について処理が終了していないと判定した場合、ステップS12(NO側)へ移行し、次の画素を注目画素として、ステップS12からステップS16の処理を行う。一方、CPU1は、全ての画素について処理が終了したと判定した場合、色成分R’、G、B’からなる画像を軸上色収差が補正された新たな画像として、記憶部2に記録したり出力装置30に表示したりする。そして、CPU1は、一連の処理を終了する。
 このように、本実施形態では、各色差面の標準偏差の分布に基づいて、最も鮮鋭度の高い色成分を決定し、色成分間の鮮鋭度を調整することから、対象画像における色抜けを回避しつつ軸上色収差を確度高く補正できる。
《第2の実施形態》
 本発明の第2の実施形態に係る画像処理装置は、図1に示す第1の実施形態に係る画像処理装置と同様に、コンピュータ10を画像処理装置として動作させる。本実施形態の各構成要素で第1の実施形態と同一のものには、同一の符号を付し詳細な説明は省略する。
 図5は、本実施形態のコンピュータ10による画像処理の動作のフローチャートを示す。図5において、図2に示す第1の実施形態における画像処理と同一のものには、同一のステップ番号を付し詳細な説明は省略する。
 本実施形態において、コンピュータ10による画像処理が第1の実施形態と異なる点は、図6に示すように、CPU1が、画像処理プログラムの実行により、画像平滑部20、演算部21、決定部22、調整部23とともに、判定部24として動作する点にある。その結果、判定部24による対象画像に色境界が存在するか否かを判定するステップS20と、演算部21による色境界による画像処理に対する影響を回避するためのレベル補正を行うステップS21とが、ステップS11とステップS12との間に新たに追加される。
 ここで、色境界について簡単に説明する。図7(a)は、例えば、白地に一本の黒線の被写体を撮像した対象画像の場合で、黒線に直交する走査方向でのR成分(点線)、G成分(実線)、B成分(破線)の画素値の分布を示す。一方、図7(b)は、赤と白との2色からなる色境界を有する被写体を撮像した対象画像の場合で、色境界に直交する走査方向でのR成分(点線)、G成分(実線)、B成分(破線)の画素値の分布を示す。なお、図7の対象画像を撮像したカメラの撮像レンズは、軸上色収差を有しG成分で合焦するとする。
 図7(a)に示すように、G成分は色構造をよく再現するのに対し、軸上色収差によりR成分やB成分は色構造がぼけてしまう。これにより、黒線の部分は緑またはマゼンダに滲んでしまう。しかしながら、色成分間の色構造が互いに一致する場合、演算部21は、第1の実施形態と同様の画像処理を施すことにより、R成分およびB成分に対する軸上色収差を補正することができる。すなわち、本実施形態の軸上色収差の補正処理は、色成分間の色構造が互いに一致することを前提としている。
 一方、図7(b)に示すように、各色成分の色構造が色境界で大きく異なる場合、上述した前提が成り立たない。すなわち、第1の実施形態の場合と同様に、調整部23が、ぼかし指標sで色境界を有する対象画像のG成分を平滑化しても、R成分の分布(または鮮鋭度)に近づけることができず、R成分の軸上色収差を補正することができない。
 そこで、本実施形態のコンピュータ10は、ステップS20およびステップS21において、色境界による影響を回避するための処理を施す。
 ステップS20において、判定部24は、注目画素を中心とする所定の大きさの領域AR2(第2領域)において、対象画像に色境界が存在するか否かを判定する。例えば、判定部24は、対象画像の領域AR2において、各色成分の最大と最小となる画素値を抽出する。演算部21は、各色成分の最大と最小との画素値から各色成分の画素値の分布幅を求める。判定部24は、各色成分の分布幅を比較し、最大の分布幅と最小の分布幅との差が閾値δ以上となる色成分間があるか否かを判定する。判定部24が閾値δ以上となる色成分間があると判定した場合、色境界が存在することを意味し、CPU1は、ステップS21(YES側)へ移行する。一方、判定部24が閾値δ以上となる色成分間がないと判定した場合、色境界が存在しないことを意味し、CPU1は、ステップS13(NO側)へ移行して、第1の実施形態の場合と同様の処理を行う。
 ステップS21において、演算部21は、ステップS20で色境界が存在すると判定された対象画像および各平滑画像の領域AR2の各色成分に対しレベル補正を行う。すなわち、演算部21は、図7(b)に示す色成分それぞれの画素値の分布幅を、いずれかの色成分の分布幅に一致させるレベル補正を行う(図8(a)、(b))。或いは、演算部21は、色成分それぞれの画素値を所定の分布幅(例えば、0-255)に伸張しレベル補正してもよい(図8(c))。これにより、色境界による影響を回避することができる。
 なお、レベル補正された対象画像および各平滑画像の画素値は、ステップS16において、演算部21が注目画素におけるぼかし指標sを算出するまで用いられる。
 また、領域AR2の大きさは、参照領域AR1と同じ大きさでもよいし、異なる大きさでもよい。すなわち、領域AR2の大きさは、CPU1の処理能力や要求される補正精度に応じて決定されることが好ましい。
 このように、本実施形態では、各色差面の標準偏差の分布に基づいて、最も鮮鋭度の高い色成分を決定し、色成分間の鮮鋭度を調整することから、対象画像における色抜けを回避しつつ軸上色収差を確度高く補正できる。
 また、色境界が存在する場合であっても、レベル補正を行い色成分それぞれの色構造を一致させることにより、色境界の影響を回避することができる。
《第3の実施形態》
 本発明の第3の実施形態に係る画像処理装置は、図1に示す第1の実施形態に係る画像処理装置と同様に、コンピュータ10を画像処理装置として動作させる。本実施形態の各構成要素で第1の実施形態と同一のものには、同一の符号を付し詳細な説明は省略する。
 本実施形態において、コンピュータ10による画像処理が第1の実施形態と異なる点は、図9に示すように、CPU1が、画像処理プログラムの実行により、画像平滑部50、演算部51、判定部52、決定部53、調整部54、色差補正部55として動作する点にある。
 画像平滑部50は、第1の実施形態の画像平滑部20と同様の動作処理を行い、詳細な説明は省略する。
 演算部51は、対象画像およびN個の平滑画像を用い、各画素の画素位置において、対象画像の色成分と平滑画像の対象画像の色成分とは異なる色成分との差分の絶対値から、ぼかし指標に応じた色差面(色差)およびその標準偏差(分散)の値を算出する。そして、演算部51は、各画素の画素位置における、ぼかし指標に対する標準偏差の分布に公知の内挿法を適用して、その画素位置で最小の標準偏差を与えるぼかし指標を求める。なお、本実施形態の演算部51は、色差面を求めるにあたり、式(1)-(6)に代えて、次式(14)-(19)を用いる。
Cr[-k](i,j)=|Rk(i,j)-G0(i,j)|  …(14)
Cr[k](i,j)=|R0(i,j)-Gk(i,j)|   …(15)
Cb[-k](i,j)=|Bk(i,j)-G0(i,j)|  …(16)
Cb[k](i,j)=|B0(i,j)-Gk(i,j)|   …(17)
Crb[-k](i,j)=|Rk(i,j)-B0(i,j)| …(18)
Crb[k](i,j)=|R0(i,j)-Bk(i,j)|  …(19)
 判定部52は、それぞれのぼかし指標における色差面間の標準偏差の値に基づいて、画素位置の色構造が色境界か否かを判定する。つまり、上述したように、図7(b)に示すような色境界では、各色成分の色構造が大きく異なることから、各色成分間の色差の標準偏差の値も互いに大きく異なる。そこで、本実施形態の判定部52は、算出したそれぞれのぼかし指標における各色成分間の色差の標準偏差の値が、閾値ε以上のギャップがあるか否かを判定することにより、各画素位置の色構造が色境界か否かを判定する。判定部52が、その画素位置の色構造が色境界であると判定した場合、本実施形態では、その画素位置の画素に対する軸上色収差の補正を行わないようにする。これにより、色境界に対する軸上色収差の補正処理を施すことにより生じる変色を抑制することができる。
 さらに、判定部52は、色境界と判定された画素位置の色構造が、飽和領域周辺の濃度差による色にじみ、例えば、パープルフリンジであるか否かを、その画素位置およびその周辺における各色成分の画素値の分布に基づいて判定する。ここで、パープルフリンジとは、街灯等の光源の周囲や水面の照り返し等、光量が大きいために各色成分の画素値が飽和した高輝度領域(飽和領域)の周りに生じる紫色の色にじみのことである。図10は、パープルフリンジの一例として、明るい光源を撮像した対象画像で、光源の中心を通る走査方向でのR成分(点線)、G成分(実線)、B成分(破線)の画素値の分布を示す。図10に示すように、色成分ごとに飽和領域が異なり、光源から離れるに従ってG成分が最初に減少し、R成分が最も広い範囲まで分布する。このような分布により、紫色の色にじみとなって現れる。このような各色成分の分布は、図7(a)に示す軸上色収差の場合とも異なることから、判定部52は、パープルフリンジを色境界と判定してしまう。しかしながら、上述したように、図7(a)に示す黒線の部分が軸上色収差により緑またはマゼンダに滲むという点は、パープルフリンジと似ている。そこで、本実施形態では、パープルフリンジの画素位置に対して、軸上色収差と同様の補正処理を施す。
 そのために、判定部52は、図10に示すように、画素位置を中心とする周辺領域、または対象画像全体における各色成分の画素値の分布を求め、その分布から各色成分の画素値の飽和領域を求める。判定部52は、最も広く分布する色成分の飽和領域(図10の場合は、R成分)およびその飽和領域の端から幅β広げた領域をパープルフリンジ領域として抽出する。判定部52は、画素位置が抽出したパープルフリンジ領域に含まれるか否かを判定し、画素位置の色構造がパープルフリンジであるか否か判定する。そして、パープルフリンジと判定された画素位置の画素は、対象画素として軸上色収差の補正処理が施される。
 決定部53は、判定部52により色境界でないと判定された画素位置およびパープルフリンジと判定された画素位置の画素(対象画素)における、最小の標準偏差を与えるぼかし指標に基づいて、最も高い鮮鋭度の色成分を決定する。
 調整部54は、第1の実施形態の調整部23と同様の処理動作を行い、決定部53によって決定された最も高い鮮鋭度の色成分に基づいて、対象画素の画素位置での色成分間の鮮鋭度を調整する。
 色差補正部55は、鮮鋭度が調整された画素の各色成分の画素値を、色差空間において、調整前の色差の向きと同じになるように補正し、軸上色収差の補正処理によって生じる変色を抑制する。
 次に、本実施形態のコンピュータ10による軸上色収差を補正する画像処理の動作について、図11に示すフローチャートを参照しつつ説明する。
 ユーザは、入力装置40を用いて、画像処理プログラムのコマンドを入力、または、出力装置30に表示されたそのプログラムのアイコンをダブルクリック等することにより、画像処理プログラムの起動をCPU1に指示する。CPU1は、その指示を入出力I/F3を介して受け付け、記憶部2に記憶されている画像処理プログラムを読み込み実行する。CPU1は、図11のステップS30からステップS40の処理を開始する。
 ステップS30:CPU1は、入力装置40を介して、ユーザによって指定された補正対象の対象画像を読み込む。
 ステップS31:CPU1の画像平滑部50は、第1の実施形態のステップS11と同様に、各ガウシアンフィルタのぼかし指標に応じ、読み込んだ対象画像を平滑化し、N個の平滑画像を生成する。
 ステップS32:CPU1の演算部51は、R成分とG成分との色差面Cr、B成分とG成分との色差面Cb、およびR成分とB成分との色差面Crbを、対象画像および各平滑画像と式(14)-(19)とを用いて算出する。
 ステップS33:演算部51は、第1の実施形態のステップS13と同様に、ステップS32で算出した色差面Cr、Cb、Crbと式(7)-(9)とを用い、注目画素(i,j)における各色差面の標準偏差DEVr、DEVb、DEVrbを、ぼかし指標ごとに算出する。
 ステップS34:演算部51は、ステップS33で算出された各色差面の標準偏差DEVr、DEVb、DEVrbを用い、注目画素(i,j)において、最小の標準偏差の値を与えるぼかし指標k’を色差面ごとに求める。例えば、図4に示すぼかし指標に応じた色差面Crの標準偏差DEVr[k’]の分布に基づいて、演算部51は、注目画素(i,j)において、その標準偏差が最小となるぼかし指標k’=αを求める。
 演算部51は、色差面Cbおよび色差面Crbの場合についても同様の処理を行い、最小の標準偏差DEVb、DEVrbを与えるぼかし指標k’=αおよびk’=αrbを求める。
 ステップS35:CPU1の判定部52は、注目画素(i,j)において、それぞれのぼかし指標k’における各色差面の標準偏差DEVr[k’]、DEVb[k’]、DEVrb[k’]の値に基づいて、注目画素(i,j)の色構造が色境界の色相を有するか否かを判定する。判定部52は、それらの標準偏差の値のいずれか1つが閾値ε以上となるか否かを判定する。なお、本実施形態の閾値εは、例えば、対象画像が255階調の画像の場合、50に設定されるものとする。ただし、閾値εの値は、対象画像の階調、注目画素の画素位置や参照領域AR1等に応じて決定されるのが好ましく、例えば、40~60の範囲の値に設定されるのが好ましい。
 判定部52は、閾値ε以上となる標準偏差の値があった場合、注目画素(i,j)の色構造は色境界であると判定し、その注目画素の画素位置を不図示のワーキングメモリに記録し、ステップS36(YES側)へ移行する。一方、判定部52は、閾値ε以上となる標準偏差の値が無かった場合、注目画素(i,j)の色構造は色境界でないと判定し、注目画素を軸上色収差の補正処理の対象画素としてステップS37(NO側)へ移行する。
 ステップS36:判定部52は、ステップS35において色境界と判定された注目画素(i,j)の色構造がパープルフリンジであるか否かを判定する。判定部52は、図7および図10に示すように、注目画素(i,j)およびその周辺画素、または対象画像全体の各色成分の画素値を用い、それらの分布を求める。判定部52は、色成分ごとに画素値の分布から画素値が飽和した飽和領域(255階調の画像の場合、画素値が255)をそれぞれ求める。判定部52は、各色成分の飽和領域の大きさのうち、最も領域が広い、例えば、R成分の飽和領域とその飽和領域の端から幅β広げた領域とを合わせた領域をパープルフリンジ領域とし、注目画素がそのパープルフリンジ領域内か否かを判定する。なお、本実施形態における幅βの値は、例えば、10ピクセル程度である。ただし、幅βの大きさは、CPU1の処理能力、軸上色収差の補正処理の精度や各色成分における飽和状態からの減少度合いに応じて決定されるのが好ましい。
 判定部52は、パープルフリンジ領域内の場合、注目画素の色構造はパープルフリンジと判定し、その注目画素の画素位置をワーキングメモリ(不図示)に記録する。判定部52は、その注目画素を軸上色収差の補正処理の対象画素として、ステップS37(YES側)へ移行する。一方、パープルフリンジ領域外の場合、注目画素の色構造は色境界と判定し、注目画素に対する軸上色収差の補正処理を行わず、ステップS40(NO側)へ移行する。
 ステップS37:決定部53は、ステップS34において求めた各色差面のぼかし係数α、α、αrbに基づいて、注目画素(i,j)における鮮鋭度が最も高い色成分を決定する。決定部53は、最小の標準偏差を与えるぼかし指標αが正の場合、注目画素(i,j)において鮮鋭度がより高いのはG成分であると決定する。一方、決定部53は、最小の標準偏差を与えるぼかし指標αが負の場合、注目画素(i,j)において鮮鋭度がより高いのはR成分であると決定する。決定部53は、ぼかし指標αおよびαrbに対しても、それらの符号に基づいて、鮮鋭度がより高い色成分をそれぞれ決定する。
 上記結果に基づいて、決定部53は、注目画素(i,j)において、最も鮮鋭度の高い色成分が決定できたか否かを判定する。すなわち、3つの色差面における結果のうち、2つで同一の色成分が決定された場合、決定部53は、その色成分を、注目画素(i,j)において鮮鋭度が最も高い色成分として決定し、ステップS38(YES側)へ移行する。
 一方、例えば、各色差面のぼかし係数α、α、αrbそれぞれに基づいて、R成分、G成分、B成分がそれぞれ決定された場合、決定部53は、注目画素(i,j)における最も鮮鋭度の高い色成分を1つに決定することができない。このような場合、決定部53は、不定と判定し、注目画素に対する軸上色収差の補正処理を行わず、ステップS40(NO側)へ移行する。なお、色差面ごとに決定された各色成分の鮮鋭度を比較し鮮鋭度が最も高い色成分を決定してもよい。
 ステップS38:CPU1の調整部54は、ステップS37において、決定された色成分に基づいて、注目画素(i,j)の色成分間の鮮鋭度を調整し軸上色収差を補正する。
 そのために、演算部51は、式(10)-(11)を用いて、例えば、図4に示す色差面Crの標準偏差DEVrの分布に基づき、注目画素(i,j)における真の意味での最小の標準偏差の値を与えるぼかし指標(内挿点)sを求める。そして、演算部51は、求めた内挿点sとともに、ぼかし指標α、α+1のGα(i,j)、G(α+1)(j,j)を用いた公知の重み付け加算により、補正値G’(i,j)を算出する。
 調整部54は、例えば、式(12)-(13)に基づいて、注目画素(i,j)におけるR成分およびB成分の鮮鋭度を調整し軸上色収差を補正する。
 ステップS39:CPU1の色差補正部55は、軸上色収差の補正処理が施された注目画素の各色成分の画素値に対して色差補正を行う。
 すなわち、ステップS38において、軸上色収差の補正処理が施された注目画素の各色成分の画素値は、補正前の画素値と比較した場合、特に、輝度色差の色空間における色差成分の向きが大きく変わる場合があるからである。そして、それにより注目画素(i,j)において変色が発生する。そこで、本実施形態では、その変色の発生を抑制するために、色差補正部55は、注目画素における補正後の色差成分が、輝度色差の空間において、補正前の色差成分の向きと同じになるように補正する。
 具体的には、色差補正部55は、注目画素の補正前後の各色成分の画素値を、公知の変換処理を適用して、RGBの画素値(R’,G,B’)をYCrCbの輝度成分と色差成分(Y’,Cr’,Cb’)に変換する。ここで、補正前の輝度成分および色差成分を(Y0,Cr0,Cb0)とする。そして、色差補正部55は、次式(20)により、注目画素の色差成分の向きを補正前の向きに補正する。なお、本実施形態において、輝度成分Y’は補正しない。
Figure JPOXMLDOC01-appb-M000004
 色差補正部55は、再度、上述した公知の変換処理を適用して、注目画素の色差補正後の輝度成分および色差成分(Y’,Cr”,Cb”)をRGBの画素値(R,G,B)に変換する。色差補正部55は、画素値(R,G,B)を注目画素(i,j)の画素値とする。
 ステップS40:CPU1は、対象画像の全ての画素について処理が終了したか否かを判定する。CPU1は、全ての画素について処理が終了していないと判定した場合、ステップS32(NO側)へ移行し、次の画素を注目画素として、ステップS32からステップS39の処理を行う。一方、CPU1は、全ての画素について処理が終了したと判定した場合、軸上色収差が補正された画像を、記憶部2に記録したり出力装置30に表示したりする。そして、CPU1は、一連の処理を終了する。
 このように、本実施形態では、各色差面の標準偏差の値に基づいて、各画素位置における色構造を判定することにより、軸上色収差の補正を確度高く行うことができる。
 また、色境界と判定された注目画素に対する軸上色収差の補正処理を行わないことにより、変色や色抜けの発生を抑制することができる。
 さらに、注目画素の補正後の画素値に対して、色差空間において補正前の画素値が有した色差成分の向きに補正することにより、変色や色抜けを抑制しつつ軸上色収差の補正をより精度よく行うことができる。
《第4の実施形態》
 本発明の第4の実施形態に係る画像処理装置は、第3の実施形態に係る画像処理装置と同一である。よって、図1に示すコンピュータ10を本実施形態に係る画像処理装置とし、各構成要素について同一の符号を付し詳細な説明は省略する。
 なお、本実施形態のコンピュータ10と第3の実施形態のものとの相違点は、(1)演算部51が、対象画像およびN個の平滑画像と式(1)-(6)を用い、ぼかし指標に応じた色差面(色差)の値を算出し、(2)判定部52が、それぞれのぼかし指標における色差面間の標準偏差の値の差分を算出し、その絶対値に基づいて、画素位置の色構造が色境界か否かを判定することにある。
 次に、本実施形態のコンピュータ10による軸上色収差を補正する画像処理の動作について、図12に示すフローチャートを参照しつつ説明する。
 ユーザは、入力装置40を用いて、画像処理プログラムのコマンドを入力、または、出力装置30に表示されたそのプログラムのアイコンをダブルクリック等することにより、画像処理プログラムの起動をCPU1に指示する。CPU1は、その指示を入出力I/F3を介して受け付け、記憶部2に記憶されている画像処理プログラムを読み込み実行する。CPU1は、図12のステップS50からステップS60の処理を開始する。
 ステップS50:CPU1は、入力装置40を介して、ユーザによって指定された補正対象の対象画像を読み込む。
 ステップS51:CPU1の画像平滑部50は、第3の実施形態のステップS31と同様に、各ガウシアンフィルタのぼかし指標に応じ、読み込んだ対象画像を平滑化し、N個の平滑画像を生成する。
 ステップS52:CPU1の演算部51は、R成分とG成分との色差面Cr、B成分とG成分との色差面Cb、およびR成分とB成分との色差面Crbを、対象画像および各平滑画像と式(1)-(6)とを用いて算出する。
 ステップS53:演算部51は、第3の実施形態のステップS33と同様に、ステップS52で算出した色差面Cr、Cb、Crbを用い、注目画素(i,j)における各色差面の標準偏差DEVr、DEVb、DEVrbを、式(7)-(9)に基づいてぼかし指標ごとに算出する。
 ステップS54:演算部51は、第3の実施形態のステップS34と同様に、ステップS53で算出された各色差面の標準偏差DEVr、DEVb、DEVrbを用い、注目画素(i,j)において、最小の標準偏差の値を与えるぼかし指標k’(=α、α、αrb)を色差面ごとに求める。
 ステップS55:CPU1の判定部52は、注目画素(i,j)において、それぞれのぼかし指標k’における各色差面の標準偏差の差分、DEVr[k’]-DEVb[k’]、DEVb[k’]-DEVrb[k’]、DEVr[k’]-DEVrb[k’]を求め、その差分の絶対値に基づいて、注目画素(i,j)の色構造が色境界の色相を有するか否かを判定する。判定部52は、それらの標準偏差の差分の絶対値のいずれか1つが閾値ε以上となるか否かを判定する。なお、本実施形態の閾値εは、例えば、対象画像が255階調の画像の場合、50に設定されるものとする。ただし、閾値εの値は、対象画像の階調、注目画素の画素位置や参照領域AR1等に応じて決定されるのが好ましく、例えば、40~60の範囲の値に設定されるのが好ましい。
 判定部52は、閾値ε以上となる標準偏差の差分の絶対値があった場合、注目画素(i,j)の色構造は色境界であると判定し、その注目画素の画素位置を不図示のワーキングメモリに記録し、ステップS56(YES側)へ移行する。一方、判定部52は、閾値ε以上となる標準偏差の差分の絶対値が無かった場合、注目画素(i,j)の色構造は色境界でないと判定し、注目画素を軸上色収差の補正処理の対象画素としてステップS57(NO側)へ移行する。
 ステップS56:判定部52は、第3の実施形態のステップS36と同様に、ステップS55において色境界と判定された注目画素(i,j)の色構造がパープルフリンジであるか否かを判定する。
 判定部52は、パープルフリンジ領域内の場合、注目画素の色構造はパープルフリンジと判定し、その注目画素の画素位置をワーキングメモリ(不図示)に記録する。判定部52は、その注目画素を軸上色収差の補正処理の対象画素として、ステップS57(YES側)へ移行する。一方、パープルフリンジ領域外の場合、注目画素の色構造は色境界と判定し、注目画素に対する軸上色収差の補正処理を行わず、ステップS60(NO側)へ移行する。
 ステップS57:決定部53は、第3の実施形態のステップS37と同様に、ステップS54において求めた各色差面のぼかし係数α、α、αrbに基づいて、注目画素(i,j)における鮮鋭度が最も高い色成分を決定する。決定部53は、注目画素(i,j)において、最も鮮鋭度の高い色成分が決定できた場合、ステップS58(YES側)へ移行する。
 一方、決定部53は、注目画素(i,j)における最も鮮鋭度の高い色成分を1つに決定することができなかった場合、注目画素に対する軸上色収差の補正処理を行わず、ステップS60(NO側)へ移行する。
 ステップS58:CPU1の調整部54は、第3の実施形態のステップS38と同様に、ステップS57において、決定された色成分に基づいて、注目画素(i,j)の色成分間の鮮鋭度を調整し軸上色収差を補正する。
 ステップS59:CPU1の色差補正部55は、第3の実施形態のステップS39と同様に、式(20)を用いて、軸上色収差の補正処理が施された注目画素の各色成分の画素値に対して色差補正を行う。
 ステップS60:CPU1は、対象画像の全ての画素について処理が終了したか否かを判定する。CPU1は、全ての画素について処理が終了していないと判定した場合、ステップS52(NO側)へ移行し、次の画素を注目画素として、ステップS52からステップS59の処理を行う。一方、CPU1は、全ての画素について処理が終了したと判定した場合、軸上色収差が補正された画像を、記憶部2に記録したり出力装置30に表示したりする。そして、CPU1は、一連の処理を終了する。
 このように、本実施形態では、各色差面の標準偏差の差分に基づいて、各画素位置における色構造を判定することにより、軸上色収差の補正を確度高く行うことができる。
 また、色境界と判定された注目画素に対する軸上色収差の補正処理を行わないことにより、変色や色抜けの発生を抑制することができる。
 さらに、注目画素の補正後の画素値に対して、色差空間において補正前の画素値が有した色差成分の向きに補正することにより、変色や色抜けを抑制しつつ軸上色収差の補正をより精度よく行うことができる。
《実施形態の補足事項》
 (1)本発明の画像処理装置は、画像処理プログラムをコンピュータ10に実行させることで実現させたが、本発明はこれに限定されない。本発明に係る画像処理装置における処理をコンピュータ10で実現するためのプログラムおよびそれを記録した媒体に対しても適用可能である。
 また、本発明の画像処理プログラムを有した図13および図14に示すようなデジタルカメラに対しても適用可能である。なお、図13および図14に示すデジタルカメラにおいて、撮像素子102と、撮像素子102から入力される画像信号のA/D変換や、色補間処理等の信号処理を行うデジタルフロントエンド回路のDFE103とが、撮像部を構成することが好ましい。
 また、デジタルカメラを本発明の画像処理装置として動作される場合、CPU104は、画像平滑部20、演算部21、決定部22、調整部23、判定部24、または画像平滑部50、演算部51、判定部52、決定部53、調整部54、色差補正部55の各処理をソフトウエア的に実現してもよいし、ASICを用いてこれらの各処理をハードウエア的に実現してもよい。
 (2)上記実施形態では、画像平滑部20、50が、複数のガウシアンフィルタを用いて、対象画像からN個の平滑画像を生成したが、本発明はこれに限定されない。例えば、図13および図14のようなデジタルカメラの撮像レンズ101等の光学系の点広がり関数(PSF)が得られる場合、画像平滑部20、50は、ガウシアンフィルタを用いる代わりに、PSFを用いて平滑画像を生成してもよい。
 (3)上記実施形態では、R成分とG成分との色差面Cr、B成分とG成分との色差面Cb、R成分とB成分との色差面Crbに基づいて、対象画像の軸上色収差の補正を行ったが、本発明はこれに限定されない。例えば、3つの色差面のうち2つの色差面に基づいて、対象画像の軸上色収差の補正を行ってもよい。これにより、補正処理の高速化を図ることができる。
 (4)上記実施形態では、対象画像は、各画素においてR成分、G成分、B成分の画素値を有するとしたが、本発明はこれに限定されない。例えば、対象画像の各画素において、2つまたは4つ以上の色成分を有してもよい。
 また、図13および図14に示すデジタルカメラの撮像素子102の受光面の各画素子に、R、G、Bのカラーフィルタが公知のベイヤ配列に従って配置されている場合、その撮像素子102によって撮像されたRAW画像に対しても、本発明は適用可能である。
 (5)上記第3の実施形態および第4の実施形態では、色差補正部55は、軸上色収差の補正処理が施された注目画素全てに対して色差補正を行ったが、本発明これに限定されない。色差補正部55は、注目画素の補正後の色差成分の大きさL’の値が、補正前の色差成分の大きさLの値より小さい場合、色差補正を行わないようにしてもよい。
 また、色差補正部55は、補正後の色差成分の大きさL’が、補正前の色差成分の大きさL(所定の大きさ)より大きい場合、図15および次式(21)で定義される補正出力率φ(L’)を用いて、式(20)を変形した次式(22)に基づき補正後の色差成分の出力率を小さくしてもよい。
Figure JPOXMLDOC01-appb-M000005
 これにより、変色の発生をより正確に抑制することが可能となる。なお、関数clip(V,U,U)は、パラメータVの値が下限値Uと上限値Uとの範囲外の値の場合、下限値Uまたは上限値Uにクリップする。なお、係数WVは、補正出力率φ(L’)を上限値U(=1)から下限値U(=0)に変化させる幅を示し、255階調の画像の場合、例えば、係数WV=5~10の値とする。ただし、係数WVの値は、要求される変色の抑制の度合い等に応じて適宜設定されることが好ましい。
 (6)上記第3の実施形態および第4の実施形態では、注目画素(i,j)の色構造が色境界の場合、軸上色収差の補正処理を行わないとしたが、本発明はこれに限定されない。例えば、色境界に位置する注目画素(i,j)に対して、ステップS37からステップS39またはステップS57からステップS59の処理を行ってもよい。ただし、調整部54は、ステップS38またはステップS58において、式(12)および(13)の代わりに次式(23)および(24)を用いて行うのが好ましい。この場合、ステップS39またはステップS59において、色差補正部55は、色境界と判定された注目画素に対しても色差補正を行うのが好ましい。
R’(i,j)=R0(i,j)+γ×(G0(i,j)-G’(i,j))…(23)
B’(i,j)=B0(i,j)+γ×(G0(i,j)-G”(i,j))…(24)
ここで、係数γは、0.1~0.2以下の値とし、色境界による影響をあまり受けないようにするのが好ましい。なお、係数γの値は、注目画素(i,j)でのそれぞれのぼかし指標における各色差面の標準偏差の値または標準偏差の差分の絶対値等に応じて決定されるのが好ましい。また、係数γは色成分ごとに設定されてもよい。
 これにより、特に、パープルフリンジ領域の境界付近における補正処理の方法の不連続性による影響を回避し、画像の階調の空間的な連続性を保つことができる。なお、調整部54は、画像の階調の空間的な連続性を保つために、公知の平滑化処理を適用してもよい。
 (7)上記第3の実施形態および第4の実施形態では、判定部52が、注目画素(i,j)の色構造が色境界か否か判定を、1つの閾値εを用いて行ったが、本発明はこれに限定されない。例えば、判定部52は、2つの閾値εおよびε(ε<ε)を用いて行ってもよい。この場合、式(12)および(13)に代えて、式(23)および(24)を用いるのが好ましい。
 例えば、標準偏差の値または標準偏差の差分の絶対値が閾値ε以下で、判定部52により注目画素の色構造が色境界でないと判定された場合、調整部54は、係数γ=1と設定して、注目画素(i,j)に対する軸上色収差の補正処理を行う。一方、標準偏差の値または標準偏差の差分の絶対値が閾値ε以上で、注目画素の色構造が色境界と判定された場合、調整部54は、係数γ=0または0.1~0.2以下の小さな値に設定し、注目画素(i,j)に対する軸上色収差の補正処理を行う。標準偏差の値または標準偏差の差分の絶対値が閾値εから閾値εの間の場合、判定部52は、注目画素の色構造を不定と判定し、調整部54は、例えば、標準偏差の値または差分の絶対値の大きさと閾値εおよびεとの大きさに応じて、係数γを1から0の間の値に設定し、注目画素に対する軸上色収差の補正処理を行う。なお、この場合、ステップS39またはステップS59において、色差補正部55は、全ての注目画素に対して色差補正処理を行うのが好ましい。
 これにより、特に、パープルフリンジ領域の境界付近における補正処理の方法の不連続性による影響を回避し、画像の階調の空間的な連続性を保つことができる。なお、調整部54は、画像の階調の空間的な連続性を保つために、公知の平滑化処理を適用してもよい。
 (8)上記第3の実施形態および第4の実施形態では、判定部52が、注目画素(i,j)およびその周辺画素の各色成分の画素値の分布に基づいてパープルフリンジ領域を求め、注目画素(i,j)の色構造がパープルフリンジであるか否かを判定したが、本発明はこれに限定されない。例えば、判定部52は、パープルフリンジ領域を求めるにあたり、最初に、対象画像の輝度成分に基づいて、輝度成分が飽和している領域を飽和領域として求めてもよい。
 ただし、求められた飽和領域にはショットノイズ等による数画素程度の大きさの領域も含まれる。そこで、判定部52は、例えば、公知の手法を用い、求められたそれぞれの飽和領域から1画素幅分程度の周辺領域を削除して飽和領域を縮小する。これにより、ショットノイズ等による数画素程度の大きさの飽和領域は除去される。そして、判定部52は、縮小した飽和領域に、例えば、1画素幅分程度の周辺領域を付加して、縮小した飽和領域を拡張する。判定部52は、最終的に飽和領域に幅β程度の領域が付加されるまで、この拡張処理を複数回行い、パープルフリンジ領域を求める。
 なお、判定部52は、ショットノイズ等による数画素程度の大きさの飽和領域を除去するために、公知のノイズ除去処理を適用してもよい。
 (9)上記第1の実施形態、第2の実施形態、第4の実施形態では、演算部21、51が、式(1)-(6)を用いて、色差面Cr、Cb、Crbを、異なる色成分の画素値の差分として求めたが、本発明はこれに限定されない。色差面Cr、Cb、Crbは、異なる色成分の画素値の差分の絶対値であってもよいし、その差分を2乗したものであってもよい。
 (10)上記第3の実施形態では、演算部51が、式(14)-(19)を用いて、色差面Cr、Cb、Crbを、異なる色成分の画素値の差分の絶対値として求めたが、本発明はこれに限定されない。色差面Cr、Cb、Crbは、単に、異なる色成分の画素値の差分の値であってもよいし、その差分を2乗したものであってもよい。
 以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。
1 CPU、2 記憶部、3 入出力I/F、4 バス、10 コンピュータ、20 画像平滑部、21 演算部、22 決定部、23 調整部、30 出力装置、40 入力装置

Claims (16)

  1.  複数の色成分の画素値を有する対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手段と、
     前記対象画像の各画素位置における、前記対象画像の所定の色成分の画素値と、前記平滑画像の前記所定の色成分とは異なる色成分の画素値との差分である色差を、前記各平滑画像毎に求めて、求めた前記色差の分散を算出する演算手段と、
     前記色差の分散に基づいて、前記対象画像の前記各色成分の鮮鋭度を比較し、前記鮮鋭度が最も高い色成分を決定する決定手段と、
     前記鮮鋭度が最も高い色成分に基づいて、前記対象画像の少なくとも1つの前記色成分の鮮鋭度を調整する調整手段と、
     を備えることを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記演算手段は、前記対象画像および前記各平滑画像で処理対象の画素位置を中心とする第1領域にある、前記所定の色成分の画素値と、前記所定の色成分とは異なる色成分の画素値とを用い、前記色差の分散を算出する
     ことを特徴とする画像処理装置。
  3.  請求項1または請求項2に記載の画像処理装置において、
     前記対象画像の前記処理対象の画素位置を中心とする第2領域において、前記所定の色成分の色構造と、前記所定の色成分とは異なる色成分の色構造とが異なることによる色境界が存在するか否かを判定する判定手段を備え、
     前記演算手段は、
     前記判定手段により前記色境界が存在すると判定された場合、前記対象画像および前記各平滑画像の前記第2領域における、前記所定の色成分の画素値の分布幅と、前記所定の色成分とは異なる色成分の画素値の分布幅とを互いに一致させ、前記色差の分散を算出する
     ことを特徴とする画像処理装置。
  4.  請求項1ないし請求項3のいずれか1項に記載の画像処理装置において、
     前記決定手段は、前記色差の分散のうちで最小の分散値を与える前記平滑画像の色成分を、前記各画素での前記鮮鋭度が最も高い色成分と決定することを特徴とする画像処理装置。
  5.  請求項4に記載の画像処理装置において、
     前記決定手段は、前記最小の分散値を内挿法に基づいて決定することを特徴とする画像処理装置。
  6.  複数の色成分の画素値を有する対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手段と、
     前記対象画像の各画素位置において、前記対象画像の所定の色成分の画素値と前記平滑画像の前記所定の色成分とは異なる色成分の画素値との差分である色差を求め、前記平滑の度合いに応じた前記色差の分散を算出する演算手段と、
     前記色差の分散に基づいて、前記各画素位置が色境界か否かを判定する判定手段と、
     前記色境界の判定が偽と判定された画素位置の画素を対象画素として、前記色差の分散に基づいて前記各色成分の鮮鋭度を比較し、前記鮮鋭度が最も高い色成分を決定する決定手段と、
     前記鮮鋭度が最も高い色成分に基づいて、前記対象画素の少なくとも1つの前記色成分の鮮鋭度を調整する調整手段と、
     を備えることを特徴とする画像処理装置。
  7.  請求項6に記載の画像処理装置において、
     前記演算手段は、前記色差を前記差分の絶対値として求めることを特徴とする画像処理装置。
  8.  請求項6または請求項7に記載の画像処理装置において、
     前記判定手段は、前記各色成分の画素値の分布に基づいて、前記色境界が飽和領域周辺の濃度差による色にじみか否かを判定し、
     前記決定手段は、前記色境界が前記色にじみと判定された場合、前記色境界と判定された画素位置の画素を前記対象画素とする
     ことを特徴とする画像処理装置。
  9.  請求項8に記載の画像処理装置において、
     前記鮮鋭度が調整された前記対象画素の画素値を、色差空間において、前記鮮鋭度の調整前の画素値の色差の向きと同じになるように補正する色差補正部を備えることを特徴とする画像処理装置。
  10.  請求項9に記載の画像処理装置において、
     前記色差補正部は、前記色差空間において、前記鮮鋭度が調整された対象画素の画素値の色差成分の大きさが所定の大きさ以上の場合、前記鮮鋭度が調整された対象画素の画素値の色差成分の大きさを小さくすることを特徴とする画像表示装置。
  11.  請求項6ないし請求項10のいずれか1項に記載の画像処理装置において、
     前記演算手段は、前記画素位置を中心とする領域にある、前記対象画像の所定の色成分の画素値と前記平滑画像の前記所定の色成分とは異なる色成分の画素値とを用い、前記色差の分散を算出することを特徴とする画像処理装置。
  12.  請求項6ないし請求項11のいずれか1項に記載の画像処理装置において、
     前記決定手段は、前記対象画素において、前記色差ごとに最小の分散値を与える前記平滑画像の色成分を前記鮮鋭度が高い色成分と決定し、決定された前記色成分の鮮鋭度を比較して前記鮮鋭度が最も高い色成分を決定することを特徴とする画像処理装置。
  13.  請求項12に記載の画像処理装置において、
     前記演算手段は、前記最小の分散値を内挿法に基づいて決定することを特徴とする画像処理装置。
  14.  被写体を撮像して、複数の色成分の画素値を有する対象画像を生成する撮像手段と、
     請求項1ないし請求項13のいずれか1項に記載の画像処理装置と、
     を備えることを特徴とする撮像装置。
  15.  複数の色成分の画素値を有する対象画像を読み込む入力手順、
     前記対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手順、
     前記対象画像の各画素位置における、前記対象画像の所定の色成分の画素値と、前記平滑画像の前記所定の色成分とは異なる色成分の画素値との差分である色差を、前記各平滑画像毎に求めて、求めた前記色差の分散を算出する演算手順、
     前記色差の分散に基づいて、前記対象画像の前記各色成分の鮮鋭度を比較し、前記鮮鋭度が最も高い色成分を決定する決定手順、
     前記鮮鋭度が最も高い色成分に基づいて、前記対象画像の少なくとも1つの前記色成分の鮮鋭度を調整する調整手順、
     をコンピュータに実行させることを特徴とする画像処理プログラム。
  16.  複数の色成分の画素値を有する対象画像を読み込む入力手順、
     前記対象画像を、異なる複数の平滑化の度合いで平滑化し、複数の平滑画像を生成する画像平滑手順、
     前記対象画像の各画素位置において、前記対象画像の所定の色成分の画素値と前記平滑画像の前記所定の色成分とは異なる色成分の画素値との差分である色差を求め、前記平滑の度合いに応じた前記色差の分散を算出する演算手順、
     前記色差の分散に基づいて、前記各画素位置が色境界か否かを判定する判定手順、
     前記色境界の判定が偽と判定された画素位置の画素を対象画素として、前記色差の分散に基づいて前記各色成分の鮮鋭度を比較し、前記鮮鋭度が最も高い色成分を決定する決定手順、
     前記鮮鋭度が最も高い色成分に基づいて、前記対象画素の少なくとも1つの前記色成分の鮮鋭度を調整する調整手順、
     をコンピュータに実行させることを特徴とする画像処理プログラム。
PCT/JP2011/003813 2010-07-05 2011-07-04 画像処理装置、撮像装置および画像処理プログラム WO2012004973A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/805,213 US20130100310A1 (en) 2010-07-05 2011-07-04 Image processing device, imaging device, and image processing program
US15/631,350 US20170287117A1 (en) 2010-07-05 2017-06-23 System for image correction processing
US16/191,956 US20190087941A1 (en) 2010-07-05 2018-11-15 System for image correction processing

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010-152923 2010-07-05
JP2010152923A JP5630105B2 (ja) 2010-07-05 2010-07-05 画像処理装置、撮像装置および画像処理プログラム
JP2011-049316 2011-03-07
JP2011049316 2011-03-07
JP2011145919A JP5811635B2 (ja) 2011-03-07 2011-06-30 画像処理装置、撮像装置および画像処理プログラム
JP2011-145919 2011-06-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/805,213 A-371-Of-International US20130100310A1 (en) 2010-07-05 2011-07-04 Image processing device, imaging device, and image processing program
US15/631,350 Continuation US20170287117A1 (en) 2010-07-05 2017-06-23 System for image correction processing

Publications (1)

Publication Number Publication Date
WO2012004973A1 true WO2012004973A1 (ja) 2012-01-12

Family

ID=45440964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003813 WO2012004973A1 (ja) 2010-07-05 2011-07-04 画像処理装置、撮像装置および画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2012004973A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2509692A (en) * 2012-11-05 2014-07-16 British Broadcasting Corp Method and apparatus for detection of chromatic aberration

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028040A (ja) * 2005-07-14 2007-02-01 Nikon Corp 画像処理装置
WO2007037229A1 (ja) * 2005-09-29 2007-04-05 Nikon Corporation 画像処理装置および画像処理方法
JP2010147926A (ja) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028040A (ja) * 2005-07-14 2007-02-01 Nikon Corp 画像処理装置
WO2007037229A1 (ja) * 2005-09-29 2007-04-05 Nikon Corporation 画像処理装置および画像処理方法
JP2010147926A (ja) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2509692A (en) * 2012-11-05 2014-07-16 British Broadcasting Corp Method and apparatus for detection of chromatic aberration

Similar Documents

Publication Publication Date Title
US20190087941A1 (en) System for image correction processing
WO2006006373A1 (ja) 画像処理装置およびコンピュータプログラム製品
US20080253650A1 (en) Image Processing Device, Image Processing Method, Image Processing Program Product, and Image-Capturing Device
JP2002300461A (ja) 画像復元装置、画像復元方法、プログラム及び記録媒体
JP2001061157A (ja) 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置
US8280162B2 (en) Image processing apparatus and recording medium recording image processing program
JP6097588B2 (ja) 画像処理装置及び画像処理方法
WO2006064913A1 (ja) 画像処理方法
JP2008263475A (ja) 画像処理装置および方法、並びに、プログラム
JP2011124948A (ja) 情報処理装置、情報処理方法、プログラム、及び光学顕微鏡を搭載した撮像装置
KR20100013173A (ko) 색수차 제거 방법 및 장치
JP2004221644A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP2003304549A (ja) カメラ及び画像信号処理システム
JP2006114005A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
JP4321064B2 (ja) 画像処理装置および画像処理プログラム
JP5917048B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5486273B2 (ja) 画像処理装置及び画像処理方法
JP2008252474A (ja) 画像処理装置およびプログラム記録媒体
JP5234127B2 (ja) 階調変換装置、プログラム、電子カメラ、及びその方法
JP5410378B2 (ja) 映像信号補正装置および映像信号補正プログラム
WO2013125198A1 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5811635B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
WO2012004973A1 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5630105B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP4632100B2 (ja) 画像処理装置、画像処理方法、記録媒体、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11803311

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13805213

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11803311

Country of ref document: EP

Kind code of ref document: A1