WO2006134872A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2006134872A1
WO2006134872A1 PCT/JP2006/311756 JP2006311756W WO2006134872A1 WO 2006134872 A1 WO2006134872 A1 WO 2006134872A1 JP 2006311756 W JP2006311756 W JP 2006311756W WO 2006134872 A1 WO2006134872 A1 WO 2006134872A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction coefficient
coefficient group
image signal
unit
image
Prior art date
Application number
PCT/JP2006/311756
Other languages
English (en)
French (fr)
Inventor
Hideya Aragaki
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP06757241A priority Critical patent/EP1909487A1/en
Priority to US11/917,493 priority patent/US7889250B2/en
Publication of WO2006134872A1 publication Critical patent/WO2006134872A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • H04N1/4074Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original using histograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Definitions

  • the present invention relates to an imaging apparatus that performs different gradation conversion processing for each region, and more particularly to an imaging apparatus that suppresses unnatural enhancement of a luminance gradient in a flat portion of an entire image signal.
  • Japanese Patent No. 2951909 describes an example in which an image signal is divided into a plurality of regions based on the luminance distribution of the input image, and optimum gradation conversion is performed for each region in accordance with subject conditions.
  • Japanese Patent No. 3465226 discloses an example in which an image signal is divided into regions based on texture information, and gradation conversion is adaptively performed for each region.
  • Patent Document 1 Patent No. 2951909
  • Patent Document 2 Patent No. 3465226
  • the input image is divided into a plurality of blocks and divided into regions based on the average luminance for each block, and then gradation conversion is performed for each region.
  • gradation conversion is performed based on the same gradation conversion curve with respect to an area having the same average luminance but different gradation widths within the area.
  • An object of the present invention is to provide an imaging device capable of suppressing unnatural enhancement of a luminance gradient in a flat portion in the entire image signal.
  • a first aspect of the present invention is an imaging apparatus that performs gradation conversion processing on an image signal from an image sensor for each area of an image represented by the image signal. And image processing means for performing image processing on the image signal, and obtaining the first correction coefficient group including a plurality of correction coefficients corresponding to each of a plurality of pixels by acquiring the image signal subjected to the image processing. By adjusting the first correction coefficient group using the correction coefficient group calculation means created for each region and the characteristics of the image signal from the image sensor or the image signal after the image processing is performed.
  • An image pickup apparatus comprising: a correction coefficient group adjustment unit that creates a second correction coefficient group; and a tone conversion unit that performs tone conversion processing for each region using the second correction coefficient group It is.
  • the image signal from the image sensor is input to the correction coefficient group calculating unit after being subjected to image processing by the image processing unit.
  • the correction coefficient related to the gradation conversion process for each region based on the image signal subjected to the image processing in other words, the correction coefficient related to the space-nonvalent gradation conversion process
  • a first correction coefficient group consisting of these correction coefficients is created for each pixel of the signal.
  • the first correction coefficient group created by the correction coefficient group calculation unit uses the image signal from the imaging element or the characteristics of the image signal after image processing.
  • a second correction coefficient group is created with the corrected correction coefficients.
  • a space-normative gradation conversion process is performed using the second correction coefficient group.
  • the correction coefficient calculated based on the image signal after the image processing is further adjusted, and the corrected correction coefficient
  • the spatial gradient conversion process is performed by using, so that it is possible to eliminate the phenomenon in which the luminance gradient is unnaturally emphasized, which appears after the conventional spatial conversion process. This makes it possible to obtain a natural image quality.
  • the embodiment corresponding to the first aspect is the first to third embodiments
  • the image processing means that is a component of this aspect includes, for example, the WB adjustment unit 104, shown in FIG.
  • the interpolation processing unit 105, the YZC separation unit 106, and the edge enhancement processing unit 107 correspond to this.
  • the correction coefficient group calculation means for example, the correction coefficient group calculation unit 109 shown in FIG.
  • the correction coefficient group adjustment means for example, the correction coefficient group adjustment unit 110 shown in FIG.
  • a preferred application example of the present invention is, for example, as shown in FIG. 1, for the image signal from the image sensor, a WB adjustment unit 104, an interpolation processing unit 105, a YZC separation unit 106, and an edge enhancement processing unit 107. Then, image processing such as WB adjustment, interpolation processing, YZC separation, and edge enhancement is performed, and a correction coefficient group calculation unit 109 calculates a correction coefficient group related to a space-norety tone conversion process in units of pixels. Next, the image pickup apparatus performs gradation processing conversion processing by the gradation conversion unit 111 after the correction coefficient group adjustment unit 110 is adjusted with respect to the correction coefficient group.
  • the image processing apparatus includes reduced image generation means for reducing the image signal after the image processing is performed at a predetermined reduction rate and generating a reduced image signal.
  • the first correction coefficient group is created using the reduced image signal.
  • the reduced image generating means generates a reduced image signal having a predetermined reduction rate from the image signal after being subjected to image processing, and the first image is generated using the reduced image signal.
  • a correction coefficient group is created. This makes it possible to speed up the processing.
  • the present invention will be described specifically in association with embodiments to be described later. It is. That is, the embodiment corresponding to the present invention is the first to third embodiments, and the reduced image generating unit 141 shown in FIG. To do.
  • the reduction ratio may be registered in advance in a predetermined recording medium included in the imaging apparatus! Or may be configured to be appropriately changed from the outside.
  • the correction coefficient calculation means creates a reduction correction coefficient group including a plurality of reduction correction coefficients corresponding to a plurality of pixels in the reduced image signal, and the reduction ratio It is preferable to create the first correction coefficient group by enlarging the reduction correction coefficient group so as to cancel the reduction due to the above.
  • the reduced image generation unit generates a reduced image signal having a predetermined reduction rate from the image signal after the image processing is performed, and the correction coefficient calculation unit calculates the reduced image signal. For each pixel unit, a reduction correction coefficient related to the space variant tone conversion processing is calculated, and the reduction correction coefficient is enlarged so as to cancel the reduction due to the reduction ratio. Will be created.
  • the imaging apparatus reduces, for example, a reduction rate setting means for setting a reduction rate, and an image signal obtained by the image processing means based on the reduction rate.
  • a reduced image generating means for generating a reduced image signal
  • a correction coefficient calculating means for calculating a correction coefficient related to gradation conversion processing for each region on a pixel basis based on the reduced image signal, and the reduced image
  • a reduction correction coefficient group consisting of a plurality of corresponding correction coefficients is enlarged based on the reduction ratio to create a first correction coefficient group corresponding to the original image signal (image signal from the image sensor).
  • the correction coefficient group adjusting means includes a correction coefficient corresponding to a target pixel from the first correction coefficient group, and a correction coefficient corresponding to a neighboring pixel of the target pixel. And an adjusting means for adjusting the first correction coefficient group by performing a filtering process on the first correction coefficient group using the correction coefficient extracted by the extraction means.
  • the extraction unit included in the adjustment unit extracts the correction coefficient corresponding to the pixel of interest and the neighboring pixels of the pixel of interest from the first correction coefficient group created by the correction coefficient calculation unit. Then, the adjustment means adjusts the correction coefficient by performing filter processing on the first correction coefficient group with respect to the correction coefficient extracted by the extraction means. Then, the second correction coefficient group is created from the corrected correction coefficient.
  • the correction coefficient group adjusting means includes a correction coefficient corresponding to the target pixel from the first correction coefficient group, and a correction coefficient corresponding to a neighboring pixel of the target pixel.
  • the first correction coefficient group using the correction means extracted by the extraction means and the correction coefficient extracted by the extraction means, and performing the calculation using the weight coefficient, And adjusting means for adjusting the correction coefficient group.
  • the extraction unit included in the adjustment unit extracts the correction coefficient corresponding to the pixel of interest and the neighboring pixels of the pixel of interest from the first correction coefficient group created by the correction coefficient calculation unit. Then, the adjustment unit performs the filtering process on the correction coefficient extracted by the extraction unit and performs the calculation using a predetermined weighting coefficient, thereby adjusting the correction coefficient. Then, a second correction coefficient group is created from the adjusted correction coefficient.
  • the calculation using the predetermined weighting coefficient while performing the above-described filter processing is, for example, an operation in which smoothing processing such as filter processing based on the predetermined weighting coefficient is performed on the first correction coefficient group. Processing. In this way, for example, by performing a filtering process such as a smoothing process, a uniform and high-speed adjustment process can be performed.
  • the filter processing unit 154 applies the correction coefficient corresponding to the target pixel extracted by the correction coefficient extraction unit 150 and the neighboring pixels of the target pixel.
  • Image processing apparatus for performing filter processing based on a predetermined weighting factor It is.
  • the correction coefficient group adjustment unit is obtained by a luminance signal acquisition unit that acquires a luminance signal from an image signal that has been subjected to the image processing, and the luminance signal acquisition unit. It is preferable that an adjustment unit that adjusts the first correction coefficient group is provided based on the luminance signal.
  • the luminance signal is acquired from the image signal after the image processing is performed by the luminance signal acquisition unit, and the first correction coefficient group is obtained based on the luminance signal by the adjustment unit. Adjusted.
  • the luminance signal is adopted as a feature of the image signal and adjusting the first correction coefficient group using this luminance signal, the second correction coefficient group composed of the corrected correction coefficients is obtained.
  • a preferable state can be obtained. As a result, it is possible to eliminate the unnatural appearance of the luminance gradient, etc., which has occurred when performing the spatial gradation conversion processing, and it is possible to acquire a more natural image.
  • the embodiments corresponding to this aspect are the second to third embodiments, and the luminance signal acquisition means that is a component of this aspect includes, for example, the image signal extraction unit 213 shown in FIG.
  • the image signal extraction unit 312 shown in FIG. 15 corresponds, and the adjustment means corresponds to, for example, the multiplication / addition processing unit 214 shown in FIG. 11 and the filter processing unit 313 shown in FIG.
  • a preferred application example of this aspect is, for example, as shown in FIG. 11, based on the luminance value of the target pixel extracted by the image signal extraction unit 213, the multiplication / addition processing unit 214 sets the target pixel.
  • An image processing apparatus that adjusts a corresponding correction coefficient.
  • the adjustment means adjusts the first correction coefficient group using the luminance signal multiplied by a weighting coefficient.
  • the adjustment unit adjusts the first correction coefficient group using the luminance signal multiplied by the weighting coefficient.
  • the adjustment unit is configured to multiply the correction coefficient constituting the first correction coefficient group created by the correction coefficient calculation unit by a weighting factor.
  • the first correction coefficient group is adjusted by multiplying each signal. And are preferred.
  • the adjustment means multiplies the correction signal constituting the first correction coefficient group created by the correction coefficient calculation means by the luminance signal multiplied by the weighting coefficient.
  • the first correction coefficient group is adjusted, and the second correction coefficient group is created with the adjusted correction coefficient.
  • the first correction coefficient group can be adjusted by a simple calculation process of multiplying the correction coefficient by a luminance signal multiplied by a predetermined weighting coefficient, so that a quick adjustment can be performed. it can.
  • the embodiment corresponding to this aspect is the second embodiment.
  • the first correction coefficient group created by the correction coefficient calculation means is configured.
  • the correction coefficient is adjusted by multiplying the correction coefficient to be multiplied by the luminance signal multiplied by the weighting coefficient.
  • a preferable application example of this aspect is, for example, as shown in FIG. 11, with respect to a correction coefficient corresponding to the target pixel, a multiplication / addition processing unit 214 applies a predetermined weight to the luminance value of the target pixel.
  • An image processing apparatus that performs adjustment by multiplying a product obtained by multiplying a key.
  • the adjustment means is the luminance signal obtained by multiplying a correction coefficient constituting the first correction coefficient group created by the correction coefficient calculation means by a weighting coefficient. It is preferable to adjust the first correction coefficient group by adding each of the above.
  • the adjustment means the luminance signal multiplied by the weighting coefficient is added to each of the correction coefficients constituting the first correction coefficient group created by the correction coefficient calculating means.
  • the first correction coefficient group is adjusted, and the second correction coefficient group is created with the adjusted correction coefficient.
  • the first correction coefficient group can be adjusted by a simple calculation process of adding a luminance signal multiplied by a predetermined weighting coefficient to the correction coefficient, so that the first adjustment coefficient group can be adjusted quickly. Can do.
  • the embodiment corresponding to the present invention is the second embodiment.
  • the correction coefficient is adjusted by adding the luminance signal multiplied by the weighting coefficient to the correction coefficient constituting the correction coefficient group.
  • a preferred application example of the present invention is, for example, as shown in FIG. 11, with respect to a correction coefficient corresponding to the target pixel, a multiplication / addition processing unit 214 applies a predetermined weight to the luminance value of the target pixel.
  • This is an image processing apparatus that performs adjustment by adding the product multiplied by the key.
  • the image processing means performs edge enhancement processing on the image signal from the image sensor based on the edge intensity and edge intensity calculating means for calculating edge intensity. It is preferable that the adjusting means sets the weighting coefficient based on the edge strength calculated by the edge strength calculating means.
  • the weighting factor is set based on the edge enhancement calculated during the edge enhancement processing, and the first correction coefficient group is adjusted using this weighting factor.
  • the filter processing unit 123 shown in FIG. 2 corresponds to the edge enhancement calculating means that is a component of the present invention.
  • the edge enhancement means corresponds to, for example, the edge enhancement unit 127 shown in FIG.
  • the weighting factor adjustment unit 153 shown in FIG. 6 or the weighting factor adjustment unit 212 shown in FIG. 11 corresponds to the setting of the weighting factor.
  • a preferred application example of this aspect is, for example, as shown in FIG. 2, for the image signal, the edge strength is calculated by the filter processing unit 123, and the edge enhancement unit 127 is calculated based on the calculated edge strength.
  • the edge enhancement processing is performed on the image signal at, the weight coefficient is adjusted by the weight coefficient adjustment unit 153 shown in FIG. 6, and the filter processing unit is applied to the correction coefficient group from the correction coefficient extraction unit 150
  • the image processing apparatus performs adjustment processing at 154.
  • the image processing means includes contrast calculation means for calculating contrast, and the adjustment means is calculated by the contrast calculation means. It is preferable to set the weighting factor based on the contrast.
  • the weight coefficient is set based on the calculated contrast of the image signal force, and the first correction coefficient group is adjusted using this weight coefficient. Adjustment that takes into account can be made.
  • the embodiments corresponding to the present invention are the first and second embodiments, and the contrast calculation processing unit 108 shown in FIG. 1 corresponds to the contrast calculation means that is a component of the present invention.
  • a preferable application example of this aspect is, for example, as shown in FIG. 1, for the image signal from the image sensor, the contrast calculation processing unit 108 calculates the contrast, and based on the calculated contrast, The weighting factor adjustment unit 153 shown in FIG. 6 adjusts the weighting factor, and the filter processing unit 154 performs an adjustment process in which the weighting factor is reflected on the correction factor group from the correction factor extraction unit 150.
  • An image processing apparatus for the image signal from the image sensor, calculates the contrast, and based on the calculated contrast, the weighting factor adjustment unit 153 shown in FIG. 6 adjusts the weighting factor, and the filter processing unit 154 performs an adjustment process in which the weighting factor is reflected on the correction factor group from the correction factor extraction unit 150.
  • the correction coefficient group adjusting unit includes a luminance signal acquiring unit that acquires a luminance signal from the image signal after the image processing is performed, and the luminance signal force target pixel.
  • An image signal extraction unit that extracts a pixel value corresponding to a region of interest of a predetermined size including a neighboring pixel of the pixel of interest, and the first correction coefficient group created by the correction coefficient calculation unit to the region of interest.
  • the apparatus further comprises an adjusting unit that adjusts a correction coefficient corresponding to the target pixel extracted by the correction coefficient extracting unit.
  • the luminance signal is acquired from the image signal after the image processing is performed by the luminance signal acquisition unit, and the target pixel and the target pixel of the target pixel are extracted from the luminance signal by the image signal extraction unit. Pixel values corresponding to a target area of a predetermined size including neighboring pixels are extracted.
  • the first correction coefficient created by the correction coefficient calculation means in the correction coefficient extraction means A correction coefficient corresponding to the region of interest is extracted from the group. Then, using the spatial distance function of the pixel in the region of interest extracted by the image signal extraction means and the difference function (luminance value difference function) of each pixel value constituting the region of interest, The corresponding correction factor is adjusted. For example, filter processing is performed on the correction coefficient corresponding to the target pixel in consideration of the difference between the spatial distance of the target region and the luminance value of each pixel constituting the target region.
  • the embodiment corresponding to this aspect is the third embodiment
  • the image signal extraction unit 312 shown in FIG. 15 corresponds to the image signal extraction means that is a component of the present invention, for example.
  • the correction coefficient extraction means corresponds to, for example, the correction coefficient extraction unit 310 shown in FIG.
  • the adjustment means corresponds to, for example, the filter processing unit 313 shown in FIG.
  • a preferable application example of this aspect is, for example, as shown in FIG. 15, in which the image signal extraction unit 312 extracts a pixel of interest and a region of interest of a predetermined size having a neighboring pixel force, while extracting a correction coefficient.
  • the unit 310 extracts a correction coefficient corresponding to the region of interest, and the filter processing unit 313 extracts a correction function corresponding to the spatial distance function of the region of interest and each pixel constituting the region of interest based on the extracted correction coefficient.
  • This is an imaging device that adjusts the first correction coefficient group by performing filter processing weighted by a difference function of luminance values.
  • a second aspect of the present invention is an imaging apparatus that performs gradation conversion processing on an image signal for each region of an image represented by the image signal, and performs image processing on the image signal.
  • Image processing means to perform reduced image generation means for generating a reduced image signal by reducing the image signal after being subjected to the image processing at a predetermined reduction rate, and a plurality of pixels in the reduced image signal, respectively.
  • Correction coefficient group creating means for creating a reduction correction coefficient group composed of a plurality of corresponding reduction correction coefficients, and adjusting the reduction correction coefficient group using the characteristics of the reduced image signal.
  • the corrected correction coefficient group corresponding to the image signal before the reduction is created by expanding the correction coefficient group after the adjustment so as to cancel the reduction due to the reduction ratio.
  • the image signal from the image sensor is input to the reduced image generating means after being subjected to image processing by the image processing means.
  • the image signal that has been subjected to image processing is reduced by a reduced image generating means at a predetermined reduction rate, converted into a reduced image signal, and input to a correction coefficient calculating means.
  • the correction coefficient calculation means based on the reduced image signal, the correction coefficient related to the gradation conversion process for each region, in other words, the reduction correction coefficient related to the space-variant gradation conversion process, includes a plurality of pixels in the reduced image signal. A reduction correction coefficient group composed of these reduction correction coefficients is created for each.
  • the adjustment unit performs adjustment by using the characteristics of the reduced correction coefficient group force reduced image signal created by the correction coefficient group calculation unit, and creates an adjusted reduced correction coefficient group.
  • the reduced correction coefficient group after the adjustment is enlarged so as to cancel the reduction by the reduction ratio, so that a final correction coefficient group corresponding to the image signal before the reduction is created.
  • a space-normal gradation conversion process is performed using the final correction coefficient group.
  • the correction coefficient calculated based on the image signal after the image processing is further adjusted, and the corrected correction coefficient V and space space gradation conversion processing is performed, so it is possible to eliminate the phenomenon that the brightness gradient appears unnaturally appearing after space space gradation conversion processing is performed. .
  • the reduction correction coefficient is calculated and the reduction correction coefficient is adjusted using the reduced image signal, the processing can be simplified and the processing speed can be increased.
  • the embodiments corresponding to this aspect are the fourth to sixth embodiments, and the image processing means that is a component of this aspect includes, for example, the WB adjustment unit 104 shown in FIG. Section 105, YZC separation section 106, and edge enhancement processing section 500 are applicable.
  • Shrinkage As the small image generation means, for example, a reduced image generation unit 530 shown in FIG. 20 corresponds.
  • As the correction coefficient calculation means for example, a correction coefficient group calculation unit 502 shown in FIG. 18 corresponds.
  • the correction coefficient group adjustment means for example, a correction coefficient group adjustment unit 503 shown in FIG. 18 corresponds.
  • the gradation converting means for example, the gradation converting unit 111 shown in FIG. 18 corresponds.
  • a preferable application example of this aspect is, for example, as shown in FIG. 18, for the image signal from the image sensor, the WB adjustment unit 104, the interpolation processing unit 105, the YZC separation unit 106, and the edge enhancement processing.
  • Section 500 performs image processing such as WB adjustment, interpolation processing, YZC separation, and edge enhancement, and correction coefficient group calculation section 502 sets a correction coefficient group related to space-sensitive gradation conversion processing in pixel units of the reduced image signal.
  • a correction coefficient group adjustment unit 503 adjusts the reduced correction coefficient group for the reduced image signal to create a first correction coefficient group, and further expands the first correction coefficient group.
  • a second correction coefficient group composed of correction coefficients corresponding to the image signal before reduction, in other words, the original image signal, is created, and the gradation conversion unit 111 uses the second correction coefficient group.
  • This is an imaging device that performs tone conversion processing.
  • a third aspect of the present invention is an image pickup apparatus that performs gradation conversion processing independently for each region on an image signal from an image sensor, and performs image processing on the image signal from the image sensor.
  • Image processing means for performing the reduction ratio setting means for setting the reduction ratio for the image signal obtained by the image processing means, and the reduction ratio setting means for the image signal obtained by the image processing means.
  • a reduced image generation means for generating a reduced image signal based on the reduced reduction ratio, and a correction coefficient to be applied to the gradation conversion processing for each region based on the reduced image signal obtained by the reduced image generation means.
  • Correction coefficient calculation means calculated in step (a), adjustment means for adjusting a correction coefficient group calculated by the calculation means in pixel units, correction coefficient group adjusted by the adjustment means, and the reduction ratio Set by the setting means
  • An enlargement means for enlarging a correction coefficient group corresponding to the reduced image signal based on a fraction to correspond to the image signal obtained by the image processing means, and the enlargement means for the image signal obtained by the image processing means.
  • An imaging apparatus comprising: gradation conversion means for performing gradation conversion processing using the calculated correction coefficient.
  • the correction coefficient group adjusting means obtains a correction coefficient corresponding to a target pixel from the reduced correction coefficient group and a correction coefficient corresponding to a neighboring pixel of the target pixel. Extraction means for extraction, and adjustment means for adjusting the reduction correction coefficient group by performing filtering on the reduction correction coefficient group using the correction coefficient extracted by the extraction means. I like it.
  • the correction coefficient corresponding to the target pixel and the neighboring pixel of the target pixel is obtained from the reduced correction coefficient group created by the correction coefficient calculation unit.
  • the reduction correction coefficient is adjusted by performing the filtering process on the correction coefficient extracted and extracted by the adjustment means by the adjustment means.
  • extraction means for extracting a correction coefficient corresponding to a target pixel and a correction coefficient corresponding to a neighboring pixel of the target pixel from the reduced correction coefficient group; And adjusting means for adjusting the reduction correction coefficient group by performing a filter process on the reduction correction coefficient group using the correction coefficient extracted by the above and performing an operation using a weighting coefficient. I prefer it.
  • the correction coefficient corresponding to the target pixel and the neighboring pixel of the target pixel is selected from the reduced correction coefficient group created by the correction coefficient calculation unit.
  • the correction coefficient is adjusted by performing the filtering process and the calculation using a predetermined weighting coefficient for the correction coefficient extracted and extracted by the adjusting means by the adjusting means. .
  • the calculation using the predetermined weight coefficient includes, for example, an arithmetic process for performing a smoothing process such as a filtering process on the reduction correction coefficient group based on the predetermined weight coefficient.
  • a smoothing process such as a filtering process
  • uniform and high-speed adjustment processing can be performed.
  • the embodiment corresponding to this aspect is the fourth embodiment, and the correction coefficient extraction unit 540 shown in FIG. 21, for example, corresponds to the extraction means that is a component of this aspect.
  • the filter processing unit 542 shown in FIG. A preferred application example of this aspect is, for example, as shown in FIG. 21, filtering processing for the target pixel extracted by the correction coefficient extraction unit 540 and the correction coefficient corresponding to the neighboring pixel of the target pixel. This is an imaging device that performs filtering based on a predetermined weighting factor in the unit 542.
  • the correction coefficient group adjustment means includes a luminance signal acquisition means for acquiring a luminance signal from the reduced image signal, and the luminance obtained by the luminance signal acquisition means. It is preferable to comprise adjusting means for adjusting the reduction correction coefficient group based on the signal.
  • the luminance signal is acquired from the reduced image signal by the luminance signal acquisition unit, and the reduction correction coefficient group is adjusted based on the luminance signal by the adjustment unit.
  • the reduction correction coefficient group is adjusted based on the luminance signal by the adjustment unit.
  • the embodiments corresponding to the present invention are the fifth to sixth embodiments.
  • the luminance signal acquisition means that is a component of the present invention includes the image signal extraction unit 611 shown in FIG. This corresponds to the image signal extraction unit 711 shown in FIG.
  • the adjustment means corresponds to, for example, a multiplication / addition processing unit 613 shown in FIG. 25 and a filter processing unit 713 shown in FIG.
  • a preferred application example of this aspect is, for example, as shown in FIG.
  • 11 is an image pickup apparatus that adjusts the correction coefficient corresponding to the target pixel by the multiplication / addition processing unit 214 based on the luminance value of the target pixel extracted in step 11.
  • the adjusting means adjusts the reduction correction coefficient group using the luminance signal multiplied by a weighting coefficient.
  • the adjustment unit adjusts the reduction correction coefficient group using the luminance signal multiplied by the weighting coefficient.
  • the adjustment unit multiplies the luminance signal obtained by multiplying a correction coefficient constituting the reduced correction coefficient group created by the correction coefficient calculation unit by a weighting coefficient. Accordingly, it is preferable to adjust the reduction correction coefficient group.
  • the adjustment unit reduces the reduction coefficient by multiplying the correction coefficient forming the reduction correction coefficient group created by the correction coefficient calculation unit by the luminance signal multiplied by the weighting coefficient.
  • the correction coefficient group is adjusted, and the first correction coefficient group is created from the adjusted correction coefficient.
  • the reduction correction coefficient group can be adjusted by a simple calculation process of multiplying the correction signal by the luminance signal multiplied by the predetermined weighting coefficient, so that the adjustment can be performed quickly. .
  • the embodiment corresponding to this aspect is the fifth embodiment.
  • the multiplication / addition processing unit 613 shown in FIG. 25 constitutes a group of reduced correction coefficients created by the correction coefficient calculation means.
  • the correction coefficient is adjusted by multiplying the correction coefficient by the luminance signal multiplied by the weighting coefficient.
  • a preferable application example of this aspect is, for example, as shown in FIG. 25, for a correction coefficient corresponding to the target pixel, a multiplication / addition processing unit 613 applies a predetermined weight to the luminance value of the target pixel.
  • This is an image pickup apparatus that performs adjustment by multiplying a product obtained by multiplying the gain.
  • the adjusting means adds the luminance signal obtained by multiplying a correction coefficient constituting the reduced correction coefficient group created by the correction coefficient calculating means by a weighting coefficient. Accordingly, it is preferable to adjust the reduction correction coefficient group.
  • the adjustment unit reduces the reduction by adding the luminance signal multiplied by the weighting factor to the correction coefficients constituting the reduction correction coefficient group created by the correction coefficient calculation unit.
  • the correction coefficient group is adjusted, and the first correction coefficient group is created based on the reduced correction coefficient after adjustment.
  • the embodiment corresponding to this aspect is the fifth embodiment, for example.
  • the luminance signal multiplied by the weighting coefficient is added to each of the correction coefficients constituting the reduced correction coefficient group created by the correction coefficient calculating means. As a result, the correction coefficient is adjusted.
  • a preferable application example of this aspect is, for example, as shown in FIG. 25, for a correction coefficient corresponding to the target pixel, a multiplication / addition processing unit 613 applies a predetermined weight to the luminance value of the target pixel.
  • This is an imaging device that performs adjustment by adding the product multiplied by the key.
  • the correction coefficient group adjusting unit includes a luminance signal acquiring unit that acquires a luminance signal from the reduced image signal, a target pixel and the target pixel from the luminance signal.
  • An image signal extracting unit that extracts a pixel value corresponding to a region of interest having a predetermined size including neighboring pixels, and a correction coefficient corresponding to the region of interest is extracted from the reduced correction coefficient group created by the correction coefficient calculating unit.
  • Correction coefficient extraction means a spatial distance function of pixels in the attention area extracted by the image signal extraction means, and a difference function of each pixel value constituting the attention area. It is preferable that adjustment means for adjusting a correction coefficient corresponding to the target pixel extracted by the extraction means is provided.
  • the luminance signal is acquired from the reduced image signal by the luminance signal acquisition unit, and the image signal extraction unit includes the predetermined size including the target pixel and the neighboring pixels of the target pixel from the luminance signal. Pixel values corresponding to the attention area are extracted.
  • the correction coefficient extraction unit extracts a correction coefficient corresponding to the region of interest from the reduced correction coefficient group created by the correction coefficient calculation unit. Then, using the spatial distance function of the pixel in the attention area extracted by the image signal extraction means and the difference function (difference function of the luminance value) of each pixel value constituting the attention area, the pixel of interest is determined. The corresponding correction factor is adjusted. For example, filter processing is performed on the correction coefficient corresponding to the target pixel in consideration of the difference between the spatial distance of the target region and the luminance value of each pixel constituting the target region.
  • an image signal extraction unit 711 shown in FIG. 29 corresponds to the image signal extraction means that is a component of this aspect.
  • the correction coefficient extraction means corresponds to, for example, a correction coefficient extraction unit 710 shown in FIG.
  • the adjustment means corresponds to, for example, the filter processing unit 713 shown in FIG.
  • a preferred application example of this aspect is, for example, as shown in FIG. 29, in which the image signal extraction unit 711 extracts a pixel of interest and a region of interest having a predetermined size as a neighboring pixel force, while extracting a correction coefficient.
  • a correction coefficient corresponding to the attention area is extracted by the unit 710, and based on the extracted correction coefficient by the filter processing unit 713, a spatial distance function of the attention area and each pixel constituting the attention area
  • a fourth aspect of the present invention is an image processing program for executing a gradation conversion process for each image region represented by an image signal from an image sensor.
  • the first correction coefficient group using the second step of creating the correction coefficient group for each region and the characteristics of the image signal from the imaging element or the image signal after the image processing is performed.
  • An image processing program for execution is performed.
  • the second step includes a step of reducing the image signal after the image processing is performed at a predetermined reduction rate to generate a reduced image signal, and the reduction step.
  • the first correction coefficient group is created using a small image signal.
  • the third step extracts a correction coefficient corresponding to the target pixel and a correction coefficient corresponding to a neighboring pixel of the target pixel from the first correction coefficient group. And adjusting the first correction coefficient group by performing a filtering process on the first correction coefficient group using the extracted correction coefficient and performing an operation using a weighting coefficient.
  • the third step extracts a correction coefficient corresponding to the target pixel and a correction coefficient corresponding to a neighboring pixel of the target pixel from the first correction coefficient group. Performing the filtering process on the first correction coefficient group using the extracted correction coefficient and performing an operation using a weight coefficient, thereby performing the first correction coefficient group. It is preferable to have a step of adjusting.
  • the third step is based on the step of acquiring a luminance signal from the image signal after the image processing is performed and the acquired luminance signal.
  • the method includes a step of adjusting the first correction coefficient group.
  • an image processing program for executing a gradation conversion process on an image signal for each area of the image represented by the image signal.
  • the fourth step is a step of extracting a correction coefficient corresponding to the target pixel and a correction coefficient corresponding to a neighboring pixel of the target pixel from the reduced correction coefficient group. And adjusting the reduction correction coefficient group by performing filter processing on the reduction correction coefficient group using the extracted correction coefficient. Is preferred.
  • the fourth step is a step of extracting a correction coefficient corresponding to the target pixel and a correction coefficient corresponding to a neighboring pixel of the target pixel from the reduced correction coefficient group. And adjusting the reduction correction coefficient group by performing a filtering process on the reduction correction coefficient group using the extracted correction coefficient and performing an operation using a weighting coefficient. I prefer that.
  • the fourth step includes a step of acquiring a luminance signal from the reduced image signal, and adjusting the reduction correction coefficient group based on the acquired luminance signal. And prefer to have a step to do.
  • FIG. 1 is a block diagram showing a schematic configuration of a digital still camera according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of an edge enhancement processing unit shown in FIG.
  • FIG. 3 is a diagram showing an example of a table associating input edge components referred to in edge enhancement processing and edge correction coefficients.
  • FIG. 4 is a block diagram showing a schematic configuration of a contrast calculation processing unit shown in FIG.
  • FIG. 5 is a block diagram showing a schematic configuration of a correction coefficient group calculation unit shown in FIG. 1.
  • FIG. 6 is a block diagram showing a schematic configuration of a correction coefficient group adjustment unit shown in FIG. 1.
  • FIG. 7 is a flowchart showing a signal processing procedure realized by the digital still camera according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing a signal processing procedure realized by the digital still camera according to the first embodiment of the present invention.
  • FIG. 9 is a flowchart showing a procedure of edge enhancement processing shown in FIG.
  • FIG. 10 is a block diagram showing a schematic configuration of a digital still camera according to a second embodiment of the present invention.
  • FIG. 11 is a block diagram showing a schematic configuration of a correction coefficient group adjusting unit shown in FIG.
  • FIG. 12 is a flowchart showing a signal processing procedure realized by the digital still camera according to the second embodiment of the present invention.
  • FIG. 13 is a flowchart showing a signal processing procedure realized by the digital still camera according to the second embodiment of the present invention.
  • FIG. 14 is a block diagram showing a schematic configuration of a digital still camera according to a third embodiment of the present invention.
  • FIG. 15 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit shown in FIG.
  • FIG. 16 is a flowchart showing a signal processing procedure realized by the digital still camera according to the third embodiment of the present invention.
  • FIG. 17 is a flowchart showing a signal processing procedure realized by the digital still camera according to the third embodiment of the present invention.
  • FIG. 18 is a block diagram showing a schematic configuration of a digital still camera according to a fourth embodiment of the present invention.
  • FIG. 19 is a block diagram showing a schematic configuration of an edge enhancement processing unit shown in FIG.
  • FIG. 20 is a block diagram showing a schematic configuration of the correction coefficient group calculating section shown in FIG.
  • FIG. 19 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit shown in FIG.
  • FIG. 22 is a flowchart showing a signal processing procedure realized by the digital still camera according to the fourth embodiment of the present invention.
  • FIG. 23 is a flowchart showing a signal processing procedure realized by the digital still camera according to the fourth embodiment of the present invention.
  • FIG. 24 is a block diagram showing a schematic configuration of a digital still camera according to a fifth embodiment of the present invention.
  • FIG. 25 is a block diagram showing a schematic configuration of a correction coefficient group adjustment unit shown in FIG.
  • FIG. 26 is a flowchart showing a signal processing procedure realized by the digital still camera according to the fifth embodiment of the present invention.
  • FIG. 27 is a flowchart showing a signal processing procedure realized by the digital still camera according to the fifth embodiment of the present invention.
  • FIG. 28 A block diagram showing a schematic configuration of a digital still camera according to the sixth embodiment of the present invention.
  • FIG. 1 A block diagram showing a schematic configuration of a digital still camera according to the sixth embodiment of the present invention.
  • FIG. 29 is a block diagram showing a schematic configuration of a correction coefficient group adjustment unit shown in FIG. 28.
  • FIG. 30 is a flowchart showing a signal processing procedure realized by the digital still camera according to the sixth embodiment of the present invention.
  • FIG. 31 is a flowchart showing a signal processing procedure realized by the digital still camera according to the sixth embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration example of a digital still camera according to the first embodiment of the present invention.
  • the digital still camera according to this embodiment includes a lens system 100, a CCD 101, an AZD converter 102, a buffer 103, a WB adjustment unit 104, an interpolation processing unit 105, a YZC separation unit 106, and an edge.
  • the enhancement processing unit 107, the contrast calculation processing unit 108, the correction coefficient group calculation unit 109, the correction coefficient group adjustment unit 110, the gradation conversion unit 111, the compression unit 112, and the output unit 113 are included.
  • the lens system 100 and the CCD 101 are arranged along the optical axis.
  • the output signal of the CCD 101 is transferred to the AZD converter 102.
  • the output signal of the AZD converter 102 is transferred to the WB adjustment unit 104 via the buffer 103.
  • the output signal of the WB adjustment unit 104 is transferred to the edge enhancement processing unit 107 and the interpolation processing unit 105.
  • the output signal of the interpolation processing unit 105 is transferred to the YZC separation unit 106.
  • the output signal of the YZC separation unit 106 is transferred to the edge enhancement processing unit 107.
  • the output signal of the edge enhancement processing unit 107 is transferred to the contrast calculation processing unit 108, the correction coefficient group calculation unit 109, the correction coefficient group adjustment unit 110, and the gradation conversion unit 111.
  • Output signals of the contrast calculation processing unit 108 and the correction coefficient group calculation unit 109 are transferred to the correction coefficient group adjustment unit 110.
  • the output signal of the correction coefficient group adjustment unit 110 is transferred to the gradation conversion unit 111.
  • the output signal of the gradation conversion unit 111 is transferred to the compression unit 112.
  • the output signal of the compression unit 112 is transferred to the output unit 113 such as a memory card. Next, the signal flow will be described in more detail.
  • the subject image formed by the lens system 100 is converted from an optical subject to an electrical signal by the CCD 101.
  • the CCD 101 is assumed to be a single CCD having a Bayer-type primary color filter arranged on the front surface.
  • the analog signal is converted into a digital signal by AZD conversion 102 and transferred to the buffer 103.
  • the AZD conversion 102 converts to a digital signal with 8 bit gradation.
  • the image signal in the buffer 103 is transferred to the WB adjustment unit 104.
  • the WB adjustment unit 104 performs WB adjustment by multiplying the image signal by a predetermined WB coefficient based on the shooting information.
  • the image signal after WB adjustment is transferred to the interpolation processing unit 105 and the edge enhancement processing unit 107.
  • the interpolation processing unit 105 performs interpolation processing on the image signal after WB adjustment.
  • the R, G, and B color signals after the interpolation processing are transferred to the YZC separation unit 106.
  • the YZC separation unit 106 separates each color signal into a luminance signal Y and a color difference signal C based on the following equation (1).
  • the separated luminance signal Y and color difference signal C are transferred to the edge enhancement processing unit 107.
  • the edge enhancement processing unit 107 extracts edge components by performing filter processing on the R, G, and B color signals that have been subjected to WB adjustment by the WB adjustment unit 104, and further extracts the edge components from the YZC separation unit 106. Edge enhancement processing is performed by adding to the luminance signal Y from.
  • the edge-enhanced luminance signal Y is transferred to the contrast calculation processing unit 108, the correction coefficient group calculation unit 109, and the gradation conversion unit 111, while the color difference signal C is transferred to the gradation conversion unit 111.
  • the edge enhancement processing unit 107 calculates an edge correction coefficient based on the extracted edge component and transfers the edge correction coefficient to the correction coefficient group adjustment unit 110.
  • the contrast calculation processing unit 108 calculates the contrast based on the luminance signal Y from the edge enhancement processing unit 107, and transfers the calculated contrast to the correction coefficient group adjustment unit 110.
  • the correction coefficient group calculation unit 109 creates a reduced image signal from the luminance signal Y for correction coefficient calculation for the purpose of high-speed processing.
  • the image reduction method a known method can be used.
  • a known downsampling method or the like is used as the image reduction method.
  • the correction coefficient group calculation unit 109 extracts a local area of a predetermined size centered on the target pixel, based on the generated reduced image signal. Then, a gradation conversion curve is set based on the extracted histogram of the local region, and a correction coefficient that works on each target pixel is obtained in the gradation conversion processing based on the conversion curve.
  • a group of correction coefficients corresponding to each pixel of interest in the local area thus obtained is treated as a correction coefficient group corresponding to each local area.
  • the correction coefficient group calculation unit 109 further performs an enlargement process using a known image enlargement technique on a correction coefficient group formed of correction coefficients corresponding to each pixel of the reduced image signal.
  • the correction coefficient group calculation unit 109 performs an enlargement process based on the reduction rate when the reduced signal is created so as to cancel the reduction due to the reduction rate.
  • a correction coefficient group corresponding to the image size of the luminance signal Y (original image) before reduction is calculated.
  • a correction coefficient group (in the present embodiment, hereinafter referred to as a “first correction coefficient group”) composed of a group of correction coefficients corresponding to each pixel of the original image is calculated by enlarging processing. Record.
  • the first correction coefficient group calculated in this way is transferred to the correction coefficient group adjustment unit 110.
  • the correction coefficient group adjustment unit 110 extracts a first correction coefficient group force as a correction coefficient corresponding to a pixel in a local area of a predetermined size centered on the target pixel on the original image, Based on the edge correction coefficient transferred from the edge enhancement processing unit 107 and the contrast transferred from the contrast calculation processing unit 108, a predetermined weighting coefficient is adjusted. Then, filter processing is performed using the adjusted weighting coefficient, and the correction coefficient corresponding to the target pixel is adjusted. Then, the correction coefficient group adjustment unit 110 is a correction coefficient group composed of a group of correction coefficients after adjustment for each pixel of interest (in the present embodiment, this is hereinafter referred to as a “second correction coefficient group”).
  • the second correction coefficient group is transferred to the gradation conversion unit 111.
  • the gradation conversion unit 111 corrects the luminance signal Y and the color difference signal C transferred from the edge enhancement processing unit 107 in the second correction coefficient group transferred from the correction coefficient group adjustment unit 110.
  • a gradation conversion process is performed by multiplying the coefficient.
  • the luminance signal ⁇ and the color difference signal C that have been subjected to the gradation conversion processing in this way are transferred to the compression unit 112.
  • the compression unit 112 uses the following equation (2) to convert the image signal after gradation conversion into an RGB signal, and then performs a known compression process on the RGB signal and transfers it to the output unit 113.
  • the output unit 111 records and saves an image signal on a memory card or the like.
  • FIG. 2 is a block diagram showing a schematic configuration of the edge enhancement processing unit 107. As shown in this figure, a luminance signal calculation unit 120, a noffer 121, a filter ROM 122, a filter processing unit 123, an edge correction coefficient calculation ROM 124, an edge correction coefficient calculation unit 125, an edge correction coefficient map buffer 126, And an edge emphasizing unit 127.
  • the output signal from the WB adjustment unit 104 is transferred to the luminance signal calculation unit 120 in the edge enhancement processing unit 107.
  • the output signal of the luminance signal calculation unit 120 is transferred to the buffer 121.
  • Output signals from the filter ROM 122 and the buffer 121 are transferred to the filter processing unit 123.
  • the output signal of the filter processing unit 123 is transferred to the edge correction coefficient calculation unit 125 and the edge enhancement unit 127.
  • the output signal of YZC separation unit 106 is transferred to edge enhancement unit 127.
  • the output signal of the edge enhancement unit 127 is transferred to the correction coefficient group calculation unit 109 and the gradation conversion unit 111.
  • the output signal of the edge correction coefficient calculation ROM 124 is transferred to the edge correction coefficient calculation unit 125.
  • the output signal of the edge correction coefficient calculation unit 125 is transferred to the edge correction coefficient map buffer 126.
  • the output signal of the edge correction coefficient map buffer 126 is transferred to the correction coefficient group adjustment unit 110.
  • the luminance signal calculation unit 120 reads out the image signal after WB adjustment transferred from the WB adjustment unit 104 in units of pixels, calculates a luminance signal according to the above equation (1), and transfers this to the buffer 121. .
  • the filter processing unit 123 first reads out a known spatial filter required for edge component extraction-filter processing from the filter ROM 122. For example, in the case of a 5 ⁇ 5 pixel size filter, a local region in units of 5 ⁇ 5 pixels is read from the buffer 121, an edge component is obtained using the spatial filter, and the edge component is calculated using the edge correction coefficient calculation unit 125 and the edge enhancement unit 1 Transfer to 27.
  • the edge enhancement unit 127 extracts a local area of a predetermined size from the luminance signal Y converted in accordance with the above equation (1) in the YZC separation unit 106, and outputs the local region of the luminance signal Y from the filter processing unit 123. Edge enhancement processing is performed by adding edge components.
  • the luminance signal Y after edge enhancement is transferred to the correction coefficient group calculation unit 109 and the gradation conversion unit 111, and the color difference signal C is transferred to the gradation conversion unit 111.
  • the edge correction coefficient calculation unit 125 first reads a function or table for correcting an edge from the edge correction coefficient calculation ROM 124.
  • the edge correction coefficient ROM 124 stores, for example, a function or table associating the input edge component and the edge correction coefficient as shown in FIG.
  • the edge correction coefficient calculation unit 125 calculates an edge correction coefficient Cedge: x, y based on the function or table value read from the edge correction coefficient ROM 124.
  • the calculated edge correction coefficient Cedge: x, y is transferred to the edge correction coefficient map buffer 126.
  • the edge correction coefficient map buffer 126 records the edge correction coefficient Cedge corresponding to each pixel on the original image, and is used in the subsequent noise reduction processing.
  • the interpolation method for example, a neighbor neighbor interpolation, a non-linear interpolation, a non-cubic interpolation, and the like can be given.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the contrast calculation processing unit 108.
  • the contrast calculation processing unit 108 includes an image signal extraction unit 130, a luminance maximum value / minimum value acquisition unit 132, and a contrast calculation unit 133.
  • the output signal from the edge enhancement processing unit 107 is transferred to the image signal extraction unit 130.
  • the output signal of the image signal extraction unit 130 is transferred to the buffer 131.
  • the output signal of the buffer 131 is transferred to the luminance maximum value / minimum value acquisition unit 132.
  • the output signal of the luminance maximum value / minimum value acquisition unit 132 is transferred to the contrast calculation unit 133.
  • the output signal of the contrast calculation unit 133 is transferred to the correction coefficient group adjustment unit 110.
  • the image signal extraction unit 130 reads out the edge-enhanced image signal transferred from the edge enhancement processing unit 107, that is, the luminance signal Y, and transfers it to the buffer 131.
  • the maximum luminance value minimum value calculation unit 132 reads out the luminance value included in the luminance signal Y on the notifier 131, and sequentially compares the luminance values before and after, thereby obtaining the maximum luminance value (hereinafter referred to as "luminance value").
  • Maximum value Imax ”t ⁇ ⁇ .) And minimum value (hereinafter“ luminance minimum value Imin ”t ⁇ ⁇ .) Are acquired, and the acquired luminance maximum value Imax and minimum value Imin are transferred to the contrast calculation unit 133.
  • the contrast calculation unit 133 calculates the contrast Ccont for each region according to the following equation (4) using the acquired maximum luminance value Imax and minimum luminance value Imin.
  • the region is a region corresponding to a local region in the reduced image extracted by the extraction unit 142 described later.
  • the contrast Ccont calculated in this way is transferred to the correction coefficient group adjustment unit 110 and used for adjustment of the correction coefficient at the subsequent stage.
  • FIG. 5 is a block diagram showing a schematic configuration of the correction coefficient group calculation unit 109.
  • the correction coefficient group calculation unit 109 includes a reduction ratio setting unit 140, a reduced image generation unit 141, an extraction unit 142, a histogram calculation unit 143, a cumulative normalization unit 144, a correction coefficient calculation unit 145, an enlargement correction.
  • An intermediate unit 146 and a correction coefficient map buffer 147 are provided.
  • the output signal from the edge enhancement processing unit 107 is transferred to the reduced image generation unit 141.
  • the output signal of the reduced image generation unit 141 is transferred to the extraction unit 142.
  • the output signal of the extraction unit 142 is transferred to the histogram calculation unit 143.
  • the output signal of the histogram calculation unit 143 is transferred to the cumulative normalization unit 144.
  • the output signal of the cumulative normalization unit 144 is transferred to the correction coefficient calculation unit 145.
  • the output signal of the correction coefficient calculation unit 145 is transferred to the enlargement interpolation unit 146.
  • the output signal of the enlargement interpolation unit 146 is transferred to the correction coefficient map buffer 147.
  • the output signal of the reduction ratio setting unit 140 is transferred to the reduced image generation unit 141 and the enlargement interpolation unit 146.
  • the reduced image generation unit 141 generates a reduced image signal from the luminance signal Y transferred from the edge enhancement processing unit 107 based on the reduction rate set by the reduction rate setting unit 140, and the generated reduced image signal is generated. Transfer to the extraction unit 142. That is, the reduced image generation unit 141 generates a reduced image signal representing an image obtained by reducing the size of the image represented by the luminance signal Y from the edge enhancement processing unit 107.
  • a known downsampling method is used as the image reduction method.
  • Extraction unit 142 extracts a local area signal from the reduced image signal created by the reduced image generation unit, and transfers the extracted signal to histogram calculation unit 143.
  • the histogram calculation unit 143 creates a histogram for each local region and transfers it to the accumulation normalization unit 144.
  • the cumulative normalization unit 144 creates a cumulative histogram by accumulating the histogram, normalizes it according to the gradation width, generates a gradation conversion curve, and transfers it to the correction coefficient group calculation unit 145.
  • the correction coefficient group calculation unit 145 calculates a correction coefficient related to gradation conversion for each pixel in each region based on the gradation conversion curve from the cumulative normalization unit 144.
  • t () is the gradation conversion curve
  • AVc is the input signal level of the pixel of interest
  • the correction coefficient g calculated as described above corresponds to the pixel of the reduced image. Therefore, in order to make the correction coefficient group composed of the correction coefficient g correspond to the pixel of the original image before the reduction, the correction coefficient group calculation unit 145 expands the correction coefficient group consisting of the calculated correction coefficient g. Transfer to interpolation unit 146.
  • a correction coefficient group composed of correction coefficients g corresponding to each pixel of interest in the local area can be handled in the same manner as an image signal defined by pixel values for each pixel. Therefore, the correction coefficient group can be enlarged or reduced by a method similar to the enlargement or reduction of the image. Therefore, the enlargement interpolation unit 146 performs a known image enlargement method (for example, two-arrest neighbor single interpolation) on the basis of the spatial positional relationship of the pixels corresponding to the correction coefficient g with respect to the correction coefficient group including the correction coefficient g. , Non-linear interpolation, non-cubic interpolation, etc.).
  • a known image enlargement method for example, two-arrest neighbor single interpolation
  • the enlargement interpolation unit 146 performs enlargement processing based on the reduction rate when the reduced image is created from the original image so as to cancel the reduction due to the reduction rate.
  • a first correction coefficient group composed of correction coefficients corresponding to each pixel of the luminance signal Y (original image) before reduction is calculated.
  • the calculated first correction coefficient group is transferred to the correction coefficient map buffer 147 and recorded.
  • the first correction coefficient group recorded in the correction coefficient map buffer 147 is adjusted by the correction coefficient group adjustment unit 110 in the subsequent stage, and then used in the gradation conversion processing in the gradation conversion unit 111. .
  • FIG. 6 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit 110.
  • the correction coefficient group adjustment unit 110 includes a correction coefficient extraction unit 150, a filter ROM 151, a weight coefficient ROM 152, a weight coefficient adjustment unit 153, and a filter processing unit 154.
  • the signal from the correction coefficient group calculation unit 109 is transferred to the correction coefficient extraction unit 150. Is done.
  • signals from the edge enhancement processing unit 107 and the contrast calculation processing unit 108 are transferred to the weight coefficient adjustment unit 153.
  • the weight coefficient ROM 152 is connected to the weight coefficient adjustment unit 153.
  • Signals from the correction coefficient extraction unit 150 and the weight coefficient adjustment unit 153 are transferred to the filter processing unit 154.
  • the filter processing unit 154 is connected to the filter ROM 151.
  • the output signal of the filter processing unit 154 is transferred to the gradation conversion unit 111.
  • the correction coefficient extraction unit 150 includes a first correction coefficient corresponding to each pixel of the original image recorded in the correction coefficient map buffer 147 (see FIG. 5) in the correction coefficient group calculation unit 109.
  • the correction coefficients corresponding to the pixels in the local area of a predetermined size including the target pixel on the original image and the neighboring pixels of the target pixel are read from the correction coefficient group and transferred to the filter processing unit 154.
  • the correction coefficient extraction unit 150 determines the number of pixels to be read according to the size of the filter used by the subsequent filter processing unit 154. For example, in the case of a 5 ⁇ 5 pixel size filter, the correction coefficient corresponding to the pixel in the local area is read in units of 5 ⁇ 5 pixels.
  • the weight coefficient adjustment unit 153 uses the weight coefficient W f read from the weight coefficient ROM 152, the edge correction coefficient Cedge acquired from the edge enhancement processing unit 107, and the contrast Ccont acquired from the contrast calculation processing unit 108.
  • the final weighting factor W1 is calculated based on the following equation (6).
  • the superposition coefficient adjustment unit 153 outputs the calculated weighting coefficient W1 to the filter processing unit 154.
  • the filter processing unit 154 reads out the smoothing filter required for the known smoothing filter processing from the filter ROM 151, and calculates the correction coefficient from the correction coefficient extraction unit 150 using the smoothing filter. To smooth the correction coefficient group and A corresponding smoothed correction coefficient is calculated.
  • the filter processing unit 154 uses the weighting factor W1 acquired from the weighting factor adjustment unit 153 as the mixture ratio of the correction coefficient Pnrm before smoothing and the correction coefficient Pfil after smoothing, and the following equation ( Perform the calculation according to 7) to adjust the correction coefficient and calculate the final correction coefficient P1.
  • the formula for calculating P1 is not limited to the above formula (7), but other formulas using Wf and Pfil.
  • the filter processing unit 154 calculates the correction coefficient P1 for each pixel of interest using the equation (7)
  • the filter processing unit 154 outputs the second correction coefficient group including the correction coefficient P1 to the gradation conversion unit 111.
  • the gradation conversion unit 111 performs gradation conversion processing by multiplying the pixel values of the luminance signal Y and the color difference signal C by the correction coefficient P1 acquired from the filter processing unit 154.
  • the correction coefficient adjustment unit 110 filters the correction coefficients of the first correction coefficient group calculated by the correction coefficient calculation unit 109. Smoothing by processing. Then, a final correction coefficient is obtained for each pixel by calculation using the smoothed correction coefficient and weighting coefficient. A second correction coefficient group composed of final correction coefficients corresponding to each pixel is output to the gradation conversion unit 111 and used for gradation conversion.
  • the smoothing process is performed by using the smoothing filter in the filter processing unit 154, but other filter processes can be applied by changing the filter settings.
  • the gradient of the flat portion can be made relatively inconspicuous by emphasizing the inclination of the edge by applying a sharpness filter.
  • the CCD 101 is not limited to such a configuration assuming a single-plate CCD in which a Bayer-type primary color filter is disposed on the front surface.
  • a color difference line sequential complementary color filter, a two-plate, or a three-plate CCD can be applied.
  • the signal from the CCD 101 can be output as raw data as raw data, and shooting information such as ISO sensitivity input from an external IZF can be output as header information, which can be processed separately by software.
  • the signal processing software process will be described below with reference to FIG.
  • FIGS. 7 and 8 are flowcharts showing a processing procedure related to software processing of signal processing executed by the digital still camera according to the first embodiment of the present invention. In each processing step, processing similar to the above-described processing performed in each configuration shown in FIG. 1 is performed.
  • Stepl read header information including shooting information such as signal and ISO sensitivity.
  • Step 2 perform signal processing such as WB adjustment, color interpolation, and YZC separation.
  • Step 3 edge enhancement processing is performed, and edge correction coefficients and contrast are calculated.
  • Step 4 create a reduced image for correction coefficient calculation.
  • Step 5 a local region of a predetermined size is extracted from the reduced image created in Step 4, and histogram creation processing is performed in Step 6.
  • the histogram created in Step5 is accumulated and normalized.
  • Step 8 a gradation conversion curve is set based on the cumulative histogram, and a correction coefficient for each pixel is calculated based on the created gradation conversion curve. Then, in Step 9, it is determined whether the extraction of all areas is completed. If completed, go to SteplO. If completed, go to Step5.
  • SteplO based on the correction coefficient for the reduced image signal, the correction coefficient for the corresponding pixel of the original image signal is calculated and recorded.
  • Stepl l for example, pixel values in a local area of 5 ⁇ 5 pixel size are extracted, and in Stepl2, correction coefficients corresponding to the pixels in the local area extracted in Stepll are extracted.
  • the weighting coefficient is calculated based on the above formulas (3), (4), and (6).
  • Stepl4 the correction coefficient group is smoothed using the pixel values, correction coefficients, and weighting coefficients in Stepl1, Stepl2, and Step13.
  • Stepl5 it is determined whether extraction of all areas is completed. If completed, go to Stepl6. If not, go to Stepll.
  • Stepl6 the image signal whose edge is emphasized in Step3 above is multiplied by a correction coefficient group.
  • Stepl7 signal compression is performed using a known signal compression technique.
  • Stepl8 the processed signal is output and the process is terminated. End.
  • FIG. 9 is a flowchart showing a processing procedure related to the edge enhancement processing performed in Step 3 above.
  • Stepl9 the image signal is transferred.
  • Step 20 a local region is extracted from the image signal.
  • edge components are extracted by filtering.
  • Step 22 an edge correction coefficient is also calculated for the edge component force based on the above equation (3).
  • Step 23 edge enhancement is performed based on the edge component.
  • step 24 it is determined whether extraction of all areas has been completed. If it has not been completed, the process proceeds to step 20, and if it has been completed, the process proceeds to step 25.
  • Step 25 the image signal that has been subjected to the edge enhancement processing is output, and this processing is terminated.
  • the second correction coefficient group which is the final correction coefficient group
  • a smoothing filter is applied to the original correction coefficient group, that is, the first correction coefficient group. Multiplying the smoothed correction coefficient group and the first correction coefficient group by the weight coefficient, and adding them, the correction coefficient P1 constituting the second correction coefficient group is calculated. It was.
  • the final correction coefficient P2 is obtained by using the luminance value for the first correction coefficient group.
  • FIG. 10 is a block diagram showing a schematic configuration of a digital still camera according to the second embodiment of the present invention.
  • the digital still camera includes a correction coefficient group adjustment unit 200 instead of the correction coefficient group adjustment unit 110 (see FIG. 1) shown in FIG. 1, and includes edge enhancement processing.
  • the output signal of the unit 107 is transferred to the correction coefficient group calculation unit 109, the correction coefficient group adjustment unit 200, and the gradation conversion unit 111.
  • FIG. 11 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit 200 according to the present embodiment.
  • the correction coefficient group adjustment unit 200 includes a correction coefficient extraction unit 210, a weight coefficient ROM 211, a weight coefficient adjustment unit 212, an image signal extraction unit 213, and a multiplication and addition processing unit 214. ing.
  • the signal from correction coefficient group calculation section 109 is transferred to correction coefficient extraction section 210.
  • the signal from the edge enhancement processing unit 107 is transferred to the weighting coefficient adjustment unit 212 and the image signal extraction unit 213.
  • the signal from the contrast calculation processing unit 108 is transferred to the weight coefficient adjustment unit 212.
  • the weight coefficient ROM 211 is connected to the weight coefficient adjustment unit 212.
  • Outputs of the correction coefficient extraction unit 210 and the image signal extraction unit 213 are transferred to the multiplication and addition processing unit 214.
  • the output of the multiplication / addition processing unit 214 is transferred to the gradation conversion unit 111.
  • the correction coefficient extraction unit 210 includes a correction coefficient group (a correction coefficient group including correction coefficients corresponding to each pixel on the original image recorded in the correction coefficient map buffer 1 47 (see FIG. 5) in the correction coefficient group calculation unit 109 ( In the present embodiment, this is hereinafter referred to as “first correction coefficient”), and the correction coefficient corresponding to the target pixel on the original image is read out and transferred to the multiplication and addition processing unit 214.
  • a correction coefficient group a correction coefficient group including correction coefficients corresponding to each pixel on the original image recorded in the correction coefficient map buffer 1 47 (see FIG. 5) in the correction coefficient group calculation unit 109 ( In the present embodiment, this is hereinafter referred to as “first correction coefficient”
  • the image signal extraction unit 213 reads the luminance value of the pixel of interest from the luminance signal Y acquired from the edge enhancement processing unit 107 and transfers it to the multiplication and addition processing unit 214.
  • the weight coefficient adjustment unit 212 is a weight coefficient registered in advance from the weight coefficient ROM 211.
  • Wab is read out, and the final weighting coefficient is calculated by the following equation (8) using the weighting coefficient Wab, the edge correction coefficient Cedge acquired from the edge enhancement processing unit 107, and the contrast Ccont acquired from the contrast calculation processing unit 108. Calculate W2.
  • the weighting factor adjustment unit 212 transfers this to the multiplication and addition processing unit 214.
  • the multiplication / addition processing unit 214 extracts the correction coefficient Pr corresponding to the target pixel extracted by the correction coefficient extraction unit 210, the final weight coefficient W2 acquired from the weight coefficient adjustment unit 212, and the image signal extraction unit 213. Using the luminance value Lp of the target pixel, the correction coefficient calculated by the correction coefficient calculation unit 109 is adjusted according to the following equation (9) to calculate the final correction coefficient P2.
  • a correction coefficient group (in the present embodiment, hereinafter referred to as a “second correction coefficient group”) composed of the correction coefficient P2 calculated by the multiplication / addition processing unit 214 is transferred to the gradation conversion unit 111.
  • the tone conversion process is performed by multiplying the luminance signal Y and the color difference signal C.
  • correction coefficient ⁇ 2 is obtained by multiplying the luminance value Lp of the target pixel by the final weighting coefficient W2 as shown in the following equation (10), and the correction coefficient Pr corresponding to the target pixel: You may ask for it by adding to
  • formula for calculating P2 is not limited to the above formula (9) or formula (10), but may be other calculation formulas using Pr, W2, and Lp. It is also possible to use various image values called gray values, gradation values, and intensity values instead of the luminance value Lp!
  • the correction coefficient adjustment unit 200 includes the correction coefficient of the first correction coefficient group calculated by the correction coefficient calculation unit 109, and The correction coefficient is adjusted by performing an operation (multiplication, addition, etc.) using the luminance signal and the weighting coefficient, and the second correction coefficient group composed of the corrected correction coefficients is subjected to gradation conversion. Output to part 111. Then, by using the second correction coefficient group obtained in this way and performing the space-nore tonal conversion process, the flat portion that has been generated when the space-variant gradation conversion process has been performed conventionally is performed. Unnatural enhancement of luminance gradient in Can be suppressed.
  • force based on hardware processing is not necessarily limited to such a configuration.
  • CCD power signals can be processed as raw data, and shooting information such as ISO sensitivity input from an external IZF can be output as header information and processed separately by software.
  • the signal processing software processing will be described with reference to FIG. 12 and FIG.
  • FIG. 12 and FIG. 13 are flowcharts showing a processing procedure relating to software processing of signal processing executed by the digital still camera according to the second embodiment of the present invention.
  • the same steps as those in the first embodiment described above are given the same number of steps.
  • processing similar to the above-described processing performed in each configuration shown in FIG. 10 is performed.
  • Stepl to SteplO are the same as the processes shown in FIGS. 7 and 8.
  • Step 26 following SteplO the pixel value of the target pixel is extracted from the image signal.
  • Step 27 a correction coefficient corresponding to the target pixel extracted in Step 26 is extracted.
  • the final weighting factor W2 is calculated based on the above equations (3), (4), and (8).
  • Step 29 the final weighting factor W2 in Step 28 is used to calculate the final value by performing processing according to Equation (9) or Equation (10) using the pixel values and correction factors extracted in Step 26 and Step 27. Calculate the correction coefficient P2.
  • the process ends through Stepl6 to Stepl8.
  • the original correction coefficient group that is, the first correction coefficient group
  • a correction coefficient group obtained by applying a smoothing filter to the first correction coefficient group and a weighted coefficient multiplied by the correction coefficient group after smoothing, thereby adding each correction coefficient constituting the second correction coefficient group. P1 was calculated.
  • the first correction coefficient group for the first correction coefficient group. Then, by applying a bilateral filter using the luminance value of the original image signal as a parameter, the first correction coefficient group is smoothed to obtain a final correction coefficient P3, and the second correction coefficient P3 is used to obtain the second correction coefficient P3.
  • a correction coefficient group is created.
  • FIG. 14 is a block diagram showing a schematic configuration of a digital still camera according to the third embodiment of the present invention.
  • the digital still camera according to the present embodiment has substantially the same configuration as the digital still camera according to the first embodiment shown in FIG. (Refer to FIG. 1)
  • the point that the correction coefficient group adjustment unit 300 is provided instead of the output signal of the edge enhancement processing unit 107 is the correction coefficient group calculation unit 109, the correction coefficient group adjustment unit 300, and the gradation conversion unit.
  • the difference is that the configuration is transferred to 111.
  • correction coefficient group adjustment unit 300 according to the present embodiment will be specifically described with reference to the drawings.
  • FIG. 15 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit 300 according to the present embodiment.
  • the correction coefficient group adjustment unit 300 includes a correction coefficient extraction unit 310, a filter ROM 311, an image signal extraction unit 312, and a filter processing unit 313.
  • the signal from correction coefficient group calculation section 109 is transferred to correction coefficient extraction section 310.
  • the signal from the edge enhancement processing unit 107 is transferred to the image signal extraction unit 312.
  • the signal from the image signal extraction unit 312 is output to the filter processing unit 313.
  • the filter processing unit 313 is connected to the filter ROM 311!
  • the output of the filter processing unit 313 is transferred to the gradation conversion unit 111.
  • the image signal extraction unit 312 reads the luminance value of the region of interest composed of the pixel of interest and the neighboring pixels of the pixel of interest from the luminance signal Y transferred from the edge enhancement processing unit 107, and transfers it to the filter processing unit 313.
  • the correction coefficient extraction unit 310 includes correction coefficients corresponding to each pixel on the original image signal recorded in the correction coefficient map buffer 147 (see FIG. 5) in the correction coefficient group calculation unit 109. From the correction coefficient group (hereinafter referred to as “first correction coefficient group” in the present embodiment), the correction coefficient corresponding to the region of interest is read and transferred to the filter processing unit 313.
  • the filter processing unit 313 acquires the correction coefficient Pr corresponding to the region of interest acquired from the correction coefficient extraction unit 310 and the image signal extraction unit 312 using the filter coefficient ( ⁇ to be described later) read from the filter ROM 311.
  • the final correction coefficient P (i, j) is calculated by performing arithmetic processing according to the equation (11) using the luminance value Lp in the attention area, and this correction coefficient P (i, j) card Correction coefficient group (in the present embodiment, this is hereinafter referred to as “second correction coefficient group”).
  • N (i, j) ⁇ expAexpB
  • is the variance of the Gaussian distribution
  • i and j are the vertical pixel position and horizontal pixel position of the pixel group of the image signal
  • m and n are vertical and horizontal pixels from the target pixel of the neighboring pixels. Represents the distance between.
  • the correction coefficient is calculated using the spatial distance function of the pixel in the attention area extracted by the image signal extraction unit 312 and the difference function of each pixel value constituting the attention area.
  • a correction coefficient P (i, j) is obtained by adjusting the correction coefficient corresponding to the target pixel extracted by the extraction unit 310.
  • the second correction coefficient group consisting of a plurality of correction coefficients P (i, j) calculated in this way is sent from the filter processing unit 313 to the gradation conversion unit 1 Forwarded to 11.
  • the gradation converting unit 111 performs gradation conversion by multiplying the adjusted correction coefficient P (i, j) by the luminance signal Y and the color difference signal c.
  • the correction coefficient adjustment unit 300 is extracted by the image signal extraction unit 312 as shown in the above equation (11).
  • the first correction coefficient group corresponding to the target pixel extracted by the correction coefficient extraction unit 310 is obtained using the spatial distance function of the pixels in the target area and the difference function of each pixel value constituting the target area.
  • the second correction coefficient group is calculated. Then, by performing a space-normative tone conversion process using this second correction coefficient group, it becomes possible to smooth the flat portion while leaving the edge, so that the flatness that has occurred in the past has been achieved. Unnatural enhancement of the brightness gradient in the carrier can be suppressed.
  • force based on hardware processing is not necessarily limited to such a configuration.
  • CCD power signals can be processed as raw data, and shooting information such as ISO sensitivity input from an external IZF can be output as header information and processed separately by software.
  • the signal processing software processing is described below with reference to FIGS. 16 and 17. FIG.
  • FIG. 16 and FIG. 17 are flowcharts showing a processing procedure related to software processing of signal processing executed by the digital still camera according to the third embodiment of the present invention.
  • the same steps as those in the first embodiment described above are given the same number of steps.
  • processing similar to the above-described processing performed in each configuration shown in FIG. 14 is performed.
  • Stepl to SteplO are the same as the processes shown in FIGS. 7 and 8.
  • Step 30 following SteplO for example, pixel values in a local region of 5 ⁇ 5 pixel size are extracted, and in Step 31, correction coefficients corresponding to the pixels in the local region extracted in Step 30 are extracted.
  • the final correction coefficient P3 is calculated by performing filter processing on the pixel values and correction coefficients extracted in Step 30 and Step 31 based on a predetermined weighting coefficient according to Equation (11). Then, similarly to the above-described first embodiment, the process is terminated through Stepl5 to Stepl8.
  • a procedure for obtaining the final correction coefficient first, a reduced image of the original image power is created, a correction coefficient group for the reduced image is obtained, and the correction coefficient for the reduced image is enlarged.
  • a first correction coefficient group that is a correction coefficient group corresponding to the original image is obtained by processing, and then a second correction coefficient group is obtained by adjusting the first correction coefficient group.
  • a reduced image is created from the original image, and a correction coefficient corresponding to the reduced image (in the present embodiment, this is hereinafter referred to as a “reduction correction coefficient”).
  • a correction coefficient group (in the present embodiment, hereinafter referred to as a “reduction correction coefficient group”) is created. Further, an adjusted correction coefficient group is obtained by adjusting the reduced correction coefficient group. Then, the final correction coefficient group corresponding to the original image size (in the present embodiment, hereinafter referred to as “final correction coefficient group”) is obtained by enlarging the adjusted correction coefficient group. Then, gradation conversion processing is performed using the final correction coefficient group.
  • FIG. 18 is a block diagram showing a schematic configuration of a digital still camera according to the fourth embodiment of the present invention.
  • the digital still camera according to this embodiment has the same configuration as that of the digital still camera according to the first embodiment shown in FIG. 1.
  • the contrast calculation processing unit shown in FIG. The point 108 is not provided, and instead of the edge enhancement processing unit 107, the correction coefficient group calculation unit, and the correction coefficient group adjustment unit 110, an edge enhancement processing unit 500, a reduction rate setting unit 5001, a correction coefficient group calculation unit 502 And a correction coefficient group adjustment unit 503 is different.
  • the output of the edge enhancement processing unit 500 is transferred to the correction coefficient group calculation unit 502 and the gradation conversion unit 111.
  • the signal of the reduction rate setter shame unit 501 is input to the correction coefficient group calculation unit 502 and the correction coefficient group adjustment unit 503.
  • the output of the correction coefficient group calculation unit is the correction coefficient Transferred to the group adjustment unit 503.
  • the output of the correction coefficient group adjustment unit 503 is transferred to the gradation conversion unit 111.
  • the edge enhancement processing unit 500 performs filtering processing on the color signal from the WB adjustment unit 104, extracts an edge component, and adds the luminance component Y to the luminance signal Y from the YZC separation unit 106, thereby performing edge processing. Perform enhancement processing.
  • the luminance signal Y subjected to the edge enhancement processing is transferred to the correction coefficient group calculation unit 502 and the gradation conversion unit 111, and the color difference signal C is transferred to the gradation conversion unit 111.
  • the correction coefficient group calculation unit 502 creates a reduced image signal from the luminance signal Y for correction coefficient calculation based on the reduction rate set by the reduction rate setting unit 501 for the purpose of speeding up the processing.
  • a known downsampling method is used as the image reduction method. When the reduction ratio is set to the same magnification, it is possible to place importance on the correction coefficient calculation accuracy by canceling the reduction process.
  • the correction coefficient group calculation unit 502 extracts a local area of a predetermined size centered on the target pixel, based on the generated reduced image signal. Subsequently, a gradation conversion curve is set based on the histogram of the extracted local region, and a reduction correction coefficient group that also has a reduction correction coefficient force applied to each target pixel in the gradation conversion processing based on the conversion curve is obtained, and correction not shown in the figure. Records to the coefficient recording buffer. As a result, a reduced correction coefficient group that is a correction coefficient group corresponding to an image signal having a reduced image size is recorded in the correction coefficient recording buffer.
  • the reduced correction coefficient group calculated by the correction coefficient group calculation unit 502 is transferred to the correction coefficient group adjustment unit 503.
  • the correction coefficient group adjustment unit 503 extracts, from the reduction correction coefficient group, correction coefficients corresponding to pixels in a local area having a predetermined size centered on the target pixel on the original image. Then, filtering processing is performed on the extracted correction coefficient using a predetermined weighting coefficient, and an adjusted correction coefficient group including adjusted correction coefficients corresponding to the target pixel is calculated.
  • the correction coefficient group calculation unit 502 generates an image signal of the original image size from the adjusted correction coefficient group using a known image enlargement method based on the reduction ratio set by the reduction ratio setting unit 501.
  • the final correction coefficient group consisting of the final correction coefficient P4 corresponding to is calculated and transferred to the gradation conversion unit 111.
  • the gradation conversion unit 111 performs each correction of the final correction coefficient group transferred from the correction coefficient group adjustment unit 503 for the luminance signal Y and the color difference signal C transferred from the edge enhancement processing unit 500. Tone conversion is performed by multiplying by coefficient ⁇ 4.
  • the signal after the gradation conversion process is stored in a predetermined memory card or the like via the compression unit 112 and the output unit 113.
  • FIG. 19 is a block diagram illustrating a schematic configuration of the edge enhancement processing unit 500.
  • the edge enhancement processing unit 500 includes an image signal calculation unit 520, a buffer 521, a filter R 522, a filter processing unit 523, and an edge enhancement unit 524.
  • the output signal from the WB adjustment unit 104 is transferred to the image signal calculation unit 520 in the edge enhancement processing unit 500.
  • the output of the image signal calculation unit 520 is transferred to the buffer 521.
  • the output of the buffer 521 is transferred to the filter processing unit 523.
  • the filter RO is connected to the filter processing unit 523.
  • the outputs of the filter processing unit 523 and the YZC separation unit 106 are transferred to the edge enhancement unit 524.
  • the output of the edge enhancement unit 524 is transferred to the correction coefficient group calculation unit 502 and the gradation conversion unit 111.
  • the image signal calculation unit 520 reads the image signal after WB adjustment transferred from the WB adjustment unit 104 for each pixel, calculates a luminance signal according to the above formula (1), and transfers this to the buffer 521. To do.
  • the filter processing unit 523 first reads out a spatial filter required for a known edge component extraction filter process from the filter ROM 522. For example, in the case of a 5 ⁇ 5 pixel size filter, a local region in units of 5 ⁇ 5 pixels is read from the nota 521, an edge component is obtained using the spatial filter, and is transferred to the edge enhancement unit 524.
  • the edge enhancement unit 524 extracts a local area of a predetermined size from the luminance signal ⁇ ⁇ converted according to the equation (1) in the YZC separation unit 106, and the luminance signal ⁇ is output from the filter processing unit 523. Edge components are added and edge enhancement processing is performed. The luminance signal ⁇ after edge enhancement is transferred to the correction coefficient group calculation unit 502 and the gradation conversion unit 111, and the color difference signal C is transferred to the gradation conversion unit 111.
  • FIG. 20 is a block diagram showing a schematic configuration of the correction coefficient group calculation unit 502.
  • the correction coefficient group calculation unit 502 includes a reduced image generation unit 530, an extraction unit 531, a histogram calculation unit 532, a cumulative normality unit 533, a correction coefficient calculation unit 534, and a correction coefficient map. Constructed with a Nofa 535.
  • signals from the edge enhancement processing unit 500 and the reduction setting unit 501 are transferred to the reduced image generation unit 530.
  • the output of the reduced image generation unit 530 is transferred to the extraction unit 531 and the correction coefficient group adjustment unit 503.
  • the output of the extraction unit 531 is output to the histogram calculation unit 532.
  • the output of the histogram calculation unit 532 is transferred to the cumulative normalization unit 533.
  • the output of the accumulation normalization unit 533 is transferred to the correction coefficient calculation unit 534.
  • the output of the correction coefficient calculation unit 534 is transferred to the correction coefficient map buffer 535.
  • the correction coefficient group recorded in the correction coefficient map buffer 535 is referred to by the correction coefficient group adjustment unit 503.
  • the reduced image creating unit 530 creates a reduced image signal from the luminance signal Y acquired from the edge enhancement processing unit 500 based on the reduction rate set by the reduction rate setting unit 501, and extracts the reduced image signal by the extracting unit 531 and the correction. Transfer to coefficient group adjustment unit 503.
  • the image reduction method a known downsampling method is used.
  • Extraction unit 531 extracts a local area signal from the reduced image signal created by reduced image generation unit 530 and transfers the extracted signal to histogram calculation unit 532.
  • the histogram calculation unit 532 creates a histogram for each local region and transfers it to the cumulative normalization unit 533.
  • the cumulative normalization unit 534 generates a cumulative histogram by accumulating the histogram, normalizes it according to the gradation width, generates a gradation conversion curve, and transfers it to the correction coefficient group calculation unit 534.
  • the correction coefficient calculation unit 534 obtains a reduction correction coefficient group composed of reduction correction coefficients for the signal level of each region, based on the gradation conversion curve from the cumulative normalization unit 533. At this time, the correction coefficient calculation unit 534 calculates the reduced correction coefficient group by the same method as in the first embodiment, that is, by performing arithmetic processing according to the above-described equation (5).
  • the reduced correction coefficient group calculated by the correction coefficient calculation unit 534 is transferred to the correction coefficient map buffer 535 and recorded.
  • the reduced correction coefficient group recorded in the correction coefficient map buffer 535 is adjusted by the correction coefficient group adjustment unit 503 in the subsequent stage, and then subjected to gradation conversion processing. Used when.
  • FIG. 21 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit 503.
  • the correction coefficient group adjustment unit 503 includes a correction coefficient extraction unit 540, a filter ROM 541, a filter processing unit 542, a buffer 543, and an enlargement interpolation unit 544.
  • the signal from correction coefficient group calculation section 502 is transferred to correction coefficient extraction section 540.
  • the output of the correction coefficient extraction unit 540 is transferred to the filter processing unit 542.
  • the filter processing unit 542 is connected to the filter ROM 541.
  • the output of the filter processing unit 542 is transferred to the notper 543.
  • the output of the buffer 543 and the signal from the reduction ratio setting unit 501 are output to the enlargement interpolation unit 544.
  • the output of the enlargement interpolation unit 544 is transferred to the gradation conversion unit 111.
  • the correction coefficient extraction unit 540 includes a predetermined pixel including a target pixel and a pixel near the target pixel from the reduced correction coefficient group recorded in the correction coefficient map buffer 535 (see FIG. 20) in the correction coefficient group calculation unit 502.
  • the correction coefficient corresponding to the pixel in the local area of the size is read and transferred to the filter processing unit 542.
  • the size of the local region to be read is determined according to the size of the filter used by the subsequent filter processing unit 542. For example, if the filter recorded in the filter ROM 541 is a 5 ⁇ 5 pixel size filter, the reduction correction coefficient corresponding to the pixel in the local area is read in units of 5 ⁇ 5 pixels and transferred to the filter processing unit 542. To do.
  • the filter processing unit 542 reads out a smoothing filter required for a known smoothing filter process from the filter ROM 541, and uses the smoothing filter to transmit each pixel transferred from the correction coefficient extraction unit 540. By smoothing the reduced correction coefficients, an adjusted correction coefficient group composed of the smoothed correction coefficients is calculated. The calculated post-adjustment correction coefficient group is transferred to the enlargement interpolation unit 544 via the buffer 543.
  • the smoothing process is performed by using the smoothing filter in the filter processing unit 542, but other filter processes can be applied by changing the setting of the smoothing filter. It is. For example, by applying a sharp color filter, By emphasizing the slope of the edge, the slope of the flat portion can be made relatively inconspicuous.
  • the enlargement interpolation unit 544 performs a known interpolation process based on the reduction rate set in the reduction rate setting unit 501 on the post-adjustment correction coefficient group acquired from the nota 543. A final correction coefficient group corresponding to the pixel is calculated, and this is sent to the gradation converting unit 111 in a fifth order.
  • the weight coefficient W4 may be stored in a ROM (not shown) and the post-adjustment correction coefficient Pr4 may be calculated using the following equation (7-2).
  • Pr4 Prm * (1— W4) + Prfil * W4 (7— 2)
  • Prm is the reduction correction coefficient
  • Prfil is the reduction correction coefficient after smoothing.
  • the calculation formula of Pr4 is not limited to the above formula (7-2), but other calculation formulas using Prm, W4, and Prfil can also be used. Also, for W4, register multiple W4s in ROM (not shown), and use the values selected based on instructions from the user for these intermediate forces.
  • CCD power signals can be processed as raw data, and shooting information such as ISO sensitivity input from an external IZF can be output as header information and processed separately by software.
  • the signal processing software processing will be described with reference to FIGS. 22 and 23.
  • FIG. 22 and FIG. 23 are flowcharts showing a processing procedure related to software processing of signal processing executed by the digital still camera according to the fourth embodiment of the present invention. In each processing step, processing similar to the above-described processing performed in each configuration shown in FIG. 18 is performed.
  • step 50 header information including imaging information such as signal and ISO sensitivity is read.
  • Step51 perform signal processing such as WB adjustment, color interpolation, and YZC separation.
  • Step 52 edge enhancement processing is performed, and edge correction coefficients and contrast are calculated.
  • Step 53 a reduced image for correction coefficient calculation is created.
  • Step 54 a local region having a predetermined size, for example, a 5 X 5 pixel size is extracted, and in Step 55, histogram creation processing is performed.
  • Step 56 the histogram created in Step 55 is accumulated and normalized.
  • Step 57 a gradation conversion curve is set based on the cumulative histogram, and a reduction correction coefficient for each pixel is calculated based on the conversion curve.
  • Step 58 it is determined whether extraction of all areas is completed. If completed, go to Step 59. If completed, go to Step 54.
  • Step 59 for example, pixel values in a local region of 5 X 5 pixel size are extracted, and in Step 60, reduction correction coefficients corresponding to the pixels in the local region extracted in Step 59 are extracted.
  • step 61 set the smoother finalizer.
  • Step 62 smoothing of the reduction correction coefficient group is performed using the pixel values, reduction correction coefficients, and weighting coefficients in Step 59, Step 60, and Step 61, and an adjusted correction coefficient group is created.
  • Step 63 it is determined whether all areas have been extracted. If completed, go to Step 59. If not, go to Step 64.
  • Step 64 the final correction coefficient group is calculated and recorded based on the adjusted correction coefficient group.
  • Step 65 the final correction coefficient group is multiplied to the image signal whose edge is emphasized in Step 52.
  • step 66 signal compression is performed using a known signal compression technique, and in step 67, the processed signal is output, and the process ends.
  • the present embodiment is a combination of the second embodiment and the fourth embodiment described above. Specifically, first, a reduced image is created from the original image, a reduction correction coefficient corresponding to the reduced image is obtained, and a reduction correction coefficient group composed of these reduction correction coefficients is created. Further, an adjusted correction coefficient group is obtained by adjusting the reduced correction coefficient group using the method in the second embodiment described above. Thereafter, the post-adjustment correction coefficient is enlarged to obtain a final correction coefficient group that is a final correction coefficient corresponding to the pixel on the original image.
  • FIG. 24 is a block diagram showing a schematic configuration of a digital still camera according to the fifth embodiment of the present invention.
  • the digital still camera includes a correction coefficient group adjustment unit 600 instead of the correction coefficient group adjustment unit 503 (see FIG. 18) according to the fourth embodiment described above. Further, the output signal of the edge enhancement processing unit 500 is transferred to the correction coefficient group calculation unit 502, the correction coefficient group adjustment unit 600, and the gradation conversion unit 111.
  • FIG. 25 is a block diagram showing a schematic configuration of the correction coefficient group adjustment unit 600 according to the present embodiment.
  • the correction coefficient group adjustment unit 600 includes a correction coefficient extraction unit 610, an image signal extraction unit 611, a weight coefficient ROM 612, a multiplication and addition processing unit 613, a noffer 614, and an enlargement interpolation unit 615. It is configured.
  • the signal from the correction coefficient group calculation unit 502 is transferred to the correction coefficient extraction unit 610 and the image signal extraction unit 611. Outputs of the correction coefficient extraction unit 610 and the image signal extraction unit 613 are transferred to the multiplication / addition processing unit 613.
  • the multiplication / addition processing unit 613 is connected to the weight coefficient ROM 612.
  • the output of the multiplication / addition processing unit 613 is transferred to the enlargement interpolation unit 615 via the buffer 614.
  • the output of the reduction ratio setting unit 501 is transferred to the enlargement interpolation unit 615.
  • the output of the enlargement interpolation unit 615 is transferred to the gradation conversion unit 111.
  • the correction coefficient extraction unit 610 is recorded with 535 correction coefficient buffers in the correction coefficient group calculation unit 502!
  • the reduction correction coefficient corresponding to the target pixel is read from the reduction correction coefficient group corresponding to the pixel on the reduced image, and transferred to the multiplication and addition processing unit 613.
  • the image signal extraction unit 611 is extracted by the correction coefficient extraction unit 610 from the luminance signal Y of the reduced image transferred from the reduced image generation unit 530 (see FIG. 20) in the correction coefficient group calculation unit 502.
  • the luminance value corresponding to the target pixel is read and transferred to the multiplication and addition processing unit 613.
  • the multiplication and addition processing unit 613 uses the weighting coefficient W5 recorded in the weighting coefficient ROM 612.
  • this weighting coefficient W5 the reduction correction coefficient Pr corresponding to the target pixel extracted by the correction coefficient extraction unit 610, and the luminance value Lp of the target pixel extracted by the image signal extraction unit 611, the following
  • an adjusted correction coefficient in the present embodiment, hereinafter referred to as “adjusted correction coefficient” P5 is obtained.
  • an adjusted correction coefficient group composed of the adjusted correction coefficient P5 for each pixel is obtained.
  • the adjusted correction coefficient group composed of the adjusted correction coefficient P5 calculated by the multiplication / addition processing unit 613 is transferred to the enlargement interpolation unit 615 via the buffer 641.
  • the enlargement interpolation unit 615 includes final correction coefficients corresponding to the pixels on the original image from the adjusted correction coefficient group by using a known interpolation process based on the reduction ratio acquired from the reduction ratio setting unit 501.
  • the final correction coefficient group is calculated and transferred to the gradation conversion unit 111.
  • the gradation conversion unit 111 performs the gradation conversion process by multiplying the luminance signal Y and the color difference signal C by the final correction coefficient group acquired from the correction coefficient group adjustment unit 600.
  • correction coefficient ⁇ 5 is obtained by multiplying the luminance value Lp of the target pixel by the final weighting coefficient W5 as shown in the following equation (13), the correction coefficient Pr corresponding to the target pixel: You may ask for it by adding to
  • calculation formula of P5 is not limited to the above formula (12) or formula (13), but may be other calculation formulas using Pr, W5, and Lp.
  • W5 a plurality of W5 may be registered in the weight coefficient ROM 612, and a value selected based on an instruction from the user may be used.
  • FIG. FIG. 26 and FIG. 27 are flowcharts showing a processing procedure related to software processing of signal processing executed by the digital still camera according to the fifth embodiment of the present invention.
  • FIG. 26 and FIG. 27 are flowcharts showing a processing procedure related to software processing of signal processing executed by the digital still camera according to the fifth embodiment of the present invention.
  • the same steps as those in the fourth embodiment described above are given the same number of steps. In each processing step, processing similar to that described above performed in each configuration shown in FIG. 24 is performed.
  • Step 58 Extract the pixel value of the target pixel from the image signal and extract the reduction correction coefficient corresponding to the target pixel extracted in Step 68 in Step 69.
  • Step70 Set the weighting factor.
  • the present embodiment is a combination of the third embodiment and the fourth embodiment described above. Specifically, first, a reduced image is created from the original image, a reduction correction coefficient corresponding to the reduced image is obtained, and further, the reduction correction coefficient is adjusted using the method in the third embodiment described above. Thus, an adjusted correction coefficient is obtained, and an adjusted correction coefficient group composed of the adjusted correction coefficients is created. Thereafter, the post-adjustment correction coefficient group is enlarged to obtain a final correction coefficient group that is a final correction coefficient group corresponding to the pixel on the original image.
  • FIG. 28 is a block diagram showing a schematic configuration of a digital still camera according to the sixth embodiment of the present invention.
  • the digital still camera according to the present embodiment has substantially the same configuration as the digital still camera according to the fourth embodiment shown in FIG.
  • the correction coefficient group adjustment unit 700 is provided instead of the adjustment unit 503, and the output signal of the edge enhancement processing unit 107 is transferred to the correction coefficient group calculation unit 502, the correction coefficient group adjustment unit 700, and the gradation conversion unit 111. It differs in that it takes a different structure.
  • correction coefficient group adjustment unit 700 according to the present embodiment will be specifically described with reference to the drawings.
  • FIG. 29 is a block diagram showing a schematic configuration of a correction coefficient group adjustment unit 700 according to the present embodiment.
  • the correction coefficient group adjustment unit 700 includes a correction coefficient extraction unit 710, an image signal extraction unit 711, a filter ROM 712, a filter processing unit 713, a nother 714, and an enlargement interpolation unit 715. Has been.
  • the signal from the correction coefficient group calculation unit 502 is transferred to the correction coefficient extraction unit 710 and the image signal extraction unit 711.
  • the outputs of the correction coefficient extraction unit 710 and the image signal extraction unit 711 are transferred to the filter processing unit 713.
  • the filter processing unit 713 is connected to the filter ROM 712.
  • the output of the filter processing unit 713 is transferred to the enlargement interpolation unit 715 via the noffer 714.
  • the output of the reduction ratio setting unit 501 is transferred to the enlargement interpolation unit 715.
  • the output of the enlargement interpolation unit 715 is transferred to the gradation conversion unit 111.
  • the image signal extraction unit 713 reads out the luminance values of the pixel of interest and the neighboring pixels of the pixel of interest from the luminance signal Y of the reduced image transferred from the reduced image generation unit 530 in the correction coefficient group calculation unit 502, and performs a filter processing unit Transfer to 713.
  • the correction coefficient extraction unit 710 is a reduction correction coefficient corresponding to each pixel on the reduced image recorded in the correction coefficient map buffer 535 (see FIG. 20) in the correction coefficient group calculation unit 502.
  • the reduction correction coefficients corresponding to the pixel of interest read out by the image signal extraction unit 713 and the neighboring pixels of the pixel of interest are read out from the group of reduction correction coefficients constituted by the above and transferred to the filter processing unit 713.
  • the filter processing unit 713 uses the smoothed filter read from the filter ROM 712 to extract the reduction correction coefficient Pr and the image signal corresponding to the target pixel acquired from the correction coefficient extraction unit 710 and the neighboring pixels of the target pixel. Using the luminance value Lp of the target pixel and the neighboring pixels of the target pixel acquired from the unit 713, the same as in the third embodiment, the equation (11) is used. Then, by calculating, the post-adjustment correction coefficient P (i, j) is calculated, and the post-adjustment correction coefficient group that also comprises the P (i, j) force is obtained.
  • the adjusted correction coefficient group consisting of the corrected correction coefficients P (i, j) corresponding to each pixel on the reduced image calculated in this way is transferred to the enlargement interpolating unit 715 via the noffer 714. Is done.
  • the enlargement interpolation unit 715 enlarges an adjusted correction coefficient group made up of the adjusted correction coefficients corresponding to each pixel on the reduced image using a known interpolation process, thereby finalizing the pixel corresponding to each pixel on the original image.
  • a final correction coefficient group consisting of various correction coefficient values is calculated and transferred to the gradation conversion unit 111.
  • the gradation conversion unit 111 performs gradation conversion processing by multiplying the luminance signal Y and the color difference signal C by the final correction coefficient group acquired from the correction coefficient group adjustment unit 700.
  • CCD power signals can be processed as raw data, and shooting information such as ISO sensitivity input from an external IZF can be output as header information and processed separately by software.
  • the signal processing software processing will be described below with reference to FIGS. 30 and 31.
  • FIG. 30 and FIG. 31 are flowcharts showing processing procedures relating to software processing of signal processing executed by the digital still camera according to the sixth embodiment of the present invention.
  • the same steps as those in the fourth embodiment described above are given the same number of steps.
  • processing similar to the above-described processing performed in each configuration shown in FIG. 28 is performed.
  • Step 50 to Step 58 are the same as the processing shown in FIG. 22 and FIG.
  • Step 72 following Step 58 pixel values in the local region (for example, 5 ⁇ 5 pixel size) are extracted from the reduced image signal, and in Step 73, a reduction correction coefficient corresponding to the target pixel extracted in Step 72 is extracted.
  • step 74 the pixel value and reduction correction coefficient extracted in step 72 and step 73 based on the predetermined weighting factor are filtered according to the above equation (11), and the process proceeds to step 63.
  • the subsequent processing is the same as the processing shown in FIG. 22 and FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)

Abstract

 所定の画像処理が施された画像信号を取得して、複数の画素それぞれに対応する複数の補正係数からなる第一の補正係数群を領域毎に作成する補正係数群算出部109と、撮像素子からの画像信号又は画像処理が施された後の画像信号の特徴を用いて、第一の補正係数群を調整することにより、第二の補正係数群を作成する補正係数群調整部110と、第二の補正係数群を用いて、領域毎に階調変換処理を行う階調変換部111とを備える撮像装置を提供する。

Description

明 細 書
撮像装置
技術分野
[0001] 本発明は、領域ごとに異なる階調変換処理を行う撮像装置に係り、特に画像信号 全体で平坦部における輝度勾配の不自然な強調を抑制する撮像装置に関する。 背景技術
[0002] 現在、デジタルスチルカメラやビデオカメラなどでは、デジタル信号処理の桁落ち による画質劣化を防止するため、最終的な出力信号の階調幅 (通常 8bit)に対して 入力及び処理系における画像信号の階調幅(10〜12bit程度)をより広く設定してい る。この場合、出力系の階調幅に合致するよう階調変換を行う必要があり、一般的に は標準的な撮像シーンに対する固定的な階調特性により、階調変換が行われている 。しかし、人の視覚機能のように主観的に好ましい階調特性を持った画像信号を生 成する場合、画像内の領域ごとに異なる階調変換 (以下、スペースバリアントな階調 変換とする)を行うと好適であることが知られている。
[0003] 例えば、特許第 2951909号明細書には、入力画像の輝度分布に基づいて画像信 号を複数領域に分割し、被写体条件に適応して各領域に最適な階調変換を行う例 が開示されており、また、特許第 3465226号明細書には、テクスチャ情報に基づき 画像信号を領域に分割し、各領域に対して適応的に階調変換を行う例が開示されて いる。
特許文献 1 :特許第 2951909号明細書
特許文献 2:特許第 3465226号明細書
発明の開示
[0004] 上記特許第 2951909号明細書や特許第 3465226号明細書に示される方法では 、スペースバリアントな階調変換を行うため、明暗比の大きいシーンでも十分な改善 効果が得られる。
しかし、特許第 2951909号明細書においては、入力画像を複数のブロックに分割 し、ブロック毎の平均輝度に基づいて領域分割した後、領域毎に階調変換を行うが、 この場合、領域内で階調幅は異なるが平均輝度が同一であるような領域に対して、 同一な階調変換曲線に基づいて階調変換が施される。この結果、変換前の画像に おいて微小な輝度勾配を持つ平坦部であり、変換後も同様の輝度勾配を持つことが 望まれる領域においても、条件によっては大幅に階調幅が広げられ、不自然な階調 特性を持った画像が生成されるという問題があった。
[0005] また、特許第 3465226号明細書においては、入力画像をテクスチャ解析の結果に 基づ 、て領域分割し、領域毎に局所的ヒストグラム平滑ィ匕法による階調変換が施さ れるが、領域内の画像信号のヒストグラムにおいて階調幅が狭く輝度勾配が緩やか な平坦部においては、ヒストグラム平滑ィ匕の結果、変換前の輝度勾配と比較して不自 然な階調特性を持つ画像が生成されるという問題があった。
[0006] 本発明は、画像信号全体で平坦部における輝度勾配の不自然な強調を抑制する ことのできる撮像装置を提供することを目的とする。
[0007] 本発明の第 1の態様は、撮像素子からの画像信号に対して、該画像信号で表され る画像の領域毎に階調変換処理を行う撮像装置であって、前記撮像素子からの画 像信号に対し画像処理を行う画像処理手段と、前記画像処理が施された前記画像 信号を取得して、複数の画素それぞれに対応する複数の補正係数からなる第一の 補正係数群を前記領域毎に作成する補正係数群算出手段と、前記撮像素子からの 画像信号又は前記画像処理が施された後の画像信号の特徴を用いて、前記第一の 補正係数群を調整することにより、第二の補正係数群を作成する補正係数群調整手 段と、前記第二の補正係数群を用いて、前記領域毎に階調変換処理を行う階調変 換手段とを具備する撮像装置である。
[0008] この態様によれば、撮像素子からの画像信号は、画像処理手段により画像処理が 施された後、補正係数群算出手段へ入力される。補正係数群算出手段では、画像 処理が施された画像信号を元に、領域毎の階調変換処理に係る補正係数、換言す ると、スペースノ リアントな階調変換処理に関する補正係数が、画像信号の画素毎に それぞれ算出され、これら補正係数からなる第一の補正係数群が作成される。続い て、調整手段では、補正係数群算出手段にて作成された第一の補正係数群が、撮 像素子からの画像信号或いは画像処理が施された後の画像信号の特徴を用いるこ とにより調整され、調整後の補正係数にて第二の補正係数群が作成される。そして、 階調変換手段では、この第二の補正係数群を用いてスペースノ リアントな階調変換 処理が行われることとなる。
[0009] このように、本発明の第 1の態様に係る画像装置によれば、画像処理が施された後 の画像信号に基づいて算出された補正係数を更に調整し、調整後の補正係数を用 いてスペースノ リアントな階調変換処理を行うので、従来、スペースノ リアントな階調 変換処理を行った後に現れる、輝度勾配が不自然に強調される現象を解消すること が可能となる。これにより、見た目に自然な画質を得ることができる。
[0010] なお、この発明を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、第 1の態様に対応する実施形態は、第 1乃至第 3の実施形態であ り、この態様の構成要素である画像処理手段には、例えば、図 1に示される WB調整 部 104、補間処理部 105、 YZC分離部 106、及びエッジ強調処理部 107が該当す る。補正係数群算出手段としては、例えば、図 1に示される補正係数群算出部 109が 該当する。補正係数群調整手段としては、例えば、図 1に示される補正係数群調整 部 110等が該当する。
[0011] この発明の好ましい適用例は、例えば、図 1に示されるように、撮像素子からの画像 信号に対し、 WB調整部 104、補間処理部 105、 YZC分離部 106、エッジ強調処理 部 107にて WB調整、補間処理、 YZC分離、エッジ強調などの画像処理を行い、補 正係数群算出部 109にてスペースノ リアントな階調変換処理に関する補正係数群を 画素単位で算出する。次に、前記補正係数群に対して、補正係数群調整部 110〖こ て調整を施した後、階調変換部 111にて階調処理変換処理を行う撮像装置である。
[0012] 本発明の第 1の態様に係る画像処理装置が、前記画像処理が施された後の画像 信号を所定の縮小率で縮小し、縮小画像信号を生成する縮小画像生成手段を備え 、前記縮小画像信号を用いて前記第一の補正係数群が作成されることが好まし 、。
[0013] この態様によれば、縮小画像生成手段にて、画像処理が施された後の画像信号か ら所定の縮小率の縮小画像信号が生成され、この縮小画像信号を用いて第一の補 正係数群が作成される。これにより、処理を高速化することが可能となる。
[0014] なお、この発明を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この発明に対応する実施形態は、第 1乃至第 3の実施形態であり 、この発明の構成要素である縮小画像作成手段には、例えば、図 5に示される縮小 画像生成部 141が該当する。縮小率は、例えば、撮像装置が備える所定の記録媒 体に予め登録されて!、ても良 ヽし、外部から適宜設定変更可能な構成としても良 ヽ。
[0015] 本発明の第 1の態様において、前記補正係数算出手段は、前記縮小画像信号に おける複数の画素それぞれに対応する複数の縮小補正係数からなる縮小補正係数 群を作成し、前記縮小率による縮小を打ち消すように、前記縮小補正係数群を拡大 処理することにより、前記第一の補正係数群を作成することが好ましい。
[0016] この態様によれば、縮小画像生成手段にて、画像処理が施された後の画像信号か ら所定の縮小率の縮小画像信号が生成され、補正係数算出手段にて、縮小画像信 号の画素単位毎に、スペースバリアントな階調変換処理に関する縮小補正係数が算 出され、この縮小補正係数が縮小率による縮小を打ち消すように拡大処理されること により、第一の補正係数群が作成されることとなる。
[0017] 本発明の第 1の態様に係る撮像装置は、例えば、縮小率を設定する縮小率設定手 段と、前記縮小率に基づいて、前記画像処理手段により得られた画像信号を縮小し 、縮小画像信号を生成する縮小画像生成手段と、前記領域毎の階調変換処理に係 る補正係数を前記縮小画像信号に基づいて画素単位で算出する補正係数算出手 段と、前記縮小画像に対応する複数の補正係数からなる縮小補正係数群を前記縮 小率に基づいて拡大処理することにより、原画像信号 (撮像素子からの画像信号)に 対応する第一の補正係数群を作成する拡大手段と、前記拡大手段により得られた第 一の補正係数群を調整して、第二の補正係数群を作成する調整手段と、前記第二 の補正係数群を用 ヽて階調変換処理を行う階調変換処理手段とを具備して ヽても 良い。
[0018] 本発明の第 1の態様において、前記補正係数群調整手段は、前記第一の補正係 数群から注目画素に対応する補正係数と、該注目画素の近傍画素に対応する補正 係数とを抽出する抽出手段と、前記抽出手段により抽出された補正係数を用いて、 前記第一の補正係数群に対してフィルタ処理を行うことで、前記第一の補正係数群 を調整する調整手段とを備えることが好ま 、。 [0019] この態様によれば、調整手段が備える抽出手段にて、補正係数算出手段により作 成された第一の補正係数群から注目画素と該注目画素の近傍画素に対応する補正 係数が抽出され、調整手段にて、抽出手段により抽出された補正係数に対して、第 一の補正係数群に対してフィルタ処理を行うことにより、補正係数が調整される。そし て、この調整後の補正係数から第二の補正係数群が作成されることとなる。
[0020] 本発明の第 1の態様において、前記補正係数群調整手段は、前記第一の補正係 数群から注目画素に対応する補正係数と該注目画素の近傍画素に対応する補正係 数とを抽出する抽出手段と、前記抽出手段により抽出された補正係数を用いて前記 第一の補正係数群に対してフィルタ処理を行うとともに、重み係数を用いた演算を行 うことで、前記第一の補正係数群を調整する調整手段とを具備することが好ま ヽ。
[0021] この態様によれば、調整手段が備える抽出手段にて、補正係数算出手段により作 成された第一の補正係数群から注目画素と該注目画素の近傍画素に対応する補正 係数が抽出され、調整手段にて、抽出手段により抽出された補正係数に対して、フィ ルタ処理が行われるとともに、所定の重み係数を用いた演算が行われることにより、 補正係数が調整される。そして、この調整後の補正係数から第二の補正係数群が作 成されることとなる。
[0022] 上記フィルタ処理を行うとともに、所定の重み係数を用いた演算とは、例えば、第一 の補正係数群に対して所定の重み係数に基づいたフィルタ処理等の平滑ィヒ処理を 行う演算処理が挙げられる。このように、例えば、平滑ィ匕処理などのフィルタリング処 理を行うことにより、均一且つ高速な調整処理を行うことが可能となる。
[0023] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 1の実施形態であり、この態 様の構成要素である抽出手段には、例えば、図 6に示される補正係数抽出部 150が 該当する。また、調整手段には、例えば、図 6に示されるフィルタ処理部 154が該当 する。
この態様の好ましい適用例は、例えば、図 6に示されるように、補正係数抽出部 15 0により抽出した注目画素と該注目画素の近傍画素に対応する補正係数に対して、 フィルタ処理部 154にて所定重み係数に基づいたフィルタ処理を行う画像処理装置 である。
[0024] 本発明の第 1の態様において、前記補正係数群調整手段は、前記画像処理が施 された後の画像信号から輝度信号を取得する輝度信号取得手段と、前記輝度信号 取得手段により得られた前記輝度信号に基づ 、て、前記第一の補正係数群を調整 する調整手段とを具備することが好まし ヽ。
[0025] この態様によれば、輝度信号取得手段により、画像処理が施された後の画像信号 から輝度信号が取得され、調整手段にて、該輝度信号に基づいて第一の補正係数 群が調整される。このように、画像信号の特徴として輝度信号を採用し、この輝度信 号を用いて第一の補正係数群を調整することにより、調整後の補正係数で構成され る第二の補正係数群を更に好ましい状態とすることが可能となる。これにより、スぺー スノリアントな階調変換処理を行った際に生じていた輝度勾配の不自然な現れ方等 を解消することが可能となり、より自然な画像を取得することが可能となる。
[0026] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 2乃至第 3の実施形態であり 、この態様の構成要素である輝度信号取得手段には、例えば、図 11に示される画像 信号抽出部 213、図 15に示される画像信号抽出部 312が該当し、調整手段には、 例えば、図 11に示される乗算加算処理部 214、図 15に示されるフィルタ処理部 313 が該当する。
[0027] この態様の好ましい適用例は、例えば、図 11に示されるように、画像信号抽出部 2 13により抽出した注目画素の輝度値に基づいて、乗算加算処理部 214にて該注目 画素に対応する補正係数の調整を行う画像処理装置である。
[0028] 本発明の第 1の態様において、前記調整手段は、重み係数を乗じた前記輝度信号 を用いて、前記第一の補正係数群を調整することが好ま U、。
この態様によれば、調整手段にて、重み係数を乗じた輝度信号を用いた第一の補 正係数群の調整が行われることとなる。
[0029] 本発明の第 1の態様において、前記調整手段は、前記補正係数算出手段により作 成された前記第一の補正係数群を構成する補正係数に対して、重み係数を乗じた 前記輝度信号をそれぞれ乗算することにより、前記第一の補正係数群を調整するこ とが好ましい。
[0030] この態様によれば、調整手段において、補正係数算出手段により作成された第一 の補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞ れ乗算されることにより、第一の補正係数群が調整され、調整後の補正係数により第 二の補正係数群が作成されることとなる。このように、所定の重み付け係数が乗じら れた輝度信号を補正係数に乗じるという簡便な演算処理により、第一の補正係数群 を調整することが可能となるので、迅速に調整を行うことができる。
[0031] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 2の実施形態であり、例えば 、図 11に示される乗算加算処理部 214にて、補正係数算出手段により作成された第 一の補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれ ぞれ乗算されることにより、補正係数が調整される。
[0032] この態様の好ましい適用例は、例えば、図 11に示されるように、注目画素に対応す る補正係数に対して、乗算加算処理部 214にて注目画素の輝度値に所定の重み付 けを乗じたものを乗算することにより調整を行う画像処理装置である。
[0033] 本発明の第 1の態様において、前記調整手段は、前記補正係数算出手段により作 成された前記第一の補正係数群を構成する補正係数に、重み係数を乗じた前記輝 度信号をそれぞれ加算することにより、前記第一の補正係数群を調整することが好ま しい。
[0034] この態様によれば、調整手段において、補正係数算出手段により作成された第一 の補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞ れ加算されることにより、第一の補正係数群が調整され、調整後の補正係数により第 二の補正係数群が作成されることとなる。このように、所定の重み付け係数が乗じら れた輝度信号を補正係数に加算するという簡便な演算処理により、第一の補正係数 群を調整することが可能となるので、迅速に調整を行うことができる。
[0035] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この発明に対応する実施形態は、第 2の実施形態であり、例えば 、図 11に示される乗算加算処理部 214にて、補正係数算出部により作成された第一 の補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞ れ加算されることにより、補正係数が調整される。
[0036] この発明の好ましい適用例は、例えば、図 11に示されるように、注目画素に対応す る補正係数に対して、乗算加算処理部 214にて注目画素の輝度値に所定の重み付 けを乗じたものを加算することにより調整を行う画像処理装置である。
[0037] 本発明の第 1の態様において、前記画像処理手段は、エッジ強度を算出するエツ ジ強度算出手段と、前記エッジ強度に基づき前記撮像素子からの画像信号に対して エッジ強調処理を行うエッジ強調手段とを備え、前記調整手段は、前記エッジ強度算 出手段により算出された前記エッジ強度に基づいて、前記重み係数を設定すること が好ましい。
[0038] この態様によれば、エッジ強調処理の際に算出されたエッジ強調に基づいて、重み 係数が設定され、この重み係数を用いて第一の補正係数群の調整が行われる。この ように、エッジ強調処理で算出したエッジ強度を再度利用するので、エッジ強度を考 慮した補正係数の処理が可能となり、かつ再利用による処理の簡略化、高速化が可 能となる。
[0039] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 1及び第 2の実施形態であり 、この発明の構成要素であるエッジ強調算出手段には、例えば、図 2に示されるフィ ルタ処理部 123が該当する。エッジ強調手段は、例えば、図 2に示されるエッジ強調 部 127が該当する。重み係数の設定については、例えば、図 6に示される重み係数 調整部 153、或いは図 11に示される重み係数調整部 212が該当する。
[0040] この態様の好ましい適用例は、例えば、図 2に示されるように、画像信号に対して、 フィルタ処理部 123にてエッジ強度を算出し、算出したエッジ強度に基づき、エッジ 強調部 127にて画像信号に対してエッジ強調処理を行い、かつ、図 6に示される重 み係数調整部 153にて重み係数を調整し、補正係数抽出部 150からの補正係数群 に対してフィルタ処理部 154にて調整処理を行う画像処理装置である。
[0041] 本発明の第 1の態様において、前記画像処理手段は、コントラストを算出するコント ラスト算出手段を備え、前記調整手段は、前記コントラスト算出手段により算出された 前記コントラストに基づいて、前記重み係数を設定することが好ましい。
[0042] この態様によれば、画像信号力 算出されたコントラストに基づいて重み係数が設 定され、この重み係数を用いて第一の補正係数群の調整が行われるので、画像の明 喑差を考慮した調整が可能となる。
[0043] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この発明に対応する実施形態は、第 1及び第 2の実施形態であり 、この発明の構成要素であるコントラスト算出手段には、例えば、図 1に示されるコント ラスト算出処理部 108が該当する。重み係数の設定については、例えば、図 6に示さ れる重み係数調整部 153、或いは図 11に示される重み係数調整部 212が該当する
[0044] この態様の好ましい適用例は、例えば、図 1に示されるように、撮像素子からの画像 信号に対して、コントラスト算出処理部 108にてコントラストを算出し、算出したコントラ ストに基づき、図 6に示される重み係数調整部 153にて重み係数を調整し、フィルタ 処理部 154にて、補正係数抽出部 150からの補正係数群に対して、該重み係数が 反映された調整処理を行う画像処理装置である。
[0045] 本発明の第 1の態様において、前記補正係数群調整手段は、前記画像処理が施 された後の画像信号から輝度信号を取得する輝度信号取得手段と、前記輝度信号 力 注目画素と該注目画素の近傍画素を含む所定サイズの注目領域に対応する画 素値を抽出する画像信号抽出手段と、前記補正係数算出手段により作成された前 記第一の補正係数群から前記注目領域に対応する補正係数を抽出する補正係数 抽出手段と、前記画像信号抽出手段により抽出された前記注目領域における画素 の空間的距離関数と、前記注目領域を構成する各画素値の差分関数とを用いて、 前記補正係数抽出手段により抽出された前記注目画素に対応する補正係数を調整 する調整手段とを具備することが好まし ヽ。
[0046] この態様によれば、輝度信号取得手段にて画像処理が施された後の画像信号から 輝度信号が取得され、画像信号抽出手段にて、該輝度信号から注目画素と該注目 画素の近傍画素を含む所定サイズの注目領域に対応する画素値が抽出される。一 方、補正係数抽出手段にて、補正係数算出手段により作成された第一の補正係数 群から該注目領域に対応する補正係数が抽出される。そして、画像信号抽出手段に より抽出された注目領域における画素の空間的距離関数と、該注目領域を構成する 各画素値の差分関数 (輝度値の差分関数)とを用いて、該注目画素に対応する補正 係数が調整される。例えば、該注目画素に対応する補正係数に対して、注目領域の 空間的距離と、注目領域を構成する各画素の輝度値の差分を考慮したフィルタ処理 を行う。
[0047] このような、調整が行われることにより、エッジ部を考慮した平滑ィ匕処理を行うことが 可能となり、エッジ部の構造情報を残した調整を行うことができる。これにより、スぺー スノリアントな階調変換処理を行った後の画像を、より自然な画像にすることが可能と なる。
[0048] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 3の実施形態であり、この発 明の構成要素である画像信号抽出手段には、例えば、図 15に示される画像信号抽 出部 312が該当する。補正係数抽出手段には、例えば、図 15に示される補正係数 抽出部 310が該当する。調整手段には、例えば、図 15に示されるフィルタ処理部 31 3が該当する。
[0049] この態様の好ましい適用例は、例えば、図 15に示されるように、画像信号抽出部 3 12にて注目画素ならびに近傍画素力 なる所定サイズの注目領域を抽出し、一方、 補正係数抽出部 310にて、該注目領域に対応する補正係数を抽出し、フィルタ処理 部 313にて、抽出した補正係数をもとに、注目領域の空間的距離関数と、注目領域 を構成する各画素の輝度値の差分関数により重み付けを行ったフィルタ処理を実施 することにより、第一の補正係数群の調整を行う撮像装置である。
[0050] 本発明の第 2の態様は、画像信号に対して、該画像信号で表される画像の領域毎 に階調変換処理を行う撮像装置であって、前記画像信号に対し画像処理を行う画像 処理手段と、前記画像処理が施された後の画像信号を所定の縮小率で縮小し、縮 小画像信号を生成する縮小画像生成手段と、前記縮小画像信号における複数の画 素それぞれに対応する複数の縮小補正係数からなる縮小補正係数群を作成する補 正係数群作成手段と、前記縮小画像信号の特徴を用いて前記縮小補正係数群を調 整して、調整後の補正係数群を作成し、前記縮小率による縮小を打ち消すように前 記調整後の補正係数群を拡大することにより、縮小前の画像信号に対応する最終補 正係数群を作成する補正係数群調整手段と、前記最終補正係数群を用いて、前記 領域毎に階調変換処理を行う階調変換手段とを具備する撮像装置である。
[0051] 上記第 2の態様によれば、例えば、撮像素子からの画像信号は、画像処理手段に より画像処理が施された後、縮小画像生成手段へ入力される。画像処理が施された 画像信号は、縮小画像生成手段により、所定の縮小率で縮小されて縮小画像信号 に変換され、補正係数算出手段へ入力される。補正係数算出手段では、縮小画像 信号を元に、領域毎の階調変換処理に係る補正係数、換言すると、スペースバリアン トな階調変換処理に関する縮小補正係数が、縮小画像信号における複数の画素そ れぞれについて算出され、これら縮小補正係数からなる縮小補正係数群が作成され る。続いて、調整手段では、補正係数群算出手段にて作成された縮小補正係数群 力 縮小画像信号の特徴を用いることにより調整され、調整後の縮小補正係数群が 作成される。そして、この調整後の縮小補正係数群が、縮小率による縮小を打ち消 すように拡大されることにより、縮小前の画像信号に対応する最終補正係数群が作 成される。そして、階調変換手段では、この最終補正係数群を用いてスペースノリア ントな階調変換処理が行われることとなる。
[0052] このように、本発明の第 2の態様に係る撮像装置によれば、画像処理が施された後 の画像信号に基づいて算出された補正係数を更に調整し、調整後の補正係数を用 V、てスペースノ リアントな階調変換処理を行うので、スペースノ リアントな階調変換処 理を行った後に現れる、輝度勾配が不自然に強調される現象を解消することが可能 となる。これにより、見た目に自然な画質を得ることができる。更に、縮小画像信号を 用いて縮小補正係数の算出、並びに、この縮小補正係数の調整が行われるので、 処理を簡便化することができ、処理の高速ィ匕を図ることが可能となる。
[0053] 上記態様を後述する実施形態に具体的に対応付けて説明すると、次の通りである 。すなわち、この態様に対応する実施形態は、第 4乃至第 6の実施形態であり、この 態様の構成要素である画像処理手段には、例えば、図 18に示される WB調整部 10 4、補間処理部 105、 YZC分離部 106、及びエッジ強調処理部 500が該当する。縮 小画像生成手段としては、例えば、図 20に示される縮小画像生成部 530が該当する 。補正係数算出手段としては、例えば、図 18に示される補正係数群算出部 502が該 当する。補正係数群調整手段としては、例えば、図 18に示される補正係数群調整部 503が該当する。階調変換手段としては、例えば、図 18に示される階調変換部 111 が該当する。
[0054] この態様の好ましい適用例は、例えば、図 18に示されるように、撮像素子からの画 像信号に対し、 WB調整部 104、補間処理部 105、 YZC分離部 106、エッジ強調処 理部 500にて、 WB調整、補間処理、 YZC分離、エッジ強調などの画像処理を行い 、補正係数群算出部 502にてスペースノ リアントな階調変換処理に関する補正係数 群を縮小画像信号の画素単位で算出する。次に、この縮小画像信号に対する縮小 補正係数群に対して、補正係数群調整部 503にて調整を施して第一の補正係数群 を作成し、更に、この第一の補正係数群を拡大することにより、縮小前の画像信号、 換言すると、原画像信号に対応する補正係数からなる第二の補正係数群を作成し、 階調変換部 111にて、第二の補正係数群を用いた階調変換処理を行う撮像装置で ある。
[0055] 本発明の第 3の態様は、撮像素子からの画像信号に対し領域毎に独立に階調変 換処理を行う撮像装置であって、前記撮像素子からの画像信号に対し画像処理を行 う画像処理手段と、前記画像処理手段により得た画像信号に対して縮小率を設定す る縮小率設定手段と、前記画像処理手段により得た画像信号に対し前記縮小率設 定手段で設定された縮小率に基づいて縮小画像信号を生成する縮小画像生成手 段と、前記領域毎の階調変換処理に適用する補正係数を前記縮小画像生成手段に より得た縮小画像信号に基づき画素単位で算出する補正係数算出手段と、前記算 出手段により画素単位で算出された補正係数カゝらなる補正係数群を調整する調整 手段と、前記調整手段により調整された補正係数群と前記縮小率設定手段で設定さ れた縮小率に基づき前記縮小画像信号に対応する補正係数群を前記画像処理手 段で得た画像信号に対応するよう拡大する拡大手段と、前記画像処理手段により得 た画像信号に対し前記拡大手段により算出された前記補正係数を用いて階調変換 処理を行う階調変換手段を有することを特徴とする撮像装置である。 [0056] 本発明の第 3の態様にお 、て、前記補正係数群調整手段は、前記縮小補正係数 群から注目画素に対応する補正係数と該注目画素の近傍画素に対応する補正係数 とを抽出する抽出手段と、前記抽出手段により抽出された補正係数を用いて、前記 縮小補正係数群に対してフィルタ処理を行うことで、前記縮小補正係数群を調整す る調整手段とを備えることが好まし 、。
[0057] 上記態様によれば、補正係数群調整手段が備える抽出手段にて、補正係数算出 手段により作成された縮小補正係数群から注目画素と該注目画素の近傍画素に対 応する補正係数が抽出され、調整手段にて、抽出手段により抽出された補正係数に 対してフィルタ処理が行われることにより、縮小補正係数が調整されることとなる。
[0058] 本発明の第 3の態様において、前記縮小補正係数群から注目画素に対応する補 正係数と該注目画素の近傍画素に対応する補正係数とを抽出する抽出手段と、前 記抽出手段により抽出された補正係数を用いて、前記縮小補正係数群に対してフィ ルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記縮小補正係数群 を調整する調整手段とを具備することが好ま ヽ。
[0059] 上記態様によれば、補正係数群調整手段が備える抽出手段にて、補正係数算出 手段により作成された縮小補正係数群から注目画素と該注目画素の近傍画素に対 応する補正係数が抽出され、調整手段にて、抽出手段により抽出された補正係数に 対して、フィルタ処理が行われるとともに所定の重み係数を用いた演算が行われるこ とにより、補正係数が調整されることとなる。
[0060] 上記所定の重み係数を用いた演算とは、例えば、縮小補正係数群に対して所定の 重み係数に基づ 、たフィルタ処理等の平滑化処理を行う演算処理が挙げられる。こ のような平滑ィ匕処理などのフィルタリング処理を行うことにより、均一且つ高速な調整 処理を行うことが可能となる。
[0061] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 4の実施形態であり、この態 様の構成要素である抽出手段には、例えば、図 21に示される補正係数抽出部 540 が該当する。また、調整手段には、例えば、図 21に示されるフィルタ処理部 542が該 当する。 [0062] この態様の好ましい適用例は、例えば、図 21に示されるように、補正係数抽出部 5 40により抽出した注目画素と該注目画素の近傍画素に対応する補正係数に対して 、フィルタ処理部 542にて所定の重み係数に基づ ヽたフィルタ処理を行う撮像装置 である。
[0063] 本発明の第 3の態様にぉ 、て、前記補正係数群調整手段は、前記縮小画像信号 から輝度信号を取得する輝度信号取得手段と、前記輝度信号取得手段により得られ た前記輝度信号に基づ!/ヽて、前記縮小補正係数群を調整する調整手段とを具備す ることが好ましい。
[0064] この態様によれば、輝度信号取得手段により、縮小画像信号から輝度信号が取得 され、調整手段にて、該輝度信号に基づいて縮小補正係数群が調整される。このよ うに、画像信号の特徴として輝度信号を採用し、この輝度信号を用いて縮小補正係 数群を調整することにより、調整後の補正係数を更に好ましい状態とすることが可能 となる。これにより、従来、スペースノ リアントな階調変換処理を行った際に生じてい た輝度勾配の不自然な現れ方等を解消することが可能となり、より自然な画像を取得 することが可能となる。
[0065] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この発明に対応する実施形態は、第 5乃至第 6の実施形態であり 、この発明の構成要素である輝度信号取得手段には、例えば、図 25に示される画像 信号抽出部 611、図 29に示される画像信号抽出部 711が該当する。調整手段には 、例えば、図 25に示される乗算加算処理部 613、図 29に示されるフィルタ処理部 71 3が該当する。
[0066] この態様の好ましい適用例は、例えば、図 25に示されるように、画像信号抽出部 6
11により抽出した注目画素の輝度値に基づいて、乗算加算処理部 214にて該注目 画素に対応する補正係数の調整を行う撮像装置である。
[0067] 本発明の第 3の態様において、前記調整手段は、重み係数を乗じた前記輝度信号 を用いて、前記縮小補正係数群を調整することが好まし ヽ。
この態様によれば、調整手段にて、重み係数を乗じた輝度信号を用いた縮小補正 係数群の調整が行われることとなる。 [0068] 本発明の第 3の態様において、前記調整手段は、前記補正係数算出手段により作 成された前記縮小補正係数群を構成する補正係数に、重み係数を乗じた前記輝度 信号を乗算することにより、前記縮小補正係数群を調整することが好ましい。
[0069] この態様によれば、調整手段において、補正係数算出手段により作成された縮小 補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞれ 乗算されることにより、縮小補正係数群が調整され、調整後の補正係数により第一の 補正係数群が作成されることとなる。このように、所定の重み付け係数が乗じられた輝 度信号を補正係数に乗じるという簡便な演算処理により、縮小補正係数群を調整す ることが可能となるので、迅速に調整を行うことができる。
[0070] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 5の実施形態であり、例えば 、図 25に示される乗算加算処理部 613にて、補正係数算出手段により作成された縮 小補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞ れ乗算されることにより、補正係数が調整される。
[0071] この態様の好ましい適用例は、例えば、図 25に示されるように、注目画素に対応す る補正係数に対して、乗算加算処理部 613にて注目画素の輝度値に所定の重み付 けを乗じたものを乗算することにより調整を行う撮像装置である。
[0072] 本発明の第 3の態様において、前記調整手段は、前記補正係数算出手段により作 成された前記縮小補正係数群を構成する補正係数に、重み係数を乗じた前記輝度 信号を加算することにより、前記縮小補正係数群を調整することが好ましい。
[0073] この態様によれば、調整手段において、補正係数算出手段により作成された縮小 補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞれ 加算されることにより、縮小補正係数群が調整され、調整後の縮小補正係数により第 一の補正係数群が作成されることとなる。このように、所定の重み付け係数が乗じら れた輝度信号を縮小補正係数に加算するという簡便な演算処理により、縮小補正係 数群を調整することが可能となるので、迅速に調整を行うことができる。
[0074] なお、この態様を後述する実施形態に具体的に対応付けて説明すると、次の通り である。すなわち、この態様に対応する実施形態は、第 5の実施形態であり、例えば 、図 25に示される乗算加算処理部 613にて、補正係数算出手段により作成された縮 小補正係数群を構成する補正係数に対して、重み係数を乗じた輝度信号がそれぞ れ加算されることにより、補正係数が調整される。
[0075] この態様の好ましい適用例は、例えば、図 25に示されるように、注目画素に対応す る補正係数に対して、乗算加算処理部 613にて注目画素の輝度値に所定の重み付 けを乗じたものを加算することにより調整を行う撮像装置である。
[0076] 本発明の第 3の態様にお 、て、前記補正係数群調整手段は、前記縮小画像信号 から輝度信号を取得する輝度信号取得手段と、前記輝度信号から注目画素と該注 目画素の近傍画素を含む所定サイズの注目領域に対応する画素値を抽出する画像 信号抽出手段と、前記補正係数算出手段により作成された前記縮小補正係数群か ら前記注目領域に対応する補正係数を抽出する補正係数抽出手段と、前記画像信 号抽出手段により抽出された前記注目領域における画素の空間的距離関数と、前 記注目領域を構成する各画素値の差分関数とを用いて、前記補正係数抽出手段に より抽出された前記注目画素に対応する補正係数を調整する調整手段とを具備する ことが好ましい。
[0077] この態様によれば、輝度信号取得手段にて縮小画像信号から輝度信号が取得さ れ、画像信号抽出手段にて、該輝度信号から注目画素と該注目画素の近傍画素を 含む所定サイズの注目領域に対応する画素値が抽出される。一方、補正係数抽出 手段にて、補正係数算出手段により作成された縮小補正係数群から該注目領域に 対応する補正係数が抽出される。そして、画像信号抽出手段により抽出された注目 領域における画素の空間的距離関数と、該注目領域を構成する各画素値の差分関 数 (輝度値の差分関数)とを用いて、該注目画素に対応する補正係数が調整される。 例えば、該注目画素に対応する補正係数に対して、注目領域の空間的距離と、注目 領域を構成する各画素の輝度値の差分を考慮したフィルタ処理を行う。
[0078] このような調整が行われることにより、エッジ部を考慮した平滑ィ匕処理を行うことが可 能となり、エッジ部の構造情報を残した調整を行うことができる。これにより、スペース ノ リアントな階調変換処理を行った後の画像を、より自然な画像にすることが可能と なる。 [0079] この態様を後述する実施形態に具体的に対応付けて説明すると、次の通りである。 すなわち、この態様に対応する実施形態は、第 6の実施形態であり、この態様の構成 要素である画像信号抽出手段には、例えば、図 29に示される画像信号抽出部 711 が該当する。補正係数抽出手段には、例えば、図 29に示される補正係数抽出部 71 0が該当する。調整手段には、例えば、図 29に示されるフィルタ処理部 713が該当 する。
[0080] この態様の好ましい適用例は、例えば、図 29に示されるように、画像信号抽出部 7 11にて注目画素ならびに近傍画素力 なる所定サイズの注目領域を抽出し、一方、 補正係数抽出部 710にて、該注目領域に対応する補正係数を抽出し、フィルタ処理 部 713にて、抽出した補正係数をもとに、注目領域の空間的距離関数と、注目領域 を構成する各画素の輝度値の差分関数により重み付けを行ったフィルタ処理を実施 することにより、第一の補正係数群の調整を行う撮像装置である。
[0081] 上記説明において、各発明の構成要素と実施形態における具体的構成要素とを 対応付けて説明してきた力 これらは、あくまでも一例を示したものであり、この発明 の解釈を何ら限定するものではな 、。
[0082] 本発明の第 4の態様は、撮像素子からの画像信号に対して、該画像信号で表され る画像の領域毎に階調変換処理を実行するための画像処理プログラムであって、前 記撮像素子からの画像信号に対し画像処理を行う第 1のステップと、前記画像処理 が施された前記画像信号を取得して、複数の画素それぞれに対応する複数の補正 係数からなる第一の補正係数群を前記領域毎に作成する第 2のステップと、前記撮 像素子からの画像信号又は前記画像処理が施された後の画像信号の特徴を用いて 、前記第一の補正係数群を調整することにより、第二の補正係数群を作成する第 3の ステップと、前記第二の補正係数群を用いて、前記領域毎に階調変換処理を行う第 4のステップとをコンピュータに実行させるための画像処理プログラムである。
[0083] 本発明の第 4の態様において、前記第 2のステップは、前記画像処理が施された後 の画像信号を所定の縮小率で縮小し、縮小画像信号を生成するステップと、前記縮 小画像信号を用いて前記第一の補正係数群を作成するステップとを有することが好 ましい。 [0084] 本発明の第 4の態様において、前記第 3のステップは、前記第一の補正係数群から 注目画素に対応する補正係数と、該注目画素の近傍画素に対応する補正係数とを 抽出するステップと、抽出された前記補正係数を用いて、前記第一の補正係数群に 対してフィルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記第一の 補正係数群を調整するステップとを有することが好ましい。
[0085] 本発明の第 4の態様において、前記第 3のステップは、前記第一の補正係数群から 注目画素に対応する補正係数と該注目画素の近傍画素に対応する補正係数とを抽 出するステップと、抽出された前記補正係数を用いて、前記第一の補正係数群に対 してフィルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記第一の補 正係数群を調整するステップとを有することが好ましい。
[0086] 本発明の第 4の態様にぉ 、て、前記第 3のステップは、前記画像処理が施された後 の画像信号から輝度信号を取得するステップと、取得した前記輝度信号に基づ 、て 、前記第一の補正係数群を調整するステップとを有することが好まし ヽ。
[0087] 本発明の第 5の態様は、画像信号に対して、該画像信号で表される画像の領域毎 に階調変換処理を実行するための画像処理プログラムであって、前記画像信号に対 し画像処理を行う第 1のステップと、前記画像処理が施された後の画像信号を所定の 縮小率で縮小し、縮小画像信号を生成する第 2のステップと、前記縮小画像信号に おける複数の画素それぞれに対応する複数の縮小補正係数からなる縮小補正係数 群を作成する第 3のステップと、前記縮小画像信号の特徴を用いて前記縮小補正係 数群を調整して、調整後の補正係数群を作成し、前記縮小率による縮小を打ち消す ように前記調整後の補正係数群を拡大することにより、縮小前の画像信号に対応す る最終補正係数群を作成する第 4のステップと、前記最終補正係数群を用いて、前 記領域毎に階調変換処理を行う第 5のステップとをコンピュータに実行させるための 画像処理プログラムである。
[0088] 本発明の第 5の態様において、前記第 4のステップは、前記縮小補正係数群から 注目画素に対応する補正係数と該注目画素の近傍画素に対応する補正係数とを抽 出するステップと、抽出された前記補正係数を用いて、前記縮小補正係数群に対し てフィルタ処理を行うことで、前記縮小補正係数群を調整するステップとを有すること が好ましい。
[0089] 本発明の第 5の態様において、前記第 4のステップは、前記縮小補正係数群から 注目画素に対応する補正係数と該注目画素の近傍画素に対応する補正係数とを抽 出するステップと、抽出された前記補正係数を用いて、前記縮小補正係数群に対し てフィルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記縮小補正係 数群を調整するステップとを有することが好まし 、。
[0090] 本発明の第 5の態様において、前記第 4のステップは、前記縮小画像信号から輝 度信号を取得するステップと、取得した前記輝度信号に基づいて、前記縮小補正係 数群を調整するステップとを有することが好ま 、。
[0091] 本発明によれば、画像信号全体で輝度勾配の不自然な強調を抑制することができ るという効果を奏する。
図面の簡単な説明
[0092] [図 1]本発明の第 1の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
[図 2]図 1に示したエッジ強調処理部の概略構成を示すブロック図である。
[図 3]エッジ強調処理において参照される入力エッジ成分とエッジ補正係数とを関係 付けるテーブルの一例を示した図である。
[図 4]図 1に示したコントラスト算出処理部の概略構成を示すブロック図である。
[図 5]図 1に示した補正係数群算出部の概略構成を示すブロック図である。
[図 6]図 1に示した補正係数群調整部の概略構成を示すブロック図である。
[図 7]本発明の第 1の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 8]本発明の第 1の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 9]図 7に示したエッジ強調処理の手順を示したフローチャートである。
[図 10]本発明の第 2の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
[図 11]図 10に示した補正係数群調整部の概略構成を示すブロック図である。 [図 12]本発明の第 2の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 13]本発明の第 2の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
圆 14]本発明の第 3の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
圆 15]図 14に示した補正係数群調整部の概略構成を示すブロック図である。
[図 16]本発明の第 3の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 17]本発明の第 3の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
圆 18]本発明の第 4の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
[図 19]図 18に示したエッジ強調処理部の概略構成を示すブロック図である。
圆 20]図 18に示した補正係数群算出部の概略構成を示すブロック図である。
圆 21]図 18に示した補正係数群調整部の概略構成を示すブロック図である。
[図 22]本発明の第 4の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 23]本発明の第 4の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
圆 24]本発明の第 5の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
圆 25]図 24に示した補正係数群調整部の概略構成を示すブロック図である。
[図 26]本発明の第 5の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 27]本発明の第 5の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
圆 28]本発明の第 6の実施形態に係るデジタルスチルカメラの概略構成を示すブロッ ク図である。
[図 29]図 28に示した補正係数群調整部の概略構成を示すブロック図である。
[図 30]本発明の第 6の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
[図 31]本発明の第 6の実施形態に係るデジタルスチルカメラにより実現される信号処 理の手順を示したフローチャートである。
発明を実施するための最良の形態
[0093] 以下、本発明に係る撮像装置をデジタルスチルカメラに適用した実施形態につい て、図面を参照して説明する。
第 1の実施形態
図 1は本発明の第 1の実施形態に係るデジタルスチルカメラの一構成例を示したブ ロック図である。図 1に示されるように、本実施形態に係るデジタルスチルカメラは、レ ンズ系 100、 CCD101、 AZD変換器 102、バッファ 103、 WB調整部 104、補間処 理部 105、 YZC分離部 106、エッジ強調処理部 107、コントラスト算出処理部 108、 補正係数群算出部 109、補正係数群調整部 110、階調変換部 111、圧縮部 112、 及び出力部 113を備えて構成されて 、る。
[0094] 図 1において、レンズ系 100及び CCD101が光軸に沿って配置されている。 CCD 101の出力信号は、 AZD変換器 102へ転送される。 AZD変換器 102の出力信号 は、バッファ 103を介して WB調整部 104へ転送される。 WB調整部 104の出力信号 は、エッジ強調処理部 107及び補間処理部 105へ転送される。補間処理部 105の出 力信号は、 YZC分離部 106へ転送される。 YZC分離部 106の出力信号は、エッジ 強調処理部 107へ転送される。エッジ強調処理部 107の出力信号は、コントラスト算 出処理部 108、補正係数群算出部 109、補正係数群調整部 110、及び階調変換部 111へ転送される。コントラスト算出処理部 108及び補正係数群算出部 109の出力 信号は、補正係数群調整部 110へ転送される。補正係数群調整部 110の出力信号 は、階調変換部 111へ転送される。階調変換部 111の出力信号は、圧縮部 112へ 転送される。圧縮部 112の出力信号は、メモリーカードなどの出力部 113へ転送され る。 [0095] 次に、上記信号の流れをより詳しく説明する。
図 1において、まず、図示しない外部 IZFを介して ISO感度などの撮影条件が設 定された後、レンズ系 100により結像された被写体像は、 CCD101により光学被写 体から電気信号に変換され、アナログ信号として出力される。なお、本実施形態にお いて CCD 101は、 Bayer型原色フィルタを前面に配置した単板 CCDを想定する。上 記アナログ信号は、 AZD変翻 102にてデジタル信号へ変換されてバッファ 103 へ転送される。なお、本実施形態例において AZD変翻102は 8bit階調でデジタ ル信号へ変換するものと想定する。
[0096] バッファ 103内の画像信号は、 WB調整部 104へ転送される。 WB調整部 104は、 撮影情報に基づ 、て、画像信号に対し所定の WB係数を乗算することで WB調整を 行う。 WB調整後の画像信号は、補間処理部 105及びエッジ強調処理部 107に転送 される。補間処理部 105は、 WB調整後の画像信号に対して補間処理を行う。補間 処理後の R、 G、 Bの各色の信号は、 YZC分離部 106に転送される。 YZC分離部 1 06は、下記の式(1)に基づき各色信号を輝度信号 Yと色差信号 Cとに分離する。
[0097] Y=0. 29900R+0. 58700G + 0. 11400B
Cb=— 0. 16874R-0. 33126G + 0. 50000B (1)
Cr=0. 50000R-0. 41869G— 0. 08131B
[0098] このようにして分離された輝度信号 Yと色差信号 Cとは、エッジ強調処理部 107に 転送される。エッジ強調処理部 107は、 WB調整部 104により WB調整がなされた R、 G、 Bの各色信号に対してフィルタ処理を行うことでエッジ成分を抽出し、更に、この エッジ成分を YZC分離部 106からの輝度信号 Yに対して加算することで、エッジ強 調処理を行う。エッジ強調処理された輝度信号 Yは、コントラスト算出処理部 108、補 正係数群算出部 109、及び階調変換部 111へ転送され、一方、色差信号 Cは、階調 変換部 111へ転送される。また、エッジ強調処理部 107は、抽出した上記エッジ成分 に基づいてエッジ補正係数を算出し、このエッジ補正係数を補正係数群調整部 110 へ転送する。
[0099] コントラスト算出処理部 108は、エッジ強調処理部 107からの輝度信号 Yに基づき コントラストを算出し、算出したコントラストを補正係数群調整部 110へ転送する。 補正係数群算出部 109は、処理の高速ィ匕を目的として、補正係数算出用に輝度信 号 Yから縮小画像信号を作成する。ここで、画像縮小手法は、公知の手法を用いるこ とができる。画像縮小手法としては、公知のダウンサンプリング手法等を用いる。なお 、縮小率を等倍に設定する場合は、縮小処理をキャンセルすることで補正係数算出 精度を重視するようにしても良 ヽ。
[0100] 次に、補正係数群算出部 109は、作成した縮小画像信号をもとに、注目画素を中 心とする所定サイズの局所領域を抽出する。そして、抽出した局所領域のヒストグラム に基づき階調変換曲線を設定し、変換曲線に基づく階調変換処理において各注目 画素に力かる補正係数を求める。
本実施形態において、このように求められた局所領域内の各注目画素に対応する 1群の補正係数は、各局所領域に対応する補正係数群として扱われる。補正係数群 算出部 109は、更に、縮小画像信号の各画素に対応する補正係数から構成される 補正係数群に対して、公知の画像拡大手法を用いた拡大処理を行う。この際に、補 正係数群算出部 109は、縮小信号を作成したときの縮小率に基づいて、この縮小率 による縮小を打ち消すように拡大処理を行う。この拡大処理により縮小前の輝度信号 Y (原画像)の画像サイズに対応する補正係数群を算出する。すなわち、拡大処理に よって原画像の各画素に対応する補正係数の群で構成される補正係数群 (本実施 形態において、以下、これを「第一の補正係数群」という。)を算出し、記録する。この ようにして算出された第一の補正係数群は、補正係数群調整部 110へ転送される。
[0101] 補正係数群調整部 110は、原画像上の注目画素を中心とする所定サイズの局所 領域内の画素に対応する補正係数を第一の補正係数群力 抽出し、抽出した補正 係数、エッジ強調処理部 107より転送されたエッジ補正係数、並びにコントラスト算出 処理部 108より転送されたコントラストに基づいて、所定の重み係数を調整する。そし て、調整後の重み係数を用いてフィルタ処理を行い、注目画素に対応する補正係数 を調整する。そして、補正係数群調整部 110は、各注目画素についての調整後の補 正係数の群で構成される補正係数群 (本実施形態において、以下、これを「第二の 補正係数群」という。)を作成し、この第二の補正係数群を階調変換部 111に転送す る。 [0102] 階調変換部 111は、エッジ強調処理部 107から転送された輝度信号 Y及び色差信 号 Cに対して、補正係数群調整部 110から転送された第二の補正係数群における補 正係数を乗算することで階調変換処理を行う。ここで、階調変換後の信号レベルが 規定のレベルを超える場合は、クリッピング処理によりレベルが規定範囲内に収まる よう補正する。このようにして、階調変換処理が施された輝度信号 Υ及び色差信号 C とは、圧縮部 112へ転送される。圧縮部 112は、以下の式(2)を用いて、階調変換後 の画像信号を RGB信号に変換した後、この RGB信号に公知の圧縮処理などを行 ヽ 、出力部 113へ転送する。
[0103] R=Y+ 1. 40200Cr
G=Y— 0. 34414Cb-0. 71414Cr (2)
B=Y+ 1. 77200Cb
出力部 111は、メモリーカードなどへ画像信号を記録保存する。
[0104] 次に、上述のエッジ強調処理部 107について、図を参照して詳しく説明する。
図 2は、エッジ強調処理部 107の概略構成を示すブロック図である。この図に示す ように、輝度信号算出部 120、ノッファ 121、フィルタ用 ROM122、フィルタ処理部 1 23、エッジ補正係数算出用 ROM 124、エッジ補正係数算出部 125、エッジ補正係 数マップ用バッファ 126、及びエッジ強調部 127を備えて構成されている。
[0105] 図 2において、 WB調整部 104からの出力信号は、エッジ強調処理部 107内の輝 度信号算出部 120に転送される。輝度信号算出部 120の出力信号は、バッファ 121 へ転送される。フィルタ用 ROM122及びバッファ 121の出力信号は、フィルタ処理部 123へ転送される。フィルタ処理部 123の出力信号は、エッジ補正係数算出部 125 及びエッジ強調部 127へ転送される。
[0106] また、 YZC分離部 106の出力信号は、エッジ強調部 127へ転送される。エッジ強 調部 127の出力信号は、補正係数群算出部 109と階調変換部 111へ転送される。 エッジ補正係数算出用 ROM 124の出力信号は、エッジ補正係数算出部 125へ転 送される。エッジ補正係数算出部 125の出力信号は、エッジ補正係数マップ用バッフ ァ 126へ転送される。エッジ補正係数マップ用バッファ 126の出力信号は、補正係数 群調整部 110へ転送される。 [0107] 以下、上記各部において行われる処理内容について具体的に説明する。
まず、輝度信号算出部 120は、 WB調整部 104から転送されてきた WB調整後の画 像信号を画素単位で読み出し、上記式(1)に従い輝度信号を算出し、これをバッファ 121へ転送する。
フィルタ処理部 123は、始めにフィルタ用 ROM 122から公知のエッジ成分抽出— フィルタ処理に要する空間フィルタを読み出す。例えば 5 X 5画素サイズのフィルタで ある場合はバッファ 121より 5 X 5画素単位の局所領域を読み出し、上記空間フィル タを用いてエッジ成分を求め、これをエッジ補正係数算出部 125及びエッジ強調部 1 27へ転送する。
[0108] エッジ強調部 127は、 YZC分離部 106において上記式(1)に従い変換された輝 度信号 Yから所定サイズの局所領域を抽出し、輝度信号 Yに対してフィルタ処理部 1 23からのエッジ成分を加算して、エッジ強調処理を行う。エッジ強調後の輝度信号 Y は、補正係数群算出部 109及び階調変換部 111へ転送され、色差信号 Cは階調変 換部 111へ転送される。
[0109] 一方、エッジ補正係数算出部 125は、始めに、エッジ補正係数算出用 ROM 124か らエッジを補正する関数またはテーブルを読み出す。ここで、エッジ補正係数用 RO M124には、例えば、図 3に示されるような入力エッジ成分とエッジ補正係数を関係 付ける関数またはテーブルが記憶されて 、る。
いま、変換曲線を f 0、注目画素 Px, yの入力エッジ成分を Ex, y,注目画素 Px, y のエッジ補正係数を Cedge :x, yとすると、エッジ補正係数 Cedge :x, yは、以下の式 (3)で与えられる。
[0110] Cedge :x, y=f (Ex, y) (3)
[0111] エッジ補正係数算出部 125は、エッジ補正係数用 ROM124から読み出した関数ま たはテーブルの値に基づいてエッジ補正係数 Cedge :x, yを算出する。算出したェ ッジ補正係数 Cedge :x, yは、エッジ補正係数マップ用バッファ 126へ転送される。こ れにより、エッジ補正係数マップ用バッファ 126には、原画像上の各画素にそれぞれ 対応するエッジ補正係数 Cedgeが記録され、後段のノイズ低減処理の際に利用され る。 なお、上記補間の手法としては、例えば、ユアレストネイバ一補間、ノ ィリニア補間、 ノ ィキュービック補間等が一例として挙げられる。
[0112] 次に、図 1に示したコントラスト算出処理部 108について、図を参照して詳しく説明 する。
図 4は、コントラスト算出処理部 108の概略構成を示すブロック図である。この図に 示すように、コントラスト算出処理部 108は、画像信号抽出部 130、輝度最大値最小 値取得部 132、及びコントラスト算出部 133を備えて構成されて 、る。
[0113] 図 4において、エッジ強調処理部 107からの出力信号は、画像信号抽出部 130に 転送される。画像信号抽出部 130の出力信号は、バッファ 131へ転送される。バッフ ァ 131の出力信号は、輝度最大値最小値取得部 132へ転送される。輝度最大値最 小値取得部 132の出力信号は、コントラスト算出部 133へ転送される。コントラスト算 出部 133の出力信号は、補正係数群調整部 110へ転送される。
[0114] 以下、上記各部において行われる処理内容について具体的に説明する。
まず、画像信号抽出部 130は、エッジ強調処理部 107から転送されてきたエッジ強 調がなされた画像信号、すなわち輝度信号 Yを画素単位で読み出し、バッファ 131 へ転送する。
[0115] 輝度最大値最小値算出部 132は、ノ ッファ 131上の輝度信号 Yに含まれる輝度値 を読み出し、前後の輝度値を順次比較することで、輝度値の最大値 (以下、「輝度最 大値 Imax」 t ヽぅ。)及び最小値 (以下、「輝度最小値 Imin」 t ヽぅ。)を取得し、取得 した輝度最大値 Imax及び最小値 Iminをコントラスト算出部 133へ転送する。
[0116] コントラスト算出部 133は、取得した輝度最大値 Imax及び輝度最小値 Iminを用い 、以下の (4)式に従い、領域毎に、コントラスト Ccontを算出する。なお、ここでいぅ領 域は、後述の抽出部 142により抽出される縮小画像における局所領域に対応する領 域である。
Ccont = (Imax― Imin) / (Imax + Imin) (4)
このようにして算出されたコントラスト Ccontは、補正係数群調整部 110へ転送され 、後段の補正係数の調整にて利用される。
[0117] 次に、図 1に示した補正係数群算出部 109について、図を参照して詳しく説明する 図 5は、補正係数群算出部 109の概略構成を示すブロック図である。この図に示す ように、補正係数群算出部 109は、縮小率設定部 140、縮小画像生成部 141、抽出 部 142、ヒストグラム算出部 143、累積正規化部 144、補正係数算出部 145、拡大補 間部 146、及び補正係数マップ用バッファ 147を備えて構成されている。
[0118] 図 5において、エッジ強調処理部 107からの出力信号は、縮小画像生成部 141へ 転送される。縮小画像生成部 141の出力信号は、抽出部 142へ転送される。抽出部 142の出力信号は、ヒストグラム算出部 143へ転送される。ヒストグラム算出部 143の 出力信号は、累積正規化部 144へ転送される。累積正規化部 144の出力信号は、 補正係数算出部 145へ転送される。補正係数算出部 145の出力信号は、拡大補間 部 146へ転送される。拡大補間部 146の出力信号は、補正係数マップ用バッファ 14 7へ転送される。また縮小率設定部 140の出力信号は、縮小画像生成部 141及び拡 大補間部 146へ転送される。
[0119] 以下、上記各部において行われる処理内容について具体的に説明する。
まず、縮小画像生成部 141は、縮小率設定部 140で設定された縮小率に基づき、 エッジ強調処理部 107から転送されてきた輝度信号 Yから縮小画像信号を作成し、 作成した縮小画像信号を抽出部 142へ転送する。すなわち、縮小画像生成部 141 は、エッジ強調処理部 107からの輝度信号 Yで表される画像のサイズを縮小した画 像を表す縮小画像信号を生成する。ここでの画像縮小手法は、例えば、公知のダウ ンサンプリング手法を用いる。
[0120] 抽出部 142は、縮小画像生成部で作成された縮小画像信号から局所領域の信号 を抽出し、ヒストグラム算出部 143へ転送する。ヒストグラム算出部 143は、局所領域 ごとにヒストグラムを作成し、累積正規化部 144へ転送する。累積正規ィ匕部 144は、ヒ ストグラムを累積することで累積ヒストグラムを作成し、これを階調幅にあわせて正規 化することで階調変換曲線を生成し、補正係数群算出部 145へ転送する。補正係数 群算出部 145は、累積正規ィ匕部 144からの階調変換曲線に基づいて、各領域の画 素それぞれに対する階調変換に係る補正係数を算出する。
いま、階調変換曲線を t ()、注目画素の入力信号レベルを AVc、階調変換処理に おける各注目画素の補正係数を gとすると、補正係数は、以下の式(5)で与えられる [0121] g=t (AVc) /AVc (5)
[0122] 以上のように算出した補正係数 gは、縮小画像の画素に対応するものである。そこ で、補正係数 gから構成される補正係数群を縮小前の原画像の画素に対応させるた めに、補正係数群算出部 145は、算出した補正係数 gカゝらなる補正係数群を拡大補 間部 146へ転送する。
局所領域内の各注目画素に対応する補正係数 gから構成される補正係数群は、各 画素に対する画素値で定められる画像信号と同様に扱うことができる。従って、画像 の拡大や縮小と同様の手法で、補正係数群の拡大や縮小も行うことができる。そこで 、拡大補間部 146は、補正係数 gカゝらなる補正係数群に対して、補正係数 gに対応す る画素の空間的位置関係に基づき、公知の画像拡大手法 (例えば、二アレストネイバ 一補間、ノ ィリニア補間、ノ ィキュービック補間など)を用いた拡大処理を行う。この 際に、拡大補間部 146は、原画像から縮小画像を作成したときの縮小率に基づいて 、この縮小率による縮小を打ち消すように拡大処理を行う。この拡大処理により、縮小 前の輝度信号 Y (原画像)の各画素に対応する補正係数から構成される第一の補正 係数群を算出する。
算出された第一の補正係数群は、補正係数マップ用バッファ 147へ転送され、記 録される。補正係数マップ用バッファ 147へ記録された第一の補正係数群は、後段 の補正係数群調整部 110にて調整された後、階調変換部 111における階調変換処 理の際に利用される。
[0123] 次に、図 1に示した補正係数群調整部 110について、図を参照して詳しく説明する 図 6は、補正係数群調整部 110の概略構成を示すブロック図である。この図に示す ように、補正係数群調整部 110は、補正係数抽出部 150、フィルタ用 ROM151、重 み係数用 ROM152、重み係数調整部 153、及びフィルタ処理部 154を備えて構成 されている。
[0124] 図 6において、補正係数群算出部 109からの信号は、補正係数抽出部 150へ転送 される。一方、エッジ強調処理部 107及びコントラスト算出処理部 108からの信号は、 重み係数調整部 153に転送される。重み係数用 ROM152は、重み係数調整部 153 に接続されている。補正係数抽出部 150及び重み係数調整部 153からの信号は、フ ィルタ処理部 154へ転送される。また、フィルタ処理部 154はフィルタ用 ROM151に 接続されている。フィルタ処理部 154の出力信号は、階調変換部 111へ転送される。
[0125] 以下、上記各部において行われる処理内容について具体的に説明する。
まず、補正係数抽出部 150は、補正係数群算出部 109内の補正係数マップ用バッ ファ 147 (図 5参照)に記録されている原画像の各画素に対応する補正係数から構成 される第一の補正係数群から、原画像上の注目画素と注目画素の近傍画素を含む 所定サイズの局所領域内の画素に対応する補正係数を読み出し、フィルタ処理部 1 54へ転送する。このとき、補正係数抽出部 150は、後段のフィルタ処理部 154により 用いられるフィルタのサイズに応じて、読み出す画素数を決定する。例えば、 5 X 5画 素サイズのフィルタである場合は、 5 X 5画素単位で局所領域内画素に対応する補 正係数を読み出す。
[0126] 一方、重み係数調整部 153は、重み係数用 ROM152から読み出した重み係数 W f、エッジ強調処理部 107より取得したエッジ補正係数 Cedge、及びコントラスト算出 処理部 108より取得したコントラスト Ccontを用いて、以下の式(6)に基づいて、最終 的な重み係数 W1を算出する。
Wl =Wf * Cedge * Ccont (6)
重ね係数調整部 153は、算出した重み係数 W1をフィルタ処理部 154へ出力する。 なお、重み係数 W1の算出式は、上記(6)式に限られず、例えば、 Wf、 Cedge、 Cc ontを用いたその他の演算式とすることもできる。また、 Cedge、 Ccontのいずれか一 方のみを用いた演算式とすることも可能である。更に、 Wl =Wfとしても良い。また、 Wfについては、複数の Wfを ROM 152に登録しておき、これらの中からユーザから の指示に基づ 、て選択した値を用いるようにしてもょ 、。
[0127] フィルタ処理部 154は、フィルタ ROM151から公知の平滑化フィルタ処理に要する 平滑ィ匕フィルタを読み出し、補正係数抽出部 150からの補正係数に対して、平滑ィ匕 フィルタを用いて演算することにより、補正係数群の平滑ィ匕を行って、注目画素に対 応する平滑処理された補正係数を算出する。
[0128] 続いて、フィルタ処理部 154は、重み係数調整部 153から取得した重み係数 W1を 平滑ィ匕前の補正係数 Pnrmと平滑ィ匕後の補正係数 Pfilの混合比率とし、以下の式( 7)に従う計算を行うことにより、補正係数を調整して、最終的な補正係数 P1を算出す る。
Pl = Pnrm * (1— Wl) +Pfil*Wl (7)
なお、 P1の算出式は、上記(7)式に限られず、 Wf、 Pfilを用いたその他の演算式 とすることちでさる。
[0129] フィルタ処理部 154は、上記式(7)を用いて、各注目画素に対する補正係数 P1を 算出すると、補正係数 P1から構成される第二の補正係数群を階調変換部 111へ出 力する。階調変換部 111は、フィルタ処理部 154から取得した補正係数 P1を輝度信 号 Y及び色差信号 Cの各画素値に対して乗算することで、階調変換処理を行う。
[0130] 以上、説明してきたように、本実施形態に係るデジタルスチルカメラによれば、補正 係数調整部 110では、補正係数算出部 109により算出された第一の補正係数群の 補正係数をフィルタ処理することにより、平滑化する。そして、平滑化後の補正係数と 重み係数を用いた演算により、最終的な補正係数を各画素に対して求める。各画素 に対応する最終的な補正係数から構成される第二の補正係数群は、階調変換部 11 1へ出力され、階調変換に用いられる。
このように、階調変換において、平滑化された補正係数を用いることにより、従来、 スペースノ リアントな階調変換処理を行った際に生じていた平坦部における輝度勾 配の不自然な強調を抑制することができる。
なお、上述の実施形態では、フィルタ処理部 154において平滑ィ匕フィルタを用いて 平滑化処理を行ったが、フィルタの設定を変更することで、その他のフィルタ処理を 適用することも可能である。例えば、鮮鋭ィ匕フィルタを適用することによりエッジの傾 斜を強調することで、相対的に平坦部の勾配を目立たなくすることができる。
[0131] また、上述の実施形態においては、 CCD101は、 Bayer型原色フィルタを前面に 配置した単板 CCDを想定した力 このような構成に限定される必要はない。例えば、 色差線順次型補色フィルタや二板,三板 CCDを適用することが可能である。 [0132] 更に、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD101からの信号を未処理のままの Raw データとして、外部 IZFから入力された ISO感度などの撮影情報をヘッダ情報として 出力し、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトゥ エア処理について、図 7を参照して説明する。
[0133] 図 7及び図 8は、本発明の第 1の実施形態に係るデジタルスチルカメラにて実行さ れる信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。各 処理ステップでは、図 1に示した各構成で行われる上述の処理と同様の処理を行う。
Steplにて、信号、 ISO感度などの撮影情報を含むヘッダ情報を読み出す。 Step 2にて、 WB調整、色補間、 YZC分離等の信号処理を行う。 Step3にて、エッジ強調 処理を行うとともに、エッジ補正係数や、コントラストの算出を行う。 Step4にて、補正 係数算出用の縮小画像を作成する。
[0134] Step5にて、 Step4にて作成した縮小画像カゝら所定サイズの局所領域を抽出し、 S tep6にて、ヒストグラム作成処理を行う。続く Step7にて、 Step5で作成されたヒストグ ラムを累積し、正規化処理を行う。 Step8にて、累積ヒストグラムに基づいて階調変換 曲線を設定し、作成した階調変換曲線に基づいて各画素に対する補正係数を算出 する。そして、 Step9にて、全領域の抽出が完了したかを判断し、完了している場合 は SteplOへ、完了して!/、な 、場合は Step5へ移行する。
[0135] SteplOにて、縮小画像信号に対する補正係数を元に、原画像信号の対応する画 素に対する補正係数を算出し記録する。 Stepl lにて、例えば、 5 X 5画素サイズの 局所領域内の画素値を抽出し、 Stepl2にて、 Stepl lで抽出した局所領域内の画 素に対応する補正係数を抽出する。 Stepl3にて、上記式(3)、(4)、(6)に基づき、 重み係数を算出する。 Stepl4にて、 Stepl 1、 Stepl2、及び Step 13における画素 値、補正係数、重み係数を用いて補正係数群の平滑化処理を行う。
[0136] Stepl5にて、全領域の抽出が完了したかを判断し、完了している場合は Stepl6 へ、完了していない場合は Stepl lへ移行する。 Stepl6にて、上記 Step3でエッジ 強調された画像信号に対し、補正係数群を乗算する。 Stepl7にて、公知の信号圧 縮技術を用いて信号圧縮を行い、 Stepl8にて、処理後の信号が出力され処理を終 了する。
[0137] 図 9は、上記 Step3において行われるエッジ強調処理に関する処理手順を示した フローチャートである。
まず、 Stepl9にて、画像信号が転送される。 Step20にて、画像信号から局所領 域を抽出する。 Step21にて、フィルタ処理によりエッジ成分を抽出する。 Step22に て、上記式(3)に基づき、エッジ成分力もエッジ補正係数を算出する。 Step23にて、 エッジ成分に基づきエッジ強調を行う。 Step24にて、全領域の抽出が完了したかを 判断し、完了していない場合は Step20へ、完了した場合は Step25へ移行する。 St ep25にて、エッジ強調処理済みの画像信号を出力し、本処理を終了する。
[0138] 第 2の実施形態
次に、本発明の第 2の実施形態に係るデジタルスチルカメラについて図を参照して 説明する。
上述した第 1の実施形態では、最終的な補正係数群である第二の補正係数群を求 める際に、元の補正係数群、つまり、第一の補正係数群に平滑ィ匕フィルタをかけた平 滑化後の補正係数群と、第一の補正係数群とに重み係数を乗算し、これらを加算す ることにより、第二の補正係数群を構成する補正係数 P1を算出していた。これに対し て、本実施形態においては、第一の補正係数群に対して輝度値を用いることにより、 最終的な補正係数 P2を求める。
[0139] 以下、本実施形態のデジタルスチルカメラについて、第 1の実施形態と共通する点 については説明を省略し、異なる点についてのみ説明する。なお、第 1の実施形態と 同一の構成には、同一の名称と番号を割り当てている。
[0140] 図 10は、本発明の第 2の実施形態に係るデジタルスチルカメラの概略構成を示す ブロック図である。
図 10に示すように、本実施形態に係るデジタルスチルカメラは、図 1に示した補正 係数群調整部 110 (図 1参照)に代えて補正係数群調整部 200を備え、また、エッジ 強調処理部 107の出力信号が、補正係数群算出部 109、補正係数群調整部 200、 及び階調変換部 111へ転送される構成をとる。
[0141] 次に、本実施形態に係る補正係数群調整部 200について、図を参照して具体的に 説明する。
図 11は、本実施形態に係る補正係数群調整部 200の概略構成を示すブロック図 である。この図に示すように、補正係数群調整部 200は、補正係数抽出部 210、重 み係数用 ROM211、重み係数調整部 212、画像信号抽出部 213、及び乗算加算 処理部 214を備えて構成されている。
[0142] 図 11において、補正係数群算出部 109からの信号は、補正係数抽出部 210に転 送される。エッジ強調処理部 107からの信号は、重み係数調整部 212及び画像信号 抽出部 213へ転送される。コントラスト算出処理部 108からの信号は、重み係数調整 部 212へ転送される。重み係数用 ROM211は、重み係数調整部 212に接続されて いる。補正係数抽出部 210、画像信号抽出部 213の出力は、乗算加算処理部 214 へ転送される。乗算加算処理部 214の出力は、階調変換部 111へ転送される。
[0143] 以下、上記各部において行われる処理内容について具体的に説明する。
補正係数抽出部 210は、補正係数群算出部 109内の補正係数マップ用バッファ 1 47 (図 5参照)に記録されている原画像上の各画素に対応する補正係数からなる補 正係数群 (本実施形態において、以下、これを「第一の補正係数」という。)から、原 画像上の注目画素に対応する補正係数を読み出し、乗算加算処理部 214へ転送す る。
[0144] 画像信号抽出部 213は、エッジ強調処理部 107から取得した輝度信号 Yから注目 画素の輝度値を読み出し、乗算加算処理部 214へ転送する。
重み係数調整部 212は、重み係数用 ROM211から予め登録されている重み係数
Wabを読み出し、この重み係数 Wab、エッジ強調処理部 107より取得したエッジ補正 係数 Cedge、及びコントラスト算出処理部 108より取得したコントラスト Ccontを用い て、以下の式 (8)により、最終的な重み係数 W2を算出する。
[0145] W2=Wab * Cedge * Ccont (8)
[0146] なお、重み係数 W2の算出式は、上記(8)式に限られず、例えば、 Wab、 Cedge、 Ccontを用いたその他の演算式とすることもできる。また、 Cedge、 Ccontのいずれ か一方のみを用いた演算式とすることも可能である。更に、 W2=Wabとしても良い。 また、 Wabについては、複数の Wabを重み係数用 ROM211に登録しておき、これら の中から、ユーザの指示に基づ 、て選択した値を用いるようにしてもょ 、。
重み係数調整部 212は、最終的な重み係数 W2を算出すると、これを乗算加算処 理部 214へ転送する。
乗算加算処理部 214は、補正係数抽出部 210により抽出された注目画素に対応 する補正係数 Pr、重み係数調整部 212から取得した最終的な重み係数 W2、及び 画像信号抽出部 213により抽出された注目画素の輝度値 Lpを用いて、以下の(9) 式に従い、補正係数算出部 109にて算出された補正係数を調整し、最終的な補正 係数 P2を算出する。
[0147] P2 = Pr*W2 * Lp (9)
ただし、式 (9)における W2は、適当な上限値、下限値を設定しクリップする。
乗算加算処理部 214にて算出された補正係数 P2から構成される補正係数群 (本 実施形態において、以下、これを「第二の補正係数群」という。)は、階調変換部 111 に転送され、輝度信号 Y、色差信号 Cに対して乗算されることにより、階調変換処理 が実施される。
[0148] なお、上記補正係数 Ρ2は、以下の(10)式に示すように、注目画素の輝度値 Lpに 最終的な重み係数 W2を乗じた値を、該注目画素に対応する補正係数 Prに加えるこ とにより、求めるようにしてもよ 、。
P2 = Pr+W2 * Lp (10)
なお、 P2の算出式は、上記(9)式や、(10)式に限られず、 Pr、 W2、 Lpを用いたそ の他の演算式とすることもできる。また、輝度値 Lpの変わりに、濃淡値、階調値、強度 値とよばれる種々の画像値を用 、るようにしても良!、。
[0149] 以上、説明してきたように、本実施形態に係るデジタルスチルカメラによれば、補正 係数調整部 200では、補正係数算出部 109により算出された第一の補正係数群の 補正係数と、輝度信号と、重み係数とを用いた演算 (乗算や加算など)を行うことによ り、補正係数を調整し、この調整後の補正係数から構成される第二の補正係数群を 階調変換部 111へ出力する。そして、このように求められた第二の補正係数群を用 いて、スペースノ リアントな階調変換処理を行うことにより、従来、スペースバリアント な階調変換処理を行った際に生じていた平坦部における輝度勾配の不自然な強調 を抑制することができる。
[0150] なお、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD力 の信号を未処理のままの Rawデー タとして、外部 IZFから入力された ISO感度など撮影情報をヘッダ情報として出力し 、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトウェア処 理について、図 12及び図 13を参照して説明する。
[0151] 図 12及び図 13は、本発明の第 2の実施形態に係るデジタルスチルカメラにて実行 される信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。 この図において、上述した第 1の実施形態と同様の処理については、同一のステップ 数を付している。各処理ステップでは、図 10に示した各構成で行われる上述の処理 と同様の処理を行う。
[0152] 図 12及び図 13に示すように、 Stepl乃至 SteplOにおいては、図 7及び図 8に示し た処理と同様である。 SteplOに続く Step26では、画像信号より注目画素の画素値 を抽出する。続いて、 Step27にて、 Step26で抽出した注目画素に対応する補正係 数を抽出する。 Step28にて、上記(3)式、(4)式、及び (8)に基づき、最終的な重み 係数 W2を算出する。 Step29にて、 Step28における最終的な重み係数 W2に基づ いて Step26及び Step27で抽出した画素値、補正係数を用いて、式(9)あるいは式 (10)に従って演算処理することにより、最終的な補正係数 P2を算出する。そして、 上述した第 1の実施形態と同様に、 Stepl6乃至 Stepl8を経て、本処理を終了する
[0153] 第 3の実施形態
次に、本発明の第 3の実施形態に係るデジタルスチルカメラについて図を参照して 説明する。
上述した第 1の実施形態では、最終的な補正係数群である第二の補正係数群を求 める際に、元の補正係数群、つまり第一の補正係数群に重み係数を乗算したものと、 第一の補正係数群に平滑ィ匕フィルタをかけた平滑ィ匕後の補正係数群に重み係数を 乗算したものとを加算することにより、第二の補正係数群を構成する各補正係数 P1 を算出していた。これに対して、本実施形態においては、第一の補正係数群に対し て、原画像信号の輝度値をパラメータとしたバイラテラルフィルタを施すことにより、第 一の補正係数群に対する平滑化を行い、最終的な補正係数 P3を求め、この補正係 数 P3により第二の補正係数群を作成する。
[0154] 以下、本実施形態のデジタルスチルカメラにっ 、て、第 1の実施形態と共通する点 については説明を省略し、異なる点についてのみ説明する。なお、第 1の実施形態と 同一の構成には、同一の名称と番号を割り当てている。
図 14は、本発明の第 3の実施形態に係るデジタルスチルカメラの概略構成を示す ブロック図である。
[0155] 図 14に示すように、本実施形態に係るデジタルスチルカメラは、図 1に示した第 1の 実施形態に係るデジタルスチルカメラと略同一の構成を備えるが、補正係数群調整 部 110 (図 1参照)に代えて補正係数群調整部 300を備える点、また、エッジ強調処 理部 107の出力信号が、補正係数群算出部 109、補正係数群調整部 300、及び階 調変換部 111へ転送される構成をとる点について異なる。
[0156] 次に、本実施形態に係る補正係数群調整部 300について、図を参照して具体的に 説明する。
図 15は、本実施形態に係る補正係数群調整部 300の概略構成を示すブロック図 である。この図に示すように、補正係数群調整部 300は、補正係数抽出部 310、フィ ルタ用 ROM311、画像信号抽出部 312、及びフィルタ処理部 313を備えて構成され ている。
[0157] 図 15において、補正係数群算出部 109からの信号は、補正係数抽出部 310に転 送される。エッジ強調処理部 107からの信号は、画像信号抽出部 312へ転送される 。画像信号抽出部 312からの信号は、フィルタ処理部 313へ出力される。フィルタ処 理部 313はフィルタ用 ROM311に接続されて!、る。フィルタ処理部 313の出力は、 階調変換部 111へ転送される。
[0158] 以下、上記各部において行われる処理内容について具体的に説明する。
画像信号抽出部 312は、エッジ強調処理部 107より転送された輝度信号 Yから、注 目画素と注目画素の近傍画素からなる注目領域の輝度値を読み出し、フィルタ処理 部 313へ転送する。 [0159] 補正係数抽出部 310は、補正係数群算出部 109内の補正係数マップ用バッファ 1 47(図 5参照)に記録されている原画像信号上の各画素に対応する補正係数からな る補正係数群 (以下、本実施形態において、これを「第一の補正係数群」という。)か ら、上記注目領域に対応する補正係数を読み出し、フィルタ処理部 313へ転送する
[0160] フィルタ処理部 313は、フィルタ用 ROM311より読み出したフィルタ係数 (後述の σ )を用いて、補正係数抽出部 310から取得した注目領域に対応する補正係数 Pr 並びに画像信号抽出部 312から取得した該注目領域における輝度値 Lpを用いて、 式(11)に従って演算処理を行うことにより、最終的な補正係数 P(i, j)を算出し、この 補正係数 P(i, j)カゝら構成される補正係数群 (本実施形態において、以下、これを「第 二の補正係数群」という。)を求める。
[0161] [数 1]
P(i, j) = (∑∑ ( Pr(i + m, j + n)expAexpB))/N(i , j)
N(i, j) = ∑∑ expAexpB
A = - (m2 + n2)/(2び2)
B = -((Lp(i, j) -Lp(i + m, j + n))2/(2び2 ))
[0162] 上記式(11)において、 σはガウス分布の分散、 i及び jは画像信号の画素群の縦画 素位置、横画素位置、 m及び nは近傍画素の注目画素からの縦横の画素間距離を 表す。この式(11)に示されるように、画像信号抽出部 312により抽出された注目領 域における画素の空間的距離関数と、注目領域を構成する各画素値の差分関数と を用いて、補正係数抽出部 310により抽出された前記注目画素に対応する補正係 数を調整することにより、補正係数 P(i, j)を得る。このようにして算出された複数の補 正係数 P(i, j)カゝらなる第二の補正係数群は、フィルタ処理部 313から階調変換部 1 11に転送される。階調変換部 111は、この調整後の補正係数 P (i, j)を輝度信号 Y 及び色差信号 cに対して乗算することにより、階調変換を行う。
[0163] 以上、説明してきたように、本実施形態に係るデジタルスチルカメラによれば、補正 係数調整部 300では、上記式(11)に示されるように、画像信号抽出部 312により抽 出された注目領域における画素の空間的距離関数と、注目領域を構成する各画素 値の差分関数とを用いて、補正係数抽出部 310により抽出された注目画素に対応す る第一の補正係数群を調整することにより、第二の補正係数群を算出する。そして、 この第二の補正係数群を用いてスペースノ リアントな階調変換処理を行うことにより、 エッジを残しつつ、平坦部を平滑ィ匕することが可能となるので、従来に生じていた平 坦部における輝度勾配の不自然な強調を抑制することができる。
[0164] なお、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD力 の信号を未処理のままの Rawデー タとして、外部 IZFから入力された ISO感度など撮影情報をヘッダ情報として出力し 、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトウェア処 理について、図 16及び図 17を参照して説明する。
[0165] 図 16及び図 17は、本発明の第 3の実施形態に係るデジタルスチルカメラにて実行 される信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。 この図において、上述した第 1の実施形態と同様の処理については、同一のステップ 数を付している。各処理ステップでは、図 14に示した各構成で行われる上述の処理 と同様の処理を行う。
[0166] 図 16及び図 17に示すように、 Stepl乃至 SteplOにおいては、図 7及び図 8に示し た処理と同様である。 SteplOに続く Step30では、例えば、 5 X 5画素サイズの局所 領域内の画素値を抽出し、 Step31にて、 Step30で抽出した局所領域内の画素に 対応する補正係数を抽出する。 Step32にて、所定の重み係数に基づいて上記 Ste p30、 Step31で抽出した画素値、補正係数に対して式(11)に従いフィルタ処理を 行うことにより、最終的な補正係数 P3を算出する。そして、上述した第 1の実施形態と 同様に、 Stepl5乃至 Stepl8を経て、本処理を終了する。
[0167] 第 4の実施形態 次に、本発明の第 4の実施形態に係るデジタルスチルカメラについて図を参照して 説明する。
上述した第 1の実施形態では、最終的な補正係数を求める手順として、まず、原画 像力 縮小画像を作成し、この縮小画像についての補正係数群を求め、この縮小画 像に対する補正係数を拡大処理することにより原画像に対応する補正係数群である 第一の補正係数群を求め、その後、この第一の補正係数群を調整することにより、第 二の補正係数群を求めて 、た。
[0168] これに対して、本実施形態にぉ ヽては、原画像から縮小画像を作成し、この縮小画 像に対応する補正係数 (本実施形態において、以下、これを「縮小補正係数」という。 )から構成される補正係数群 (本実施形態において、以下、これを「縮小補正係数群 」という。)を作成する。更に、この縮小補正係数群を調整することにより調整後補正 係数群を求める。そして、この調整後補正係数群を拡大処理することにより、原画像 サイズに対応する最終的な補正係数群 (本実施形態において、以下、これを「最終 補正係数群」という。)を求める。そして、この最終補正係数群を用いて階調変換処理 を行う。
[0169] 以下、本実施形態のデジタルスチルカメラについて、第 1の実施形態と共通する点 については説明を省略し、異なる点についてのみ説明する。なお、第 1の実施形態と 同一の構成には、同一の名称と番号を割り当てている。
[0170] 図 18は、本発明の第 4の実施形態に係るデジタルスチルカメラの概略構成を示す ブロック図である。
図 18に示すように、本実施形態に係るデジタルスチルカメラは、図 1に示した第 1の 実施形態に係るデジタルスチルカメラと略同一の構成を備える力 図 1に示したコント ラスト算出処理部 108を備えていない点、及び、エッジ強調処理部 107、補正係数群 算出部、補正係数群調整部 110に代えて、エッジ強調処理部 500、縮小率設定部 5 01、補正係数群算出部 502、及び補正係数群調整部 503を備える点が異なる。
[0171] この図において、エッジ強調処理部 500の出力は、補正係数群算出部 502及び階 調変換部 111へ転送される。縮小率瀬手恥部 501の信号は、補正係数群算出部 50 2及び補正係数群調整部 503に入力される。補正係数群算出部の出力は補正係数 群調整部 503へ転送される。補正係数群調整部 503の出力は、階調変換部 111へ 転送される。
[0172] 上記エッジ強調処理部 500は、 WB調整部 104からの色信号に対してフィルタ処理 を行い、エッジ成分を抽出し、 YZC分離部 106からの輝度信号 Yに対して加算する ことでエッジ強調処理を行う。エッジ強調処理された輝度信号 Yは、補正係数群算出 部 502及び階調変換部 111へ転送され、色差信号 Cは階調変換部 111へ転送され る。
[0173] 補正係数群算出部 502は、処理の高速化を目的として、縮小率設定部 501で設定 された縮小率に基づき、補正係数算出用に輝度信号 Yから縮小画像信号を作成す る。画像縮小手法は公知のダウンサンプリング手法を用いる。また、縮小率を等倍に 設定する場合は、縮小処理をキャンセルすることで補正係数算出精度を重視するこ とが可能である。
[0174] 更に、補正係数群算出部 502は、作成した縮小画像信号をもとに、注目画素を中 心とする所定サイズの局所領域を抽出する。続いて、抽出した局所領域のヒストグラ ムに基づき階調変換曲線を設定し、変換曲線に基づく階調変換処理において各注 目画素にかかる縮小補正係数力もなる縮小補正係数群を求め、図示しない補正係 数記録用バッファへ記録する。これにより、補正係数記録用バッファには、縮小画像 サイズの画像信号に対応する補正係数群である縮小補正係数群が記録されることと なる。
[0175] 補正係数群算出部 502により算出された縮小補正係数群は、補正係数群調整部 5 03へ転送される。補正係数群調整部 503は、原画像上の注目画素を中心とする所 定サイズの局所領域内の画素に対応する補正係数を縮小補正係数群から抽出する 。そして、抽出した補正係数に対し、所定の重み係数を用いてフィルタ処理を行い、 注目画素に対応する調整後の補正係数からなる調整後補正係数群を算出する。
[0176] 続いて、補正係数群算出部 502は、縮小率設定部 501で設定された縮小率に基 づき、調整後補正係数群から、公知の画像拡大手法を用いて原画像サイズの画像 信号に対応する最終的な補正係数 P4からなる最終補正係数群を算出し、階調変換 部 111に転送する。 [0177] 階調変換部 111は、エッジ強調処理部 500から転送された輝度信号 Y及び色差信 号 Cに対して、補正係数群調整部 503から転送された最終補正係数群を構成する各 補正係数 Ρ4を乗算することで階調変換処理を行う。そして、階調変換処理後の信号 は、圧縮部 112、出力部 113を経由して、所定のメモリーカード等へ保存される。
[0178] 次に、上述したエッジ強調処理部 500について、図を参照して説明する。
図 19は、エッジ強調処理部 500の概略構成を示すブロック図である。この図に示す ように、エッジ強調処理部 500は、画像信号算出部 520、バッファ 521、フィルタ用 R ΟΜ522、フィルタ処理部 523、エッジ強調部 524を備えて構成されている。
[0179] 図 19において、 WB調整部 104からの出力信号は、エッジ強調処理部 500内の画 像信号算出部 520へ転送される。画像信号算出部 520の出力は、バッファ 521へ転 送される。バッファ 521の出力は、フィルタ処理部 523へ転送される。フィルタ用 RO Μは、フィルタ処理部 523に接続されている。フィルタ処理部 523及び YZC分離部 106の出力は、エッジ強調部 524へ転送される。エッジ強調部 524の出力は、補正 係数群算出部 502及び階調変換部 111へ転送される。
[0180] 以下、上記各部において行われる処理内容について具体的に説明する。
まず、画像信号算出部 520は、 WB調整部 104から転送されてきた WB調整後の画 像信号を画素単位で読み出し、上記式(1)に従って輝度信号を算出し、これをバッ ファ 521へ転送する。
[0181] 一方、フィルタ処理部 523では、始めにフィルタ用 ROM522から公知のエッジ成分 抽出 フィルタ処理に要する空間フィルタを読み出す。例えば、 5 X 5画素サイズの フィルタである場合は、ノ ッファ 521より 5 X 5画素単位の局所領域を読み出し、上記 空間フィルタを用いてエッジ成分を求め、これをエッジ強調部 524へ転送する。
[0182] エッジ強調部 524は、 YZC分離部 106において、式(1)に従い変換された輝度信 号 Υから所定サイズの局所領域を抽出し、輝度信号 Υに対してフィルタ処理部 523か らのエッジ成分を加算し、エッジ強調処理を行う。エッジ強調後の輝度信号 Υは補正 係数群算出部 502と階調変換部 111へ転送され、色差信号 Cは階調変換部 111へ 転送される。
[0183] 次に、図 18に示した補正係数群算出部 502について、図を参照して説明する。 図 20は、補正係数群算出部 502の概略構成を示すブロック図である。この図に示 すように、補正係数群算出部 502は、縮小画像生成部 530、抽出部 531、ヒストグラ ム算出部 532、累積正規ィ匕部 533、補正係数算出部 534、及び補正係数マップ用 ノ ッファ 535を備えて構成されて ヽる。
[0184] 図 20において、エッジ強調処理部 500及び縮小設定部 501からの信号は、縮小 画像生成部 530へ転送される。縮小画像生成部 530の出力は、抽出部 531及び補 正係数群調整部 503へ転送される。抽出部 531の出力は、ヒストグラム算出部 532へ 出力される。ヒストグラム算出部 532の出力は、累積正規化部 533へ転送される。累 積正規化部 533の出力は、補正係数算出部 534へ転送される。補正係数算出部 53 4の出力は、補正係数マップ用バッファ 535へ転送される。補正係数マップ用バッフ ァ 535に記録された補正係数群は、補正係数群調整部 503にて参照される。
[0185] 以下、上記各部において行われる処理内容について具体的に説明する。
縮小画像作成部 530は、縮小率設定部 501で設定された縮小率に基づき、エッジ 強調処理部 500から取得した輝度信号 Yから縮小画像信号を作成し、縮小画像信 号を抽出部 531及び補正係数群調整部 503へ転送する。画像縮小手法は、公知の ダウンサンプリング手法を用いる。
[0186] 抽出部 531は、縮小画像生成部 530で作成された縮小画像信号から局所領域の 信号を抽出し、ヒストグラム算出部 532へ転送する。ヒストグラム算出部 532は、局所 領域ごとにヒストグラムを作成し、累積正規化部 533へ転送する。累積正規化部 534 は、ヒストグラムを累積することで累積ヒストグラムを作成し、これを階調幅にあわせて 正規化することで階調変換曲線を生成し、補正係数群算出部 534へ転送する。
[0187] 補正係数算出部 534は、累積正規ィ匕部 533からの階調変換曲線に基づいて、各 領域の信号レベルに対する縮小補正係数から構成される縮小補正係数群を求める 。このとき、補正係数算出部 534は、第 1の実施の形態例と同一の方法により、つまり 、上述の式 (5)に従って演算処理を行うことにより、縮小補正係数群を算出する。
[0188] 補正係数算出部 534により算出された縮小補正係数群は、補正係数マップ用バッ ファ 535へ転送され、記録される。補正係数マップ用バッファ 535へ記録された縮小 補正係数群は、後段の補正係数群調整部 503にて調整された後、階調変換処理の 際に利用される。
[0189] 次に、図 18に示した補正係数群調整部 503について、図を参照して説明する。
図 21は、補正係数群調整部 503の概略構成を示すブロック図である。この図に示 すように、補正係数群調整部 503は、補正係数抽出部 540、フィルタ用 ROM541、 フィルタ処理部 542、バッファ 543、拡大補間部 544を備えて構成されている。
[0190] 図 21において、補正係数群算出部 502からの信号は、補正係数抽出部 540に転 送される。補正係数抽出部 540の出力はフィルタ処理部 542に転送される。フィルタ 処理部 542は、フィルタ用 ROM541に接続されている。フィルタ処理部 542の出力 は、ノッファ 543へ転送される。バッファ 543の出力及び縮小率設定部 501からの信 号は、拡大補間部 544へ出力される。拡大補間部 544の出力は、階調変換部 111 へ転送される。
[0191] 以下、上記各部において行われる処理内容について具体的に説明する。
補正係数抽出部 540は、補正係数群算出部 502内の補正係数マップ用バッファ 5 35 (図 20参照)に記録されて 、る縮小補正係数群から、注目画素と注目画素の近傍 画素を含む所定サイズの局所領域内の画素に対応する補正係数を読み出し、フィル タ処理部 542へ転送する。
[0192] このとき、読み出す局所領域のサイズは、後段のフィルタ処理部 542が用いるフィ ルタのサイズに応じて決定される。例えば、フィルタ用 ROM541に記録されているフ ィルタが 5 X 5画素サイズのフィルタである場合は、 5 X 5画素単位で局所領域内画素 に対応する縮小補正係数を読み出し、フィルタ処理部 542へ転送する。
[0193] フィルタ処理部 542は、フィルタ用 ROM541から公知の平滑化フィルタ処理に要 する平滑ィ匕フィルタを読み出し、この平滑ィ匕フィルタを用いて、補正係数抽出部 540 から転送されてくる各画素の縮小補正係数を平滑化処理することにより、平滑化処理 された補正係数からなる調整後補正係数群を算出する。算出された調整後補正係 数群は、バッファ 543を介して、拡大補間部 544へ転送される。
なお、本実施形態では、フィルタ処理部 542において平滑ィ匕フィルタを用いて平滑 化処理を行っているが、平滑ィ匕フィルタの設定を変更することで、その他のフィルタ 処理を適用することも可能である。例えば、鮮鋭ィ匕フィルタを適用することによりエツ ジの傾斜を強調することで、相対的に平坦部の勾配を目立たなくすることができる。 拡大補間部 544は、ノ ッファ 543から取得した調整後補正係数群に対して、縮小 率設定部 501に設定されている縮小率に基づいて公知の補間処理を行うことにより、 原画像信号上の画素に対応する最終補正係数群を算出し、これを階調変換部 111 に ¾5送する。
以上、本実施形態に係るデジタルスチルカメラについて説明してきたが、上述の平 滑ィ匕フィルタにおいて、重み係数の概念を適用することも可能である。例えば、重み 係数 W4を ROM (不図示)に記憶しておき、以下の式(7— 2)式により調整後補正係 数 Pr4を算出するようにしても良 、。
Pr4 = Prm * ( 1— W4) + Prfil * W4 (7— 2)
上記式(7— 2)において、 Prmは縮小補正係数、 Prfilは平滑後の縮小補正係数で ある。また、 Pr4の算出式は、上記(7— 2)式に限られず、 Prm、 W4、 Prfilを用いた その他の演算式とすることもできる。また、 W4については、複数の W4を ROM (不図 示)に登録しておき、これらの中力もユーザからの指示に基づいて選択した値を用い るようにしてちょい。
[0194] また、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD力 の信号を未処理のままの Rawデー タとして、外部 IZFから入力された ISO感度など撮影情報をヘッダ情報として出力し 、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトウェア処 理について、図 22及び図 23を参照して説明する。
[0195] 図 22及び図 23は、本発明の第 4の実施形態に係るデジタルスチルカメラにて実行 される信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。 各処理ステップでは、図 18に示した各構成で行われる上述の処理と同様の処理を 行う。
[0196] 図 22及び図 23において、 Step50にて、信号、 ISO感度などの撮影情報を含むへ ッダ情報を読み込む。 Step51にて、 WB調整、色補間、 YZC分離等の信号処理を 行う。 Step52にて、エッジ強調処理を行うとともに、エッジ補正係数や、コントラストの 算出を行う。 Step53にて、補正係数算出用の縮小画像を作成する。 [0197] Step54にて、所定サイズ、例えば、 5 X 5画素サイズの局所領域を抽出し、 Step 5 5にて、ヒストグラム作成処理を行う。 Step56にて、 Step55で作成されたヒストグラム を累積し、正規化処理を行う。 Step57にて、累積ヒストグラムに基づき階調変換曲線 を設定し、変換曲線に基づき各画素に対する縮小補正係数を算出する。 Step58に て、全領域の抽出が完了したかを判断し、完了している場合は Step59へ、完了して Vヽな 、場合は Step54へ移行する。
[0198] Step59にて、例えば、 5 X 5画素サイズの局所領域内の画素値を抽出し、 Step60 にて、 Step59で抽出した局所領域内の画素に対応する縮小補正係数を抽出する。 Step61にて、平滑ィ匕フイノレタを設定する。 Step62にて、 Step59、 Step60、及び St ep61における画素値、縮小補正係数、重み係数を用いて縮小補正係数群の平滑 化処理を行い、調整後補正係数群を作成する。 Step63にて、全領域の抽出が完了 したかを判断し、完了している場合は Step59へ、完了していない場合は Step64へ 移行する。
[0199] Step64にて、調整後補正係数群を元に、最終補正係数群を算出し記録する。 Ste p65にて、 Step52でエッジ強調された画像信号に対し、最終補正係数群を乗算す る。 Step66にて、公知の信号圧縮技術を用いて信号圧縮を行い、 Step67にて、処 理後の信号を出力し、当該処理を終了する。
[0200] 第 5の実施形態
次に、本発明の第 5の実施形態に係るデジタルスチルカメラについて図を参照して 説明する。本実施形態は、上述した第 2の実施形態と第 4の実施形態とを組み合わ せたものである。具体的には、まず、原画像から縮小画像を作成し、この縮小画像に 対応する縮小補正係数を求め、これら縮小補正係数から構成される縮小補正係数 群を作成する。更に、この縮小補正係数群を上述の第 2の実施形態における手法を 用いて調整することにより、調整後補正係数群を求める。その後、この調整後補正係 数を拡大処理することにより、原画像上の画素に対応する最終的な補正係数である 最終補正係数群を求める。
[0201] 以下、本実施形態のデジタルスチルカメラにつ!、て、第 4の実施形態と共通する点 については説明を省略し、異なる点についてのみ説明する。なお、第 4の実施形態と 同一の構成には、同一の名称と番号を割り当てている。
[0202] 図 24は、本発明の第 5の実施形態に係るデジタルスチルカメラの概略構成を示す ブロック図である。
図 24に示すように、本実施形態に係るデジタルスチルカメラは、上述の第 4の実施 形態に係る補正係数群調整部 503 (図 18参照)に代えて、補正係数群調整部 600 を備え、また、エッジ強調処理部 500の出力信号が、補正係数群算出部 502、補正 係数群調整部 600、及び階調変換部 111へ転送される構成をとる。
[0203] 次に、本実施形態に係る補正係数群調整部 600について、図を参照して具体的に 説明する。
図 25は、本実施形態に係る補正係数群調整部 600の概略構成を示すブロック図 である。この図に示すように、補正係数群調整部 600は、補正係数抽出部 610、画 像信号抽出部 611、重み係数用 ROM612、乗算加算処理部 613、ノ ッファ 614、 拡大補間部 615を備えて構成されている。
[0204] 図 25において、補正係数群算出部 502からの信号は、補正係数抽出部 610及び 画像信号抽出部 611へ転送される。補正係数抽出部 610及び画像信号抽出部 613 の出力は、乗算加算処理部 613へ転送される。乗算加算処理部 613は重み係数用 ROM612に接続されている。乗算加算処理部 613の出力は、バッファ 614を介して 拡大補間部 615へ転送される。縮小率設定部 501の出力は、拡大補間部 615へ転 送される。拡大補間部 615の出力は、階調変換部 111へ転送される。
[0205] 以下、上記各部において行われる処理内容について具体的に説明する。
補正係数抽出部 610は、補正係数群算出部 502内の補正係数用バッファ 535〖こ 記録されて!ヽる縮小画像上の画素に対応する縮小補正係数群から注目画素に対応 する縮小補正係数を読み出し、乗算加算処理部 613へ転送する。
[0206] 画像信号抽出部 611は、補正係数群算出部 502内の縮小画像生成部 530 (図 20 参照)から転送された縮小画像の輝度信号 Yから上記補正係数抽出部 610にて抽 出された注目画素に対応する輝度値を読み出し、乗算加算処理部 613へ転送する 乗算加算処理部 613は、重み係数用 ROM612に記録されて ヽる重み係数 W5を 読み出し、この重み係数 W5、補正係数抽出部 610により抽出された注目画素に対 応する縮小補正係数 Pr、及び画像信号抽出部 611により抽出された注目画素の輝 度値 Lpを用いて、以下の式(12)に従い、縮小補正係数 Prを調整することで、調整 後の補正係数 (本実施形態において、以下、これを「調整後補正係数」という。)P5を 求める。そして、各画素に対する調整後補正係数 P5から構成される調整後補正係数 群を求める。
[0207] P5 = Pr*W5 * Lp (12)
ただし、式(12)における W5は、適当な上限値、下限値を設定しクリップする。
[0208] 乗算加算処理部 613にて算出された調整後補正係数 P5からなる調整後補正係数 群は、バッファ 641を経由して拡大補間部 615へ転送される。拡大補間部 615は、縮 小率設定部 501から取得した縮小率に基づいて公知の補間処理を用いることにより 、調整後補正係数群から原画像上の画素に対応する最終的な補正係数からなる最 終補正係数群を算出し、階調変換部 111へ転送する。これにより、階調変換部 111 は、補正係数群調整部 600から取得した最終補正係数群を輝度信号 Y、色差信号 C に対して乗算することで、階調変換処理を行う。
[0209] なお、上記補正係数 Ρ5は、以下の(13)式に示すように、注目画素の輝度値 Lpに 最終的な重み係数 W5を乗じた値を、該注目画素に対応する補正係数 Prに加えるこ とにより、求めるようにしてもよ 、。
P5 = Pr+W5 * Lp (13)
なお、 P5の算出式は、上記(12)式や、(13)式に限られず、 Pr、 W5、 Lpを用いた その他の演算式とすることもできる。また、 W5については、複数の W5を重み係数用 ROM612に登録しておき、これらの中からユーザからの指示に基づいて選択した値 を用いるようにしてもよい。
[0210] なお、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD力 の信号を未処理のままの Rawデー タとして、外部 IZFから入力された ISO感度など撮影情報をヘッダ情報として出力し 、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトウェア処 理について、図 26及び図 27を参照して説明する。 [0211] 図 26及び図 27は、本発明の第 5の実施形態に係るデジタルスチルカメラにて実行 される信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。 この図において、上述した第 4の実施形態と同様の処理については、同一のステップ 数を付している。各処理ステップでは、図 24に示した各構成で行われる上述の処理 と同様の処理を行う。
[0212] 図 26及び図 27【こ示すよう【こ、 Step50乃至 Step58【こお!ヽて ίま、図 22【こ示した処 理と同様である。 Step58〖こ続く Step68〖こて、画像信号より注目画素の画素値を抽 出し、 Step69にて、 Step68で抽出した注目画素に対応する縮小補正係数を抽出 する。 Step70〖こて、重み係数を設定する。 Step71〖こて、 Step70における重み係数 に基づいて Step68、 Step69で抽出した画素値、縮小補正係数をもとに式(12)、あ るいは(13)に従い、乗算、または加算処理を行うことにより調整後補正係数からなる 調整後補正係数群を算出し、続く Step63へ移行する。
[0213] 第 6の実施形態
次に、本発明の第 6の実施形態に係るデジタルスチルカメラについて図を参照して 説明する。本実施形態は、上述した第 3の実施形態と第 4の実施形態とを組み合わ せたものである。具体的には、まず、原画像から縮小画像を作成し、この縮小画像に 対応する縮小補正係数を求め、更に、この縮小補正係数を上述の第 3の実施形態に おける手法を用いて調整することにより、調整後補正係数を求め、この調整後補正係 数から構成される調整後補正係数群を作成する。その後、この調整後補正係数群を 拡大処理することにより、原画像上の画素に対応する最終的な補正係数群である最 終補正係数群を求める。
[0214] 以下、本実施形態のデジタルスチルカメラにっ 、て、第 4の実施形態と共通する点 については説明を省略し、異なる点についてのみ説明する。なお、第 4の実施形態と 同一の構成には、同一の名称と番号を割り当てている。
[0215] 図 28は、本発明の第 6の実施形態に係るデジタルスチルカメラの概略構成を示す ブロック図である。
図 28に示すように、本実施形態に係るデジタルスチルカメラは、図 18に示した第 4 の実施形態に係るデジタルスチルカメラと略同一の構成を備えるが、補正係数群調 整部 503に代えて補正係数群調整部 700を備える点、また、エッジ強調処理部 107 の出力信号が、補正係数群算出部 502、補正係数群調整部 700、及び階調変換部 111へ転送される構成をとる点にっ ヽて異なる。
[0216] 次に、本実施形態に係る補正係数群調整部 700について、図を参照して具体的に 説明する。
図 29は、本実施形態に係る補正係数群調整部 700の概略構成を示すブロック図 である。この図に示すように、補正係数群調整部 700は、補正係数抽出部 710、画 像信号抽出部 711、フィルタ用 ROM712、フィルタ処理部 713、ノ ッファ 714、及び 拡大補間部 715を備えて構成されている。
[0217] 図 29において、補正係数群算出部 502からの信号は、補正係数抽出部 710及び 画像信号抽出部 711に転送される。補正係数抽出部 710及び画像信号抽出部 711 の出力はフィルタ処理部 713に転送される。フィルタ処理部 713は、フィルタ用 ROM 712に接続されている。フィルタ処理部 713の出力は、ノ ッファ 714を経由して拡大 補間部 715へ転送される。縮小率設定部 501の出力は、拡大補間部 715へ転送さ れる。拡大補間部 715の出力は、階調変換部 111へ転送される。
[0218] 以下、上記各部において行われる処理内容について具体的に説明する。
画像信号抽出部 713は、補正係数群算出部 502内の縮小画像生成部 530から転 送されてきた縮小画像の輝度信号 Yから注目画素と注目画素の近傍画素の輝度値 を読み出し、フィルタ処理部 713へ転送する。
[0219] 一方、補正係数抽出部 710は、補正係数群算出部 502内の補正係数マップ用バッ ファ 535 (図 20参照)に記録されている縮小画像上の各画素に対応する縮小補正係 数により構成される縮小補正係数群から、上記画像信号抽出部 713にて読み出され た注目画素と注目画素の近傍画素に対応する縮小補正係数を読み出し、フィルタ処 理部 713へ転送する。
[0220] フィルタ処理部 713は、フィルタ用 ROM712から読み出した平滑ィ匕フィルタを用い て、補正係数抽出部 710から取得した注目画素と注目画素の近傍画素に対応する 縮小補正係数 Pr並びに画像信号抽出部 713から取得した該注目画素と注目画素の 近傍画素における輝度値 Lpを用いて、上述の第 3の実施形態と同様、式(11)に従 つて演算処理を行うことにより、調整後補正係数 P (i, j)を算出して、 P (i, j)力も構成 される調整後補正係数群を求める。
[0221] このようにして算出された縮小画像上の各画素に対応する調整後補正係数 P (i, j) からなる調整後補正係数群は、ノ ッファ 714を介して拡大補間部 715へ転送される。 拡大補間部 715は、縮小画像上の各画素に対応する調整後補正係数からなる調整 後補正係数群を公知の補間処理を用いて拡大することにより、原画像上の各画素に 対応する最終的な補正係数カゝらなる最終補正係数群を算出し、これを階調変換部 1 11へ転送する。階調変換部 111は、補正係数群調整部 700から取得した最終補正 係数群を輝度信号 Y及び色差信号 Cに対して乗算することにより、階調変換処理を 行う。
[0222] なお、上記実施形態では、ハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD力 の信号を未処理のままの Rawデー タとして、外部 IZFから入力された ISO感度など撮影情報をヘッダ情報として出力し 、別途ソフトウェアにて処理する構成も可能である。以下、信号処理のソフトウェア処 理について、図 30及び図 31を参照して説明する。
[0223] 図 30及び図 31は、本発明の第 6の実施形態に係るデジタルスチルカメラにて実行 される信号処理のソフトウェア処理に関する処理手順を示したフローチャートである。 この図において、上述した第 4の実施形態と同様の処理については、同一のステップ 数を付している。各処理ステップでは、図 28に示した各構成で行われる上述の処理 と同様の処理を行う。
[0224] 図 30及び図 31に示すように、 Step50乃至 Step58においては、図 22及び図 23に 示した処理と同様である。 Step58に続く Step72では、縮小画像信号から局所領域 (例えば、 5 X 5画素サイズ)内の画素値が抽出され、 Step73にて、 Step72で抽出し た注目画素に対応する縮小補正係数を抽出する。 Step 74にて、所定の重み係数に 基づいて Step72及び Step73で抽出した画素値及び縮小補正係数に対して上述 の式(11)に従いフィルタ処理を行い、 Step63へ移行する。その後の処理は、図 22 及び図 23に示した処理と同様である。

Claims

請求の範囲
[1] 撮像素子力ゝらの画像信号に対して、該画像信号で表される画像の領域毎に階調 変換処理を行う撮像装置であって、
前記撮像素子からの画像信号に対し画像処理を行う画像処理手段と、 前記画像処理が施された前記画像信号を取得して、複数の画素それぞれに対応 する複数の補正係数からなる第一の補正係数群を前記領域毎に作成する補正係数 群算出手段と、
前記撮像素子からの画像信号又は前記画像処理が施された後の画像信号の特徴 を用いて、前記第一の補正係数群を調整することにより、第二の補正係数群を作成 する補正係数群調整手段と、
前記第二の補正係数群を用いて、前記領域毎に階調変換処理を行う階調変換手 段と
を具備する撮像装置。
[2] 前記画像処理が施された後の画像信号を所定の縮小率で縮小し、縮小画像信号 を生成する縮小画像生成手段を備え、前記縮小画像信号を用いて前記第一の補正 係数群が作成される請求項 1に記載の撮像装置。
[3] 前記補正係数算出手段は、前記縮小画像信号における複数の画素それぞれに対 応する複数の縮小補正係数からなる縮小補正係数群を作成し、前記縮小率による 縮小を打ち消すように、前記縮小補正係数群を拡大処理することにより、前記第一の 補正係数群を作成する請求項 2に記載の撮像装置。
[4] 前記補正係数群調整手段は、
前記第一の補正係数群から注目画素に対応する補正係数と、該注目画素の近傍 画素に対応する補正係数とを抽出する抽出手段と、
前記抽出手段により抽出された補正係数を用いて、前記第一の補正係数群に対し てフィルタ処理を行うことで、前記第一の補正係数群を調整する調整手段と
を具備する請求項 1から請求項 3のいずれかに記載の撮像装置。
[5] 前記補正係数群調整手段は、
前記第一の補正係数群から注目画素に対応する補正係数と該注目画素の近傍画 素に対応する補正係数とを抽出する抽出手段と、
前記抽出手段により抽出された補正係数を用いて前記第一の補正係数群に対し てフィルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記第一の補正 係数群を調整する調整手段と
を具備する請求項 1から請求項 4のいずれかに記載の撮像装置。
[6] 前記補正係数群調整手段は、
前記画像処理が施された後の画像信号から輝度信号を取得する輝度信号取得手 段と、
前記輝度信号取得手段により得られた前記輝度信号に基づ!、て、前記第一の補 正係数群を調整する調整手段と
を具備する請求項 1から請求項 4のいずれかに記載の撮像装置。
[7] 前記調整手段は、重み係数を乗じた前記輝度信号を用いて、前記第一の補正係 数群を調整する請求項 6に記載の撮像装置。
[8] 前記画像処理手段は、
エッジ強度を算出するエッジ強度算出手段と、
前記エッジ強度に基づき前記撮像素子からの画像信号に対してエッジ強調処理を 行うエッジ強調手段と
を備え、
前記調整手段は、前記エッジ強度算出手段により算出された前記エッジ強度に基 づいて、前記重み係数を設定する請求項 4、請求項 5、及び請求項 7のいずれかに 記載の撮像装置。
[9] 前記画像処理手段は、コントラストを算出するコントラスト算出手段を備え、
前記調整手段は、前記コントラスト算出手段により算出された前記コントラストに基 づいて、前記重み係数を設定する請求項 4、請求項 5、及び請求項 7のいずれかに 記載の撮像装置。
[10] 前記補正係数群調整手段は、
前記画像処理が施された後の画像信号から輝度信号を取得する輝度信号取得手 段と、 前記輝度信号から注目画素と該注目画素の近傍画素を含む所定サイズの注目領 域に対応する画素値を抽出する画像信号抽出手段と、
前記補正係数算出手段により作成された前記第一の補正係数群から前記注目領 域に対応する補正係数を抽出する補正係数抽出手段と、
前記画像信号抽出手段により抽出された前記注目領域における画素の空間的距 離関数と、前記注目領域を構成する各画素値の差分関数とを用いて、前記補正係 数抽出手段により抽出された前記注目画素に対応する補正係数を調整する調整手 段と
を具備する請求項 1から請求項 3のいずれかに記載の撮像装置。
[11] 画像信号に対して、該画像信号で表される画像の領域毎に階調変換処理を行う撮 像装置であって、
前記画像信号に対し画像処理を行う画像処理手段と、
前記画像処理が施された後の画像信号を所定の縮小率で縮小し、縮小画像信号 を生成する縮小画像生成手段と、
前記縮小画像信号における複数の画素それぞれに対応する複数の縮小補正係数 からなる縮小補正係数群を作成する補正係数群作成手段と、
前記縮小画像信号の特徴を用いて前記縮小補正係数群を調整して、調整後の補 正係数群を作成し、前記縮小率による縮小を打ち消すように前記調整後の補正係数 群を拡大することにより、縮小前の画像信号に対応する最終補正係数群を作成する 補正係数群調整手段と、
前記最終補正係数群を用いて、前記領域毎に階調変換処理を行う階調変換手段 と
を具備する撮像装置。
[12] 前記補正係数群調整手段は、
前記縮小補正係数群から注目画素に対応する補正係数と該注目画素の近傍画素 に対応する補正係数とを抽出する抽出手段と、
前記抽出手段により抽出された補正係数を用いて、前記縮小補正係数群に対して フィルタ処理を行うことで、前記縮小補正係数群を調整する調整手段と を具備する請求項 11に記載の撮像装置。
[13] 前記補正係数群調整手段は、
前記縮小補正係数群から注目画素に対応する補正係数と該注目画素の近傍画素 に対応する補正係数とを抽出する抽出手段と、
前記抽出手段により抽出された補正係数を用いて、前記縮小補正係数群に対して フィルタ処理を行うとともに、重み係数を用いた演算を行うことで、前記縮小補正係数 群を調整する調整手段と
を具備する請求項 11に記載の撮像装置。
[14] 前記補正係数群調整手段は、
前記縮小画像信号から輝度信号を取得する輝度信号取得手段と、
前記輝度信号取得手段により得られた前記輝度信号に基づ!ヽて、前記縮小補正 係数群を調整する調整手段と
を具備する請求項 11に記載の撮像装置。
[15] 前記調整手段は、重み係数を乗じた前記輝度信号を用いて、前記縮小補正係数 群を調整する請求項 12から請求項 14のいずれかに記載の撮像装置。
[16] 前記補正係数群調整手段は、
前記縮小画像信号から輝度信号を取得する輝度信号取得手段と、
前記輝度信号から注目画素と該注目画素の近傍画素を含む所定サイズの注目領 域に対応する画素値を抽出する画像信号抽出手段と、
前記補正係数算出手段により作成された前記縮小補正係数群から前記注目領域 に対応する補正係数を抽出する補正係数抽出手段と、
前記画像信号抽出手段により抽出された前記注目領域における画素の空間的距 離関数と、前記注目領域を構成する各画素値の差分関数とを用いて、前記補正係 数抽出手段により抽出された前記注目画素に対応する補正係数を調整する調整手 段と
を具備する請求項 11に記載の撮像装置。
[17] 撮像素子からの画像信号に対して、該画像信号で表される画像の領域毎に階調 変換処理を実行するための画像処理プログラムであって、 前記撮像素子からの画像信号に対し画像処理を行う第 1のステップと、 前記画像処理が施された前記画像信号を取得して、複数の画素それぞれに対応 する複数の補正係数からなる第一の補正係数群を前記領域毎に作成する第 2のス テツプと、
前記撮像素子からの画像信号又は前記画像処理が施された後の画像信号の特徴 を用いて、前記第一の補正係数群を調整することにより、第二の補正係数群を作成 する第 3のステップと、
前記第二の補正係数群を用いて、前記領域毎に階調変換処理を行う第 4のステツ プと
をコンピュータに実行させるための画像処理プログラム。
[18] 前記第 2のステップは、
前記画像処理が施された後の画像信号を所定の縮小率で縮小し、縮小画像信号 を生成するステップと、
前記縮小画像信号を用いて前記第一の補正係数群を作成するステップと を有する請求項 17に記載の画像処理プログラム。
[19] 前記第 3のステップは、
前記第一の補正係数群から注目画素に対応する補正係数と、該注目画素の近傍 画素に対応する補正係数とを抽出するステップと、
抽出された前記補正係数を用いて、前記第一の補正係数群に対してフィルタ処理 を行うとともに、重み係数を用いた演算を行うことで、前記第一の補正係数群を調整 するステップと
を有する請求項 17又は請求項 18に記載の画像処理プログラム。
[20] 前記第 3のステップは、
前記第一の補正係数群から注目画素に対応する補正係数と該注目画素の近傍画 素に対応する補正係数とを抽出するステップと、
抽出された前記補正係数を用いて、前記第一の補正係数群に対してフィルタ処理 を行うとともに、重み係数を用いた演算を行うことで、前記第一の補正係数群を調整 するステップと を有する請求項 17又は請求項 18に記載の画像処理プログラム。
[21] 前記第 3のステップは、
前記画像処理が施された後の画像信号から輝度信号を取得するステップと、 取得した前記輝度信号に基づ!/、て、前記第一の補正係数群を調整するステップと を有する請求項 17又は請求項 18に記載の画像処理プログラム。
[22] 画像信号に対して、該画像信号で表される画像の領域毎に階調変換処理を実行 するための画像処理プログラムであって、
前記画像信号に対し画像処理を行う第 1のステップと、
前記画像処理が施された後の画像信号を所定の縮小率で縮小し、縮小画像信号 を生成する第 2のステップと、
前記縮小画像信号における複数の画素それぞれに対応する複数の縮小補正係数 からなる縮小補正係数群を作成する第 3のステップと、
前記縮小画像信号の特徴を用いて前記縮小補正係数群を調整して、調整後の補 正係数群を作成し、前記縮小率による縮小を打ち消すように前記調整後の補正係数 群を拡大することにより、縮小前の画像信号に対応する最終補正係数群を作成する 第 4のステップと、
前記最終補正係数群を用いて、前記領域毎に階調変換処理を行う第 5のステップ と
をコンピュータに実行させるための画像処理プログラム。
[23] 前記第 4のステップは、
前記縮小補正係数群から注目画素に対応する補正係数と該注目画素の近傍画素 に対応する補正係数とを抽出するステップと、
抽出された前記補正係数を用いて、前記縮小補正係数群に対してフィルタ処理を 行うことで、前記縮小補正係数群を調整するステップと
を有する請求項 22に記載の画像処理プログラム。
[24] 前記第 4のステップは、
前記縮小補正係数群から注目画素に対応する補正係数と該注目画素の近傍画素 に対応する補正係数とを抽出するステップと、 抽出された前記補正係数を用いて、前記縮小補正係数群に対してフィルタ処理を 行うとともに、重み係数を用いた演算を行うことで、前記縮小補正係数群を調整する ステップと
を有する請求項 22に記載の画像処理プログラム。
前記第 4のステップは、
前記縮小画像信号から輝度信号を取得するステップと、
取得した前記輝度信号に基づ!/ヽて、前記縮小補正係数群を調整するステップと を有する請求項 22に記載の画像処理プログラム。
PCT/JP2006/311756 2005-06-15 2006-06-12 撮像装置 WO2006134872A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06757241A EP1909487A1 (en) 2005-06-15 2006-06-12 Image pickup apparatus
US11/917,493 US7889250B2 (en) 2005-06-15 2006-06-12 Image-acquisition apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005174951A JP4526445B2 (ja) 2005-06-15 2005-06-15 撮像装置
JP2005-174951 2005-06-15

Publications (1)

Publication Number Publication Date
WO2006134872A1 true WO2006134872A1 (ja) 2006-12-21

Family

ID=37532234

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311756 WO2006134872A1 (ja) 2005-06-15 2006-06-12 撮像装置

Country Status (4)

Country Link
US (1) US7889250B2 (ja)
EP (1) EP1909487A1 (ja)
JP (1) JP4526445B2 (ja)
WO (1) WO2006134872A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139596A3 (en) * 2008-05-16 2011-11-24 Postech Academy-Industry Foundation Parallel image processing apparatus and method for image matching using intensity adjustment

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5103984B2 (ja) * 2007-03-29 2012-12-19 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
US8837849B2 (en) * 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
JP4906627B2 (ja) * 2007-07-31 2012-03-28 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び記憶媒体
JP5052286B2 (ja) * 2007-10-19 2012-10-17 オリンパス株式会社 分光特性補正装置、分光特性補正方法
JP4551439B2 (ja) * 2007-12-17 2010-09-29 株式会社沖データ 画像処理装置
JP5111310B2 (ja) * 2008-09-09 2013-01-09 キヤノン株式会社 画像処理方法及び画像処理装置
KR101580275B1 (ko) 2008-11-25 2015-12-24 삼성전자주식회사 멀티 레이어 디스플레이에 3차원 영상을 표현하기 위한 영상 처리 장치 및 방법
TWI389552B (zh) * 2009-04-28 2013-03-11 Mstar Semiconductor Inc 影像處理裝置以及影像處理方法
US9524700B2 (en) 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
JP5452242B2 (ja) * 2010-01-15 2014-03-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
US8786625B2 (en) * 2010-09-30 2014-07-22 Apple Inc. System and method for processing image data using an image signal processor having back-end processing logic
KR101248808B1 (ko) * 2011-06-03 2013-04-01 주식회사 동부하이텍 경계 영역의 잡음 제거 장치 및 방법
JP6700751B2 (ja) * 2015-11-30 2020-05-27 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
JP6931475B2 (ja) * 2016-12-01 2021-09-08 株式会社サイバーコア 画像処理装置
WO2018142937A1 (ja) * 2017-01-31 2018-08-09 オリンパス株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
CN110537202B (zh) * 2017-04-10 2022-10-04 奥林巴斯株式会社 相关值运算装置
CN107644410B (zh) * 2017-09-29 2020-05-19 上海天马有机发光显示技术有限公司 图像处理方法、图像处理装置、图像处理系统及显示装置
JP6971767B2 (ja) * 2017-10-16 2021-11-24 キヤノン株式会社 撮像装置、その制御方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322557A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像処理方法、記憶媒体、焼付露光量算出方法、画像処理装置及び焼付露光システム
JP2003264849A (ja) * 2002-03-07 2003-09-19 Keiogijuku カラー動画像処理方法および処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2951909B2 (ja) 1997-03-17 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
EP2199973A3 (en) * 1997-06-09 2010-09-08 Seiko Epson Corporation An image processing apparatus and method, and an image evaluation device and method
JP4019204B2 (ja) * 1997-06-17 2007-12-12 セイコーエプソン株式会社 画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体
JP4356134B2 (ja) * 1999-04-16 2009-11-04 ソニー株式会社 画像処理装置及び画像処理方法
JP3465226B2 (ja) 1999-10-18 2003-11-10 学校法人慶應義塾 画像濃度変換処理方法
JP3757747B2 (ja) * 2000-04-03 2006-03-22 株式会社ニコン 電子カメラ、画像処理プログラムを記録した記録媒体、および画像処理方法
JP3814491B2 (ja) * 2001-04-03 2006-08-30 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体及びプログラム
JP4212290B2 (ja) * 2002-04-08 2009-01-21 オリンパス株式会社 撮像システム
JP3986414B2 (ja) * 2002-10-29 2007-10-03 富士フイルム株式会社 デジタルカメラ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10322557A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像処理方法、記憶媒体、焼付露光量算出方法、画像処理装置及び焼付露光システム
JP2003264849A (ja) * 2002-03-07 2003-09-19 Keiogijuku カラー動画像処理方法および処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139596A3 (en) * 2008-05-16 2011-11-24 Postech Academy-Industry Foundation Parallel image processing apparatus and method for image matching using intensity adjustment

Also Published As

Publication number Publication date
JP4526445B2 (ja) 2010-08-18
JP2006352431A (ja) 2006-12-28
EP1909487A1 (en) 2008-04-09
US7889250B2 (en) 2011-02-15
US20090091643A1 (en) 2009-04-09

Similar Documents

Publication Publication Date Title
WO2006134872A1 (ja) 撮像装置
US8115833B2 (en) Image-acquisition apparatus
EP2624204B1 (en) Image processing apparatus and method of controlling the same
JP4869653B2 (ja) 画像処理装置
JP3893099B2 (ja) 撮像システムおよび撮像プログラム
JP3828251B2 (ja) 映像のダイナミックレンジ拡大装置
US8184924B2 (en) Image processing apparatus and image processing program
US7755670B2 (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP5343726B2 (ja) 画像処理装置、及び画像処理プログラム
JP2002262094A (ja) 画像処理方法及び画像処理装置
CN113228094A (zh) 图像处理器
WO2007037327A1 (ja) 画像信号処理装置及び画像信号処理プログラム
JP2007142670A (ja) 画像処理システム、画像処理プログラム
WO2007077730A1 (ja) 撮像システム、画像処理プログラム
WO2008150017A1 (ja) 信号処理方法および信号処理装置
JP4944061B2 (ja) 画像処理装置および方法並びにプログラム
JP5259616B2 (ja) 画像処理システムおよび画像処理プログラム
JP2007026334A (ja) 画像処理装置
JP4992379B2 (ja) 画像の階調変換装置、プログラム、電子カメラ、およびその方法
JP4888037B2 (ja) 信号処理方法、信号処理回路及び撮像装置
JP4074323B2 (ja) 再生システムおよび再生プログラム
JP5242750B2 (ja) 画像処理装置
JP5277388B2 (ja) 画像処理装置および撮像装置
JP5586031B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP4191909B2 (ja) カラー画像データ生成装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006757241

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11917493

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE