WO2005112428A1 - 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム - Google Patents

画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム Download PDF

Info

Publication number
WO2005112428A1
WO2005112428A1 PCT/JP2005/008412 JP2005008412W WO2005112428A1 WO 2005112428 A1 WO2005112428 A1 WO 2005112428A1 JP 2005008412 W JP2005008412 W JP 2005008412W WO 2005112428 A1 WO2005112428 A1 WO 2005112428A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
index
hue
image processing
lightness
Prior art date
Application number
PCT/JP2005/008412
Other languages
English (en)
French (fr)
Inventor
Hiroaki Takano
Takeshi Nakajima
Daisuke Sato
Tsukasa Ito
Original Assignee
Konica Minolta Photo Imaging, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging, Inc. filed Critical Konica Minolta Photo Imaging, Inc.
Priority to JP2006513530A priority Critical patent/JPWO2005112428A1/ja
Publication of WO2005112428A1 publication Critical patent/WO2005112428A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky

Definitions

  • Image processing method image processing device, image recording device, and image processing program
  • the present invention relates to an image processing method, an image processing device, an image recording device for forming an image on an output medium, and an image processing program.
  • Patent Document 1 discloses a method of calculating an additional correction value instead of the discriminant regression analysis method.
  • the method described in Patent Document 1 removes a high-luminance region and a low-luminance region from a luminance histogram indicating the cumulative number of luminance pixels (frequency number), and further uses a frequency-restricted one. An average value is calculated, and a difference between the average value and the reference luminance is obtained as a correction value.
  • Patent Document 2 discloses a method of determining a light source state at the time of shooting in order to compensate for extraction accuracy of a face region. The method described in Patent Document 2 first extracts a face candidate region, calculates a deviation of the average luminance of the extracted face candidate region with respect to the entire image, and, when the deviation amount is large, sets a photographing scene (backlight photographing strobe light). It determines the close-up shooting power) and adjusts the allowable range of the criterion for the face area. Patent Document 2 discloses a method using a two-dimensional histogram of hue and saturation described in JP-A-6-67320, JP-A-8-122944, and JP-A-8-122944 as methods for extracting a face candidate region.
  • Patent Document 2 discloses a method of removing a background region other than a face, which is described in JP-A-8-122944 and JP-A-8-184925, which describes a ratio of a linear portion, a line symmetry, and an image.
  • a method of discriminating using a contact rate with the outer edge of the surface, a density contrast, a density change pattern and periodicity is cited.
  • a method using a one-dimensional histogram of density is described for discrimination of a shooting scene. This method is based on an empirical rule that in the case of backlight, the face area is dark and the background area is bright, and in the case of close-up flash photography, the face area is bright and the background area is dark.
  • Patent Document 1 JP-A-2002-247393
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2000-148980
  • Patent Document 1 reduces the influence of a region having a large luminance bias in a backlight or a strobe scene
  • the technology described in Patent Document 1 reduces a face region in a shooting scene in which a person is a main subject. There was a problem that the brightness of the image was inappropriate.
  • the technique described in Patent Document 2 is capable of achieving the effect of compensating for the identification of the face area. There was a problem that the compensation effect could not be obtained.
  • An object of the present invention is to calculate an index that quantitatively represents a photographic scene (light source condition) of photographic image data, and determine an image processing condition based on the calculated index, thereby obtaining an image processing object. It is to improve lightness reproducibility.
  • the captured image data is obtained by combining at least one of a predetermined brightness and hue, a distance from the outer edge of the screen of the captured image data, and brightness.
  • FIG. 1 is a perspective view showing an external configuration of an image recording apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an internal configuration of the image recording device of the present embodiment.
  • FIG. 3 is a block diagram showing a main part configuration of an image processing unit in FIG. 2.
  • FIG. 4 is a block diagram showing an internal configuration of a scene determination unit and an internal configuration of a ratio calculation unit.
  • FIG. 5 is a flowchart showing a scene determination process executed in an image adjustment processing unit.
  • FIG. 6 is a flow chart showing an occupancy calculation process for calculating a first occupancy for each brightness / hue area.
  • FIG. 7 is a diagram showing an example of a program for converting from RGB to HSV color system.
  • FIG. 8 is a diagram showing a lightness (V) -hue (H) plane, and a region rl and a region r2 on a VH plane.
  • FIG. 9 is a diagram showing a lightness (V) -hue (H) plane and a region r3 and a region r4 on a VH plane.
  • FIG. 10 is a view showing a curve representing a first coefficient to be multiplied by a first occupancy for calculating the index 1;
  • FIG. 11 is a view showing a curve representing a second coefficient for multiplying the first occupancy for calculating the index 2;
  • FIG. 12 is a flowchart showing occupancy calculation processing for calculating a second occupancy based on the composition of captured image data.
  • FIG. 13 is a diagram showing regions nl to n4 determined according to the distance of the captured image data from the outer edge of the screen ((&) to (01)).
  • FIG. 14 is a diagram showing, for each region (nl to n4), a curve representing a third coefficient for multiplying the second occupancy for calculating the index 3;
  • FIG. 15 A plot of index 4 and index 5 calculated for each shooting scene (direct light, strobe, backlight).
  • FIG. 16 is a diagram showing a frequency distribution (histogram) of luminance (a), a normalized histogram (b), and a histogram divided into blocks (c).
  • FIG. 17 A diagram (17 (a) and 17 (b)) for explaining the deletion of a low-luminance region and a high-luminance region from a luminance histogram, and a diagram (17 (c)) for explaining a restriction on the frequency of luminance. And 17 (d)).
  • FIG. 18 is a diagram showing a gradation conversion curve representing an image processing condition (gradation conversion condition) when a shooting scene is backlit.
  • the mode described in item 2 is the image processing method according to item 1,
  • the captured image data is divided into a plurality of regions each having a predetermined combination of lightness and hue, and a ratio of the divided plurality of regions to the entire captured image data is indicated. Calculate the occupancy,
  • a coefficient having a different sign between a coefficient used for a predetermined high lightness skin color hue area and a coefficient used for a hue area other than the high lightness skin color hue area, or an intermediate lightness area of the skin color hue area is calculated by using at least one of the coefficients having different codes between the coefficient used for the above and the coefficient used for the brightness area other than the intermediate brightness area.
  • the mode described in Item 3 is the image processing method according to Item 2,
  • a sign used for a predetermined high lightness skin color hue region and a sign of a coefficient used for a hue region other than the high lightness skin color hue region are different.
  • the mode described in item 4 is the image processing method according to item 2,
  • the sign of a coefficient used for an intermediate lightness area of the skin color hue area and a sign of a coefficient used for a lightness area other than the intermediate lightness area are different.
  • a first index is calculated using a different sign coefficient between a predetermined high lightness skin hue area and a hue area other than the high lightness skin hue area, and a first hue area of the skin hue area is calculated.
  • a second index is calculated using coefficients of different signs in the intermediate brightness area and a brightness area other than the intermediate brightness area, and in the image processing condition determination step, the calculated first index and the second index are calculated. The image processing condition is determined based on the index.
  • the mode described in Item 6 is the image processing method according to any one of Items 2 to 5, wherein the accumulated pixel number is calculated for each predetermined hue and brightness of the captured image data.
  • the method further includes a histogram creation step of creating a histogram. In the occupancy calculation step, the occupancy is calculated based on the created two-dimensional histogram.
  • the mode according to item 7 is the image processing method according to any one of items 2, 3, 5, and 6, wherein the predetermined high lightness skin color hue region has a coefficient having a sign different from that of the predetermined high lightness skin color hue region.
  • the lightness area of the hue area other than the high lightness skin color hue area is a predetermined high lightness area.
  • the mode according to Item 8 is the image processing method according to any one of Items 2, 4, 5, and 6, wherein the image processing method has a coefficient whose sign is different from that of the intermediate lightness area of the skin color hue area.
  • a hue area in a lightness area other than the intermediate lightness area is a hue area in the skin color hue area.
  • the mode described in Item 9 is the image processing method according to any one of Items 2, 3, 5 to 7,
  • the high lightness skin color hue region includes a lightness value range of 170 to 224 in the HSV color system.
  • the mode described in Item 10 is the image processing method according to any one of Items 2, 4 to 6, and 8, wherein the intermediate lightness region has a lightness value of 85 in the HSV color system.
  • Includes an area in the range of 169.
  • the mode described in Item 11 is the image processing method according to any one of Items 2, 3, 5 to 7, and 9, wherein the hue region other than the high lightness skin color hue region has a blue hue. Area and a green hue area.
  • the lightness region other than the intermediate lightness region is a shadow region.
  • the form described in Item 13 is the image processing method according to Item 11, wherein the hue value of the blue hue region is in the range of 161 to 250 in the HSV color system, and The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • Item 14 is the image processing method according to item 12, wherein the lightness value of the shadow area is in the range of 26 to 84 in the lightness value of the HSV color system.
  • the mode described in Item 15 is the image processing method according to any one of Items 2 to 14,
  • the hue value of the skin color hue region is in the range of 0 to 39 and 330 to 359 in the HSV color system.
  • the mode described in Item 16 is the image processing method according to any one of Items 2 to 15, wherein the skin color hue area is divided into two areas by a predetermined conditional expression based on lightness and saturation. Cracked.
  • the captured image data is divided into a plurality of predetermined regions each including a combination of a distance from the outer edge of the screen of the captured image data and brightness, and for each of the plurality of divided regions,
  • the occupancy rate which indicates the proportion of the entire captured image data, is ⁇ ⁇ 4,
  • a coefficient having a different value depending on the distance from the outer edge is used.
  • the captured image data is divided into a plurality of regions each having a predetermined combination of brightness and hue, and a ratio of the divided plurality of regions to the entire captured image data is indicated.
  • the first occupancy is calculated, and the captured image data is divided into a plurality of predetermined regions each including a combination of a distance from the outer edge of the screen of the captured image data and brightness, and for each of the plurality of divided regions.
  • the calculated first occupancy rate and second occupancy rate are calculated according to shooting conditions.
  • an index that specifies the shooting scene is calculated, and in the index calculation step, a predetermined high lightness skin hue area and a hue area other than the high lightness skin hue area are calculated.
  • the first index is calculated using coefficients of different signs
  • the second index is calculated using coefficients of different signs in the intermediate lightness area of the flesh color hue area and the lightness areas other than the intermediate lightness area.
  • a third index is calculated using a coefficient having a different value according to the distance of the outer edge force.
  • the calculated first index, second index and third index are calculated.
  • the image processing conditions are determined based on [0029]
  • the mode described in Item 20 is the image processing method according to Item 19,
  • the first index, the second index, and the third index are each multiplied by a coefficient set in advance according to a shooting condition and synthesized, thereby obtaining a fourth index and a fourth index.
  • a fifth index is calculated, and in the image processing condition determining step, the image processing condition is determined based on the calculated fourth and fifth indexes.
  • the mode described in Item 21 is the image processing method according to Item 19 or 20,
  • Item 23 is the image processing method according to any one of Items 19 to 22, wherein the high lightness has a coefficient having a sign different from that of the predetermined high lightness skin hue region.
  • the lightness area of the hue area other than the skin color hue area is a predetermined high lightness area.
  • the mode described in Item 24 is the image processing method according to any one of Items 19 to 22, wherein the intermediate lightness has a coefficient having a sign different from that of the intermediate lightness area of the skin color hue area.
  • the hue area of the lightness area other than the area is the hue area in the skin color hue area.
  • the mode described in Item 25 is the image processing method according to any one of Items 19 to 23,
  • the high lightness skin color hue region includes a lightness value range of 170 to 224 in the HSV color system.
  • Item 26 is the image processing method according to any one of Items 19 to 22, 24, wherein the intermediate lightness region has a lightness value of an HSV color system of 85 to: A range of 169 areas is included.
  • the mode described in Item 27 is the image processing method according to any one of Items 19 to 23 and 25.
  • the hue area other than the high lightness skin color hue area includes at least one of a blue hue area and a green hue area.
  • a lightness area other than the intermediate lightness area is a shadow area.
  • the form described in Item 29 is the image processing method according to Item 27, wherein a hue value of the blue hue region is in a range of 161 to 250 in a hue value of an HSV color system, and The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • Item 30 is the image processing method according to item 28, wherein the lightness value of the shadow region is in the range of 26 to 84 in the lightness value of the HSV color system.
  • the form described in Item 31 is the image processing method according to any one of Items 19 to 30, wherein the hue value of the flesh color hue region is 0 to 39 as a hue value of an HSV color system. It is in the range of 330-359.
  • Item 32 is the image processing method according to any one of Items 19 to 31, wherein the skin color hue region is divided into two regions by a predetermined conditional expression based on lightness and saturation. Divided.
  • Item 33 is the image processing method according to any one of Items 1 to 32, wherein in the image processing condition determining step, an image processing condition for performing a gradation conversion process on the captured image is used. Is determined.
  • the mode described in the paragraph 34 is the image processing method according to any one of the paragraphs 1 to 33, wherein the coefficient preset according to the imaging condition is determined by using a discriminant analysis method. It is a coefficient.
  • the mode described in Item 35 is the image processing method according to Item 34, wherein the coefficient set in advance according to the imaging condition is such that a discriminant function is obtained for a plurality of sample images prepared for each imaging condition. This is the value of the discrimination coefficient adjusted to satisfy a predetermined condition.
  • the captured image data is divided into a plurality of areas each including a combination of at least one of predetermined brightness and hue, a distance from the outer edge of the screen of the captured image data, and brightness. And each divided area occupies the whole of the photographed image data.
  • An occupancy calculation unit that calculates an occupancy indicating a ratio
  • An index calculation unit that calculates an index that specifies a shooting scene by multiplying the calculated occupancy of each area by a coefficient that is set in advance according to shooting conditions;
  • An image processing condition determining unit that determines an image processing condition for the captured image data based on the calculated index.
  • the occupancy calculating unit divides the photographed image data into a plurality of regions each having a predetermined combination of brightness and hue, and for each of the plurality of divided regions, an occupancy ratio indicating a ratio of the occupied image data to the entire region. Is calculated,
  • the index is calculated using at least one of the coefficients having different signs between the coefficient used for the intermediate lightness area of the skin color hue area and the coefficient used for the lightness area other than the intermediate lightness area.
  • Item 38 is the image processing device according to Item 37, wherein in the index calculation unit, a coefficient used for a predetermined high lightness skin color hue area and a coefficient other than the high lightness skin color hue area are used. The signs of the coefficients used for the hue area are different.
  • the form described in Item 39 is the image processing device according to Item 37, wherein the index calculation unit uses a coefficient used for an intermediate lightness area of the skin color hue area and a coefficient used for a lightness area other than the intermediate lightness area. The signs of the coefficients are different.
  • the mode described in Item 40 is the image processing device according to Item 37, wherein
  • a first index is calculated using a different sign coefficient between a predetermined high lightness skin color hue area and a hue area other than the high lightness skin color hue area
  • a second index is calculated using a coefficient with a different sign in the brightness region and a brightness region other than the intermediate brightness region
  • the image processing condition is determined based on the calculated first index and second index.
  • the mode described in Item 41 is characterized in that the image processing device according to any one of Items 37 to 40 calculates an accumulated number of pixels for each predetermined hue and brightness of the captured image data. Including a histogram creation unit for creating a two-dimensional histogram,
  • the occupancy calculation unit calculates the occupancy based on the created two-dimensional histogram.
  • the mode described in Item 42 is the image processing device according to any one of Items 37, 38, 40 and 41, wherein the predetermined high lightness skin color hue region has a coefficient having a sign different from that of the predetermined high lightness skin color hue region.
  • the lightness area of the hue area other than the high lightness skin color hue area is a predetermined high lightness area.
  • the form according to Item 43 is the image processing device according to any one of Items 37, 39, 40, and 41, wherein the image processing device has a coefficient having a sign different from that of the intermediate lightness region of the skin color hue region.
  • the hue area in the lightness area other than the intermediate lightness area is the hue area in the skin color hue area.
  • the form described in Item 44 is the image processing apparatus according to any one of Items 37, 38, 40 to 42, wherein the high lightness skin color hue region has a lightness value of HSV color system of 170.
  • the range of ⁇ 224 is included.
  • Item 45 is the image processing apparatus according to any one of Items 37, 39 to 41, and 43, wherein the intermediate lightness area has a lightness value of 85 to 169 in the HSV color system. The range of the range is included.
  • the mode described in Item 46 is the image processing device according to any one of Items 37, 39, 40 to 42, and 44, wherein the hue region other than the high lightness skin color hue region has a blue color. At least one of a hue region and a green hue region is included.
  • Item 47 is the image processing device according to any one of Items 37, 39 to 41, 43, and 45, wherein the lightness area other than the intermediate lightness area is a shadow area.
  • Item 48 is the image processing device according to Item 46, wherein the hue value of the blue hue region is in the range of 161 to 250 as a hue value of an HSV color system, and The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • the form described in Item 49 is the image processing device according to Item 47, wherein the lightness value of the shadow region is in the range of 26 to 84 in the lightness value of the HSV color system.
  • the mode described in Item 50 is the image processing device according to any one of Items 37 to 49.
  • the hue value of the skin color hue region is in the range of 0 to 39 and 330 to 359 in the HSV color system.
  • the mode described in Item 51 is the image processing device according to any one of Items 37 to 50, wherein the skin color hue area is divided into two areas by a predetermined conditional expression based on lightness and saturation. Divided.
  • the mode described in Item 52 is the image processing device according to Item 36,
  • the occupancy calculating unit divides the photographed image data into a plurality of predetermined regions each including a combination of a distance from the outer edge of the screen of the photographed image data and brightness, and performs the photographing for each of the plurality of divided regions.
  • An occupancy rate indicating the ratio of the image data to the entire image data is calculated, and the index calculation unit uses a coefficient having a different value according to the distance from the outer edge.
  • the form described in Item 53 is the image processing device according to Item 52, wherein the two-dimensional histogram is obtained by calculating the cumulative number of pixels for each distance and brightness from the outer edge of the screen of the captured image data.
  • the occupancy ratio is calculated based on the generated two-dimensional histogram in the occupancy ratio calculation unit.
  • the mode described in Item 54 is the image processing device according to Item 36, wherein
  • the captured image data is divided into a plurality of regions each having a predetermined combination of brightness and hue, and for each of the plurality of divided regions, a ratio of the divided image region to the entire captured image data is calculated.
  • the captured image data is divided into a plurality of predetermined regions each including a combination of the distance from the outer edge of the screen and the brightness of the captured image data. Then, a second occupancy ratio indicating a ratio of the occupied image data to the whole is calculated,
  • the calculated first occupancy rate and the second occupancy rate are multiplied by a coefficient set in advance according to shooting conditions to calculate an index for specifying a shooting scene.
  • a first index is calculated using a coefficient of a different sign between a predetermined high lightness skin color hue region and a hue region other than the high lightness skin color hue region, The brightness area differs from the brightness area other than the intermediate brightness area.
  • a second index is calculated using a coefficient of the sign, and a third index is calculated using a coefficient having a different value according to the distance of the outer edge force,
  • the image processing condition determining unit determines the image processing condition based on the calculated first index, second index, and third index.
  • the mode described in Item 55 is the image processing device according to Item 54,
  • the index calculating unit multiplies each of the first index, the second index, and the third index by a coefficient set in advance according to a shooting condition, and synthesizes the fourth index and the fourth index. 5 indicators are calculated,
  • the image processing condition is determined based on the calculated fourth and fifth indices.
  • the mode described in Item 56 is the image processing device according to Item 54 or 55, wherein the two-dimensional histogram is calculated by calculating the cumulative number of pixels for each distance and brightness from the outer edge of the screen of the captured image data. And a occupancy ratio calculation unit that calculates the second occupancy ratio based on the created two-dimensional histogram.
  • the form described in Item 57 is the image processing device according to Item 54 or 55, wherein the two-dimensional histogram is created by calculating the cumulative number of pixels for each predetermined hue and brightness of the captured image data.
  • the first occupancy ratio is calculated based on the generated two-dimensional histogram in the occupancy ratio calculation unit.
  • the form described in Item 58 is the image processing device according to any one of Items 54 to 57, wherein the high lightness has a coefficient having a sign different from that of the predetermined high lightness skin color hue region.
  • the lightness area of the hue area other than the skin color hue area is a predetermined high lightness area.
  • the mode according to Item 59 is the image processing device according to any one of Items 54 to 57, wherein the intermediate brightness has a coefficient having a sign different from that of the intermediate brightness area of the skin color hue area.
  • the hue area of the lightness area other than the area is the hue area in the skin color hue area.
  • the mode described in Item 60 is the image processing device according to any one of Items 54 to 58,
  • the high lightness skin color hue region includes a lightness value range of 170 to 224 in the HSV color system.
  • the form described in Item 61 is the image processing device according to any one of Items 54 to 57 and 59, wherein the intermediate lightness region has an HSV color system lightness value of 85 to: A range of 169 areas is included.
  • the mode described in Item 62 is the image processing device according to any one of Items 54 to 58 and 60, wherein the hue area other than the high brightness skin hue area includes a blue hue area, At least one of the green hue regions is included.
  • Item 63 is the image processing device according to any one of Items 54 to 57, 59, and 61, wherein the lightness area other than the intermediate lightness area is a shadow area.
  • the form described in Item 64 is the image processing device according to Item 62, wherein the hue value of the blue hue region is in the range of 161 to 250 in the HSV color system, and The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • Item 65 The form described in Item 65 is the image processing device according to Item 63, wherein the lightness value of the shadow region is in the range of 26 to 84 in the lightness value of the HSV color system.
  • the form according to Item 66 is the image processing device according to any one of Items 54 to 65, wherein the hue value of the skin color hue region is 0 to 39 as a hue value of an HSV color system. It is in the range of 330-359.
  • Item 67 is the image processing device according to any one of Items 54 to 66, wherein the skin color hue region is divided into two regions by a predetermined conditional expression based on lightness and saturation. Divided.
  • Item 68 The form described in Item 68 is the image processing device according to any one of Items 36 to 67,
  • the image processing condition determining unit determines image processing conditions for performing a gradation conversion process on the captured image.
  • the coefficient preset according to the imaging condition is obtained using a discriminant analysis method. It is a discrimination coefficient.
  • the form described in Item 70 is the image processing device according to Item 69, wherein the coefficient set in advance according to the imaging condition is such that a discriminant function is determined for a plurality of sample images prepared for each imaging condition. This is the value of the discrimination coefficient adjusted to satisfy a predetermined condition.
  • the form described in Item 71 is
  • the captured image data is divided into a plurality of regions each of which is a combination of at least one of predetermined brightness and hue, a distance from the outer edge of the screen of the captured image data, and brightness, and the photographing is performed for each of the divided regions.
  • An occupancy calculating unit for calculating an occupancy indicating a ratio of the image data to the entire image data;
  • An index calculation unit that calculates an index that specifies a shooting scene by multiplying the calculated occupancy of each area by a coefficient that is set in advance according to shooting conditions;
  • An image processing condition determining unit that determines an image processing condition for the captured image data based on the calculated index
  • An image processing unit that performs image processing on the captured image data according to the determined image processing conditions
  • An image data forming unit that forms the image data subjected to the image processing on an output medium.
  • the mode described in Item 72 is the image recording device according to Item 71,
  • the occupancy calculating unit divides the captured image data into a plurality of regions each having a predetermined combination of brightness and hue, and for each of the plurality of divided regions, an occupancy ratio indicating a ratio of the occupied area to the entire photographic image data. Is calculated,
  • the index is calculated by using at least one of the coefficients having different signs between the coefficient used for the intermediate lightness area of the skin color hue area and the coefficient used for the lightness area other than the intermediate lightness area.
  • Item 73 The form described in Item 73 is the image recording device described in Item 72, wherein
  • the sign of a coefficient used for a predetermined high lightness skin color hue region and the sign of a coefficient used for a hue region other than the high lightness skin color hue region are different.
  • the mode described in Item 74 is the image recording device according to Item 72, wherein
  • a coefficient used for an intermediate lightness area of a skin color hue area is calculated.
  • the signs of the coefficients used in the lightness area other than the intermediate lightness area are different.
  • the mode described in Item 75 is the image recording device according to Item 72, wherein
  • a first index is calculated using a different sign coefficient between a predetermined high lightness skin color hue area and a hue area other than the high lightness skin color hue area
  • a second index is calculated using a coefficient with a different sign in the brightness region and a brightness region other than the intermediate brightness region
  • the image processing condition is determined based on the calculated first index and second index.
  • the mode described in Item 76 is the image recording device according to any one of Items 72 to 75,
  • a histogram creating unit that creates a two-dimensional histogram by calculating the cumulative number of pixels for each predetermined hue and brightness of the captured image data, wherein the occupancy calculating unit calculates the occupancy based on the created two-dimensional histogram. The occupancy is calculated.
  • the form according to Item 77 is the image recording device according to any one of Items 72, 73, 75, and 76, wherein the predetermined high lightness skin color hue region has a coefficient having a sign different from that of the predetermined high lightness skin color hue region.
  • the lightness area of the hue area other than the high lightness skin color hue area is a predetermined high lightness area.
  • the form according to Item 78 is the image recording device according to any one of Items 72, 74, 75 and 76, wherein the image recording apparatus has a coefficient having a sign different from that of the intermediate lightness area of the skin color hue area.
  • the hue area in the lightness area other than the intermediate lightness area is the hue area in the skin color hue area.
  • the form according to Item 79 is the image recording device according to any one of Items 72, 73, and 75 to 77, wherein the high lightness skin color hue region has a lightness value of an HSV color system. In the range of 170 to 224.
  • the mode described in Item 80 is the image recording device according to any one of Items 72, 74 to 76, and 78, wherein the intermediate lightness area has a lightness value of 85 to 85 in the HSV color system. : Includes a range of 169 areas.
  • the mode according to Item 81 is the image recording device according to any one of Items 72, 73, 75 to 77, and 79, wherein the hue region other than the high lightness skin color hue region includes blue. At least one of a hue region and a green hue region is included.
  • the form described in Item 82 is the image recording device according to any one of Items 72, 74 to 76, 78, and 80, wherein a lightness area other than the intermediate lightness area is a shadow area.
  • the hue value of the blue hue region is within the range of 16 :! to 250 in the HSV color system, and the hue value of the green hue region is 40 to 160 in the HSV color system. Within the range.
  • Item 84 The form described in Item 84 is the image recording device according to Item 92, wherein the lightness value of the shadow area is in the range of 26 to 84 in the lightness value of the HSV color system.
  • Item 85 The form described in Item 85 is the image recording apparatus according to any one of Items 72 to 84, wherein the hue value of the flesh color hue region is 0 to 39 as a hue value of an HSV color system. It is in the range of 330-359.
  • Item 86 The form described in Item 86 is the image recording device according to any one of Items 72 to 85, wherein the skin color hue region is divided into two regions by a predetermined conditional expression based on lightness and saturation. Divided.
  • the occupancy calculating unit divides the photographed image data into a plurality of predetermined regions each including a combination of a distance from the outer edge of the screen of the photographed image data and brightness, and performs the photographing for each of the plurality of divided regions. Calculate the occupancy rate that indicates the proportion of the entire image data,
  • coefficients having different values are used according to the distance from the outer edge.
  • Item 88 The form described in Item 88 is the image recording device according to Item 87, wherein
  • a histogram creation unit that creates a two-dimensional histogram by calculating the cumulative number of pixels for each of the distance and brightness from the outer edge of the screen of the captured image data
  • the occupancy calculation unit calculates the occupancy based on the created two-dimensional histogram.
  • the captured image data is converted into a combination of predetermined brightness and hue. Calculating a first occupancy rate indicating a ratio of the captured image data to the entire captured image data for each of the plurality of divided areas, and converting the captured image data into the captured image data.
  • the data is divided into a plurality of predetermined regions each having a combination of the distance from the outer edge of the screen and the brightness, and a second occupancy ratio is calculated for each of the plurality of divided regions, which indicates a ratio of the data to the entire captured image data.
  • the calculated first occupancy rate and the second occupancy rate are multiplied by a coefficient set in advance according to shooting conditions to calculate an index for specifying a shooting scene.
  • a first index is calculated using a coefficient of a different sign between a predetermined high lightness skin color hue region and a hue region other than the high lightness skin color hue region
  • a second index is calculated using a coefficient with a different sign in the brightness area and a brightness area other than the intermediate brightness area
  • a third index is calculated using a coefficient having a different value according to the distance of the outer edge force.
  • the image processing condition determining unit determines the image processing condition based on the calculated first index, second index, and third index.
  • the form according to Item 90 is the image recording device according to Item 89,
  • the index calculating unit multiplies each of the first index, the second index, and the third index by a coefficient set in advance according to a shooting condition, and synthesizes the fourth index and the fourth index. 5 indicators are calculated,
  • the image processing condition is determined based on the calculated fourth and fifth indices.
  • the form according to Item 91 is the image recording device according to Item 89 or 90,
  • a histogram creation unit that creates a two-dimensional histogram by calculating the cumulative number of pixels for each of the distance and brightness from the outer edge of the screen of the captured image data
  • the occupancy calculation unit calculates the second occupancy based on the created two-dimensional histogram.
  • the form according to Item 92 is the image recording device according to Item 89 or 90,
  • the mode according to Item 93 is the image recording device according to any one of Items 89 to 92, wherein the high lightness has a coefficient having a sign different from that of the predetermined high lightness skin hue region.
  • the lightness area of the hue area other than the skin color hue area is a predetermined high lightness area.
  • the form according to Item 94 is the image recording device according to any one of Items 89 to 93, wherein the intermediate lightness has a coefficient having a sign different from that of the intermediate lightness area of the skin color hue area.
  • the hue area of the lightness area other than the area is the hue area in the skin color hue area.
  • Item 95 The form described in Item 95 is the image recording device according to any one of Items 89 to 93,
  • the high lightness skin color hue region includes a lightness value range of 170 to 224 in the HSV color system.
  • Item 96 is the image recording device according to any one of Items 89 to 92 and 94, wherein the intermediate lightness region has a lightness value of 85 to from HSV color system: A range of 169 areas is included.
  • the form described in Item 97 is the image recording apparatus according to any one of Items 89 to 83 and 95, wherein the hue area other than the high lightness skin color hue area includes a blue hue area, At least one of the green hue regions is included.
  • Item 98 The form described in Item 98 is the image recording apparatus according to any one of Items 89 to 92, 94, and 96, wherein the lightness area other than the intermediate lightness area is a shadow area.
  • the form described in Item 99 is the image recording device according to Item 97, wherein the hue value of the blue hue region is in the range of 161 to 250 in the HSV color system, and The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • Item 101 The form described in Item 101 is the image recording device according to any one of Items 89 to 100, wherein the hue value of the flesh color hue region is 0 to 39 as a hue value of an HSV color system. And 330-3 It is in the range of 59.
  • the mode described in Item 102 is the image recording device according to any one of Items 89 to 101, wherein the skin color hue area is divided into two areas by a predetermined conditional expression based on lightness and saturation. Is divided into
  • the mode according to Item 103 is characterized in that, in the image recording device according to any one of Items 71 to 102, the image processing condition determining unit performs a gradation conversion process on the captured image. Are determined.
  • the coefficient preset in accordance with the imaging conditions is obtained using a discriminant analysis method. It is the discrimination coefficient.
  • Item 105 The form described in Item 105 is the image recording device described in Item 104,
  • the coefficient preset according to the shooting conditions is a value of a discrimination coefficient adjusted so that a discriminant function satisfies a predetermined condition for a plurality of sample images prepared for each shooting condition.
  • the captured image data is divided into a plurality of areas each including at least one of predetermined brightness and hue, and distance and brightness from the outer edge of the screen of the captured image data.
  • the mode described in Item 107 is an image processing program according to Item 106,
  • the captured image data is divided into a plurality of regions each having a predetermined combination of lightness and hue, and a ratio of the divided plurality of regions to the entire captured image data is indicated. Calculate the occupancy,
  • a coefficient used for a coefficient used for a predetermined high lightness skin color hue area and a coefficient used for a coefficient used for a hue area other than the high lightness skin color hue area are different. Number or
  • the index is calculated by using at least one of the coefficients having different signs between the coefficient used for the intermediate lightness area of the skin color hue area and the coefficient used for the lightness area other than the intermediate lightness area.
  • the form described in Item 108 is the image processing program according to Item 107, wherein in the index calculation step, a coefficient used for a predetermined high lightness skin color hue region and a coefficient other than the high lightness skin color hue region are used. The signs of the coefficients used for the hue area are different.
  • the form described in Item 109 is the image processing program according to Item 107, wherein in the index calculation step, a coefficient used for an intermediate lightness area of a skin color hue area and a coefficient used for a lightness area other than the intermediate lightness area are used. The signs of the coefficients are different.
  • Item 110 The form described in Item 110 is the image processing program described in Item 107,
  • a first index is calculated using a different sign coefficient between a predetermined high lightness skin color hue area and a hue area other than the high lightness skin hue area, and a first hue area of the skin hue area is calculated.
  • a second index is calculated using coefficients of different signs in the intermediate brightness region and a brightness region other than the intermediate brightness region,
  • the image processing condition is determined based on the calculated first index and second index.
  • Item 111 The form described in Item 111 is characterized in that, in the image processing program according to any one of Items 107 to 110, the number of accumulated pixels is calculated for each predetermined hue and brightness of the captured image data. Including a histogram creation step of creating a dimensional histogram,
  • the occupancy is calculated based on the created two-dimensional histogram.
  • the form described in Item 112 is the image processing program according to any one of Items 107, 108, 110, and 111, wherein the image processing program has a coefficient whose sign is different from that of the predetermined high lightness skin color hue area.
  • the lightness area of the hue area other than the high lightness skin color hue area is a predetermined high lightness area.
  • Item 114 is the image processing program according to any one of Items 107, 108, and 110 to 112, wherein the high lightness skin color hue region has a lightness value of an HSV color system.
  • An area ranging from 170 to 224 is included.
  • Item 115 is the image processing program according to any one of Items 107, 109 to 111, and 113, wherein the intermediate lightness region has a lightness value of 85 to: It contains 169 regions.
  • Item 116 is the image processing program according to any one of Items 107, 109, 110 to 112, and 114, wherein the hue area other than the high lightness skin color hue area is
  • Item 117 In the image processing program according to any one of Items 107, 109 to 111, 113, and 115, a lightness region other than the intermediate lightness region is a shadow region.
  • the form described in Item 118 is the image processing program according to Item 116, wherein the hue value of the blue hue region is in the range of 161 to 250 in the HSV color system, and the green color is The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • the form described in Item 119 is the image processing program according to Item 117, wherein the lightness value of the one shadow region is in the range of 26 to 84 in the lightness value of the HSV color system.
  • Item 120 The form described in Item 120 is the image processing program according to any one of Items 107 to 119, wherein the hue value of the flesh color hue region is 0 to 39 in hue value of HSV color system.
  • Item 121 is the image processing program according to any one of Items 107 to 120, wherein the skin color hue area is divided into two areas by a predetermined conditional expression based on lightness and saturation. Is divided into
  • the form described in Item 122 is the image processing program according to Item 106, wherein, in the occupancy ratio calculating step, the photographed image data includes a combination of a distance from an outer edge of a screen of the photographed image data and a brightness. Divided into a plurality of predetermined areas, and An occupancy rate indicating a ratio of the photographic image data to the entire captured image data is calculated for each of the numbers of areas, and in the index calculation step, a coefficient having a different value is used according to a distance from the outer edge.
  • Item 123 The form described in Item 123 is an image processing program according to Item 122,
  • the occupancy is calculated based on the created two-dimensional histogram.
  • the mode described in Item 124 is the image processing program described in Item 106,
  • the captured image data is divided into a plurality of regions each having a predetermined combination of brightness and hue, and a ratio of the divided plurality of regions to the entire captured image data is indicated.
  • the first occupancy is calculated, and the captured image data is divided into a plurality of predetermined regions each including a combination of a distance from the outer edge of the screen of the captured image data and brightness, and each of the plurality of divided regions is Calculating a second occupation ratio indicating a ratio of the photographic image data to the whole,
  • an index for specifying a shooting scene is calculated by multiplying the calculated first occupancy and second occupancy by a coefficient set in advance according to shooting conditions.
  • a first index is calculated using a different sign coefficient between a predetermined high lightness skin color hue area and a hue area other than the high lightness skin hue area, and a first hue area of the skin hue area is calculated.
  • a second index is calculated using a coefficient with a different sign in the intermediate brightness area and a brightness area other than the intermediate brightness area, and a third index is calculated using a coefficient having a different value according to the distance of the outer edge force. Is calculated,
  • the image processing condition determining step the image processing condition is determined based on the calculated first index, second index, and third index.
  • Item 125 The mode described in Item 125 is the image processing program according to Item 124,
  • the first index, the second index, and the third index are multiplied by a coefficient set in advance according to a shooting condition, and the fourth index is synthesized. And the fifth indicator are calculated,
  • the image processing condition determining step the image processing condition is determined based on the calculated fourth index and fifth index.
  • the form described in Item 126 is a two-dimensional histogram by calculating the cumulative number of pixels for each of the distance from the outer edge of the screen and the brightness of the captured image data in the image processing program described in Item 124 or 125. And a second step in which the second occupancy is calculated based on the created two-dimensional histogram.
  • Item 127 The form described in Item 127 is the image processing program according to Item 124 or 125, wherein the two-dimensional histogram is created by calculating a cumulative number of pixels for each predetermined hue and brightness of the captured image data. Including the creation process,
  • the first occupancy is calculated based on the created two-dimensional histogram.
  • the form described in Item 128 is the image processing program according to any one of Items 124 to 127, wherein the image processing program has a coefficient whose sign is different from that of the predetermined high lightness skin color hue region.
  • the lightness area of the hue area other than the skin tone hue area is a predetermined high lightness area.
  • the form described in Item 129 is the image processing program according to any one of Items 124 to 127, wherein the intermediate lightness has a coefficient having a sign different from that of the intermediate lightness area of the skin color hue area.
  • the hue area of the lightness area other than the area is the hue area in the skin color hue area.
  • the form according to Item 130 is the image processing program according to any one of Items 124 to 128, wherein the high lightness skin color hue region has a lightness value of 170 to 224 in the HSV color system.
  • the range of the range is included.
  • the form according to Item 131 is the image processing program according to any one of Items 124 to 127 or 129, wherein: A range area is included.
  • the mode described in Item 132 is the image processing method described in any one of Items 124 to 128 and 130.
  • the hue area other than the high brightness skin color hue area includes at least one of a blue hue area and a green hue area.
  • a lightness area other than the intermediate lightness area is a shadow area.
  • the form described in Item 134 is the image processing program according to Item 132, wherein the hue value of the blue hue region is in the range of 161 to 250 in a HSV color system, and the green color is The hue value in the hue region is in the range of 40 to 160 in the HSV color system.
  • Item 135 The form described in Item 135 is the image processing program according to Item 133, wherein the lightness value of the one shadow area is in the range of 26 to 84 in the lightness value of the HSV color system.
  • Item 136 The form described in Item 136 is the image processing program according to any one of Items 124 to 135, wherein the hue value of the skin color hue region is 0 to 39 in the HSV color system.
  • Item 137 The form described in Item 137 is characterized in that, in the image processing program according to any one of Items 124 to 136, the skin color hue area is divided into two areas by a predetermined conditional expression based on lightness and saturation. Is divided into
  • the form described in Item 138 is an image processing program according to any one of Items 106 to 147, wherein the image processing condition determining step performs a gradation conversion process on the captured image. Conditions are determined.
  • the coefficient preset according to the imaging condition is obtained by using a discriminant analysis method. This is the discrimination coefficient.
  • the mode described in Item 140 is the image processing program described in Item 139,
  • the coefficient preset according to the shooting conditions is a value of a discrimination coefficient adjusted so that a discriminant function satisfies a predetermined condition for a plurality of sample images prepared for each shooting condition.
  • FIG. 1 is a perspective view showing an external configuration of an image recording apparatus 1 according to an embodiment of the present invention.
  • the image recording apparatus 1 has a magazine loading section 3 for loading a photosensitive material on one side surface of a housing 2. Inside the housing 2, there are provided an exposure processing section 4 for exposing the photosensitive material, and a print making section 5 for developing and drying the exposed photosensitive material to make a print.
  • the other side of the housing 2 is provided with a tray 6 for discharging the print created by the print creation unit 5.
  • a CRT (Cathode Ray Tube) 8 as a display device, a film scanner unit 9 for reading a transparent original, a reflective original input device 10, and an operation unit 11 are provided on the upper part of the housing 2.
  • the CRT 8 constitutes display means for displaying an image of the image information to be printed on the screen.
  • the housing 2 is provided with an image reading unit 14 capable of reading image information recorded on various digital recording media, and an image writing unit 15 capable of writing (outputting) image signals on various digital recording media.
  • a control unit 7 for centrally controlling these units is provided inside the housing 2.
  • the image reading unit 14 is provided with a PC card adapter 14a and a floppy (registered trademark) disk adapter 14b, so that the PC card 13a and the floppy (registered trademark) disk 13b can be inserted.
  • the PC card 13a has, for example, a memory in which a plurality of frame image data captured by a digital camera is recorded.
  • a plurality of frame image data captured by a digital camera is recorded on the floppy disk 13b.
  • a recording medium on which frame image data is recorded other than the PC card 13a and the floppy (registered trademark) disk 13b for example, a multimedia card (registered trademark), a memory stick (registered trademark), MD data, CD-ROM, etc. There is.
  • the image writing unit 15 is provided with a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c. It has become.
  • the optical disk 16c includes a CD-R, a DVD-R and the like.
  • the operation unit 11, the CRT 8, the film scanner unit 9, the reflection original input device 10, and the image reading unit 14 are configured to be integrally provided in the housing 2. Any of four or more of the above may be provided separately.
  • a photosensitive material is exposed and developed to produce a print.
  • the print creation method is not limited to this, and for example, a method such as an ink jet method, an electrophotographic method, a heat-sensitive method, or a sublimation method may be used.
  • FIG. 2 shows a main configuration of the image recording apparatus 1.
  • the image recording apparatus 1 includes a control unit 7, an exposure processing unit 4, a print generation unit 5, a film scanner unit 9, a reflection document input unit 10, an image reading unit 14, a communication unit (input) 32, It comprises an image writing unit 15, a data storage unit 71, a template storage unit 72, an operation unit 11, a CRT 8, and a communication unit (output) 33.
  • the control unit 7 is configured by a microcomputer, and includes various control programs stored in a storage unit (not shown) such as a ROM (Read Only Memory), a CPU (Central Processing Unit) (not shown), The operation of each unit constituting the image recording apparatus 1 is controlled by the cooperation of the above.
  • the control section 7 has an image processing section 70 according to the image processing apparatus of the present invention, and receives a signal from the film scanner section 9 or the reflection document input apparatus 10 based on an input signal (command information) from the operation section 11.
  • the read image signal, the image signal read from the image reading unit 14, and the external device power are also subjected to image processing for the image signal input via the communication unit 32 to form image information for exposure, and Output to processing unit 4.
  • the image processing unit 70 performs conversion processing according to the output form on the image signal that has been subjected to the image processing, and outputs the result.
  • the output destination of the image processing unit 70 includes the CRT 8, the image writing unit 15, the communication means (output) 33, and the like.
  • the exposure processing section 4 exposes the photosensitive material to an image, and outputs the photosensitive material to the print creating section 5.
  • the print creating section 5 develops the exposed photosensitive material and dries it to create prints Pl, P2 and P3.
  • Print P1 is a print of service size, high-definition size, panorama size, etc.
  • Print P2 is an A4 size print
  • print P3 is a business card size print.
  • the exposure processing section 4 and the print creation section 5 may be combined into an image data creation section.
  • the film scanner section 9 reads a frame image recorded on a transparent original such as a developed negative film N or a reversal film captured by an analog camera, and acquires a digital image signal of the frame image.
  • the reflective original input device 10 is It reads the image on the printout (photo prints, documents, various types of printed materials) and acquires digital image signals.
  • the image reading section 14 reads out the frame image information recorded on the PC card 13a or the floppy (registered trademark) disk 13b and transfers it to the control section 7.
  • the image reading unit 14 has a PC card adapter 14a, a floppy (registered trademark) disk adapter 14b, and the like as image transfer means 30.
  • the image reading section 14 reads frame image information recorded on the PC card 13a inserted into the PC card adapter 14a or the floppy disk 13b inserted into the floppy disk adapter 14b.
  • the PC card adapter 14a for example, a PC card reader or a PC card slot is used.
  • the communication means (input) 32 receives an image signal representing a captured image and a print command signal from another computer in the facility where the image recording apparatus 1 is installed, or a distant computer via the Internet or the like. I do.
  • the image writing unit 15 includes a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c as the image transport unit 31.
  • the image writing unit 15 sends the floppy (registered trademark) disk 16a inserted into the floppy (registered trademark) disk adapter 15a and the MO inserted into the MO adapter 15b according to the write signal input from the control unit 7.
  • 16b the image signal generated by the image processing method of the present invention is written on the optical disk 16c inserted into the optical disk adapter 15c.
  • the data storage unit 71 stores the image information and the corresponding order information (information on how many prints are to be created from which frame image, information on the print size, etc.) and sequentially stores them.
  • the template storage means 72 stores data of at least one template for setting a combined area with a background image, an illustration image, and the like, which are sample image data corresponding to the sample identification information Dl, D2, and D3.
  • a predetermined template is selected from a plurality of templates stored in the template storage means 72 and set by the operation of the operator, the frame image information is synthesized by the selected template, and the specified sample identification information Dl, D2, The sample image data selected based on D3 is combined with the image data and / or character data based on the order, and a print based on the designated sample is created. This Is synthesized by the well-known chromaki method.
  • the sample identification information Dl, D2, and D3 that specify a print sample is configured so that the operation unit 11 is also used to input the sample identification information. Since it is recorded in a file, it can be read by reading means such as OCR. Alternatively, the input can be made by an operator's keyboard operation.
  • the sample image data is recorded corresponding to the sample identification information D1 specifying the print sample, the sample identification information D1 specifying the print sample is input, and the input sample identification information is input.
  • D1 to select sample image data combine the selected sample image data with the image data and / or character data based on the order, and create a print based on the specified sample image. Users can order prints by actually getting the samples and responding to the diverse requirements of a wide range of users.
  • the first sample identification information D2 designating the first sample summaries and the image data of the first sample summaries are stored, and the second sample identification information D3 designating the second samples is designated with the second sample identification information D3.
  • the image data of the second sample is stored, and the sample data selected based on the specified first and second sample identification information D2, D3, and the image data and / or character data based on the order are stored. Since images are combined and a print based on a designated sample is created, a wide variety of images can be combined, and a print can be created that meets the needs of a wider range of users.
  • the operation unit 11 has information input means 12.
  • the information input means 12 is composed of, for example, a touch panel or the like, and outputs a press signal of the information input means 12 to the control section 7 as an input signal.
  • the operation unit 11 may be configured to include a keyboard, a mouse, and the like.
  • the CRT 8 displays image information and the like according to the display control signal input from the control unit 7.
  • the communication means (output) 33 converts the image signal representing the captured image subjected to the image processing of the present invention and the accompanying order information into another core in the facility where the image recording apparatus 1 is installed. It is transmitted to a remote computer via a computer or the Internet.
  • the image recording apparatus 1 includes images and image originals of various digital media.
  • Image input means for capturing image information obtained by split photometry of the image
  • image processing means image output means for displaying, printing out, and writing the processed image to an image recording medium, and a facility through a communication line.
  • FIG. 3 shows the internal configuration of the image processing unit 70.
  • the image processing unit 70 includes an image adjustment processing unit 701, a film scan data processing unit 702, a reflection original scan data processing unit 703, an image data format decoding processing unit 704, a template processing unit 705, and CRT specific processing.
  • the processing unit 706 includes a printer-specific processing unit A707, a printer-specific processing unit B708, and an image data format creation processing unit 709.
  • the film scan data processing unit 702 performs a calibration operation unique to the film scanner unit 9, a negative / positive inversion (in the case of a negative original), a dust removal, a contrast adjustment, and the like on the image data input from the film scanner unit 9. Processing such as grain noise removal and sharpening enhancement is performed, and the processed image data is output to the image adjustment processing unit 701.
  • the image adjustment processing unit 701 also outputs film size, negative / positive type, information on the main subject recorded optically or magnetically on the film, information on shooting conditions (for example, information described in APS), and the like. .
  • the reflection original scan data processing unit 703 performs a calibration operation unique to the reflection original input device 10, negative / positive inversion (in the case of a negative original), dust removal, and contrast adjustment for the image data input from the reflection original input device 10.
  • the image processing section 701 performs processing such as noise removal and sharpening enhancement, and outputs the processed image data to the image adjustment processing section 701.
  • the image data format decryption processing unit 704 converts the image data input from the image transfer means 30 and Z or the communication means (input) 32 into a compression code, if necessary, according to the data format of the image data.
  • the image processing unit 70 performs processing such as restoration and conversion of a color data expression method, converts the data into a data format suitable for the operation in the image processing unit 70, and outputs the data to the image adjustment processing unit 701.
  • the image data format decoding processing unit 704 detects the designated information. Is output to the image adjustment processing unit 701.
  • Information on the size of the output image is embedded in the header information and tag information of the image data acquired by the image transfer means 30.
  • the image adjustment processing unit 701 includes a film scanner unit 9, a reflection original input device 10, an image transfer unit 30, a communication unit (input) 32, and a template based on a command from the operation unit 11 or the control unit 7.
  • the image data received from the image processing unit 705 is subjected to image processing described below (see FIGS. 5, 6, and 12) to convert the digital image data for image formation optimized for viewing on an output medium.
  • the processing is performed so as to obtain the optimal color reproduction within the color gamut of the sRGB standard.
  • processing is performed so that optimum color reproduction is obtained within the color gamut of silver halide photographic paper.
  • color gamut compression it also includes gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, processing corresponding to output characteristics (LUT) of an output device, and the like.
  • tone compression processing such as noise suppression, sharpening, gray balance adjustment, saturation adjustment, or overlaying and burning is performed.
  • the image adjustment processing unit 701 includes a scene determination unit 710 and a gradation conversion unit 711.
  • FIG. 4 shows the internal configuration of the scene determination unit 710.
  • the scene determining unit 710 includes a ratio calculating unit 712, an index calculating unit 713, and an image processing condition determining unit 714, as shown in FIG.
  • the ratio calculation unit 712 includes a color system conversion unit 715, a histogram creation unit 716, and an occupancy calculation unit 717.
  • the color system conversion unit 715 converts the RGB (Red, Green, Blue) values of the captured image data into the HSV color system.
  • the HSV color system expresses image data with three elements: hue (Hue), saturation (Saturation), and lightness (Value or Brightness), and is based on the color system proposed by Munsell. It was invented.
  • “brightness” means “brightness” which is generally used unless otherwise specified.
  • V (0 to 255) of the HSV color system is used as “brightness”, but a unit system representing the brightness of any other color system may be used. that time, Needless to say, the values of various coefficients and the like described in the present embodiment are calculated again.
  • the captured image data in the present embodiment is image data in which a person is a main subject.
  • Histogram creating section 716 creates a two-dimensional histogram by dividing the captured image data into regions each having a predetermined combination of hue and brightness, and calculating the cumulative number of pixels for each of the divided regions. Further, the histogram creating unit 716 divides the captured image data into a predetermined area including a combination of the distance from the outer edge of the screen and the brightness of the captured image data, and calculates the cumulative number of pixels for each of the divided areas. This creates a two-dimensional histogram. The 3D histogram is created by dividing the captured image data into regions consisting of a combination of the distance from the outer edge of the screen, brightness and hue of the captured image data, and calculating the cumulative number of pixels for each divided region. You may make it. In the following, it is assumed that a method of creating a two-dimensional histogram is adopted.
  • the occupancy calculation unit 717 indicates the ratio of the cumulative number of pixels calculated by the histogram creation unit 716 to the total number of pixels (the entire captured image data) for each region divided by the combination of brightness and hue. Calculate the first occupancy (see Table 1). In addition, the occupancy calculation unit 717 calculates the total number of pixels (the number of captured image data) calculated by the histogram creation unit 716 for each region divided by the combination of the distance from the outer edge of the screen and the brightness of the captured image data. Calculate the second occupancy rate (see Table 4), which indicates the percentage of the total.
  • the index calculation unit 713 multiplies the first occupancy calculated for each area by the occupancy calculation unit 717 by a first coefficient (see Table 2) preset according to the imaging conditions. By calculating the sum, the index 1 for specifying the shooting scene is calculated.
  • the shooting scene indicates a light source condition for shooting a subject, such as a direct light, a backlight, a strobe, and the like.
  • Index 1 indicates the characteristics of flash photography such as indoor photography, close-up photography, and high brightness of the complexion, and only images that should be identified as “stroke” are separated from other photography scenes (light source conditions). It is for doing.
  • the index calculating unit 713 uses coefficients of different signs in a predetermined high lightness skin color hue area and a hue area other than the high lightness skin color hue area.
  • the predetermined high lightness skin color hue area includes an area of 170 to 224 in the lightness value of the HSV color system. I will.
  • the hue area other than the predetermined high lightness skin color hue area includes at least one of a blue hue area (hue value 16 :! to 250) and a green hue area (hue value 40 to 160). included.
  • the index calculating unit 713 adds a second coefficient (see Table 3) preset according to the imaging condition to the first occupancy calculated for each area in the occupancy calculating unit 717.
  • the index 2 for specifying the shooting scene is calculated by multiplying and taking the sum.
  • Index 2 shows the characteristics of backlight shooting such as outdoor shooting degree, sky blue high brightness, face color low brightness etc. in a composite manner.Only the images that should be determined as ⁇ backlight '' are captured in other shooting scenes (light source conditions). This is to separate them from).
  • the index calculating unit 713 determines different codes for the intermediate lightness area of the skin color hue area (hue values 0 to 39, 330 to 359) and the lightness area other than the intermediate lightness area. Use the coefficient of.
  • the intermediate lightness area of the skin color hue area includes an area having a lightness value of 85 to 169.
  • the lightness area other than the intermediate lightness area includes, for example, a shadow area (lightness values 26 to 84).
  • the index calculating unit 713 adds a third coefficient (see Table 5) preset in accordance with the imaging conditions to the second occupancy calculated for each area by the occupancy calculating unit 717.
  • the index 3 for specifying the shooting scene is calculated by multiplying and taking the sum.
  • the index 3 indicates the difference between the backlight and the strobe in the brightness relationship between the center and the outside of the screen of the captured image data, and quantitatively indicates only the image that should be distinguished from the backlight or the strobe.
  • the index calculation unit 713 uses coefficients of different values according to the distance of the captured image data from the outer edge of the screen.
  • the index calculating unit 713 calculates the index 4 by multiplying the index 1 and the index 3 by a coefficient preset according to the imaging condition and combining them. Further, the index calculating unit 713 calculates the index 5 by multiplying each of the index 1, the index 2 and the index 3 by a coefficient preset according to the photographing condition, and combining them. A specific method of calculating the indexes 1 to 5 in the index calculation unit 713 will be described in detail in the operation description of the present embodiment described later.
  • the image processing condition determining unit 714 determines the index 4 and the finger calculated by the index calculating unit 713.
  • the shooting scene (light source condition) is determined based on the value of the target 5, and the determination result is used as the index 4 and the index 5 calculated by the index calculator 713, and other various parameters (such as the average luminance of the captured image data).
  • Image processing conditions (gradation conversion processing conditions) for the captured image data are determined based on the image data.
  • the gradation conversion unit 711 performs gradation conversion of the captured image data according to the image processing conditions (gradation conversion processing conditions) determined by the image processing condition determination unit 714.
  • Template processing unit 705 reads out predetermined image data (template) from template storage unit 72 based on a command from image adjustment processing unit 701, and combines the image data to be subjected to image processing with the template. The template processing is performed, and the image data after the template processing is output to the image adjustment processing unit 701.
  • the CRT-specific processing unit 706 performs processing such as a change in the number of pixels or color matching as necessary on the image data input from the image adjustment processing unit 701, to obtain information that needs to be displayed such as control information. Output the synthesized image data for display to CRT8.
  • the printer-specific processing unit A707 performs printer-specific calibration processing, color matching, pixel number change, etc., as necessary, and outputs the processed image data to the exposure processing unit 4.
  • a printer-specific processing unit B708 is provided for each connected printer.
  • the printer-specific processing unit B708 performs printer-specific calibration processing, color matching, and pixel number change processing, and outputs processed image data to the external printer 51.
  • the image data format creation processing unit 709 converts the image data input from the image adjustment processing unit 701 into various general-purpose image formats, such as JPEG, TIFF, and Exif, as necessary. And outputs the processed image data to the image transport unit 31 and the communication means (output) 33.
  • This is a division provided to help understand the function of the processing unit 70, and does not necessarily have to be implemented as a physically independent device.For example, even if it is implemented as a division of the type of software processing by a single CPU, Yore,
  • the captured image data is divided into predetermined image regions, and an occupancy ratio calculation process is performed to calculate an occupancy ratio indicating the ratio of each divided region to the entire captured image data ( Step Sl).
  • an occupancy ratio calculation process is performed to calculate an occupancy ratio indicating the ratio of each divided region to the entire captured image data ( Step Sl). The details of the occupancy calculation process will be described later with reference to FIGS.
  • step S2 an index (quantitatively representing a light source condition) for specifying a shooting scene based on the occupancy calculated by the ratio calculation unit 712 and a coefficient preset in accordance with the shooting condition (index 1) To 5) are calculated (step S2).
  • the index calculation process in step S2 will be described later in detail.
  • step S3 the shooting scene is determined based on the index calculated in step S2, and image processing conditions (gradation conversion processing conditions) for the captured image data are determined according to the determination result (step S3).
  • image processing conditions gradation conversion processing conditions
  • the RGB values of the captured image data are converted to the HSV color system (step S10).
  • Figure 7 shows an example of a conversion program (HSV conversion program) that obtains hue, saturation, and lightness values by converting RGB to the HSV color system, using program code (c language).
  • HSV conversion program shown in Fig. 7
  • the values of digital image data, which is input image data are defined as InR, InG, and InB
  • the calculated hue values are defined as OutH
  • the scale is defined as 0 to 360.
  • the degree value as OutS
  • the brightness value as OutV
  • the unit 0 to 255. Yes.
  • the captured image data is divided into regions each having a predetermined combination of brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each of the divided regions (step Sll).
  • a two-dimensional histogram is created by calculating the cumulative number of pixels for each of the divided regions.
  • the hue (H) is a skin hue area (HI and H2) with a hue value of 0 to 39 and 330 to 359, a hue value of 40 to: a green hue area (H3) with a hue value of 160, and a blue hue with a hue value of 161 to 250. It is divided into four areas: area (H4) and red hue area (H5).
  • the red hue region (H5) is not used in the following calculations based on the finding that it does not contribute much to the discrimination of the shooting scene.
  • the skin color hue area is further divided into a skin color area (HI) and another area (H2).
  • HI skin color area
  • H2 another area
  • the hue '(H) satisfying the following equation (1) is defined as the skin color area (HI), and the area not satisfying the equation (1). Is (H2).
  • Hue '(H) Hue (H) + 60 (when 0 ⁇ Hue (H) + 300),
  • Hue '(H) Hue (H) -300 (when 300 ⁇ Hue (H) + 360),
  • Brightness Y InRX0.30 + InGXO.59 + InBXO.11,
  • a first occupation ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S12).
  • the occupancy ratio calculation processing ends. Assuming that the first occupancy rate calculated in a divided area composed of a combination of the lightness area vi and the hue area Hj is Rij, the first occupancy rate in each divided area is expressed as shown in Table 1.
  • Table 2 shows the accuracy as strobe shooting, that is, the first coefficient necessary for calculating the index 1 that quantitatively indicates the brightness state of the face area at the time of strobe shooting, obtained by the discriminant analysis. This is shown for each divided area.
  • the coefficients of each divided region shown in Table 2 are weighting factors for multiplying the first occupancy Rij of each divided region shown in Table 1.
  • the coefficient of each divided region can be obtained, for example, by the following procedure.
  • a two-dimensional histogram is created by preparing a plurality of sets of image data for each shooting condition and calculating the accumulated number of pixels for each image data for each divided region having a predetermined combination of brightness and hue. I do. Then, the occupancy rate indicating the ratio of the cumulative number of pixels to the total number of pixels is calculated for each divided area. The calculated occupancy is used as a discriminant of a discriminant function in the discriminant analysis method.
  • a discriminant function including the discriminant factor and the discriminant coefficient and an expected value by which the image data can be grouped for each imaging condition by the discriminant function are determined in advance. Then, by adjusting the discrimination coefficient, a discrimination coefficient is obtained so that each image data achieves the expected value. The occupancy of each divided area is multiplied by the discrimination coefficient thus obtained. To be used as the weighting factor.
  • the adjusted discrimination coefficient is an appropriate value is determined by newly calculating the above-mentioned occupancy rate for an unknown sample image, and using the calculated occupancy rate (discrimination factor) and the adjusted discrimination coefficient as a discrimination function. It can be confirmed by applying.
  • FIG. 8 shows a plane of lightness (V) —hue (H).
  • V plane of lightness
  • H hue area
  • a positive (+) coefficient is used for the first occupancy calculated from the region (rl) distributed in the high lightness skin color hue region in FIG.
  • a negative (-) coefficient is used for the first occupancy calculated from the hue area (r2).
  • Figure 10 shows the first coefficient in the skin color area (HI) and the first coefficient in the other area (green hue area (H3)) as a curve (coefficient curve) that changes continuously over the entire lightness. ).
  • the sign of the first coefficient in (H3)) is negative (1), indicating that the signs of the two coefficients are different.
  • H2 area sum R12X0.0 + R22X8.6 + (omitted)
  • H3 area R13X0.0 + R23X (— 6.3) + (omitted)
  • H4 area sum R14X0.0 + R24X (— 1.8) + (omitted)
  • the index 1 is calculated by using the sum of the H1 to H4 regions shown in equations (2— :! to (2-4) as shown in equation (3). Is defined as
  • Index 1 sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 4.424 (3)
  • Table 3 shows the accuracy of backlight imaging obtained by discriminant analysis, that is, the second coefficient required to calculate the index 2 that quantitatively indicates the brightness state of the face area during backlight imaging, for each divided area. Show.
  • the coefficients of each divided region shown in Table 3 are weighting factors for multiplying the first occupancy Rij of each divided region shown in Table 1.
  • Fig. 9 shows the lightness (v) -hue (H) plane.
  • a negative (1) coefficient is used for the occupancy calculated from the area (r4) distributed in the intermediate brightness of the skin color hue area in FIG. 9, and the low brightness (shadow) area of the skin hue area is used.
  • a positive (+) coefficient is used for the occupancy calculated from (r3).
  • FIG. 11 shows the second coefficient in the flesh-tone area (HI) as a curve (coefficient curve) that changes continuously over the entire brightness. According to Table 3 and FIG.
  • the sign of the second coefficient in the intermediate lightness region of the lightness value of 85 to 169 (v4) in the skin color hue region is negative (1), and the lightness value is 26 to 84 (
  • the sign of the second coefficient in the low-brightness (shadow) region of v2, v3) is positive (+), indicating that the sign of the coefficient is different in both regions.
  • H4 area sum R14X0.0 + R24X (_5.1) + (omitted)
  • Index 2 sum of H1 areas + sum of H2 areas + sum of H3 areas + sum of H4 areas + 1.554
  • the RGB values of the captured image data are converted to the HSV color system (step S20).
  • the captured image data is divided into regions each consisting of a combination of the distance from the outer edge of the captured image screen and brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S21).
  • a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S21).
  • the area division of the captured image data will be described in detail.
  • Figs. 13 (a) to 13 (d) show four regions nl to n4 divided according to the distance of the captured image data from the outer edge of the screen.
  • the area nl shown in FIG. 13A is the outer frame
  • the area n2 shown in FIG. 13B is the area inside the outer frame
  • an area n4 shown in FIG. 13D is an area at the center of the captured image screen.
  • a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S22).
  • the occupancy ratio calculation processing ends. Assuming that the second occupancy rate calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy rate in each divided area is shown in Table 4.
  • Table 5 shows a third coefficient required for calculating the index 3 for each divided region.
  • the coefficients of each divided region shown in Table 5 are weighting factors for multiplying the second occupancy Qij of each divided region shown in Table 4, and are obtained by discriminant analysis.
  • FIG. 14 shows the third coefficient in the screen areas nl to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.
  • n3 area Q13X24.6 + Q23X12. 1+ (omitted)
  • n4 area Q14X1.5 + Q24X (-32. 9) + (omitted)
  • Index 3 is defined as in equation (7) using the sum of the N1 to H4 regions shown in equations (6— :!) to (6-4).
  • Index 3 sum of nl areas + sum of n2 areas + sum of n3 areas + sum of n4 areas 12.6201
  • Index 4 is defined using Equations 1 and 3 as in Equation (8)
  • Index 5 is defined using Equations 1 to 3 as in Equation (9).
  • the weighting factors to be multiplied by each index in Expressions (8) and (9) are set in advance according to the imaging conditions.
  • Fig. 15 shows that the images 4 and 5 were taken for a total of 180 digital image data by taking 60 images under each of the forward light, backlight and strobe light conditions, and the indices 4 and 5 were obtained under each light condition. The value of 5 is plotted. According to Fig. 15, when the value of index 4 is greater than 0.5, there are many strobe scenes. When the value of index 4 is 0.5 or less, and when the value of index 5 is greater than 0.5, the backlight You can see that there are many Table 6 shows the content of discrimination of shooting scenes (light source conditions) based on the values of indices 4 and 5.
  • the shooting scene (light source condition) can be quantitatively determined based on the values of the indices 4 and 5.
  • Reproduction target correction value luminance reproduction target value (30360)-P4
  • a CDF cumulative density function
  • the maximum and minimum values are determined from the obtained CDF.
  • the maximum and minimum values are obtained for each RGB.
  • the obtained maximum value and minimum value for each RGB are Rmax, Rmm, Gmax, Gmm, Bmax, and Bmm, respectively.
  • normalized image data for any pixel (Rx, Gx, Bx) of the captured image data is calculated.
  • Rx normalized data in R plane is R, Gx point in G plane
  • G be the normalized data of B and B be the normalized data of Bx on the B plane.
  • the normalized data R, G, and B are expressed as in equations (10) to (12), respectively.
  • N (B + G + R) / 3 (13)
  • FIG. 16A shows a frequency distribution (histogram) of the luminance of the RGB pixels before normalization.
  • the horizontal axis represents luminance
  • the vertical axis represents pixel frequency. This histogram is created for each RGB.
  • normalization is performed on the captured image data for each plane using Expressions (10) to (12).
  • FIG. 16 (b) shows a luminance histogram calculated by the equation (13). Since the captured image data is normalized to 65535, each pixel takes an arbitrary value between the maximum value of 65535 and the minimum value of 0.
  • FIG. 16 (c) A frequency distribution as shown in FIG. 16 (c) is obtained.
  • the horizontal axis is the block number (luminance) and the vertical axis is the frequency.
  • FIG. 17 (c) shows a region whose frequency is higher than a predetermined threshold. This is because if there is a part with extremely high frequency, the data in this part strongly influences the average luminance of the entire captured image, so that erroneous correction is likely to occur. Therefore, as shown in FIG. 17 (c), the number of pixels equal to or larger than the threshold is limited in the luminance histogram.
  • FIG. 17D shows a luminance histogram after the pixel number limiting process is performed.
  • the block numbers of the luminance histogram (Fig. 17 (d)) obtained by deleting the high luminance region and the low luminance region from the normalized luminance histogram and further restricting the number of accumulated pixels,
  • the parameter P2 is obtained by calculating the average value of the luminance based on each frequency.
  • the parameter P1 is the average value of the luminance of the entire captured image data
  • the parameter P3 is the average value of the luminance of the skin color region (HI) in the captured image data.
  • the key correction value of the parameter P7 and the luminance correction value 2 of the parameter P8 are defined as in equations (14) and (15), respectively.
  • offset correction for matching the parameter P1 with P5 is performed by the following equation (16).
  • RGB value of output image RGB value of input image + P6 (16)
  • the gradation corresponding to the parameter P7 (key correction value) shown in equation (14) is selected from the preset gradation conversion curves (correction curves) L1 to L5 shown in FIG. Select a conversion curve.
  • the correspondence between the value of parameter P7 and the selected gradation conversion curve is shown below.
  • offset correction (parallel shift of 8-bit value) is performed by equation (17).
  • RGB value of output image RGB value of input image + P9 (17)
  • the above-described image processing conditions are changed from 16 bits to 8 bits.
  • the shooting scene (light source conditions (direct light, backlight, strobe, etc.)) is quantitatively determined from the captured image data in which a person is the main subject.
  • the index shown in (1) By calculating the index shown in (1) and determining the image processing conditions for the captured image data based on the calculated index, it becomes possible to appropriately correct the brightness of the face area of the subject.
  • index 1 that quantitatively indicates the accuracy of flash photography, that is, the brightness state of the face area at the time of flash photography, it is possible to appropriately correct the high brightness area of the face area. it can.
  • the accuracy as backlight shooting that is, the index 2 that quantitatively indicates the brightness state of the face region at the time of backlight shooting
  • the low brightness region of the face region can be appropriately corrected.
  • the brightness of the face area can be appropriately corrected.
  • the index 3 derived from the compositional element of the captured image data in addition to the index 1 and the index 2, it is possible to improve the accuracy of determining the captured scene.
  • a face image may be detected from photographed image data, a photographing scene may be determined based on the detected face image, and image processing conditions may be determined.
  • the shooting scene format Alternatively, Exif (Exchangeable Image File Format) information may be used. The use of Exif information makes it possible to further improve the accuracy of determining a shooting scene.
  • the shooting scene is determined based on the indices 4 and 5.
  • an additional index may be added to determine the shooting scene in a three-dimensional space.
  • Good les for example, in a flash scene, tone adjustment is performed to darken the entire image according to index 4, so if the under-shooting scene is incorrectly determined to be a flash scene, the image may be further enlarged. You. In order to avoid this, it is preferable to set the average luminance P3 of the flesh color area as the index 6 so as to determine whether the scene is a flash scene or an under-shooting scene.
  • an index that quantitatively indicates a shooting scene (light source conditions (direct light, backlight, strobe, etc.)) is calculated, and image processing for the shot image data is performed based on the calculated index.
  • the accuracy as backlight shooting that is, a second index that quantitatively indicates the brightness state of the face region at the time of backlight shooting
  • the low brightness region of the face region is appropriately corrected. That can be S.
  • the brightness area of the face area can be appropriately corrected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 本発明は、撮影画像データから撮影シーンを定量的に表す指標を算出し、その算出された指標に基づいて画像処理条件を決定することにより、被写体の明度再現性を向上させる画像処理方法、画像処理装置、出力媒体上に画像を形成する画像記録装置及び画像処理プログラムに関する。本発明に係る形態は、撮影画像データを、所定の明度と色相、撮影画像データの画面の外縁からの距離と明度のうち、少なくとも1つの組み合わせからなる複数の領域に分割し、その分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出し、前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指標を算出する。そして、算出された指標に基づいて前記撮影画像データに対する画像処理条件を決定し、その決定された画像処理条件に従って撮影画像データに画像処理を施す。

Description

明 細 書
画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム 技術分野
[0001] 本発明は、画像処理方法、画像処理装置、出力媒体上に画像を形成する画像記 録装置及び画像処理プログラムに関する。
背景技術
[0002] 従来、フィルムスキャン画像やデジタルカメラ画像の輝度補正は、画像全体の平均 輝度をユーザが希望する値へと補正することで行われてレ、た。また通常の撮影では 、順光、逆光、ストロボ等の光源条件が様々に変動し、画像中に輝度の偏りの大きい 大面積の領域が生じるため、平均輝度の補正に加えて、判別分析、重回帰分析によ り算出される値を用いた追加補正が必要であった。し力しながら、判別回帰分析方法 では、ストロボシーンと逆光シーンから算出されるパラメータが非常に類似しているた め、撮影シーンの判別が困難であるという問題があった。
[0003] 特許文献 1には、判別回帰分析方法に代わる追加補正値の算出方法が開示され ている。特許文献 1に記載の方法は、輝度の累積画素数 (頻度数)を示す輝度ヒスト グラムから、高輝度領域と低輝度領域を削除し、更に、頻度数を制限したものを用い て、輝度の平均値を算出し、この平均値と基準輝度との差分を補正値として求めるも のである。
[0004] また、特許文献 2には、顔領域の抽出精度を補償するために、撮影時の光源状態 の判別を行う方法が記載されている。特許文献 2に記載の方法は、まず、顔候補領 域を抽出し、抽出した顔候補領域の平均輝度の画像全体に対する偏りを算出し、偏 倚量が大きい場合、撮影シーン (逆光撮影力ストロボ近接撮影力)の判別を行レ、、顔 領域としての判断基準の許容幅を調整する。特許文献 2には、顔候補領域の抽出方 法として、特開平 6— 67320号公報に記載の、色相と彩度の 2次元ヒストグラムを用 いる方法、特開平 8— 122944号公報、特開平 8— 184925号公報及び特開平 9 138471号公報に記載のパターンマッチング、パターン検索方法などが引用されて いる。 [0005] また、特許文献 2には、顔以外の背景領域除去方法としては、特開平 8— 122944 号公報及び特開平 8— 184925号公報に記載の、直線部分の比率、線対象性、画 面外縁との接触率、濃度コントラスト、濃度変化のパターンや周期性を用いて判別す る方法が引用されている。撮影シーンの判別には、濃度の 1次元ヒストグラムを用いる 方法が記載されている。この方法は、逆光の場合は顔領域が暗く背景領域が明るい 、ストロボ近接撮影の場合は顔領域が明るく背景領域が暗いという経験則に基づい ている。
特許文献 1 :特開 2002— 247393号公報
特許文献 2:特開 2000— 148980号公報
[0006] し力しながら、特許文献 1に記載の技術は、逆光、ストロボシーンでの、輝度の偏り の大きい領域の影響は低減されるが、人物を主要被写体とする撮影シーンでは、顔 領域の明度が不適切であるという問題があった。また、特許文献 2に記載の技術は、 典型的な逆光やストロボ近接撮影の場合には、顔領域の特定を補償する効果を達 成すること力 Sできる力 典型的な構図に当てはまらないと、補償効果が得られなくなる という問題があった。
発明の開示
[0007] 本発明の課題は、撮影画像データの撮影シーン (光源条件)を定量的に表す指標 を算出し、その算出された指標に基づいて画像処理条件を決定することにより、被写 体の明度再現性を向上させることである。
[0008] 上記課題を達成するため、項 1に記載の形態は、撮影画像データを、所定の明度と 色相、当該撮影画像データの画面の外縁からの距離と明度のうち、少なくとも 1つの 組み合わせからなる複数の領域に分割し、当該分割された領域毎に、前記撮影画像 データ全体に占める割合を示す占有率を算出する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出工程と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定工程と、を含む画像処理方法を提供する。
図面の簡単な説明 [図 1]本発明の実施形態における画像記録装置の外観構成を示す斜視図。
[図 2]本実施形態の画像記録装置の内部構成を示すブロック図。
[図 3]図 2の画像処理部の主要部構成を示すブロック図。
[図 4]シーン判別部の内部構成と、割合算出部の内部構成を示すブロック図。
[図 5]画像調整処理部において実行されるシーン判別処理を示すフローチャート。
[図 6]明度 ·色相の領域毎に第 1の占有率を算出する占有率算出処理を示すフロー チャート。
[図 7]RGBから HSV表色系に変換するプログラムの一例を示す図。
[図 8]明度 (V)—色相(H)平面と、 V— H平面上の領域 rl及び領域 r2を示す図。
[図 9]明度 (V)—色相(H)平面と、 V— H平面上の領域 r3及び領域 r4を示す図。
[図 10]指標 1を算出するための、第 1の占有率に乗算する第 1の係数を表す曲線を 示す図。
[図 11]指標 2を算出するための、第 1の占有率に乗算する第 2の係数を表す曲線を 示す図。
[図 12]撮影画像データの構図に基づいて第 2の占有率を算出する占有率算出処理 を示すフローチャート。
[図 13]撮影画像データの画面の外縁からの距離に応じて決定される領域 nl〜n4を 示す図((&)〜(01) )。
[図 14]指標 3を算出するための、第 2の占有率に乗算する第 3の係数を表す曲線を 領域別(nl〜n4)に示す図。
[図 15]撮影シーン (順光、ストロボ、逆光)別に算出された指標 4及び指標 5のプロット 図。
[図 16]輝度の度数分布 (ヒストグラム)(a)、正規化されたヒストグラム (b)及びブロック 分割されたヒストグラム(c)を示す図。
[図 17]輝度のヒストグラムからの低輝度領域及び高輝度領域の削除を説明する図(1 7 (a)及び 17 (b) )と、輝度の頻度の制限を説明する図(17 (c)及び 17 (d) )。
[図 18]撮影シーンが逆光である場合の画像処理条件 (階調変換条件)を表す階調変 換曲線を示す図。 発明を実施するための最良の形態
[0010] 以下、本発明の好ましい形態を説明する。
[0011] 項 2に記載の形態は、項 1に記載の画像処理方法において、
前記占有率算出工程において、撮影画像データを所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す占有率を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と 当該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係 数か、肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の 明度領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記 指標を算出する。
[0012] 項 3に記載の形態は、項 2に記載の画像処理方法において、
前記指標算出工程において、所定の高明度の肌色色相領域に用レ、られる係数と、 当該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる。
[0013] 項 4に記載の形態は、項 2に記載の画像処理方法において、
前記指標算出工程において、肌色色相領域の中間明度領域に用いられる係数と、 当該中間明度領域以外の明度領域に用いられる係数の符号が異なる。
[0014] 項 5に記載の形態は、項 2に記載の画像処理方法において、
前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され 、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記画像処理条件決定工程において 、前記算出された第 1の指標及び第 2の指標に基づいて前記画像処理条件が決定さ れる。
[0015] 項 6に記載の形態は、項 2乃至 5の何れか一項に記載の画像処理方法において、 前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、前記占有率算出工程にお レ、て、前記作成された 2次元ヒストグラムに基づレ、て前記占有率が算出される。 [0016] 項 7に記載の形態は、項 2、 3、 5、 6の何れか一項に記載の画像処理方法において 、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記高明度の 肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0017] 項 8に記載の形態は、項 2、 4、 5、 6の何れか一項に記載の画像処理方法において 、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明度 領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0018] 項 9に記載の形態は、項 2、 3、 5乃至 7の何れか一項に記載の画像処理方法にお いて、
前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる。
[0019] 項 10に記載の形態は、項 2、 4乃至 6、 8の何れか一項に記載の画像処理方法に おいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領域 が含まれる。
[0020] 項 11に記載の形態は、項 2、 3、 5乃至 7、 9の何れか一項に記載の画像処理方法 において、前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色 色相領域の少なくとも一方が含まれる。
[0021] 項 12に記載の形態は、項 2、 4乃至 6、 8、 10の何れか一項に記載の画像処理方法 において、前記中間明度領域以外の明度領域がシャドー領域である。
[0022] 項 13に記載の形態は、項 11に記載の画像処理方法において、前記青色色相領 域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑色色相 領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0023] 項 14に記載の形態は、項 12に記載の画像処理方法において、前記シャドー領域 の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0024] 項 15に記載の形態は、項 2乃至 14の何れか一項に記載の画像処理方法において
、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある。
[0025] 項 16に記載の形態は、項 2乃至 15の何れか一項に記載の画像処理方法において 、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に分 割される。
[0026] 項 17に記載の形態は、項 1に記載の画像処理方法において、
前記占有率算出工程において、撮影画像データを、当該撮影画像データの画面 の外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分 割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を 异 μ4し、
前記指標算出工程において、前記外縁からの距離に応じて異なる値の係数が用 いられる。
[0027] 項 18に記載の形態は、項 17に記載の画像処理方法において、
前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、前記占有率算 出工程において、前記作成された 2次元ヒストグラムに基づいて前記占有率が算出さ れる。
[0028] 項 19に記載の形態は、項 1に記載の画像処理方法において、
前記占有率算出工程において、撮影画像データを、所定の明度と色相の組み合 わせからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像 データ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データ を、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定 の複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全 体に占める割合を示す第 2の占有率を算出し、前記指標算出工程において、前記算 出された第 1の占有率、第 2の占有率に、撮影条件に応じて予め設定された係数を 乗算することにより、撮影シーンを特定する指標を算出し、前記指標算出工程におい て、所定の高明度の肌色色相領域と、当該高明度の肌色色相領域以外の色相領域 とで、異なる符号の係数を用いて第 1の指標が算出され、肌色色相領域の中間明度 領域と、当該中間明度領域以外の明度領域とで、異なる符号の係数を用いて第 2の 指標が算出され、前記外縁力 の距離に応じて異なる値の係数を用いて第 3の指標 が算出され、前記画像処理条件決定工程において、前記算出された第 1の指標、第 2の指標及び第 3の指標に基づいて前記画像処理条件が決定される。 [0029] 項 20に記載の形態は、項 19に記載の画像処理方法において、
前記指標算出工程において、前記第 1の指標、第 2の指標及び第 3の指標の各々 に、撮影条件に応じて予め設定された係数を乗算して合成することにより、第 4の指 標及び第 5の指標が算出され、前記画像処理条件決定工程において、前記算出さ れた第 4の指標及び第 5の指標に基づいて前記画像処理条件が決定される。
[0030] 項 21に記載の形態は、項 19又 20に記載の画像処理方法において、
前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、前記占有率算 出工程において、前記作成された 2次元ヒストグラムに基づいて前記第 2の占有率が 算出される。
[0031] 項 22に記載の形態は、項 19又 20に記載の画像処理方法において、
前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、前記占有率算出工程にお いて、前記作成された 2次元ヒストグラムに基づいて前記第 1の占有率が算出される。
[0032] 項 23に記載の形態は、項 19乃至 22の何れか一項に記載の画像処理方法におい て、前記所定の高明度の肌色色相領域とは符合が異なる係数を持つ、前記高明度 の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0033] 項 24に記載の形態は、項 19乃至 22の何れか一項に記載の画像処理方法におい て、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明 度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0034] 項 25に記載の形態は、項 19乃至 23の何れか一項に記載の画像処理方法におい て、
前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる。
[0035] 項 26に記載の形態は、項 19乃至 22、 24の何れか一項に記載の画像処理方法に おいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領域 が含まれる。
[0036] 項 27に記載の形態は、項 19乃至 23、 25の何れか一項に記載の画像処理方法に おいて、前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色色 相領域の少なくとも一方が含まれる。
[0037] 項 28に記載の形態は、項 19乃至 22、 24、 26の何れか一項に記載の画像処理方 法にぉレ、て、前記中間明度領域以外の明度領域がシャドー領域である。
[0038] 項 29に記載の形態は、項 27に記載の画像処理方法において、前記青色色相領 域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑色色相 領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0039] 項 30に記載の形態は、項 28に記載の画像処理方法において、前記シャドー領域 の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0040] 項 31に記載の形態は、項 19乃至 30の何れか一項に記載の画像処理方法におい て、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある。
[0041] 項 32に記載の形態は、項 19乃至 31の何れか一項に記載の画像処理方法におい て、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に 分割される。
[0042] 項 33に記載の形態は、項 1乃至 32の何れか一項に記載の画像処理方法において 前記画像処理条件決定工程において、前記撮影画像に階調変換処理を施すため の画像処理条件が決定される。
[0043] 項 34に記載の形態は、項 1乃至 33の何れか一項に記載の画像処理方法において 、前記撮影条件に応じて予め設定された係数は、判別分析法を用いて求めた判別 係数である。
[0044] 項 35に記載の形態は、項 34に記載の画像処理方法において、前記撮影条件に 応じて予め設定された係数は、撮影条件毎に準備した複数のサンプノレ画像につい て、判別関数が所定の条件を満足するよう調整された判別係数の値である。
[0045] 項 36に記載の形態は、撮影画像データを、所定の明度と色相、当該撮影画像デ ータの画面の外縁からの距離と明度のうち、少なくとも 1つの組み合わせからなる複 数の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める 割合を示す占有率を算出する占有率算出部と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出部と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定部と、を含む。
[0046] 項 37に記載の形態は、項 36に記載の画像処理装置において、
前記占有率算出部において、撮影画像データを所定の明度と色相の組み合わせ 力 なる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デー タ全体に占める割合を示す占有率を算出し、
前記指標算出部において、所定の高明度の肌色色相領域に用いられる係数と当 該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係数 か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用いられる係数とで異なるの符号の係数の、少なくとも 1つを用いて前記指標 を算出する。
[0047] 項 38に記載の形態は、項 37に記載の画像処理装置において、前記指標算出部 において、所定の高明度の肌色色相領域に用いられる係数と、当該高明度の肌色 色相領域以外の色相領域に用いられる係数の符号が異なる。
[0048] 項 39に記載の形態は、項 37に記載の画像処理装置において、前記指標算出部 において、肌色色相領域の中間明度領域に用いられる係数と、当該中間明度領域 以外の明度領域に用いられる係数の符号が異なる。
[0049] 項 40に記載の形態は、項 37に記載の画像処理装置において、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標及び第 2の指標に 基づレ、て前記画像処理条件が決定される。 [0050] 項 41に記載の形態は、項 37乃至 40の何れか一項に記載の画像処理装置におい て、前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによつ て 2次元ヒストグラムを作成するヒストグラム作成部を含み、
前記占有率算出部において、前記作成された 2次元ヒストグラムに基づいて前記占 有率が算出される。
[0051] 項 42に記載の形態は、項 37、 38、 40、 41の何れか一項に記載の画像処理装置 において、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記 高明度の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0052] 項 43に記載の形態は、項 37、 39、 40、 41の何れか一項に記載の画像処理装置 において、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記 中間明度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0053] 項 44記載の形態は、項 37、 38、 40乃至 42の何れか一項に記載の画像処理装置 において、前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の 範囲の領域が含まれる。
[0054] 項 45記載の形態は、項 37、 39乃至 41、 43の何れか一項に記載の画像処理装置 において、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領 域が含まれる。
[0055] 項 46に記載の形態は、項 37、 39、 40乃至 42、 44の何れか一項に記載の画像処 理装置において、前記高明度の肌色色相領域以外の色相領域には、青色色相領域 、緑色色相領域の少なくとも一方が含まれる。
[0056] 項 47に記載の形態は、項 37、 39乃至 41、 43、 45の何れか一項に記載の画像処 理装置において、前記中間明度領域以外の明度領域がシャドー領域である。
[0057] 項 48に記載の形態は、項 46に記載の画像処理装置において、前記青色色相領 域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑色色相 領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0058] 項 49に記載の形態は、項 47に記載の画像処理装置において、前記シャドー領域 の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0059] 項 50に記載の形態は、項 37乃至 49の何れか一項に記載の画像処理装置におい て、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある。
[0060] 項 51に記載の形態は、項 37乃至 50の何れか一項に記載の画像処理装置におい て、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に 分割される。
[0061] 項 52に記載の形態は、項 36に記載の画像処理装置において、
前記占有率算出部において、撮影画像データを、当該撮影画像データの画面の 外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分割 された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算 出し、前記指標算出部において、前記外縁からの距離に応じて異なる値の係数が用 いられる。
[0062] 項 53に記載の形態は、項 52に記載の画像処理装置において、前記撮影画像デ ータの画面の外縁からの距離と明度毎に累積画素数を算出することによって 2次元ヒ ストグラムを作成するヒストグラム作成部を含み、前記占有率算出部において、前記 作成された 2次元ヒストグラムに基づいて前記占有率が算出される。
[0063] 項 54に記載の形態は、項 36に記載の画像処理装置において、
前記占有率算出部において、撮影画像データを、所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データを、 当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の 複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全体 に占める割合を示す第 2の占有率を算出し、
前記指標算出部において、前記算出された第 1の占有率、第 2の占有率に、撮影 条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指標 を算出し、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標、第 2の指標及び 第 3の指標に基づいて前記画像処理条件が決定される。
[0064] 項 55に記載の形態は、項 54に記載の画像処理装置において、
前記指標算出部において、前記第 1の指標、第 2の指標及び第 3の指標の各々に 、撮影条件に応じて予め設定された係数を乗算して合成することにより、第 4の指標 及び第 5の指標が算出され、
前記画像処理条件決定部において、前記算出された第 4の指標及び第 5の指標に 基づレ、て前記画像処理条件が決定される。
[0065] 項 56に記載の形態は、項 54又 55に記載の画像処理装置において、前記撮影画 像データの画面の外縁からの距離と明度毎に累積画素数を算出することによって 2 次元ヒストグラムを作成するヒストグラム作成部を含み、前記占有率算出部において、 前記作成された 2次元ヒストグラムに基づいて前記第 2の占有率が算出される。
[0066] 項 57に記載の形態は、項 54又 55に記載の画像処理装置において、前記撮影画 像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグ ラムを作成するヒストグラム作成部を含み、前記占有率算出部において、前記作成さ れた 2次元ヒストグラムに基づいて前記第 1の占有率が算出される。
[0067] 項 58に記載の形態は、項 54乃至 57の何れか一項に記載の画像処理装置におい て、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記高明度 の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0068] 項 59に記載の形態は、項 54乃至 57の何れか一項に記載の画像処理装置におい て、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明 度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0069] 項 60に記載の形態は、項 54乃至 58の何れか一項に記載の画像処理装置におい て、
前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる。 [0070] 項 61に記載の形態は、項 54乃至 57、 59の何れか一項に記載の画像処理装置に おいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領域 が含まれる。
[0071] 項 62に記載の形態は、項 54乃至 58、 60の何れか一項に記載の画像処理装置に おいて、前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色色 相領域の少なくとも一方が含まれる。
[0072] 項 63に記載の形態は、項 54乃至 57、 59、 61の何れか一項に記載の画像処理装 置において、前記中間明度領域以外の明度領域がシャドー領域である。
[0073] 項 64に記載の形態は、項 62に記載の画像処理装置において、前記青色色相領 域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑色色相 領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0074] 項 65に記載の形態は、項 63に記載の画像処理装置において、前記シャドー領域 の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0075] 項 66に記載の形態は、項 54乃至 65の何れか一項に記載の画像処理装置におい て、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある。
[0076] 項 67に記載の形態は、項 54乃至 66の何れか一項に記載の画像処理装置におい て、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に 分割される。
[0077] 項 68に記載の形態は、項 36至 67の何れか一項に記載の画像処理装置において
、前記画像処理条件決定部において、前記撮影画像に階調変換処理を施すための 画像処理条件が決定される。
[0078] 項 69に記載の形態は、項 36乃至 68の何れか一項に記載の画像処理装置におい て、前記撮影条件に応じて予め設定された係数は、判別分析法を用いて求めた判 別係数である。
[0079] 項 70に記載の形態は、項 69に記載の画像処理装置において、前記撮影条件に 応じて予め設定された係数は、撮影条件毎に準備した複数のサンプノレ画像につい て、判別関数が所定の条件を満足するよう調整された判別係数の値である。 [0080] 項 71に記載の形態は、
撮影画像データを、所定の明度と色相、当該撮影画像データの画面の外縁からの 距離と明度のうち、少なくとも 1つの組み合わせからなる複数の領域に分割し、当該 分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出 する占有率算出部と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出部と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定部と、
前記決定された画像処理条件に従って前記撮影画像データに画像処理を施す画 像処理部と、
前記画像処理が施された画像データを出力媒体上に形成する画像データ形成部 と、を備える。
[0081] 項 72に記載の形態は、項 71に記載の画像記録装置において、
前記占有率算出部において、撮影画像データを所定の明度と色相の組み合わせ 力 なる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デー タ全体に占める割合を示す占有率を算出し、
前記指標算出部において、所定の高明度の肌色色相領域に用レ、られる係数と当 該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係数 か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する。
[0082] 項 73に記載の形態は、項 72に記載の画像記録装置において、
前記指標算出部において、所定の高明度の肌色色相領域に用いられる係数と、当 該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる。
[0083] 項 74に記載の形態は、項 72に記載の画像記録装置において、
前記指標算出部において、肌色色相領域の中間明度領域に用いられる係数と、当 該中間明度領域以外の明度領域に用いられる係数の符号が異なる。
[0084] 項 75に記載の形態は、項 72に記載の画像記録装置において、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標及び第 2の指標に 基づレ、て前記画像処理条件が決定される。
[0085] 項 76に記載の形態は、項 72乃至 75の何れか一項に記載の画像記録装置におい て、
前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグラムを作成するヒストグラム作成部を含み、前記占有率算出部において 、前記作成された 2次元ヒストグラムに基づいて前記占有率が算出される。
[0086] 項 77に記載の形態は、項 72、 73、 75、 76の何れか一項に記載の画像記録装置 において、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記 高明度の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0087] 項 78に記載の形態は、項 72、 74、 75、 76の何れか一項に記載の画像記録装置 において、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記 中間明度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0088] 項 79に記載の形態は、項 72、 73、 75乃至 77の何れか一項に記載の画像記録装 置において、前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224 の範囲の領域が含まれる。
[0089] 項 80に記載の形態は、項 72、 74乃至 76、 78の何れか一項に記載の画像記録装 置において、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の 領域が含まれる。
[0090] 項 81に記載の形態は、項 72、 73、 75乃至 77、 79の何れか一項に記載の画像記 録装置において、前記高明度の肌色色相領域以外の色相領域には、青色色相領域 、緑色色相領域の少なくとも一方が含まれる。 [0091] 項 82に記載の形態は、項 72、 74乃至 76、 78、 80の何れか一項に記載の画像記 録装置において、前記中間明度領域以外の明度領域がシャドー領域である。
[0092] 項 83に記載の形態は、項 91に記載の画像記録装置において、
前記青色色相領域の色相値は、 HSV表色系の色相値で 16:!〜 250の範囲内にあ り、前記緑色色相領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内に ある。
[0093] 項 84に記載の形態は、項 92に記載の画像記録装置において、前記シャドー領域 の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0094] 項 85に記載の形態は、項 72乃至 84の何れか一項に記載の画像記録装置におい て、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある。
[0095] 項 86に記載の形態は、項 72乃至 85の何れか一項に記載の画像記録装置におい て、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に 分割される。
[0096] 項 87に記載の形態は、項 71に記載の画像記録装置において、
前記占有率算出部において、撮影画像データを、当該撮影画像データの画面の 外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分割 された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算 出し、
前記指標算出部において、前記外縁からの距離に応じて異なる値の係数が用いら れる。
[0097] 項 88に記載の形態は、項 87に記載の画像記録装置において、
前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成部を含み、
前記占有率算出部において、前記作成された 2次元ヒストグラムに基づいて前記占 有率が算出される。
[0098] 項 89に記載の形態は、項 71に記載の画像記録装置において、
前記占有率算出部において、撮影画像データを、所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データを、 当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の 複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全体 に占める割合を示す第 2の占有率を算出し、
前記指標算出部において、前記算出された第 1の占有率、第 2の占有率に、撮影 条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指標 を算出し、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標、第 2の指標及び 第 3の指標に基づいて前記画像処理条件が決定される。
[0099] 項 90に記載の形態は、項 89に記載の画像記録装置において、
前記指標算出部において、前記第 1の指標、第 2の指標及び第 3の指標の各々に 、撮影条件に応じて予め設定された係数を乗算して合成することにより、第 4の指標 及び第 5の指標が算出され、
前記画像処理条件決定部において、前記算出された第 4の指標及び第 5の指標に 基づレ、て前記画像処理条件が決定される。
[0100] 項 91に記載の形態は、項 89又 90に記載の画像記録装置において、
前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成部を含み、
前記占有率算出部において、前記作成された 2次元ヒストグラムに基づいて前記第 2の占有率が算出される。
[0101] 項 92に記載の形態は、項 89又 90に記載の画像記録装置において、
前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグラムを作成するヒストグラム作成部を含み、
前記占有率算出部において、前記作成された 2次元ヒストグラムに基づいて前記第
1の占有率が算出される。
[0102] 項 93に記載の形態は、項 89乃至 92の何れか一項に記載の画像記録装置におい て、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記高明度 の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である。
[0103] 項 94に記載の形態は、項 89乃至 93の何れか一項に記載の画像記録装置におい て、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明 度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である。
[0104] 項 95に記載の形態は、項 89乃至 93の何れか一項に記載の画像記録装置におい て、
前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる。
[0105] 項 96に記載の形態は、項 89乃至 92、 94の何れか一項に記載の画像記録装置に おいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領域 が含まれる。
[0106] 項 97に記載の形態は、項 89乃至 83、 95の何れか一項に記載の画像記録装置に おいて、前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色色 相領域の少なくとも一方が含まれる。
[0107] 項 98に記載の形態は、項 89乃至 92、 94、 96の何れか一項に記載の画像記録装 置において、前記中間明度領域以外の明度領域がシャドー領域である。
[0108] 項 99に記載の形態は、項 97に記載の画像記録装置において、前記青色色相領 域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑色色相 領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0109] 項 100に記載の形態は、項 98に記載の画像記録装置において、前記シャドー領 域の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0110] 項 101に記載の形態は、項 89乃至 100の何れか一項に記載の画像記録装置にお いて、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜3 59の範囲内にある。
[0111] 項 102に記載の形態は、項 89乃至 101の何れか一項に記載の画像記録装置にお いて、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域 に分割される。
[0112] 項 103に記載の形態は、項 71乃至 102の何れか一項に記載の画像記録装置にお いて、前記画像処理条件決定部において、前記撮影画像に階調変換処理を施すた めの画像処理条件が決定される。
[0113] 項 104に記載の形態は、項 71乃至 103の何れか一項に記載の画像記録装置にお いて、前記撮影条件に応じて予め設定された係数は、判別分析法を用いて求めた判 別係数である。
[0114] 項 105に記載の形態は、項 104に記載の画像記録装置において、
前記撮影条件に応じて予め設定された係数は、撮影条件毎に準備した複数のサン プル画像について、判別関数が所定の条件を満足するよう調整された判別係数の値 である。
[0115] 項 106に記載の形態は、撮影画像データを、所定の明度と色相、当該撮影画像デ ータの画面の外縁からの距離と明度のうち、少なくとも 1つの組み合わせからなる複 数の領域に分割し、当該分割された領域毎に、前記撮影画像データ全体に占める 割合を示す占有率を算出する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出工程と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定工程と、を含む。
[0116] 項 107に記載の形態は、項 106に記載の画像処理プログラムにおいて、
前記占有率算出工程において、撮影画像データを所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す占有率を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と 当該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係 数か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する。
[0117] 項 108に記載の形態は、項 107に記載の画像処理プログラムにおいて、前記指標 算出工程において、所定の高明度の肌色色相領域に用いられる係数と、当該高明 度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる。
[0118] 項 109に記載の形態は、項 107に記載の画像処理プログラムにおいて、前記指標 算出工程において、肌色色相領域の中間明度領域に用いられる係数と、当該中間 明度領域以外の明度領域に用いられる係数の符号が異なる。
[0119] 項 110に記載の形態は、項 107に記載の画像処理プログラムにおいて、
前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され 、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 1の指標及び第 2の指標 に基づレ、て前記画像処理条件が決定される。
[0120] 項 111に記載の形態は、項 107乃至 110の何れか一項に記載の画像処理プロダラ ムにおいて、前記撮影画像データの所定の色相、明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 占有率が算出される。
[0121] 項 112に記載の形態は、項 107、 108、 110、 111の何れか一項に記載の画像処 理プログラムにおいて、前記所定の高明度の肌色色相領域とは符号が異なる係数を 持つ、前記高明度の肌色色相領域以外の色相領域の明度領域が、所定の高明度 領域である。
[0122] 項 113に記載の形態は、項 107、 109、 110、 111の何れか一項に記載の画像処 理プログラムにおいて、前記肌色色相領域の中間明度領域とは符号が異なる係数を 持つ、前記中間明度領域以外の明度領域の色相領域が、肌色色相領域内の色相 領域である。
[0123] 項 114記載の形態は、項 107、 108、 110乃至 112の何れか一項に記載の画像処 理プログラムにおいて、前記高明度の肌色色相領域には、 HSV表色系の明度値で
170〜224の範囲の領域が含まれる。
[0124] 項 115記載の形態は、項 107、 109乃至 111、 113の何れか一項に記載の画像処 理プログラムにおいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169 の範囲の領域が含まれる。
[0125] 項 116に記載の形態は、項 107、 109、 110乃至 112、 114の何れか一項に記載 の画像処理プログラムにおいて、前記高明度の肌色色相領域以外の色相領域には
、青色色相領域、緑色色相領域の少なくとも一方が含まれる。
[0126] 項 117に記載の形態 ίま、項 107、 109乃至 111、 113、 115の何れ力一項に記載 の画像処理プログラムにおいて、前記中間明度領域以外の明度領域がシャドー領域 である。
[0127] 項 118に記載の形態は、項 116に記載の画像処理プログラムにおいて、前記青色 色相領域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑 色色相領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0128] 項 119に記載の形態は、項 117に記載の画像処理プログラムにおいて、前記シャド 一領域の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0129] 項 120に記載の形態は、項 107乃至 119の何れか一項に記載の画像処理プロダラ ムにおいて、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 3
30〜359の範囲内にある。
[0130] 項 121に記載の形態は、項 107乃至 120の何れか一項に記載の画像処理プロダラ ムにおいて、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つ の領域に分割される。
[0131] 項 122に記載の形態は、項 106に記載の画像処理プログラムにおいて、前記占有 率算出工程において、撮影画像データを、当該撮影画像データの画面の外縁から の距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分割された複 数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出し、 前記指標算出工程において、前記外縁からの距離に応じて異なる値の係数が用 いられる。
[0132] 項 123に記載の形態は、項 122に記載の画像処理プログラムにおいて、
前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 占有率が算出される。
[0133] 項 124に記載の形態は、項 106に記載の画像処理プログラムにおいて、
前記占有率算出工程において、撮影画像データを、所定の明度と色相の組み合 わせからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像 データ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データ を、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定 の複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全 体に占める割合を示す第 2の占有率を算出し、
前記指標算出工程において、前記算出された第 1の占有率、第 2の占有率に、撮 影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指 標を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され 、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 1の指標、第 2の指標及 び第 3の指標に基づいて前記画像処理条件が決定される。
[0134] 項 125に記載の形態は、項 124に記載の画像処理プログラムにおいて、
前記指標算出工程において、前記第 1の指標、第 2の指標及び第 3の指標の各々 に、撮影条件に応じて予め設定された係数を乗算して合成することにより、第 4の指 標及び第 5の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 4の指標及び第 5の指標 に基づレ、て前記画像処理条件が決定される。
[0135] 項 126に記載の形態は、項 124又 125に記載の画像処理プログラムにおいて、前 記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出すること によって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、前記占有率算出 工程において、前記作成された 2次元ヒストグラムに基づいて前記第 2の占有率が算 出される。
[0136] 項 127に記載の形態は、項 124又 125に記載の画像処理プログラムにおいて、 前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 第 1の占有率が算出される。
[0137] 項 128に記載の形態は、項 124乃至 127の何れか一項に記載の画像処理プロダラ ムにおいて、前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前 記高明度の肌色色相領域以外の色相領域の明度領域が、所定の高明度領域であ る。
[0138] 項 129に記載の形態は、項 124乃至 127の何れか一項に記載の画像処理プロダラ ムにおいて、前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前 記中間明度領域以外の明度領域の色相領域が、肌色色相領域内の色相領域であ る。
[0139] 項 130に記載の形態は、項 124乃至 128の何れか一項に記載の画像処理プロダラ ムにおいて、前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224 の範囲の領域が含まれる。
[0140] 項 131に記載の形態は、項 124乃至 127、 129の何れか一項に記載の画像処理 プログラムにおいて、前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の 範囲の領域が含まれる。
[0141] 項 132に記載の形態は、項 124乃至 128、 130の何れか一項に記載の画像処理 プログラムにおいて、前記高明度の肌色色相領域以外の色相領域には、青色色相 領域、緑色色相領域の少なくとも一方が含まれる。
[0142] 項 133に記載の形態は、項 124乃至 127、 129、 131の何れか一項に記載の画処 理プログラムにおいて、前記中間明度領域以外の明度領域がシャドー領域である。
[0143] 項 134に記載の形態は、項 132に記載の画像処理プログラムにおいて、前記青色 色相領域の色相値は、 HSV表色系の色相値で 161〜250の範囲内にあり、前記緑 色色相領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内にある。
[0144] 項 135に記載の形態は、項 133に記載の画像処理プログラムにおいて、前記シャド 一領域の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある。
[0145] 項 136に記載の形態は、項 124乃至 135の何れか一項に記載の画像処理プロダラ ムにおいて、前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 3
30〜359の範囲内にある。
[0146] 項 137に記載の形態は、項 124乃至 136の何れか一項に記載の画像処理プロダラ ムにおいて、前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つ の領域に分割される。
[0147] 項 138に記載の形態は、項 106至 147の何れか一項に記載の画像処理プログラム において、前記画像処理条件決定工程において、前記撮影画像に階調変換処理を 施すための画像処理条件が決定される。
[0148] 項 139に記載の形態は、項 106乃至 138の何れか一項に記載の画像処理プロダラ ムにおいて、前記撮影条件に応じて予め設定された係数は、判別分析法を用いて求 めた判別係数である。
[0149] 項 140に記載の形態は、項 139に記載の画像処理プログラムにおいて、
前記撮影条件に応じて予め設定された係数は、撮影条件毎に準備した複数のサン プル画像について、判別関数が所定の条件を満足するよう調整された判別係数の値 である。
[0150] 以下、図面を参照して、本発明の実施形態を詳細に説明する。
[0151] まず、本実施形態における構成について説明する。
[0152] 図 1は、本発明の実施形態における画像記録装置 1の外観構成を示す斜視図であ る。画像記録装置 1は、図 1に示すように、筐体 2の一側面に、感光材料を装填する ためのマガジン装填部 3が備えられている。筐体 2の内側には、感光材料に露光する 露光処理部 4と、露光された感光材料を現像処理して乾燥し、プリントを作成するた めのプリント作成部 5が備えられている。筐体 2の他側面には、プリント作成部 5で作 成されたプリントを排出するためのトレー 6が備えられている。
[0153] また、筐体 2の上部には、表示装置としての CRT (Cathode Ray Tube) 8、透過 原稿を読み込む装置であるフィルムスキャナ部 9、反射原稿入力装置 10、操作部 11 が備えられている。この CRT8が、プリントを作成しょうとする画像情報の画像を画面 に表示する表示手段を構成している。更に、筐体 2には、各種デジタル記録媒体に 記録された画像情報を読み取り可能な画像読込部 14、各種デジタル記録媒体に画 像信号を書き込み(出力)可能な画像書込部 15が備えられている。また、筐体 2の内 部には、これらの各部を集中制御する制御部 7が備えられている。
[0154] 画像読込部 14には、 PCカード用アダプタ 14a、フロッピー(登録商標)ディスク用ァ ダプタ 14bが備えられ、 PCカード 13aやフロッピー(登録商標)ディスク 13bが差し込 み可能になっている。 PCカード 13aは、例えば、デジタルカメラで撮像された複数の 駒画像データが記録されたメモリを有する。フロッピー(登録商標)ディスク 13bには、 例えば、デジタルカメラで撮像された複数の駒画像データが記録される。 PCカード 1 3a及びフロッピー(登録商標)ディスク 13b以外に駒画像データが記録される記録媒 体としては、例えば、マルチメディアカード (登録商標)、メモリースティック(登録商標 )、 MDデータ、 CD— ROM等がある。
[0155] 画像書込部 15には、フロッピー(登録商標)ディスク用アダプタ 15a、 MO用ァダプ タ 15b、光ディスク用アダプタ 15cが備えられ、それぞれ、 FD16a、 M〇16b、光ディ スク 16cが差し込み可能になっている。光ディスク 16cとしては、 CD— R、 DVD-R 等がある。
[0156] なお、図 1では、操作部 11、 CRT8、フィルムスキャナ部 9、反射原稿入力装置 10、 画像読込部 14が、筐体 2に一体的に備えられた構造となっているが、これらの何れ 力 4つ以上を別体として設けるようにしてもよい。
[0157] また、図 1に示した画像記録装置 1では、感光材料に露光して現像してプリントを作 成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、イン クジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。 〈画像記録装置 1の主要部構成〉
図 2に、画像記録装置 1の主要部構成を示す。画像記録装置 1は、図 2に示すよう に、制御部 7、露光処理部 4、プリント生成部 5、フィルムスキャナ部 9、反射原稿入力 装置 10、画像読込部 14、通信手段 (入力) 32、画像書込部 15、データ蓄積手段 71 、テンプレート記憶手段 72、操作部 11、 CRT8、通信手段(出力) 33により構成され る。
[0158] 制御部 7は、マイクロコンピュータにより構成され、 ROM (Read Only Memory) 等の記憶部(図示略)に記憶されている各種制御プログラムと、 CPU (Central Pro cessing Unit) (図示略)との協働により、画像記録装置 1を構成する各部の動作を 制御する。
[0159] 制御部 7は、本発明の画像処理装置に係る画像処理部 70を有し、操作部 11から の入力信号 (指令情報)に基づいて、フィルムスキャナ部 9や反射原稿入力装置 10 から読み取られた画像信号、画像読込部 14から読み込まれた画像信号、外部機器 力も通信手段 32を介して入力された画像信号に対して、画像処理を施して露光用画 像情報を形成し、露光処理部 4に出力する。また、画像処理部 70は、画像処理され た画像信号に対して出力形態に応じた変換処理を施して出力する。画像処理部 70 の出力先としては、 CRT8、画像書込部 15、通信手段(出力) 33等がある。
[0160] 露光処理部 4は、感光材料に画像の露光を行い、この感光材料をプリント作成部 5 に出力する。プリント作成部 5は、露光された感光材料を現像処理して乾燥し、プリン ト Pl、 P2、 P3を作成する。プリント P1は、サービスサイズ、ハイビジョンサイズ、パノラ マサイズ等のプリントであり、プリント P2は、 A4サイズのプリントであり、プリント P3は、 名刺サイズのプリントである。
[0161] ここで、露光処理部 4とプリント作成部 5をまとめて画像データ作成部としてもよい。
[0162] フィルムスキャナ部 9は、アナログカメラにより撮像された現像済みのネガフィルム N 、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタ ル画像信号を取得する。反射原稿入力装置 10は、フラットベットスキャナにより、プリ ント p (写真プリント、書画、各種の印刷物)上の画像を読み取り、デジタル画像信号 を取得する。
[0163] 画像読込部 14は、 PCカード 13aやフロッピー(登録商標)ディスク 13bに記録され た駒画像情報を読み出して制御部 7に転送する。この画像読込部 14は、画像転送 手段 30として、 PCカード用アダプタ 14a、フロッピー(登録商標)ディスク用アダプタ 1 4b等を有する。画像読込部 14は、 PCカード用アダプタ 14aに差し込まれた PCカー ド 13aや、フロッピー(登録商標)ディスク用アダプタ 14bに差し込まれたフロッピー( 登録商標)ディスク 13bに記録された駒画像情報を読み取り、制御部 7に転送する。 PCカード用アダプタ 14aとしては、例えば PCカードリーダや PCカードスロット等が用 いられる。
[0164] 通信手段 (入力) 32は、画像記録装置 1が設置された施設内の別のコンピュータや 、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像信号やプリ ント命令信号を受信する。
[0165] 画像書込部 15は、画像搬送部 31として、フロッピー(登録商標)ディスク用アダプタ 15a、 MO用アダプタ 15b、光ディスク用アダプタ 15cを備えている。画像書込部 15 は、制御部 7から入力される書込信号に従って、フロッピー(登録商標)ディスク用ァ ダプタ 15aに差し込まれたフロッピー(登録商標)ディスク 16a、 MO用アダプタ 15bに 差し込まれた MO 16b、光ディスク用アダプタ 15cに差し込まれた光ディスク 16cに、 本発明における画像処理方法によって生成された画像信号を書き込む。
[0166] データ蓄積手段 71は、画像情報とそれに対応する注文情報(どの駒の画像から何 枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し、順次蓄積する。
[0167] テンプレート記憶手段 72は、サンプノレ識別情報 Dl、 D2、 D3に対応するサンプル 画像データである背景画像、イラスト画像等と合成領域を設定する少なくとも 1個のテ ンプレートのデータを記憶している。オペレータの操作によりセットしてテンプレート記 憶手段 72に予め記憶された複数のテンプレートから所定のテンプレートを選択し、駒 画像情報は選択されたテンプレートにより合成し、指定されるサンプル識別情報 Dl、 D2、 D3に基づいて選択されたサンプル画像データと、注文に基づく画像データ及 び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成する。こ のテンプレートによる合成は、周知のクロマキ一法によって行なわれる。
[0168] なお、プリントのサンプルを指定するサンプノレ識別情報 Dl、 D2、 D3は、操作部 11 力も入力されるように構成されているが、これらのサンプル識別情報は、プリントのサ ンプノレ又は注文シートに記録されているため、 OCR等の読み取り手段により読み取 ることができる。或いは、オペレータのキーボード操作により入力することもできる。
[0169] このようにプリントのサンプノレを指定するサンプル識別情報 D1に対応してサンプル 画像データを記録しておき、プリントのサンプノレを指定するサンプル識別情報 D1を 入力し、この入力されるサンプノレ識別情報 D1に基づきサンプノレ画像データを選択し 、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字 データとを合成し、指定によるサンプノレに基づくプリントを作成するため、種々の実物 大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多 様な要求に応じることができる。
[0170] また、第 1のサンプノレを指定する第 1のサンプル識別情報 D2と第 1のサンプノレの画 像データを記憶し、また、第 2のサンプルを指定する第 2のサンプル識別情報 D3と第 2のサンプルの画像データを記憶し、指定される第 1及び第 2のサンプル識別情報 D 2、 D3とに基づいて選択されたサンプノレ画像データと、注文に基づく画像データ及 び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するた め、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要 求に応じたプリントを作成することができる。
[0171] 操作部 11は、情報入力手段 12を有する。情報入力手段 12は、例えば、タツチパネ ル等により構成されており、情報入力手段 12の押下信号を入力信号として制御部 7 に出力する。なお、操作部 11は、キーボードやマウス等を備えて構成するようにして もよレ、。 CRT8は、制御部 7から入力された表示制御信号に従って、画像情報等を表 示する。
[0172] 通信手段(出力) 33は、本発明の画像処理を施した後の撮影画像を表す画像信号 と、それに付帯するオーダー情報を、画像記録装置 1が設置された施設内の他のコ ンピュータゃ、インターネット等を介した遠方のコンピュータに対して送信する。
[0173] 図 2に示すように、画像記録装置 1は、各種デジタルメディアの画像及び画像原稿 を分割測光して得られた画像情報を取り込む画像入力手段と、画像処理手段と、処 理済の画像を表示、プリント出力、画像記録メディアに書き込む画像出力手段と、通 信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンビュ ータに対して画像データと付帯するオーダー情報を送信する手段と、を備える。 <画像処理部 70の内部構成 >
図 3に、画像処理部 70の内部構成を示す。画像処理部 70は、図 3に示すように、 画像調整処理部 701、フィルムスキャンデータ処理部 702、反射原稿スキャンデータ 処理部 703、画像データ書式解読処理部 704、テンプレート処理部 705、 CRT固有 処理部 706、プリンタ固有処理部 A707、プリンタ固有処理部 B708、画像データ書 式作成処理部 709により構成される。
[0174] フィルムスキャンデータ処理部 702は、フィルムスキャナ部 9から入力された画像デ ータに対し、フィルムスキャナ部 9固有の校正操作、ネガポジ反転 (ネガ原稿の場合) 、ゴミキズ除去、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の処理を施し、処理 済の画像データを画像調整処理部 701に出力する。また、フィルムサイズ、ネガポジ 種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影 条件に関する情報 (例えば、 APSの記載情報内容)等も併せて画像調整処理部 701 に出力する。
[0175] 反射原稿スキャンデータ処理部 703は、反射原稿入力装置 10から入力された画像 データに対し、反射原稿入力装置 10固有の校正操作、ネガポジ反転 (ネガ原稿の 場合)、ゴミキズ除去、コントラスト調整、ノイズ除去、鮮鋭化強調等の処理を施し、処 理済の画像データを画像調整処理部 701に出力する。
[0176] 画像データ書式解読処理部 704は、画像転送手段 30及び Z又は通信手段 (入力 ) 32から入力された画像データに対し、その画像データのデータ書式に従って、必 要に応じて圧縮符号の復元、色データの表現方法の変換等の処理を施し、画像処 理部 70内の演算に適したデータ形式に変換し、画像調整処理部 701に出力する。 また、画像データ書式解読処理部 704は、操作部 11、通信手段(入力) 32、画像転 送手段 30の何れ力から出力画像の大きさが指定された場合、その指定された情報を 検出し、画像調整処理部 701に出力する。なお、画像転送手段 30により指定される 出力画像の大きさについての情報は、画像転送手段 30が取得した画像データのへ ッダ情報、タグ情報に埋め込まれている。
[0177] 画像調整処理部 701は、操作部 11又は制御部 7の指令に基づいて、フィルムスキ ャナ部 9、反射原稿入力装置 10、画像転送手段 30、通信手段 (入力) 32、テンプレ ート処理部 705から受け取った画像データに対し、後述の画像処理(図 5、図 6及び 図 12参照)を施して、出力媒体上での鑑賞に最適化された画像形成用のデジタル 画像データを生成し、 CRT固有処理部 706、プリンタ固有処理部 A707、プリンタ固 有処理部 B708、画像データ書式作成処理部 709、データ蓄積手段 71に出力する
[0178] 最適化処理においては、例えば sRGB規格に準拠した CRTディスプレイモニタに 表示することを前提とした場合、 sRGB規格の色域内で最適な色再現が得られるよう に処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適 な色再現が得られるように処理される。また前記色域の圧縮の以外にも、 16bitから 8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性 (LUT)への 対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、グレーバランス調整、彩度調整、 或いは覆レ、焼き処理等の階調圧縮処理が行われることは言うまでもなレ、。
[0179] 画像調整処理部 701は、図 3に示すように、シーン判別部 710と階調変換部 711に より構成される。図 4に、シーン判別部 710の内部構成を示す。シーン判別部 710は 、図 4に示すように、割合算出部 712、指標算出部 713、画像処理条件決定部 714 により構成される。割合算出部 712は、図 4に示すように、表色系変換部 715、ヒスト グラム作成部 716、占有率演算部 717により構成される。
[0180] 表色系変換部 715は、撮影画像データの RGB (Red, Green, Blue)値を HSV 表色系に変換する。 HSV表色系とは、画像データを、色相(Hue)、彩度(Saturati on)、明度(Value又は Brightness)の 3つの要素で表すものであり、マンセルにより 提案された表色体系を元にして考案されたものである。
[0181] なお、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「 明るさ」の意味である。以下の記載において、 HSV表色系の V(0〜255)を「明度」と して用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。その際、 本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもな レ、。また、本実施形形態における撮影画像データは、人物を主要被写体とする画像 データであるものとする。
[0182] ヒストグラム作成部 716は、撮影画像データを、所定の色相と明度の組み合わせか らなる領域に分割し、分割された領域毎に累積画素数を算出することによって 2次元 ヒストグラムを作成する。また、ヒストグラム作成部 716は、撮影画像データを、当該撮 影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の領域に 分割し、分割された領域毎に累積画素数を算出することによって 2次元ヒストグラムを 作成する。なお、撮影画像データを、撮影画像データの画面の外縁からの距離、明 度及び色相の組み合わせからなる領域に分割し、分割された領域毎に累積画素数 を算出することによって 3次元ヒストグラムを作成するようにしてもよい。以下では、 2次 元ヒストグラムを作成する方式を採用するものとする。
[0183] 占有率演算部 717は、明度と色相の組み合わせによって分割された領域毎に、ヒ ストグラム作成部 716において算出された累積画素数の全画素数 (撮影画像データ 全体)に占める割合を示す第 1の占有率 (表 1参照)を算出する。また、占有率演算部 717は、撮影画像データの画面の外縁からの距離と明度の組み合わせによって分割 された領域毎に、ヒストグラム作成部 716において算出された累積画素数の全画素 数 (撮影画像データ全体)に占める割合を示す第 2の占有率 (表 4参照)を算出する。
[0184] 指標算出部 713は、占有率演算部 717において各領域毎に算出された第 1の占 有率に、撮影条件に応じて予め設定された第 1の係数 (表 2参照)を乗算して和をとる ことにより、撮影シーンを特定するための指標 1を算出する。ここで、撮影シーンとは、 順光、逆光、ストロボ等の、被写体を撮影する時の光源条件を示す。指標 1は、屋内 撮影度、近接撮影度、顔色高明度等のストロボ撮影時の特徴を示すもので、 「スト口 ボ」と判別されるべき画像のみを他の撮影シーン (光源条件)から分離するためのも のである。
[0185] 指標 1の算出の際、指標算出部 713は、所定の高明度の肌色色相領域と、当該高 明度の肌色色相領域以外の色相領域とで、異なる符号の係数を用いる。ここで、所 定の高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の領域が含 まれる。また、所定の高明度の肌色色相領域以外の色相領域には、青色色相領域( 色相値 16:!〜 250)、緑色色相領域(色相値 40〜: 160)の少なくとも一方の高明度領 域が含まれる。
[0186] また、指標算出部 713は、占有率演算部 717において各領域毎に算出された第 1 の占有率に、撮影条件に応じて予め設定された第 2の係数 (表 3参照)を乗算して和 をとることにより、撮影シーンを特定するための指標 2を算出する。指標 2は、屋外撮 影度、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に示すもので、「逆 光」と判別されるべき画像のみを他の撮影シーン (光源条件)から分離するためのも のである。
[0187] 指標 2の算出の際、指標算出部 713は、肌色色相領域 (色相値 0〜39、 330〜35 9)の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる符号の係数 を用いる。この肌色色相領域の中間明度領域には、明度値 85〜169の領域が含ま れる。また、当該中間明度領域以外の明度領域には、例えば、シャドー領域(明度値 26〜84)が含まれる。
[0188] 更に、指標算出部 713は、占有率演算部 717において各領域毎に算出された第 2 の占有率に、撮影条件に応じて予め設定された第 3の係数 (表 5参照)を乗算して和 をとることにより、撮影シーンを特定するための指標 3を算出する。指標 3は、逆光とス トロボ間における、撮影画像データの画面の中心と外側の明暗関係の差異を示すも のであり、逆光又はストロボと判別されるべき画像のみを定量的に示すものである。指 標 3の算出の際、指標算出部 713は、撮影画像データの画面の外縁からの距離に 応じて異なる値の係数を用いる。
[0189] また、指標算出部 713は、指標 1、指標 3に、それぞれ、撮影条件に応じて予め設 定された係数を乗算して合成することにより指標 4を算出する。更に、指標算出部 71 3は、指標 1、指標 2及び指標 3に、それぞれ、撮影条件に応じて予め設定された係 数を乗算して合成することにより指標 5を算出する。指標算出部 713における指標 1 〜5の具体的な算出方法は、後述の本実施形態の動作説明において詳細に説明す る。
[0190] 画像処理条件決定部 714は、指標算出部 713において算出された指標 4及び指 標 5の値に基づいて撮影シーン (光源条件)を判別し、その判別結果、指標算出部 7 13において算出された指標 4及び指標 5、その他の各種パラメータ (撮影画像データ の平均輝度等)に基づいて撮影画像データに対する画像処理条件(階調変換処理 条件)を決定する。
[0191] 指標算出部 713における指標 1〜5の具体的な算出方法、画像処理条件決定部 7 14における撮影シーン (光源条件)の判別方法及び画像処理条件の具体的な決定 方法は、後述の本実施形態の動作説明において詳細に説明する。
[0192] 図 3において階調変換部 711は、画像処理条件決定部 714において決定された画 像処理条件 (階調変換処理条件)に従って撮影画像データを階調変換する。
[0193] テンプレート処理部 705は、画像調整処理部 701からの指令に基づいて、テンプレ ート記憶手段 72から所定の画像データ(テンプレート)を読み出して、画像処理対象 の画像データとテンプレートを合成するテンプレート処理を行い、テンプレート処理後 の画像データを画像調整処理部 701に出力する。
[0194] CRT固有処理部 706は、画像調整処理部 701から入力された画像データに対し て、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示 が必要な情報と合成した表示用の画像データを CRT8に出力する。
[0195] プリンタ固有処理部 A707は、必要に応じてプリンタ固有の校正処理、カラーマッチ ング、画素数変更等の処理を行い、処理済の画像データを露光処理部 4に出力する
[0196] 本発明の画像記録装置 1に、大判インクジェットプリンタ等の外部プリンタ 51が接続 可能な場合には、接続するプリンタ装置毎にプリンタ固有処理部 B708が備えられて いる。このプリンタ固有処理部 B708は、プリンタ固有の校正処理、カラーマッチング 、画素数変更等の処理を施し、処理済の画像データを外部プリンタ 51に出力する。
[0197] 画像データ書式作成処理部 709は、画像調整処理部 701から入力された画像デ ータに対して、必要に応じて JPEG、 TIFF, Exif等に代表される各種の汎用画像フ ォーマットへの変換を施し、処理済の画像データを画像搬送部 31や通信手段(出力 ) 33に出力する。
[0198] なお、図 3に示したフィルムスキャンデータ処理部 702、反射原稿スキャンデータ処 理部 703、画像データ書式解読処理部 704、画像調整処理部 701、 CRT固有処理 部 706、プリンタ固有処理部 A707、プリンタ固有処理部 B708、画像データ書式作 成処理部 709、という区分は、画像処理部 70の機能の理解を助けるために設けた区 分であり、必ずしも物理的に独立したデバイスとして実現される必要はな 例えば、 単一の CPUによるソフトウェア処理の種類の区分として実現されてもょレ、。
[0199] 次に、本実施形態における動作について説明する。
[0200] まず、図 5のフローチャートを参照して、画像調整処理部 701のシーン判別部 710 において実行されるシーン判別処理について説明する。
[0201] まず、割合算出部 712において、撮影画像データが所定の画像領域に分割され、 各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算 出処理が行われる(ステップ Sl)。 占有率算出処理の詳細は、後に図 6、図 12を参 照して説明する。
[0202] 次いで、割合算出部 712において算出された占有率と、撮影条件に応じて予め設 定された係数に基づいて、撮影シーンを特定する(光源条件を定量的に表す)指標( 指標 1〜5)が算出される(ステップ S2)。ステップ S2における指標算出処理は、後に 詳細に説明する。
[0203] 次いで、ステップ S2において算出された指標に基づいて撮影シーンが判別され、 判別結果に応じて撮影画像データに対する画像処理条件(階調変換処理条件)が 決定され (ステップ S3)、本シーン判別処理が終了する。画像処理条件の決定方法 は、後に詳細に説明する。
[0204] 次に、図 6のフローチャートを参照して、割合算出部 712において実行される占有 率算出処理について詳細に説明する。
[0205] まず、撮影画像データの RGB値が HSV表色系に変換される(ステップ S 10)。図 7 は、 RGBから HSV表色系に変換することにより色相値、彩度値、明度値を得る変換 プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したも のである。図 7に示す HSV変換プログラムでは、入力画像データであるデジタル画 像データの値を、 InR、 InG、 InBと定義し、算出された色相値を OutHとし、スケール を 0〜360と定義し、彩度値を OutS、明度値を OutVとし、単位を 0〜255と定義して いる。
[0206] 次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割 され、分割領域毎に累積画素数を算出することにより 2次元ヒストグラムが作成される (ステップ Sll)。以下、撮影画像データの領域分割について詳細に説明する。
[0207] 明度(V)fま、明度ィ直カ 0〜25(^1)、 26— 50(v2)、 51〜84(v3)、 85〜: 169 (v4) 、 170〜199(v5)、 200〜224(v6)、 225〜255 (v7)の 7つの領域に分割される。 色相(H)は、色相値が 0〜39、 330〜359の肌色色相領域(HI及び H2)、色相値 力 40〜: 160の緑色色相領域(H3)、色相値が 161〜250の青色色相領域(H4)、赤 色色相領域 (H5)の 4つの領域に分割される。なお、赤色色相領域 (H5)は、撮影シ ーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色 相領域は、更に、肌色領域 (HI)と、それ以外の領域 (H2)に分割される。以下、肌 色色相領域(H = 0〜39、 330〜359)のうち、下記の式(1)を満たす色相'(H)を肌 色領域 (HI)とし、式(1)を満たさない領域を (H2)とする。
[0208] 10 < 彩度(S) <175、
色相'(H) =色相(H) +60 (0≤色相(H)く 300のとき)、
色相' (H) =色相 (H) -300 (300≤色相(H)く 360のとき)、
輝度 Y=InRX0.30 + InGXO.59 + InBXO.11として、
色相'(H)Z輝度 (Y)<3.0Χ(彩度(S)/255)+0.7 (1)
従って、撮影画像データの分割領域の数は 4X7 = 28個となる。なお、式(1)にお レ、て明度 (V)を用いることも可能である。
[0209] 2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素 数 (撮影画像全体)に占める割合を示す第 1の占有率が算出され (ステップ S12)、本 占有率算出処理が終了する。明度領域 vi、色相領域 Hjの組み合わせからなる分割 領域において算出された第 1の占有率を Rijとすると、各分割領域における第 1の占 有率は表 1のように表される。
[0210] [表 1] [第 1の占有率]
Figure imgf000038_0001
[0211] 次に、指標 1及び指標 2の算出方法について説明する。
[0212] 表 2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時 の顔領域の明度状態を定量的に示す指標 1を算出するために必要な第 1の係数を 分割領域別に示す。表 2に示された各分割領域の係数は、表 1に示した各分割領域 の第 1の占有率 Rijに乗算する重み係数である。
[0213] [表 2]
[第 1の係数]
Figure imgf000038_0002
[0214] 各分割領域の係数は、例えば、以下の手順で得ることができる。
[0215] まず、画像データを撮影条件毎に複数組準備し、それぞれの画像データについて 、所定の明度と色相の組み合わせ力 なる分割領域毎に累積画素数を算出すること により、 2次元ヒストグラムを作成する。そして、分割領域毎に、累積画素数の全画素 数に占める割合を示す占有率を算出する。ここで算出した占有率を判別分析法にお ける判別関数の判別因子として用いる。
[0216] 次に、上記判別因子及び判別係数からなる判別関数と、前記判別関数により各画 像データを撮影条件ごとにグループ分けできるような期待値とを予め決めておく。そ して、判別係数を調整することにより、各画像データが上記期待値を達成するような 判別係数を求める。このようにして求めた判別係数を、各分割領域の占有率に乗算 する重み係数として使用する。
[0217] 調整した判別係数が適切な値かどうかは、未知のサンプノレ画像について新たに上 記占有率を算出し、算出した占有率 (判別因子)と上記調整した判別係数とを判別関 数に適用することで確認することができる。
[0218] 図 8に、明度 (V)—色相(H)平面を示す。表 2によると、図 8において高明度の肌色 色相領域に分布する領域 (rl)から算出される第 1の占有率には、正(+ )の係数が 用いられ、それ以外の色相である青色色相領域 (r2)から算出される第 1の占有率に は、負(-)の係数が用いられる。図 10は、肌色領域 (HI)における第 1の係数と、そ の他の領域 (緑色色相領域 (H3))における第 1の係数を、明度全体に渡って連続的 に変化する曲線 (係数曲線)として示したものである。表 2及び図 10によると、高明度 (V=170〜224)の領域では、肌色領域 (HI)における第 1の係数の符号は正(+ ) であり、その他の領域 (例えば、緑色色相領域 (H3))における第 1の係数の符号は 負(一)であり、両者の符号が異なっていることがわかる。
[0219] 明度領域 vi、色相領域 Hjにおける第 1の係数を Cijとすると、指標 1を算出するため の Hk領域の和は、式(2)のように定義される。
[0220] [数 1コ
Hk領域の和 = Rik Cik ( 2 )
[0221] 従って、 H1〜H4領域の和は、下記の式(2_1)〜式(2_4)のように表される。
HI領域の禾ロ = R11X (-44.0)+R21X (— 16.0) + (中略)
... +R71X (-11.3) (2-1)
H2領域の和 = R12X0.0 + R22X8.6+ (中略)
... +R72X (-11.1) (2-2)
H3領域の禾ロ = R13X0.0 + R23X (— 6.3) + (中略)
... +R73X (-10.0) (2-3)
H4領域の和 = R14X0.0 + R24X (— 1.8) + (中略)
... +R74X (— 14.6) (2-4)
指標 1は、式(2—:!)〜(2— 4)で示された H1〜H4領域の和を用いて、式(3)のよ うに定義される。
[0222] 指標 1 =H1領域の和 + H2領域の和 + H3領域の和 + H4領域の和 + 4. 424 (3 )
表 3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔 領域の明度状態を定量的に示す指標 2を算出するために必要な第 2の係数を分割 領域別に示す。表 3に示された各分割領域の係数は、表 1に示した各分割領域の第 1の占有率 Rijに乗算する重み係数である。
[0223] [表 3]
[第 2の係数]
Figure imgf000040_0001
[0224] 図 9に、明度 (v)—色相(H)平面を示す。表 3によると、図 9において肌色色相領域 の中間明度に分布する領域 (r4)から算出される占有率には負(一)の係数が用いら れ、肌色色相領域の低明度(シャドー)領域 (r3)から算出される占有率には正(+ ) の係数が用いられる。図 11は、肌色領域 (HI)における第 2の係数を、明度全体に 渡って連続的に変化する曲線 (係数曲線)として示したものである。表 3及び図 11に よると、肌色色相領域の、明度値が 85〜: 169 (v4)の中間明度領域の第 2の係数の 符号は負(一)であり、明度値が 26〜84 (v2, v3)の低明度(シャドー)領域の第 2の 係数の符号は正(+ )であり、両領域での係数の符号が異なっていることがわかる。
[0225] 明度領域 vi、色相領域 Hjにおける第 2の係数を Dijとすると、指標 2を算出するため の Hk領域の和は、式 (4)のように定義される。
[0226] [数 2コ
HA;領域の和 = YR x i)た (4 )
[0227] 従って、 H1〜H4領域の和は、下記の式(4 1)〜式(4 4)のように表される。 HI領域の禾ロ = R11 X (-27.0) +R21X4.5+ (中略)
... +R71X (-24.0) (4-1)
H2領域の和 = R12X0.0 + R22X4.7+ (中略)
... +R72X (-8.5) (4-2)
H3領域の和 = R13X0.0 + R23X0.0+ (中略)
... +R73X0.0 (4-3)
H4領域の和 = R14X0.0 + R24X (_5.1) + (中略)
... +R74X7.2 (4-4)
指標 2は、式(4一:!)〜(4 4)で示された H1〜H4領域の和を用いて、式(5)のよ うに定義される。
[0228] 指標 2 = H1領域の和 + H2領域の和 + H3領域の和 + H4領域の和 +1.554
(5)
次に、図 12のフローチャートを参照して、指標 3を算出するために割合算出部 712 において実行される占有率算出処理について詳細に説明する。
[0229] まず、撮影画像データの RGB値が HSV表色系に変換される(ステップ S20)。次い で、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからな る領域に分割され、分割領域毎に累積画素数を算出することにより 2次元ヒストグラム が作成される(ステップ S21)。以下、撮影画像データの領域分割について詳細に説 明する。
[0230] 図 13 (a)〜: 13(d)に、撮影画像データの画面の外縁からの距離に応じて分割され た 4つの領域 nl〜n4を示す。図 13 (a)に示す領域 nlが外枠であり、図 13(b)に示 す領域 n2が、外枠の内側の領域であり、図 13(c)に示す領域 n3が、領域 n2の更に 内側の領域であり、図 13(d)に示す領域 n4が、撮影画像画面の中心部の領域であ る。また、明度は、上述のように vl〜v7の 7つの領域に分割するものとする。従って、 撮影画像データを、撮影画像画面の外縁力 の距離と明度の組み合わせからなる領 域に分割した場合の分割領域の数は 4 X 7 = 28個となる。
[0231] 2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素 数 (撮影画像全体)に占める割合を示す第 2の占有率が算出され (ステップ S22)、本 占有率算出処理が終了する。明度領域 vi、画面領域 njの組み合わせからなる分割 領域において算出された第 2の占有率を Qijとすると、各分割領域における第 2の占 有率は表 4のように表される。
[表 4]
[第 2の占有率]
Figure imgf000042_0001
[0233] 次に、指標 3の算出方法について説明する。
[0234] 表 5に、指標 3を算出するために必要な第 3の係数を分割領域別に示す。表 5に示 された各分割領域の係数は、表 4に示した各分割領域の第 2の占有率 Qijに乗算す る重み係数であり、判別分析により得られる。
[0235] [表 5]
Figure imgf000042_0002
[0236] 図 14は、画面領域 nl〜n4における第 3の係数を、明度全体に渡って連続的に変 化する曲線 (係数曲線)として示したものである。
[0237] 明度領域 vi、画面領域 njにおける第 3の係数を Eijとすると、指標 3を算出するため の nk領域(画面領域 nk)の和は、式(6)のように定義される。
[0238] 圖
Mit領域の和 it ( 6 ) [0239] 従って、 nl〜n4領域の和は、下記の式(6_ 1)〜式(6_4)のように表される。 nl領域の禾ロ = Q11X40. 1 + Q21X37. 0+ (中略)
. . . +Q71X22. 0 (6-1)
n2領域の和 = Q12X (-14. 8) +Q22X (-10. 5) + (中略)
. . . +Q72X0. 0 (6-2)
n3領域の禾ロ = Q13X24. 6 + Q23X12. 1+ (中略)
. . . +Q73X10. 1 (6-3)
n4領域の禾ロ = Q14X1. 5 + Q24X (-32. 9) + (中略)
. . . +Q74X (— 52. 2) (6-4)
指標 3は、式(6—:!)〜(6— 4)で示された N1〜H4領域の和を用いて、式(7)のよ うに定義される。
[0240] 指標 3=nl領域の和 +n2領域の和 +n3領域の和 +n4領域の和 12. 6201
(7)
指標 4は、指標 1及び指標 3を用いて式 (8)のように定義され、指標 5は、指標 1〜3 を用いて式(9)のように定義される。
[0241] 指標 4 = 0. 565 X指標 1 + 0. 565 X指標 3 + 0. 457 (8)
指標 5= (— 0. 121) X指標 1 + 0. 91 X指標 2 + 0. 113X指標 3— 0. 072 (9)
ここで、式 (8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応 じて予め設定されている。
[0242] 次に、撮影シーン (光源条件)の判別方法について説明する。
[0243] 図 15は、順光、逆光、ストロボの各光源条件で 60枚ずつ撮影し、合計 180枚のデ ジタル画像データについて、指標 4、 5を算出し、各光源条件での指標 4、 5の値をプ ロットしたものである。図 15によれば、指標 4の値が 0. 5より大きい場合、ストロボシー ンが多ぐ指標 4の値が 0. 5以下で、指標 5の値が一 0. 5より大きい場合、逆光シー ンが多いことがわかる。表 6に、指標 4、 5の値による撮影シーン (光源条件)の判別内 容を示す。
[0244] [表 6] 指標 4 指標 5
順光 0. 5以下 -0. 5以下
逆光 0. 5以下 -0. 5より大
ストロボ 0. 5より大 ―
[0245] このように指標 4、 5の値により撮影シーン (光源条件)を定量的に判別することができ る。
[0246] 次に、撮影シーンの判別結果に基づレ、て、撮影画像データに対する画像処理条 件の算出方法 (決定方法)について説明する。なお、以下では、 8bitの撮影画像デ ータは 16bitへと事前に変換されているものとし、撮影画像データの値の単位は 16bi tであるものとする。
[0247] 画像処理条件の算出に際し、まず、下記の P1〜P9のパラメータが算出される。
[0248] P1:撮影画面全体の平均輝度
P2 :ブロック分割平均輝度
P 3:肌色領域 (H 1 )の平均輝度
P4:輝度補正値 1 =P1 _P2
P5:再現目標修正値 =輝度再現目標値(30360) - P4
P6 :オフセット値 1 =P5 _P1
P7 :キー補正値
P8 :輝度補正値 2
P9 :オフセット値 2 = P5— P8— P1
ここで、図 16 (&)〜16 ((:)及び図17 (&)〜17 ((1)を参照して、パラメータ P2の算出 方法について説明する。
[0249] まず、撮影画像データを正規化するために、 CDF (累積密度関数)を作成する。次 いで、得られた CDFから最大値と最小値を決定する。この最大値と最小値は、 RGB 毎に求める。ここで、求められた RGB毎の最大値と最小値を、それぞれ、 Rmax、 R mm、 Gmax、 Gmm、 Bmax、 Bmmとす 。
[0250] 次レ、で、撮影画像データの任意の画素 (Rx, Gx, Bx)に対する正規化画像データ を算出する。 Rプレーンにおける Rxの正規化データを R 、 Gプレーンにおける Gx point
の正規化データを G 、 Bプレーンにおける Bxの正規化データを B とすると、正 規化データ R 、G 、B は、それぞれ、式(10)〜式(12)のように表される。
point point point
R = { (Rx-Rmin) / (Rmax-Rmin) } X 65535 (10)
point
G = { (Gx-Gmin) / (Gmax-Gmin) } X 65535 (11)
point
B = { (Bx-Bmin) / (Bmax- Bmin) } X 65535 (12)
oint
次いで、式(13)により画素(Rx, Gx, Bx)の輝度 N を算出する。
point
[0251] N = (B +G +R ) /3 (13)
point point point point
図 16 (a)は、正規化する前の RGB画素の輝度の度数分布(ヒストグラム)である。図 16 (a)において、横軸は輝度、縦軸は画素の頻度である。このヒストグラムは、 RGB 毎に作成する。輝度のヒストグラムが作成されると、式(10)〜式(12)により、撮影画 像データに対し、プレーン毎に正規化を行う。図 16 (b)は、式(13)により算出された 輝度のヒストグラムを示す。撮影画像データが 65535で正規化されているため、各画 素は、最大値が 65535で最小値が 0の間で任意の値をとる。
[0252] 図 16 (b)に示す輝度ヒストグラムを所定の範囲で区切ってブロックに分割すると、図
16 (c)に示すような度数分布が得られる。図 16 (c)において、横軸はブロック番号( 輝度)、縦軸は頻度である。
[0253] 次いで、図 16 (c)に示された輝度ヒストグラムから、ハイライト、シャドー領域を削除 する処理を行う。これは、白壁や雪上シーンでは、平均輝度が非常に高くなり、暗闇 のシーンでは平均輝度は非常に低くなつているため、ハイライト、シャドー領域は、平 均輝度制御に悪影響を与えてしまうことによる。そこで、図 16 (c)に示した輝度ヒスト グラムのハイライト領域、シャドー領域を制限することによって、両領域の影響を減少 させる。図 17 (a) (又は図 16 (c) )に示す輝度ヒストグラムにおいて、高輝度領域 (ハ イライト領域)及び低輝度領域 (シャドー領域)を削除すると、図 17 (b)のようになる。
[0254] 次いで、図 17 (c)に示すように、輝度ヒストグラムにおいて、頻度が所定の閾値より 大きい領域を削除する。これは、頻度が極端に多い部分が存在すると、この部分の データが、撮影画像全体の平均輝度に強く影響を与えてしまうため、誤補正が生じ やすいことによる。そこで、図 17 (c)に示すように、輝度ヒストグラムにおいて、閾値以 上の画素数を制限する。図 17 (d)は、画素数の制限処理を行った後の輝度ヒストグラ ムである。 [0255] 正規化された輝度ヒストグラムから、高輝度領域及び低輝度領域を削除し、更に、 累積画素数を制限することによって得られた輝度ヒストグラム(図 17 (d) )の各ブロック 番号と、それぞれの頻度に基づいて、輝度の平均値を算出したものがパラメータ P2 である。
[0256] ノ ラメータ P1は、撮影画像データ全体の輝度の平均値であり、ノ ラメータ P3は、撮 影画像データのうち肌色領域 (HI)の輝度の平均値である。パラメータ P7のキー補 正値、ノ ラメータ P8の輝度補正値 2は、それぞれ、式(14)、式(15)のように定義さ れる。
[0257] P7 (キー補正値) = (P3— ( (指標 5/6) X 10000) + 30000) /24. 78) (1 4)
P8 (輝度補正値 2) = (指標 4/6) X I 7500 (15)
以下、各撮影シーン (光源条件)の画像処理条件 (階調変換処理条件)を示す。 <順光の場合 >
撮影シーンが順光である場合、パラメータ P1を P5と一致させるオフセット補正(8bi t値の平行シフト)を下記の式(16)により行う。
[0258] 出力画像の RGB値 =入力画像の RGB値 + P6 (16)
<逆光の場合 >
撮影シーンが逆光である場合、図 18に示す、予め設定された階調変換曲線 (補正 カーブ) L1〜L5の中から、式(14)に示すパラメータ P7 (キー補正値)に対応する階 調変換曲線を選択する。パラメータ P7の値と、選択される階調変換曲線の対応関係 を以下に示す。
-0. 5 < P7 < + 0. 5の場合- →L3
+ 0. 5 < P7 < + 1. 5の場合- →L4
+ 1. 5 < P7 < + 2. 5の場合- →L5
- 1. 5 < P7 < -0. 5の場合- →L2
- 2. 5 < P7 < - 1. 5の場合- →L1
なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せ て行うことが好ましい。 <ストロボの場合 >
撮影シーンがストロボである場合、オフセット補正(8bit値の平行シフト)を式(17) により行う。
[0260] 出力画像の RGB値 =入力画像の RGB値 + P9 (17)
本実施形態では、実際に撮影画像データに対して階調変換処理を施す場合、上 述の各画像処理条件を 16bitから 8bitへ変更するものとする。
[0261] なお、順光、逆光、ストロボ間で階調調整方法が大きく異なる場合、撮影シーンの 誤判別時の画質への影響が懸念されるため、順光、逆光、ストロボ間に、階調調整方 法が緩やかに移行する中間領域を設定することが望ましレ、。
[0262] 以上のように、本実施形態の画像記録装置 1によれば、人物を主要被写体とする撮 影画像データから、撮影シーン (光源条件 (順光、逆光、ストロボ等))を定量的に示 す指標を算出し、その算出された指標に基づいて、撮影画像データに対する画像処 理条件を決定することにより、被写体の顔領域の明度を適切に補正することが可能と なる。
[0263] 特に、ストロボ撮影としての確度、即ち、ストロボ撮影時における顔領域の明度状態 を定量的に示す指標 1を算出することにより、顔領域の高明度領域を適切に補正す ること力 Sできる。
[0264] また、逆光撮影としての確度、即ち、逆光撮影時における顔領域の明度状態を定 量的に示す指標 2を算出することにより、顔領域の低明度領域を適切に補正すること ができる。
[0265] 更に、撮影画像データの画面の構図と明度分布から、撮影シーンを定量的に示す 指標 3を算出することにより、顔領域の明度を適切に補正することができる。
[0266] 特に、指標 1及び指標 2に加えて、撮影画像データの構図的な要素から導出される 指標 3を用いることで、撮影シーンの判別精度を向上させることができる。
[0267] なお、本実施形態における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変 更可能である。
[0268] 例えば、撮影画像データから顔画像を検出し、検出された顔画像に基づいて撮影 シーンを判別し、画像処理条件を決定するようにしてもよい。また、撮影シーンの判 別に、 Exif (Exchangeable Image File Format)情報を用いるようにしてもよレヽ 。 Exif情報を用いると、撮影シーンの判別精度を更に向上させることが可能となる。
[0269] また、上述の実施形態では、指標 4、 5に基づいて撮影シーンを判別しているが、更 に指標を追加して、 3次元空間内で、撮影シーンを判別するようにしても良レ、。例え ば、ストロボシーンでは、指標 4に応じて画像全体を暗くする階調調整が行われるた め、アンダー撮影シーンを誤ってストロボシーンと判定した場合、更に画像を喑くして しまうことが懸念される。これを回避するため、肌色領域の平均輝度 P3を指標 6として 設定し、ストロボシーンであるか、アンダー撮影シーンであるかの判別を行うようにす るとよい。
産業上の利用可能性
[0270] 本発明によれば、撮影シーン (光源条件 (順光、逆光、ストロボ等))を定量的に示 す指標を算出し、その算出された指標に基づいて、撮影画像データに対する画像処 理条件を決定することにより、撮影画像データが人物を被写体とする場合、被写体の 顔領域の明度を適切に補正することが可能となる。
[0271] 特に、ストロボ撮影としての確度、即ち、ストロボ撮影時における顔領域の明度状態 を定量的に示す第 1の指標を算出することにより、顔領域の高明度領域を適切に補 正すること力 Sできる。
[0272] また、逆光撮影としての確度、即ち、逆光撮影時における顔領域の明度状態を定 量的に示す第 2の指標を算出することにより、顔領域の低明度領域を適切に補正す ること力 Sできる。
[0273] 更に、撮影画像データの画面の構図と明度分布から、撮影シーンを定量的に示す 第 3の指標を算出することにより、顔領域の明度領域を適切に補正することができる。
[0274] 特に、第 1の指標及び第 2の指標に加えて、撮影画像データの構図的な要素から 導出される第 3の指標を用いることで、撮影シーンの判別精度を向上させることがで きる。

Claims

請求の範囲
[1] 撮影画像データを、所定の明度と色相、当該撮影画像データの画面の外縁からの 距離と明度のうち、少なくとも 1つの組み合わせからなる複数の領域に分割し、当該 分割された領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算出 する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出工程と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定工程と、を含む画像処理方法。
[2] 前記占有率算出工程において、撮影画像データを所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す占有率を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と 当該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係 数か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する請求の範囲第 1項に記載の画像処理方法。
[3] 前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と、 当該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる請求 の範囲第 2項に記載の画像処理方法。
[4] 前記指標算出工程において、肌色色相領域の中間明度領域に用いられる係数と、 当該中間明度領域以外の明度領域に用いられる係数の符号が異なる請求の範囲第
2項に記載の画像処理方法。
[5] 前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され
、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、 前記画像処理条件決定工程において、前記算出された第 1の指標及び第 2の指標 に基づいて前記画像処理条件が決定される請求の範囲第 2項に記載の画像処理方 法。
[6] 前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって
2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 占有率が算出される請求の範囲第 2項に記載の画像処理方法。
[7] 前記所定の高明度の肌色色相領域とは符号が異なる係数を持つ、前記高明度の 肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である請求の範 囲第 2項に記載の画像処理方法。
[8] 前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明度 領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である請求の範 囲第 2項に記載の画像処理方法。
[9] 前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる請求の範囲第 2項に記載の画像処理方法。
[10] 前記中間明度領域には、 HSV表色系の明度値で 85〜: 169の範囲の領域が含ま れる請求の範囲第 2項に記載の画像処理方法。
[11] 前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色色相領域 の少なくとも一方が含まれる請求の範囲第 2項に記載の画像処理方法。
[12] 前記中間明度領域以外の明度領域がシャドー領域である請求の範囲第 2項に記 載の画像処理方法。
[13] 前記青色色相領域の色相値は、 HSV表色系の色相値で 16:!〜 250の範囲内にあ り、前記緑色色相領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内に ある請求の範囲第 11項に記載の画像処理方法。
[14] 前記シャドー領域の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある請 求の範囲第 12項に記載の画像処理方法。
[15] 前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある請求の範囲第 2項に記載の画像処理方法。
[16] 前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に分 割される請求の範囲第 2項に記載の画像処理方法。
[17] 前記占有率算出工程において、撮影画像データを、当該撮影画像データの画面 の外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分 割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を 异 μ4し、
前記指標算出工程において、前記外縁からの距離に応じて異なる値の係数が用 いられる請求の範囲第 1項に記載の画像処理方法。
[18] 前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 占有率が算出される請求の範囲第 17項に記載の画像処理方法。
[19] 前記占有率算出工程において、撮影画像データを、所定の明度と色相の組み合 わせからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像 データ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データ を、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定 の複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全 体に占める割合を示す第 2の占有率を算出し、
前記指標算出工程において、前記算出された第 1の占有率、第 2の占有率に、撮 影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指 標を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され 、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 1の指標、第 2の指標及 び第 3の指標に基づいて前記画像処理条件が決定される請求の範囲第 1項に記載 の画像処理方法。
[20] 前記指標算出工程において、前記第 1の指標、第 2の指標及び第 3の指標の各々 に、撮影条件に応じて予め設定された係数を乗算して合成することにより、第 4の指 標及び第 5の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 4の指標及び第 5の指標 に基づいて前記画像処理条件が決定される請求の範囲第 19項に記載の画像処理 方法。
[21] 前記撮影画像データの画面の外縁からの距離と明度毎に累積画素数を算出する ことによって 2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 第 2の占有率が算出される請求の範囲第 19項に記載の画像処理方法。
[22] 前記撮影画像データの所定の色相、明度毎に累積画素数を算出することによって
2次元ヒストグラムを作成するヒストグラム作成工程を含み、
前記占有率算出工程において、前記作成された 2次元ヒストグラムに基づいて前記 第 1の占有率が算出される請求の範囲第 19項に記載の画像処理方法。
[23] 前記所定の高明度の肌色色相領域とは符合が異なる係数を持つ、前記高明度の 肌色色相領域以外の色相領域の明度領域が、所定の高明度領域である請求の範 囲第 19項に記載の画像処理方法。
[24] 前記肌色色相領域の中間明度領域とは符号が異なる係数を持つ、前記中間明度 領域以外の明度領域の色相領域が、肌色色相領域内の色相領域である請求の範 囲第 19項に記載の画像処理方法。
[25] 前記高明度の肌色色相領域には、 HSV表色系の明度値で 170〜224の範囲の 領域が含まれる請求の範囲第 19項に記載の画像処理方法。
[26] 前記中間明度領域には、 HSV表色系の明度値で 85〜169の範囲の領域が含ま れる請求の範囲第 19項に記載の画像処理方法。
[27] 前記高明度の肌色色相領域以外の色相領域には、青色色相領域、緑色色相領域 の少なくとも一方が含まれる請求の範囲第 19項に記載の画像処理方法。
[28] 前記中間明度領域以外の明度領域がシャドー領域である請求の範囲第 19項に記 載の画像処理方法。
[29] 前記青色色相領域の色相値は、 HSV表色系の色相値で 16:!〜 250の範囲内にあ り、前記緑色色相領域の色相値は、 HSV表色系の色相値で 40〜: 160の範囲内に ある請求の範囲第 27項に記載の画像処理方法。
[30] 前記シャドー領域の明度値は、 HSV表色系の明度値で 26〜84の範囲内にある請 求の範囲第 28項に記載の画像処理方法。
[31] 前記肌色色相領域の色相値は、 HSV表色系の色相値で 0〜39及び 330〜359 の範囲内にある請求の範囲第 19項に記載の画像処理方法。
[32] 前記肌色色相領域が、明度及び彩度に基づく所定の条件式により 2つの領域に分 割される請求の範囲第 19項に記載の画像処理方法。
[33] 前記画像処理条件決定工程において、前記撮影画像に階調変換処理を施すため の画像処理条件が決定される請求の範囲第 1項に記載の画像処理方法。
[34] 前記撮影条件に応じて予め設定された係数は、判別分析法を用いて求めた判別 係数である請求の範囲第 1項に記載の画像処理方法。
[35] 前記撮影条件に応じて予め設定された係数は、撮影条件毎に準備した複数のサン プル画像について、判別関数が所定の条件を満足するよう調整された判別係数の値 である請求の範囲第 34項に記載の画像処理方法。
[36] 撮影画像データを、所定の明度と色相、当該撮影画像データの画面の外縁からの 距離と明度のうち、少なくとも 1つの組み合わせからなる複数の領域に分割し、当該 分割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率 を算出する占有率算出部と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出部と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定部と、を含む画像処理装置。
[37] 前記占有率算出部において、撮影画像データを所定の明度と色相の組み合わせ 力 なる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デー タ全体に占める割合を示す占有率を算出し、 前記指標算出部において、所定の高明度の肌色色相領域に用レ、られる係数と当 該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係数 か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する請求の範囲第 36項に記載の画像処理装置。
[38] 前記指標算出部において、所定の高明度の肌色色相領域に用レ、られる係数と、当 該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる請求の 範囲第 37項に記載の画像処理装置。
[39] 前記指標算出部において、肌色色相領域の中間明度領域に用いられる係数と、当 該中間明度領域以外の明度領域に用いられる係数の符号が異なる請求の範囲第 3
7項に記載の画像処理装置。
[40] 前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標及び第 2の指標に 基づいて前記画像処理条件が決定される請求の範囲第 37項に記載の画像処理装 置。
[41] 前記占有率算出部において、撮影画像データを、当該撮影画像データの画面の 外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分割 された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算 出し、
前記指標算出部において、前記外縁からの距離に応じて異なる値の係数が用いら れる請求の範囲第 36項に記載の画像処理装置。
[42] 前記占有率算出部において、撮影画像データを、所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データを、 当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の 複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全体 に占める割合を示す第 2の占有率を算出し、
前記指標算出部において、前記算出された第 1の占有率、第 2の占有率に、撮影 条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指標 を算出し、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標、第 2の指標及び 第 3の指標に基づいて前記画像処理条件が決定される請求の範囲第 36項に記載の 画像処理装置。
[43] 撮影画像データを、所定の明度と色相、当該撮影画像データの画面の外縁からの 距離と明度のうち、少なくとも 1つの組み合わせからなる複数の領域に分割し、当該 分割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率 を算出する占有率算出部と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出部と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定部と、
前記決定された画像処理条件に従って前記撮影画像データに画像処理を施す画 像処理部と、
前記画像処理が施された画像データを出力媒体上に形成する画像データ形成部 と、を備える画像記録装置。
[44] 前記占有率算出部において、撮影画像データを所定の明度と色相の組み合わせ 力 なる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デー タ全体に占める割合を示す占有率を算出し、
前記指標算出部において、所定の高明度の肌色色相領域に用レ、られる係数と当 該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係数 か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する請求の範囲第 43項に記載の画像記録装置。
[45] 前記指標算出部において、所定の高明度の肌色色相領域に用いられる係数と、当 該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる請求の 範囲第 44項に記載の画像記録装置。
[46] 前記指標算出部において、肌色色相領域の中間明度領域に用いられる係数と、当 該中間明度領域以外の明度領域に用いられる係数の符号が異なる請求の範囲第 4
4項に記載の画像記録装置。
[47] 前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標及び第 2の指標に 基づいて前記画像処理条件が決定される請求の範囲第 44項に記載の画像記録装 置。
[48] 前記占有率算出部において、撮影画像データを、当該撮影画像データの画面の 外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分割 された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を算 出し、
前記指標算出部において、前記外縁からの距離に応じて異なる値の係数が用いら れる請求の範囲第 43項に記載の画像記録装置。
[49] 前記占有率算出部において、撮影画像データを、所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データを、 当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定の 複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全体 に占める割合を示す第 2の占有率を算出し、
前記指標算出部において、前記算出された第 1の占有率、第 2の占有率に、撮影 条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指標 を算出し、
前記指標算出部において、所定の高明度の肌色色相領域と、当該高明度の肌色 色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され、 肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定部において、前記算出された第 1の指標、第 2の指標及び 第 3の指標に基づいて前記画像処理条件が決定される請求の範囲第 43項に記載の 画像記録装置。
[50] 撮影画像データを、所定の明度と色相、当該撮影画像データの画面の外縁からの 距離と明度のうち、少なくとも 1つの組み合わせからなる複数の領域に分割し、当該 分割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率 を算出する占有率算出工程と、
前記算出された各領域の占有率に、撮影条件に応じて予め設定された係数を乗算 することにより、撮影シーンを特定する指標を算出する指標算出工程と、
前記算出された指標に基づいて前記撮影画像データに対する画像処理条件を決 定する画像処理条件決定工程と、を含む画像プログラム。
[51] 前記占有率算出工程において、撮影画像データを所定の明度と色相の組み合わ せからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像デ ータ全体に占める割合を示す占有率を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と 当該高明度の肌色色相領域以外の色相領域に用いられる係数とで異なる符号の係 数か、
肌色色相領域の中間明度領域に用いられる係数と当該中間明度領域以外の明度 領域に用レ、られる係数とで異なるの符号の係数の、少なくとも 1つを用レ、て前記指標 を算出する請求の範囲第 50項に記載の画像プログラム。
[52] 前記指標算出工程において、所定の高明度の肌色色相領域に用いられる係数と、 当該高明度の肌色色相領域以外の色相領域に用いられる係数の符号が異なる請求 の範囲第 51項に記載の画像プログラム。
[53] 前記指標算出工程において、肌色色相領域の中間明度領域に用いられる係数と、 当該中間明度領域以外の明度領域に用いられる係数の符号が異なる請求の範囲第
51項に記載の画像プログラム。
[54] 前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され
、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 1の指標及び第 2の指標 に基づいて前記画像処理条件が決定される請求の範囲第 51項に記載の画像処理 方法。
[55] 前記占有率算出工程において、撮影画像データを、当該撮影画像データの画面 の外縁からの距離と明度の組み合わせからなる所定の複数の領域に分割し、当該分 割された複数の領域毎に、前記撮影画像データ全体に占める割合を示す占有率を 异 μ4し、
前記指標算出工程において、前記外縁からの距離に応じて異なる値の係数が用 レ、られる請求の範囲第 50項に記載の画像プログラム。
[56] 前記占有率算出工程において、撮影画像データを、所定の明度と色相の組み合 わせからなる複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像 データ全体に占める割合を示す第 1の占有率を算出するとともに、撮影画像データ を、当該撮影画像データの画面の外縁からの距離と明度の組み合わせからなる所定 の複数の領域に分割し、当該分割された複数の領域毎に、前記撮影画像データ全 体に占める割合を示す第 2の占有率を算出し、
前記指標算出工程において、前記算出された第 1の占有率、第 2の占有率に、撮 影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定する指 標を算出し、
前記指標算出工程において、所定の高明度の肌色色相領域と、当該高明度の肌 色色相領域以外の色相領域とで、異なる符号の係数を用いて第 1の指標が算出され 、肌色色相領域の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる 符号の係数を用いて第 2の指標が算出され、前記外縁力 の距離に応じて異なる値 の係数を用いて第 3の指標が算出され、
前記画像処理条件決定工程において、前記算出された第 1の指標、第 2の指標及 び第 3の指標に基づいて前記画像処理条件が決定される請求の範囲第 50項に記 載の画像プログラム。
PCT/JP2005/008412 2004-05-18 2005-05-09 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム WO2005112428A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006513530A JPWO2005112428A1 (ja) 2004-05-18 2005-05-09 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-147797 2004-05-18
JP2004147797 2004-05-18

Publications (1)

Publication Number Publication Date
WO2005112428A1 true WO2005112428A1 (ja) 2005-11-24

Family

ID=35374857

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/008412 WO2005112428A1 (ja) 2004-05-18 2005-05-09 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20050259282A1 (ja)
JP (1) JPWO2005112428A1 (ja)
WO (1) WO2005112428A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311888B2 (en) 2012-12-17 2016-04-12 Samsung Display Co., Ltd. Image processing device, image processing method and program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070146494A1 (en) * 2005-12-22 2007-06-28 Goffin Glen P Video telephony system and a method for use in the video telephony system for improving image quality
US8014602B2 (en) * 2006-03-29 2011-09-06 Seiko Epson Corporation Backlight image determining apparatus, backlight image determining method, backlight image correction apparatus, and backlight image correction method
US7916943B2 (en) * 2006-06-02 2011-03-29 Seiko Epson Corporation Image determining apparatus, image determining method, image enhancement apparatus, and image enhancement method
US7916942B1 (en) 2006-06-02 2011-03-29 Seiko Epson Corporation Image determining apparatus, image enhancement apparatus, backlight image enhancement apparatus, and backlight image enhancement method
TW201106676A (en) * 2009-08-04 2011-02-16 Pacific Image Electronics Co Ltd Double-light sources optical scanning device and method of using the same
EP3100105B1 (en) 2014-01-30 2020-05-27 Hewlett-Packard Development Company, L.P. Method and system for providing a self-adaptive image
CN105872351A (zh) * 2015-12-08 2016-08-17 乐视移动智能信息技术(北京)有限公司 逆光场景的照片拍摄方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196324A (ja) * 1997-12-26 1999-07-21 Fuji Photo Film Co Ltd 画像出力方法および装置
JP2000148980A (ja) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2001222710A (ja) * 2000-02-09 2001-08-17 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法
JP2002232728A (ja) * 2001-01-30 2002-08-16 Minolta Co Ltd 画像処理プログラム、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置および画像処理方法
JP2002247361A (ja) * 2001-02-14 2002-08-30 Ricoh Co Ltd 画像処理装置、画像処理方法およびその方法を実施するためのプログラムを記録した記録媒体
JP2003110932A (ja) * 2001-09-28 2003-04-11 Mitsubishi Electric Corp 明度調整方法および撮像装置
JP2004088408A (ja) * 2002-08-27 2004-03-18 Minolta Co Ltd デジタルカメラ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3408094B2 (ja) * 1997-02-05 2003-05-19 キヤノン株式会社 画像処理装置及びその方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196324A (ja) * 1997-12-26 1999-07-21 Fuji Photo Film Co Ltd 画像出力方法および装置
JP2000148980A (ja) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2001222710A (ja) * 2000-02-09 2001-08-17 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法
JP2002232728A (ja) * 2001-01-30 2002-08-16 Minolta Co Ltd 画像処理プログラム、画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置および画像処理方法
JP2002247361A (ja) * 2001-02-14 2002-08-30 Ricoh Co Ltd 画像処理装置、画像処理方法およびその方法を実施するためのプログラムを記録した記録媒体
JP2003110932A (ja) * 2001-09-28 2003-04-11 Mitsubishi Electric Corp 明度調整方法および撮像装置
JP2004088408A (ja) * 2002-08-27 2004-03-18 Minolta Co Ltd デジタルカメラ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9311888B2 (en) 2012-12-17 2016-04-12 Samsung Display Co., Ltd. Image processing device, image processing method and program

Also Published As

Publication number Publication date
JPWO2005112428A1 (ja) 2008-03-27
US20050259282A1 (en) 2005-11-24

Similar Documents

Publication Publication Date Title
JP2006319714A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
US20050141002A1 (en) Image-processing method, image-processing apparatus and image-recording apparatus
WO2006123492A1 (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
WO2005112428A1 (ja) 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム
JP2003283731A (ja) 画像入力装置及び画像出力装置並びにこれらから構成される画像記録装置
JP2006318255A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
WO2006033235A1 (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
JP2005192162A (ja) 画像処理方法、画像処理装置及び画像記録装置
WO2006077702A1 (ja) 撮像装置、画像処理装置及び画像処理方法
US20050128539A1 (en) Image processing method, image processing apparatus and image recording apparatus
WO2006033236A1 (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
JP2005192158A (ja) 画像処理方法、画像処理装置及び画像記録装置
JP2006039666A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2005203865A (ja) 画像処理システム
US20030112483A1 (en) Image forming method
WO2006033234A1 (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
JP4449619B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2006094000A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2007312125A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2005332054A (ja) 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム
JP2004096508A (ja) 画像処理方法、画像処理装置、画像記録装置、プログラム及び記録媒体
JP2006203571A (ja) 撮像装置、画像処理装置及び画像記録装置
WO2006077703A1 (ja) 撮像装置、画像処理装置及び画像記録装置
JP2006092168A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2006293898A (ja) 画像処理方法、画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006513530

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase