WO2018193677A1 - 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム - Google Patents

画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム Download PDF

Info

Publication number
WO2018193677A1
WO2018193677A1 PCT/JP2018/001418 JP2018001418W WO2018193677A1 WO 2018193677 A1 WO2018193677 A1 WO 2018193677A1 JP 2018001418 W JP2018001418 W JP 2018001418W WO 2018193677 A1 WO2018193677 A1 WO 2018193677A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
area
image
region
face
Prior art date
Application number
PCT/JP2018/001418
Other languages
English (en)
French (fr)
Inventor
圭祐 大森
徳井 圭
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201880026341.2A priority Critical patent/CN110603565A/zh
Priority to JP2019513228A priority patent/JP6905588B2/ja
Priority to US16/607,036 priority patent/US11069039B2/en
Publication of WO2018193677A1 publication Critical patent/WO2018193677A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • One embodiment of the present invention relates to an image processing apparatus that performs correction for reducing or enlarging a part of an image.
  • a technique for changing the impression of a subject by reducing or enlarging a part of the image by image processing is known. For example, by correcting the face of a person in the image to be small, it is possible to correct the image to a small-faced impression, to correct the image of a thin image by correcting the entire person to be thin, and to correct the legs longer In this way, there is a technique for correcting an image having a good style.
  • Patent Document 1 in an image processing apparatus that deforms a part of an image, when a plurality of deformation areas are overlapped, a priority is set for each deformation area, and a deformation process is performed for a deformation area having a low priority. Or performing the transformation process in the order of priority.
  • FIG. 20A shows an example (input image 2000) of an input image before correction by the image processing apparatus
  • FIG. 20B shows an example (output) of an output image after deformation by the image processing apparatus.
  • An image 2003) is shown.
  • the input image 2000 includes human faces 2001 and 2002. Since the face 2001 is larger than the face 2002, the priority of the deformation area including the face 2001 is higher than the priority of the deformation area including the face 2002. As a result, for example, only deformation processing (small face processing) for the face 2001 is performed, and deformation processing (small face processing) for the face 2002 is not performed. As described above, the small face 2002 is not only reduced in size but also deformed into an unfavorable face 2005 with the right side of the face extending due to the influence of deformation on the face 2001.
  • One embodiment of the present invention has been made in view of the above points, and is an image processing device, an imaging device, an image printing device, and image processing that can appropriately process even when there are a plurality of correction regions in an image.
  • the main object is to provide a device control method and an image processing program.
  • An image processing apparatus includes a correction processing unit that performs correction processing on one or more correction regions in an image, and each correction region includes an inner region and an outer region outside the inner region.
  • the inner area is reduced and the outer area is enlarged, or the inner area is enlarged and the outer area is reduced.
  • whether to perform a suppression process for suppressing the correction process on at least one of the first correction area and the second correction area Is determined according to the distance between the inner region of the first correction region and the inner region of the second correction region.
  • An image processing apparatus control method includes a correction processing step of performing correction processing on one or more correction areas in an image, and each correction area includes an inner area and an outer area outside the inner area.
  • the inner area is reduced and the outer area is enlarged, or the inner area is enlarged and the outer area is reduced, and the correction process step.
  • a suppression process for suppressing the correction process on at least one of the first correction area and the second correction area is performed. Whether or not to perform the determination is determined according to a distance between the inner region of the first correction region and the inner region of the second correction region.
  • FIG. 1 is a block diagram illustrating a configuration of an image printing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of a subject detection unit included in the image processing apparatus of the image printing apparatus illustrated in FIG. 1. It is a flowchart which shows the flow of the image processing which the image processing apparatus shown in FIG. 2 implements. It is a figure which shows an example of the input image containing a human face as a to-be-photographed object.
  • FIG. 5 is a diagram illustrating an example of a correction region set based on a right eye, a left eye, and a mouth included as subjects in the input image illustrated in FIG. 4.
  • FIG. 1 It is a graph which shows the relationship between the distance from the correction center of the point before correction
  • (A) is a diagram illustrating an input image including a plurality of faces as subjects, and (b) is a diagram illustrating an output image when both faces are reduced without performing suppression processing.
  • (A) is a figure which illustrates the input image which contains a some face as a photographic subject, (b) is x from the correction center of the point before correction
  • (A) is a diagram illustrating an input image including a plurality of faces as subjects
  • (b) is a diagram illustrating an output image when both faces are reduced without performing suppression processing
  • (C) is a figure which illustrates an output image when performing the image correction process accompanied by the suppression process.
  • (A) is a diagram illustrating an input image including a plurality of faces as subjects
  • (b) is a diagram illustrating an output image when an image correction process involving a suppression process is performed
  • (c) These are figures which illustrate an output image when image correction processing accompanied by further suppression processing is performed.
  • FIG. 6 is a diagram illustrating an output image obtained by performing correction for correcting a human face to be small without performing suppression processing on the input image shown in FIG.
  • (A) is a figure which illustrates the input image by which the several face was arrange
  • (b) is the image correction process with respect to the face located above with respect to the input image shown to (a) It is a figure which illustrates the output image which adjusted the correction
  • (A) is a figure illustrating a face
  • (b) is a figure illustrating a face obtained by isotropic correction of the face shown in (a)
  • (c) is a face shown in (a). It is a figure which illustrates the face which correct
  • (A) is a figure which illustrates the input image by which the several face was arrange
  • (b) is a person's face, without performing a suppression process with respect to the input image shown to (a). It is a figure which illustrates the output image which performed the correction
  • (A) is a figure which illustrates the output image which performed the correction
  • (b) is an image correction process with a suppression process. It is a figure which illustrates the performed output image.
  • (A) is a diagram illustrating an input image including a plurality of faces as subjects, (b) is a diagram illustrating an output image when both faces are reduced without performing suppression processing; (C) is a figure which illustrates the output image which performed the image correction process accompanied by the suppression process.
  • (A) is a figure which illustrates an input image, (b) is a figure which illustrates the output image which deform
  • 1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention.
  • the image processing apparatus is an apparatus for performing correction for reducing or enlarging an area corresponding to a face on an image including the face as a subject.
  • FIG. 1 is a functional block diagram showing the configuration of the image printing apparatus 1 of the present embodiment.
  • the image printing apparatus 1 includes an imaging unit 10, an operation unit 20, a display unit 30, a control unit (image processing device) 40, a printing unit 50, and a storage unit 60.
  • the imaging unit 10 images a subject and transmits the captured image to the control unit 40 as an input image.
  • the operation unit 20 receives user input, and is realized by, for example, a touch panel or a mouse. For example, when the operation unit 20 is a touch panel, an input image is displayed on the display unit 30 including the touch panel.
  • the display unit 30 displays various images.
  • the display unit 30 displays, for example, an image captured by the imaging unit 10 or an output image generated by an image correction unit 44 described later.
  • the control unit 40 functions as an image processing device that performs image processing on an image (input image) captured by the imaging unit 10 and generates an output image after processing (after correction).
  • the control unit 40 also functions as a control unit that comprehensively controls the image printing apparatus 1. A specific configuration of the control unit 40 will be described later.
  • the printing unit 50 prints an output image (image) generated by the processing of the control unit 40.
  • the printing unit 50 may further print an image drawn by the user via the operation unit 20 on the output image.
  • the storage unit 60 stores, for example, various control programs executed by the control unit 40, and includes a nonvolatile storage device such as a hard disk or a flash memory. For example, an input image and an output image are stored in the storage unit 60.
  • the storage unit 60 may store parameters and the like necessary for the processing of the control unit 40 such as image processing (correction processing) and subject detection processing.
  • control unit that controls the image printing apparatus 1 is not necessarily the control unit 40.
  • an external device that can be communicably connected to the image printing apparatus 1 may function as the control unit 40.
  • FIG. 2 is a block diagram illustrating a configuration of a subject detection unit (object detection unit) 41 included in the control unit 40.
  • the control unit 40 includes a subject detection unit 41, a correction region setting unit 42, a correction intensity setting unit 43, and an image correction unit 44, as shown in FIG.
  • the correction area setting unit 42, the correction intensity setting unit 43, and the image correction unit 44 may be collectively referred to as a correction processing unit.
  • the controller 40 receives an image including a human face as a subject.
  • An image input to the control unit 40 and including a human face as a subject is hereinafter referred to as an “input image”.
  • the subject detection unit 41 detects a subject (target region) to be corrected from the input image input to the control unit 40.
  • the subject detection unit 41 can be constituted by a face detection unit 41a and a face organ detection unit 41b.
  • the face detection unit 41a is configured to detect an area corresponding to a face (hereinafter, simply referred to as “face”) in the input image.
  • face a face
  • a known algorithm for example, using skin color information detected from an input image
  • the face organ detection unit 41b is a region corresponding to each organ of the face such as eyes (right eye, left eye), mouth, eyebrows (right eyebrow, left eyebrow), nose, or the like (hereinafter, region corresponding to the contour). In other words, it may be simply described as “face organ”. In the present embodiment, the facial organ detection unit 41b detects the right eye, the left eye, and the mouth. In addition, since a well-known algorithm (for example, using pattern matching etc.) can be used for the detection of the area
  • the detection of the subject by the subject detection unit 41 may be manual. In other words, the user may detect the subject from the input image.
  • the subject detection unit 41 (subject selection unit) displays an input image on the display unit 30 and detects (selects) a subject to be corrected designated by a user input via the operation unit 20. To do.
  • the subject detection unit 41 selects a subject to be corrected based on a user input. For example, when the operation unit 20 is a touch panel, a subject in the input image displayed on the display unit 30 is selected by the user touching the touch panel.
  • the operation unit 20 is a mouse, a subject is selected based on the mouse operation.
  • control unit 40 When a display and a mouse are connected to the control unit 40, the user can select a subject using the mouse.
  • the control unit 40 displays the input image on the display, and the user points one of the subjects displayed on the display with the mouse cursor.
  • the control unit 40 regards the subject pointed by the mouse cursor as the subject selected by the user.
  • the subject detection unit 41 detects a target object to be corrected (in other words, a target region including the target object) included in the image. That is, the subject detection unit 41 functions as a target region detection unit that detects a subject included in the image or a target region including a target other than the subject (in other words, a target region included in the image).
  • the number of subjects detected by the subject detection unit 41 is not particularly limited, and the subject detection unit 41 can detect one or more subjects.
  • the correction area setting unit 42 is a configuration for setting a correction area based on the positions of the face and facial organs detected by the subject detection unit 41.
  • the correction area setting unit 42 sets a correction area based on the positions of the face and facial organs detected by the subject detection unit 41.
  • the correction area includes an inner area and an outer area.
  • the inner area of the correction area is an area including a face in the input image.
  • the inner region can be a region having a predetermined shape having a position according to the center of the face and a size according to the size of the face.
  • the correction center according to the center of the face This is a circular area defined as a set of pixels whose distance from the first correction distance d1 is less than or equal to the face size.
  • the inner area is a circular area having a radius (size) having the correction center as the center position and the first correction distance d1.
  • the outer area of the correction area is an area surrounding the inner area in the input image.
  • the distance from the correction center is larger than the first correction distance d1 and a predetermined second correction is performed.
  • This is an annular region defined as a set of pixels that are less than or equal to the distance d2 (d2> d1).
  • the inner area is a target for reduction and the outer area is a target for enlargement.
  • the inner area is an object to be enlarged and the outer area is an object to be reduced.
  • the correction intensity setting unit 43 is a configuration for setting the enlargement / reduction ratios ⁇ and ⁇ of the inner region and the outer region set by the correction region setting unit 42. For example, when performing correction to make the face appear smaller, the correction strength setting unit 43 sets the expansion / contraction rate ⁇ of the inner region to a positive constant smaller than 1 and the expansion / contraction rate ⁇ of the outer region larger than 1. Set to a positive constant. Conversely, when performing correction to make the face appear larger, the correction strength setting unit 43 sets the expansion / contraction rate ⁇ of the inner region to a positive constant larger than 1 and the expansion / contraction rate ⁇ of the outer region to more than 1. Set to a small positive constant.
  • the correction intensity setting unit 43 sets (1) the enlargement / reduction ratios ⁇ and ⁇ of the inner region and the outer region to preset values, values specified by the user, etc., and (2) the subject detection unit 41 detects Correct based on face and facial organs. Details of the correction of the enlargement / reduction ratios ⁇ and ⁇ will be described later with reference to different drawings.
  • the image correction unit 44 is configured to perform correction processing corresponding to the enlargement / reduction ratios ⁇ and ⁇ set by the correction intensity setting unit 43 on the inner region and the outer region set by the correction region setting unit 42.
  • the correction processing performed by the image correction unit 44 on the input image is as follows: (1) The inner area set by the correction area setting unit 42 is reduced at the enlargement / reduction ratio ⁇ ( ⁇ ⁇ 1) set by the correction intensity setting unit 43.
  • a correction process for enlarging the outer area set by the correction area setting unit 42 with the enlargement / reduction ratio ⁇ ( ⁇ > 1) set by the correction intensity setting unit 43, or (2) the inner side set by the correction area setting unit 42 The area is enlarged by the enlargement / reduction ratio ⁇ ( ⁇ > 1) set by the correction intensity setting unit 43, and the outer area set by the correction area setting unit 42 is enlarged / reduced by the enlargement / reduction ratio ⁇ ( ⁇ ⁇ A correction process for reducing in 1) is mentioned.
  • a specific example of the image correction process executed by the image correction unit 44 will be described later with reference to another drawing.
  • the storage unit 105 stores, for example, an input image and an output image (an image obtained by performing the above correction process on the input image).
  • the storage unit 105 may store various parameters that the subject detection unit 41, the correction area setting unit 42, the correction intensity setting unit 43, and the image correction unit 44 refer to when executing the above processing.
  • FIG. 3 is a flowchart showing a flow of image processing performed by the control unit 40.
  • Image processing performed by the control unit 40 includes subject detection processing S301, correction region setting processing S302, correction strength setting processing S303, and image correction processing S304, as shown in FIG.
  • the subject detection processing S301 is processing for detecting a human face and facial organs included as an image in the input image, and is executed by the subject detection unit 41 in the present embodiment.
  • the correction area setting process S302 is a process of setting correction areas (inner area and outer area) based on the face and face organ detected in the subject detection process S301.
  • the correction area setting unit 42 is set. Executed by.
  • the correction intensity setting process S303 is a process of setting the enlargement / reduction ratios ⁇ and ⁇ of the inner area and the outer area of the correction area set in the correction area setting process S302.
  • the correction intensity setting unit 43 performs the correction intensity setting process S303. Executed.
  • the image correction process S304 is a process for reducing or enlarging the inner area and the outer area of the correction area set in the correction area setting process S302 with the enlargement / reduction ratios ⁇ and ⁇ set in the correction intensity setting process S303. In the present embodiment, it is executed by the image correction unit 44.
  • the correction processing unit may reduce the inner area in each or all correction areas and enlarge each outer area, or enlarge each inner area in some or all correction areas. In addition, each outer region may be reduced.
  • the facial organs (cheeks, jaws, etc.) constituting the contour of the face are highly likely to fail to be detected or erroneously detected. Therefore, the correction area setting process S302 according to the present embodiment is executed with reference to the positions of the facial organs other than the facial organs constituting the contour of the face, specifically, the positions of the three facial organs of the left eye, the right eye, and the mouth. Is done.
  • FIG. 4 is a diagram illustrating an input image 400 including a human face 401 as a subject.
  • the input image 400 illustrated in FIG. 4 includes a left eye 402, a right eye 403, and a mouth 404 as subjects.
  • the positions of the left eye 402, the right eye 403, and the mouth 404 detected by the subject detection unit 41 are respectively expressed as follows.
  • the position of the left eye 402 (LEFT_x, LEFT_y), Position of the right eye 403: (RIGHT_x, RIGHT_y), Position of mouth 404: (MOUTH_x, MOUTH_y).
  • cx (LEFT_x + RIGHT_x + MOUTH_x) / 3
  • cy (LEFT_y + RIGHT_y + MOUTH_y) / 3
  • the size of the face is approximately proportional to the distance between both eyes (the distance between the right eye 403 and the left eye 404) dist_eye. Therefore, the correction area setting unit 42 calculates the first correction distance d1 corresponding to the size of the face from the positions of the left eye 402 and the right eye 403 according to the following equations (3) and (4).
  • dist_eye ⁇ (LEFT_x-RIGHT_x) 2 + (LEFT_y-RIGHT_y) 2 ⁇ 1/2 (3)
  • d1 dist_eye ⁇ param_A (4)
  • param_A is a preset proportionality coefficient.
  • the correction area setting unit 42 sets an inner area 502 including the face 500 and an outer area 503 that is an area outside the inner area 502.
  • the inner area 502 is a circular area defined as a set of pixels whose distance from the correction center 501 is equal to or less than the first correction distance d1.
  • the outer area 503 is an annular area defined as a set of pixels whose distance from the correction center is greater than the first correction distance d1 and equal to or less than the second correction distance d2 (d2> d1).
  • the inner area 502 is a target for reduction
  • the outer area 503 is a target for enlargement.
  • the inner area 502 is an object to be enlarged
  • the outer area 503 is an object to be reduced.
  • the second correction distance d2 may be calculated according to the following formula (5), for example.
  • the outer periphery of the inner region 502 does not match the contour of the face 500.
  • the coefficient param_A appearing in Expression (4) is appropriately set, the contour of the face 500 can be accurately approximated by the outer periphery of the inner region 502.
  • the ratio of the face size to the distance between both eyes is measured for a plurality of persons and the coefficient param_A is set to the average value of the measured ratio, the contour of the face 500 is accurately approximated by the outer periphery of the inner region 502. be able to.
  • the person who can be a subject is limited to a person having a specific attribute (such as age or sex)
  • the person who serves as a sample when setting the coefficient param_A as described above is also a person who has that attribute. It is preferable to limit. Thereby, the difference between the outer periphery of the inner region 502 and the contour of the face 500 can be made smaller than in the case where the sample person is not limited when setting the coefficient param_A.
  • the inner region 702 (r ⁇ d1) is isotropically reduced, and (2) the outer region 703 (d1 ⁇ r ⁇ d2) is isotropically enlarged. (3) Other regions (d2 ⁇ r) are immobile.
  • the outer region 703 is expanded inward while maintaining the outer periphery, and the inner periphery of the corrected outer region 703 coincides with the outer periphery of the corrected inner region 702. The area outside the outer area 703 is neither enlarged nor reduced.
  • the first point to be noted is that the correction amount for each point P is determined according to the distance r from the correction center of the point P with respect to the inner region 702. Specifically, the correction amount for each point P is correlated with the distance r from the correction center of the point P. Further, in one aspect, the correction amount for each point P is proportional to the distance r from the correction center of the point P. For this reason, the correction amount in the inner region 702 decreases as it approaches the correction center, and increases as it approaches the outer periphery of the inner region 702. As described above, the correction center 701 is a point that approximates the center of the face, and the outer periphery of the inner region 702 is a circle that approximates the contour of the face.
  • the correction amount decreases as it approaches the center of the face, and increases as it approaches the face outline.
  • the size of the face can be made sufficiently small while suppressing the influence on the facial organs (eyes, nose, mouth, etc.) near the center of the face.
  • the second point to be noted in FIGS. 6 and 7 is that the outer region 703 is expanded inward while maintaining the outer periphery. Therefore, even when the face does not fit in the inner area 702 and the outer area 703 protrudes due to individual differences in the shape of the face, the face outline is moved toward the center of the face, and the size of the face is reduced. Can be small.
  • the correction area setting unit 42 only needs to determine the correction amount for each point P in the inner area 702 according to the distance r from the correction center of the point P. As described above, each point P The amount of correction with respect to may not be proportional to the distance r from the correction center of the point P. For example, the correction area setting unit 42 may determine the correspondence between the correction amount for each point P and the distance r from the correction center of the point P so that the graph shown in FIG. The correction area setting unit 42 may determine the correction amount for each point P in consideration of the angle ⁇ from the correction center of the point P. That is, anisotropic image correction processing may be performed. Details will be described in the second embodiment.
  • the correction strength setting unit 43 corrects the enlargement / reduction ratio so as to suppress the correction processing for one or both of the adjacent faces (suppression processing). ).
  • FIG. 8A is a diagram illustrating an input image 800 including a human face 801 (first target area) and a human face 802 (second target area) as subjects.
  • a correction area for the face 801 inner area 811 and outer area 821
  • a correction area for the face 802 inner area 812 and outer area 822
  • the output image 803 is shown in FIG.
  • the inner areas 811 and 812 are shown as the same ranges as the faces 801 and 802, which are target areas, respectively, but the inner areas are set so as to include the target areas. Good. The same applies thereafter.
  • the human face 804 and the human face 805 in the output image 803 correspond to the human face 801 and the human face 802, respectively.
  • the correction for reducing the person's face 801 and the person's face 802 is a process of reducing toward the processing center, and the correction intensity is processed at a constant intensity regardless of the direction.
  • the correction of each other's face influences, so the degree of reduction on the left side of the person's face 804 and the right side of the person's face 805 is weak. For this reason, the left side of the person's face 804 and the right side of the person's face 805 are corrected to have a stretched impression.
  • the correction processing unit of the control unit 40 includes the face 801 and the face 802 in the input image 800 as shown in FIG.
  • a region inner region 811 and outer region 821
  • a second correction region inner region 812 and outer region 822
  • the first correction region and the second correction region Whether or not to perform the suppression process for suppressing the correction process for at least one of these is determined according to the distance between the inner region 811 and the inner region 812.
  • the correction processing unit of the control unit 40 is configured such that the distance between the inner region 811 and the inner region 812 is (i) the inner region 811 overlaps the inner region 812 or the outer region 822. Or (ii) When the inner region 812 is shortened until it overlaps with the inner region 811 or the outer region 821, the suppression process is performed, and otherwise, the suppression process is not performed.
  • the correction intensity setting unit 43 reduces the degree of reduction or enlargement (correction intensity) of the enlargement / reduction ratio ⁇ of the inner area 811 and the inner area 812 and the enlargement / reduction ratio ⁇ of the outer area 821 and the outer area 822. Correct as follows. In other words, the correction strength setting unit 43 brings the scaling ratios ⁇ and ⁇ close to 1.
  • the correction strength setting unit 43 may reduce the correction strength for the first correction region and the second correction region and make one correction strength smaller than the other correction strength. Further, the correction intensity of the correction process for only one of the first correction area and the second correction area may be reduced.
  • FIG. 9A is a diagram illustrating an input image 800 including a face 801 and a face 802, as in FIG. 8A, and FIG. 9B is a larger diagram in FIG. 9A.
  • 4 is a graph showing the relationship between the distance in the x direction from the correction center of the point before correction and the distance in the x direction from the correction center of the point after correction regarding the image correction processing of the other face 801.
  • the pixel moves in a direction approaching the correction center, and the movement amount is at the boundary between the inner area (reduced area, 811) and the outer area (enlarged area, not shown). It has become the maximum.
  • a part of the outer area (enlarged area) overlaps with the person's face 802, it can be seen that the person's face 802 moves to the right side under the influence of the correction of the person's face 801.
  • FIG. 10A is a diagram illustrating an input image 800 including a face 801 and a face 802, as in FIG. 8A
  • FIG. 10B is a diagram of FIG. 5 is a graph showing the relationship between the distance in the x direction from the correction center of the point before correction and the distance in the x direction from the correction center of the point after correction regarding the image correction processing of the smaller face 802 in FIG.
  • the pixel moves in a direction approaching the correction center, and the movement amount is at the boundary between the inner area (reduced area, 812) and the outer area (enlarged area, not shown). It has become the maximum.
  • a part of the outer area (enlarged area) overlaps with the person's face 801, it can be seen that the person's face 801 moves to the left under the influence of the correction of the person's face 802.
  • the correction processing unit of the control unit 40 uses the larger one of the first correction area corresponding to the face 801 and the second correction area corresponding to the face 802 in the suppression process.
  • the image correction process (correction process) for one correction area is suppressed. Thereby, both the face 801 and the face 802 are corrected to be small, and an image with little distortion can be generated.
  • FIG. 11A illustrates an input image 1100 that includes a human face 1101 and a human face 1102 as subjects.
  • the human face 1101 is larger than the human face 1102, and the first correction area (the inner area 1111 and the outer area 1121) corresponding to the face 1101 is the face 1102. Larger than the second correction area (inner area 1112 and outer area 1122) corresponding to.
  • FIG. 11B illustrates an output image 1103 in which the first correction area and the second correction area are corrected to be small with the same correction strength without performing the suppression process on the input image 1100.
  • a human face 1104 and a human face 1105 in the output image 1103 correspond to a human face 1101 and a human face 1102 in the input image 1100, respectively.
  • the left side of the person's face 1104 and the right side of the person's face 1105 are extended due to the influence of the correction processing on the correction areas corresponding to each other's face, and in particular, the right side of the person's face 1105 is greatly extended. ing.
  • FIG. 11 is a diagram illustrating an output image 1106 processed by setting the processing correction intensity to half of the correction intensity of the image correction process for the second correction area (the inner area 1112 and the outer area 1122) corresponding to the face 1102;
  • the human face 1107 and the human face 1108 in the output image 1106 correspond to the human face 1101 and the human face 1102 in the input image 1100, respectively.
  • the output image 1106 is affected by the correction of each other's face, compared to the output image 1103, the right side stretch of the person's face 1105 is reduced, and a suitable output image 1106 is generated.
  • the distortion is reduced by performing the suppression process and adjusting the correction intensity based on the size of the face, but the left extension of the person's face 1107 and the person's The stretch on the right side of the face 1108 occurs. Therefore, in one embodiment, the correction processing unit of the control unit 40 suppresses image correction processing for both adjacent faces and further suppresses image correction processing for the larger face in the suppression processing. May be.
  • FIG. 12 is a diagram illustrating an input image 1100 including the human face 1101 and the human face 1102 as subjects, as in FIG. 11 (a).
  • 12B similarly to FIG. 11C, the input image 1100 is subjected to correction processing accompanied by suppression processing, and the first correction region corresponding to the face 1101 (the inner region 1111 and the outer region 1121).
  • the correction intensity of the image correction processing for the second correction area (the inner area 1112 and the outer area 1122) to be performed is halved, and then the first correction area (the inner area 1111 and the outer area 1121) corresponding to the face 1101
  • the distortion of the face of the person is reduced and a suitable corrected image is generated.
  • the face 1107 is distorted in the output image 1106 that has been subjected to the image correction process accompanied by the suppression process. This is because an image with a strong correction strength is shown to explain the effect of the processing example 2.
  • the correction intensity is appropriately set, a suitable corrected image with reduced distortion can be generated even when the suppression process in Processing Example 1 is performed.
  • the correction processing unit of the control unit 40 adjusts the correction strength of the image correction process for each of the adjacent faces according to the difference in the size of the correction areas (inner area and outer area) to which the adjacent faces correspond. May be. Thereby, it is possible to suitably adjust the correction intensity according to the difference in the size of the correction areas (inner area and outer area) corresponding to the adjacent faces.
  • the difference in size between the correction areas (inner area and outer area) corresponding to the adjacent faces is less than a certain value, the difference in the influence of the image correction processing on the adjacent faces on each other's face is also reduced. Therefore, the adjustment of the correction strength based on the face size as described in the processing examples 1 and 2 may not be performed. Then, when the size difference between the correction areas (inner area and outer area) corresponding to the adjacent faces is equal to or larger than a certain level, the correction intensity adjustment based on the face size as described in the processing examples 1 and 2 is performed. You may go.
  • the correction intensity may be adjusted by further considering the distance between the inner areas of the correction areas corresponding to the adjacent faces. As the distance between adjacent faces or the distance between adjacent inner regions is shorter, a correction image with less distortion can be generated by increasing the adjustment amount (reduction amount) of the correction intensity.
  • correction areas corresponding to a plurality of target areas (faces) to be corrected are adjacent to each other, correction areas corresponding to each target area based on the size of the target area (inside By setting the correction strength of the correction processing for the area and the outer area), it is possible to appropriately reduce the influence of the correction for one correction area on the other correction area and generate a suitable image with less unnatural distortion. Can do.
  • FIG. 21 is a functional block diagram illustrating a configuration of the imaging apparatus 2 according to another aspect of the present embodiment. Similar to the image printing apparatus 1, the imaging apparatus 2 includes the imaging unit 10, the operation unit 20, the display unit 30, the control unit 40 (image processing device), and the storage unit 60, but does not include the printing unit 50. .
  • the shape of the inner region of the correction region is not limited to a circle. That is, the inner region may be a region having a predetermined shape having a position corresponding to the center of the face and a size corresponding to the size of the face. It may be a square or the like. Further, the shape of the outer region of the correction region is not limited to a circle, and may be an ellipse, a polygon, or the like.
  • the input image may include three or more subjects.
  • the processing described above may be performed for each combination of two subjects in three or more subjects.
  • the correction processing unit of the control unit 40 changes the degree of suppression according to the positional relationship between the faces included in the input image in the suppression process.
  • FIG. 13A illustrates an input image 1300 in which a human face 1301 (first target area) and a human face 1302 (first target area) are arranged in the vertical direction (up and down).
  • FIG. 13A a first correction region (inner region 1311 and outer region 1321) corresponding to the face 1301, and a second correction region (inner region 1312 and outer region 1322) corresponding to the face 1302. ) are arranged side by side in the vertical direction (up and down), and an output image 1303 that has been subjected to correction for correcting the face of a person to be small without performing suppression processing on the first correction area and the second correction area, This is illustrated in FIG.
  • the human face 1304 and the human face 1305 in the output image 1303 correspond to the human face 1301 and the human face 1302 in the input image 1300, respectively.
  • FIG. 13C illustrates an input image 1306 in which a human face 1307 (first target area) and a human face 1308 (second target area) are arranged in the horizontal direction (left and right).
  • FIG. 13C As shown in FIG. 13C, the first correction area (inner area 1317 and outer area 1327) corresponding to the face 1307 and the second correction area (inner area 1318 and outer area 1328) corresponding to the face 1308.
  • FIG. 13D is a diagram exemplifying an output image 1309 in which the first correction area and the second correction area are corrected to correct the human face to be small without performing suppression processing.
  • the human face 1310 and the human face 1311 in the output image 1309 correspond to the human face 1307 and the human face 1308 in the input image 1306, respectively.
  • the human faces 1301, 1302, 1307, and 1308 are all the same size, and the distance between the human faces 1301 and 1302 and the distance between the human faces 1307 and 1308 are the same. It is also assumed that the correction strengths for the input images 1300 and 1306 when the suppression process is not performed are the same.
  • the side adjacent to the other face in each face is distorted due to the influence of the image correction processing on the other face.
  • the lower side of the human face 1304, the upper side of the human face 1305, the right side of the human face 1310, and the left side of the human face 1311 extend.
  • the left-right symmetry of the face is broken, and thus an unnatural impression due to distortion is strong.
  • the human face 1305 has not lost its left-right symmetry, the upper part of the face is extended and the lower part of the face is corrected to be thicker, so that the small-faced impression is reduced.
  • the person's face 1304 has no left-right symmetry, and the lower part of the face extends, but the jaw line is sharp and the face is small.
  • image correction processing on correction regions corresponding to each face (target region) is performed as follows.
  • the influence on correction areas corresponding to other target areas differs depending on the positional relationship between correction areas corresponding to faces (target areas).
  • the correction processing unit of the control unit 40 increases the degree of suppression when the adjacent correction regions are aligned in the horizontal direction compared to when the correction regions are aligned in the vertical direction (the correction intensity setting unit 43). , Enlargement / reduction ratios ⁇ and ⁇ are made close to 1). Also, as shown in FIG. 13C, when the correction areas are adjacent in the horizontal direction, the influence of the image correction processing on each face on each other's faces is the same (left-right reversal).
  • the correction processing unit preferably performs the suppression process so that the correction intensity of the image correction process for each face is the same.
  • the corrected image is more than the upper face as shown in FIG. 13B.
  • the lower face gives an unnatural impression.
  • the correction processing unit of the control unit 40 in the suppression processing, when adjacent correction regions are arranged in the vertical direction, the image for the correction region located on the upper side than the image correction processing for the correction region located on the lower side.
  • the degree of suppression in the correction process is increased (the correction intensity setting unit 43 brings the enlargement / reduction ratios ⁇ and ⁇ closer to 1).
  • FIG. 14A corresponds to the correction region corresponding to the face 1301 and the face 1302 in the input image 1300 in which the face 1301 and the face 1302 are arranged in the vertical direction, as in FIG. 13B. It is a figure which illustrates the output image 1303 which performed the correction
  • FIG. 14B illustrates an output image 1400 obtained by correcting the input image 1300 by adjusting the correction strength of the image correction process for the correction region corresponding to the human face 1301 located on the upper side to be weak. .
  • Human faces 1401 and 1402 correspond to human faces 1301 and 1302, respectively.
  • the stretch of the upper part of the lower person's face 1402 is reduced compared to the stretch of the upper part of the person's face 1305, resulting in a small face impression.
  • the face 1401 is corrected to have a small face with a narrow chin line, and both faces of two persons are preferably corrected.
  • the image correction processing described in FIGS. 6 to 7 employs a configuration in which the inner region and the outer region are isotropically reduced or enlarged at the enlargement / reduction ratios ⁇ and ⁇ independent of the direction.
  • the inner region and the outer region may be anisotropically reduced using the scaling factors ⁇ ( ⁇ ) and ⁇ ( ⁇ ) that depend on.
  • a suitable correction can be performed by estimating the face direction from the positions of the left and right eyes and performing anisotropic processing based on the face direction.
  • FIG. 15 is a diagram illustrating a person's face 1500, and a correction area (inner area 1510, outer area not shown) is set.
  • FIG. 15B is a diagram illustrating a human face 1501 in which the inner region 1510 is isotropically corrected.
  • FIG. 15C is a diagram illustrating a face 1502 obtained by anisotropically correcting the inner region 1510.
  • the human face 1501 is a face obtained by correcting the inner region 1510 corresponding to the human face 1500 with a constant correction strength regardless of the angle from the correction center.
  • the human face 1502 has different correction strength depending on the angle from the correction center of the inner area 1510, the correction strength in the upward direction of the face is small, the correction strength in the horizontal direction and the downward direction of the face is medium, The correction intensity in the diagonally downward direction is the largest.
  • the width of the face is the same, but the human face 1502 has a sharper cheek-to-chin line and is corrected to a smaller face image. Yes.
  • the correction intensity is changed depending on the direction with respect to the correction center, the correction is approximately the same as when correction is performed with a constant correction intensity regardless of the direction. Even if the intensity is high, different corrections can be made to the impression.
  • the orientation of the face can be calculated based on, for example, the detected positions of the left and right eyes.
  • FIG. 16 is a diagram illustrating an input image 1600 including a tilted person's face 1601 as a subject.
  • the face inclination ⁇ _f is defined as an angle formed by the x-axis (horizontal axis) of the input image 1600 and a straight line 1602 connecting the left and right eyes. If the left eye position is (LEFT_x, LEFT_y) and the right eye position is (RIGHT_x, RIGHT_y), the face inclination ⁇ _f can be calculated according to the following equation (6).
  • ⁇ _f arctan ((RIGHT_y ⁇ LEFT_y) / (RIGHT_x ⁇ LEFT_x)) (6)
  • ⁇ ( ⁇ ) 0.95
  • ⁇ _f right direction of the face
  • ⁇ ( ⁇ ) 0.95
  • ⁇ _f + ⁇ / 2 upward face
  • ⁇ ( ⁇ ) 1
  • ⁇ _f + ⁇ left direction of the face
  • ⁇ ( ⁇ ) 0.95
  • ⁇ ( ⁇ ) 0.95.
  • the correction processing unit of the control unit 40 determines whether the degree of reduction or enlargement from the center of the inner region corresponding to the face (target region) toward the specific direction in the image correction processing is the face.
  • the degree of reduction or enlargement from the center of the inner area corresponding to (target area) toward the other direction is larger.
  • FIG. 17A is a diagram illustrating an input image 1700 in which a human face 1701 and a human face 1702 are arranged obliquely, and a first correction area (inner area 1711) corresponding to the face 1701. And the outer region 1721) and the second correction region (the inner region 1712 and the outer region 1722) corresponding to the face 1702 are arranged obliquely side by side.
  • FIG. 17B is a diagram exemplifying an output image 1703 obtained by correcting the first correction area and the second correction area so that the human face is corrected to be small.
  • a human face 1704 and a human face 1705 in the output image 1703 correspond to the human face 1701 and the human face 1702 in the input image 1700, respectively.
  • Both the human face 1704 and the human face 1705 are corrected by the image correction process with the same correction strength, but the image correction process is anisotropic. That is, the correction intensity on the lower side of the face is strong, and in particular, the correction intensity in the diagonally downward direction is set to be the strongest. The correction intensity on the upper side of the face is weak, and in particular, the correction intensity in the upward direction is set to be the weakest.
  • the upper right portion having a low correction strength is strongly influenced by the correction of the lower left portion having a high correction strength in the human face 1704. The upper right is greatly extended.
  • the correction processing unit of the control unit 40 adjusts the correction intensity in consideration of the correction direction dependency as well as the positional relationship of the correction regions. Specifically, in the suppression process, the correction processing unit of the control unit 40 is in a direction (in the specific direction) in which the correction strength is larger than the first correction region corresponding to one face (first target region). When the second correction area corresponding to the other face (second target area) is arranged, the image correction processing for the first correction area corresponding to the other face (second target area) is performed. The degree of suppression in the image correction process for the second correction area corresponding to the one face (first target area) is increased (the correction intensity setting unit 43 brings the scaling ratios ⁇ and ⁇ closer to 1).
  • FIG. 18 is a diagram illustrating an output image 1703 obtained by performing correction for correcting a person's face to be small without performing the suppression process
  • FIG. 18B is a diagram illustrating an output image 1800 that has been subjected to image correction processing that includes the suppression processing of this processing example.
  • the correction processing unit of the control unit 40 reduces the correction strength for the first correction region corresponding to the person's face 1701 and the second image corresponding to the person's face 1702.
  • the correction intensity for the correction area is corrected without being changed.
  • the human face 1801 and the human face 1802 correspond to the human face 1701 and the human face 1702, respectively. Comparing the output image 1703 and the output image 1800, the human face 1802 has a reduced elongation at the upper right part of the face compared to the human face 1705, and a suitable corrected image is generated.
  • a suitable image with less unnatural distortion can be generated by adjusting the correction intensity based on the positional relationship between a plurality of adjacent faces (target regions).
  • the “vertical direction” and “horizontal direction” in the present embodiment may be the vertical direction and the horizontal direction in the input image.
  • the vertical direction at the time of imaging is the vertical direction
  • the horizontal direction is the horizontal direction.
  • the “vertical direction” and “horizontal direction” in the present embodiment may be set such that the vertical direction of the face is the vertical direction and the horizontal direction of the face is the horizontal direction in consideration of the inclination of the face. The method for detecting the face inclination is as described above.
  • FIG. 19A illustrates an input image 1900 that includes a human face 1901 (first target area) and a human face 1902 (second target area) as subjects.
  • FIG. 19B is a diagram illustrating an output image 1907 when the face 1901 and the face 1902 are reduced without performing the suppression process on the input image 1900.
  • a face 1908 and a face 1909 in the output image 1907 correspond to the face 1901 and the face 1902 in the input image 1900, respectively.
  • FIG. 19C is a diagram illustrating an output image 1910 obtained by performing image correction processing with suppression processing according to the present embodiment on the input image 1900.
  • a face 1911 and a face 1912 in the output image 1910 correspond to the face 1901 and the face 1902 in the input image 1900, respectively.
  • FIG. 19A shows an inner region 1905 and an outer region 1903 corresponding to the face 1901, and an inner region 1906 and an outer region 1904 corresponding to the face 1902.
  • the outer region 1903 and the outer region 1904 overlap.
  • a region where the outer region 1903 and the outer region 1904 overlap with each other cancels each other and hardly moves. Therefore, as shown in FIG. 19B, the impression is that the non-moving region is relatively extended.
  • the correction processing unit of the control unit 40 performs the outer side of at least one of the face 1901 and the face 1902 in the suppression processing.
  • the width of the outer region is reduced.
  • the correction strength setting unit 43 corrects the enlargement / reduction ratio ⁇ away from 1, thereby bringing the width of the outer region 1903 into contact with the inner region 1906.
  • the width of the outer region 1904 is reduced to a width where the outer region 1904 is in contact with the inner region 1905.
  • FIG. 19C the outer regions of other faces do not overlap each face, and each face can be corrected satisfactorily.
  • the correction intensity setting unit 43 corrects the enlargement / reduction ratio ⁇ away from 1
  • the correction intensity setting unit 43 corrects the enlargement / reduction ratio ⁇ to an extremely large value or a small value, an extremely deformed portion is generated in the output image, which is unnatural. It becomes. Therefore, in the present embodiment, when the correction intensity setting unit 43 corrects the enlargement / reduction ratio ⁇ away from 1, the maximum correction magnification or the minimum correction magnification is set, and the enlargement / reduction ratio ⁇ is corrected within a predetermined range. It is preferable to limit so.
  • the control block (particularly the subject detection unit 41, the correction area setting unit 42, the correction intensity setting unit 43, and the image correction unit 44) of the control unit (image processing apparatus) 40 is an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable). It may be realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like such as a gate array) or by software using a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). May be.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable
  • control unit (image processing apparatus) 40 includes a CPU that executes instructions of a program, which is software that implements each function, and a ROM (the above-mentioned program and various data are recorded so as to be readable by a computer (or CPU)). Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • an arbitrary transmission medium such as a communication network or a broadcast wave
  • one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • the image processing apparatus includes a correction processing unit (correction region setting unit 42, correction intensity setting unit 43, and image correction unit 44) that performs correction processing on one or more correction regions in an image.
  • Each correction area includes an inner area and an outer area outside the inner area, and in the correction process, the inner area is reduced and the outer area is enlarged, or When the inner area is enlarged and the outer area is reduced, and the correction processing unit performs the correction process on the first correction area and the second correction area, respectively, the first correction area And whether to perform the suppression process for suppressing the correction process for at least one of the second correction areas, between the inner area of the first correction area and the inner area of the second correction area. Depending on the distance To determine Te.
  • the inner region is corrected to be enlarged or reduced, and the outer region is corrected in the opposite manner, thereby suppressing the influence on the other parts of the image.
  • a desired correction can be performed on the region.
  • the image processing apparatus is the image processing apparatus according to aspect 1, wherein the correction processing unit includes a case where the inner area of the first correction area and the outer area of the second correction area overlap.
  • the suppression process may be performed when the inner region of the second correction region and the outer region of the first correction region overlap.
  • the image processing apparatus is the image processing apparatus according to aspect 1 or 2, wherein the correction processing unit corrects a larger one of the first correction area and the second correction area in the suppression process.
  • the correction process for the area may be suppressed more than the correction process for the smaller correction area.
  • the correction process for the larger correction area is affected by the correction process for the smaller correction area (particularly the inner area). In particular, it is larger than the influence on the inner region. Therefore, by further suppressing the correction process for the larger correction area, it is possible to more suitably avoid any target area being deformed excessively due to the influence of the correction.
  • the image processing apparatus is the image processing apparatus according to aspects 1 to 3, in which the correction processing unit performs the suppression process according to a positional relationship between the first correction area and the second correction area.
  • the degree of suppression of the correction process for each of the first correction area and the second correction area may be changed.
  • the impression given by the deformation caused by the correction changes depending on the positional relationship between the two correction areas. According to said structure, it can avoid suitably giving the unnatural impression by the deformation
  • the image processing apparatus is the image processing apparatus according to aspect 4 described above, in which, in the suppression process, the first correction area and the second correction area are arranged in the horizontal direction in the suppression process.
  • the degree of suppression of the correction processing for each of the first correction area and the second correction area may be increased as compared with the case where they are arranged in the vertical direction.
  • the correction processing unit includes the first correction area and the second correction area arranged in the vertical direction in the suppression process.
  • the degree of suppression of the correction process for the correction region positioned on the upper side may be larger than that for the correction region positioned on the lower side.
  • the unnatural impression caused by the deformation of the lower correction area (especially the inner area) caused by the correction process for the upper correction area is corrected for the lower correction area.
  • This is larger than the unnatural impression given by the deformation of the upper correction area (particularly the inner area) resulting from the processing.
  • it is possible to preferably avoid giving an unnatural impression by suppressing the correction process for the upper correction area to be larger than the correction process for the lower correction area.
  • the image processing apparatus is the image processing apparatus according to aspects 4 to 6, wherein the correction processing unit determines whether the degree of reduction or enlargement from the center of the correction area toward a specific direction is the correction in the correction process.
  • the second correction area is arranged in the specific direction with respect to the first correction area in the suppression process, greater than the degree of reduction or enlargement from the center of the area toward the other direction, The degree of suppression of the correction process for the first correction area may be greater than the correction process for the second correction area.
  • the first target region is greatly affected by the second target region arranged in the specific direction. There is. Therefore, it is possible to suitably avoid giving an unnatural impression by suppressing the correction to the first target area to be larger than the correction to the second target area.
  • the image processing apparatus is the image processing apparatus according to aspects 1 to 7, wherein the correction processing unit includes the outer area in at least one of the first correction area and the second correction area in the suppression process. The width may be reduced.
  • An imaging device 2 according to aspect 9 of the present invention includes an imaging unit 10 and an image processing device according to any one of the above aspects 1 to 8, which corrects the image captured by the imaging unit 10. Yes.
  • the user can capture an image of a person's face and the like, and suitably perform image processing on the captured image.
  • An image printing apparatus 1 according to an aspect 10 of the present invention includes the image processing apparatus according to any one of the above aspects 1 to 8, and the printing unit 50 that prints the image corrected by the image processing apparatus. Yes.
  • the user can easily print an image subjected to image processing.
  • the image printing apparatus 1 is an image processing apparatus according to any one of the first to eighth aspects, which performs image processing on the imaging unit 10 and the image captured by the imaging unit 10. And a printing unit 50 that prints the image corrected by the image processing apparatus.
  • the user can easily print an image obtained by performing image processing on the captured image.
  • the control method of the image processing apparatus includes a correction processing step of performing correction processing on one or more correction areas in an image, and each correction area includes an inner area and an outer area outside the inner area.
  • the inner area is reduced and the outer area is enlarged, or the inner area is enlarged and the outer area is reduced, and the correction process step.
  • a suppression process for suppressing the correction process on at least one of the first correction area and the second correction area is performed. Whether or not to perform the determination is determined according to a distance between the inner region of the first correction region and the inner region of the second correction region.
  • the image processing apparatus may be realized by a computer.
  • the image processing apparatus is operated by causing the computer to operate as each unit (software element) included in the image processing apparatus.
  • An image processing program for an image processing apparatus realized by a computer and a computer-readable recording medium on which the image processing program is recorded also fall within the scope of the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

画像に複数の補正領域が含まれている場合にも適切に処理する。制御部(40)は、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定する。

Description

画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム
 本発明の一態様は、画像の一部を縮小または拡大する補正を行う画像処理装置に関する。
 画像処理により、画像中の一部を縮小したり拡大したりすることで、被写体の印象を変化させる技術が知られている。例えば、画像中の人物の顔を小さく補正することで、小顔な印象の画像に補正する技術や、人物全体を細く補正することで痩せた印象の画像に補正する技術、脚を長く補正することでスタイルの良い印象の画像に補正する技術が挙げられる。
 このうち特許文献1には、画像の一部を変形する画像処理装置において、複数の変形領域が重複した場合に、各変形領域に優先順位を設定し、優先順位の低い変形領域については変形処理を行わないか、優先順位の順に変形処理を行うことが記載されている。
日本国公開特許公報「特開2008-242921号公報」
 しかしながら、特許文献1に記載の画像処理装置には、次のような問題点がある。図20の(a)は、当該画像処理装置による補正前の入力画像の一例(入力画像2000)を示し、図20の(b)は、当該画像処理装置による変形後の出力画像の一例(出力画像2003)を示している。入力画像2000には、人物の顔2001および2002が含まれている。顔2001の方が顔2002よりも大きいため、顔2001を含む変形領域の優先順位の方が、顔2002を含む変形領域の優先順位よりも高くなる。その結果、例えば、顔2001に対する変形処理(小顔処理)のみが行われ、顔2002に対する変形処理(小顔処理)は行われない。このように、小さい顔2002は、小顔化されないばかりか、顔2001に対する変形の影響を受けて、顔の右側が伸びた好ましくない顔2005に変形されることになる。
 そのため、画像に複数の補正領域がある場合にも適切に処理することができる技術が求められている。
 本発明の一態様は、上記の点に鑑みてなされたものであり、画像に複数の補正領域がある場合にも適切に処理することができる画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラムを提供することを主たる目的とする。
 本発明の一態様に係る画像処理装置は、画像における1つ以上の補正領域に対する補正処理を行う補正処理部を備え、各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、前記補正処理部は、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定する。
 本発明の一態様に係る画像処理装置の制御方法は、画像における1つ以上の補正領域に対する補正処理を行う補正処理工程を含み、各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、前記補正処理工程では、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定する。
 本発明の一態様によれば、画像に複数の補正領域がある場合にも適切に処理することができる。
本発明の一実施形態に係る画像印刷装置の構成を示すブロック図である。 図1に示す画像印刷装置の画像処理装置が備える被写体検出部の構成を示すブロック図である。 図2に示す画像処理装置が実施する画像処理の流れを示すフローチャートである。 人の顔を被写体として含む入力画像の一例を示す図である。 図4に示す入力画像に被写体として含まれる右目、左目、および口に基づいて設定した補正領域の一例を示す図である。 画像補正処理に関して、補正前の点の補正中心からの距離と補正後の点の補正中心からの距離との関係を示すグラフである。 画像補正処理に関して、補正による各点の変位を矢印として表した図である。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、抑制処理を行わずに、両方の顔を縮小したときの出力画像を例示する図である。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、(a)における大きい方の顔の画像補正処理に関して、補正前の点の補正中心からのx方向の距離と、補正後の点の補正中心からのx方向の距離との関係を示すグラフである。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、(a)における小さい方の顔の画像補正処理に関して、補正前の点の補正中心からのx方向の距離と、補正後の点の補正中心からのx方向の距離との関係を示すグラフである。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、抑制処理を行わずに、両方の顔を縮小したときの出力画像を例示する図であり、(c)は、抑制処理を伴う画像補正処理を行ったときの出力画像を例示する図である。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、抑制処理を伴う画像補正処理を行ったときの出力画像を例示する図であり、(c)は、さらなる抑制処理を伴う画像補正処理を行ったときの出力画像を例示する図である。 (a)は、複数の顔が縦方向に並んで配置された入力画像を例示する図であり、(b)は、(a)に示す入力画像に対し、抑制処理せずに、人物の顔を小さく補正する補正を行った出力画像を例示する図であり、(c)は、複数の顔が横方向に並んで配置された入力画像を例示する図であり、(d)は、(c)に示す入力画像に対し、抑制処理せずに、人物の顔を小さく補正する補正を行った出力画像を例示する図である。 (a)は、複数の顔が縦方向に並んで配置された入力画像を例示する図であり、(b)は、(a)に示す入力画像に対し、上側に位置する顔に対する画像補正処理の補正強度を弱く調整して補正した出力画像を例示する図である。 (a)は、顔を例示する図であり、(b)は、(a)に示す顔を等方的に補正した顔を例示する図であり、(c)は、(a)に示す顔を非等方的に補正した顔を例示する図である。 傾いた顔を被写体として含む入力画像を例示する図である。 (a)は、複数の顔が斜めに並んで配置された入力画像を例示する図であり、(b)は、(a)に示す入力画像に対し、抑制処理をせずに、人物の顔を小さく補正する補正を行った出力画像を例示する図である。 (a)は、入力画像に対し、抑制処理をせずに、人物の顔を小さく補正する補正を行った出力画像を例示する図であり、(b)は、抑制処理を伴う画像補正処理を行った出力画像を例示する図である。 (a)は、複数の顔を被写体として含む入力画像を例示する図であり、(b)は、抑制処理を行わずに、両方の顔を縮小したときの出力画像を例示する図であり、(c)は、抑制処理を伴う画像補正処理を行った出力画像を例示する図である。 (a)は、入力画像を例示する図であり、(b)は、(a)に示す入力画像を、従来技術によって変形した出力画像を例示する図である。 本発明の一実施形態に係る撮像装置の構成を示すブロック図である。
 〔第1の実施形態〕
 本発明の第1の実施形態に係る画像処理装置について、図1~図12を参照して説明する。本実施形態に係る画像処理装置は、顔を被写体として含む画像に対して、顔に対応する領域を縮小又は拡大する補正を施すための装置である。
 <画像処理装置の構成>
 まず、図1に基づいて、本実施形態の画像処理装置が制御部40として組み込まれた画像印刷装置1の構成の一例について説明する。図1は、本実施形態の画像印刷装置1の構成を示す機能ブロック図である。図1に示すように、画像印刷装置1は、撮像部10、操作部20、表示部30、制御部(画像処理装置)40、印刷部50および記憶部60を備えている。
 撮像部10は、被写体を撮像するものであり、撮像した画像を入力画像として制御部40に送信する。
 操作部20は、ユーザの入力を受け付けるものであり、例えばタッチパネル、マウスによって実現される。例えば、操作部20がタッチパネルの場合、当該タッチパネルを備えた表示部30に入力画像が表示される。
 表示部30は、各種画像を表示するものである。表示部30は、例えば、撮像部10が撮像した画像、または後述の画像補正部44が生成する出力画像を表示する。
 制御部40は、撮像部10が撮像した画像(入力画像)に対して画像処理を行い、処理後(補正後)の出力画像を生成する画像処理装置として機能する。本実施形態では、制御部40は、画像印刷装置1を統括的に制御する制御部としても機能する。制御部40の具体的な構成については後述する。
 印刷部50は、制御部40の処理によって生成された出力画像(画像)を印刷する。印刷部50は、当該出力画像に対してさらに、操作部20を介してユーザによって描画された画像を印刷してもよい。
 記憶部60は、例えば、制御部40が実行する各種の制御プログラム等を記憶するものであり、例えばハードディスク、フラッシュメモリ等の不揮発性の記憶装置によって構成される。記憶部60には、例えば、入力画像および出力画像が記憶される。また、記憶部60には、画像処理(補正処理)、被写体の検出処理等、制御部40の処理に必要なパラメータ等が記憶されていてもよい。
 なお、画像印刷装置1を制御する制御部が、制御部40である必要は必ずしもない。例えば、画像印刷装置1と通信可能に接続できる外部装置が、制御部40として機能するものであってもよい。
 <制御部(画像処理装置)の構成>
 次に、制御部40の構成について、図1および図2を参照して説明する。図2は、制御部40が備える被写体検出部(対象物検出部)41の構成を示すブロック図である。
 制御部40は、図1に示すように、被写体検出部41、補正領域設定部42、補正強度設定部43、および画像補正部44を備えている。補正領域設定部42、補正強度設定部43、および画像補正部44をまとめて、補正処理部と呼ぶこともある。
 制御部40には、人の顔を被写体として含む画像が入力される。制御部40に入力される、人の顔を被写体として含む画像のことを、以下、「入力画像」と記載する。
 被写体検出部41は、制御部40に入力された入力画像中から、補正対象となる被写体(対象領域)を検出する。被写体検出部41は、例えば図2に示すように、顔検出部41aと顔器官検出部41bとにより構成することができる。顔検出部41aは、入力画像において、顔に対応する領域(以下、単に「顔」と記載することもある)を検出するための構成である。なお、顔に対応する領域の検出には、公知のアルゴリズム(例えば、入力画像から検出した肌色の情報を利用するなど)を用いることができるので、ここでは詳細に立ち入らない。顔器官検出部41bは、目(右目、左目)、口、眉(右眉、左眉)、鼻等の顔の各器官、または顔の輪郭等に対応する領域(以下、輪郭に対応する領域も含めて、単に「顔器官」と記載することもある)を検出するための構成である。本実施形態において、顔器官検出部41bは、右目、左目、および口を検出する。なお、各顔器官に対応する領域の検出には、公知のアルゴリズム(例えば、パターンマッチングを利用するなど)を用いることができるので、ここでは詳細に立ち入らない。
 なお、被写体検出部41による被写体の検出は手動であってもよい。換言すれば、ユーザが入力画像から被写体を検出してもよい。この場合、例えば、被写体検出部41(被写体選択部)は、表示部30に入力画像を表示させ、操作部20を介したユーザの入力によって指定された、補正対象とする被写体を検出(選択)する。被写体検出部41は、入力画像に複数の被写体が存在する場合には、ユーザの入力に基づいて、補正対象とする被写体を選択する。例えば、操作部20がタッチパネルの場合にはユーザがタッチパネルに触れることにより、表示部30が表示する入力画像内の被写体が選択される。また、操作部20がマウスの場合には、マウス操作に基づいて被写体が選択される。また、制御部40にディスプレイとマウスとが接続されている場合、このマウスを用いてユーザに被写体を選択させることができる。この場合、制御部40は、入力画像をディスプレイに表示し、ユーザは、ディスプレイに表示された被写体の何れかをマウスカーソルにより指し示す。制御部40は、マウスカーソルにより指し示された被写体を、ユーザにより選択された被写体と見做す。
 また、本明細書では、撮像部10にて撮像された画像(すなわち、被写体を含む画像)に対して補正処理を行うものとして説明する。具体的には、画像に含まれる被写体に対して縮小および拡大処理を行うものとして説明する。しかしこれに限られず、補正対象とする画像は、撮像部10が撮像した画像でなくてもよい。この場合、被写体検出部41は、画像に含まれる、補正対象となる対象物(換言すれば、当該対象物を含む対象領域)を検出する。つまり、被写体検出部41は、画像に含まれる被写体、または被写体以外の対象物を含む対象領域(換言すれば、画像に含まれる対象領域)を検出する対象領域検出部として機能する。なお、被写体検出部41が検出する被写体の数は特に限定されず、被写体検出部41は、1つまたは複数の被写体を検出することができる。
 補正領域設定部42は、被写体検出部41が検出した顔および顔器官の位置に基づいて、補正領域を設定するための構成である。本実施形態において、補正領域設定部42は、被写体検出部41が検出した顔および顔器官の位置に基づいて、補正領域を設定する。補正領域は、内側領域および外側領域からなる。
 ここで、補正領域の内側領域は、入力画像において、顔を含む領域である。例えば、内側領域は、顔の中心に応じた位置と、顔の大きさに応じたサイズとを有する所定の形状の領域とすることができ、本実施形態では、顔の中心に応じた補正中心からの距離が顔の大きさに応じた第1補正距離d1以下になる画素の集合として定義される円形領域である。換言すれば、内側領域は、補正中心を中心位置とする半径(サイズ)が第1補正距離d1の円形の領域である。
 また、補正領域の外側領域は、入力画像において、内側領域を取り囲む領域であり、本実施形態では、補正中心からの距離が第1補正距離d1よりも大きく、かつ、予め定められた第2補正距離d2(d2>d1)以下になる画素の集合として定義される円環領域である。例えば、顔を小さく見せるための補正が行われる場合には、内側領域が縮小の対象となり、外側領域が拡大の対象となる。逆に、顔を大きく見せるための補正が行われる場合には、内側領域が拡大の対象となり、外側領域が縮小の対象となる。なお、補正領域設定部42が実行する補正領域設定処理の具体例については、参照する図面を替えて後述する。
 補正強度設定部43は、補正領域設定部42が設定した内側領域および外側領域の拡縮率α,βを設定するための構成である。例えば、顔を小さく見せるための補正を行う場合、補正強度設定部43は、内側領域の拡縮率αを1よりも小さい正の定数に設定すると共に、外側領域の拡縮率βを1よりも大きい正の定数に設定する。逆に、顔を大きく見せるための補正を行う場合、補正強度設定部43は、内側領域の拡縮率αを1よりも大きい正の定数に設定すると共に、外側領域の拡縮率βを1よりも小さい正の定数に設定する。補正強度設定部43は、(1)内側領域および外側領域の拡縮率α,βを、予め設定された値、ユーザが指定した値等に設定した後、(2)被写体検出部41が検出した顔および顔器官に基づいて補正する。拡縮率α,βの補正の詳細については、参照する図面を替えて後述する。
 画像補正部44は、補正領域設定部42が設定した内側領域および外側領域に対して、補正強度設定部43が設定した拡縮率α,βに応じた補正処理を施すための構成である。画像補正部44が入力画像に対して施す補正処理としては、(1)補正領域設定部42が設定した内側領域を、補正強度設定部43が設定した拡縮率α(α<1)で縮小すると共に、補正領域設定部42が設定した外側領域を、補正強度設定部43が設定した拡縮率β(β>1)で拡大する補正処理、又は、(2)補正領域設定部42が設定した内側領域を、補正強度設定部43が設定した拡縮率α(α>1)で拡大すると共に、補正領域設定部42が設定した外側領域を、補正強度設定部43が設定した拡縮率β(β<1)で縮小する補正処理が挙げられる。なお、画像補正部44が実行する画像補正処理の具体例については、参照する図面を代えて後述する。
 記憶部105は、例えば、入力画像および出力画像(入力画像に対して、上記の補正処理を施すことにより得られる画像)を記憶する。記憶部105は、被写体検出部41、補正領域設定部42、補正強度設定部43、および画像補正部44が上記の処理を実行する際に参照する各種パラメータを記憶してもよい。
 <画像処理の流れ>
 次に、制御部40が実施する画像処理の流れについて、図3を参照して説明する。図3は、制御部40が実施する画像処理の流れを示すフローチャートである。
 制御部40が実施する画像処理は、図3に示すように、被写体検出処理S301、補正領域設定処理S302、補正強度設定処理S303、画像補正処理S304を含んでいる。
 入力画像が制御部40に与えられると、被写体検出処理S301が実行される。被写体検出処理S301は、入力画像に像として含まれる人の顔および顔器官を検出する処理であり、本実施形態においては、被写体検出部41によって実行される。
 被写体検出処理S301が完了すると、補正領域設定処理S302が実行される。補正領域設定処理S302は、被写体検出処理S301にて検出した顔および顔器官に基づいて、補正領域(内側領域および外側領域)を設定する処理であり、本実施形態においては、補正領域設定部42によって実行される。
 補正領域設定処理S302が完了すると、補正強度設定処理S303が実行される。補正強度設定処理S303は、補正領域設定処理S302にて設定された補正領域の内側領域および外側領域の拡縮率α,βを設定する処理であり、本実施形態においては、補正強度設定部43によって実行される。
 補正強度設定処理S303が完了すると、画像補正処理S304が実行される。画像補正処理S304は、補正領域設定処理S302にて設定された補正領域の内側領域および外側領域を、補正強度設定処理S303にて設定された拡縮率α,βで縮小又は拡大する処理であり、本実施形態においては、画像補正部44によって実行される。
 なお、入力画像における補正領域の数は特に限定されず、一つであってもよいし、複数であってもよい。補正処理部は、一部又は全部の補正領域において、内側領域をそれぞれ縮小し、かつ、各外側領域をそれぞれ拡大してもよいし、一部又は全部の補正領域において、内側領域をそれぞれ拡大し、かつ、各外側領域をそれぞれ縮小してもよい。
 <補正領域設定処理の具体例>
 次に、補正領域設定部42が実施する補正領域設定処理S302の具体例について、図4および図5を参照して説明する。
 上述したように、顔の輪郭を構成する顔器官(頬や顎など)は、検出に失敗したり、誤検出したりする可能性が高い。そこで、本実施形態に係る補正領域設定処理S302は、顔の輪郭を構成する顔器官以外の顔器官、具体的には、左目、右目、および口の3つの顔器官の位置を参照して実行される。
 図4は、人の顔401を被写体として含む入力画像400を例示する図である。図4に例示した入力画像400には、左目402、右目403、および口404が被写体として含まれている。以下、被写体検出部41により検出された左目402、右目403、および口404の位置を、それぞれ下記のように表す。
  左目402の位置:( LEFT_x、 LEFT_y)、
  右目403の位置:(RIGHT_x、RIGHT_y)、
  口404の位置 :(MOUTH_x、MOUTH_y)。
 顔401の中心は、左目402、右目403、口404の重心に近似的に一致する。そこで、補正領域設定部42は、顔の中心を表す補正中心=(cx、cy)を、左目402、右目403、口404の位置から下記の式(1)および(2)に従って算出する。
  cx=(LEFT_x+RIGHT_x+MOUTH_x)/3・・・(1)
  cy=(LEFT_y+RIGHT_y+MOUTH_y)/3・・・(2)
 また、顔の大きさは、両目の間隔(右目403と左目404との距離)dist_eyeに近似的に比例する。そこで、補正領域設定部42は、顔の大きさに応じた第1補正距離d1を、左目402および右目403の位置から下記の式(3)および(4)に従って算出する。
  dist_eye={(LEFT_x-RIGHT_x)
            +(LEFT_y-RIGHT_y)1/2・・・(3)
  d1=dist_eye×param_A            ・・・(4)
 式(4)において、param_Aは、予め設定された比例係数である。
 続いて、補正領域設定部42は、図5に示すように、顔500を含む内側領域502、および、内側領域502の外側の領域である外側領域503を設定する。ここで、内側領域502は、補正中心501からの距離が第1補正距離d1以下になる画素の集合として定義される円形領域である。一方、外側領域503は、補正中心からの距離が第1補正距離d1よりも大きく、かつ、第2補正距離d2(d2>d1)以下になる画素の集合として定義される円環領域である。顔を小さく見せるための補正が行われる場合、内側領域502は、縮小の対象となり、外側領域503は、拡大の対象となる。逆に、顔を大きく見せるための補正が行われる場合、内側領域502は、拡大の対象となり、外側領域503は、縮小の対象となる。
 第2補正距離d2は、例えば、下記の式(5)に従って算出すればよい。
  d2=d1×param_B・・・(5)
 式(5)において、param_Bは、予め定められた比例係数である(ただし、param_B>1)。例えば、param_B=2.0とすると、第2補正距離d2は、第1補正距離d1の2倍となり、外側領域503の幅(外径と内径との差)は、内側領域502の半径と等しくなる。
 なお、実際の人の顔500は円ではないため、内側領域502の外周は、顔500の輪郭と一致しない。しかしながら、式(4)に現れる係数param_Aを適切に設定すれば、内側領域502の外周により、顔500の輪郭を精度良く近似することができる。実際、両目の間隔と顔の大きさとの間には有意な相関がある。したがって、複数の人について両目の間隔に対する顔の大きさの比を実測し、係数param_Aを実測した比の平均値に設定すれば、内側領域502の外周により、顔500の輪郭を精度良く近似することができる。なお、被写体となり得る人が特定の属性(年齢や性別など)を有する人に限定されている場合には、上記のように係数param_Aを設定する際にサンプルとする人もその属性を有する人に限定することが好ましい。これにより、内側領域502の外周と顔500の輪郭との差を、係数param_Aを設定する際にサンプルとする人を限定しない場合よりも小さくすることができる。
 <画像補正処理の具体例>
 次に、画像補正部44が実施する画像補正処理S304(補正処理)の具体例について、図6および図7を参照して説明する。
 画像補正処理S304において或る補正領域に施す補正は、(1)内側領域を等方的に縮小すると共に、(2)外側領域を等方的に拡大する補正である。より具体的に言うと、補正中心からの距離がrであり、補正中心=(c1,c2)から見た方向がθである点P=(rcosθ,rsinθ)+(c1,c2)を、(1)r≦d1であるときには、補正中心からの距離がr’=αrであり、補正中心から見た方向がθである点P’=(r’cosθ,r’sinθ)+(c1,c2)に写し、(2)d1<r≦d2であるときには、補正中心からの距離がr’=βr-(β‐α)d1であり、補正中心から見た方向がθである点P’=(r’cosθ,r’sinθ)+(c1,c2)に写す補正である。ここで、αは、内側領域に対する拡縮率として補正強度設定部43にて設定された正の定数であり、α<1を満たす。一方、βは、外側領域に対する拡縮率として補正強度設定部43にて設定された正の定数であり、β=(d2-αd1)/(d2-d1)により定義され、β>1を満たす。
 例えば、α=0.9であり、β=1.1(d2=2d1)である場合、補正前の点Pの補正中心からの距離rと、補正後の点Pの補正中心からの距離r’との関係は、図6に示すグラフのようになる。また、この場合、補正による変位を矢印として表せば、図7に示すようになる。図7において、矢印の始点は補正前の点Pを示し、矢印の終点は補正後の点P’を示し、矢印の長さは補正量を示し、矢印の方向は補正方向を示す。図6および図7から明らかなように、(1)内側領域702(r≦d1)は等方的に縮小され、(2)外側領域703(d1<r≦d2)は等方的に拡大され、(3)その他の領域(d2<r)は不動である。外側領域703は、外周を保ったまま内向きに拡大され、補正後の外側領域703の内周は、補正後の内側領域702の外周と一致する。そして、外側領域703の外側の領域は、拡大も縮小もなされない。
 図6および図7において注目すべき第1の点は、内側領域702に関して、各点Pに対する補正量を、その点Pの補正中心からの距離rに応じて定めている点である。具体的には、各点Pに対する補正量を、その点Pの補正中心からの距離rに相関させている。更に一態様において、各点Pに対する補正量を、その点Pの補正中心からの距離rに比例させている。このため、内側領域702における補正量は、補正中心に近づくほど小さくなり、内側領域702の外周に近づくほど大きくなる。上述したように、補正中心701は、顔の中心を近似する点であり、内側領域702の外周は、顔の輪郭を近似する円である。したがって、補正量は、顔の中心に近づくほど小さくなり、顔の輪郭に近づくほど大きくなる。このため、顔の中心付近にある顔器官(目、鼻、口など)への影響を抑えながら、顔の大きさを十分に小さくすることができる。図6および図7において注目すべき第2の点は、外側領域703が外周を保ったまま内向きに拡大される点である。したがって、顔の形状の個人差等に起因して、顔が内側領域702に収まらず、外側領域703はみ出している場合でも、顔の輪郭を顔の中心に向かって移動させ、顔の大きさを小さくすることができる。
 なお、補正領域設定部42は、内側領域702に関して、各点Pに対する補正量を、その点Pの補正中心からの距離rに応じて定めるものであればよく、上記のように、各点Pに対する補正量を、その点Pの補正中心からの距離rに比例させるものでなくともよい。補正領域設定部42は、例えば、図6に示すグラフが曲線となるように、各点Pに対する補正量と、その点Pの補正中心からの距離rとの対応関係を定めてもよい。また、補正領域設定部42は、各点Pに対する補正量を、その点Pの補正中心からの角度θも考慮して定めてもよい。すなわち、非等方的な画像補正処理を行ってもよい。詳細については、第2の実施形態に記載する。
 <拡縮率の補正の具体例>
 補正強度設定部43は、入力画像に複数の顔が含まれ、顔同士が隣接している場合に、隣接する顔の一方または両方に対する補正処理を抑制するように拡縮率を補正する(抑制処理)。
 図8の(a)は、人物の顔801(第1の対象領域)および人物の顔802(第2の対象領域)を被写体として含む入力画像800を例示する図である。入力画像800に対し、顔801に対する補正領域(内側領域811および外側領域821)および顔802に対する補正領域(内側領域812および外側領域822)を設定し、同じ処理強度で顔を小さくする補正を行った出力画像803を図8の(b)に示す。なお、説明の便のために、内側領域811、812を、それぞれ対象領域である顔801、802と同一の範囲として示しているが、内側領域は、対象領域を含むように設定されていればよい。以降も同様である。
 図8の(b)において、出力画像803内の人物の顔804と人物の顔805はそれぞれ人物の顔801と人物の顔802に対応している。人物の顔801と人物の顔802とを小さくする補正は、処理中心に向かって縮小する処理であり、補正の強度に関しては方向に依らず一定の強度で処理されている。ただし、互いの顔が隣接する方向では、互いの顔の補正が影響するため、人物の顔804の左側と人物の顔805の右側の縮小度合いは弱くなっている。そのため、人物の顔804の左側と、人物の顔805の右側とがそれぞれ伸びた印象の顔に補正されている。
 これを防ぐため、本実施形態において、制御部40の補正処理部は、図8に示すように、入力画像800に顔801および顔802が含まれており、顔801に対して第1の補正領域(内側領域811および外側領域821)が設定され、顔802に対して第2の補正領域(内側領域812および外側領域822)が設定される場合、第1の補正領域および第2の補正領域の少なくとも一方に対する補正処理を抑制する抑制処理を行うか否かを、内側領域811と内側領域812との間の距離に応じて決定する。
 例えば、図8の例では、制御部40の補正処理部は、内側領域811と、内側領域812との間の距離が、(i)内側領域811と、内側領域812または外側領域822とが重なるか、または(ii)内側領域812と、内側領域811または外側領域821とが重なるまで短くなっている場合には、抑制処理を行い、そうでない場合には、抑制処理を行わない。
 また、抑制処理では、補正強度設定部43は、内側領域811および内側領域812の拡縮率αならびに外側領域821および外側領域822の拡縮率βを、縮小または拡大の度合い(補正強度)が小さくなるように補正する。換言すれば、補正強度設定部43は、拡縮率α,βを1に近づける。
 また、抑制処理では、補正強度設定部43は、第1の補正領域および第2の補正領域に対する補正強度を小さくし、一方の補正強度を、他方の補正強度よりも小さくしてもよい。また、第1の補正領域および第2の補正領域の一方のみに対する補正処理の補正強度を小さくしてもよい。
 以下、幾つかの処理例について説明する。
 (処理例1)
 ここで、図8の(b)における人物の顔804と人物の顔805とを詳しく比較すると、人物の顔805の左目(画像上で右側の目)が大きく伸びており、人物の顔805の方が互いの補正の影響を強く受けていることがわかる。これは、2つの人物の顔の大きさに起因している。
 図9の(a)は、図8の(a)と同じく、顔801および顔802を含む入力画像800を例示する図であり、図9の(b)は、図9の(a)における大きい方の顔801の画像補正処理に関して、補正前の点の補正中心からのx方向の距離と、補正後の点の補正中心からのx方向の距離との関係を示すグラフである。図9に示すように、補正領域内では、補正中心に近づく方向に画素が移動しており、内側領域(縮小領域、811)と外側領域(拡大領域、図示せず)の境界で移動量が最大となっている。また、外側領域(拡大領域)の一部が、人物の顔802と重複していることから、人物の顔802は、人物の顔801の補正の影響を受けて右側に移動することがわかる。
 また、図10の(a)は、図8の(a)と同じく、顔801および顔802を含む入力画像800を例示する図であり、図10の(b)は、図10の(a)における小さい方の顔802の画像補正処理に関して、補正前の点の補正中心からのx方向の距離と、補正後の点の補正中心からのx方向の距離との関係を示すグラフである。図10に示すように、補正領域内では、補正中心に近づく方向に画素が移動しており、内側領域(縮小領域、812)と外側領域(拡大領域、図示せず)の境界で移動量が最大となっている。また、外側領域(拡大領域)の一部が、人物の顔801と重複していることから、人物の顔801は、人物の顔802の補正の影響を受けて左側に移動することがわかる。
 図9と図10とを比較すると、人物の顔801と人物の顔802の顔の大きさが異なり補正領域の大きさも異なるため、同じ補正強度で補正したにも関わらず画素の移動量が異なっており、人物の顔801の補正に起因する画素の移動量の方が大きくなっている。したがって、人物の顔802に対応する第2の補正領域が、人物の顔801に対応する第1の補正領域に対する補正処理から受ける影響の方が、人物の顔801に対応する第1の補正領域が、人物の顔802に対応する第2の補正領域に対する補正処理から受ける影響より大きくなり、図8の(b)に示した出力画像803のように、顔の大きさが小さい人物の顔802の方が大きく歪むことになる。
 そこで、本実施形態では、制御部40の補正処理部は、抑制処理において、顔801に対応する第1の補正領域、および、顔802に対応する第2の補正領域のうち、大きい方の第1の補正領域に対する画像補正処理(補正処理)を抑制する。これにより、顔801および顔802がいずれも小さく補正され、かつ、歪みが少ない画像を生成することができる。
 図11の(a)は、人物の顔1101および人物の顔1102を被写体として含む入力画像1100を例示する図である。図11の(a)に示すように、人物の顔1101の方が人物の顔1102より大きく、顔1101に対応する第1の補正領域(内側領域1111および外側領域1121)の方が、顔1102に対応する第2の補正領域(内側領域1112および外側領域1122)より大きい。
 ここで、図11の(b)は、入力画像1100に対し、抑制処理を行わずに、第1の補正領域および第2の補正領域を同一の補正強度で小さく補正した出力画像1103を例示する図である。図11の(b)において、出力画像1103内の人物の顔1104と人物の顔1105とは、それぞれ入力画像1100内の人物の顔1101と人物の顔1102とに対応している。出力画像1103では、互いの顔に対応する補正領域に対する補正処理の影響を受け、人物の顔1104の左側と人物の顔1105の右側が伸びており、特に、人物の顔1105の右側が大きく伸びている。
 これに対し、図11の(c)は、入力画像1100に対し、抑制処理を伴う画像補正処理を行い、顔1101に対応する第1の補正領域(内側領域1111および外側領域1121)に対する画像補正処理の補正強度を、顔1102に対応する第2の補正領域(内側領域1112および外側領域1122)に対する画像補正処理の補正強度の半分に設定して処理した出力画像1106を例示する図である。出力画像1106内の人物の顔1107と人物の顔1108とは、それぞれ入力画像1100内の人物の顔1101と人物の顔1102とに対応している。出力画像1106では、互いの顔の補正の影響を受けているが、出力画像1103と比較すると、人物の顔1105の右側の伸びが低減され、好適な出力画像1106が生成されている。
 (処理例2)
 なお、図11の(c)に示すように、抑制処理を行い、顔の大きさに基づいて補正強度を調整することにより歪みは低減されるが、人物の顔1107の左側の伸びと人物の顔1108の右側の伸びとは生じている。そこで、一実施形態において、制御部40の補正処理部は、抑制処理において、隣接する顔の両方について、画像補正処理を抑制するとともに、大きい方の顔についての画像補正処理をより抑制するようにしてもよい。
 図12の(a)は、図11の(a)と同じく、人物の顔1101および人物の顔1102を被写体として含む入力画像1100を例示する図である。図12の(b)は、図11の(c)と同じく、入力画像1100に対し、抑制処理を伴う補正処理を行い、顔1101に対応する第1の補正領域(内側領域1111および外側領域1121)に対する画像補正処理の補正強度を、顔1102に対応する第2の補正領域(内側領域1112および外側領域1122)に対する画像補正処理の補正強度の半分に設定して処理した出力画像1106を例示する図である。図12の(c)は、入力画像1100に対し、抑制処理を伴う画像補正処理を行い、顔1101に対応する第1の補正領域(内側領域1111および外側領域1121)、および、顔1102に対応する第2の補正領域(内側領域1112および外側領域1122)に対する画像補正処理の補正強度をともに半分にした上で、顔1101に対応する第1の補正領域(内側領域1111および外側領域1121)に対する画像補正処理の補正強度をさらに半分にして処理した出力画像1200を例示する図である。
 出力画像1106と出力画像1200とを比較すると、人物の顔の歪みが低減され、好適な補正画像が生成されている。なお、図11では、抑制処理を伴う画像補正処理を行った出力画像1106において、顔1107に歪みが生じている。これは、処理例2の効果を説明するため補正強度を強く設定した画像を示しているためである。補正強度を適切に設定した場合は、処理例1における抑制処理を行った場合でも、歪みが低減された好適な補正画像を生成することができる。
 (変形例)
 また、隣接する顔に対応する補正領域(内側領域および外側領域)の大きさの差が大きくなる程、隣接する顔への画像補正処理が、互いの顔に与える影響の差も大きくなる。そのため、制御部40の補正処理部は、隣接する顔が対応する補正領域(内側領域および外側領域)の大きさの差に応じて、隣接する顔の各々に対する画像補正処理の補正強度を調整してもよい。これにより、隣接する顔に対応する補正領域(内側領域および外側領域)の大きさの差に応じた、補正強度の好適な調整が可能となる。
 また、隣接する顔に対応する補正領域(内側領域および外側領域)の大きさの差が一定未満の場合は、隣接する顔への画像補正処理が、互いの顔に与える影響の差も小さくなるため、処理例1、2で説明したような顔の大きさに基づく補正強度の調整は行わないようにしてもよい。そして、隣接する顔が対応する補正領域(内側領域および外側領域)の大きさの差が一定以上の場合に、処理例1、2で説明したような顔の大きさに基づく補正強度の調整を行ってもよい。
 また、一方の顔に対応する補正領域に対する画像補正処理が他方の顔に対応する補正領域に与える影響の大きさは、隣接する顔間の距離が短いほど大きくなるため、隣接する顔間の距離、または、隣接する顔に対応する補正領域の内側領域間の距離をさらに考慮して補正強度を調整してもよい。隣接する顔間の距離、または、隣接する内側領域間の距離が短いほど、補正強度の調整量(低減量)を大きくすることで、歪みの少ない好適な補正画像を生成することができる。
 以上説明したように、本実施形態では、複数の補正対象の対象領域(顔)に対応する補正領域が隣接する場合に、対象領域の大きさに基づいて各対象領域に対応する補正領域(内側領域および外側領域)に対する補正処理の補正強度を設定することで、一方の補正領域に対する補正が他方の補正領域に与える影響を適切に低減し、不自然な歪みの少ない好適な画像を生成することができる。
 <付記事項>
 また、本実施形態の他の一態様は、印刷機能を有さない画像撮像装置であってもよい。図21は、本実施形態の他の一態様に係る撮像装置2の構成を示す機能ブロック図である。撮像装置2は、画像印刷装置1と同様、撮像部10、操作部20、表示部30、制御部40(画像処理装置)、および記憶部60を備えているが、印刷部50を備えていない。
 また、上述したように、本実施形態において、補正領域の内側領域の形状は円形に限定されない。すなわち、内側領域は、顔の中心に応じた位置と、顔の大きさに応じたサイズとを有する所定の形状の領域であればよく、所定の形状としては、円形の他、楕円形、多角形等であってもよい。また、補正領域の外側領域の形状も円形に限定されず、楕円形、多角形等であってもよい。
 また、本実施形態において、入力画像に3つ以上の被写体が含まれていてもよい。その場合には、3つ以上の被写体における2つの被写体の組み合わせ夫々について、上述した処理を行えばよい。
 〔第2の実施形態〕
 本発明の第2の実施形態について、図13~図18に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。第2の実施形態では、隣接する複数の補正領域の位置関係に基づいて補正強度を調整する方法について述べる。
 本実施形態において、制御部40の補正処理部は、抑制処理において、入力画像に含まれる顔同士の位置関係に応じて抑制の度合いを変化させる。以下、幾つかの例を挙げて説明する。
 (処理例3)
 図13の(a)は、人物の顔1301(第1の対象領域)と人物の顔1302(第1の対象領域)とが縦方向(上下)に並んで配置された入力画像1300を例示する図である。図13の(a)に示すように、顔1301に対応する第1の補正領域(内側領域1311および外側領域1321)と、顔1302に対応する第2の補正領域(内側領域1312および外側領域1322)とは縦方向(上下)に並んで配置され、第1の補正領域および第2の補正領域に対し、抑制処理せずに、人物の顔を小さく補正する補正を行った出力画像1303を、図13の(b)に例示する。出力画像1303中の人物の顔1304と人物の顔1305はそれぞれ入力画像1300の人物の顔1301と人物の顔1302に対応している。
 図13の(c)は、人物の顔1307(第1の対象領域)と人物の顔1308(第2の対象領域)とが横方向(左右)に並んで配置された入力画像1306を例示する図である。図13の(c)に示すように、顔1307に対応する第1の補正領域(内側領域1317および外側領域1327)と、顔1308に対応する第2の補正領域(内側領域1318および外側領域1328)とは横方向(左右)に並んで配置される。図13の(d)は、第1の補正領域および第2の補正領域に対し、抑制処理せずに、人物の顔を小さく補正する補正を行った出力画像1309を例示する図である。出力画像1309中の人物の顔1310と人物の顔1311はそれぞれ入力画像1306の人物の顔1307と人物の顔1308に対応している。
 ここで、人物の顔1301、1302、1307、1308は全て同じ大きさであり、人物の顔1301と1302との距離と、人物の顔1307と1308との距離は同じであるものとする。また、抑制処理しない場合の入力画像1300と1306に対する補正強度も同じであるものとする。
 出力画像1303および出力画像1309における補正後の顔1304、1305、1310、1311を比較すると、各顔における他の顔と隣接する側が、他の顔に対する画像補正処理の影響を受けて歪んでいる。具体的には、人物の顔1304の下側、人物の顔1305の上側、人物の顔1310の右側、および人物の顔1311の左側が伸びている。特に、人物の顔1310および人物の顔1311については、顔の左右対称性が崩れているため、歪みに起因する不自然な印象が強い。また、人物の顔1305は、左右対称性は崩れていないものの、顔の上部が伸びており、顔の下部の方が太く補正されているため、小顔な印象が小さくなる。一方、人物の顔1304は、左右対称性が崩れておらず、顔の下部が伸びているものの、顎のラインがシャープになり、小顔な印象となっている。
 このように、隣接する複数の顔(対象領域)に対応する補正領域に対して同じ補正強度で画像補正処理した場合においては、各顔(対象領域)に対応する補正領域に対する画像補正処理が、他の対象領域に対応する補正領域に与える影響が、顔(対象領域)対応する補正領域同士の位置関係によって異なることになる。
 例えば、隣接する顔(対象領域)が横方向に並び、隣接する顔にそれぞれ対応する補正領域が横方向に並んでいる場合、補正後の画像は、図13の(d)に示すように、左右対称性が崩れるため、縦方向に並んでいる場合(図13の(b))よりも、不自然な印象となる。
 そこで、制御部40の補正処理部は、抑制処理において、隣接する補正領域が横方向に並んでいる場合、縦方向に並んでいる場合よりも抑制の度合いを大きくする(補正強度設定部43が、拡縮率α、βを1に近づける)。また、図13の(c)に示すように、補正領域が横方向に隣接する場合は、各顔への画像補正処理が互いの顔に与える影響が等しい(左右反転)ため、制御部40の補正処理部は、各顔への画像補正処理の補正強度が同じになるように抑制処理を行うことが好ましい。
 また、例えば、図13の(a)に示すように隣接する補正領域が縦方向に並んでいる場合、補正後の画像は、図13の(b)に示すように、上側の顔よりも、下側の顔の方が、不自然な印象となる。
 そこで、制御部40の補正処理部は、抑制処理において、隣接する補正領域が縦方向に並んでいる場合、下側に位置する補正領域に対する画像補正処理よりも、上側に位置する補正領域に対する画像補正処理における抑制の程度を大きくする(補正強度設定部43が、拡縮率α、βを1に近づける)。
 図14の(a)は、図13の(b)と同じく、顔1301と顔1302とが縦方向に並んで配置された入力画像1300について、顔1301に対応する補正領域および顔1302に対応する補正領域に対し、抑制処理せずに、人物の顔を小さく補正する補正を行った出力画像1303を例示する図である。図14の(b)は、入力画像1300に対し、上側に位置する人物の顔1301に対応する補正領域に対する画像補正処理の補正強度を弱く調整して補正した出力画像1400を例示する図である。人物の顔1401と1402はそれぞれ、人物の顔1301と1302に対応している。
 出力画像1303と出力画像1400とを比較すると、出力画像1400では下側の人物の顔1402上部の伸びが、人物の顔1305上部の伸びより低減され小顔な印象となり、かつ、上側の人物の顔1401は顎のラインが細く小顔な印象に補正され、2つの人物の顔がともに好適に補正される。
 (処理例4)
 また、顔の傾きに基づいた補正強度の調整を行うことで好適な補正が可能となる。図6~7において説明した画像補正処理が、方向に依存しない拡縮率α,βで内側領域および外側領域を等方的に縮小または拡大する構成を採用していたのに対して、例えば、方向に依存する拡縮率α(θ),β(θ)を用いて内側領域および外側領域を非等方的に縮小する構成であってもよい。ここで、θは、補正中心から見た方向を表し、入力画像の右方向においてθ=0、入力画像の上方向においてθ=π/2、入力画像の左方向においてθ=π、入力画像の下方向においてθ=3π/2となる(単位はラジアン)。例えば、左右の目の位置などから顔の向きを推定し、顔の向きに基づいて非等方的な処理を行うことにより、好適な補正を行うことができる。
 図15の(a)は、人物の顔1500を例示する図であり、補正領域(内側領域1510。外側領域は図示せず)が設定されている。図15の(b)は、内側領域1510を等方的に補正した人物の顔1501を例示する図である。図15の(c)は、内側領域1510を非等方的に補正した顔1502を例示する図である。人物の顔1501は、人物の顔1500に対応する内側領域1510を補正中心からの角度に依らず一定の補正強度で補正した顔である。人物の顔1502は、内側領域1510を補正中心からの角度に依って補正強度が異なり、顔の上方向の補正強度は小さく、顔の左右方向と下方向の補正強度は中程度であり、顔の斜め下方向の補正強度が最も大きい。人物の顔1501と人物の顔1502とを比較すると、顔の横幅は等しいが、人物の顔1502の方が、頬から顎のラインがシャープになり、より小顔な印象の画像に補正されている。図15に示すように、顔を縮小する補正を行う場合に、補正中心に対する方向に依って補正強度を変えると、方向に依らず一定の補正強度で補正する場合に比べて、同程度の補正強度であっても印象に違う補正が可能となる。顔の向きは、例えば、検出した左右の目の位置に基づいて算出することができる。
 図16は、傾いた人の顔1601を被写体として含む入力画像1600を例示する図である。顔の傾きθ_fは、入力画像1600のx軸(横軸)と左右の目を結ぶ直線1602との成す角として定義される。左目の位置を(LEFT_x、 LEFT_y)、右目の位置を(RIGHT_x、RIGHT_y)とすると、顔の傾きθ_fは、下記の式(6)に従って算出することができる。
  θ_f=arctan((RIGHT_y-LEFT_y)/
                 (RIGHT_x-LEFT_x))・・・(6)
 次に、補正中心から見た方向に応じた拡縮率α(θ),β(θ)を設定する方法について説明する。
 顔の傾きθ_fを用いると、補正中心から見た方向θ(画像の右方向をθ=0、画像の上方向をθ=π/2、画像の左方向をθ=π、画像の下方向をθ=3π/2とする)と、顔の方向とを対応付けることができる。すなわち、θ=θ_fが顔の右方向、θ=θ_f+π/2の方向が顔の上方向、θ=θ_f+πの方向が顔の左方向、θ=θ_f+3π/2の方向が顔の下方向となる(単位はラジアン)。
 内側領域に対する拡縮率α(θ)は、例えば、これに限定されないが、(1)θ=θ_f(顔の右方向)では、α(θ)=0.95とし、(2)θ=θ_f+π/2(顔の上方向)では、α(θ)=1とし、(3)θ=θ_f+π(顔の左方向)では、α(θ)=0.95とし、(4)θ=θ_f+3π/2では、α(θ)=0.95とすることができる。また、θ=θ_f+5π/4(顔の左下)およびθ=θ_f+7π/4(顔の右下)では、α(θ)=0.9とすることができる。これにより、顔の上方向の補正量が最も小さくなり、顔の横方向および下方向の補正量が中程度となり、顔の斜め下方向の補正量が最も大きくなる。外側領域に対する拡縮率β(θ)は、β(θ)=(d2-α(θ)d1)/(d2-d1)に従って設定すればよい。これにより、外側領域の外側の領域は、拡大も縮小もなされない。
 画像補正部44による補正処理は、第1の実施形態と同様、補正中心からの距離がrであり、補正中心=(c1,c2)から見た方向がθである点P=(rcosθ,rsinθ)+(c1,c2)を、(1)r≦d1であるときには、補正中心からの距離がr’=α(θ)rであり、補正中心から見た方向がθである点P’=(r’cosθ,r’sinθ)+(c1,c2)に写し、(2)d1<r≦d2であるときには、補正中心からの距離がr’=β(θ)r-(β(θ)‐α(θ))d1であり、補正中心から見た方向がθである点P’=(r’cosθ,r’sinθ)+(c1,c2)に写すことによって実現される。各方向に対する拡縮率α(θ),β(θ)が上記のように設定されていれば、図15の(c)に示すように、補正後の顔1502は、頬から顎にかけてのラインが補正前の顔1500よりもシャープになる。
 このように、本処理例において、制御部40の補正処理部は、画像補正処理において、顔(対象領域)に対応する内側領域の中心から特定の方向に向かう縮小または拡大の度合いが、当該顔(対象領域)に対応する内側領域の中心から他の方向に向かう縮小または拡大の度合いよりも大きい。
 図17の(a)は、人物の顔1701と人物の顔1702とが斜めに並んで配置された入力画像1700を例示する図であり、顔1701に対応する第1の補正領域(内側領域1711および外側領域1721)と、顔1702に対応する第2の補正領域(内側領域1712および外側領域1722)とは斜めに並んで配置される。そして、図17の(b)は、第1の補正領域および第2の補正領域に対し、人物の顔を小さく補正する補正を行った出力画像1703を例示する図である。出力画像1703中の人物の顔1704と人物の顔1705はそれぞれ入力画像1700の人物の顔1701と人物の顔1702に対応している。
 人物の顔1704と人物の顔1705とはともに同じ補正強度の画像補正処理により補正されているが、当該画像補正処理は非等方的である。すなわち、顔の下側の補正強度が強く、特に、斜め下方向の補正強度が最も強く設定されている。また、顔の上側の補正強度は弱く、特に、上方向の補正強度が最も弱く設定されている。その結果、図17の(b)に示すように、人物の顔1705において、補正強度の弱い右上部分は、人物の顔1704において補正強度の強い左下部分の補正の影響を強く受け、顔1705の右上が大きく伸びている。
 そこで、本処理例では、制御部40の補正処理部は、補正領域の位置関係とともに、補正の方向依存性も考慮して、補正強度を調整する。詳細には、制御部40の補正処理部は、抑制処理において、一方の顔(第1の対象領域)に対応する第1の補正領域に対して補正強度が大きい方向(前記特定の方向)に、他方の顔(第2の対象領域)に対応する第2の補正領域が並んでいる場合、当該他方の顔(第2の対象領域)に対応する第1の補正領域に対する画像補正処理よりも、当該一方の顔(第1の対象領域)に対応する第2の補正領域に対する画像補正処理における抑制の程度を大きくする(補正強度設定部43が、拡縮率α、βを1に近づける)。
 図18の(a)は、図17の(b)と同じく、抑制処理をせずに、人物の顔を小さく補正する補正を行った出力画像1703を例示する図である。図18の(b)は、本処理例の抑制処理を伴う画像補正処理を行った出力画像1800を例示する図である。図18の(b)に示す出力画像1800は、制御部40の補正処理部が、人物の顔1701に対応する第1の補正領域に対する補正強度を低減し、人物の顔1702に対応する第2の補正領域に対する補正強度は変更せずに補正したものである。人物の顔1801と人物の顔1802とはそれぞれ人物の顔1701と人物の顔1702とに対応している。出力画像1703と出力画像1800を比較すると、人物の顔1802は、人物の顔1705に比べ顔右上部の伸びが低減されており、好適な補正画像が生成されている。
 以上説明したように、本実施形態では、隣接する複数の顔(対象領域)の位置関係に基づいて補正強度を調整することで、不自然な歪みの少ない好適な画像を生成することができる。
 <付記事項>
 本実施形態における「縦方向」、「横方向」は、一態様において、入力画像における縦方向、横方向であり得る。また、一態様において、入力画像に撮像時の方向が関連付けられている場合には、撮影時の鉛直方向が縦方向であり、水平方向が横方向である。また、他の一態様において、本実施形態における「縦方向」、「横方向」は、顔の傾きを考慮し、顔の上下方向を縦方向、顔の左右方向を横方向としてもよい。なお、顔の傾きの検出方法は上述した通りである。
 〔第3の実施形態〕
 本発明の第3の実施形態について、図19に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。第3の実施形態では、抑制処理において、外側領域を狭くする方法について述べる。
 図19の(a)は、人物の顔1901(第1の対象領域)および人物の顔1902(第2の対象領域)を被写体として含む入力画像1900を例示する図である。図19の(b)は、入力画像1900に対し、抑制処理を行わずに、顔1901および顔1902を縮小したときの出力画像1907を例示する図である。出力画像1907における顔1908および顔1909が、入力画像1900における顔1901および顔1902にそれぞれ対応している。図19の(c)は、入力画像1900に対し、本実施形態に係る抑制処理を伴う画像補正処理を行った出力画像1910を例示する図である。出力画像1910における顔1911および顔1912が、入力画像1900における顔1901および顔1902にそれぞれ対応している。
 図19の(a)に、顔1901に対応する内側領域1905および外側領域1903、ならびに、顔1902に対応する内側領域1906および外側領域1904を示す。外側領域1903および外側領域1904は重複している。このような場合、外側領域1903および外側領域1904が重複している領域は、互いの補正が相殺し、ほとんど動かないことなる。そのため、図19の(b)に示すように、動かない領域が相対的に伸びたような印象となる。
 そこで、顔1901に対応する外側領域1903と、顔1902に対応する外側領域1904とが重複する場合に、制御部40の補正処理部は、抑制処理において、顔1901および顔1902の少なくとも一方の外側領域の補正強度を大きくすることにより、当該外側領域の幅を狭くする。例えば、図19の(a)に示すように、補正強度設定部43は、拡縮率βを1から離れるように補正することにより、外側領域1903の幅を、外側領域1903が内側領域1906に接する幅まで狭くし、外側領域1904の幅を、外側領域1904が内側領域1905に接する幅まで狭くする。これにより、図19の(c)に示すように、各顔に、他の顔の外側領域が重ならず、各顔を良好に補正することができる。
 なお、補正強度設定部43が、拡縮率βを1から離れるように補正する際、極端に大きな値または小さな値に補正してしまうと、出力画像において、極端に変形する部位が生じるため不自然となる。そのため、本実施形態において、補正強度設定部43が、拡縮率βを1から離れるように補正する際には、最大補正倍率または最小補正倍率を設定し、所定の範囲で拡縮率βを補正するように制限することが好ましい。
 〔ソフトウェアによる実現例〕
 制御部(画像処理装置)40の制御ブロック(特に被写体検出部41、補正領域設定部42、補正強度設定部43、および画像補正部44)は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、制御部(画像処理装置)40は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る画像処理装置(制御部40)は、画像における1つ以上の補正領域に対する補正処理を行う補正処理部(補正領域設定部42、補正強度設定部43、画像補正部44)を備え、各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、前記補正処理部は、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定する。
 上記の構成によれば、内側領域に対して拡大または縮小する補正を行いつつ、外側領域に対して逆の態様の補正を行うことにより、画像の他の部分への影響を抑えつつ、各内側領域に対して所望の補正を行うことができる。そして、内側領域同士の距離に応じて、一方または両方の内側における補正処理を抑制することにより、任意の対象領域が他の対象領域への補正の影響を受けて過度に変形することを好適に避けることができる。
 本発明の態様2に係る画像処理装置は、上記態様1において、前記補正処理部は、前記第1の補正領域の前記内側領域と、前記第2の補正領域の前記外側領域とが重なる場合、および、前記第2の補正領域の前記内側領域と、前記第1の補正領域の前記外側領域とが重なる場合に、前記抑制処理を行うようになっていてもよい。
 上記の構成によれば、或る補正領域の内側領域に、他の補正領域の内側領域または外側領域が重なったときに、一方または両方の補正領域に対する補正処理を抑制することで、前記或る補正領域の内側領域が、前記他の補正領域に対する補正処理の影響を受けて過度に変形することをより好適に避けることができる。
 本発明の態様3に係る画像処理装置は、上記態様1または2において、前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域のうち、大きい方の補正領域に対する前記補正処理を、小さい方の補正領域に対する前記補正処理よりも抑制するようになっていてもよい。
 上記の構成によれば、大きい方の補正領域に対する補正処理が、小さい方の補正領域(特に内側領域)に及ぼす影響の方が、小さい方の補正領域に対する補正処理が、大きい方の補正領域(特に内側領域)に及ぼす影響よりも大きい。そのため、大きい方の補正領域に対する補正処理をより抑制することで、補正の影響で何れかの対象領域が過度に変形することをより好適に避けることができる。
 本発明の態様4に係る画像処理装置は、上記態様1~3において、前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域の位置関係に応じて、前記第1の補正領域および前記第2の補正領域の各々に対する前記補正処理の抑制の度合いを変化させるようになっていてもよい。
 発明者らの独自の知見によれば、二つの補正領域の位置関係によって、補正に起因する変形が与える印象が変化する。上記の構成によれば、二つの補正領域の位置関係によって、補正を抑制する度合いを変化させることにより、補正に起因する変形によって不自然な印象を与えることを好適に避けることができる。
 本発明の態様5に係る画像処理装置は、上記態様4において、前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域が横方向に並んでいる場合、縦方向に並んでいる場合よりも、前記第1の補正領域および前記第2の補正領域の各々に対する前記補正処理の抑制の度合いを大きくするようになっていてもよい。
 補正領域が上下方向に僅かに変形したとしても、左右対称性は変化しないため、違和感を与えないことが多い。一方、補正領域が左右方向に変形すると、左右対称性が変化するため、不自然な印象を与えることが多い。上記の構成によれば、補正領域に対して左右方向への変形を引き起こす横並びの状態において、補正領域に対して上下方向への変形を引き起こす縦並びの状態に比べて抑制の度合いを大きくすることで、不自然な印象を与えることを好適に避けることができる。
 本発明の態様6に係る画像処理装置は、上記態様4または5において、前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域が縦方向に並んでいる場合、下側に位置する補正領域に対する前記補正処理よりも、上側に位置する補正領域に対する前記補正処理の抑制の度合いを大きくするようになっていてもよい。
 発明者らの独自の知見によれば、上側の補正領域に対する補正処理に起因する下側の補正領域(特に内側領域)の変形が与える不自然な印象の方が、下側の補正領域に対する補正処理に起因する上側の補正領域(特に内側領域)の変形が与える不自然な印象よりも大きい。上記構成によれば、上側の補正領域に対する補正処理を、下側の補正領域に対する補正処理よりも大きく抑制することで、不自然な印象を与えることを好適に避けることができる。
 本発明の態様7に係る画像処理装置は、上記態様4~6において、前記補正処理部は、前記補正処理において、前記補正領域の中心から特定の方向に向かう縮小または拡大の度合いが、前記補正領域の中心から他の方向に向かう縮小または拡大の度合いよりも大きく、前記抑制処理において、前記第1の補正領域に対して前記特定の方向に、前記第2の補正領域が並んでいる場合、前記第2の補正領域に対する前記補正処理よりも、前記第1の補正領域に対する前記補正処理の抑制の度合いを大きくするようになっていてもよい。
 上記の構成によれば、対象領域の中心から特定の方向に向かう縮小または拡大の度合いが大きいため、第1の対象領域に対して前記特定の方向に並んでいる第2の対象領域へ大きな影響がある。そのため、第1の対象領域への補正を、第2の対象領域への補正よりも大きく抑制することで、不自然な印象を与えることを好適に避けることができる。
 本発明の態様8に係る画像処理装置は、上記態様1~7において、前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域の少なくとも一方の前記外側領域の幅を狭くするようになっていてもよい。
 上記の構成によれば、一方の補正領域の外側領域を狭くすることで、当該一方の補正領域に対する補正処理が、他方の補正領域(特に内側領域)に与える影響を小さくすることができる。
 本発明の態様9に係る撮像装置2は、撮像部10と、前記撮像部10が撮像した前記画像を補正する、上記態様1~8の何れか一態様に係る画像処理装置と、を備えている。
 上記の構成によれば、ユーザは、人物の顔等を撮像し、撮像した画像に対し画像処理を好適に施すことができる。
 本発明の態様10に係る画像印刷装置1は、上記態様1~8の何れか一態様に係る画像処理装置と、前記画像処理装置が補正した前記画像を印刷する印刷部50と、を備えている。
 上記の構成によれば、ユーザは、画像処理が施された画像を容易に印刷することができる。
 本発明の態様11に係る画像印刷装置1は、撮像部10と、前記撮像部10が撮像した前記画像に対して画像処理を行う、上記態様1~8の何れか一態様に係る画像処理装置と、前記画像処理装置が補正した前記画像を印刷する印刷部50と、を備えている。
 上記の構成によれば、ユーザは、撮像した画像に対し画像処理が施された画像を容易に印刷することができる。
 本発明の態様12に係る画像処理装置の制御方法は、画像における1つ以上の補正領域に対する補正処理を行う補正処理工程を含み、各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、前記補正処理工程では、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定する。
 上記の構成によれば、本発明の一態様に係る画像処理装置と同等の効果を奏する。
 さらに、本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記画像処理装置が備える各部(ソフトウェア要素)として動作させることにより前記画像処理装置をコンピュータにて実現させる画像処理装置の画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 〔付記事項〕
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 (関連出願の相互参照)
 本出願は、2017年4月21日に出願された日本国特許出願:特願2017-084787に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
  1  画像印刷装置
  2  撮像装置
 10  撮像部
 40  制御部(画像処理装置)
 41  被写体検出部(対象領域検出部)
 42  補正領域設定部(補正処理部)
 43  補正強度設定部(補正処理部)
 44  画像補正部(補正処理部)
 50  印刷部

Claims (13)

  1.  画像における1つ以上の補正領域に対する補正処理を行う補正処理部を備え、
     各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、
     前記補正処理部は、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定することを特徴とする画像処理装置。
  2.  前記補正処理部は、前記第1の補正領域の前記内側領域と、前記第2の補正領域の前記外側領域とが重なる場合、および、前記第2の補正領域の前記内側領域と、前記第1の補正領域の前記外側領域とが重なる場合に、前記抑制処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3.  前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域のうち、大きい方の補正領域に対する前記補正処理を、小さい方の補正領域に対する前記補正処理よりも抑制することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域の位置関係に応じて、前記第1の補正領域および前記第2の補正領域の各々に対する前記補正処理の抑制の度合いを変化させることを特徴とする請求項1~3の何れか一項に記載の画像処理装置。
  5.  前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域が横方向に並んでいる場合、縦方向に並んでいる場合よりも、前記第1の補正領域および前記第2の補正領域の各々に対する前記補正処理の抑制の度合いを大きくすることを特徴とする請求項4に記載の画像処理装置。
  6.  前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域が縦方向に並んでいる場合、下側に位置する補正領域に対する前記補正処理よりも、上側に位置する補正領域に対する前記補正処理の抑制の度合いを大きくすることを特徴とする請求項4または5に記載の画像処理装置。
  7.  前記補正処理部は、
      前記補正処理において、前記補正領域の中心から特定の方向に向かう縮小または拡大の度合いが、前記補正領域の中心から他の方向に向かう縮小または拡大の度合いよりも大きく、
      前記抑制処理において、前記第1の補正領域に対して前記特定の方向に、前記第2の補正領域が並んでいる場合、前記第2の補正領域に対する前記補正処理よりも、前記第1の補正領域に対する前記補正処理の抑制の度合いを大きくすることを特徴とする請求項4~6の何れか一項に記載の画像処理装置。
  8.  前記補正処理部は、前記抑制処理において、前記第1の補正領域および前記第2の補正領域の少なくとも一方の前記外側領域の幅を狭くすることを特徴とする請求項1~7の何れか一項に記載の画像処理装置。
  9.  撮像部と、
     前記撮像部が撮像した前記画像を補正する、請求項1~8の何れか1項に記載の画像処理装置と、を備えていることを特徴とする撮像装置。
  10.  請求項1~8の何れか1項に記載の画像処理装置と、
     前記画像処理装置が補正した前記画像を印刷する印刷部と、を備えていることを特徴とする画像印刷装置。
  11.  撮像部と、
     前記撮像部が撮像した前記画像に対して画像処理を行う、請求項1~8の何れか1項に記載の画像処理装置と、
     前記画像処理装置が補正した前記画像を印刷する印刷部と、を備えていることを特徴とする画像印刷装置。
  12.  画像における1つ以上の補正領域に対する補正処理を行う補正処理工程を含み、
     各補正領域は、内側領域と、当該内側領域の外側の外側領域とを含み、前記補正処理では、当該内側領域が縮小され、かつ、当該外側領域が拡大されるか、または、当該内側領域が拡大され、かつ、当該外側領域が縮小され、
     前記補正処理工程では、第1の補正領域および第2の補正領域に対して前記補正処理をそれぞれ行う場合、当該第1の補正領域および当該第2の補正領域の少なくとも一方に対する前記補正処理を抑制する抑制処理を行うか否かを、当該第1の補正領域の前記内側領域と当該第2の補正領域の前記内側領域との間の距離に応じて決定することを特徴とする画像処理装置の制御方法。
  13.  請求項1~8の何れか一項に記載の画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、上記補正処理部としてコンピュータを機能させるための画像処理プログラム。
PCT/JP2018/001418 2017-04-21 2018-01-18 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム WO2018193677A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880026341.2A CN110603565A (zh) 2017-04-21 2018-01-18 图像处理装置、拍摄装置、图像打印装置、图像处理装置的控制方法以及图像处理程序
JP2019513228A JP6905588B2 (ja) 2017-04-21 2018-01-18 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム
US16/607,036 US11069039B2 (en) 2017-04-21 2018-01-18 Image processing apparatus, imaging apparatus, image printing apparatus, method for controlling image processing apparatus, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017084787 2017-04-21
JP2017-084787 2017-04-21

Publications (1)

Publication Number Publication Date
WO2018193677A1 true WO2018193677A1 (ja) 2018-10-25

Family

ID=63855723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/001418 WO2018193677A1 (ja) 2017-04-21 2018-01-18 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム

Country Status (4)

Country Link
US (1) US11069039B2 (ja)
JP (1) JP6905588B2 (ja)
CN (1) CN110603565A (ja)
WO (1) WO2018193677A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123413A1 (ja) * 2016-12-27 2018-07-05 シャープ株式会社 画像処理装置、画像印刷装置、撮像装置、および画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242921A (ja) * 2007-03-28 2008-10-09 Seiko Epson Corp 画像処理装置および画像処理方法
JP2009151825A (ja) * 2009-04-02 2009-07-09 Seiko Epson Corp 画像処理装置および画像処理方法
JP2010166624A (ja) * 2010-04-30 2010-07-29 Seiko Epson Corp 画像処理装置および画像処理方法
JP2010170219A (ja) * 2009-01-20 2010-08-05 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053914A (ja) * 2007-08-27 2009-03-12 Seiko Epson Corp 画像処理装置および画像処理方法
JP2009194721A (ja) * 2008-02-15 2009-08-27 Fujitsu Microelectronics Ltd 画像信号処理装置、画像信号処理方法、及び撮像装置
JP5115398B2 (ja) * 2008-08-27 2013-01-09 セイコーエプソン株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2012003576A (ja) * 2010-06-18 2012-01-05 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP5662511B2 (ja) * 2013-04-10 2015-01-28 シャープ株式会社 撮像装置
JP6731073B2 (ja) * 2016-12-27 2020-07-29 シャープ株式会社 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008242921A (ja) * 2007-03-28 2008-10-09 Seiko Epson Corp 画像処理装置および画像処理方法
JP2010170219A (ja) * 2009-01-20 2010-08-05 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置
JP2009151825A (ja) * 2009-04-02 2009-07-09 Seiko Epson Corp 画像処理装置および画像処理方法
JP2010166624A (ja) * 2010-04-30 2010-07-29 Seiko Epson Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US11069039B2 (en) 2021-07-20
US20200051221A1 (en) 2020-02-13
JP6905588B2 (ja) 2021-07-21
JPWO2018193677A1 (ja) 2020-03-26
CN110603565A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
US8472751B2 (en) Image processing device, image processing method, and image processing program
US8224117B2 (en) Image processing device, image processing method, and image processing program
US11238569B2 (en) Image processing method and apparatus, image device, and storage medium
US8249312B2 (en) Image processing device and image processing method
JP2009237619A (ja) 画像における顔領域および器官領域の検出
US20080240615A1 (en) Image processing for image deformation
US20210298595A1 (en) Method and system for detecting blepharoptosis
JP2009031870A (ja) 被写体距離推定のための画像処理
US10812678B2 (en) Image processing device, imaging apparatus, image printing apparatus, control method of image processing device, and image processing program for performing correction processing on image
US8031915B2 (en) Image processing device and image processing method
US10902561B2 (en) Image processing apparatus, image processing method, and recording medium
WO2018193677A1 (ja) 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム
JP6846440B2 (ja) 画像処理装置、画像印刷装置、撮像装置、および画像処理プログラム
JP2010086379A (ja) 画像処理装置、画像処理方法、及びプログラム
US8285065B2 (en) Image processing apparatus, image processing method, and computer program product for image processing
JP6889774B2 (ja) 画像処理装置、撮像装置、画像印刷装置、画像処理装置の制御方法、および画像処理プログラム
JP2009251634A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6376673B2 (ja) 画像処理装置
JP4816540B2 (ja) 画像処理装置および画像処理方法
JP2009193357A (ja) 輪郭検出方法、輪郭検出装置および輪郭検出プログラム
JP2009223566A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2009237620A (ja) 画像における顔領域および器官領域の検出

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18788073

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019513228

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18788073

Country of ref document: EP

Kind code of ref document: A1