JP2012085083A - Image processing apparatus, image pickup device, and image processing program - Google Patents

Image processing apparatus, image pickup device, and image processing program Download PDF

Info

Publication number
JP2012085083A
JP2012085083A JP2010229289A JP2010229289A JP2012085083A JP 2012085083 A JP2012085083 A JP 2012085083A JP 2010229289 A JP2010229289 A JP 2010229289A JP 2010229289 A JP2010229289 A JP 2010229289A JP 2012085083 A JP2012085083 A JP 2012085083A
Authority
JP
Japan
Prior art keywords
image
face
image processing
processing apparatus
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010229289A
Other languages
Japanese (ja)
Inventor
Jun Kodama
潤 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Systems Inc
Original Assignee
Nikon Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Systems Inc filed Critical Nikon Systems Inc
Priority to JP2010229289A priority Critical patent/JP2012085083A/en
Publication of JP2012085083A publication Critical patent/JP2012085083A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus having a technology for detecting a desired face portion in an accurate and easy manner irrespective of the effect of an exposure condition or white balance processing.SOLUTION: An image processing apparatus includes: a face detection part that recognizes a face of an object from an object image having multiple color components and detects the face image; an extraction part that extracts the face portion of a processing object based on information about the multiple color components included in the face image; and a color correction part that corrects the color component value of an area corresponding to the face portion in the object image.

Description

本発明は、画像処理装置、撮像装置および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

従来、デジタルカメラなどによって撮像された画像において、被写体である人物の見栄えをよくするために、様々な技術が開発されている。例えば、顔画像から歯の画像領域とともに白目の画像領域を検出し、歯の画像領域の彩度を補正する補正パラメータを、白目の画像領域の彩度に基づき計算し、顔画像の中で違和感を生じないように歯の画像領域の色を補正する技術がある(特許文献1など参照)。   Conventionally, various techniques have been developed to improve the appearance of a person who is a subject in an image captured by a digital camera or the like. For example, a white image region is detected together with a tooth image region from a face image, and a correction parameter for correcting the saturation of the tooth image region is calculated based on the saturation of the white image region. There is a technique for correcting the color of the image area of the tooth so as not to cause (see Patent Document 1).

特開2008−160474号公報JP 2008-160474 A

ところで、従来技術では、画像の輝度、彩度、色相のいずれかによって生成されるエッジ画像に基づいて、顔画像から歯や白目などの顔部位の画像領域を検出する。しかしながら、生成されるエッジ画像は、撮像時の露出条件やホワイトバランス処理の設定に大きく影響を受けるため、所望の顔部位を精度よく検出できない場合がある。   By the way, in the conventional technique, an image region of a facial part such as a tooth or a white eye is detected from a face image based on an edge image generated by any one of luminance, saturation, and hue of the image. However, since the generated edge image is greatly influenced by the exposure condition at the time of imaging and the setting of white balance processing, a desired face part may not be detected accurately.

上記従来技術が有する問題を鑑み、本発明の目的は、露出条件やホワイトバランス処理の影響に関わらず、所望の顔部位を確度高く容易に検出できる技術を提供することにある。   In view of the above-described problems of the related art, an object of the present invention is to provide a technique that can easily detect a desired face part with high accuracy regardless of the influence of exposure conditions and white balance processing.

上記課題を解決するために、本発明の画像処理装置は、複数の色成分を有する対象画像から被写体の顔を認識し、顔画像を検出する顔検出部と、顔画像に含まれる複数の色成分の情報に基づいて、処理対象の顔部位を抽出する抽出部と、対象画像のうち、顔部位に対応する領域の色成分の値を補正する色補正部と、を備える。   In order to solve the above problems, an image processing apparatus of the present invention recognizes a face of a subject from a target image having a plurality of color components and detects a face image, and a plurality of colors included in the face image. An extraction unit that extracts a facial part to be processed based on component information, and a color correction unit that corrects a value of a color component in a region corresponding to the facial part in the target image.

また、抽出部は、色相および彩度の情報に基づいて、顔部位を抽出してもよい。   The extraction unit may extract a facial part based on information on hue and saturation.

また、抽出部は、顔部位が歯である場合、色相に基づいて歯を含む唇の画像領域を抽出し、唇の画像領域のうち、彩度が多変量解析に基づいて算出されるしきい値以下となる画像領域を歯の画像領域として抽出してもよい。   Further, when the facial part is a tooth, the extraction unit extracts a lip image region including the tooth based on the hue, and the saturation is calculated based on multivariate analysis among the lip image region. An image area that is less than or equal to the value may be extracted as a tooth image area.

また、抽出部は、輝度および彩度の情報に基づいて、顔部位を抽出してもよい。   The extraction unit may extract a facial part based on information on luminance and saturation.

また、抽出部は、顔部位が白目である場合、輝度と動的に変化する第1のしきい値との比較に基づいて白目を含む目の画像領域を抽出し、目の画像領域のうち、彩度が多変量解析に基づいて算出される第2のしきい値以下となる画像領域を白目の画像領域として抽出してもよい。   In addition, when the facial part is a white eye, the extraction unit extracts an image region of the eye including the white eye based on a comparison between the luminance and the first threshold value that dynamically changes. Alternatively, an image area whose saturation is equal to or less than the second threshold value calculated based on multivariate analysis may be extracted as an image area for white eyes.

また、色補正部は、輝度および彩度の情報に基づいて、顔部位に対応する領域の色成分の値を補正してもよい。   Further, the color correction unit may correct the value of the color component in the region corresponding to the face part based on the information on the luminance and the saturation.

本発明の撮像装置は、被写体を撮像して複数の色成分を有する対象画像を取得する撮像部と、本発明の画像処理装置と、を備える。   An imaging apparatus of the present invention includes an imaging unit that captures a subject and acquires a target image having a plurality of color components, and the image processing apparatus of the present invention.

本発明の画像処理プログラムは、複数の色成分を有する対象画像を読み込む入力手順、対象画像から被写体の顔を認識し、顔画像を検出する顔検出手順、顔画像に含まれる複数の色成分の情報に基づいて、処理対象の顔部位を抽出する抽出手順、対象画像のうち、顔部位に対応する領域の色成分の値を補正する色補正手順、をコンピュータに実行させる。   An image processing program of the present invention includes an input procedure for reading a target image having a plurality of color components, a face detection procedure for recognizing a face of a subject from the target image and detecting a face image, and a plurality of color components included in the face image. Based on the information, the computer is caused to execute an extraction procedure for extracting the face part to be processed and a color correction procedure for correcting the value of the color component of the region corresponding to the face part in the target image.

本発明によれば、露出条件やホワイトバランス処理の影響に関わらず、所望の顔部位を確度高く容易に検出できる。   According to the present invention, a desired face part can be easily detected with high accuracy regardless of the influence of exposure conditions and white balance processing.

本発明の実施形態に係るデジタルカメラ1の構成の一例を示すブロック図1 is a block diagram illustrating an example of a configuration of a digital camera 1 according to an embodiment of the present invention. デジタルカメラ1による処理動作を示すフローチャートThe flowchart which shows the processing operation by the digital camera 1 デジタルカメラ1により撮像された対象画像30の一例を示す図The figure which shows an example of the target image 30 imaged with the digital camera 1. 口部分を含む切り出した部分画像40に対する処理結果を示す図The figure which shows the process result with respect to the partial image 40 cut out including a mouth part 左目を含む切り出した部分画像70に対する処理結果を示す図The figure which shows the process result with respect to the partial image 70 cut out including the left eye

以下、図面を用いて本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態に係るデジタルカメラ1の構成の一例を示すブロック図である。   FIG. 1 is a block diagram illustrating an example of a configuration of a digital camera 1 according to the present embodiment.

本実施形態のデジタルカメラ1は、撮像光学系11、撮像素子12、DFE13、CPU14、メモリ15、操作部16、モニタ17、メディアI/F18を有する。ここで、DFE13、メモリ15、操作部16、モニタ17、メディアI/F18は、それぞれCPU14に接続されている。   The digital camera 1 according to the present embodiment includes an imaging optical system 11, an imaging element 12, a DFE 13, a CPU 14, a memory 15, an operation unit 16, a monitor 17, and a media I / F 18. Here, the DFE 13, the memory 15, the operation unit 16, the monitor 17, and the media I / F 18 are each connected to the CPU 14.

撮像素子12は、撮像光学系11を通過した光束によって結像される被写体像を撮像するデバイスである。この撮像素子12の出力はDFE13に接続されている。なお、本実施形態の撮像素子12は、順次走査方式の固体撮像素子(CCDなど)であってもよく、XYアドレス方式の固体撮像素子(CMOSなど)であってもよい。   The image sensor 12 is a device that captures a subject image formed by a light beam that has passed through the imaging optical system 11. The output of the image sensor 12 is connected to the DFE 13. Note that the image sensor 12 of the present embodiment may be a progressive scanning solid-state image sensor (CCD or the like) or an XY address type solid-state image sensor (CMOS or the like).

撮像素子12の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子12の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子12の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。これにより、撮像素子12は、撮像時にカラーの画像を取得できる。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the imaging element 12. In each light receiving element of the image sensor 12, red (R), green (G), and blue (B) color filters are arranged according to a known Bayer array. Therefore, each light receiving element of the imaging element 12 outputs an image signal corresponding to each color by color separation in the color filter. Thereby, the image sensor 12 can acquire a color image at the time of imaging.

DFE13は、撮像素子12から入力される画像信号のA/D変換や、欠陥画素補正などの信号処理を行うデジタルフロントエンド回路である。このDFE13は、本実施形態において撮像素子12とともに撮像部を構成し、撮像素子12より入力される画像信号を画像のデータとしてCPU14に出力する。   The DFE 13 is a digital front-end circuit that performs signal processing such as A / D conversion of image signals input from the image sensor 12 and correction of defective pixels. In this embodiment, the DFE 13 constitutes an image pickup unit together with the image pickup device 12 and outputs an image signal input from the image pickup device 12 to the CPU 14 as image data.

CPU14は、デジタルカメラ1の各部を統括的に制御するプロセッサである。例えば、CPU14は、メモリ15から制御プログラムを読み込んで実行し、撮像素子12の出力に基づいて、公知のコントラスト検出によるオートフォーカス(AF)制御や公知の自動露出(AE)演算などをそれぞれ行う。また、CPU14は、画像処理プログラムに基づいて、DEF13からの画像データに対して、デジタル処理などの画像処理を施す。一例として、デジタル処理には、補間処理、ホワイトバランス処理、階調変換処理、輪郭強調処理、色変換処理などが含まれる。さらに、本実施形態のCPU14は、画像処理プログラムの実行により、顔検出部20、画像抽出部21、顔部位抽出部22、色補正部23として動作する。   The CPU 14 is a processor that comprehensively controls each unit of the digital camera 1. For example, the CPU 14 reads and executes a control program from the memory 15, and performs autofocus (AF) control by known contrast detection, known automatic exposure (AE) calculation, and the like based on the output of the image sensor 12. Further, the CPU 14 performs image processing such as digital processing on the image data from the DEF 13 based on the image processing program. As an example, digital processing includes interpolation processing, white balance processing, gradation conversion processing, contour enhancement processing, color conversion processing, and the like. Furthermore, the CPU 14 of this embodiment operates as a face detection unit 20, an image extraction unit 21, a face part extraction unit 22, and a color correction unit 23 by executing the image processing program.

顔検出部20は、撮像された画像(対象画像)に対してエッジ検出するなどの公知の顔認識法を用い、対象画像中の被写体の顔を認識し、顔画像を検出する。   The face detection unit 20 recognizes the face of the subject in the target image by using a known face recognition method such as edge detection for the captured image (target image), and detects the face image.

画像抽出部21は、顔検出部20によって検出された顔画像に対して、顔認識の場合と同様にエッジ検出を行うことにより、処理対象の顔部位を認識しその部位を含んだ部分画像を切り出す。   The image extraction unit 21 performs edge detection on the face image detected by the face detection unit 20 as in the case of face recognition, thereby recognizing the face part to be processed and displaying a partial image including the part. cut.

顔部位抽出部22は、画像抽出部21によって切り出された部分画像の色成分R、G、Bの画素値から輝度、色相、彩度の情報を算出し、その情報に基づいて、処理対象の顔部位の画像領域を抽出する。本実施形態では、処理対象の顔部位として、歯および白目であるとし、顔部位抽出部22は、歯の画像領域を抽出する場合、色相および彩度の情報を用いて画像領域の抽出を行い、白目の画像領域を抽出する場合、輝度および彩度の情報を用いて画像領域の抽出を行う。なお、本実施形態の顔部位抽出部22は、画像抽出部21とともに抽出部として動作する。また、色成分R、G、Bの画素値から輝度、色相、彩度の情報の算出方法は、公知のHSV変換などの変換方法を用いるものとする。   The face part extraction unit 22 calculates information on luminance, hue, and saturation from the pixel values of the color components R, G, and B of the partial image cut out by the image extraction unit 21, and based on the information, An image region of the facial part is extracted. In this embodiment, it is assumed that teeth and white eyes are used as face parts to be processed, and the face part extraction unit 22 extracts image areas using information on hue and saturation when extracting tooth image areas. When extracting an image area of a white eye, the image area is extracted using information on luminance and saturation. Note that the face part extraction unit 22 of this embodiment operates as an extraction unit together with the image extraction unit 21. In addition, as a method of calculating luminance, hue, and saturation information from the pixel values of the color components R, G, and B, a known conversion method such as HSV conversion is used.

色補正部23は、処理対象の顔部位を所望の色(例えば、歯や白目の場合には本来有する白色)にするために、顔部位抽出部22によって抽出された処理対象の顔部位の画像領域の情報に基づいて、対象画像において対応する領域の各色成分の画素値を補正する。   The color correction unit 23 is an image of the face part to be processed extracted by the face part extraction unit 22 in order to make the face part to be processed a desired color (for example, in the case of teeth or white eyes). Based on the region information, the pixel value of each color component in the corresponding region in the target image is corrected.

メモリ15は、撮像した画像とともに、CPU14によって実行される画像処理プログラムなどの各種プログラムを記憶する不揮発性のフラッシュメモリである。   The memory 15 is a non-volatile flash memory that stores a captured image and various programs such as an image processing program executed by the CPU 14.

操作部16は、例えば、撮像モードの切換設定の入力や、静止画像や動画の撮像指示などをユーザから受け付ける。また、本実施形態の操作部16は、色補正処理を行う顔部位の設定指示もユーザから受け付ける。   For example, the operation unit 16 receives an input of an imaging mode switching setting, an instruction to capture a still image or a moving image, and the like from the user. In addition, the operation unit 16 according to the present embodiment also receives from the user an instruction to set a facial part for performing color correction processing.

モニタ17は、液晶モニタ等のモニタであり、CPU14の制御指示によって各種画像を表示する。例えば、本実施形態の画像処理後、CPU14の制御指示に基づいて、モニタ17は、画像処理された画像を表示する。   The monitor 17 is a monitor such as a liquid crystal monitor and displays various images according to control instructions from the CPU 14. For example, after the image processing of the present embodiment, the monitor 17 displays the image that has been subjected to the image processing based on a control instruction from the CPU 14.

メディアI/F18には、不揮発性の記憶媒体19を着脱可能に接続できる。そして、メディアI/F18は、記憶媒体19に対してデータの書き込み/読み込みを実行する。上記の記憶媒体19は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体19の一例としてメモリカードを図示する。   A non-volatile storage medium 19 can be detachably connected to the media I / F 18. The media I / F 18 executes data writing / reading with respect to the storage medium 19. The storage medium 19 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 19.

次に、図2のフローチャートを参照しつつ、本実施形態に係るデジタルカメラ1による処理動作について説明する。   Next, processing operations by the digital camera 1 according to the present embodiment will be described with reference to the flowchart of FIG.

なお、上述したように、本実施形態では、色補正する処理対象の顔部位は、歯と白目とであるとし、それらの顔部位を白く色補正するものとする。また、本実施形態に係るデジタルカメラ1は、左右の目の白目の画像領域をそれぞれ抽出して色補正するものとする。以下において、左目の白目の場合の画像処理について説明するが、右目の場合についても同様である。また、本実施形態に係るデジタルカメラ1は、操作部16を介して、ユーザより色補正する顔部位として歯および白目とする設定指示を、予め受け付け保持しているものとする。   Note that, as described above, in this embodiment, it is assumed that face parts to be color-corrected are teeth and white eyes, and those face parts are color-corrected white. In addition, the digital camera 1 according to the present embodiment extracts the white image areas of the left and right eyes and corrects the colors. In the following, image processing for the white eye of the left eye will be described, but the same applies to the case of the right eye. In addition, the digital camera 1 according to the present embodiment receives and holds in advance setting instructions for setting teeth and white eyes as face parts for color correction from the user via the operation unit 16.

CPU14は、ユーザから被写体の撮像指示(例えば、操作部16に含まれるレリーズ釦の全押し操作など)を受け付けると、撮像素子12に被写体の撮像を行う。CPU14は、DEF13を介して、撮像素子12から出力された画像信号を取得し、補間処理、ホワイトバランス処理、階調変換処理、輪郭強調処理、色変換処理などのデジタル処理を施す。これにより、各画素にR、G、Bそれぞれの色成分の画素値を有する対象画像30が生成される。図3は、対象画像30の一例を示す。CPU14は、対象画像30に対して、ステップS101〜ステップS109までの処理を行う。   When the CPU 14 receives an imaging instruction of a subject (for example, a full press operation of a release button included in the operation unit 16) from the user, the CPU 14 captures an image of the subject on the imaging device 12. The CPU 14 acquires the image signal output from the image sensor 12 via the DEF 13 and performs digital processing such as interpolation processing, white balance processing, gradation conversion processing, contour enhancement processing, and color conversion processing. Thereby, the target image 30 having pixel values of R, G, and B color components for each pixel is generated. FIG. 3 shows an example of the target image 30. The CPU 14 performs processes from step S101 to step S109 on the target image 30.

ステップS101:CPU14の顔検出部20は、公知の顔認識法を用い、対象画像30における被写体の顔を認識し、図3に示す顔画像31を検出する。CPU14は、不図示の内部メモリに、検出した顔画像31を保持する。或いは、CPU14は、内部メモリ(不図示)に、顔画像31に関する情報(画像の大きさや画素位置など)を保持してもよい。   Step S101: The face detection unit 20 of the CPU 14 recognizes the face of the subject in the target image 30 using a known face recognition method, and detects the face image 31 shown in FIG. The CPU 14 holds the detected face image 31 in an internal memory (not shown). Or CPU14 may hold | maintain the information regarding the face image 31 (an image size, a pixel position, etc.) in an internal memory (not shown).

ステップS102:CPU14の画像抽出部21は、歯の色補正を行うために、ステップS101で検出された顔画像31に対して、エッジ検出を行う。画像抽出部21は、検出したエッジ量に基づいて歯を含む口部分を認識し、その口部分を含む部分画像40を切り出す。CPU14は、内部メモリ(不図示)に、切り出した部分画像40を保持する。図4(a)は、切り出した部分画像40の一例を示す。   Step S102: The image extraction unit 21 of the CPU 14 performs edge detection on the face image 31 detected in step S101 in order to perform tooth color correction. The image extraction unit 21 recognizes the mouth portion including the teeth based on the detected edge amount, and cuts out the partial image 40 including the mouth portion. The CPU 14 holds the cut partial image 40 in an internal memory (not shown). FIG. 4A shows an example of the cut out partial image 40.

なお、切り出される部分画像40の大きさは、対象画像30における水平および垂直走査方向それぞれの口部分の大きさの30%増しなど、CPU14の処理能力や口の大きさに応じて決定されるのが好ましい。   Note that the size of the cut-out partial image 40 is determined according to the processing capability of the CPU 14 and the size of the mouth, such as 30% increase in the size of the mouth portion in the horizontal and vertical scanning directions in the target image 30. Is preferred.

ステップS103:CPU14の顔部位抽出部22は、ステップS102で切り出された部分画像40から、歯を含む唇の画像領域を抽出する。そのために、顔部位抽出部22は、公知の変換方法を用いて、図4(a)の部分画像40の各画素のR、G、Bの画素値から色相の値を算出し、部分画像40の色相画像を生成する。顔部位抽出部22は、生成した色相画像のうち、唇の色を示す赤色系の色相(例えば、290°〜400°(=290°〜360°,0°〜40°))を有する画素を抽出する。   Step S103: The face part extracting unit 22 of the CPU 14 extracts a lip image area including teeth from the partial image 40 cut out in step S102. For this purpose, the face part extraction unit 22 calculates a hue value from the R, G, and B pixel values of each pixel of the partial image 40 in FIG. The hue image of is generated. The face part extraction unit 22 includes pixels having a red hue (for example, 290 ° to 400 ° (= 290 ° to 360 °, 0 ° to 40 °)) indicating the color of the lips in the generated hue image. Extract.

なお、上記290°〜400°の色相には唇だけでなく肌などの部分も含まれる。そこで、本実施形態の顔部位抽出部22は、抽出した画素の画素値に対して、多変量解析、例えば、判別分析法を適用し、クラス間分散の分散比が最大になる値を求める。顔部位抽出部22は、その最大になる値をしきい値と設定して、そのしきい値以下の階調値を有する画素を唇画像の画素として抽出する。これにより、肌などの部分を除いた唇画像のみを抽出することができる。図4(b)は、顔部位抽出部22によって抽出された唇画像を白い領域として示す、部分画像40の二値化画像50である。   The hue of 290 ° to 400 ° includes not only the lips but also the skin. Therefore, the face part extraction unit 22 of the present embodiment applies a multivariate analysis, for example, a discriminant analysis method, to the pixel value of the extracted pixel to obtain a value that maximizes the variance ratio of the interclass variance. The face part extraction unit 22 sets the maximum value as a threshold value, and extracts pixels having gradation values equal to or lower than the threshold value as pixels of the lip image. Thereby, it is possible to extract only the lip image excluding a part such as skin. FIG. 4B is a binarized image 50 of the partial image 40 showing the lip image extracted by the face part extracting unit 22 as a white region.

さらに、顔部位抽出部22は、二値化画像50の唇画像に対して公知の凸包やSnake法などを適用し、歯の画像領域を含む唇の画像領域を抽出する。図4(c)は、凸包によって抽出した唇の画像領域を白い領域として示す、二値化画像51である。   Further, the face part extraction unit 22 applies a known convex hull or Snake method to the lip image of the binarized image 50 to extract a lip image area including a tooth image area. FIG. 4C is a binarized image 51 showing the image area of the lips extracted by the convex hull as a white area.

なお、本実施形態では、赤色系の色相として290°〜400°としたが、露出条件やホワイトバランス処理などに応じて設定することが好ましい。また、顔部位抽出部22は、しきい値以下の階調値を有する画素を唇画像として抽出する際に、単独に存在する画素や所定の面積以下の画像領域の画素を、ノイズとして除去するようにしてもよい。例えば、その所定の面積とは、部分画像40の画素数の2%など、対象画像30や部分画像40の大きさ、CPU14の処理能力などに応じて決定することが好ましい。   In the present embodiment, the red hue is set to 290 ° to 400 °. However, it is preferably set according to the exposure condition, white balance processing, and the like. Further, when extracting a pixel having a gradation value equal to or smaller than a threshold value as a lip image, the face part extracting unit 22 removes a pixel that exists independently or an image region that is equal to or smaller than a predetermined area as noise. You may do it. For example, the predetermined area is preferably determined according to the size of the target image 30 or the partial image 40, the processing capability of the CPU 14, or the like, such as 2% of the number of pixels of the partial image 40.

ステップS104:顔部位抽出部22は、ステップS102で切り出された部分画像40と、ステップS103で取得した二値化画像51とを用いて、歯の画像領域を抽出する。そのために、顔部位抽出部22は、色相の場合と同様に、公知の変換方法を用い、部分画像40から彩度画像60を生成する(図4(d))。図4(d)に示すように、彩度画像60において、歯や唇上のハイライト部分などの画素の彩度は低くなる(黒色部分)。   Step S104: The face part extraction unit 22 extracts a tooth image region using the partial image 40 cut out in step S102 and the binarized image 51 acquired in step S103. For this purpose, the face part extraction unit 22 generates a saturation image 60 from the partial image 40 using a known conversion method as in the case of hue (FIG. 4D). As shown in FIG. 4D, in the saturation image 60, the saturation of pixels such as highlight portions on the teeth and lips is lowered (black portion).

顔部位抽出部22は、二値化画像51の唇の画像領域に対応する彩度画像60の画素の彩度に対して、例えば、判別分析法を適用し、クラス間分散の分散比が最大になる値を求める。顔部位抽出部22は、その最大になる値をしきい値とし、そのしきい値以下の彩度を有する画素を歯の画像領域の画素として抽出する。図4(e)は、顔部位抽出部22によって抽出された歯の画像領域を白い領域として示す、部分画像40の二値化画像61である。   The face part extraction unit 22 applies, for example, a discriminant analysis method to the saturation of the pixels of the saturation image 60 corresponding to the image area of the lips of the binarized image 51, and the variance ratio of the interclass variance is maximum. Find the value that The face part extraction unit 22 uses the maximum value as a threshold value, and extracts pixels having a saturation equal to or lower than the threshold value as pixels in the tooth image region. FIG. 4E is a binarized image 61 of the partial image 40 that shows the tooth image area extracted by the face part extraction unit 22 as a white area.

なお、顔部位抽出部22は、しきい値以下の彩度を有する画素を歯の画像領域の画素として抽出した後、二値化画像61に対して二値化画像50を用いたマスク処理を行うことで、ノイズや唇上のハイライト部分などを除去してもよい。   Note that the facial part extraction unit 22 extracts a pixel having a saturation equal to or lower than a threshold value as a pixel in the tooth image region, and then performs a mask process using the binarized image 50 on the binarized image 61. By doing so, noise and highlights on the lips may be removed.

ステップS105:CPU14の色補正部23は、元の対象画像30における被写体の歯を白色に色補正する。そのために、本実施形態の色補正部23は、例えば、二値化画像61を3画素×3画素の大きさの領域で平滑化処理し、0〜255の階調の平滑画像62を生成する(図4(f))。色補正部23は、平滑画像62の画素の画素値の大きさに応じて、対応する対象画像30の画素のR、G、Bの画素値をガンマ変換して補正し、被写体の歯を白色に色補正する。なお、本実施形態では、R、G、Bの色成分の画素値自身をガンマ変換するのではなく、画素の輝度に対して、1.3などの1より大きなγ値のトーンカーブを適用し、彩度に対して、0.6などの1より小さなγ値のトーンカーブを適用する。色補正部23は、ガンマ変換された輝度および彩度の情報を、公知の変換方法でR、G、Bの画素値に変換し補正する。   Step S105: The color correction unit 23 of the CPU 14 corrects the teeth of the subject in the original target image 30 to white. For this purpose, for example, the color correction unit 23 of the present embodiment performs a smoothing process on the binarized image 61 in an area having a size of 3 pixels × 3 pixels, and generates a smoothed image 62 having a gradation of 0 to 255. (FIG. 4 (f)). The color correction unit 23 corrects the R, G, and B pixel values of the corresponding target image 30 by gamma conversion according to the size of the pixel value of the smooth image 62, and whites the subject's teeth. Correct the color. In this embodiment, the pixel values of the R, G, and B color components themselves are not gamma-converted, but a tone curve having a γ value larger than 1 such as 1.3 is applied to the luminance of the pixel. A tone curve having a γ value smaller than 1 such as 0.6 is applied to the saturation. The color correction unit 23 converts the gamma-converted luminance and saturation information into R, G, and B pixel values by a known conversion method and corrects them.

ステップS106:画像抽出部21は、白目の色補正を行うために、ステップS101で検出された顔画像31に対して、エッジ検出を行う。画像抽出部21は、検出したエッジ量に基づいて左目を認識し、左目を含む部分画像70を切り出す。CPU14は、内部メモリ(不図示)に、切り出した部分画像70を保持する。図5(a)は、切り出した部分画像70の一例を示す。   Step S106: The image extraction unit 21 performs edge detection on the face image 31 detected in step S101 in order to perform white eye color correction. The image extraction unit 21 recognizes the left eye based on the detected edge amount, and cuts out the partial image 70 including the left eye. The CPU 14 holds the cut partial image 70 in an internal memory (not shown). FIG. 5A shows an example of the cut out partial image 70.

なお、切り出される部分画像70の大きさは、対象画像30における水平および垂直走査方向それぞれの左目の大きさの30%増しなど、CPU14の処理能力や目の大きさに応じて決定されるのが好ましい。   Note that the size of the cut-out partial image 70 is determined according to the processing capability of the CPU 14 and the size of the eye, such as 30% increase in the size of the left eye in the horizontal and vertical scanning directions in the target image 30. preferable.

ステップS107:顔部位抽出部22は、ステップS106で切り出された部分画像70から、白目を含む左目の画像領域を抽出する。そのために、顔部位抽出部22は、公知の変換方法を用い、図5(a)の部分画像70の各画素のR、G、Bの画素値から輝度を算出し、部分画像70の輝度画像を生成する。顔部位抽出部22は、生成した輝度画像を、動的しきい値法、例えば、適応的二値化処理を適用して二値化し、左目部分の領域を絞り込む(図5(b))。この適応的二値化処理を用いることにより、輝度画像内の部分ごとに局所的に異なるしきい値(第1のしきい値)が設けられ、照明ムラなどの撮像時の露出条件やホワイトバランス処理などの影響を回避しつつ、輝度画像を二値化することができる。図5(b)は、適応的二値化処理により絞り込まれた左目部分を白い領域として示す、部分画像70の二値化画像80である。   Step S107: The face part extraction unit 22 extracts the image area of the left eye including the white from the partial image 70 cut out in step S106. For this purpose, the face part extraction unit 22 calculates the luminance from the R, G, and B pixel values of each pixel of the partial image 70 in FIG. Is generated. The face part extraction unit 22 binarizes the generated luminance image by applying a dynamic threshold method, for example, adaptive binarization processing, and narrows down the area of the left eye part (FIG. 5B). By using this adaptive binarization processing, a locally different threshold value (first threshold value) is provided for each part in the luminance image, and exposure conditions and white balance during imaging such as uneven illumination are provided. The luminance image can be binarized while avoiding the influence of processing and the like. FIG. 5B is a binarized image 80 of the partial image 70 showing the left eye portion narrowed down by the adaptive binarization process as a white region.

しかしながら、二値化画像80には、髪の毛や眉毛などの画像領域も含まれる。そこで、顔部位抽出部22は、二値化画像80において、単独に存在する画素や所定の面積以下の髪の毛などの画像領域の画素を、ノイズとして除去する(図5(c))。本実施形態における所定の面積とは、例えば、部分画像70の画素数の5%など、対象画像30や部分画像70の大きさ、CPU14の処理能力などに応じて決定するのが好ましい。   However, the binarized image 80 includes image regions such as hair and eyebrows. Therefore, the face part extraction unit 22 removes, as noise, pixels in the binarized image 80, such as pixels that exist independently and pixels in an image region such as hair that is smaller than a predetermined area (FIG. 5C). The predetermined area in the present embodiment is preferably determined according to the size of the target image 30 and the partial image 70, the processing capability of the CPU 14, and the like, for example, 5% of the number of pixels of the partial image 70.

さらに、顔部位抽出部22は、水平および垂直走査方向それぞれの左目の大きさを表すフェレ径、またはそれらのフェレ径の比(例えば、フェレ径比=1)に基づいて、二値化画像81から左目のみの二値化画像82を取得する(図5(d))。顔部位抽出部22は、二値化画像82に対して公知の凸包やSnake法などを適用し、白目の画像領域を含む左目の画像領域を抽出する。図5(e)は、凸包によって求めた左目の画像領域を白い領域として示す、二値化画像83である。   Further, the face part extraction unit 22 performs binarized image 81 based on the ferret diameter representing the size of the left eye in the horizontal and vertical scanning directions, or the ratio of the ferret diameters (eg, ferret diameter ratio = 1). To obtain a binarized image 82 of only the left eye (FIG. 5D). The face part extraction unit 22 applies a known convex hull or Snake method to the binarized image 82 to extract the image area of the left eye including the image area of the white eye. FIG. 5E is a binarized image 83 that shows the image area of the left eye obtained by the convex hull as a white area.

なお、公知の凸包やSnake法などを用いて、白目を含む目の画像領域を抽出するにあたり、顔部位抽出部22は、白目と瞳の境界や目の輪郭部分で強いエッジが生じやすいことから、輝度や彩度のソーベルエッジの平均値が大きい方を目の画像領域と判断して抽出するのが好ましい。また、左目や右目のフェレ径やフェレ径比などは、大人や子供、または男女など、被写体に応じて適宜設定され、メモリ15に記憶されることが好ましい。   Note that when extracting an image area of an eye including a white eye using a known convex hull or the Snake method, the face part extraction unit 22 is likely to generate a strong edge at the boundary between the white eye and the pupil or the outline of the eye. Therefore, it is preferable to extract the image having the larger average value of the Sobel edges of luminance and saturation as the image area of the eye. Further, the ferret diameter and ferret diameter ratio of the left eye and the right eye are preferably set appropriately according to the subject such as an adult, a child, or a male and female, and are preferably stored in the memory 15.

ステップS108:顔部位抽出部22は、ステップS106で切り出された部分画像70と、ステップS108で取得した二値化画像83とを用いて、左目の白目の画像領域を抽出する。そのために、顔部位抽出部22は、歯の場合と同様に、公知の変換方法を用い、部分画像70から彩度画像90を生成する(図5(f))。図5(f)に示すように、彩度画像90において、白目や瞳のハイライト部分などの画素の彩度は低くなる(黒色部分)。   Step S108: The face part extraction unit 22 extracts a white eye image region using the partial image 70 cut out in step S106 and the binarized image 83 acquired in step S108. For this purpose, the face part extraction unit 22 generates a saturation image 90 from the partial image 70 using a known conversion method as in the case of teeth (FIG. 5 (f)). As shown in FIG. 5 (f), in the saturation image 90, the saturation of pixels such as white eye and highlight portion of the pupil is lowered (black portion).

顔部位抽出部22は、二値化画像83の左目の画像領域に対応する彩度画像90の画素の彩度に対して、例えば、判別分析法を適用し、クラス間分散の分散比が最大になる値を求める。顔部位抽出部22は、その最大になる値をしきい値(第2のしきい値)とし、そのしきい値以下の彩度を有する画素を左目の白目の画像領域の画素として抽出する。図5(g)は、顔部位抽出部22によって抽出された左目の白目の画像領域を白い領域として示す、部分画像70の二値化画像91である。   The face part extraction unit 22 applies, for example, a discriminant analysis method to the saturation of the pixels of the saturation image 90 corresponding to the image area of the left eye of the binarized image 83, and the variance ratio of the interclass variance is maximum. Find the value that The face part extraction unit 22 uses the maximum value as a threshold value (second threshold value), and extracts a pixel having a saturation equal to or lower than the threshold value as a pixel in the image region of the white of the left eye. FIG. 5G is a binarized image 91 of the partial image 70 showing the white eye image area extracted by the face part extracting unit 22 as a white area.

なお、CPU14は、右目の白目の画像領域についても、左目の場合と同様に、ステップS106〜ステップS108の処理を行い抽出する。   Note that the CPU 14 also extracts the white eye image region of the right eye by performing the processing of step S106 to step S108 as in the case of the left eye.

ステップS109:色補正部23は、元の対象画像30における被写体の白目を白色に色補正する。そのために、本実施形態の色補正部23は、例えば、二値化画像91を3画素×3画素の大きさの領域で平滑化処理し、0〜255の階調の平滑画像92を生成する(図5(h))。色補正部23は、平滑画像92の画素の画素値の大きさに応じて、対応する対象画像30の画素のR、G、Bの画素値をガンマ変換して補正し、被写体の白目を白色にする。なお、本実施形態では、歯の場合と同様に、R、G、Bの色成分の画素値自身をガンマ変換するのではなく、画素の輝度に対して、1.3などの1より大きなγ値のトーンカーブを適用し、彩度に対して、0.6などの1より小さなγ値のトーンカーブを適用する。色補正部23は、ガンマ変換された輝度および彩度の情報を、公知の変換方法でR、G、Bの画素値に変換し補正する。また、輝度および彩度のそれぞれに適用されるトーンカーブのγ値は、ステップS105の値と同じでもよいし、異なっていてもよい。   Step S109: The color correction unit 23 corrects the white color of the subject in the original target image 30 to white. For this purpose, for example, the color correction unit 23 of the present embodiment smoothes the binarized image 91 in an area having a size of 3 pixels × 3 pixels, and generates a smooth image 92 having a gradation of 0 to 255. (FIG. 5 (h)). The color correcting unit 23 corrects the R, G, and B pixel values of the corresponding target image 30 by gamma conversion according to the pixel value of the pixel of the smoothed image 92, and whites the subject's white eye. To. In the present embodiment, as in the case of the tooth, the pixel values of the R, G, and B color components themselves are not gamma-converted, but the luminance of the pixel is larger than 1 such as 1.3. Apply a tone curve with a value and apply a tone curve with a γ value less than 1 such as 0.6 for saturation. The color correction unit 23 converts the gamma-converted luminance and saturation information into R, G, and B pixel values by a known conversion method and corrects them. In addition, the γ value of the tone curve applied to each of luminance and saturation may be the same as or different from the value in step S105.

このように、本実施形態では、歯の画像領域を抽出する場合、露出条件の違いによる影響を受けにくい色相、およびホワイトバランス処理の影響を受けにくい彩度に基づいて決定することにより、歯の画像領域を確度高く容易に検出できる。   As described above, in the present embodiment, when extracting a tooth image region, the determination is made based on the hue that is not easily affected by the difference in exposure conditions and the saturation that is not easily affected by the white balance process. The image area can be easily detected with high accuracy.

また、白目の画像領域を抽出する場合、露出条件およびホワイトバランス処理の違いに応じて、しきい値設定が調整可能な動的しきい値法および多変量解析を用いることにより、白目の画像領域を確度高く容易に検出できる。
《実施形態の補足事項》
(1)上記実施形態では、デジタルカメラ1の顔検出部20、画像抽出部21、顔部位抽出部22、色補正部23の各処理を、CPU14がソフトウエア的に実現する例を説明したが、ASICを用いてこれらの各処理をハードウエア的に実現しても勿論かまわない。
Also, when extracting the image area of the white eye, the image area of the white eye can be extracted by using a dynamic threshold method and a multivariate analysis in which the threshold setting can be adjusted according to the difference in the exposure condition and the white balance processing. Can be easily detected with high accuracy.
<< Additional items of embodiment >>
(1) In the above embodiment, an example has been described in which the CPU 14 implements each process of the face detection unit 20, the image extraction unit 21, the face part extraction unit 22, and the color correction unit 23 of the digital camera 1 by software. Of course, each of these processes may be realized by hardware using an ASIC.

また、顔検出部20、画像抽出部21、顔部位抽出部22、色補正部23のそれぞれは、被写体が人物であるとして処理したが、被写体が犬や猫などの動物に対しても適用可能である。   Further, each of the face detection unit 20, the image extraction unit 21, the face part extraction unit 22, and the color correction unit 23 has been processed on the assumption that the subject is a person, but the subject can also be applied to animals such as dogs and cats. It is.

(2)本発明の画像処理装置は、上記実施形態のデジタルカメラ1の例に限定されない。例えば、撮像された画像をコンピュータに読み込ませ、コンピュータに歯や白目の色補正処理を実行させることにより、コンピュータを本発明の画像処理装置として機能させてもよい。   (2) The image processing apparatus of the present invention is not limited to the example of the digital camera 1 of the above embodiment. For example, the computer may function as the image processing apparatus of the present invention by causing the computer to read the captured image and causing the computer to perform color correction processing on teeth and white eyes.

(3)上記実施形態では、画像抽出部21が、エッジ検出に基づいて、処理対象の顔部位を認識し、その顔部位を含んだ画像を切り出したが、本発明はこれに限定されない。例えば、撮像される被写体の構図に応じて、予め各顔部位が位置するデータをメモリ15に記憶させることにより、画像抽出部21が、対象画像30における被写体の構図を認識し、認識した構図に応じて処理対象の顔部位の位置を特定して、その顔部位を含んだ部分画像を切り出すようにしてもよい。   (3) In the above embodiment, the image extraction unit 21 recognizes the face part to be processed based on the edge detection and cuts out an image including the face part. However, the present invention is not limited to this. For example, according to the composition of the subject to be imaged, data in which each facial part is previously stored is stored in the memory 15, so that the image extraction unit 21 recognizes the composition of the subject in the target image 30 and creates the recognized composition. Accordingly, the position of the face part to be processed may be specified, and a partial image including the face part may be cut out.

(4)上記実施形態では、対象画像30は、CPU14によるデジタル処理の色補間処理により、各画素にR、G、Bの画素値を有する画像としたが、本発明はこれに限定されず、色補間処理前のRAW画像でもよい。   (4) In the above embodiment, the target image 30 is an image having R, G, and B pixel values in each pixel by digital color interpolation processing by the CPU 14, but the present invention is not limited to this. It may be a RAW image before color interpolation processing.

(5)上記実施形態では、色補正部23は、二値化画像を3画素×3画素で平滑化処理し、0〜255の階調の平滑画像62および平滑画像92を生成したが、本発明はこれに限定されない。例えば、色補正部23は、5画素×5画素などの大きさの領域で平滑化処理し、任意の階調レンジを有した平滑画像を生成してもよい。   (5) In the above embodiment, the color correction unit 23 smoothes the binarized image with 3 pixels × 3 pixels, and generates the smoothed image 62 and the smoothed image 92 with gradations of 0 to 255. The invention is not limited to this. For example, the color correction unit 23 may perform a smoothing process on an area having a size of 5 pixels × 5 pixels and generate a smooth image having an arbitrary gradation range.

また、色補正部23は、平滑化処理を行わず、歯や白目の画像領域に対応する対象画像30の画素の各色成分の画素値を、自身の値に応じてガンマ変換してもよいし、歯や白目の画像領域に対応する対象画像30の画素の各色成分の画素値に、白色を示す所定の画像値(例えば、R=G=B=255)を代入してもよい。   Further, the color correction unit 23 may perform gamma conversion on the pixel values of the respective color components of the pixels of the target image 30 corresponding to the tooth and white image regions without performing the smoothing process according to its own value. A predetermined image value indicating white (for example, R = G = B = 255) may be substituted for the pixel value of each color component of the pixel of the target image 30 corresponding to the tooth or white eye image region.

(6)上記実施形態では、左右の目の画像領域を抽出するにあたり、左右の目それぞれの部分画像70を切り出したが、本発明はこれに限定されず、例えば、左右の両方の目を含む1つの部分画像を切り出して、左右の目の画像領域を抽出してもよい。   (6) In the above embodiment, when extracting the image areas of the left and right eyes, the partial images 70 of the left and right eyes are cut out. However, the present invention is not limited to this, and includes, for example, both the left and right eyes. One partial image may be cut out to extract the left and right eye image regions.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神及び権利範囲を逸脱しない範囲で前述のような実施形態の特徴点及び利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良及び変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物及び均等物によることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents included in the scope disclosed in.

1 デジタルカメラ、11 撮像光学系、12 撮像素子、13 DFE、14 CPU、15 メモリ、16 操作部、17 モニタ、18 メディアI/F、19 記憶媒体、20 顔検出部、21 画像抽出部、22 顔部位抽出部、23 色補正部 DESCRIPTION OF SYMBOLS 1 Digital camera, 11 Imaging optical system, 12 Image sensor, 13 DFE, 14 CPU, 15 Memory, 16 Operation part, 17 Monitor, 18 Media I / F, 19 Storage medium, 20 Face detection part, 21 Image extraction part, 22 Face part extraction unit, 23 color correction unit

Claims (8)

複数の色成分を有する対象画像から被写体の顔を認識し、顔画像を検出する顔検出部と、
前記顔画像に含まれる前記複数の色成分の情報に基づいて、処理対象の顔部位を抽出する抽出部と、
前記対象画像のうち、前記顔部位に対応する領域の前記色成分の値を補正する色補正部と、
を備えることを特徴とする画像処理装置。
A face detection unit for recognizing a face of a subject from a target image having a plurality of color components and detecting a face image;
An extraction unit that extracts a face part to be processed based on information of the plurality of color components included in the face image;
A color correction unit that corrects a value of the color component in a region corresponding to the face part of the target image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記抽出部は、色相および彩度の情報に基づいて、前記顔部位を抽出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the extraction unit extracts the face part based on information on hue and saturation.
請求項2に記載の画像処理装置において、
前記抽出部は、前記顔部位が歯である場合、前記色相に基づいて前記歯を含む唇の画像領域を抽出し、前記唇の画像領域のうち、前記彩度が多変量解析に基づいて算出されるしきい値以下となる画像領域を前記歯の画像領域として抽出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
When the facial part is a tooth, the extraction unit extracts a lip image region including the tooth based on the hue, and the saturation is calculated based on multivariate analysis in the lip image region. An image processing apparatus that extracts an image area that is equal to or less than a threshold value as the tooth image area.
請求項1に記載の画像処理装置において、
前記抽出部は、輝度および彩度の情報に基づいて、前記顔部位を抽出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the extraction unit extracts the face part based on information on luminance and saturation.
請求項4に記載の画像処理装置において、
前記抽出部は、前記顔部位が白目である場合、前記輝度と動的に変化する第1のしきい値との比較に基づいて前記白目を含む目の画像領域を抽出し、前記目の画像領域のうち、前記彩度が多変量解析に基づいて算出される第2のしきい値以下となる画像領域を前記白目の画像領域として抽出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
When the facial part is a white eye, the extraction unit extracts an image region of the eye including the white eye based on a comparison between the luminance and a first threshold value that dynamically changes, and the image of the eye An image processing apparatus, wherein an image area in which the saturation is equal to or less than a second threshold value calculated based on multivariate analysis is extracted as the white-eye image area.
請求項1ないし請求項5のいずれか1項に記載の画像処理装置において、
前記色補正部は、輝度および彩度の情報に基づいて、前記顔部位に対応する領域の前記色成分の値を補正する
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5,
The image processing apparatus, wherein the color correction unit corrects the value of the color component in a region corresponding to the face part based on information on luminance and saturation.
被写体を撮像して複数の色成分を有する対象画像を取得する撮像部と、
請求項1ないし請求項6のいずれか1項に記載の画像処理装置と、
を備えることを特徴とする撮像装置。
An imaging unit that captures a subject and obtains a target image having a plurality of color components;
An image processing apparatus according to any one of claims 1 to 6,
An imaging apparatus comprising:
複数の色成分を有する対象画像を読み込む入力手順、
前記対象画像から被写体の顔を認識し、顔画像を検出する顔検出手順、
前記顔画像に含まれる前記複数の色成分の情報に基づいて、処理対象の顔部位を抽出する抽出手順、
前記対象画像のうち、前記顔部位に対応する領域の前記色成分の値を補正する色補正手順、
をコンピュータに実行させることを特徴とする画像処理プログラム。
An input procedure for reading a target image having a plurality of color components;
A face detection procedure for recognizing the face of the subject from the target image and detecting the face image;
An extraction procedure for extracting a face part to be processed based on information of the plurality of color components included in the face image;
A color correction procedure for correcting a value of the color component in a region corresponding to the face part of the target image;
An image processing program for causing a computer to execute.
JP2010229289A 2010-10-12 2010-10-12 Image processing apparatus, image pickup device, and image processing program Withdrawn JP2012085083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010229289A JP2012085083A (en) 2010-10-12 2010-10-12 Image processing apparatus, image pickup device, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229289A JP2012085083A (en) 2010-10-12 2010-10-12 Image processing apparatus, image pickup device, and image processing program

Publications (1)

Publication Number Publication Date
JP2012085083A true JP2012085083A (en) 2012-04-26

Family

ID=46243484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229289A Withdrawn JP2012085083A (en) 2010-10-12 2010-10-12 Image processing apparatus, image pickup device, and image processing program

Country Status (1)

Country Link
JP (1) JP2012085083A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502157A (en) * 2012-09-18 2016-01-21 チョル キム,サン Lip shape changing device and method based on automatic word translation
KR101791604B1 (en) * 2012-09-11 2017-10-30 삼성전자주식회사 Method and apparatus for estimating position of head, computer readable storage medium thereof
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
WO2018159162A1 (en) * 2017-03-02 2018-09-07 キヤノン株式会社 Image processing device, control method therefor, and program
CN111028251A (en) * 2019-12-27 2020-04-17 四川大学 Dental picture cutting method, system, equipment and storage medium
JP2020154639A (en) * 2019-03-19 2020-09-24 カシオ計算機株式会社 Electronic apparatus, image processing method and image processing program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101791604B1 (en) * 2012-09-11 2017-10-30 삼성전자주식회사 Method and apparatus for estimating position of head, computer readable storage medium thereof
JP2016502157A (en) * 2012-09-18 2016-01-21 チョル キム,サン Lip shape changing device and method based on automatic word translation
JP2018117289A (en) * 2017-01-19 2018-07-26 カシオ計算機株式会社 Image processing device, image processing method, and program
WO2018159162A1 (en) * 2017-03-02 2018-09-07 キヤノン株式会社 Image processing device, control method therefor, and program
JP2018148318A (en) * 2017-03-02 2018-09-20 キヤノン株式会社 Image processing device, control method of the same, and program
JP2022036179A (en) * 2017-03-02 2022-03-04 キヤノン株式会社 Image processing apparatus and control method therefor and program
US11328679B2 (en) 2017-03-02 2022-05-10 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium
JP7369175B2 (en) 2017-03-02 2023-10-25 キヤノン株式会社 Image processing device and its control method and program
JP2020154639A (en) * 2019-03-19 2020-09-24 カシオ計算機株式会社 Electronic apparatus, image processing method and image processing program
JP7400196B2 (en) 2019-03-19 2023-12-19 カシオ計算機株式会社 Electronic devices, image processing methods, and image processing programs
CN111028251A (en) * 2019-12-27 2020-04-17 四川大学 Dental picture cutting method, system, equipment and storage medium
CN111028251B (en) * 2019-12-27 2023-08-11 成都牙讯科技有限公司 Dental picture cropping method, system, equipment and storage medium

Similar Documents

Publication Publication Date Title
US20190130169A1 (en) Image processing method and device, readable storage medium and electronic device
JP4214420B2 (en) Pupil color correction apparatus and program
JP6421794B2 (en) Image processing apparatus, image processing method, and program
JP4848965B2 (en) Imaging device
US9135726B2 (en) Image generation apparatus, image generation method, and recording medium
JP5939705B2 (en) Subject determination device, subject determination method, and program
JP2012085083A (en) Image processing apparatus, image pickup device, and image processing program
TW201346835A (en) Image blur level estimation method and image quality evaluation method
US10796418B2 (en) Image processing apparatus, image processing method, and program
US11756165B2 (en) Image processing apparatus, method, and storage medium for adding a gloss
JP4868046B2 (en) Image processing apparatus, image processing method, and program
US11301974B2 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
JP2009123081A (en) Face detection method and photographing apparatus
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP2007312206A (en) Imaging apparatus and image reproducing apparatus
JP2018198029A (en) Image processing device, image processing method, and program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2009200900A (en) Imaging apparatus
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
US9600735B2 (en) Image processing device, image processing method, program recording medium
JP2010187208A (en) Electronic still camera
JP5453796B2 (en) Image processing apparatus, electronic camera, and image processing program
JP6060552B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5606300B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4946913B2 (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107