JP5874440B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5874440B2
JP5874440B2 JP2012043322A JP2012043322A JP5874440B2 JP 5874440 B2 JP5874440 B2 JP 5874440B2 JP 2012043322 A JP2012043322 A JP 2012043322A JP 2012043322 A JP2012043322 A JP 2012043322A JP 5874440 B2 JP5874440 B2 JP 5874440B2
Authority
JP
Japan
Prior art keywords
area
region
image processing
processing apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012043322A
Other languages
Japanese (ja)
Other versions
JP2013178720A (en
Inventor
斎藤 郁哉
郁哉 斎藤
中島 伸一
伸一 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012043322A priority Critical patent/JP5874440B2/en
Publication of JP2013178720A publication Critical patent/JP2013178720A/en
Application granted granted Critical
Publication of JP5874440B2 publication Critical patent/JP5874440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

従来から、画像に含まれる顔の肌領域を特定する方法として、色空間情報を用いる方法や、想定する顔形状近傍に存在する輪郭情報を用いる方法が知られている。例えば、特許文献1では、高い信頼度で抽出した画素群を構成するそれぞれの画素について、画素に隣接する所定領域の色相、彩度及び明度を調べ、所定の条件を満たす領域を肌領域として加え、肌領域を成長させる。そして、成長させるべき近隣の画素がなくなるか、もしくはこの処理の繰り返し回数が所定数に達するまで繰り返すことにより、肌領域を得る。   Conventionally, as a method for specifying a skin area of a face included in an image, a method using color space information or a method using contour information existing in the vicinity of an assumed face shape is known. For example, in Patent Document 1, for each pixel constituting a pixel group extracted with high reliability, the hue, saturation, and brightness of a predetermined area adjacent to the pixel are examined, and an area that satisfies a predetermined condition is added as a skin area. , Grow skin area. Then, the skin region is obtained by repeating until there are no neighboring pixels to be grown or the number of repetitions of this process reaches a predetermined number.

特開2006−338377号公報JP 2006-338377 A

しかし、上述した特許文献1の特定方法では、画素毎に条件比較を行うため、条件となる閾値付近では離散的な領域が発生し、形状が安定しないという問題があった。また、単に色空間における比較を行った場合、被写体の撮影環境、化粧や肌の色に対応するためには、条件幅を広くする必要があるが、顔や肌以外の領域の誤抽出を防止するためには、この条件幅を狭くせざるを得ないため、精度の良い肌領域の抽出が困難であった。   However, in the above-described specifying method of Patent Document 1, since a condition comparison is performed for each pixel, there is a problem that a discrete region is generated in the vicinity of a threshold value that is a condition, and the shape is not stable. In addition, when comparisons are simply made in the color space, it is necessary to widen the condition range in order to cope with the shooting environment of the subject, makeup, and skin color, but it prevents erroneous extraction of areas other than the face and skin. In order to do so, the condition width must be narrowed, and it is difficult to extract a skin region with high accuracy.

そこで、本発明の画像処理装置及び画像処理プログラムは、顔の肌領域を精度良く特定することを目的とする。   Therefore, an object of the image processing apparatus and the image processing program of the present invention is to specify a facial skin region with high accuracy.

本発明の画像処理装置は、画像から被写体の顔領域の一部である第1領域を特定する第1特定部と、前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出部と、前記算出部が算出する前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定部とを備える。   An image processing apparatus according to the present invention includes: a first specifying unit that specifies a first area that is a part of a face area of a subject from an image; a color of a pixel that forms the first area; and a part of the first area. The similarity of the colors of the pixels constituting the second area, the expected proportion of the face area in the image, and the brightness of the pixels constituting the second area and the brightness of the pixels adjacent to the pixels Using the similarity, a calculation unit that calculates a value indicating the state of the second region, and a value indicating the state of the second region calculated by the calculation unit is specified as the skin region And a second specifying unit.

なお、前記第2特定部は、前記算出部が算出する前記第2領域の状態を示す値が最も好ましい値となるまで前記第2領域の形状を変化させ、前記第2領域の状態を示す値が最も好ましい値となったときの前記第2領域を肌領域として特定しても良い。   The second specifying unit changes the shape of the second region until the value indicating the state of the second region calculated by the calculation unit is the most preferable value, and indicates a value indicating the state of the second region. You may identify the said 2nd area | region when becomes the most preferable value as a skin area | region.

また、前記第2特定部は、前記第2領域を拡大する処理、及び縮小する処理の少なくとも一方を行っても良い。   The second specifying unit may perform at least one of a process for enlarging the second area and a process for reducing the second area.

また、前記画像から少なくとも1つの目領域、及び口領域を抽出する抽出部を備え、前記第1領域は、前記目領域における任意の画素と前記口領域における任意の画素とを結ぶ線上に位置する画素の領域、前記目領域のそれぞれにおける任意の画素と前記口領域における任意の画素とを結ぶ三角形の領域、或いは前記目領域のそれぞれにおける任意の画素を頂点とし、前記口領域における任意の画素を底辺に含む矩形の領域のいずれかであっても良い。   The image processing apparatus further includes an extraction unit that extracts at least one eye region and a mouth region from the image, and the first region is located on a line connecting any pixel in the eye region and any pixel in the mouth region. A pixel region, a triangular region connecting any pixel in each of the eye regions and any pixel in the mouth region, or any pixel in each of the eye regions as a vertex, and any pixel in the mouth region Any of the rectangular area | regions included in a base may be sufficient.

また、前記算出部は、最適解法により前記第2領域の状態を示す値を算出しても良い。   Further, the calculation unit may calculate a value indicating the state of the second region by an optimal solution.

また、前記最も好ましい値は、最小値であっても良い。   The most preferable value may be a minimum value.

また、前記最も好ましい値は、局所解であっても良い。   The most preferable value may be a local solution.

また、前記第2特定部は、前記第1領域から肌の色でない色の領域を除外してから、前記第2領域の形状を変化させても良い。   In addition, the second specifying unit may change the shape of the second area after excluding a color area that is not a skin color from the first area.

また、肌の領域として特定された前記第2領域に美肌処理を施す画像処理部を備えても良い。   Moreover, you may provide the image process part which performs a beautification process to the said 2nd area | region specified as an area | region of skin.

本発明の画像処理プログラムは、画像から被写体の顔領域の一部である第1領域を特定する第1特定工程と、前記第1領域を構成する画素の色と前記第1画像の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出工程と、前記算出工程において算出される前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定工程とをコンピュータで実現する。   The image processing program of the present invention includes: a first specifying step for specifying a first area that is a part of a face area of a subject from an image; a color of a pixel that forms the first area; and a part of the first image. The similarity of the colors of the pixels constituting the second area, the expected proportion of the face area in the image, and the brightness of the pixels constituting the second area and the brightness of the pixels adjacent to the pixels Based on the calculation step for calculating the value indicating the state of the second region using the similarity, and the value indicating the state of the second region calculated in the calculation step, the second region is defined as a skin region. The second specifying step to be specified is realized by a computer.

本発明の画像処理装置及び画像処理プログラムによれば、顔の肌領域を精度良く特定することができる。   According to the image processing apparatus and the image processing program of the present invention, it is possible to accurately specify the facial skin area.

第1施形態における撮像装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device 10 in 1st embodiment. (a)顔領域F、概略領域R、及び肌色候補領域Sを示す図である。(b)概略領域Rを示す図である。(c)概略領域Rを示す図である。(A) It is a figure which shows the face area | region F, the outline area | region R, and the skin color candidate area | region S. FIG. (B) is a diagram showing a schematic region R 2. (C) is a diagram showing a schematic region R 3. 詳細領域Dを示す図である。5 is a diagram showing a detailed area D. FIG. 第1実施形態における詳細領域Dの特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the specific process of the detailed area | region D in 1st Embodiment. (A)領域Iを示す図である。(B)領域I’を示す図である。(C)領域I’’を示す図である。(A) It is a figure which shows the area | region I. FIG. (B) It is a figure which shows area | region I '. (C) It is a figure which shows area | region I ''. エネルギーの差ΔEiと、確率Pとの関係を示す図である。It is a figure which shows the relationship between energy difference (DELTA) Ei and the probability P. FIG. 第2実施形態における詳細領域Dの特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the specific process of the detailed area | region D in 2nd Embodiment.

(第1実施形態)
以下、図面を用いて本発明の第1実施形態について説明する。図1は、第1実施形態における撮像装置10の構成を示すブロック図である。図1に示すように、撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、表示部15、フラッシュRAM16、記録I/F部17、記録媒体18、操作部19、CPU20、バス21を備える。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 10 according to the first embodiment. As shown in FIG. 1, the imaging device 10 includes an imaging lens 11, an imaging device 12, an A / D conversion unit 13, a buffer memory 14, a display unit 15, a flash RAM 16, a recording I / F unit 17, a recording medium 18, and an operation. A unit 19, a CPU 20, and a bus 21 are provided.

撮像レンズ11は、撮像素子12の結像面に被写体像を結像する。撮像素子12は、撮像レンズ11を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮像素子12から出力される画像信号は、A/D変換部13に入力される。A/D変換部13は、撮像素子12から出力されるアナログの画像信号をデジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ14に記録される。バッファメモリ14は、後述する画像処理部32による画像処理の前工程や後工程で画像データを一時的に記録する。   The imaging lens 11 forms a subject image on the imaging surface of the imaging element 12. The imaging element 12 photoelectrically converts the subject light that has passed through the imaging lens 11 and outputs analog image signals corresponding to R, G, and B colors. An image signal output from the image sensor 12 is input to the A / D converter 13. The A / D converter 13 converts the analog image signal output from the image sensor 12 into a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 14 as image data. The buffer memory 14 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 32 described later.

表示部15は、各種の画像を表示する。表示部15に表示される各種の画像は、撮像により取得された画像、メニュー画像、後述する記録媒体18に記録された画像等である。フラッシュRAM16は、ファームウェアなどを記憶している。記録I/F部17は、記録媒体18を接続するためのコネクタを備えている。この記録I/F部17と記録媒体18とが接続されることにより、記録媒体18に対してデータの書き込み/読み出しが実行される。   The display unit 15 displays various images. Various images displayed on the display unit 15 are an image acquired by imaging, a menu image, an image recorded on a recording medium 18 to be described later, and the like. The flash RAM 16 stores firmware and the like. The recording I / F unit 17 includes a connector for connecting the recording medium 18. By connecting the recording I / F unit 17 and the recording medium 18, data writing / reading is executed with respect to the recording medium 18.

操作部19は、レリーズ釦24、十字キー25等を有する。レリーズ釦24は、撮像時にユーザにより操作される。十字キー25は、上記のメニュー画像等で操作される。なお、レリーズ釦24、十字キー25の状態はCPU20により検知され、検知された釦やキーの状態に基づいたシーケンスが実行される。   The operation unit 19 includes a release button 24, a cross key 25, and the like. The release button 24 is operated by the user during imaging. The cross key 25 is operated on the above menu image or the like. The states of the release button 24 and the cross key 25 are detected by the CPU 20, and a sequence based on the detected button and key states is executed.

CPU20は、所定のシーケンスプログラムにしたがって、撮像装置10の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AE等)を実行する。また、CPU20は、抽出部29、概略領域特定部30、詳細領域特定部31、画像処理部32を備える。図2(a)は、処理対象となる画像(符号40)の一例を示す図である。なお、画像40としては、撮像により取得した画像でも良いし、記録媒体18に記録された画像でも良い。   The CPU 20 performs overall control of the imaging apparatus 10 according to a predetermined sequence program, and executes various calculations (AF, AE, etc.) necessary for imaging. Further, the CPU 20 includes an extraction unit 29, a schematic region specifying unit 30, a detailed region specifying unit 31, and an image processing unit 32. FIG. 2A is a diagram illustrating an example of an image (reference numeral 40) to be processed. The image 40 may be an image acquired by imaging or an image recorded on the recording medium 18.

抽出部29は、画像から、特開2001−16573号公報などに記載された特徴点抽出処理によって、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などを抽出する。図2(a)の太線で囲まれた領域は、顔領域Fを示す。   The extraction unit 29 performs, for example, eyebrow, eye, nose, lip end points, face contour points, head vertices, and lower end of chin from an image by feature point extraction processing described in JP-A-2001-16573. Extract points. A region surrounded by a thick line in FIG.

概略領域特定部30は、抽出部29によって抽出された目、唇の各端点に基づいて、概略領域Rを特定する。この概略領域Rとは、顔領域Fの一部であり、確実に顔領域Fに含まれていると判断できる領域である。図2(a)の点線で囲まれた領域は、概略領域Rを示す。図2(a)に示すように、概略領域特定部30は、両目のそれぞれの中心を頂点とし、口の中心を底辺に含む矩形の領域を概略領域Rとして特定する。なお、図2(b)に示すように、概略領域特定部30は、両目のそれぞれの中心と、口の中心とを結んだ三角形の領域を概略領域Rとして特定しても良い。また、図2(c)に示すように、概略領域特定部30は、片目の中心と、口の中心とを結んだ線上に位置する画素を概略領域Rとして特定しても良い。 The approximate region specifying unit 30 specifies the approximate region R based on the end points of the eyes and lips extracted by the extracting unit 29. The approximate area R is a part of the face area F and is an area that can be reliably determined to be included in the face area F. A region surrounded by a dotted line in FIG. As shown in FIG. 2A, the approximate area specifying unit 30 specifies a rectangular area having the centers of both eyes as apexes and including the center of the mouth at the bottom as the approximate area R. Incidentally, as shown in FIG. 2 (b), schematic region identifying unit 30, and the respective centers of eyes, the area of the triangle formed by connecting the center of the mouth may be identified as the approximate region R 2. Further, as shown in FIG. 2 (c), a schematic region identifying unit 30, and the center of the eye, the pixels located on a line connecting the center of the mouth may be identified as the approximate region R 3.

詳細領域特定部31は、肌色候補領域S、及び詳細領域Dを特定する。まず、肌色候補領域Sについて説明する。肌色候補領域Sは、概略領域Rから、肌色が存在するとみなすことができない色座標の画素を除外した領域である。除外対象としては、例えば、目、口、顔に被っているオブジェクト、眼鏡、頬のペインティングなどが想定される。詳細領域特定部31は、RGB色空間の画像データをHSV色空間の画像データに変換する。そして、詳細領域特定部31は、HSV色空間にて、Hueが20〜50°の範囲から外れた画素を除外することにより、肌色候補領域Sを特定する。概略領域Rが矩形の領域である場合、肌色候補領域Sは、図2(a)の斜線の領域で示される。   The detailed area specifying unit 31 specifies the skin color candidate area S and the detailed area D. First, the skin color candidate region S will be described. The skin color candidate area S is an area obtained by excluding pixels having color coordinates from which the skin color cannot be regarded as existing in the approximate area R. As the exclusion target, for example, an object covering the eyes, mouth, and face, glasses, and cheek painting are assumed. The detailed area specifying unit 31 converts image data in the RGB color space into image data in the HSV color space. Then, the detailed area specifying unit 31 specifies the skin color candidate area S by excluding pixels whose hue is out of the range of 20 to 50 ° in the HSV color space. When the general region R is a rectangular region, the skin color candidate region S is indicated by the hatched region in FIG.

次に、詳細領域Dについて説明する。詳細領域Dは、肌色候補領域Sを拡大及び縮小させることにより特定される、顔領域Fにおける肌領域である。以下、肌色候補領域Sを初期領域とし、初期領域から詳細領域Dに至る途中の領域を領域Iとする。詳細領域特定部31は、領域Iの状態を示す値を算出し、この値が最も好ましい値となったときの領域Iを詳細領域Dとして特定する。図3の点で塗られた領域は、詳細領域Dを示す。詳細領域Dの特定については、後述する。   Next, the detailed area D will be described. The detailed area D is a skin area in the face area F specified by enlarging and reducing the skin color candidate area S. Hereinafter, the skin color candidate region S is defined as an initial region, and a region in the middle from the initial region to the detailed region D is defined as a region I. The detailed area specifying unit 31 calculates a value indicating the state of the area I, and specifies the area I when this value is the most preferable value as the detailed area D. The area painted with dots in FIG. The specification of the detailed area D will be described later.

第1実施形態では、最適解を求める方法として、シュミレーテッドアニーリング(Simulated Annealing)法を用いる。シュミレーテッドアニーリングは、高温で加熱した金属の温度を除々に下げていくことで、欠陥の少ない優れた結晶構造を作る物理プロセス(焼きなまし)を模したもので、逐次的な解の改善操作を繰り返す最適化手法である。この方法では、現在の状態よりエネルギーの低い状態への変化を繰り返すことで、最もエネルギーの低い状態(最適解)に近づけていく。その際、単にエネルギーの低い状態のみ選択し続けると局所解に陥る可能性があるが、ある確率でエネルギーの増加を認めるところに、この方法の特徴がある。   In the first embodiment, a simulated annealing method is used as a method for obtaining an optimal solution. Simulated annealing simulates a physical process (annealing) that creates an excellent crystal structure with few defects by gradually lowering the temperature of a metal heated at a high temperature. It is an optimization method. In this method, the state with the lowest energy (optimum solution) is approached by repeating the change from the current state to the state with lower energy. At this time, if only the low energy state is continuously selected, there is a possibility of falling into a local solution, but the feature of this method is that an increase in energy is recognized with a certain probability.

次に、現在の領域Iの状態を示すエネルギーEを以下の(1)式で示す。なお、画像40の各画素には、肌色又は背景のラベルが割り当てられる。   Next, energy E indicating the current state of the region I is expressed by the following equation (1). Each pixel of the image 40 is assigned a skin color or background label.

Figure 0005874440
Figure 0005874440

(1)式において、Vは注目画素、Paは注目画素の4隣接(又は8隣接)画素ペア集団を示す。また、u、vはこの画素ペア集団のうち、いずれか2つの画素(以下、隣接画素と称する)であり、δ、γは係数を示す。   In the equation (1), V represents a pixel of interest, and Pa represents a group of 4 adjacent (or 8 adjacent) pixel pairs of the pixel of interest. U and v are any two pixels (hereinafter referred to as adjacent pixels) in the pixel pair group, and δ and γ are coefficients.

また、Xは、各画素に割り当てられるラベルであり、
X=肌 if 肌である
背景 otherwise.となる。
X is a label assigned to each pixel,
X = skin if skin background otherwise.

まず、(1)式の右辺第1項について説明する。(1)式の右辺第1項は、肌らしさと、肌と背景との割合から求められるエネルギーとを表す。すなわち、(1)式の右辺第1項は、肌色のラベルが割り当てられた画素から構成される領域と、実際の肌領域とが一致するほど、また、顔領域Fと背景領域との割合が想定した比率に近づくほど、低い値となる。   First, the first term on the right side of the equation (1) will be described. The first term on the right side of the equation (1) represents skinness and energy obtained from the ratio between the skin and the background. That is, the first term on the right side of the equation (1) indicates that the ratio of the face area F to the background area increases as the area composed of pixels to which the skin color label is assigned matches the actual skin area. The closer to the assumed ratio, the lower the value.

(1)式の右辺第1項のg(X)を以下の(2)式で示す。 G V (X V ) of the first term on the right side of the equation (1) is represented by the following equation (2).

Figure 0005874440
Figure 0005874440

(2)式において、Aは肌色候補領域Sを構成する画素の色(肌色)、Bは注目画素の色、A−Bは、肌色候補領域Sを構成する画素の色と、注目画素の色との差(色差)、Xは注目画素のラベルを示す。例えば、R、G、Bは、それぞれ肌色候補領域Sを構成する画素のRの平均値、Gの平均値、Bの平均値とする。また、αは画像40に対する肌領域の割合を予め決める係数であり、βは肌ラベル画素から求められる肌らしさの度合いを決める係数である。 In the expression (2), A is the color (skin color) of the pixel constituting the skin color candidate area S, B is the color of the target pixel, and AB is the color of the pixel constituting the skin color candidate area S and the color of the target pixel. Difference (color difference), X indicates the label of the pixel of interest. For example, R A , G A , and B A are an average value of R, an average value of G, and an average value of B, respectively, of the pixels constituting the skin color candidate region S. Further, α is a coefficient that predetermines the ratio of the skin area to the image 40, and β is a coefficient that determines the degree of skininess obtained from the skin label pixel.

(2)式の右辺第1項は、画素のラベルが肌であった場合のみ、値β||A−B||が与えられることを表す。また、(2)式の右辺第2項は、画素のラベルが肌であった場合にαが、背景であった場合に(1−α)が与えられることを表す。 The first term on the right side of equation (2) represents that the value β || AB || 2 is given only when the label of the pixel is skin. The second term on the right side of the equation (2) indicates that α is given when the pixel label is skin, and (1-α) is given when the pixel label is background.

次に、(1)式の右辺第2項について説明する。(1)式の右辺第2項は、隣接画素間の明るさが同じであるかの度合いを表す。(1)式の右辺第2項のhuv(X,X)を以下の(3)式で示す。

Figure 0005874440
(3)式において、詳細領域特定部31は、隣接画素u、vのラベルX、Xが異なる場合に、κの値を与える。κの値は、隣接画素間の明るさが違うほど小さな値となる。 Next, the second term on the right side of the equation (1) will be described. The second term on the right side of equation (1) represents the degree of whether the brightness between adjacent pixels is the same. H uv (X u , X V ) of the second term on the right side of the equation (1) is represented by the following equation (3).
Figure 0005874440
In the expression (3), the detailed area specifying unit 31 gives the value of κ when the labels X u and X v of the adjacent pixels u and v are different. The value of κ becomes smaller as the brightness between adjacent pixels is different.

詳細領域特定部31は、エネルギーEを最小に近づけていくように動作する。そして、エネルギーEが最小となるとき、肌色のラベルが割り当てられた画素から構成される領域が詳細領域Dとなる。   The detailed area specifying unit 31 operates so as to bring the energy E closer to the minimum. When the energy E is minimized, a region composed of pixels to which a skin color label is assigned becomes the detailed region D.

画像処理部32は、バッファメモリ14に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部32は、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 32 performs image processing on the image data recorded in the buffer memory 14. Examples of the image processing include well-known white balance adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. The image processing unit 32 also executes processing for compressing in JPEG (Joint Photographic Experts Group) format and the like, and processing for decompressing and restoring the compressed data.

また、画像処理部32は、詳細領域特定部31が特定した詳細領域Dに対して、美肌処理を行う。例えば、画像処理部32は、詳細領域Dの露出をオーバー側に補正する露出補正を行う。これにより、被写体の肌が白く表現される。また、画像処理部32は、ソフトフォーカス処理を行う。これにより、被写体が女性である場合、女性らしさが強調され、柔らかみが生じるとともに、しわや肌荒れ等が目立ちにくくなる。また、画像処理部32は、彩度や明度のパラメータを補正することにより、肌を白く表現し、くすみ等を軽減する。   Further, the image processing unit 32 performs a skin beautification process on the detailed region D specified by the detailed region specifying unit 31. For example, the image processing unit 32 performs exposure correction for correcting the exposure of the detailed area D to the over side. Thereby, the skin of the subject is expressed white. The image processing unit 32 performs soft focus processing. Thereby, when the subject is a woman, femininity is emphasized, softness is generated, and wrinkles, rough skin, and the like are less noticeable. Further, the image processing unit 32 corrects the saturation and lightness parameters to express the skin white and reduce dullness and the like.

バス21は、バッファメモリ14、表示部15、フラッシュRAM16、記録I/F部17、CPU20を相互に接続することにより、データや信号の出入力を実行する。
次に、図4のフローチャートを用いて、第1実施形態における詳細領域Dの特定処理の流れを説明する。なお、図4のフローチャートは、レリーズ釦24が全押しされたことを契機に実行される。また、以下、便宜上、1人の人物を撮像した画像40から詳細領域Dを特定する例を示す。
ステップS101は、概略領域Rを特定する処理である。抽出部29は、撮像により取得した画像40から目、唇の各端点などを抽出する。そして、概略領域特定部30は、目、唇の端点に基づいて、概略領域Rを特定する。
The bus 21 connects the buffer memory 14, the display unit 15, the flash RAM 16, the recording I / F unit 17, and the CPU 20 to execute data and signal input / output.
Next, the flow of the detailed area D specifying process in the first embodiment will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 4 is executed when the release button 24 is fully pressed. In addition, hereinafter, for the sake of convenience, an example in which the detailed region D is specified from the image 40 obtained by capturing one person will be described.
Step S <b> 101 is processing for specifying the approximate region R. The extraction unit 29 extracts each end point of the eyes and lips from the image 40 acquired by imaging. Then, the approximate region specifying unit 30 specifies the approximate region R based on the end points of the eyes and lips.

ステップS102は、肌色候補領域Sを特定する処理である。詳細領域特定部31は、RGB色空間の画像データをHSV色空間の画像データに変換する。そして、詳細領域特定部31は、概略領域Rから、Hueが20〜50°の範囲から外れた画素を除外し、肌色候補領域Sを特定する。   Step S102 is processing for specifying the skin color candidate region S. The detailed area specifying unit 31 converts image data in the RGB color space into image data in the HSV color space. Then, the detailed area specifying unit 31 specifies the skin color candidate area S by excluding pixels whose hue is out of the range of 20 to 50 ° from the approximate area R.

ステップS103は、初期エネルギーEを算出する処理である。まず、詳細領域特定部31は、画像40に含まれる画素について、肌色候補領域Sを構成する画素に肌色のラベルを、残りの画素に背景のラベルを割り当てる。そして、詳細領域特定部31は、肌色候補領域Sを初期領域とし、上述した(1)式〜(3)式を用いて、領域Iと初期領域とを同じ領域として初期エネルギーEを算出する。 Step S103 is a process of calculating the initial energy E 0. First, for the pixels included in the image 40, the detailed region specifying unit 31 assigns a skin color label to the pixels constituting the skin color candidate region S, and assigns a background label to the remaining pixels. Then, the detailed area specifying unit 31 uses the skin color candidate area S as the initial area, and calculates the initial energy E 0 using the above-described expressions (1) to (3) as the same area as the area I and the initial area. .

ステップS104は、領域を拡大する処理である。詳細領域設定部31は、現在の領域Iに、領域Iの外側に隣接する画素PO〜POを追加した領域を想定する。以下、画素POから順番に1画素ずつ追加した領域を想定する例を示す。図5(A)の白色の領域は、現在の領域Iを示し、斜線が引かれた領域は、領域Iの外側に隣接する画素PO〜POを示す。 Step S104 is processing to enlarge the area. The detailed area setting unit 31 assumes an area in which pixels PO 1 to PO n adjacent to the outside of the area I are added to the current area I. Hereinafter, an example in which an area in which pixels are added in order from the pixel PO 1 is assumed will be described. The white area in FIG. 5A indicates the current area I, and the hatched area indicates the pixels PO 1 to PO n adjacent to the outside of the area I.

ステップS105は、受理判定を行う処理である。まず、詳細領域特定部31は、画素POに肌色のラベルを割り当てた状態のエネルギーを算出し、このエネルギーと、画素POに肌色のラベルを割り当てる前の状態のエネルギーとの差ΔEiを算出する。そして、詳細領域特定部31は、ΔEi<0である場合は、P=1の確率で、画素POに肌色のラベルを割り当てる。一方、ΔEi>0である場合は、P=exp(−ΔEi/kT)の確率で、画素POに肌色のラベルを割り当てる。なお、kはボルツマン定数、Tは温度である。画素POに肌色のラベルを割り当てることにより、領域Iは、画素POの分が拡大される。 Step S105 is a process of performing acceptance determination. First, details area specifying unit 31 calculates the energy of the state assigned the label of skin color pixels PO 1, calculated with the energy, the difference ΔEi with energy in a state before assigning the label of the skin color pixel PO 1 To do. Then, when ΔEi <0, the detailed area specifying unit 31 assigns a skin color label to the pixel PO 1 with a probability of P = 1. On the other hand, when ΔEi> 0, a skin color label is assigned to the pixel PO 1 with a probability of P = exp (−ΔEi / kT c ). Note that k is Boltzmann's constant and Tc is temperature. By assigning labels skin color pixel PO 1, region I, the partial pixel PO 1 is enlarged.

CPU20は、次の状態が受け入れられる場合(ステップS105の判定がYESとなる場合)には、ステップS106に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS105の判定がNOとなる場合)には、後述するステップS113に進む。   CPU20 progresses to step S106, when the next state is accepted (when determination of step S105 becomes YES). On the other hand, when the next state is not accepted (when the determination in step S105 is NO), the CPU 20 proceeds to step S113 described later.

ステップS106は、領域Iの外側に隣接する全ての画素PO〜POに対してステップS104、ステップS105の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS106の判定がYESとなる場合)には、ステップS107に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS106の判定がNOとなる場合)には、ステップS104に戻り、拡大した領域を想定する。このように、詳細領域特定部31は、ステップS104、ステップS105の処理を繰り返し、画素PO〜POについて、次の状態が受け入れられる場合は、肌色のラベルを割り当てる。拡大後の領域I’の例を図5(B)に示す。 Step S106 is a process of determining whether or not the processes of steps S104 and S105 have been performed on all the pixels PO 1 to PO n adjacent to the outside of the region I. If the CPU 20 has processed all the pixels (when the determination in step S106 is YES), the CPU 20 proceeds to step S107. On the other hand, if the process has not been performed on all the pixels (when the determination in step S106 is NO), the CPU 20 returns to step S104 and assumes an enlarged area. As described above, the detailed region specifying unit 31 repeats the processes of Step S104 and Step S105, and assigns a skin color label when the next state is accepted for the pixels PO 1 to PO n . An example of the enlarged region I ′ is shown in FIG.

ステップS107は、領域を縮小する処理である。詳細領域設定部31は、拡大後の領域I’から、領域I’の外周部に位置する画素PI〜PIを除いた領域を想定する。以下、画素PIから順番に1画素ずつ除いた領域を想定する例を示す。図5(B)の点で塗られた領域は、領域I’の外周部に位置する画素PI〜PIを示す。 Step S107 is processing to reduce the area. The detailed area setting unit 31 assumes an area obtained by excluding the pixels PI 1 to PI n located on the outer periphery of the area I ′ from the enlarged area I ′. Hereinafter, an example in which an area obtained by removing pixels one by one from the pixel PI 1 in order is assumed. The area painted with dots in FIG. 5B indicates the pixels PI 1 to PI n located on the outer periphery of the area I ′.

ステップS108は、受理判定を行う処理である。まず、詳細領域特定部31は、画素PIに背景のラベルを割り当てた状態のエネルギーを算出し、このエネルギーと、画素PIに背景のラベルを割り当てる前の状態のエネルギーとの差ΔEjを算出する。そして、詳細領域特定部31は、ΔEj<0である場合は、P=1の確率で、画素PIに背景のラベルを割り当てる。一方、ΔEj>0である場合は、P=exp(−ΔEj/kT)の確率で、画素PIに背景のラベルを割り当てる。画素PIに背景のラベルを割り当てることにより、領域I’は、画素PIの分が縮小される。 Step S108 is a process of performing acceptance determination. First, details area specifying unit 31 calculates the energy of the state assigned the label of background pixel PI 1, calculated with the energy, the difference ΔEj of energy in a state before the pixel PI 1 assign a label background To do. Then, when ΔEj <0, the detailed region specifying unit 31 assigns a background label to the pixel PI 1 with a probability of P = 1. On the other hand, if ΔEj> 0, a background label is assigned to the pixel PI 1 with a probability of P = exp (−ΔEj / kT c ). By assigning a background label to the pixel PI 1 , the area I ′ is reduced by the amount of the pixel PI 1 .

CPU20は、次の状態が受け入れられる場合(ステップS108の判定がYESとなる場合)には、ステップS109に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS108の判定がNOとなる場合)には、後述するステップS113に進む。   When the next state is accepted (when the determination in step S108 is YES), the CPU 20 proceeds to step S109. On the other hand, when the next state is not accepted (when the determination in step S108 is NO), the CPU 20 proceeds to step S113 described later.

ステップS109は、領域I’の外周部に位置する画素PI〜PIに対してステップS107、ステップS108の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS109の判定がYESとなる場合)には、ステップS110に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS109の判定がNOとなる場合)には、ステップS107に戻る。このように、詳細領域特定部31は、ステップS107、ステップS108の処理を繰り返し、画素PI〜PIについて、次の状態が受け入れられる場合は、背景のラベルを割り当てる。縮小後の領域I’’の例を図5(C)に示す。 Step S109 is a process of determining whether or not the processes of Step S107 and Step S108 have been performed on the pixels PI 1 to PI n located on the outer periphery of the region I ′. When the CPU 20 has processed all the pixels (when the determination in step S109 is YES), the CPU 20 proceeds to step S110. On the other hand, if the process has not been performed on all the pixels (when the determination in step S109 is NO), the CPU 20 returns to step S107. Thus, detailed area specifying unit 31, step S107, repeats the processing in step S108, the pixel PI 1 ~PI m, if the next state is accepted, assigns a label background. An example of the reduced area I ″ is shown in FIG.

ステップS110は、状態を変更する処理である。詳細領域特定部31は、ステップS107で縮小した領域I’’を次の状態の領域I+1とする。   Step S110 is a process of changing the state. The detailed area specifying unit 31 sets the area I ″ reduced in step S107 as the area I + 1 in the next state.

ステップS111は、状態変更カウントに1を加算する処理である。   Step S111 is processing to add 1 to the state change count.

ステップS112は、状態変更カウントが閾値に達したか否かを判定する処理である。例えば、CPU20は、状態変更カウントが100より大きいか否かを判定する。そして、CPU20は、状態変更カウントが100より大きい場合(ステップS112の判定がYESとなる場合)には、ステップS113に進む。一方、CPU20は、状態変更カウントが100以下である場合(ステップS112の判定がNO)となる場合には、ステップS104に戻り、拡大した領域を想定する。   Step S112 is processing for determining whether or not the state change count has reached a threshold value. For example, the CPU 20 determines whether or not the state change count is greater than 100. If the state change count is greater than 100 (when the determination in step S112 is YES), the CPU 20 proceeds to step S113. On the other hand, if the state change count is 100 or less (NO in step S112), the CPU 20 returns to step S104 and assumes an enlarged area.

ステップS113は、終了判定を行う処理である。CPU20は、領域I+l(0≦l≦100)が変化しなくなったか否かを判定する。領域I+lが変化しなくなった状態とは、温度Tが十分に低く、領域I+lのエネルギーが最も低い状態である。また、この状態は、エネルギーが最も低く安定しているため、領域I+lの外側に隣接する画素に肌色のラベルを割り当てても、常にΔEi>0となり、領域I+lの外周部に位置する画素に背景のラベルを割り当てても、常にΔEj>0となる。 Step S113 is a process for determining termination. The CPU 20 determines whether or not the region I + 1 (0 ≦ l ≦ 100) has changed. The state where the region I + 1 does not change is a state where the temperature Tc is sufficiently low and the energy of the region I + 1 is lowest. In this state, since the energy is the lowest and stable, even if a skin color label is assigned to a pixel adjacent to the outside of the region I + l, ΔEi> 0 is always satisfied, and the pixel located in the outer peripheral portion of the region I + l has a background. Even if the label is assigned, ΔEj> 0 always holds.

CPU20は、領域I+lが変化しなくなったと判定した場合(ステップS113の判定がYESとなる場合)には、領域I+lを詳細領域Dとする。これにより、顔領域Fにおける肌領域が詳細領域Dとなる。そして、CPU20は、ステップS114に進む。一方、CPU20は、領域I+lが変化すると判定した場合(ステップS113の判定がNOとなる場合)には、ステップS115に進む。   When the CPU 20 determines that the region I + l has not changed (when the determination in step S113 is YES), the CPU 20 sets the region I + l as the detailed region D. Thereby, the skin area in the face area F becomes the detailed area D. Then, the CPU 20 proceeds to step S114. On the other hand, if the CPU 20 determines that the region I + 1 changes (when the determination in step S113 is NO), the CPU 20 proceeds to step S115.

ステップS114は、美肌処理を行う処理である。画像処理部32は、詳細領域Dに対して美肌処理を施す。そして、画像処理部32は、美肌処理後の画像40’を記録媒体18に記録し、一連の処理を終了する。   Step S114 is a process for performing skin beautification processing. The image processing unit 32 performs skin beautification processing on the detailed region D. Then, the image processing unit 32 records the image 40 ′ after the skin beautification process on the recording medium 18 and ends the series of processes.

ステップS115は、ステップS113の判定がNOとなる場合のクーリング処理である。詳細領域特定部31は、温度Tを下げる。温度Tcの下げ方は、以下の式で規定される。例えば、γ=0.9の定数とする。
c+1=γT
Step S115 is a cooling process when the determination in step S113 is NO. The detailed area specifying unit 31 decreases the temperature Tc . The method for lowering the temperature Tc is defined by the following equation. For example, assume that γ = 0.9.
T c + 1 = γT c

ステップS116は、状態変更カウントをリセットする処理である。詳細領域特定部31は、状態変更カウントをリセットし、ステップS104に戻り、拡大した領域を想定する。
図6は、エネルギーの差ΔEiと、確率Pとの関係を示す図である。なお、横軸はΔEiを示し、縦軸は確率Pを示す。図6に示すように、ΔEi<0のとき、P=1となり、ΔEi>0のとき、0<P<1となる。また、ΔEi>0における確率Pは、温度Tに依存する。すなわち、温度Tc+1、温度Tc+2と、温度を下げていくことにより、確率Pが0に近づいていき、最適解を算出する方向にしか進まなくなる。
Step S116 is processing to reset the state change count. The detailed area specifying unit 31 resets the state change count, returns to step S104, and assumes an enlarged area.
FIG. 6 is a diagram showing the relationship between the energy difference ΔEi and the probability P. The horizontal axis represents ΔEi, and the vertical axis represents the probability P. As shown in FIG. 6, P = 1 when ΔEi <0, and 0 <P <1 when ΔEi> 0. Further, the probability P at ΔEi> 0 depends on the temperature T c . That is, as the temperature T c + 1 and the temperature T c + 2 are lowered and the temperature is lowered, the probability P approaches 0 and only advances in the direction of calculating the optimum solution.

以上説明したように、第1実施形態の撮像装置10は、領域Iの状態を示す値を算出し、その値が最も好ましい値となるような最適解を見つけることにより、詳細領域Dを特定する。したがって、第1実施形態の撮像装置10によれば、詳細領域Dを精度良く特定することができる。また、第1実施形態の撮像装置10によれば、詳細領域Dを精度良く特定できるため、適確に詳細領域Dに美肌処理などの画像処理を施すことができる。   As described above, the imaging apparatus 10 according to the first embodiment calculates a value indicating the state of the region I, and specifies the detailed region D by finding an optimal solution that has the most preferable value. . Therefore, according to the imaging device 10 of the first embodiment, the detailed area D can be specified with high accuracy. Moreover, according to the imaging device 10 of 1st Embodiment, since the detailed area | region D can be pinpointed with sufficient precision, image processing, such as a skin-beautification process, can be performed to the detailed area | region D correctly.

(第2実施形態)
以下、第2実施形態について説明する。第1実施形態では、シュミレーテッドアニーリング法を用いて、詳細領域Dを特定する例を示した。第2実施形態では、温度T=0の一定とし、初期領域を拡大することにより、詳細領域Dを特定する例を示す。ここで、第2実施形態における撮像装置の構成は、図1に示す第1実施形態の撮像装置10と共通するので重複説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment will be described. In 1st Embodiment, the example which specifies the detailed area | region D using the simulated annealing method was shown. In the second embodiment, an example in which the detailed region D is specified by setting the temperature T c = 0 constant and enlarging the initial region will be described. Here, the configuration of the imaging apparatus in the second embodiment is the same as that of the imaging apparatus 10 of the first embodiment shown in FIG.

次に、図7のフローチャートを用いて、第2実施形態における詳細領域Dの特定処理の流れを説明する。なお、図7のフローチャートは、レリーズ釦24が全押しされたことを契機に実行される。また、以下、便宜上、1人の人物を撮像した画像40から詳細領域Dを特定する例を示す。   Next, the flow of the detailed area D specifying process in the second embodiment will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 7 is executed when the release button 24 is fully pressed. In addition, hereinafter, for the sake of convenience, an example in which the detailed region D is specified from the image 40 obtained by capturing one person will be described.

ステップS201からステップS204は、図4のフローチャートのステップS101からステップS104と同様の処理である。   Steps S201 to S204 are the same processes as steps S101 to S104 in the flowchart of FIG.

ステップS205は、受理判定を行う処理である。詳細領域特定部31は、画素POに肌色のラベルを割り当てた状態のエネルギーと、肌色のラベルを割り当てる前の状態のエネルギーの差ΔEiを算出する。そして、詳細領域特定部31は、ΔEi<0である場合は、P=1の確率で、画素POに肌色のラベルを割り当てる。一方、ΔEi>0である場合は、後述するステップS208に進む。すなわち、第2実施形態では、詳細領域特定部31は、ΔEi<0である場合のみ、次の状態を受け入れる。 Step S205 is a process of performing acceptance determination. The detailed area specifying unit 31 calculates a difference ΔEi between the energy in the state in which the skin color label is assigned to the pixel PO 1 and the energy in the state before the skin color label is assigned. Then, when ΔEi <0, the detailed area specifying unit 31 assigns a skin color label to the pixel PO 1 with a probability of P = 1. On the other hand, if ΔEi> 0, the process proceeds to step S208 described later. That is, in the second embodiment, the detailed area specifying unit 31 accepts the next state only when ΔEi <0.

CPU20は、次の状態が受け入れられる場合(ステップS205の判定がYESとなる場合)には、ステップS206に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS205の判定がNOとなる場合)には、後述するステップS207に進む。   CPU20 progresses to step S206, when the next state is accepted (when determination of step S205 becomes YES). On the other hand, when the next state is not accepted (when the determination in step S205 is NO), the CPU 20 proceeds to step S207 described later.

ステップS206は、状態を変更する処理である。詳細領域特定部31は、ステップS205で拡大した領域I’を次の状態の領域I+1とする。   Step S206 is a process of changing the state. The detailed area specifying unit 31 sets the area I ′ expanded in step S205 as the area I + 1 in the next state.

ステップS207は、領域Iの外側に隣接する全ての画素PO〜POに対してステップS204〜ステップS206の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS207の判定がYESとなる場合)には、ステップS208に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS207の判定がNOとなる場合)には、ステップS204に戻り、拡大した領域を想定する。 Step S207 is processing for determining whether or not the processing of Step S204 to Step S206 has been performed on all the pixels PO 1 to PO n adjacent to the outside of the region I. If the CPU 20 has processed all the pixels (if the determination in step S207 is YES), the CPU 20 proceeds to step S208. On the other hand, when the process has not been performed on all the pixels (when the determination in step S207 is NO), the CPU 20 returns to step S204 and assumes an enlarged area.

ステップS208は、終了判定を行う処理である。CPU20は、ステップS113と同様の処理を行い、領域I+qが変化しなくなったか否かを判定する。CPU20は、領域I+qが変化しなくなったと判定した場合(ステップS208の判定がYESとなる場合)には、領域I+qを詳細領域Dとする。これにより、顔領域Fにおける肌領域が詳細領域Dとなる。そして、CPU20は、ステップS209に進む。一方、CPU20は、領域I+qが変化すると判定した場合(ステップS208の判定がNOとなる場合)には、ステップS204に戻り、拡大した領域を想定する。   Step S208 is processing for determining termination. The CPU 20 performs the same process as step S113, and determines whether or not the region I + q has changed. When the CPU 20 determines that the region I + q has not changed (when the determination in step S208 is YES), the CPU 20 sets the region I + q as the detailed region D. Thereby, the skin area in the face area F becomes the detailed area D. Then, the CPU 20 proceeds to step S209. On the other hand, if the CPU 20 determines that the region I + q changes (when the determination in step S208 is NO), the CPU 20 returns to step S204 and assumes an enlarged region.

ステップS209は、ステップS114と同様の処理である。   Step S209 is the same process as step S114.

以上説明したように、第2実施形態の撮像装置10は、領域Iの状態を示す値を算出し、その値が最も好ましい値となるような最適解を見つけることにより、詳細領域Dを特定する。したがって、第2実施形態の撮像装置10によれば、第1実施形態と同様の効果を得ることができる。   As described above, the imaging device 10 according to the second embodiment calculates a value indicating the state of the region I, and specifies the detailed region D by finding an optimal solution that makes the value the most preferable value. . Therefore, according to the imaging device 10 of the second embodiment, the same effect as that of the first embodiment can be obtained.

なお、第1実施形態では、同一温度Tで、ステップS104からステップS109の処理を100回繰り返す例を示したが、これに限らない。例えば、厳密解を求めたい場合は、クーリングにより温度Tを下げていくほど、ステップS104からステップS109を繰り返す回数を多くすることが好ましい。 In the first embodiment, at the same temperature T C, an example is shown in which repeated 100 times the processing of step S109 from step S104, not limited to this. For example, when it is desired to obtain an exact solution, it is preferable to increase the number of times to repeat step S104 to step S109 as the temperature T is lowered by cooling.

また、第1実施形態では、ステップS112で温度Tを下げる際に、γ=0.9の定数とする例を示したが、γの値は一例であり、限定されない。 In the first embodiment, when lowering the temperature T C in step S112, an example is shown in which the constant of gamma = 0.9, the value of gamma is an example, not limited.

また、第1実施形態では、ステップS114で詳細領域Dに対して美肌処理を行う例を示したが、詳細領域Dに対する処理は、これに限らない。また、第2実施形態においても同様とする。   In the first embodiment, an example in which the skin beautification process is performed on the detailed area D in step S114 has been described. However, the process on the detailed area D is not limited to this. The same applies to the second embodiment.

また、第1実施家形態のステップS104では、1画素ずつ領域Iの外側に隣接する画素を追加する例を示したが、複数の画素ずつ追加しても良い。例えば、領域Iの外側に隣接する画素から、ランダムに抽出した5%の画素を追加しても良い。また、追加する画素数は、領域Iに応じて変化させても良い。例えば、初期領域に近い状態では、追加する画素数を大きくし、領域Iが拡大するに従い、追加する画素数を小さくする。これにより、領域Iが小さい状態では、演算回数を削減できる。また、最適解に近づいた状態では、細かい変化となるため、正確に詳細領域Dを特定することができる。なお、ステップS107においても同様とする。また、第2実施形態においても同様とする。   Moreover, although the example which adds the pixel which adjoins the outer side of the area | region I one pixel at a time was shown in step S104 of 1st embodiment, you may add several pixels one by one. For example, 5% of pixels extracted at random from pixels adjacent to the outside of the region I may be added. Further, the number of added pixels may be changed according to the region I. For example, in the state close to the initial region, the number of added pixels is increased, and the number of added pixels is decreased as the region I is enlarged. Thereby, in the state where the area | region I is small, the frequency | count of calculation can be reduced. In addition, in the state approaching the optimal solution, since the change is small, the detailed region D can be specified accurately. The same applies to step S107. The same applies to the second embodiment.

また、第1実施形態では、クーリングの回数を規定していないが、クーリングの回数を規定しても良い。この場合、CPU20は、ステップS116の後で、クーリングの回数が所定の回数Sに達したか否かを判定する。そして、CPU20は、クーリングが所定の回数Sに達したと判定した場合、温度Tc+S+1=0に設定し、ステップS104からステップS113の処理を実行する。これにより、詳細領域特定部31は、温度Tc+S+1=0の状態における局所解(ローカルミニマム)を得ることができる。 In the first embodiment, the number of times of cooling is not specified, but the number of times of cooling may be specified. In this case, the CPU 20 determines whether or not the number of times of cooling has reached a predetermined number S after step S116. When the CPU 20 determines that the cooling has reached the predetermined number of times S, the CPU 20 sets the temperature T c + S + 1 = 0, and executes the processing from step S104 to step S113. As a result, the detailed region specifying unit 31 can obtain a local solution (local minimum) in a state where the temperature T c + S + 1 = 0.

また、第1実施形態及び第2実施形態では、概略領域を特定する際に、目の中心と口の中心とを結ぶ例を示したが、これに限らない。例えば、目の任意の端点と、口の任意の端点とを結んでも良い。   In the first embodiment and the second embodiment, the example is shown in which the center of the eye and the center of the mouth are connected when the approximate region is specified. However, the present invention is not limited to this. For example, an arbitrary end point of the eye may be connected to an arbitrary end point of the mouth.

また、第1実施形態及び第2実施形態では、エネルギーEを算出する際に、RGB色空間を用いる例を示したが、これに限らない。例えば、HSV、Yuv等の色空間を用いても良い。   In the first embodiment and the second embodiment, the example in which the RGB color space is used when calculating the energy E is shown, but the present invention is not limited to this. For example, a color space such as HSV or Yuv may be used.

また、第1実施形態及び第2実施形態では、1人の人物を撮像した画像40から詳細領域Dを特定する例を示したが、複数の人物を撮像した画像40から詳細領域Dを特定することも可能である。   In the first embodiment and the second embodiment, an example in which the detailed area D is specified from the image 40 obtained by imaging one person is shown. However, the detailed area D is specified from the image 40 obtained by imaging a plurality of persons. It is also possible.

また、第1実施形態及び第2実施形態では、撮像装置10を例に挙げて説明したが、これに限らない。例えば、図1に示した以外の構成を有する撮像装置にも本発明を同様に適用することができる。また、パソコン、デジタルフォトフレームなどの画像処理装置にも本発明を同様に適用することができる。さらに、図1に示す機能や、図4、7に示すフローチャートの流れをプログラムとしてコンピュータ読み取り可能な記録媒体に記録し、該プログラムをコンピュータにて実行するようにしても良い。   In the first embodiment and the second embodiment, the imaging apparatus 10 has been described as an example, but the present invention is not limited to this. For example, the present invention can be similarly applied to an imaging apparatus having a configuration other than that shown in FIG. Further, the present invention can be similarly applied to an image processing apparatus such as a personal computer or a digital photo frame. Furthermore, the functions shown in FIG. 1 and the flowcharts shown in FIGS. 4 and 7 may be recorded as a program on a computer-readable recording medium, and the program may be executed by the computer.

10…撮像装置、20…CPU、29…抽出部、30…概略領域特定部、31…詳細領域特定部、32…画像処理部   DESCRIPTION OF SYMBOLS 10 ... Imaging device, 20 ... CPU, 29 ... Extraction part, 30 ... Outline area specification part, 31 ... Detailed area specification part, 32 ... Image processing part

Claims (10)

画像から被写体の顔領域の一部である第1領域を特定する第1特定部と、
前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出部と、
前記算出部が算出する前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定部と
を備えることを特徴とする画像処理装置。
A first specifying unit that specifies a first region that is a part of the face region of the subject from the image;
The similarity between the color of the pixels constituting the first area and the color of the pixels constituting the second area including a part of the first area, the assumed proportion of the face area in the image, and the first A calculation unit that calculates a value indicating the state of the second region using the similarity between the brightness of the pixels constituting the two regions and the brightness of the pixels adjacent to the pixels;
An image processing apparatus comprising: a second specifying unit that specifies the second region as a skin region based on a value indicating the state of the second region calculated by the calculating unit.
請求項1に記載の画像処理装置において、
前記第2特定部は、前記算出部が算出する前記第2領域の状態を示す値が最も好ましい値となるまで前記第2領域の形状を変化させ、前記第2領域の状態を示す値が最も好ましい値となったときの前記第2領域を肌領域として特定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The second specifying unit changes the shape of the second region until the value indicating the state of the second region calculated by the calculation unit is the most preferable value, and the value indicating the state of the second region is the highest. An image processing apparatus that identifies the second region as a skin region when a preferable value is reached.
請求項1又は請求項2に記載の画像処理装置において、
前記第2特定部は、前記第2領域を拡大する処理、及び縮小する処理の少なくとも一方を行うことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus, wherein the second specifying unit performs at least one of a process of enlarging the second area and a process of reducing the second area.
請求項1から請求項3のいずれか1項に記載の画像処理装置において、
前記画像から少なくとも1つの目領域、及び口領域を抽出する抽出部を備え、
前記第1領域は、前記目領域における任意の画素と前記口領域における任意の画素とを結ぶ線上に位置する画素の領域、前記目領域のそれぞれにおける任意の画素と前記口領域における任意の画素とを結ぶ三角形の領域、或いは前記目領域のそれぞれにおける任意の画素を頂点とし、前記口領域における任意の画素を底辺に含む矩形の領域のいずれかであることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
An extraction unit that extracts at least one eye region and a mouth region from the image,
The first area is an area of a pixel located on a line connecting an arbitrary pixel in the eye area and an arbitrary pixel in the mouth area, an arbitrary pixel in each of the eye areas, and an arbitrary pixel in the mouth area. An image processing apparatus characterized in that it is either a triangular area connecting the two or a rectangular area having an arbitrary pixel in each of the eye areas as a vertex and an arbitrary pixel in the mouth area at the bottom.
請求項1から請求項4のいずれか1項に記載の画像処理装置において、
前記算出部は、最適解法により前記第2領域の状態を示す値を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein:
The image processing apparatus, wherein the calculation unit calculates a value indicating the state of the second region by an optimal solution.
請求項5に記載の画像処理装置において、
前記最も好ましい値は、最小値であることを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The most preferable value is a minimum value.
請求項5に記載の画像処理装置において、
前記最も好ましい値は、局所解であることを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The most preferable value is a local solution.
請求項1から請求項7のいずれか1項に記載の画像処理装置において、
前記第2特定部は、前記第1領域から肌の色でない色の領域を除外してから、前記第2領域の形状を変化させることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus, wherein the second specifying unit changes a shape of the second area after excluding a color area that is not a skin color from the first area.
請求項1から請求項8のいずれか1項に記載の画像処理装置において、
肌の領域として特定された前記第2領域に美肌処理を施す画像処理部を備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 8,
An image processing apparatus comprising: an image processing unit that performs a skin beautification process on the second region specified as a skin region.
画像から被写体の顔領域の一部である第1領域を特定する第1特定工程と、
前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出工程と、
前記算出工程において算出される前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定工程と
をコンピュータで実現することを特徴とする画像処理プログラム。
A first specifying step of specifying a first region that is a part of the face region of the subject from the image;
The similarity between the color of the pixels constituting the first area and the color of the pixels constituting the second area including a part of the first area, the assumed proportion of the face area in the image, and the first A calculation step of calculating a value indicating the state of the second region using the similarity between the brightness of the pixels constituting the two regions and the brightness of the pixels adjacent to the pixels;
An image processing program that realizes, by a computer, a second specifying step of specifying the second region as a skin region based on a value indicating the state of the second region calculated in the calculating step.
JP2012043322A 2012-02-29 2012-02-29 Image processing apparatus and image processing program Active JP5874440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012043322A JP5874440B2 (en) 2012-02-29 2012-02-29 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012043322A JP5874440B2 (en) 2012-02-29 2012-02-29 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2013178720A JP2013178720A (en) 2013-09-09
JP5874440B2 true JP5874440B2 (en) 2016-03-02

Family

ID=49270282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012043322A Active JP5874440B2 (en) 2012-02-29 2012-02-29 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5874440B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338377A (en) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp Image correction method, apparatus, and program
JP2007193590A (en) * 2006-01-19 2007-08-02 Konica Minolta Photo Imaging Inc Image processing method, image processing device, reception terminal, and image processing program
JP2010271921A (en) * 2009-05-21 2010-12-02 Fujifilm Corp Skin area extraction method, skin area extraction device, and skin area extracting program

Also Published As

Publication number Publication date
JP2013178720A (en) 2013-09-09

Similar Documents

Publication Publication Date Title
EP3477931A1 (en) Image processing method and device, readable storage medium and electronic device
US9251589B2 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US7539342B2 (en) Image correction apparatus
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
JP5205968B2 (en) Gradation correction method, gradation correction apparatus, gradation correction program, and image device
CN103973977B (en) Virtualization processing method, device and the electronic equipment of a kind of preview interface
JP3684017B2 (en) Image processing apparatus and method
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP6818463B2 (en) Image processing equipment, image processing methods and programs
JP6320115B2 (en) Image processing apparatus, image processing method, and program
JP5653104B2 (en) Image processing apparatus, image processing method, and program
WO2016206344A1 (en) White balance correction method, device and computer storage medium
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP5272775B2 (en) Electronic still camera
JP5874440B2 (en) Image processing apparatus and image processing program
JP5453796B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP4742068B2 (en) Image processing method, image processing system, and image processing program
US20220292640A1 (en) Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium
JP2005242535A (en) Image correction device
JP3927979B2 (en) Image processing apparatus and method
JP5093540B2 (en) Eye position detection method and detection system
WO2023048153A1 (en) Information processing method, computer program, and information processing device
CN112613459B (en) Method for detecting face sensitive area

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5874440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250