JP5874440B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP5874440B2 JP5874440B2 JP2012043322A JP2012043322A JP5874440B2 JP 5874440 B2 JP5874440 B2 JP 5874440B2 JP 2012043322 A JP2012043322 A JP 2012043322A JP 2012043322 A JP2012043322 A JP 2012043322A JP 5874440 B2 JP5874440 B2 JP 5874440B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- image processing
- processing apparatus
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 7
- 238000001816 cooling Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000002922 simulated annealing Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
従来から、画像に含まれる顔の肌領域を特定する方法として、色空間情報を用いる方法や、想定する顔形状近傍に存在する輪郭情報を用いる方法が知られている。例えば、特許文献1では、高い信頼度で抽出した画素群を構成するそれぞれの画素について、画素に隣接する所定領域の色相、彩度及び明度を調べ、所定の条件を満たす領域を肌領域として加え、肌領域を成長させる。そして、成長させるべき近隣の画素がなくなるか、もしくはこの処理の繰り返し回数が所定数に達するまで繰り返すことにより、肌領域を得る。
Conventionally, as a method for specifying a skin area of a face included in an image, a method using color space information or a method using contour information existing in the vicinity of an assumed face shape is known. For example, in
しかし、上述した特許文献1の特定方法では、画素毎に条件比較を行うため、条件となる閾値付近では離散的な領域が発生し、形状が安定しないという問題があった。また、単に色空間における比較を行った場合、被写体の撮影環境、化粧や肌の色に対応するためには、条件幅を広くする必要があるが、顔や肌以外の領域の誤抽出を防止するためには、この条件幅を狭くせざるを得ないため、精度の良い肌領域の抽出が困難であった。
However, in the above-described specifying method of
そこで、本発明の画像処理装置及び画像処理プログラムは、顔の肌領域を精度良く特定することを目的とする。 Therefore, an object of the image processing apparatus and the image processing program of the present invention is to specify a facial skin region with high accuracy.
本発明の画像処理装置は、画像から被写体の顔領域の一部である第1領域を特定する第1特定部と、前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出部と、前記算出部が算出する前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定部とを備える。 An image processing apparatus according to the present invention includes: a first specifying unit that specifies a first area that is a part of a face area of a subject from an image; a color of a pixel that forms the first area; and a part of the first area. The similarity of the colors of the pixels constituting the second area, the expected proportion of the face area in the image, and the brightness of the pixels constituting the second area and the brightness of the pixels adjacent to the pixels Using the similarity, a calculation unit that calculates a value indicating the state of the second region, and a value indicating the state of the second region calculated by the calculation unit is specified as the skin region And a second specifying unit.
なお、前記第2特定部は、前記算出部が算出する前記第2領域の状態を示す値が最も好ましい値となるまで前記第2領域の形状を変化させ、前記第2領域の状態を示す値が最も好ましい値となったときの前記第2領域を肌領域として特定しても良い。 The second specifying unit changes the shape of the second region until the value indicating the state of the second region calculated by the calculation unit is the most preferable value, and indicates a value indicating the state of the second region. You may identify the said 2nd area | region when becomes the most preferable value as a skin area | region.
また、前記第2特定部は、前記第2領域を拡大する処理、及び縮小する処理の少なくとも一方を行っても良い。 The second specifying unit may perform at least one of a process for enlarging the second area and a process for reducing the second area.
また、前記画像から少なくとも1つの目領域、及び口領域を抽出する抽出部を備え、前記第1領域は、前記目領域における任意の画素と前記口領域における任意の画素とを結ぶ線上に位置する画素の領域、前記目領域のそれぞれにおける任意の画素と前記口領域における任意の画素とを結ぶ三角形の領域、或いは前記目領域のそれぞれにおける任意の画素を頂点とし、前記口領域における任意の画素を底辺に含む矩形の領域のいずれかであっても良い。 The image processing apparatus further includes an extraction unit that extracts at least one eye region and a mouth region from the image, and the first region is located on a line connecting any pixel in the eye region and any pixel in the mouth region. A pixel region, a triangular region connecting any pixel in each of the eye regions and any pixel in the mouth region, or any pixel in each of the eye regions as a vertex, and any pixel in the mouth region Any of the rectangular area | regions included in a base may be sufficient.
また、前記算出部は、最適解法により前記第2領域の状態を示す値を算出しても良い。 Further, the calculation unit may calculate a value indicating the state of the second region by an optimal solution.
また、前記最も好ましい値は、最小値であっても良い。 The most preferable value may be a minimum value.
また、前記最も好ましい値は、局所解であっても良い。 The most preferable value may be a local solution.
また、前記第2特定部は、前記第1領域から肌の色でない色の領域を除外してから、前記第2領域の形状を変化させても良い。 In addition, the second specifying unit may change the shape of the second area after excluding a color area that is not a skin color from the first area.
また、肌の領域として特定された前記第2領域に美肌処理を施す画像処理部を備えても良い。 Moreover, you may provide the image process part which performs a beautification process to the said 2nd area | region specified as an area | region of skin.
本発明の画像処理プログラムは、画像から被写体の顔領域の一部である第1領域を特定する第1特定工程と、前記第1領域を構成する画素の色と前記第1画像の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出工程と、前記算出工程において算出される前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定工程とをコンピュータで実現する。 The image processing program of the present invention includes: a first specifying step for specifying a first area that is a part of a face area of a subject from an image; a color of a pixel that forms the first area; and a part of the first image. The similarity of the colors of the pixels constituting the second area, the expected proportion of the face area in the image, and the brightness of the pixels constituting the second area and the brightness of the pixels adjacent to the pixels Based on the calculation step for calculating the value indicating the state of the second region using the similarity, and the value indicating the state of the second region calculated in the calculation step, the second region is defined as a skin region. The second specifying step to be specified is realized by a computer.
本発明の画像処理装置及び画像処理プログラムによれば、顔の肌領域を精度良く特定することができる。 According to the image processing apparatus and the image processing program of the present invention, it is possible to accurately specify the facial skin area.
(第1実施形態)
以下、図面を用いて本発明の第1実施形態について説明する。図1は、第1実施形態における撮像装置10の構成を示すブロック図である。図1に示すように、撮像装置10は、撮像レンズ11、撮像素子12、A/D変換部13、バッファメモリ14、表示部15、フラッシュRAM16、記録I/F部17、記録媒体18、操作部19、CPU20、バス21を備える。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an
撮像レンズ11は、撮像素子12の結像面に被写体像を結像する。撮像素子12は、撮像レンズ11を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮像素子12から出力される画像信号は、A/D変換部13に入力される。A/D変換部13は、撮像素子12から出力されるアナログの画像信号をデジタルの画像信号に変換する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ14に記録される。バッファメモリ14は、後述する画像処理部32による画像処理の前工程や後工程で画像データを一時的に記録する。
The
表示部15は、各種の画像を表示する。表示部15に表示される各種の画像は、撮像により取得された画像、メニュー画像、後述する記録媒体18に記録された画像等である。フラッシュRAM16は、ファームウェアなどを記憶している。記録I/F部17は、記録媒体18を接続するためのコネクタを備えている。この記録I/F部17と記録媒体18とが接続されることにより、記録媒体18に対してデータの書き込み/読み出しが実行される。
The
操作部19は、レリーズ釦24、十字キー25等を有する。レリーズ釦24は、撮像時にユーザにより操作される。十字キー25は、上記のメニュー画像等で操作される。なお、レリーズ釦24、十字キー25の状態はCPU20により検知され、検知された釦やキーの状態に基づいたシーケンスが実行される。
The
CPU20は、所定のシーケンスプログラムにしたがって、撮像装置10の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AE等)を実行する。また、CPU20は、抽出部29、概略領域特定部30、詳細領域特定部31、画像処理部32を備える。図2(a)は、処理対象となる画像(符号40)の一例を示す図である。なお、画像40としては、撮像により取得した画像でも良いし、記録媒体18に記録された画像でも良い。
The
抽出部29は、画像から、特開2001−16573号公報などに記載された特徴点抽出処理によって、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などを抽出する。図2(a)の太線で囲まれた領域は、顔領域Fを示す。
The
概略領域特定部30は、抽出部29によって抽出された目、唇の各端点に基づいて、概略領域Rを特定する。この概略領域Rとは、顔領域Fの一部であり、確実に顔領域Fに含まれていると判断できる領域である。図2(a)の点線で囲まれた領域は、概略領域Rを示す。図2(a)に示すように、概略領域特定部30は、両目のそれぞれの中心を頂点とし、口の中心を底辺に含む矩形の領域を概略領域Rとして特定する。なお、図2(b)に示すように、概略領域特定部30は、両目のそれぞれの中心と、口の中心とを結んだ三角形の領域を概略領域R2として特定しても良い。また、図2(c)に示すように、概略領域特定部30は、片目の中心と、口の中心とを結んだ線上に位置する画素を概略領域R3として特定しても良い。
The approximate
詳細領域特定部31は、肌色候補領域S、及び詳細領域Dを特定する。まず、肌色候補領域Sについて説明する。肌色候補領域Sは、概略領域Rから、肌色が存在するとみなすことができない色座標の画素を除外した領域である。除外対象としては、例えば、目、口、顔に被っているオブジェクト、眼鏡、頬のペインティングなどが想定される。詳細領域特定部31は、RGB色空間の画像データをHSV色空間の画像データに変換する。そして、詳細領域特定部31は、HSV色空間にて、Hueが20〜50°の範囲から外れた画素を除外することにより、肌色候補領域Sを特定する。概略領域Rが矩形の領域である場合、肌色候補領域Sは、図2(a)の斜線の領域で示される。
The detailed
次に、詳細領域Dについて説明する。詳細領域Dは、肌色候補領域Sを拡大及び縮小させることにより特定される、顔領域Fにおける肌領域である。以下、肌色候補領域Sを初期領域とし、初期領域から詳細領域Dに至る途中の領域を領域Iとする。詳細領域特定部31は、領域Iの状態を示す値を算出し、この値が最も好ましい値となったときの領域Iを詳細領域Dとして特定する。図3の点で塗られた領域は、詳細領域Dを示す。詳細領域Dの特定については、後述する。
Next, the detailed area D will be described. The detailed area D is a skin area in the face area F specified by enlarging and reducing the skin color candidate area S. Hereinafter, the skin color candidate region S is defined as an initial region, and a region in the middle from the initial region to the detailed region D is defined as a region I. The detailed
第1実施形態では、最適解を求める方法として、シュミレーテッドアニーリング(Simulated Annealing)法を用いる。シュミレーテッドアニーリングは、高温で加熱した金属の温度を除々に下げていくことで、欠陥の少ない優れた結晶構造を作る物理プロセス(焼きなまし)を模したもので、逐次的な解の改善操作を繰り返す最適化手法である。この方法では、現在の状態よりエネルギーの低い状態への変化を繰り返すことで、最もエネルギーの低い状態(最適解)に近づけていく。その際、単にエネルギーの低い状態のみ選択し続けると局所解に陥る可能性があるが、ある確率でエネルギーの増加を認めるところに、この方法の特徴がある。 In the first embodiment, a simulated annealing method is used as a method for obtaining an optimal solution. Simulated annealing simulates a physical process (annealing) that creates an excellent crystal structure with few defects by gradually lowering the temperature of a metal heated at a high temperature. It is an optimization method. In this method, the state with the lowest energy (optimum solution) is approached by repeating the change from the current state to the state with lower energy. At this time, if only the low energy state is continuously selected, there is a possibility of falling into a local solution, but the feature of this method is that an increase in energy is recognized with a certain probability.
次に、現在の領域Iの状態を示すエネルギーEを以下の(1)式で示す。なお、画像40の各画素には、肌色又は背景のラベルが割り当てられる。 Next, energy E indicating the current state of the region I is expressed by the following equation (1). Each pixel of the image 40 is assigned a skin color or background label.
(1)式において、Vは注目画素、Paは注目画素の4隣接(又は8隣接)画素ペア集団を示す。また、u、vはこの画素ペア集団のうち、いずれか2つの画素(以下、隣接画素と称する)であり、δ、γは係数を示す。 In the equation (1), V represents a pixel of interest, and Pa represents a group of 4 adjacent (or 8 adjacent) pixel pairs of the pixel of interest. U and v are any two pixels (hereinafter referred to as adjacent pixels) in the pixel pair group, and δ and γ are coefficients.
また、Xは、各画素に割り当てられるラベルであり、
X=肌 if 肌である
背景 otherwise.となる。
X is a label assigned to each pixel,
X = skin if skin background otherwise.
まず、(1)式の右辺第1項について説明する。(1)式の右辺第1項は、肌らしさと、肌と背景との割合から求められるエネルギーとを表す。すなわち、(1)式の右辺第1項は、肌色のラベルが割り当てられた画素から構成される領域と、実際の肌領域とが一致するほど、また、顔領域Fと背景領域との割合が想定した比率に近づくほど、低い値となる。 First, the first term on the right side of the equation (1) will be described. The first term on the right side of the equation (1) represents skinness and energy obtained from the ratio between the skin and the background. That is, the first term on the right side of the equation (1) indicates that the ratio of the face area F to the background area increases as the area composed of pixels to which the skin color label is assigned matches the actual skin area. The closer to the assumed ratio, the lower the value.
(1)式の右辺第1項のgV(XV)を以下の(2)式で示す。 G V (X V ) of the first term on the right side of the equation (1) is represented by the following equation (2).
(2)式において、Aは肌色候補領域Sを構成する画素の色(肌色)、Bは注目画素の色、A−Bは、肌色候補領域Sを構成する画素の色と、注目画素の色との差(色差)、Xは注目画素のラベルを示す。例えば、RA、GA、BAは、それぞれ肌色候補領域Sを構成する画素のRの平均値、Gの平均値、Bの平均値とする。また、αは画像40に対する肌領域の割合を予め決める係数であり、βは肌ラベル画素から求められる肌らしさの度合いを決める係数である。 In the expression (2), A is the color (skin color) of the pixel constituting the skin color candidate area S, B is the color of the target pixel, and AB is the color of the pixel constituting the skin color candidate area S and the color of the target pixel. Difference (color difference), X indicates the label of the pixel of interest. For example, R A , G A , and B A are an average value of R, an average value of G, and an average value of B, respectively, of the pixels constituting the skin color candidate region S. Further, α is a coefficient that predetermines the ratio of the skin area to the image 40, and β is a coefficient that determines the degree of skininess obtained from the skin label pixel.
(2)式の右辺第1項は、画素のラベルが肌であった場合のみ、値β||A−B||2が与えられることを表す。また、(2)式の右辺第2項は、画素のラベルが肌であった場合にαが、背景であった場合に(1−α)が与えられることを表す。 The first term on the right side of equation (2) represents that the value β || AB || 2 is given only when the label of the pixel is skin. The second term on the right side of the equation (2) indicates that α is given when the pixel label is skin, and (1-α) is given when the pixel label is background.
次に、(1)式の右辺第2項について説明する。(1)式の右辺第2項は、隣接画素間の明るさが同じであるかの度合いを表す。(1)式の右辺第2項のhuv(Xu,XV)を以下の(3)式で示す。
詳細領域特定部31は、エネルギーEを最小に近づけていくように動作する。そして、エネルギーEが最小となるとき、肌色のラベルが割り当てられた画素から構成される領域が詳細領域Dとなる。
The detailed
画像処理部32は、バッファメモリ14に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部32は、JPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。
The
また、画像処理部32は、詳細領域特定部31が特定した詳細領域Dに対して、美肌処理を行う。例えば、画像処理部32は、詳細領域Dの露出をオーバー側に補正する露出補正を行う。これにより、被写体の肌が白く表現される。また、画像処理部32は、ソフトフォーカス処理を行う。これにより、被写体が女性である場合、女性らしさが強調され、柔らかみが生じるとともに、しわや肌荒れ等が目立ちにくくなる。また、画像処理部32は、彩度や明度のパラメータを補正することにより、肌を白く表現し、くすみ等を軽減する。
Further, the
バス21は、バッファメモリ14、表示部15、フラッシュRAM16、記録I/F部17、CPU20を相互に接続することにより、データや信号の出入力を実行する。
次に、図4のフローチャートを用いて、第1実施形態における詳細領域Dの特定処理の流れを説明する。なお、図4のフローチャートは、レリーズ釦24が全押しされたことを契機に実行される。また、以下、便宜上、1人の人物を撮像した画像40から詳細領域Dを特定する例を示す。
ステップS101は、概略領域Rを特定する処理である。抽出部29は、撮像により取得した画像40から目、唇の各端点などを抽出する。そして、概略領域特定部30は、目、唇の端点に基づいて、概略領域Rを特定する。
The
Next, the flow of the detailed area D specifying process in the first embodiment will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 4 is executed when the
Step S <b> 101 is processing for specifying the approximate region R. The
ステップS102は、肌色候補領域Sを特定する処理である。詳細領域特定部31は、RGB色空間の画像データをHSV色空間の画像データに変換する。そして、詳細領域特定部31は、概略領域Rから、Hueが20〜50°の範囲から外れた画素を除外し、肌色候補領域Sを特定する。
Step S102 is processing for specifying the skin color candidate region S. The detailed
ステップS103は、初期エネルギーE0を算出する処理である。まず、詳細領域特定部31は、画像40に含まれる画素について、肌色候補領域Sを構成する画素に肌色のラベルを、残りの画素に背景のラベルを割り当てる。そして、詳細領域特定部31は、肌色候補領域Sを初期領域とし、上述した(1)式〜(3)式を用いて、領域Iと初期領域とを同じ領域として初期エネルギーE0を算出する。
Step S103 is a process of calculating the initial energy E 0. First, for the pixels included in the image 40, the detailed
ステップS104は、領域を拡大する処理である。詳細領域設定部31は、現在の領域Iに、領域Iの外側に隣接する画素PO1〜POnを追加した領域を想定する。以下、画素PO1から順番に1画素ずつ追加した領域を想定する例を示す。図5(A)の白色の領域は、現在の領域Iを示し、斜線が引かれた領域は、領域Iの外側に隣接する画素PO1〜POnを示す。
Step S104 is processing to enlarge the area. The detailed
ステップS105は、受理判定を行う処理である。まず、詳細領域特定部31は、画素PO1に肌色のラベルを割り当てた状態のエネルギーを算出し、このエネルギーと、画素PO1に肌色のラベルを割り当てる前の状態のエネルギーとの差ΔEiを算出する。そして、詳細領域特定部31は、ΔEi<0である場合は、P=1の確率で、画素PO1に肌色のラベルを割り当てる。一方、ΔEi>0である場合は、P=exp(−ΔEi/kTc)の確率で、画素PO1に肌色のラベルを割り当てる。なお、kはボルツマン定数、Tcは温度である。画素PO1に肌色のラベルを割り当てることにより、領域Iは、画素PO1の分が拡大される。
Step S105 is a process of performing acceptance determination. First, details
CPU20は、次の状態が受け入れられる場合(ステップS105の判定がYESとなる場合)には、ステップS106に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS105の判定がNOとなる場合)には、後述するステップS113に進む。
CPU20 progresses to step S106, when the next state is accepted (when determination of step S105 becomes YES). On the other hand, when the next state is not accepted (when the determination in step S105 is NO), the
ステップS106は、領域Iの外側に隣接する全ての画素PO1〜POnに対してステップS104、ステップS105の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS106の判定がYESとなる場合)には、ステップS107に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS106の判定がNOとなる場合)には、ステップS104に戻り、拡大した領域を想定する。このように、詳細領域特定部31は、ステップS104、ステップS105の処理を繰り返し、画素PO1〜POnについて、次の状態が受け入れられる場合は、肌色のラベルを割り当てる。拡大後の領域I’の例を図5(B)に示す。
Step S106 is a process of determining whether or not the processes of steps S104 and S105 have been performed on all the pixels PO 1 to PO n adjacent to the outside of the region I. If the
ステップS107は、領域を縮小する処理である。詳細領域設定部31は、拡大後の領域I’から、領域I’の外周部に位置する画素PI1〜PInを除いた領域を想定する。以下、画素PI1から順番に1画素ずつ除いた領域を想定する例を示す。図5(B)の点で塗られた領域は、領域I’の外周部に位置する画素PI1〜PInを示す。
Step S107 is processing to reduce the area. The detailed
ステップS108は、受理判定を行う処理である。まず、詳細領域特定部31は、画素PI1に背景のラベルを割り当てた状態のエネルギーを算出し、このエネルギーと、画素PI1に背景のラベルを割り当てる前の状態のエネルギーとの差ΔEjを算出する。そして、詳細領域特定部31は、ΔEj<0である場合は、P=1の確率で、画素PI1に背景のラベルを割り当てる。一方、ΔEj>0である場合は、P=exp(−ΔEj/kTc)の確率で、画素PI1に背景のラベルを割り当てる。画素PI1に背景のラベルを割り当てることにより、領域I’は、画素PI1の分が縮小される。
Step S108 is a process of performing acceptance determination. First, details
CPU20は、次の状態が受け入れられる場合(ステップS108の判定がYESとなる場合)には、ステップS109に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS108の判定がNOとなる場合)には、後述するステップS113に進む。
When the next state is accepted (when the determination in step S108 is YES), the
ステップS109は、領域I’の外周部に位置する画素PI1〜PInに対してステップS107、ステップS108の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS109の判定がYESとなる場合)には、ステップS110に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS109の判定がNOとなる場合)には、ステップS107に戻る。このように、詳細領域特定部31は、ステップS107、ステップS108の処理を繰り返し、画素PI1〜PImについて、次の状態が受け入れられる場合は、背景のラベルを割り当てる。縮小後の領域I’’の例を図5(C)に示す。
Step S109 is a process of determining whether or not the processes of Step S107 and Step S108 have been performed on the pixels PI 1 to PI n located on the outer periphery of the region I ′. When the
ステップS110は、状態を変更する処理である。詳細領域特定部31は、ステップS107で縮小した領域I’’を次の状態の領域I+1とする。
Step S110 is a process of changing the state. The detailed
ステップS111は、状態変更カウントに1を加算する処理である。 Step S111 is processing to add 1 to the state change count.
ステップS112は、状態変更カウントが閾値に達したか否かを判定する処理である。例えば、CPU20は、状態変更カウントが100より大きいか否かを判定する。そして、CPU20は、状態変更カウントが100より大きい場合(ステップS112の判定がYESとなる場合)には、ステップS113に進む。一方、CPU20は、状態変更カウントが100以下である場合(ステップS112の判定がNO)となる場合には、ステップS104に戻り、拡大した領域を想定する。
Step S112 is processing for determining whether or not the state change count has reached a threshold value. For example, the
ステップS113は、終了判定を行う処理である。CPU20は、領域I+l(0≦l≦100)が変化しなくなったか否かを判定する。領域I+lが変化しなくなった状態とは、温度Tcが十分に低く、領域I+lのエネルギーが最も低い状態である。また、この状態は、エネルギーが最も低く安定しているため、領域I+lの外側に隣接する画素に肌色のラベルを割り当てても、常にΔEi>0となり、領域I+lの外周部に位置する画素に背景のラベルを割り当てても、常にΔEj>0となる。
Step S113 is a process for determining termination. The
CPU20は、領域I+lが変化しなくなったと判定した場合(ステップS113の判定がYESとなる場合)には、領域I+lを詳細領域Dとする。これにより、顔領域Fにおける肌領域が詳細領域Dとなる。そして、CPU20は、ステップS114に進む。一方、CPU20は、領域I+lが変化すると判定した場合(ステップS113の判定がNOとなる場合)には、ステップS115に進む。
When the
ステップS114は、美肌処理を行う処理である。画像処理部32は、詳細領域Dに対して美肌処理を施す。そして、画像処理部32は、美肌処理後の画像40’を記録媒体18に記録し、一連の処理を終了する。
Step S114 is a process for performing skin beautification processing. The
ステップS115は、ステップS113の判定がNOとなる場合のクーリング処理である。詳細領域特定部31は、温度Tcを下げる。温度Tcの下げ方は、以下の式で規定される。例えば、γ=0.9の定数とする。
Tc+1=γTc
Step S115 is a cooling process when the determination in step S113 is NO. The detailed
T c + 1 = γT c
ステップS116は、状態変更カウントをリセットする処理である。詳細領域特定部31は、状態変更カウントをリセットし、ステップS104に戻り、拡大した領域を想定する。
図6は、エネルギーの差ΔEiと、確率Pとの関係を示す図である。なお、横軸はΔEiを示し、縦軸は確率Pを示す。図6に示すように、ΔEi<0のとき、P=1となり、ΔEi>0のとき、0<P<1となる。また、ΔEi>0における確率Pは、温度Tcに依存する。すなわち、温度Tc+1、温度Tc+2と、温度を下げていくことにより、確率Pが0に近づいていき、最適解を算出する方向にしか進まなくなる。
Step S116 is processing to reset the state change count. The detailed
FIG. 6 is a diagram showing the relationship between the energy difference ΔEi and the probability P. The horizontal axis represents ΔEi, and the vertical axis represents the probability P. As shown in FIG. 6, P = 1 when ΔEi <0, and 0 <P <1 when ΔEi> 0. Further, the probability P at ΔEi> 0 depends on the temperature T c . That is, as the temperature T c + 1 and the temperature T c + 2 are lowered and the temperature is lowered, the probability P approaches 0 and only advances in the direction of calculating the optimum solution.
以上説明したように、第1実施形態の撮像装置10は、領域Iの状態を示す値を算出し、その値が最も好ましい値となるような最適解を見つけることにより、詳細領域Dを特定する。したがって、第1実施形態の撮像装置10によれば、詳細領域Dを精度良く特定することができる。また、第1実施形態の撮像装置10によれば、詳細領域Dを精度良く特定できるため、適確に詳細領域Dに美肌処理などの画像処理を施すことができる。
As described above, the
(第2実施形態)
以下、第2実施形態について説明する。第1実施形態では、シュミレーテッドアニーリング法を用いて、詳細領域Dを特定する例を示した。第2実施形態では、温度Tc=0の一定とし、初期領域を拡大することにより、詳細領域Dを特定する例を示す。ここで、第2実施形態における撮像装置の構成は、図1に示す第1実施形態の撮像装置10と共通するので重複説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment will be described. In 1st Embodiment, the example which specifies the detailed area | region D using the simulated annealing method was shown. In the second embodiment, an example in which the detailed region D is specified by setting the temperature T c = 0 constant and enlarging the initial region will be described. Here, the configuration of the imaging apparatus in the second embodiment is the same as that of the
次に、図7のフローチャートを用いて、第2実施形態における詳細領域Dの特定処理の流れを説明する。なお、図7のフローチャートは、レリーズ釦24が全押しされたことを契機に実行される。また、以下、便宜上、1人の人物を撮像した画像40から詳細領域Dを特定する例を示す。
Next, the flow of the detailed area D specifying process in the second embodiment will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 7 is executed when the
ステップS201からステップS204は、図4のフローチャートのステップS101からステップS104と同様の処理である。 Steps S201 to S204 are the same processes as steps S101 to S104 in the flowchart of FIG.
ステップS205は、受理判定を行う処理である。詳細領域特定部31は、画素PO1に肌色のラベルを割り当てた状態のエネルギーと、肌色のラベルを割り当てる前の状態のエネルギーの差ΔEiを算出する。そして、詳細領域特定部31は、ΔEi<0である場合は、P=1の確率で、画素PO1に肌色のラベルを割り当てる。一方、ΔEi>0である場合は、後述するステップS208に進む。すなわち、第2実施形態では、詳細領域特定部31は、ΔEi<0である場合のみ、次の状態を受け入れる。
Step S205 is a process of performing acceptance determination. The detailed
CPU20は、次の状態が受け入れられる場合(ステップS205の判定がYESとなる場合)には、ステップS206に進む。一方、CPU20は、次の状態が受け入れられない場合(ステップS205の判定がNOとなる場合)には、後述するステップS207に進む。
CPU20 progresses to step S206, when the next state is accepted (when determination of step S205 becomes YES). On the other hand, when the next state is not accepted (when the determination in step S205 is NO), the
ステップS206は、状態を変更する処理である。詳細領域特定部31は、ステップS205で拡大した領域I’を次の状態の領域I+1とする。
Step S206 is a process of changing the state. The detailed
ステップS207は、領域Iの外側に隣接する全ての画素PO1〜POnに対してステップS204〜ステップS206の処理を行ったか否かを判定する処理である。CPU20は、全ての画素に対して処理を行った場合(ステップS207の判定がYESとなる場合)には、ステップS208に進む。一方、CPU20は、全ての画素に対して処理を行っていない場合(ステップS207の判定がNOとなる場合)には、ステップS204に戻り、拡大した領域を想定する。
Step S207 is processing for determining whether or not the processing of Step S204 to Step S206 has been performed on all the pixels PO 1 to PO n adjacent to the outside of the region I. If the
ステップS208は、終了判定を行う処理である。CPU20は、ステップS113と同様の処理を行い、領域I+qが変化しなくなったか否かを判定する。CPU20は、領域I+qが変化しなくなったと判定した場合(ステップS208の判定がYESとなる場合)には、領域I+qを詳細領域Dとする。これにより、顔領域Fにおける肌領域が詳細領域Dとなる。そして、CPU20は、ステップS209に進む。一方、CPU20は、領域I+qが変化すると判定した場合(ステップS208の判定がNOとなる場合)には、ステップS204に戻り、拡大した領域を想定する。
Step S208 is processing for determining termination. The
ステップS209は、ステップS114と同様の処理である。 Step S209 is the same process as step S114.
以上説明したように、第2実施形態の撮像装置10は、領域Iの状態を示す値を算出し、その値が最も好ましい値となるような最適解を見つけることにより、詳細領域Dを特定する。したがって、第2実施形態の撮像装置10によれば、第1実施形態と同様の効果を得ることができる。
As described above, the
なお、第1実施形態では、同一温度TCで、ステップS104からステップS109の処理を100回繰り返す例を示したが、これに限らない。例えば、厳密解を求めたい場合は、クーリングにより温度Tを下げていくほど、ステップS104からステップS109を繰り返す回数を多くすることが好ましい。 In the first embodiment, at the same temperature T C, an example is shown in which repeated 100 times the processing of step S109 from step S104, not limited to this. For example, when it is desired to obtain an exact solution, it is preferable to increase the number of times to repeat step S104 to step S109 as the temperature T is lowered by cooling.
また、第1実施形態では、ステップS112で温度TCを下げる際に、γ=0.9の定数とする例を示したが、γの値は一例であり、限定されない。 In the first embodiment, when lowering the temperature T C in step S112, an example is shown in which the constant of gamma = 0.9, the value of gamma is an example, not limited.
また、第1実施形態では、ステップS114で詳細領域Dに対して美肌処理を行う例を示したが、詳細領域Dに対する処理は、これに限らない。また、第2実施形態においても同様とする。 In the first embodiment, an example in which the skin beautification process is performed on the detailed area D in step S114 has been described. However, the process on the detailed area D is not limited to this. The same applies to the second embodiment.
また、第1実施家形態のステップS104では、1画素ずつ領域Iの外側に隣接する画素を追加する例を示したが、複数の画素ずつ追加しても良い。例えば、領域Iの外側に隣接する画素から、ランダムに抽出した5%の画素を追加しても良い。また、追加する画素数は、領域Iに応じて変化させても良い。例えば、初期領域に近い状態では、追加する画素数を大きくし、領域Iが拡大するに従い、追加する画素数を小さくする。これにより、領域Iが小さい状態では、演算回数を削減できる。また、最適解に近づいた状態では、細かい変化となるため、正確に詳細領域Dを特定することができる。なお、ステップS107においても同様とする。また、第2実施形態においても同様とする。 Moreover, although the example which adds the pixel which adjoins the outer side of the area | region I one pixel at a time was shown in step S104 of 1st embodiment, you may add several pixels one by one. For example, 5% of pixels extracted at random from pixels adjacent to the outside of the region I may be added. Further, the number of added pixels may be changed according to the region I. For example, in the state close to the initial region, the number of added pixels is increased, and the number of added pixels is decreased as the region I is enlarged. Thereby, in the state where the area | region I is small, the frequency | count of calculation can be reduced. In addition, in the state approaching the optimal solution, since the change is small, the detailed region D can be specified accurately. The same applies to step S107. The same applies to the second embodiment.
また、第1実施形態では、クーリングの回数を規定していないが、クーリングの回数を規定しても良い。この場合、CPU20は、ステップS116の後で、クーリングの回数が所定の回数Sに達したか否かを判定する。そして、CPU20は、クーリングが所定の回数Sに達したと判定した場合、温度Tc+S+1=0に設定し、ステップS104からステップS113の処理を実行する。これにより、詳細領域特定部31は、温度Tc+S+1=0の状態における局所解(ローカルミニマム)を得ることができる。
In the first embodiment, the number of times of cooling is not specified, but the number of times of cooling may be specified. In this case, the
また、第1実施形態及び第2実施形態では、概略領域を特定する際に、目の中心と口の中心とを結ぶ例を示したが、これに限らない。例えば、目の任意の端点と、口の任意の端点とを結んでも良い。 In the first embodiment and the second embodiment, the example is shown in which the center of the eye and the center of the mouth are connected when the approximate region is specified. However, the present invention is not limited to this. For example, an arbitrary end point of the eye may be connected to an arbitrary end point of the mouth.
また、第1実施形態及び第2実施形態では、エネルギーEを算出する際に、RGB色空間を用いる例を示したが、これに限らない。例えば、HSV、Yuv等の色空間を用いても良い。 In the first embodiment and the second embodiment, the example in which the RGB color space is used when calculating the energy E is shown, but the present invention is not limited to this. For example, a color space such as HSV or Yuv may be used.
また、第1実施形態及び第2実施形態では、1人の人物を撮像した画像40から詳細領域Dを特定する例を示したが、複数の人物を撮像した画像40から詳細領域Dを特定することも可能である。 In the first embodiment and the second embodiment, an example in which the detailed area D is specified from the image 40 obtained by imaging one person is shown. However, the detailed area D is specified from the image 40 obtained by imaging a plurality of persons. It is also possible.
また、第1実施形態及び第2実施形態では、撮像装置10を例に挙げて説明したが、これに限らない。例えば、図1に示した以外の構成を有する撮像装置にも本発明を同様に適用することができる。また、パソコン、デジタルフォトフレームなどの画像処理装置にも本発明を同様に適用することができる。さらに、図1に示す機能や、図4、7に示すフローチャートの流れをプログラムとしてコンピュータ読み取り可能な記録媒体に記録し、該プログラムをコンピュータにて実行するようにしても良い。
In the first embodiment and the second embodiment, the
10…撮像装置、20…CPU、29…抽出部、30…概略領域特定部、31…詳細領域特定部、32…画像処理部
DESCRIPTION OF
Claims (10)
前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出部と、
前記算出部が算出する前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定部と
を備えることを特徴とする画像処理装置。 A first specifying unit that specifies a first region that is a part of the face region of the subject from the image;
The similarity between the color of the pixels constituting the first area and the color of the pixels constituting the second area including a part of the first area, the assumed proportion of the face area in the image, and the first A calculation unit that calculates a value indicating the state of the second region using the similarity between the brightness of the pixels constituting the two regions and the brightness of the pixels adjacent to the pixels;
An image processing apparatus comprising: a second specifying unit that specifies the second region as a skin region based on a value indicating the state of the second region calculated by the calculating unit.
前記第2特定部は、前記算出部が算出する前記第2領域の状態を示す値が最も好ましい値となるまで前記第2領域の形状を変化させ、前記第2領域の状態を示す値が最も好ましい値となったときの前記第2領域を肌領域として特定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The second specifying unit changes the shape of the second region until the value indicating the state of the second region calculated by the calculation unit is the most preferable value, and the value indicating the state of the second region is the highest. An image processing apparatus that identifies the second region as a skin region when a preferable value is reached.
前記第2特定部は、前記第2領域を拡大する処理、及び縮小する処理の少なくとも一方を行うことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The image processing apparatus, wherein the second specifying unit performs at least one of a process of enlarging the second area and a process of reducing the second area.
前記画像から少なくとも1つの目領域、及び口領域を抽出する抽出部を備え、
前記第1領域は、前記目領域における任意の画素と前記口領域における任意の画素とを結ぶ線上に位置する画素の領域、前記目領域のそれぞれにおける任意の画素と前記口領域における任意の画素とを結ぶ三角形の領域、或いは前記目領域のそれぞれにおける任意の画素を頂点とし、前記口領域における任意の画素を底辺に含む矩形の領域のいずれかであることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
An extraction unit that extracts at least one eye region and a mouth region from the image,
The first area is an area of a pixel located on a line connecting an arbitrary pixel in the eye area and an arbitrary pixel in the mouth area, an arbitrary pixel in each of the eye areas, and an arbitrary pixel in the mouth area. An image processing apparatus characterized in that it is either a triangular area connecting the two or a rectangular area having an arbitrary pixel in each of the eye areas as a vertex and an arbitrary pixel in the mouth area at the bottom.
前記算出部は、最適解法により前記第2領域の状態を示す値を算出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1, wherein:
The image processing apparatus, wherein the calculation unit calculates a value indicating the state of the second region by an optimal solution.
前記最も好ましい値は、最小値であることを特徴とする画像処理装置。 The image processing apparatus according to claim 5.
The most preferable value is a minimum value.
前記最も好ましい値は、局所解であることを特徴とする画像処理装置。 The image processing apparatus according to claim 5.
The most preferable value is a local solution.
前記第2特定部は、前記第1領域から肌の色でない色の領域を除外してから、前記第2領域の形状を変化させることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus, wherein the second specifying unit changes a shape of the second area after excluding a color area that is not a skin color from the first area.
肌の領域として特定された前記第2領域に美肌処理を施す画像処理部を備えることを特徴とする画像処理装置。 The image processing apparatus according to any one of claims 1 to 8,
An image processing apparatus comprising: an image processing unit that performs a skin beautification process on the second region specified as a skin region.
前記第1領域を構成する画素の色と前記第1領域の一部を含む第2領域を構成する画素の色との類似度、想定される前記画像中の前記顔領域の割合、及び前記第2領域を構成する画素の明るさと該画素に隣接する画素の明るさとの類似度を用いて、前記第2領域の状態を示す値を算出する算出工程と、
前記算出工程において算出される前記第2領域の状態を示す値に基づいて、前記第2領域を肌領域として特定する第2特定工程と
をコンピュータで実現することを特徴とする画像処理プログラム。 A first specifying step of specifying a first region that is a part of the face region of the subject from the image;
The similarity between the color of the pixels constituting the first area and the color of the pixels constituting the second area including a part of the first area, the assumed proportion of the face area in the image, and the first A calculation step of calculating a value indicating the state of the second region using the similarity between the brightness of the pixels constituting the two regions and the brightness of the pixels adjacent to the pixels;
An image processing program that realizes, by a computer, a second specifying step of specifying the second region as a skin region based on a value indicating the state of the second region calculated in the calculating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012043322A JP5874440B2 (en) | 2012-02-29 | 2012-02-29 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012043322A JP5874440B2 (en) | 2012-02-29 | 2012-02-29 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178720A JP2013178720A (en) | 2013-09-09 |
JP5874440B2 true JP5874440B2 (en) | 2016-03-02 |
Family
ID=49270282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012043322A Active JP5874440B2 (en) | 2012-02-29 | 2012-02-29 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5874440B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338377A (en) * | 2005-06-02 | 2006-12-14 | Fujifilm Holdings Corp | Image correction method, apparatus, and program |
JP2007193590A (en) * | 2006-01-19 | 2007-08-02 | Konica Minolta Photo Imaging Inc | Image processing method, image processing device, reception terminal, and image processing program |
JP2010271921A (en) * | 2009-05-21 | 2010-12-02 | Fujifilm Corp | Skin area extraction method, skin area extraction device, and skin area extracting program |
-
2012
- 2012-02-29 JP JP2012043322A patent/JP5874440B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013178720A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3477931A1 (en) | Image processing method and device, readable storage medium and electronic device | |
US9251589B2 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
US7539342B2 (en) | Image correction apparatus | |
JP4574249B2 (en) | Image processing apparatus and method, program, and imaging apparatus | |
JP5205968B2 (en) | Gradation correction method, gradation correction apparatus, gradation correction program, and image device | |
CN103973977B (en) | Virtualization processing method, device and the electronic equipment of a kind of preview interface | |
JP3684017B2 (en) | Image processing apparatus and method | |
JP5949331B2 (en) | Image generating apparatus, image generating method, and program | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
JP6320115B2 (en) | Image processing apparatus, image processing method, and program | |
JP5653104B2 (en) | Image processing apparatus, image processing method, and program | |
WO2016206344A1 (en) | White balance correction method, device and computer storage medium | |
US9323981B2 (en) | Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored | |
JP5272775B2 (en) | Electronic still camera | |
JP5874440B2 (en) | Image processing apparatus and image processing program | |
JP5453796B2 (en) | Image processing apparatus, electronic camera, and image processing program | |
JP5203159B2 (en) | Image processing method, image processing system, and image processing program | |
JP4742068B2 (en) | Image processing method, image processing system, and image processing program | |
US20220292640A1 (en) | Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium | |
JP2005242535A (en) | Image correction device | |
JP3927979B2 (en) | Image processing apparatus and method | |
JP5093540B2 (en) | Eye position detection method and detection system | |
WO2023048153A1 (en) | Information processing method, computer program, and information processing device | |
CN112613459B (en) | Method for detecting face sensitive area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5874440 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |